JP5011920B2 - Ensemble system - Google Patents

Ensemble system Download PDF

Info

Publication number
JP5011920B2
JP5011920B2 JP2006268185A JP2006268185A JP5011920B2 JP 5011920 B2 JP5011920 B2 JP 5011920B2 JP 2006268185 A JP2006268185 A JP 2006268185A JP 2006268185 A JP2006268185 A JP 2006268185A JP 5011920 B2 JP5011920 B2 JP 5011920B2
Authority
JP
Japan
Prior art keywords
performance
ensemble
pad
note
message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006268185A
Other languages
Japanese (ja)
Other versions
JP2008089748A (en
Inventor
聡史 宇佐
毅 境
雄平 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006268185A priority Critical patent/JP5011920B2/en
Publication of JP2008089748A publication Critical patent/JP2008089748A/en
Application granted granted Critical
Publication of JP5011920B2 publication Critical patent/JP5011920B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、簡単な演奏操作で合奏を行うことができる合奏システムに関する。   The present invention relates to an ensemble system capable of performing an ensemble with a simple performance operation.

楽器の操作に不慣れな人たちであっても容易に合奏を行うことができる電子楽器が提案されている(特許文献1)。この提案されている電子楽器によれば、手を振るといった簡単な動作で合奏を行うことができるようになる。
楽器の操作に不慣れな人たちがリハビリ等のために合奏を行うような場合、所定の人数(例えば、5人程度)でグループを形成し、ファシリテータ(facilitator:ガイド役、合奏リーダ)が参加者(生徒)を導いて合奏を行うことが多い。
そこで、本発明者らは、ファシリテータと各参加者との間で演奏パートの割当てが簡易かつ柔軟に行うことができる合奏システムを提案している(特願2005−281060号)。
特開2000−276136号公報
There has been proposed an electronic musical instrument that can be easily performed even by people who are unfamiliar with the operation of the musical instrument (Patent Document 1). According to the proposed electronic musical instrument, it is possible to perform an ensemble with a simple operation such as waving.
When people who are unfamiliar with the operation of the instrument perform an ensemble for rehabilitation, etc., a group is formed with a predetermined number of people (for example, about 5 people), and a facilitator (guide role, ensemble leader) is a participant Often leads (students) to perform ensembles.
Therefore, the present inventors have proposed an ensemble system in which performance parts can be easily and flexibly allocated between the facilitator and each participant (Japanese Patent Application No. 2005-281060).
JP 2000-276136 A

本発明者らにより提案されている上述した合奏システムによれば、ファシリテータと合奏の参加者(生徒)との間で演奏パートの割当てを簡易かつ柔軟に行うことができるが、参加者の人数が合奏の度に増減する場合、ファシリテータが、各演奏端末ごとに、出欠の設定をマニュアルで変更する必要があり、煩わしい作業が必要であった。
また、設定のミスや漏れのために、合奏がうまく始められない場合があった。
According to the above-described ensemble system proposed by the present inventors, performance parts can be easily and flexibly allocated between the facilitator and the ensemble participants (students). In the case of increasing / decreasing for each concert, the facilitator needs to manually change the attendance setting for each performance terminal, which is troublesome.
In addition, due to setting mistakes and omissions, there were cases where the ensemble could not be started successfully.

そこで、本発明は、合奏の参加者(生徒)が合奏開始前に試し打ちをすることによって、自動的に出席/欠席を判定し、設定することができる合奏システムを提供することを目的としている。 The present invention aims to ensemble participant (student) is by a trial and beating before the start if so, to determine automatically attendance / absence, provides an ensemble system capable of setting It is said.

上記目的を達成するために、本発明の合奏システムは、演奏者の操作を検出する複数のパッドと、該複数のパッドに接続され、各パッドに対する演奏者の操作により、該操作が検出されたパッドを識別するためのパッド識別情報を含む演奏データを出力するトリガーモジュールと、該トリガーモジュールから出力される演奏データに基づいて楽曲データから演奏情報を読み出すことにより、楽音の発生を制御する制御装置とを有する合奏システムであって、合奏の開始前に、前記合奏への参加者による試し打ち操作により前記トリガーモジュールから出力される演奏データに含まれたパッド識別情報に基づいて、前記合奏に参加する前記パッドを特定し、前記パッド前記合奏への出欠を判定する手段と、出席と判定されたパッドに演奏パートを割り当てる手段と、前記トリガーモジュールから出力される演奏データに基づいて、前記演奏者の操作が検出されたパッドに割り当てられた演奏パートの楽音を発生させる手段とを有するものである。
さらにまた、前記出欠を判定する手段は、さらに、前記合奏の開始前に、前記合奏への参加者による固有のリズムパターンでの前記試し打ち操作により前記トリガーモジュールから出力される演奏データの受信タイミングを検出し、登録されている固有のリズムパターンと比較することにより前記合奏への参加者個人を特定する機能を有するものとされている。
In order to achieve the above object, an ensemble system according to the present invention includes a plurality of pads for detecting a player's operation , and connected to the plurality of pads, and the operation is detected by a player's operation on each pad. A trigger module that outputs performance data including pad identification information for identifying a pad, and a control device that controls the generation of musical sounds by reading performance information from music data based on the performance data output from the trigger module An ensemble system comprising: before the start of the ensemble, participating in the ensemble based on pad identification information included in performance data output from the trigger module by a trial hitting operation by a participant in the ensemble the identifying pad, means for determining attendance to the ensemble of the pad, play is determined that attend pad par to Means for assigning, and based on performance data output from the trigger module, operation of the player is having a means for generating a tone performance parts allocated to the sense pads.
Furthermore, the means for determining the presence / absence of the performance data further includes a reception timing of performance data output from the trigger module by the trial hitting operation with a unique rhythm pattern by a participant of the ensemble before the start of the ensemble. detects, by comparing the specific rhythm pattern registered is assumed to have a function of identifying a participant individual to the ensemble.

本発明の合奏システムによれば、参加者が自分の扱うパッドの試し打ちをすることで、自動的に合奏への出席/欠席の設定が行われるので、ファシリテータが手動で設定を行う必要がなくなり、わずらわしい作業をなくすことができる。
また、自動的に出欠の設定が行われるため、人為的な設定ミスを防止することができる。
さらに、参加者個人を特定する機能を有する本発明によれば、合奏の参加者がどの演奏端末を選択した場合でも、参加者と演奏パートの対応関係を維持することが可能となる。
According to the ensemble system of the present invention, by making the attempt to strike the pad to be handled participants of their own, because there is automatically attendance / absence of the setting of the ensemble is made, it must be the facilitator to perform manually configure This eliminates troublesome work.
In addition, since the attendance setting is automatically performed, an artificial setting error can be prevented.
Furthermore, according to the present invention having the function of specifying individual participants, it is possible to maintain the correspondence between the participants and the performance parts regardless of which performance terminal the ensemble participant selects.

図1は、本発明の合奏システムの第1の実施の形態の構成を示すブロック図である。この図に示すように、この合奏システムは、コントローラ1と、コントローラ1にMIDIインターフェースボックス3を介して接続される複数(図1の例では6台)の演奏端末2A〜2Fとを備えている。
コントローラ1は、制御プログラムに基づいてこの合奏システム全体の制御を行うものであり、例えばパーソナルコンピュータにより構成されている。
演奏端末2A〜2Fは、ファシリテータと参加者(生徒)が演奏操作を行うとともに、その演奏操作に応じた楽音を発生するものであり、例えば電子ピアノ等のMIDI対応の電子鍵盤楽器である。各演奏端末2A〜2Fは、MIDIインターフェースボックス3に設けられた複数のMIDIポートにそれぞれ接続されており、該MIDIインターフェースボックス3を介してコントローラ1と接続されている。各演奏端末2A〜2Fは、MIDIインターフェースボックス3の接続されているポート番号により識別される。
この図の例においては、例えば、MIDIポート0に接続された演奏端末2Aをファシリテータ(合奏リーダ)用の演奏端末とし、MIDIポート1〜6にそれぞれ接続された演奏端末2B〜2Fを生徒さん用の演奏端末としている。このような端末の指定はコントローラ1にて行う。
なお、演奏端末は電子ピアノに限らず、電子ギター等他の形態の電子楽器であってもよい。無論、外観上は自然楽器に限らず単にボタン等の操作子を備えた端末であってもよい。
FIG. 1 is a block diagram showing the configuration of the first embodiment of the ensemble system of the present invention. As shown in this figure, this ensemble system includes a controller 1 and a plurality of (six in the example of FIG. 1) performance terminals 2A to 2F connected to the controller 1 via a MIDI interface box 3. .
The controller 1 controls the entire ensemble system based on a control program, and is composed of, for example, a personal computer.
The performance terminals 2A to 2F are those in which facilitators and participants (students) perform performance operations and generate musical sounds according to the performance operations, and are MIDI-compatible electronic keyboard instruments such as an electronic piano. Each of the performance terminals 2A to 2F is connected to a plurality of MIDI ports provided in the MIDI interface box 3, and is connected to the controller 1 via the MIDI interface box 3. Each performance terminal 2A to 2F is identified by the port number to which the MIDI interface box 3 is connected.
In the example of this figure, for example, the performance terminal 2A connected to the MIDI port 0 is used as a performance terminal for a facilitator (ensemble reader), and the performance terminals 2B to 2F connected to the MIDI ports 1 to 6 are used for students. As a performance terminal. Such a terminal designation is performed by the controller 1.
The performance terminal is not limited to the electronic piano, but may be another form of electronic musical instrument such as an electronic guitar. Of course, in terms of appearance, the terminal is not limited to a natural musical instrument, and may simply be a terminal provided with an operator such as a button.

図2は、前記コントローラ1の構成を示すブロック図である。この図に示すように、コントローラ1は、前記MIDIインターフェースボックス3と接続される通信部11、コントローラ1の制御を行う制御部12、制御プログラムや楽曲データを記憶するHDD13、ワークメモリなどとして動作するRAM14、キーボードやマウスなどの操作部15及び各種情報を表示するための表示部16を備えている。
制御部12は、HDD13に記憶されている制御プログラムを読み出してワークメモリであるRAM14に展開し、出欠設定処理31,パート割り当て処理32、シーケンス処理33及び表示処理34等の処理を実行する。パート割り当て処理31は、楽曲データの各演奏パートを複数の演奏端末2に割り当てる処理である。シーケンス処理32は、各演奏端末2から受信したノートオンメッセージやノートオフメッセージに応じて楽曲データのその演奏端末に割り当てた演奏パートにおける楽音を発生させるための発音指示データや消音指示データなどの音源制御データを生成して、その楽音を発生すべきタイミングで前記演奏端末2に内蔵されている音源に送信する処理である。表示処理33は、合奏を行うための様々な情報を表示部16に表示するための処理である。
操作部15は、主にファシリテータがこの合奏システムの動作指示を行うためのものである。ファシリテータは、操作部15を操作し、例えば演奏する曲の楽曲データを指定したり、各演奏端末2の演奏パートを割り当てをしたりする。
表示部16は、所謂ディスプレイ(モニタ)であり、ファシリテータや各使用者はこの表示部16を見ながら演奏操作を行う。全員が表示内容を容易に見ることができるように、表示部16として大型の外部ディスプレイを使用することができる。
FIG. 2 is a block diagram showing the configuration of the controller 1. As shown in this figure, the controller 1 operates as a communication unit 11 connected to the MIDI interface box 3, a control unit 12 that controls the controller 1, an HDD 13 that stores control programs and music data, a work memory, and the like. A RAM 14, an operation unit 15 such as a keyboard and a mouse, and a display unit 16 for displaying various information are provided.
The control unit 12 reads out a control program stored in the HDD 13 and develops it in the RAM 14 as a work memory, and executes processes such as an attendance setting process 31, a part assignment process 32, a sequence process 33, and a display process 34. The part assignment process 31 is a process for assigning each performance part of music data to a plurality of performance terminals 2. The sequence processing 32 is a sound source such as sound generation instruction data or mute instruction data for generating a musical tone in the performance part assigned to the performance terminal of the music data in accordance with the note-on message or note-off message received from each performance terminal 2. In this process, control data is generated and transmitted to a sound source built in the performance terminal 2 at a timing at which the musical sound should be generated. The display process 33 is a process for displaying various information for performing an ensemble on the display unit 16.
The operation unit 15 is mainly used by the facilitator to instruct the operation of the ensemble system. The facilitator operates the operation unit 15 to specify, for example, music data of a song to be played, or to assign a performance part of each performance terminal 2.
The display unit 16 is a so-called display (monitor), and the facilitator and each user perform a performance operation while watching the display unit 16. A large external display can be used as the display unit 16 so that everyone can easily see the display contents.

図3は、前記演奏端末2の構成を示すブロック図である。この実施の形態では、演奏端末2はMIDI対応の電子鍵盤楽器であり、この図に示すように、通信部21、制御部22、演奏操作子である鍵盤23、音源24及びスピーカ25を備えている。制御部22には通信部21、鍵盤23及び音源24が接続されており、音源24にはスピーカ25が接続されている。
通信部21は、MIDIインターフェース回路であり、前記MIDIインターフェースボックス3を介して前記コントローラ1と通信する。
制御部22は、この演奏端末2を統括的に制御する制御部である。
鍵盤23は、例えば61鍵や88鍵の鍵数を有し、5〜7オクターブの音域の演奏が可能な鍵盤であるが、この合奏システムでは個々の鍵を区別せずにオン/オフ及び打鍵強さ(ベロシティ)のデータのみ用いる。すなわち各鍵には、オン/オフを検出するセンサと打鍵の強さを検出するセンサが内蔵されており、鍵盤23は各鍵の操作態様(どの鍵がどのような強さで打鍵されたか等)に応じた操作信号を制御部22に出力する。制御部22は、入力された操作信号に基づいてその演奏端末2の演奏データを作成し、通信部21を介してコントローラ1に送信する。具体的には、鍵盤が押されたときにノートオンメッセージが作成されて送信され、鍵盤が離されたときにノートオフメッセージが作成されて送信される。
また、この演奏端末2の電源がオンとされているときには、MIDIのシステムリアルタイムメッセージであるアクティブセンシングが定期的に出力されるようになされている。
音源24は、前記コントローラ1から制御部22を介して供給される音源制御データに応じて楽音波形を生成するものであり、生成された楽音信号はスピーカ25から放音される。
なお、音源とスピーカは演奏端末2に内蔵していなくともよい。音源とスピーカをコントローラ1に接続し、演奏端末2と異なる場所から楽音が発音されるようにしてもよい。各演奏端末2と同じ数の音源をコントローラ1に接続してもよいが、単一の音源を用いてもよい。
FIG. 3 is a block diagram showing a configuration of the performance terminal 2. In this embodiment, the performance terminal 2 is a MIDI-compatible electronic keyboard instrument, and includes a communication unit 21, a control unit 22, a keyboard 23 as a performance operator, a sound source 24, and a speaker 25, as shown in this figure. Yes. A communication unit 21, a keyboard 23, and a sound source 24 are connected to the control unit 22, and a speaker 25 is connected to the sound source 24.
The communication unit 21 is a MIDI interface circuit and communicates with the controller 1 via the MIDI interface box 3.
The control unit 22 is a control unit that controls the performance terminal 2 in an integrated manner.
The keyboard 23 has, for example, 61 keys and 88 keys, and is capable of playing in a 5-7 octave range. In this ensemble system, on / off and keystrokes are made without distinguishing individual keys. Only strength data is used. That is, each key has a built-in sensor for detecting on / off and a sensor for detecting the strength of the keystroke, and the keyboard 23 controls the operation mode of each key (which key is pressed with what strength, etc.). ) Is output to the control unit 22. The control unit 22 creates performance data of the performance terminal 2 based on the input operation signal, and transmits the performance data to the controller 1 via the communication unit 21. Specifically, a note-on message is created and transmitted when the keyboard is pressed, and a note-off message is created and transmitted when the keyboard is released.
When the performance terminal 2 is turned on, active sensing, which is a MIDI system real-time message, is periodically output.
The sound source 24 generates a musical sound waveform according to sound source control data supplied from the controller 1 via the control unit 22, and the generated musical sound signal is emitted from the speaker 25.
Note that the sound source and the speaker need not be built in the performance terminal 2. A sound source and a speaker may be connected to the controller 1 so that a musical sound is generated from a place different from the performance terminal 2. Although the same number of sound sources as the performance terminals 2 may be connected to the controller 1, a single sound source may be used.

図4は、前記コントローラ1のHDD13に記憶されている楽曲データの一例を示す図である。楽曲データは例えばSMF(Standard MIDI File)などのシーケンスデータである。
この図に示すように、楽曲データは、複数の演奏パートからなり、各演奏パートを識別する識別情報と、各演奏パートの演奏情報(シーケンスデータ)を含んでいる。演奏情報には、各イベント間の時間間隔を表す時間情報(デルタタイム)とイベント情報(MIDIイベントなど)の組みがイベントの発生順に含まれている。
FIG. 4 is a diagram showing an example of music data stored in the HDD 13 of the controller 1. The music data is sequence data such as SMF (Standard MIDI File).
As shown in this figure, the music data is composed of a plurality of performance parts, and includes identification information for identifying each performance part and performance information (sequence data) of each performance part. The performance information includes a combination of time information (delta time) representing a time interval between events and event information (MIDI event or the like) in the order of event occurrence.

このように構成された合奏システムにおいて、合奏の参加者(生徒)が自分の使用する演奏端末2B〜2Fの電源を投入すると、自動的にその出欠状況が前記コントローラ1により判定され、出席と判定された演奏端末に対して、演奏する楽曲データの1又は複数の演奏パートが割り当てられる。
ここで、この合奏システムにおいては、1小節中において生徒が鍵盤を打鍵すべき回数(拍打数)を設定しておくようになされており、例えば、4/4拍子の曲において、拍打数が2と設定されていると、生徒は1拍おきに打鍵し、その1回の打鍵で2拍分の楽音が生成されるようになされている。
合奏の参加者が自分に割り当てられている演奏端末2を用いて演奏操作(例えば電子ピアノの鍵盤を打鍵)を行うと、コントローラ1に対応するノートオンメッセージ又はノートオフメッセージが送信される。コントローラ1は、入力されたノートオン/ノートオフメッセージに基づいてその演奏端末2に割り当てた演奏パートの設定されている拍数分の音符の発音指示データ及び消音指示データを生成し、その演奏端末2に送信する。演奏端末2は、コントローラ1から送られた発音指示データ及び消音指示データに基づいて対応する楽音を発生する。例えば、上述のように、4/4拍子で拍打数が2の場合には、小節内の最初の打鍵で1拍目と2拍目の楽音が発生され、次の打鍵で3拍目と4拍目の楽音が発生される。
これにより、各使用者(生徒)は指一本で鍵盤を押すという簡易な操作で演奏を行うことができ、各使用者(生徒)がファシリテータに合わせてテンポをとることで、複数人で楽しみながら合奏を行うことができる。
In the ensemble system configured as described above, when the ensemble participants (students) turn on the performance terminals 2B to 2F used by themselves, the attendance status is automatically determined by the controller 1 and determined to be attended. One or a plurality of performance parts of music data to be played are assigned to the played performance terminals.
Here, in this ensemble system, the number of times the student should play the keyboard (number of beats) in one measure is set beforehand. For example, in a 4/4 time tune, the number of beats is 2 Is set so that the student plays the key every other beat, and the musical sound for two beats is generated by one key hit.
When a ensemble participant performs a performance operation (for example, keying an electronic piano keyboard) using the performance terminal 2 assigned to him, a note-on message or a note-off message corresponding to the controller 1 is transmitted. The controller 1 generates sound generation instruction data and mute instruction data for the number of beats set in the performance part assigned to the performance terminal 2 based on the input note-on / note-off message, and the performance terminal 2 to send. The performance terminal 2 generates a corresponding musical sound based on the sound generation instruction data and the mute instruction data sent from the controller 1. For example, as described above, when the number of beats is 2 in 4/4 time, the first and second beats are generated by the first keystroke in the measure, and the third and fourth beats are generated by the next keystroke. A beat sound is generated.
As a result, each user (student) can perform with a simple operation of pressing the keyboard with one finger, and each user (student) can enjoy with multiple people by taking the tempo according to the facilitator. While performing an ensemble.

このような合奏処理の流れについて、図5のフローチャートを参照して説明する。
合奏を行う前に、まず、前記演奏端末2A〜2F及びコントローラ1の電源をオンとし、制御プログラムを起動する(ステップS1)。すなわち、合奏に参加する人(生徒)は、それぞれが使用する演奏端末2B〜2Fの電源を投入し、ファシリテータは、自己の使用する演奏端末2Aとコントローラ1の電源を投入するとともに制御プログラムを起動する。
制御プログラムが起動されることにより、前記制御部12により、出欠設定処理が実行される(ステップS2)。この実施の形態では、演奏端末2A〜2Fは、アクティブセンシング対応のMIDI電子鍵盤楽器であり、電源が投入されると、電源が投入された演奏端末からはMIDIのシステムリアルタイムメッセージであるアクティブセンシング(FEH)がそのMIDIOUT端子から自動的に送信されるようになされている。
そこで、この出欠設定処理において、アクティブセンシングが送信されてくるMIDIポートを検出し、そのMIDIポートに対応する演奏端末の生徒は出席、アクティブセンシングが送られてこないMIDIポートに対応する演奏端末の生徒は欠席であると判定し、その状況を前記RAM14に記憶する。
なお、この実施の形態では、アクティブセンシングを演奏端末の動作状態を示す情報として利用することにより演奏端末2A〜2Fの演奏者の出欠を判定するようにしているが、演奏端末ごとにその電源がオンとされていることを通知する信号であれば、どのような信号であっても演奏端末の動作状態情報として使用することができる。
このように、本発明によれば、自動的に生徒の出欠状態を判定し設定することができる。
The flow of such ensemble processing will be described with reference to the flowchart of FIG.
Before performing the concert, first, the performance terminals 2A to 2F and the controller 1 are turned on to start the control program (step S1). That is, the person (student) participating in the ensemble turns on the performance terminals 2B to 2F used by each person, and the facilitator turns on the performance terminal 2A and the controller 1 used by the facilitator and activates the control program. To do.
When the control program is activated, an attendance setting process is executed by the control unit 12 (step S2). In this embodiment, the performance terminals 2A to 2F are MIDI electronic keyboard instruments that support active sensing. When the power is turned on, the performance terminals that are turned on receive active sensing (MIDI system real-time messages). FEH) is automatically transmitted from the MIDI OUT terminal.
Therefore, in this attendance setting process, a MIDI port to which active sensing is transmitted is detected, and a student of a performance terminal corresponding to the MIDI port attends and a student of a performance terminal corresponding to a MIDI port to which active sensing is not transmitted. Is determined to be absent, and the situation is stored in the RAM 14.
In this embodiment, the presence / absence of the performers of the performance terminals 2A to 2F is determined by using active sensing as information indicating the operation state of the performance terminals. Any signal can be used as the operating state information of the performance terminal as long as it is a signal notifying that it is turned on.
Thus, according to the present invention, it is possible to automatically determine and set the student's attendance state.

次にファシリテータは、合奏を行う演奏曲を選択する(ステップS3)。この処理は、前記コントローラ1の表示部16に表示されている楽曲データの中から操作部15を用いて演奏する曲を選択することなどにより行われる。
演奏曲が選択されると、前記制御部12は、演奏曲の演奏パートを接続されている複数の演奏端末2に割り当てるパート割り当て処理を実行する。例えば、制御部12は、出席者の演奏端末に演奏曲の演奏パートを順次一つずつ割当てて行く処理を行い、ファシリテータが必要な場合には、制御部12により設定されたパート割当てを変更する。
Next, the facilitator selects a performance tune to perform ensemble (step S3). This processing is performed by selecting a song to be played using the operation unit 15 from among the song data displayed on the display unit 16 of the controller 1.
When a performance piece is selected, the control unit 12 executes part assignment processing for assigning the performance parts of the performance piece to a plurality of performance terminals 2 connected thereto. For example, the control unit 12 performs a process of sequentially assigning the performance parts of the performance pieces to the performance terminals of the attendees one by one, and changes the part assignment set by the control unit 12 when a facilitator is necessary. .

図6は、パート割り当ての一例を示す図である。
この図に示した例では、参加者4が欠席しており、他の参加者(1〜3及び5)は出席している。そして、選択された演奏曲がパート番号1〜9で示される9パートの楽曲の場合には、図示するように、全ての参加者に公平にパートが割り当てられるように、出席している参加者に対して、1パートずつ、順繰りに割り当てている。なお、ファシリテータについては、ファシリテータ自身が別途パートを割り当てる。
このようにして前記制御部12によりパート割当てが行われた後に、ファシリテータは、その割当てを任意に変更することができる。
FIG. 6 is a diagram illustrating an example of part assignment.
In the example shown in this figure, participant 4 is absent and the other participants (1-3 and 5) are present. In the case where the selected performance music is a 9-part music indicated by part numbers 1 to 9, as shown in the figure, the attending participants are assigned to all the participants fairly. In contrast, one part is assigned at a time. As for the facilitator, the facilitator itself assigns parts separately.
After the part assignment is performed by the control unit 12 in this way, the facilitator can arbitrarily change the assignment.

このようにしてパート割当処理(S4)が終了した後、合奏の開始を指示する操作が行われると(S5)、演奏処理(S6)が開始される。
この演奏処理の詳細については後述するが、前記演奏端末2A〜2Fからの演奏入力に応じて、その演奏入力に対応する楽音を発生させる処理であり、前記演奏端末における処理と、該演奏端末における処理により演奏端末から送出されるMIDIメッセージに応答して前記制御部12により実行されるシーケンス処理とからなる。参加者がその演奏端末2B〜2Fを用いて単一の鍵盤を打鍵するなどの簡単な演奏操作をすることにより、前記演奏端末からコントローラ1にノートオンメッセージとノートオフメッセージが送信される。コントローラ1では、シーケンス処理により、演奏端末から入力されたノートオン/ノートオフメッセージに応じて、その演奏端末に割り当てた演奏パートのその打鍵に応じて発音すべき音符の発音指示データを生成し、その演奏端末2に送信する。これにより、演奏端末2の音源から対応する楽音が発生され、合奏が行われる。
When the operation for instructing the start of the ensemble is performed after the part assignment process (S4) is completed in this way, the performance process (S6) is started.
The details of the performance processing will be described later, and is processing for generating a musical sound corresponding to the performance input in response to performance input from the performance terminals 2A to 2F. It consists of a sequence process executed by the control unit 12 in response to a MIDI message sent from the performance terminal. When a participant performs a simple performance operation such as pressing a single key using the performance terminals 2B to 2F, a note-on message and a note-off message are transmitted from the performance terminal to the controller 1. In the controller 1, in accordance with the note-on / note-off message input from the performance terminal, the sound generation instruction data for the note to be generated is generated according to the keystroke of the performance part assigned to the performance terminal by the sequence processing. It transmits to the performance terminal 2. Thereby, the corresponding musical sound is generated from the sound source of the performance terminal 2 and an ensemble is performed.

この演奏処理S6により選択された楽曲の合奏が終了した後、ファシリテータは、合奏を終了するか否かを決定し(S7)、さらに演奏を続ける場合には、教室から退室したりして次の合奏に参加しない生徒がいるか否かを判定する(S8)。次の合奏に参加しない生徒がいる場合には、その生徒についての欠席を設定する処理を行う(S9)。この処理は、合奏に参加しない生徒がその演奏端末2の電源をオフにした場合には前記コントローラ1の制御部12により自動的に行われるが、ファシリテータが操作部15を用いて手動で設定することもできる。
そして、前記ステップS3の演奏曲選択処理に進み、次の合奏する曲の選択を行う。以下、前述と同様の処理が行われる。
After the ensemble of the music selected in the performance process S6 is completed, the facilitator determines whether or not to end the ensemble (S7). It is determined whether there are students who do not participate in the concert (S8). When there is a student who does not participate in the next ensemble, a process of setting absence for the student is performed (S9). This process is automatically performed by the control unit 12 of the controller 1 when a student who does not participate in the ensemble turns off the performance terminal 2, but the facilitator manually sets it using the operation unit 15. You can also.
Then, the process proceeds to the performance music selection process in step S3, and the next music to be played is selected. Thereafter, the same processing as described above is performed.

前記演奏処理(S6)の詳細について、図7と図8を参照して説明する。
図7は、前記演奏端末2において、鍵盤23が操作されたときに実行される処理の流れを示すフローチャートである。
使用者が演奏端末2の鍵盤23を指で押すと(ステップS11)、その操作信号が鍵盤23から制御部22へ送られ、制御部22はノートオンメッセージをコントローラ1に送信する(ステップS12)。前述のように、このノートオンメッセージには打鍵の強さを示すベロシティ(Velocity)情報が含まれている。
また、使用者が鍵盤23を元に戻す(指を離す)と(ステップS13)、鍵盤23からその操作信号が制御部22へ送られ、制御部22はノートオフメッセージをコントローラ1に送信する(ステップS14)。
Details of the performance processing (S6) will be described with reference to FIGS.
FIG. 7 is a flowchart showing a flow of processing executed when the keyboard 23 is operated in the performance terminal 2.
When the user presses the keyboard 23 of the performance terminal 2 with a finger (step S11), the operation signal is sent from the keyboard 23 to the control unit 22, and the control unit 22 transmits a note-on message to the controller 1 (step S12). . As described above, this note-on message includes velocity information indicating the strength of keystroke.
When the user returns the keyboard 23 to the original state (releases his / her finger) (step S13), the operation signal is sent from the keyboard 23 to the control unit 22, and the control unit 22 transmits a note-off message to the controller 1 ( Step S14).

図8は、演奏端末2からノートオン/ノートオフメッセージを受信したときに、コントローラ1において実行されるシーケンス処理の流れを示すフローチャートである。
コントローラ1は、前記演奏端末2からノートオンメッセージ又はノートオフメッセージを受信すると(ステップS21)、受信したメッセージの種類(ノートオン又はノートオフ)及び内容(ベロシティ情報)とその受信タイミング(時刻)を各演奏端末ごとに前記RAM14中に記憶する(ステップS22)。後述するように、この情報を用いて各演奏端末2の演奏パラメータ(テンポ、リズム、ダイナミクス等)を取得することができる。
そして、受信したメッセージがノートオンメッセージであるときは(ステップS23がYES)、そのメッセージを送信した演奏端末2に割り当てられている演奏パートの演奏情報の中から、その打鍵により発音すべき長さ分の演奏情報を読み出す(ステップS24)。例えば、前述のように、4/4拍子で拍打数が2の場合には2拍分の演奏情報、拍打数が4のときは1拍分の演奏情報を読み出す(ステップS24)。
そして、先頭の拍の演奏情報に対応する発音を行うための発音指示データを生成し、その演奏端末2に送信し(ステップS25)、次のメッセージの受信を待つ。
この発音指示データは、演奏端末2の制御部22により音源24に供給され、対応する楽音がスピーカ25から放音されることとなる。
FIG. 8 is a flowchart showing a flow of sequence processing executed in the controller 1 when a note-on / note-off message is received from the performance terminal 2.
When the controller 1 receives a note-on message or a note-off message from the performance terminal 2 (step S21), the controller 1 indicates the type (note-on or note-off) and content (velocity information) of the received message and its reception timing (time). Each performance terminal is stored in the RAM 14 (step S22). As will be described later, the performance parameters (tempo, rhythm, dynamics, etc.) of each performance terminal 2 can be acquired using this information.
If the received message is a note-on message (YES in step S23), the length to be sounded by the keystroke from the performance information of the performance part assigned to the performance terminal 2 that transmitted the message. Minute performance information is read (step S24). For example, as described above, when the number of beats is 4/4 and the number of beats is 2, performance information for two beats is read, and when the number of beats is 4, performance information for one beat is read (step S24).
Then, sound generation instruction data for generating sound corresponding to the performance information of the first beat is generated and transmitted to the performance terminal 2 (step S25), and the next message is waited for.
The sound generation instruction data is supplied to the sound source 24 by the control unit 22 of the performance terminal 2, and the corresponding musical sound is emitted from the speaker 25.

演奏端末2から受信したメッセージがノートオフメッセージであるとき(ステップS23がNO)は、前記コントローラ1の制御部12は、対応する消音指示データを生成して、その演奏端末に送信する(ステップS26)。これにより、ノートオンメッセージに応じて前記ステップS25により発音されていた楽音の発生が停止される。
次に、前記ステップS22で記憶した情報を用いて先行するノートオンメッセージを受信してからこのノートオフメッセージを受信するまでの経過時間を計測し(ステップS27)、該計測した経過時間に基づいてその演奏端末の使用者による演奏のテンポを算出し、設定する(ステップS28)。
次に、前記ステップS24で読み出した演奏情報の中に、後続して発音すべき演奏情報があるか否かを判定する(ステップS29)。その判定の結果がYESのときには、発音すべき演奏情報に対応する発音指示データと消音指示データを作成して、その演奏端末2に送信する(ステップS3)。すなわち、前記ステップS28で算出したテンポを用いて発音すべき演奏情報のデルタタイムを計数し、その発音タイミングとなったときに、その演奏情報に対応する発音指示データをその演奏端末2に送信する。このとき、この発音指示データに含まれるベロシティ情報も前述と同様に使用者の打鍵の強さに応じた値とする。そして、その音長が経過したときに、対応する消音指示データをその演奏端末2に送信する。このような処理を繰り返し、その打鍵により発音すべき演奏情報の全てについて発音指示データと消音指示データなどの音源制御データを対応する演奏端末2に送信した後、前記ステップS21に戻り、次のノートオンメッセージの受信を待つ。
このように、各使用者が鍵盤を1回押す毎に上記の処理が繰り返され、鍵盤の打鍵に応じて、設定されている拍打数に応じた長さの演奏情報の演奏を、その打鍵の強さに応じた音量とその打鍵に応じたテンポで行うことができる。
When the message received from the performance terminal 2 is a note-off message (NO in step S23), the controller 12 of the controller 1 generates corresponding mute instruction data and transmits it to the performance terminal (step S26). ). As a result, the generation of the musical sound produced in step S25 in response to the note-on message is stopped.
Next, the elapsed time from the reception of the preceding note-on message to the reception of the note-off message is measured using the information stored in step S22 (step S27), and the measured elapsed time is used. The tempo of performance by the user of the performance terminal is calculated and set (step S28).
Next, it is determined whether or not there is performance information to be subsequently generated in the performance information read in step S24 (step S29). When the result of the determination is YES, the sound generation instruction data and the mute instruction data corresponding to the performance information to be sounded are created and transmitted to the performance terminal 2 (step S3). That is, the delta time of the performance information to be sounded is counted using the tempo calculated in step S28, and the sound generation instruction data corresponding to the performance information is transmitted to the performance terminal 2 when the sound generation timing comes. . At this time, the velocity information included in the sound generation instruction data is also a value corresponding to the strength of the user's keystroke, as described above. Then, when the sound length has elapsed, the corresponding mute instruction data is transmitted to the performance terminal 2. Such processing is repeated, and sound source control data such as sound generation instruction data and mute instruction data is transmitted to the corresponding performance terminal 2 for all performance information to be sounded by the keystroke, and then the process returns to the step S21 and the next note Wait for receipt of on message.
In this way, each time the user presses the keyboard once, the above process is repeated, and according to the keystroke of the keyboard, the performance information having a length corresponding to the number of beats set is played. It can be performed at a volume corresponding to the strength and a tempo corresponding to the keystroke.

次に、本発明の合奏システムの第2の実施の形態について説明する。
この実施の形態では、合奏の参加者(生徒)は、電子打楽器のドラムパッド(パッド)を演奏端末として使用する。各生徒がそれぞれ1つのパッドを担当し、パッドを叩くことにより合奏を行う。
図9は、本発明の合奏システムの第2の実施の形態の構成を示すブロック図である。この図において、上述した第1の実施の形態と同一の構成要素には同一の番号を付し、説明を省略する。
図9において、2G、2H、・・・、2M、2Nはドラムパッドであり、それぞれ、生徒1〜生徒8が演奏端末として使用する。
4は電子打楽器のトリガーモジュールである。このトリガーモジュール4は、複数(例えば9個)のドラムパッドを接続することができるように構成されている。各パッドには振動を検出するセンサが取り付けられており、パッドが叩かれて該センサの出力が所定のしきい値を超えたときに、トリガーモジュール4は、そのッドに対応するノートナンバと前記センサの出力に対応したベロシティを有するノートオンメッセージを前記MIDIインターフェースボックス3を介して前記コントローラ1に送出する。
また、5はコントローラ1に接続された音源、6は該音源で発生された楽音を放音するスピーカである。通常、前記電子打楽器トリガーモジュール4には音源が内蔵されており、この内蔵されている音源を音源5として使用しても良い。また、各生徒対応に音源5を設け、各生徒の演奏に基づく楽音を独立して出力するようにしてもよい。
Next, a second embodiment of the ensemble system of the present invention will be described.
In this embodiment, a ensemble participant (student) uses a drum pad (pad) of an electronic percussion instrument as a performance terminal. Each student takes charge of one pad and performs an ensemble by hitting the pad.
FIG. 9 is a block diagram showing the configuration of the second embodiment of the ensemble system of the present invention. In this figure, the same components as those in the first embodiment described above are denoted by the same reference numerals and description thereof is omitted.
In FIG. 9, 2G, 2H,..., 2M, 2N are drum pads, which are used by the students 1 to 8 as performance terminals, respectively.
Reference numeral 4 denotes an electronic percussion instrument trigger module. The trigger module 4 is configured so that a plurality of (for example, nine) drum pads can be connected. When Each pad is attached a sensor for detecting vibration, the pad is struck by the output of the sensor exceeds a predetermined threshold, the trigger module 4, note number corresponding to the path head A note-on message having a velocity corresponding to the output of the sensor is sent to the controller 1 via the MIDI interface box 3.
Reference numeral 5 denotes a sound source connected to the controller 1, and reference numeral 6 denotes a speaker that emits musical sounds generated by the sound source. Usually, the electronic percussion instrument trigger module 4 has a built-in sound source, and the built-in sound source may be used as the sound source 5. Further, a sound source 5 may be provided for each student so that musical sounds based on the performance of each student may be output independently.

このように構成された実施の形態においても、前記図5に示したフローチャートに従って合奏が実行される。ただし、前記ステップS2の出欠設定処理における生徒の出欠状況の確認の方法が前記第1の実施の形態の場合とは異なっている。
すなわち、前述した第1の実施の形態においては、MIDI機器から定期的に送出されるアクティブセンシングの有無により、各演奏機器の電源投入状態、すなわち、生徒の出欠状態を認識するようにしていた。しかしながら、この第2の実施の形態においては、電子打楽器トリガーモジュール4自体が一つのMIDI楽器であり、その電源がオンとされているときには、アクティブセンシングがコントローラ1に送信されているが、これでは、各ドラムパッド2G〜2Nを用いる生徒の個別の出欠状況を知ることはできない。
そこで、この実施の形態では、合奏の開始前に、各生徒がそれぞれのドラムパッドを叩くようにし、それにより前記トリガーモジュール4から送出されるノートオンメッセージに含まれているノートナンバにより、叩かれたパッドを特定し、それに基づいて合奏への参加者の出欠状況を判定し、設定するようにしている。実際に合奏を開始する前にパッドを試し打ちすることは、通常行われていることであり、この試し打ちを出欠判定に利用するものである。
すなわち、前記図5におけるステップS2の出欠設定処理において、前記コントローラ1の制御部12は、前記トリガーモジュール4に対応するMIDIポートからノートオンメッセージが入力されると、そのノートナンバを記録し、ノートオンメッセージが送られてきたノートナンバに対応するパッドの生徒が出席しており、ノートオンメッセージに含まれていないノートナンバに対応するパッドの生徒は欠席であると判定する。
なお、この実施の形態では、ノートナンバを各ドラムパッド2G〜2Nを識別する演奏端末識別情報として使用しているが、ノートナンバに限られることはなく、演奏データを出力しているドラムパッドを識別することができる情報であれば、その情報を演奏端末識別情報として用いることができる。
このようにして出欠状態を設定し、前記ステップS3以下の処理に進む。
In the embodiment configured as described above, the ensemble is executed according to the flowchart shown in FIG. However, the method for confirming the student attendance status in the attendance setting process in step S2 is different from that in the first embodiment.
That is, in the first embodiment described above, the power-on state of each performance device, that is, the student's attendance state is recognized based on the presence or absence of active sensing periodically transmitted from the MIDI device. However, in this second embodiment, the electronic percussion instrument trigger module 4 itself is a single MIDI instrument, and when the power is turned on, active sensing is transmitted to the controller 1. The individual attendance status of the students using the drum pads 2G to 2N cannot be known.
Therefore, in this embodiment, before the start of the ensemble, each student hits each drum pad, so that the player is hit by the note number included in the note-on message sent from the trigger module 4. The pad is identified, and the attendance status of participants in the ensemble is determined and set based on the specified pad. Trial hitting a pad before actually starting an ensemble is a common practice, and this trial hit is used for attendance determination.
That is, in the attendance setting process in step S2 in FIG. 5, when the note-on message is input from the MIDI port corresponding to the trigger module 4, the controller 12 of the controller 1 records the note number, The student of the pad corresponding to the note number to which the on message is sent is present, and the student of the pad corresponding to the note number not included in the note on message is determined to be absent.
In this embodiment, the note number is used as the performance terminal identification information for identifying each of the drum pads 2G to 2N. However, the present embodiment is not limited to the note number, and the drum pad that outputs the performance data is used. Any information that can be identified can be used as performance terminal identification information.
In this way, the presence / absence state is set and the process proceeds to step S3 and subsequent steps.

図10は、前記コントローラ1の前記表示部16の表示画面の一例を示す図であり、(a)は全員が欠席状態、(b)生徒1が自己のパッドを叩いた後の状態を示している。
この図に示す例では、表示画面51には、曲名表示領域52、曲の拍子と全小節数の表示領域53、演奏曲を選択する領域54、演奏開始を指示するプレイボタン55、演奏停止を指示するストップボタン56、合奏への出欠状態とパートの割り当てを表示する領域57などが設けられている。
図示するように、合奏への出欠状態とパートの割り当てを表示する領域57は、左側に合奏への参加者(ファシリテータと生徒1〜生徒8に対応するP1〜P8)に対応するボタンが配列されており、各ボタンの右側に、その参加者が演奏中の小節を表示する領域(BAR)とその参加者に割り当てられているパートを表示する領域(PART)が設けられている。前記ボタンは、参加者の出欠情報を表示するものであり、出席の場合には、その表示態様が欠席者のボタンとは異なる態様(例えば、異なる表示色)となるようにされている。
前記図5のステップS1が実行された直後の初期状態では、図10の(a)に示すように、生徒1(P1)〜生徒8(P8)は全員欠席状態とされている。
10A and 10B are diagrams showing an example of the display screen of the display unit 16 of the controller 1, where FIG. 10A shows a state in which everyone is absent, and FIG. 10B shows a state after the student 1 has hit his / her pad. Yes.
In the example shown in this figure, the display screen 51 includes a song title display area 52, a song time signature and total bar number display area 53, a performance song selection area 54, a play button 55 for instructing performance start, and a performance stop. A stop button 56 for instructing, an attendance state for the ensemble, and an area 57 for displaying part assignment are provided.
As shown in the drawing, in the area 57 for displaying the attendance status and part assignment to the ensemble, buttons corresponding to the ensemble participants (facilitators and P1 to P8 corresponding to students 1 to 8) are arranged. On the right side of each button, there is provided an area (BAR) for displaying a measure being played by the participant and an area (PART) for displaying a part assigned to the participant. The button displays attendance information of participants, and in the case of attendance, the display mode is different from the button of absentees (for example, a different display color).
In the initial state immediately after step S1 in FIG. 5 is executed, all of the students 1 (P1) to 8 (P8) are absent as shown in FIG.

ステップS2の出欠設定処理中に、生徒1(P1)がそのパッド(2G)を叩いたとする。それにより、前記電子打楽器トリガーモジュール4からそのパッドに対応するノートナンバとその強さに応じたベロシティを有するノートオンメッセージが前記コントローラ1に送出される。前記コントローラ1の制御部12は、そのノートオンメッセージを解析し、それに含まれているノートナンバからパッド(2G)が叩かれたものであると判定し、該パッド(2G)を使用している生徒1(P1)が出席であると判定し、前記RAM14に記憶する。これにより、図10の(b)に示すように、生徒1(P1)の表示が他と識別できる表示形態(図では、斜線入りで表現)となる。そして、その後、出席とされた生徒1(P1)に演奏パートが割り当てられる。
同様に、他の生徒(例えば、P2)がパッドを叩くと、そのパッドを使用している生徒2が出席であると判定され、その生徒2のボタン(P2)の表示形態が変更される。そして、前記図6に関して説明したと同様にして、生徒1と生徒2に対して演奏パートの割り当てが行われることとなる。
It is assumed that student 1 (P1) hits the pad (2G) during the attendance setting process in step S2. Thus, a note-on message having a note number corresponding to the pad and a velocity corresponding to the strength is sent from the electronic percussion instrument trigger module 4 to the controller 1. The controller 12 of the controller 1 analyzes the note-on message, determines that the pad (2G) has been hit from the note number included therein, and uses the pad (2G). It is determined that the student 1 (P1) is present and is stored in the RAM 14. As a result, as shown in FIG. 10B, the display of the student 1 (P1) is in a display form that can be distinguished from others (indicated by hatching in the figure). After that, a performance part is assigned to student 1 (P1) who has been attended.
Similarly, when another student (for example, P2) hits the pad, it is determined that the student 2 using the pad is present, and the display form of the button (P2) of the student 2 is changed. Then, performance parts are assigned to the students 1 and 2 in the same manner as described with reference to FIG.

なお、各生徒に対応するパッドを叩いた時点で、その生徒が出席状態となるが、演奏処理(S6)中は、この機能は無効となる。また、前記表示画面上で、操作部15のマウスやキーボートなどを使用して演奏者を出席状態とすることはできないようになされている。
一方、出席から欠席にする場合(ステップS9)は、キーボートで「1」〜「8」を押すか、「P1」〜「P8」のボタンをマウスでクリックすることにより、生徒を指定して、欠席状態にすることができる。ただし、欠席になった後は、再び、パッドを叩かないかぎり、出席にすることはできない。
Note that when the pad corresponding to each student is hit, the student enters the attendance state, but this function is disabled during the performance process (S6). On the display screen, the performer cannot be put into attendance using the mouse or keyboard of the operation unit 15.
On the other hand, in the case of absence from attendance (step S9), the student is designated by pressing “1” to “8” on the keyboard or clicking the buttons “P1” to “P8” with the mouse. Can be absent. However, once you are absent, you cannot attend unless you strike the pad again.

このようにして、出欠設定処理(S2)を行った後、前記図5のステップS3以降が実行されて合奏が行われる。
なお、生徒の演奏端末としてドラムパッドを使用したときには、演奏処理(S6)は、図11のように行われる。
すなわち、生徒がそのドラムパッドを叩くと、ドラムパッドに設けられている振動センサの検出信号が電子打楽器トリガーモジュール4に入力される。電子打楽器トリガーモジュール4は、接続されているドラムパッドからの出力信号を受信すると(S41)、そのパッドに対応するノートナンバとその出力信号の大きさに対応するベロシティを有するノートオンメッセージを生成して前記コントローラ1に出力する(S42)。なお、電子打楽器トリガーモジュール4からノートオフメッセージは出力されない。
前記コントローラ1の制御部12は、電子打楽器トリガーモジュール4からのノートオンメッセージを受信すると(S51)、そのノートオンメッセージに含まれるノートナンバに基づいてパッドを特定し、各パッドごとにノートオンメッセージの受信タイミングを記憶する(S52)。そして、そのパッドに割り当てられた演奏パートのそのパートの所定拍数分の演奏情報を読み出し(S53)、最初の拍の演奏情報に対応する発音指示データを音源に送信する(S54)。次に、そのパッドから受信したノートオンメッセージの受信タイミングから各演奏パートごとにテンポを算出する(S55)。なお、テンポの初期値は、曲データに記録されているテンポとされている。そして、そのパートのテンポに応じたタイミングで前記S54で送信した発音指示データに対応する消音指示データを音源に送信する(S56)。
つぎに、そのパートについてそのノートオンメッセージに応じて発音すべき後続する拍の演奏情報があるか否かを判定し(S57)、後続して発音すべき演奏情報がある場合には、そのパートのテンポに基づき、その演奏情報で指定されたタイミングで対応する発音指示データ及び消音指示データを音源に送信する。
そして、S52に戻り、次のノートオンメッセージの受信を待つ。
なお、ファシリテータが演奏端末2Aとして電子鍵盤楽器を使用しているときには、演奏端末2Aからの演奏データに対応する処理は、前記図8と同様の処理となる。
After performing the attendance setting process (S2) in this way, step S3 and subsequent steps in FIG. 5 are executed to perform an ensemble.
When a drum pad is used as a student performance terminal, the performance process (S6) is performed as shown in FIG.
That is, when the student strikes the drum pad, the detection signal of the vibration sensor provided on the drum pad is input to the electronic percussion instrument trigger module 4. When receiving the output signal from the connected drum pad (S41), the electronic percussion instrument trigger module 4 generates a note-on message having a note number corresponding to the pad and a velocity corresponding to the magnitude of the output signal. To the controller 1 (S42). Note that a note-off message is not output from the electronic percussion instrument trigger module 4.
When receiving the note-on message from the electronic percussion instrument trigger module 4 (S51), the controller 12 of the controller 1 specifies a pad based on the note number included in the note-on message, and the note-on message for each pad. Is received (S52). Then, the performance information corresponding to the predetermined beat number of the performance part assigned to the pad is read (S53), and the sound generation instruction data corresponding to the performance information of the first beat is transmitted to the sound source (S54). Next, the tempo is calculated for each performance part from the reception timing of the note-on message received from the pad (S55). Note that the initial value of the tempo is the tempo recorded in the song data. Then, mute instruction data corresponding to the sound generation instruction data transmitted in S54 is transmitted to the sound source at a timing according to the tempo of the part (S56).
Next, it is determined whether or not there is performance information for the subsequent beat to be pronounced in response to the note-on message for that part (S57). The corresponding sound generation instruction data and mute instruction data are transmitted to the sound source at the timing specified by the performance information.
Then, the process returns to S52 and waits for reception of the next note-on message.
When the facilitator uses an electronic keyboard instrument as the performance terminal 2A, the processing corresponding to the performance data from the performance terminal 2A is the same as that shown in FIG.

次に、本発明の第3の実施の形態について説明する。
上述した第1及び第2の実施の形態においては、参加者の使用する演奏端末を単位として出席/欠席を判定し、設定するものであったが、この第3の実施の形態では、演奏端末ではなく、各個人ごとに出席/欠席を判定することができる。
ここでは、前記第2の実施の形態と同様に、各生徒の演奏端末としてドラムパッドが使用されるものとする。
この実施の形態では、各生徒は、自分に固有のリズムパターン(パッドを叩く回数と叩くタイミングの間隔)を決め、あらかじめ、そのパターンでパッドを叩いて、そのノートオンメッセージを前記コントローラ1に入力し、RAM14又はHDD13に記憶させておく。そして、前記図5のステップS2の出欠設定処理のときに、自己のリズムパターンで自分の使用するドラムパッドを試し打ちする。例えば、Aさんは「タン・タン」、Bさんは「タタ・タン」、Cさんは「タタ・タタ・タン」などのように、個人別のパターンを事前に登録しておき、出欠確認時にそれぞれ固有のパターンでパッドを叩く。
前記コントローラ1の制御部12は、前記電子打楽器トリガーモジュール4から送信されるノートオンメッセージを受信して、該メッセージに含まれているノートナンバにより合奏に参加するパッドを特定し、さらに、同じノートナンバを有するノートオンメッセージの受信タイミングを検出し、登録されているリズムパターンと比較して、そのパッドを使用している生徒名を識別する。
このように、生徒個人を識別して出欠を判定することにより、生徒個人と演奏パートの対応関係がある場合に、それをくずすことなく、演奏パートを割り当てることができる。生徒がどの位置に座ってどの演奏端末を選んだとしても、所望の演奏パートをその生徒に割り当てることが可能となる。
Next, a third embodiment of the present invention will be described.
In the first and second embodiments described above, attendance / absence is determined and set in units of performance terminals used by the participants. In the third embodiment, performance terminals are used. Instead, attendance / absence can be determined for each individual.
Here, as in the second embodiment, a drum pad is used as a performance terminal for each student.
In this embodiment, each student determines his own rhythm pattern (the number of times the pad is hit and the timing of hitting the pad), hits the pad with that pattern in advance, and inputs the note-on message to the controller 1. Then, it is stored in the RAM 14 or the HDD 13. Then, in the attendance setting process in step S2 of FIG. 5, the drum pad used by the user is trial-tested with the own rhythm pattern. For example, personal patterns such as “Tan Tang” for Mr. A, “Tata Tang” for B, “Tata Tata Tan” for C, etc. are registered in advance. Hit the pad with a unique pattern.
The control unit 12 of the controller 1 receives the note-on message transmitted from the electronic percussion instrument trigger module 4, identifies the pad participating in the ensemble by the note number included in the message, and further, the same note The reception timing of the note-on message having the number is detected, and compared with the registered rhythm pattern, the name of the student who uses the pad is identified.
As described above, by identifying the student and determining the attendance, if there is a correspondence between the student and the performance part, the performance part can be assigned without breaking it. Regardless of the position at which the student sits and selects which performance terminal, the desired performance part can be assigned to the student.

なお、上記においては、生徒が使用する演奏端末がドラムパッドである場合について説明したが、前述した第1の実施の形態と同様に、電子鍵盤楽器を使用する場合であっても良い。この場合には、各生徒は自分に固有のリズムパターン又はメロディを演奏して、そのノートオン/ノートオフメッセージをあらかじめコントローラ1に登録しておき、演奏端末の電源を投入した後に、そのパターン又はメロディを試し弾きなどで演奏すればよい。前記コントローラ1の制御部12は、アクティブセンシングが送られてくるポート番号により合奏に参加する演奏端末を特定することができ、また、そのポートを介して受信されるノートオンメッセージとノートオフメッセージのタイミングやノートナンバを前記登録されている各生徒に固有のリズムパターンやメロディと比較することにより、各演奏端末を使用している生徒を特定することができる。
このように、演奏者固有のリズムパターン又はメロディを演奏者を識別する演奏者識別情報として利用することにより、生徒ごとにその出欠を判定することができる。
これにより、前述と同様に、所望の演奏パートを同じ生徒に割り当てることが可能となる。
In the above description, the performance terminal used by the student is a drum pad. However, as in the first embodiment described above, an electronic keyboard instrument may be used. In this case, each student plays a rhythm pattern or melody unique to the student, and the note-on / note-off message is registered in the controller 1 in advance, and the pattern or You can play the melody by playing it. The controller 12 of the controller 1 can identify the performance terminal participating in the ensemble by the port number to which the active sensing is sent, and the note-on message and the note-off message received via the port. The student using each performance terminal can be identified by comparing the timing and note number with the rhythm pattern and melody unique to each registered student.
Thus, by using a rhythm pattern or melody unique to a player as player identification information for identifying the player, the attendance can be determined for each student.
This makes it possible to assign a desired performance part to the same student as described above.

本発明の合奏システムの第1の実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of 1st Embodiment of the ensemble system of this invention. コントローラの構成例を示すブロック図である。It is a block diagram which shows the structural example of a controller. 演奏端末の構成例を示すブロック図である。It is a block diagram which shows the structural example of a performance terminal. 楽曲データの一例を示す図である。It is a figure which shows an example of music data. 本発明の合奏システムの処理の流れを示す図である。It is a figure which shows the flow of a process of the ensemble system of this invention. 演奏パートの割り当てについて説明するための図である。It is a figure for demonstrating allocation of a performance part. 演奏端末の鍵盤が操作されたときの処理の流れを示す図である。It is a figure which shows the flow of a process when the keyboard of a performance terminal is operated. シーケンス処理の流れを示す図である。It is a figure which shows the flow of a sequence process. 本発明の合奏システムの他の実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of other embodiment of the ensemble system of this invention. 本発明の第2の実施の形態における出欠設定処理時の表示画面の例を示す図である。It is a figure which shows the example of the display screen at the time of the attendance setting process in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における演奏処理の流れを示す図である。It is a figure which shows the flow of the performance process in the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1:コントローラ(PC)、2,2A〜2F:演奏端末、2G〜2N:ドラムパッド、3:MIDIインターフェースボックス、4:電子打楽器トリガーモジュール、5:音源、6:スピーカ、11:通信部、12:制御部、13:HDD、14:RAM、15:操作部、16:表示部、21:通信部、22:制御部、23:鍵盤、24:音源、25:スピーカ、31:出欠設定処理、32:パート割当処理、33:シーケンス処理、34:表示処理   1: Controller (PC), 2, 2A-2F: Performance terminal, 2G-2N: Drum pad, 3: MIDI interface box, 4: Electronic percussion instrument trigger module, 5: Sound source, 6: Speaker, 11: Communication unit, 12 : Control unit, 13: HDD, 14: RAM, 15: operation unit, 16: display unit, 21: communication unit, 22: control unit, 23: keyboard, 24: sound source, 25: speaker, 31: attendance setting process, 32: Part assignment processing, 33: Sequence processing, 34: Display processing

Claims (2)

演奏者の操作を検出する複数のパッドと、該複数のパッドに接続され、各パッドに対する演奏者の操作により、該操作が検出されたパッドを識別するためのパッド識別情報を含む演奏データを出力するトリガーモジュールと、該トリガーモジュールから出力される演奏データに基づいて楽曲データから演奏情報を読み出すことにより、楽音の発生を制御する制御装置とを有する合奏システムであって、
合奏の開始前に、前記合奏への参加者による試し打ち操作により前記トリガーモジュールから出力される演奏データに含まれたパッド識別情報に基づいて、前記合奏に参加する前記パッドを特定し、前記パッド前記合奏への出欠を判定する手段と、
出席と判定されたパッドに演奏パートを割り当てる手段と、
前記トリガーモジュールから出力される演奏データに基づいて、前記演奏者の操作が検出されたパッドに割り当てられた演奏パートの楽音を発生させる手段と
を有することを特徴とする合奏システム。
A plurality of pads for detecting a player's operation, and performance data including pad identification information for identifying the pad detected by the player's operation for each pad connected to the plurality of pads. An ensemble system comprising: a trigger module that controls the generation of musical sounds by reading performance information from music data based on performance data output from the trigger module ,
Before the start of the ensemble, the pad that participates in the ensemble is specified based on pad identification information included in the performance data output from the trigger module by a trial hitting operation by a participant in the ensemble, and the pad It means for determining attendance to the ensemble,
Means for assigning performance parts to pads determined to be present;
An ensemble system comprising: means for generating a musical tone of a performance part assigned to a pad on which the player's operation is detected based on performance data output from the trigger module .
前記出欠を判定する手段は、さらに、前記合奏の開始前に、前記合奏への参加者による固有のリズムパターンでの前記試し打ち操作により前記トリガーモジュールから出力される演奏データの受信タイミングを検出し、登録されている固有のリズムパターンと比較することにより前記合奏への参加者個人を特定する機能を有するものであることを特徴とする請求項記載の合奏システム。 The means for determining attendance further detects reception timing of performance data output from the trigger module by the trial hitting operation with a unique rhythm pattern by a participant in the ensemble before the start of the ensemble. , ensemble system according to claim 1, wherein the by comparing the intrinsic rhythm patterns registered, and has a function of identifying a participant individual to the ensemble.
JP2006268185A 2006-09-29 2006-09-29 Ensemble system Expired - Fee Related JP5011920B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006268185A JP5011920B2 (en) 2006-09-29 2006-09-29 Ensemble system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006268185A JP5011920B2 (en) 2006-09-29 2006-09-29 Ensemble system

Publications (2)

Publication Number Publication Date
JP2008089748A JP2008089748A (en) 2008-04-17
JP5011920B2 true JP5011920B2 (en) 2012-08-29

Family

ID=39373999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006268185A Expired - Fee Related JP5011920B2 (en) 2006-09-29 2006-09-29 Ensemble system

Country Status (1)

Country Link
JP (1) JP5011920B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3666290B2 (en) * 1999-03-25 2005-06-29 ヤマハ株式会社 Electronic musical instrument and method for controlling electronic musical instrument
JP2002010355A (en) * 2000-06-26 2002-01-11 Casio Comput Co Ltd Communication apparatus and mobile telephone
JP2002132137A (en) * 2000-10-26 2002-05-09 Yamaha Corp Playing guide system and electronic musical instrument
JP3780967B2 (en) * 2002-03-27 2006-05-31 ヤマハ株式会社 Song data output device and program
JP3846428B2 (en) * 2003-01-31 2006-11-15 ヤマハ株式会社 Music information providing server and electronic music apparatus
JP4131678B2 (en) * 2003-03-31 2008-08-13 株式会社河合楽器製作所 Performance data communication system
JP4305153B2 (en) * 2003-12-04 2009-07-29 ヤマハ株式会社 Music session support method, musical session instrument
JP2006171550A (en) * 2004-12-17 2006-06-29 Yamaha Corp Method of supporting music session

Also Published As

Publication number Publication date
JP2008089748A (en) 2008-04-17

Similar Documents

Publication Publication Date Title
JP4752425B2 (en) Ensemble system
JP4797523B2 (en) Ensemble system
US20100294112A1 (en) Portable chord output device, computer program and recording medium
JP4320782B2 (en) Performance control device and program
JP5040927B2 (en) Performance learning apparatus and program
JP2001075565A (en) Electronic musical instrument
JP4692189B2 (en) Ensemble system
US7405354B2 (en) Music ensemble system, controller used therefor, and program
JP6729052B2 (en) Performance instruction device, performance instruction program, and performance instruction method
JPH11296168A (en) Performance information evaluating device, its method and recording medium
JP2006201654A (en) Accompaniment following system
JP4131279B2 (en) Ensemble parameter display device
US7838754B2 (en) Performance system, controller used therefor, and program
JP5011920B2 (en) Ensemble system
JP4565616B2 (en) Karaoke system with group opposition singing ability ranking function
JP4211854B2 (en) Ensemble system, controller, and program
JPH06301333A (en) Play learning device
JP2008233614A (en) Measure number display device, measure number display method, and measure number display program
JP7070538B2 (en) Programs, methods, electronic devices, and performance data display systems
JP5157125B2 (en) Music generator
JP2011107445A (en) Performance device
JP4073597B2 (en) Electronic percussion instrument
JP2583617Y2 (en) Electronic string instrument
JP2000347668A (en) Electronic percussion instrument
JP2008122841A (en) Automatic accompaniment generating apparatus and program for achieving automatic accompaniment generating method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120521

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees