JP2007271739A - Concert parameter display device - Google Patents

Concert parameter display device Download PDF

Info

Publication number
JP2007271739A
JP2007271739A JP2006094764A JP2006094764A JP2007271739A JP 2007271739 A JP2007271739 A JP 2007271739A JP 2006094764 A JP2006094764 A JP 2006094764A JP 2006094764 A JP2006094764 A JP 2006094764A JP 2007271739 A JP2007271739 A JP 2007271739A
Authority
JP
Japan
Prior art keywords
performance
parameter
ensemble
deviation
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006094764A
Other languages
Japanese (ja)
Other versions
JP4131279B2 (en
Inventor
Takeshi Sakai
毅 境
Satoshi Usa
聡史 宇佐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006094764A priority Critical patent/JP4131279B2/en
Publication of JP2007271739A publication Critical patent/JP2007271739A/en
Application granted granted Critical
Publication of JP4131279B2 publication Critical patent/JP4131279B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a clue to higher matching in playing in concert. <P>SOLUTION: A plurality of kinds of playing parameters of rhythm, dynamics, etc., of a plurality of playing terminals are acquired based upon reception timing and velocity information of note-on messages input from the respective playing terminals to detect deviations of a facilitator etc., from reference values. On a two-dimensional plane representing two kinds of playing parameters on its axes, traces of deviations of playing parameters of the respective playing terminals are displayed (a). Each player views the display and corrects his or her musical performance to increase matching in playing in concert. Further, deviation quantities can be displayed by deforming a two-dimensional figure such as a diamond shape according to the deviation quantities (b). Furthermore, the deviation quantities can be displayed by changing positions of components of a face according to the deviation quantities (c). <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、合奏システムにおける合奏パラメータ表示装置に関する。   The present invention relates to an ensemble parameter display device in an ensemble system.

楽器の操作に不慣れな人たちであっても容易に合奏を行うことができる電子楽器が提案されている(特許文献1)。この提案されている電子楽器によれば、手を振るといった簡単な動作で合奏を行うことができるようになる。
このような楽器の操作に不慣れな人たちが合奏を行なう場合には、各演奏者による演奏のズレが問題となる。
従来より、手本演奏と演奏者による演奏とのズレを表示する装置として、楽譜上にテンポズレを表示する演奏支援装置(特許文献2)や、手本演奏の発音イベントに応じた表示図形とユーザ演奏の発音イベントに応じた表示図形とを互いに識別可能な表示態様で同時に画面上に表示するようにした演奏表示装置(特許文献3)が提案されている。
There has been proposed an electronic musical instrument that can be easily performed even by people who are unfamiliar with the operation of the musical instrument (Patent Document 1). According to the proposed electronic musical instrument, it is possible to perform an ensemble with a simple operation such as waving.
When people who are unfamiliar with the operation of such a musical instrument perform an ensemble, the deviation of the performance by each player becomes a problem.
Conventionally, as a device for displaying a difference between a sample performance and a performance by a performer, a performance support device (Patent Document 2) that displays a tempo shift on a score, a display figure corresponding to a pronunciation event of a sample performance, and a user A performance display device (Patent Document 3) has been proposed in which a display graphic corresponding to a performance sounding event is displayed on a screen at the same time in a display mode that can be distinguished from each other.

楽器の操作に不慣れな人たちがリハビリ等のために合奏を行うような場合、所定の人数(例えば、5人程度)でグループを形成し、ファシリテータ(facilitator:ガイド役、合奏リーダ)が参加者を導いて合奏を行うことが多い。この場合、各参加者はファシリテータの演奏に合わせて演奏する。
上記特許文献2及び特許文献3の発明は、楽譜データや手本演奏(デモ演奏)とのズレ量を表示するもので、個々の演奏者が演奏の上達のために用いるものであった。そして、ファシリテータなどの人間の演奏とのズレ量を表示できるものではなかった。また、特許文献2及び特許文献3の発明は、細かな音符単位のズレ(タイミングのズレ)を表示するものであり、楽器の操作に不慣れな者にとってはどのようにしてズレ量を補正して演奏すればよいか判断しにくいものであった。
そこで、本発明者らは、楽器の操作に不慣れな人であっても、自分の演奏とファシリテータの演奏とのズレ量を容易に把握することができる合奏システムを提案している(特願2005−281059号)。
When people who are unfamiliar with the operation of the instrument perform an ensemble for rehabilitation, etc., a group is formed with a predetermined number of people (for example, about 5 people), and a facilitator (guide role, ensemble leader) is a participant In many cases, the ensemble is performed. In this case, each participant performs along with the performance of the facilitator.
The inventions in Patent Document 2 and Patent Document 3 display the amount of deviation from the score data and the sample performance (demon performance), and are used by individual performers to improve performance. Further, the amount of deviation from human performance such as a facilitator cannot be displayed. In addition, the inventions of Patent Document 2 and Patent Document 3 display fine note-wise deviations (timing deviations), and how to correct the deviation amount for those who are not familiar with the operation of musical instruments. It was difficult to judge whether to play.
Accordingly, the present inventors have proposed an ensemble system that allows even a person unfamiliar with the operation of a musical instrument to easily grasp the amount of deviation between his performance and the performance of the facilitator (Japanese Patent Application 2005). -2801059).

また、複数の演奏パラメータについて基準データとのズレを検出し表示する装置として、カラオケのメロディーとリズムの2つを評価、採点するもの(特許文献4)、及び、デュエットの歌唱評価を行うもの(特許文献5)が提案されている。
特開2000−276141号公報 特開2001−337675号公報 特開2002−91290号公報 特開2004−102148号公報 特開平11−282478号公報
Moreover, as a device for detecting and displaying a deviation from the reference data for a plurality of performance parameters, a device for evaluating and scoring two karaoke melodies and rhythms (Patent Document 4), and a device for performing duet singing evaluation ( Patent Document 5) has been proposed.
JP 2000-276141 A JP 2001-337675 A JP 2002-91290 A JP 2004-102148 A Japanese Patent Laid-Open No. 11-282478

本発明者らにより提案されている上述した合奏システムによれば、ファシリテータの演奏に対する演奏のリズムの遅れを個人別に表示することができる。
しかしながら、個人別に表示するだけで、全員の合奏の一致度は評価されず、表示されることがない。演奏者は、合奏を一致させるための手掛かりを表示から得ることができない。
また、上記特許文献4に記載されたものは、メロディとリズムの2つを評価、採点しているが、メロディとリズムはそれぞれ独立して評価されるものであり、評価結果の表示方法は特に開示されていない。
また、上記特許文献5に記載されたものは、採点は個人別に評価、表示されるので、二人で演奏を合わせる手掛かりにはならない。
According to the above-described ensemble system proposed by the present inventors, the delay in performance rhythm with respect to the performance of the facilitator can be displayed individually.
However, the degree of coincidence of all the ensembles is not evaluated and is not displayed only by displaying each individual. The performer cannot obtain a clue for matching the ensemble from the display.
Moreover, although what was described in the said patent document 4 is evaluating and scoring two, a melody and a rhythm, a melody and a rhythm are evaluated independently, respectively. Not disclosed.
In addition, since the scoring is evaluated and displayed for each individual, the one described in Patent Document 5 is not a clue to match the performance by two people.

そこで、本発明は、合奏者の息を合わせる、すなわち、合奏の一致度を上げるための手掛かりを提供することができる合奏パラメータ表示装置を提供することを目的としている。   Accordingly, an object of the present invention is to provide an ensemble parameter display device that can provide a clue to match the breath of the ensemble, that is, to increase the degree of coincidence of the ensemble.

上記目的を達成するために、本発明の合奏パラメータ表示装置は、複数の演奏者の操作により演奏データを生成する複数の演奏端末と、該複数の演奏端末からの演奏データに基づいて楽音の発生を制御する制御装置とを有する合奏システムにおける合奏パラメータ表示装置であって、前記複数の演奏端末からの演奏データに基づいて演奏端末ごとに複数種類の演奏パラメータを取得する演奏パラメータ取得手段と、前記演奏パラメータ取得手段により取得した演奏端末ごとの複数種類の演奏パラメータについて、基準となる演奏パラメータとのズレ量を検出する差分検出手段と、前記差分検出手段により検出された複数種類の演奏パラメータについての基準となる演奏パラメータとのズレ量に基づいて、前記複数種類の演奏パラメータのうちの2個の演奏パラメータについて、そのうちの一方をX軸とし他方をY軸とする2次元平面上に、演奏端末ごとに、前記2個の演奏パラメータと基準となる演奏パラメータとのズレ量を表現する表示画面を表示する合奏パラメータ表示手段とを有するものである。
また、本発明の他の合奏パラメータ表示装置は、複数の演奏者の操作により演奏データを生成する複数の演奏端末と、該複数の演奏端末からの演奏データに基づいて楽音の発生を制御する制御装置とを有する合奏システムにおける合奏パラメータ表示装置であって、前記複数の演奏端末からの演奏データに基づいて演奏端末ごとに複数種類の演奏パラメータを取得する演奏パラメータ取得手段と、前記演奏パラメータ取得手段により取得した演奏端末ごとの複数種類の演奏パラメータについて、基準となる演奏パラメータとのズレ量を検出する差分検出手段と、前記差分検出手段により検出された複数種類の演奏パラメータについての基準となる演奏パラメータとのズレ量に基づいて、前記複数種類の演奏パラメータのうちの3個の演奏パラメータをX軸、Y軸及びZ軸に割り当てた3次元空間上に、演奏端末ごとに、前記3個の演奏パラメータと基準となる演奏パラメータとのズレ量を表現する表示画面を表示する合奏パラメータ表示手段とを有するものである。
さらに、前記基準となる演奏パラメータは、ファシリテータの演奏パラメータ、複数の演奏端末の演奏パラメータの平均値、あらかじめ設定された演奏パラメータ、又は、前記ファシリテータの演奏パラメータ、前記複数の演奏端末の演奏パラメータの平均値もしくは前記あらかじめ設定された演奏パラメータそれぞれの時間的な変化量とされているものである。
さらにまた、前記演奏パラメータは、前記演奏者が行う操作のうち、操作の時間と操作の強さに関するパラメータとされているものである。
さらにまた、前記合奏パラメータ表示手段は、前記2個又は3個の演奏パラメータの所定期間のズレ量の軌跡を表現する表示画面を表示するもの、前記2個又は3個の演奏パラメータのズレ量を図形の大きさに対応させて表示するもの、又は、複数の演奏パラメータのズレ量を複数の部分で構成されるひとつの図形の各部分に対応させて表示するものとされている。
さらにまた、前記合奏パラメータ表示手段は、演奏端末ごとに表示色又は表示線の種類を変更して表示するものとされている。
In order to achieve the above object, an ensemble parameter display device according to the present invention includes a plurality of performance terminals that generate performance data by operations of a plurality of performers, and generation of musical sounds based on performance data from the plurality of performance terminals. An ensemble parameter display device in an ensemble system having a control device for controlling the performance parameter acquisition means for acquiring a plurality of types of performance parameters for each performance terminal based on performance data from the plurality of performance terminals; For a plurality of types of performance parameters for each performance terminal acquired by the performance parameter acquisition unit, a difference detection unit for detecting a deviation amount from a reference performance parameter, and a plurality of types of performance parameters detected by the difference detection unit Based on the amount of deviation from the reference performance parameter, among the plurality of types of performance parameters Of the two performance parameters, a deviation amount between the two performance parameters and the reference performance parameter is expressed for each performance terminal on a two-dimensional plane with one of them as the X axis and the other as the Y axis. It has ensemble parameter display means for displaying a display screen.
Further, another ensemble parameter display device of the present invention includes a plurality of performance terminals that generate performance data by operations of a plurality of performers, and a control that controls generation of musical sounds based on performance data from the plurality of performance terminals. An ensemble parameter display device in an ensemble system comprising: a performance parameter acquisition means for acquiring a plurality of types of performance parameters for each performance terminal based on performance data from the plurality of performance terminals; and the performance parameter acquisition means Difference detection means for detecting a deviation amount from a reference performance parameter for a plurality of types of performance parameters for each performance terminal acquired by the step, and a performance for a reference for the plurality of types of performance parameters detected by the difference detection means Based on the amount of deviation from the parameter, three performance parameters of the plurality of performance parameters are selected. An ensemble for displaying a display screen representing the amount of deviation between the three performance parameters and the reference performance parameter for each performance terminal on a three-dimensional space in which the data is assigned to the X, Y and Z axes. Parameter display means.
Further, the reference performance parameter is a performance parameter of a facilitator, an average value of performance parameters of a plurality of performance terminals, a preset performance parameter, a performance parameter of the facilitator, or a performance parameter of the plurality of performance terminals. It is an average value or a temporal change amount of each of the preset performance parameters.
Furthermore, the performance parameter is a parameter related to the operation time and the strength of the operation among the operations performed by the performer.
Furthermore, the ensemble parameter display means displays a display screen representing a locus of a deviation amount of the two or three performance parameters for a predetermined period, and displays the deviation amount of the two or three performance parameters. The display is made corresponding to the size of the figure, or the amount of deviation of a plurality of performance parameters is displayed corresponding to each part of one figure composed of a plurality of parts.
Furthermore, the ensemble parameter display means changes the display color or the type of display line for each performance terminal and displays it.

本発明の合奏パラメータ表示装置によれば、合奏者の複数種類の演奏パラメータ(テンポ、リズム、ダイナミクス、スタッカート、テヌート等)に関して、基準値に対するズレを分かりやすく表示することができる。
したがって、演奏者は該表示結果を見ながら演奏することで、容易に自己の演奏を修正することができ、合奏の一致度を上げることができる。
According to the ensemble parameter display device of the present invention, it is possible to easily display a deviation from a reference value for a plurality of types of performance parameters (tempo, rhythm, dynamics, staccato, tenuto, etc.) of the ensemble.
Therefore, the performer can easily correct his / her performance by performing while watching the display result, and can increase the degree of coincidence of the ensemble.

図1は、本発明の合奏パラメータ表示装置が適用される合奏システムの一実施の形態の構成を示すブロック図である。この図に示すように、この合奏システムは、コントローラ1と、コントローラ1にMIDIインターフェースボックス3を介して接続される複数(図1の例では6台)の演奏端末2A〜2Fとを備えている。
コントローラ1は、例えばパーソナルコンピュータにより構成され、このパーソナルコンピュータに搭載されたソフトウェアによって各演奏端末2の制御及びデータの収集を行う。コントローラ1は複数パートからなる楽曲データを記憶している。これらのパートは、1又は複数のメロディパート、リズムパート、伴奏パート等からなっている。コントローラ1は、各パート(又は複数のパート)の発音データをそれぞれの演奏端末2に送信する通信部を備えている。
FIG. 1 is a block diagram showing the configuration of an embodiment of an ensemble system to which the ensemble parameter display device of the present invention is applied. As shown in this figure, this ensemble system includes a controller 1 and a plurality of (six in the example of FIG. 1) performance terminals 2A to 2F connected to the controller 1 via a MIDI interface box 3. .
The controller 1 is composed of, for example, a personal computer, and controls each performance terminal 2 and collects data by software installed in the personal computer. The controller 1 stores music data composed of a plurality of parts. These parts are composed of one or more melody parts, rhythm parts, accompaniment parts, and the like. The controller 1 includes a communication unit that transmits sound data of each part (or a plurality of parts) to each performance terminal 2.

演奏端末2は、使用者が演奏操作を行うとともに、この使用者の演奏操作に応じた楽音を発生するものであり、例えば電子ピアノ等の電子鍵盤楽器により構成される。この実施の形態では、コントローラ1とUSBで接続されているMIDIインターフェースボックス3を用い、各演奏端末2を別々のMIDI系統で接続している。この図の例においては演奏端末2Aをファシリテータ(合奏リーダ)用の演奏端末とし、他の演奏端末2B〜2Fを生徒さん用の演奏端末としている。このような端末の指定はコントローラ1にて行う。なお、演奏端末は電子ピアノに限らず、電子ギター等他の形態の電子楽器であってもよい。無論、外観上は自然楽器に限らず単にボタン等の操作子を備えた端末であってもよい。
なお、演奏端末2が音源を内蔵する必要はなく、独立した音源をコントローラ1に接続してもよい。この場合、コントローラ1に接続する音源の数は1つであってもよいし、演奏端末2と同じ数であってもよい。演奏端末2と同じ数の音源を接続する現合、コントローラ1はそれぞれの音源と演奏端末2を対応付けて楽曲データの各パートを割り当てるようにすればよい。
The performance terminal 2 is used to perform a performance operation by a user and generate a musical sound in accordance with the performance operation of the user. The performance terminal 2 includes an electronic keyboard instrument such as an electronic piano. In this embodiment, a MIDI interface box 3 connected to the controller 1 by USB is used, and each performance terminal 2 is connected by a separate MIDI system. In the example of this figure, the performance terminal 2A is a performance terminal for a facilitator (ensemble reader), and the other performance terminals 2B to 2F are performance terminals for students. Such a terminal designation is performed by the controller 1. The performance terminal is not limited to the electronic piano, but may be another form of electronic musical instrument such as an electronic guitar. Of course, in terms of appearance, the terminal is not limited to a natural musical instrument, and may simply be a terminal provided with an operator such as a button.
The performance terminal 2 does not have to incorporate a sound source, and an independent sound source may be connected to the controller 1. In this case, the number of sound sources connected to the controller 1 may be one or the same number as the performance terminal 2. When the same number of sound sources as the performance terminal 2 are connected, the controller 1 may associate each sound source with the performance terminal 2 and assign each part of the music data.

このように構成された合奏システムにおいて、コントローラ1に記憶されている楽曲データの1又は複数の演奏パートを、複数の演奏端末2にそれぞれ割り当て、使用者が演奏端末2を用いて演奏操作(例えば電子ピアノの鍵盤を打鍵)を行うと、コントローラ1に対応するノートオンメッセージ又はノートオフメッセージが送信される。コントローラ1は、入力されたノートオン/ノートオフメッセージに基づいてその演奏端末2に割り当てた演奏パートの各音符の発音指示データを生成し、その演奏端末2に送信する。演奏端末2は、コントローラ1から送られた発音指示データに基づいて対応する楽音を発生する。
これにより、各使用者(生徒)は指一本で鍵盤を押すという容易な操作で演奏を行うことができ、各使用者(生徒)がファシリテータに合わせてテンポをとることで、複数人で楽しみながら合奏を行うことができる。
In the ensemble system configured as described above, one or a plurality of performance parts of music data stored in the controller 1 are assigned to a plurality of performance terminals 2, respectively, and a user performs a performance operation (for example, using the performance terminals 2). When the electronic piano keyboard is pressed, a note-on message or a note-off message corresponding to the controller 1 is transmitted. The controller 1 generates sound generation instruction data for each note of the performance part assigned to the performance terminal 2 based on the inputted note-on / note-off message, and transmits it to the performance terminal 2. The performance terminal 2 generates a corresponding musical sound based on the sound generation instruction data sent from the controller 1.
As a result, each user (student) can perform with a simple operation of pressing the keyboard with one finger, and each user (student) can enjoy with multiple people by taking the tempo according to the facilitator. While performing an ensemble.

前記コントローラ1と演奏端末2の構成について詳細に説明する。
図2は、前記コントローラ1の構成を示すブロック図である。この図に示すように、コントローラ1は、通信部11、制御部12、HDD13、RAM14、操作部15及び表示部16を備えている。制御部12には通信部11、HDD13、RAM14、操作部15及び表示部16が接続されている。
通信部11は、演奏端末2と通信を行う回路部であり、USBインターフェースを有している。このUSBインターフェースには、MIDIインターフェースボックス3が接続され、通信部11はこのMIDIインターフェースボックス3及びMIDIケーブルを介して6台の演奏端末2と通信する。
HDD13は、コントローラ1の動作用プログラムや、複数パートからなる楽曲データを記憶している。
The configuration of the controller 1 and the performance terminal 2 will be described in detail.
FIG. 2 is a block diagram showing the configuration of the controller 1. As shown in this figure, the controller 1 includes a communication unit 11, a control unit 12, an HDD 13, a RAM 14, an operation unit 15, and a display unit 16. A communication unit 11, HDD 13, RAM 14, operation unit 15, and display unit 16 are connected to the control unit 12.
The communication unit 11 is a circuit unit that communicates with the performance terminal 2 and has a USB interface. A MIDI interface box 3 is connected to the USB interface, and the communication unit 11 communicates with the six performance terminals 2 via the MIDI interface box 3 and MIDI cables.
The HDD 13 stores an operation program for the controller 1 and music data including a plurality of parts.

制御部12は、HDD13に記憶されている動作用プログラムを読み出してワークメモリであるRAM14に展開し、パート割り当て処理31、シーケンス処理32及び表示処理33等の処理を実行する。パート割り当て処理31は、楽曲データの各演奏パートを複数の演奏端末2に割り当てる処理である。シーケンス処理32は、各演奏端末2から受信したノートオン/ノートオフメッセージに応じて楽曲データのその演奏端末に割り当てた演奏パートにおける楽音を発生させるための発音指示データなどの音源制御データを生成して、その楽音を発生すべきタイミングで前記演奏端末2に送信する処理である。表示処理33は、合奏を行うための様々な情報を表示部16に表示するための処理である。
操作部15は、使用者(主にファシリテータ)がこの合奏システムの動作指示を行うためのものである。ファシリテータは、操作部15を操作し、例えば演奏する曲の楽曲データを指定したり、各演奏端末2の演奏パートを割り当てたりする。
表示部16は、所謂ディスプレイ(モニタ)であり、ファシリテータや各使用者はこの表示部16を見ながら演奏操作を行う。全員が表示内容を容易に見ることができるように、表示部16として大型の外部ディスプレイを使用することができる。
The control unit 12 reads out an operation program stored in the HDD 13 and develops it in the RAM 14 which is a work memory, and executes processes such as a part assignment process 31, a sequence process 32, and a display process 33. The part assignment process 31 is a process for assigning each performance part of music data to a plurality of performance terminals 2. The sequence process 32 generates sound source control data such as sound generation instruction data for generating a musical tone in the performance part assigned to the performance terminal of the music data in response to the note on / note off message received from each performance terminal 2. In this process, the musical sound is transmitted to the performance terminal 2 at a timing at which the musical sound should be generated. The display process 33 is a process for displaying various information for performing an ensemble on the display unit 16.
The operation unit 15 is for a user (mainly a facilitator) to instruct the operation of the ensemble system. The facilitator operates the operation unit 15 to specify, for example, music data of a song to be played, or to assign a performance part of each performance terminal 2.
The display unit 16 is a so-called display (monitor), and the facilitator and each user perform a performance operation while watching the display unit 16. A large external display can be used as the display unit 16 so that everyone can easily see the display contents.

図3は、前記演奏端末2の構成を示すブロック図である。この図に示すように、演奏端末2は、通信部21、制御部22、演奏操作子である鍵盤23、音源24及びスピーカ25を備えている。制御部22には通信部21、鍵盤23及び音源24が接続されており、音源24にはスピーカ25が接続されている。
通信部21は、MIDIインターフェース回路であり、前記MIDIインターフェースボックス3を介して前記コントローラ1と通信する。
制御部22は、この演奏端末2を統括的に制御する制御部である。
鍵盤23は、例えば61鍵や88鍵の鍵数を有し、5〜7オクターブの音域の演奏が可能な鍵盤であるが、この合奏システムでは個々の鍵を区別せずにオン/オフ及び打鍵強さ(ベロシティ)のデータのみ用いる。すなわち各鍵には、オン/オフを検出するセンサと打鍵の強さを検出するセンサが内蔵されており、鍵盤23は各鍵の操作態様(どの鍵がどのような強さで打鍵されたか等)に応じた操作信号を制御部22に出力する。制御部22は、入力された操作信号に基づいてその演奏端末2の演奏データを作成し、通信部21を介してコントローラ1に送信する。具体的には、鍵盤が押されたときにノートオンメッセージが作成されて送信され、鍵盤が離されたときにノートオフメッセージが作成されて送信される。
音源24は、前記コントローラ1から制御部22を介して供給される音源制御データに応じて楽音波形を生成するものであり、生成された楽音信号はスピーカ25から放音される。
なお、上述したように、音源とスピーカは演奏端末2に内蔵していなくともよい。音源とスピーカをコントローラ1に接続し、演奏端末2と異なる場所から楽音が発音されるようにしてもよい。各演奏端末2と同じ数の音源をコントローラ1に接続してもよいが、単一の音源を用いてもよい。
FIG. 3 is a block diagram showing a configuration of the performance terminal 2. As shown in this figure, the performance terminal 2 includes a communication unit 21, a control unit 22, a keyboard 23 that is a performance operator, a sound source 24, and a speaker 25. A communication unit 21, a keyboard 23, and a sound source 24 are connected to the control unit 22, and a speaker 25 is connected to the sound source 24.
The communication unit 21 is a MIDI interface circuit and communicates with the controller 1 via the MIDI interface box 3.
The control unit 22 is a control unit that controls the performance terminal 2 in an integrated manner.
The keyboard 23 has, for example, 61 keys and 88 keys, and is capable of playing in a 5-7 octave range. In this ensemble system, on / off and keystrokes are made without distinguishing individual keys. Only strength data is used. That is, each key has a built-in sensor for detecting on / off and a sensor for detecting the strength of the keystroke, and the keyboard 23 controls the operation mode of each key (which key is pressed with what strength, etc.). ) Is output to the control unit 22. The control unit 22 creates performance data of the performance terminal 2 based on the input operation signal, and transmits the performance data to the controller 1 via the communication unit 21. Specifically, a note-on message is created and transmitted when the keyboard is pressed, and a note-off message is created and transmitted when the keyboard is released.
The sound source 24 generates a musical sound waveform according to sound source control data supplied from the controller 1 via the control unit 22, and the generated musical sound signal is emitted from the speaker 25.
As described above, the sound source and the speaker need not be built in the performance terminal 2. A sound source and a speaker may be connected to the controller 1 so that a musical sound is generated from a place different from the performance terminal 2. Although the same number of sound sources as the performance terminals 2 may be connected to the controller 1, a single sound source may be used.

上記の動作では、鍵盤23を打鍵したとき、制御部22はノートオンメッセージとノートオフメッセージをコントローラ1に送信(ローカルオフ)し、鍵盤23によるノートメッセージではなく、コントローラ1からの指示に応じて楽音を発音するが、上記の様な動作とは別に、演奏端末2は一般的な電子楽器として使用することも無論可能である。すなわち、鍵盤23を打鍵したとき、制御部22はノートメッセージをコントローラ1に送信せずに(ローカルオン)、当該ノートメッセージに基づいて音源24に楽音を発音するように指示することも可能である。ローカルオン、ローカルオフは使用者がコントローラ1の操作部15を用いて切替えてもよいし、演奏端末2の端末操作部(図示せず)で切替えてもよい。また、一部の鍵盤のみローカルオフし、他の鍵盤はローカルオンとなるように設定することも可能である。   In the above operation, when the keyboard 23 is pressed, the control unit 22 transmits a note-on message and a note-off message to the controller 1 (locally off), and responds to an instruction from the controller 1 instead of a note message from the keyboard 23. Although a musical tone is generated, the performance terminal 2 can of course be used as a general electronic musical instrument, apart from the operation as described above. That is, when the keyboard 23 is pressed, the control unit 22 can instruct the sound source 24 to generate a musical tone based on the note message without transmitting the note message to the controller 1 (locally on). . Local on and local off may be switched by the user using the operation unit 15 of the controller 1, or may be switched by a terminal operation unit (not shown) of the performance terminal 2. It is also possible to set so that only some keys are locally turned off and other keys are locally turned on.

このように構成された合奏システムの動作について詳細に説明する。
合奏を開始するにあたり、使用者(ファシリテータ)は、まず、演奏曲の演奏パートを接続されている複数の演奏端末2に割り当てるパート割り当て処理を実行する。
図4は、パート割り当て処理の流れを示すフローチャートである。
使用者(ファシリテータ)は、コントローラ1の操作部15などを用いて演奏する楽曲データを選択する(ステップS1)。
楽曲データは例えばSMF(Standard MIDI File)などのシーケンスデータであり、コントローラ1のHDD13に記憶されている。
図5の(a)は楽曲データの一例を示す図である。この図に示すように、楽曲データは、複数の演奏パートからなり、各演奏パートを識別する識別情報と、各演奏パートの演奏情報(シーケンスデータ)を含んでいる。演奏情報には、各イベント間の時間間隔を表す時間情報(デルタタイム)とイベント情報(MIDIイベントなど)の組みがイベントの発生順に含まれている。
The operation of the ensemble system configured as described above will be described in detail.
In starting the ensemble, the user (facilitator) first executes part assignment processing for assigning the performance parts of the performance tune to a plurality of performance terminals 2 connected thereto.
FIG. 4 is a flowchart showing the flow of part assignment processing.
The user (facilitator) selects music data to be played using the operation unit 15 of the controller 1 (step S1).
The music data is sequence data such as SMF (Standard MIDI File), and is stored in the HDD 13 of the controller 1.
FIG. 5A shows an example of music data. As shown in this figure, the music data is composed of a plurality of performance parts, and includes identification information for identifying each performance part and performance information (sequence data) of each performance part. The performance information includes a combination of time information (delta time) representing a time interval between events and event information (MIDI event or the like) in the order of event occurrence.

ファシリテータが演奏曲の選択を行なうと、前記表示部16には選択された楽曲名とその楽曲に含まれる演奏パートなどが表示される(メイン操作ウィンドウ)。
図6の(a)はメイン操作ウィンドウの一例を示す図である。この図に示すように、メイン操作ウィンドウ41には、演奏曲名42、その曲に含まれる全小節数43、接続されている演奏端末に演奏パートを割り当てるために用いられる演奏パート割り当て領域44、演奏の開始、終了、一時停止などを制御するための演奏コントロールボタン45、及び、1小節内の拍打数を設定する拍打数設定用ボタン46などが表示されている。
When the facilitator selects a performance song, the display unit 16 displays the name of the selected song and the performance part included in the song (main operation window).
FIG. 6A shows an example of the main operation window. As shown in this figure, the main operation window 41 has a performance song name 42, a total number of measures 43 included in the song, a performance part assignment area 44 used for assigning a performance part to a connected performance terminal, and a performance. A performance control button 45 for controlling start, end, pause, and the like, and a beat number setting button 46 for setting the number of beats within one measure are displayed.

前記演奏パート割り当て領域44には、図示するように、接続された演奏端末2ごとにそれに割り当てる演奏パートを設定するためのラジオボタンが表示されている。前記RAM14には演奏パート割り当てテーブルが記憶されており、該テーブルの内容に従って、前記演奏パート割り当て領域44に各演奏端末への演奏パートの割り当てが表示される。
図5の(b)は、演奏パート割り当てテーブルの一例を示す図である。ここで、MIDIポートはMIDIインターフェースボックス3のポート番号を示しており、各演奏端末2はその接続されているMIDIポートで識別されている。
この図に示す例では、演奏パート1にはMIDIポート0(ファシリテータ用演奏端末、図1においては演奏端末2A)が割り当てられ、演奏パート2(ピアノ1)にはMIDIポート1(演奏端末2B)が割り当てられている。以下同様に、演奏パート3(ピアノ2)にはMIDIポート2(演奏端末2C)、演奏パート4(ストリングス)にはMIDIポート3(演奏端末2D)、演奏パート5(ブラス)にはMIDIポート4(演奏端末2E)、演奏パート6(ドラム)にはMIDIポート5(演奏端末2F)が割り当てられている。
ファシリテータは、表示されている演奏パート割り当てを変更する場合には、演奏パート割り当て領域44に表示されているラジオボタンを用いて割り当ての変更を行う(ステップS2)。割り当ての変更があったときには、これに応じて前記RAM14中に記憶されている演奏パート割り当てテーブルが変更される。
なお、同じ演奏パートを複数の演奏端末に割り当てることもできるし、ファシリテータに複数の演奏パートを割り当てることも可能である。
In the performance part assignment area 44, radio buttons for setting a performance part assigned to each connected performance terminal 2 are displayed as shown in the figure. The RAM 14 stores a performance part assignment table, and the performance part assignment to each performance terminal is displayed in the performance part assignment area 44 in accordance with the contents of the table.
FIG. 5B shows an example of a performance part assignment table. Here, the MIDI port indicates the port number of the MIDI interface box 3, and each performance terminal 2 is identified by its connected MIDI port.
In the example shown in this figure, MIDI port 0 (facilitator performance terminal, performance terminal 2A in FIG. 1) is assigned to performance part 1, and MIDI port 1 (performance terminal 2B) is assigned to performance part 2 (piano 1). Is assigned. Similarly, MIDI port 2 (performance terminal 2C) is used for performance part 3 (piano 2), MIDI port 3 (performance terminal 2D) is used for performance part 4 (strings), and MIDI port 4 is used for performance part 5 (brass). MIDI port 5 (performance terminal 2F) is assigned to (performance terminal 2E) and performance part 6 (drum).
When changing the displayed performance part assignment, the facilitator changes the assignment using the radio button displayed in the performance part assignment area 44 (step S2). When the assignment is changed, the performance part assignment table stored in the RAM 14 is changed accordingly.
The same performance part can be assigned to a plurality of performance terminals, and a plurality of performance parts can be assigned to the facilitator.

また、図6の(a)に示すように、前記メイン操作ウィンドウ41には1小節内の拍打数を設定するためのラジオボタン46が表示されており、ファシリテータは該画面を用いて拍打数の設定を行う。拍打数は、1小節中において演奏端末2の使用者(生徒)が鍵盤23を打鍵すべき回数であり、例えば、4/4拍子の曲において、拍打数を4とすると1拍ごとに打鍵することとなる。また、拍打数を2とすると1拍おきに打鍵することとなり、1拍目と3拍目が打鍵タイミングとなる。拍打数が2のとき、コントローラ1は、演奏端末から1回の打鍵を示すノートオン/ノートオフメッセージを受信すると、2拍分の発音を指示する音源制御データ(発音指示データ)をその演奏端末に送信する。これにより、1拍目の拍打に応じて1拍目と2拍目に対応する楽音が生成され、3拍目の拍打に応じて3拍目と4拍目の楽音が生成される。すなわち、1回の打鍵で2拍分の演奏がされることとなる。   As shown in FIG. 6A, the main operation window 41 has a radio button 46 for setting the number of beats in one measure, and the facilitator uses the screen to determine the number of beats. Set up. The number of beats is the number of times the user (student) of the performance terminal 2 should hit the keyboard 23 in one measure. For example, in a 4/4 time tune, if the number of beats is 4, the key is played every beat. It will be. If the number of beats is 2, the key is played every other beat, and the first and third beats are the keystroke timing. When the number of beats is 2, when the controller 1 receives a note-on / note-off message indicating a single keystroke from the performance terminal, the performance terminal receives sound source control data (sound generation instruction data) for instructing two-beat pronunciation Send to. As a result, musical sounds corresponding to the first and second beats are generated in response to the first beat, and third and fourth musical sounds are generated in response to the third beat. That is, two beats are played with a single keystroke.

このようにして、各演奏端末2への演奏パートの割り当てと拍打数の設定(ステップS2)が終了すると、ファシリテータはコントローラ1の操作部15を用いて演奏開始スタンパイを指示する(ステップS3)。例えば、ファシリテータが前記画面に表示されている演奏コントロールボタン45中のスタートボタンを押すことにより、演奏開始スタンバイが指示される。これにより、HDD13から選択された曲の楽曲データがRAM14に読み出されるとともに、前記表示部16に合奏ウィンドウが表示される(ステップS4)。   In this way, when the assignment of performance parts to each performance terminal 2 and the setting of the number of beats (step S2) are completed, the facilitator instructs a performance start stamp using the operation unit 15 of the controller 1 (step S3). For example, when the facilitator presses the start button in the performance control button 45 displayed on the screen, the performance start standby is instructed. Thereby, the music data of the music selected from the HDD 13 is read out to the RAM 14 and an ensemble window is displayed on the display unit 16 (step S4).

図6の(b)は合奏ウィンドウ47の一例を示す図である。
図示するように、合奏ウィンドウ47の上部には、前述した演奏曲名42、演奏曲に含まれる全小節数43、及び、演奏コントロールボタン45が表示されている。
また、中央左側には拍打位置表示領域48が設けられている。この領域において、左側には各演奏パート名が表示され、その右側に、それぞれのパートにおける現在演奏中の小節番号、小節内の拍数、打鍵タイミング及び現在何拍目であるかが識別可能に表示される。この例では、1小節内に4拍、拍打数が2とされており、打鍵タイミングは四角で囲まれた数字(拍数)で示されている。また、現在の拍数は、他の拍数よりも大きな数字(この例では、2拍目)で表示されており、使用者が打鍵するごとに現在の拍数は順次推移していく。使用者は、この表示を見ながら鍵盤23を押すことにより演奏を進めていく。
さらに、合奏ウィンドウ47の中央右側には、複数の演奏パラメータ(テンポ、リズム、ダイナミクス又はスタッカートやテヌートなどの演奏記号)について、基準値(ファシリテータの演奏、使用者の平均値又は楽曲に設定された値)とのズレの度合いを示す表示を行う合奏パラメータ表示領域49が設けられている。
ここで、演奏パラメータとは、演奏者が行う演奏操作のうち、時間や強さに関するパラメータである。また、ダイナミクスとは音の強さのことであり、音量だけではなく音色も変化する。本実施の形態では、ダイナミクスは演奏操作(打鍵)の強さ又は速度として入力される。
さらに、演奏パラメータの値そのものではなく、該演奏パラメータの時間的な変化量を算出し、この変化量に関する基準値とのズレを表示してもよい。このようにすれば、例えば、だんだん速くなるテンポやだんだん強くなるダイナミクスに対して、一定の変化量で演奏者が演奏できているかが表示、確認できる。
演奏準備段階では、この合奏パラメータ表示領域49には何の表示もなされていないが、演奏が開始されると、後述するように、この領域には、各演奏者の複数の演奏パラメータについて、基準値からのズレが2次元平面上に図形的に表示されることとなる。図6の(b)にはその一例が記載されている。
FIG. 6B shows an example of the ensemble window 47.
As shown in the figure, on the upper part of the ensemble window 47, the above-mentioned performance song name 42, the total number of measures 43 included in the performance song, and the performance control button 45 are displayed.
A beat position display area 48 is provided on the left side of the center. In this area, the name of each performance part is displayed on the left side, and on the right side, the number of the currently playing measure, the number of beats in the measure, the timing of keystrokes, and the current beat number can be identified. Is displayed. In this example, 4 beats and the number of beats are 2 in one measure, and the keystroke timing is indicated by a number (beat number) surrounded by a square. The current beat number is displayed as a larger number than the other beat numbers (in this example, the second beat), and the current beat number sequentially changes each time the user types a key. The user advances the performance by pressing the keyboard 23 while viewing this display.
Furthermore, on the right side of the center of the ensemble window 47, a plurality of performance parameters (tempo, rhythm, dynamics or performance symbols such as staccato and tenuto) are set as reference values (facilitator performance, user average value or music). An ensemble parameter display area 49 for displaying the degree of deviation from (value) is provided.
Here, the performance parameter is a parameter related to time and strength among performance operations performed by the performer. Dynamics is the intensity of sound, and not only the volume but also the timbre changes. In the present embodiment, the dynamics is input as the strength or speed of the performance operation (keystroke).
Further, instead of the performance parameter value itself, a temporal change amount of the performance parameter may be calculated, and a deviation from a reference value related to the change amount may be displayed. In this way, for example, it is possible to display and confirm whether or not the performer can perform with a certain amount of change with respect to the gradually increasing tempo and gradually increasing dynamics.
In the performance preparation stage, nothing is displayed in the ensemble parameter display area 49, but when the performance is started, as will be described later, in this area, a plurality of performance parameters of each performer are set in the reference area. The deviation from the value is displayed graphically on the two-dimensional plane. An example is shown in FIG. 6B.

さて、上述のようにして演奏準備(図4のステップS4)が完了した後、各演奏端末2の使用者は演奏が可能となり、それぞれの演奏端末2を操作することにより合奏が開始される。
図7は、前記演奏端末2において、鍵盤23が操作されたときに実行される処理の流れを示すフローチャートである。
使用者が演奏端末2の鍵盤23を指で押すと(ステップS11)、その操作信号が鍵盤23から制御部22へ送られ、制御部22はノートオンメッセージをコントローラ1に送信する(ステップS12)。前述のように、このノートオンメッセージには打鍵の強さを示すベロシティ(Velocity)情報が含まれている。
また、使用者が鍵盤23を元に戻す(指を離す)と(ステップS13)、鍵盤23からその操作信号が制御部22へ送られ、制御部22はノートオフメッセージをコントローラ1に送信する(ステップS14)。
Now, after the performance preparation (step S4 in FIG. 4) is completed as described above, the user of each performance terminal 2 can perform, and the ensemble is started by operating each performance terminal 2.
FIG. 7 is a flowchart showing a flow of processing executed when the keyboard 23 is operated in the performance terminal 2.
When the user presses the keyboard 23 of the performance terminal 2 with a finger (step S11), the operation signal is sent from the keyboard 23 to the control unit 22, and the control unit 22 transmits a note-on message to the controller 1 (step S12). . As described above, this note-on message includes velocity information indicating the strength of keystroke.
When the user returns the keyboard 23 to the original state (releases his / her finger) (step S13), the operation signal is sent from the keyboard 23 to the control unit 22, and the control unit 22 transmits a note-off message to the controller 1 ( Step S14).

図8は、演奏端末2からノートオン/ノートオフメッセージを受信したときに、コントローラ1において実行されるシーケンス処理の流れを示すフローチャートである。
コントローラ1は、前記演奏端末2からノートオンメッセージ又はノートオフメッセージを受信すると(ステップS21)、受信したメッセージの種類(ノートオン又はノートオフ)及び内容(ベロシティ情報)とその受信タイミング(時刻)を各演奏端末ごとに前記RAM14中に記憶する(ステップS22)。後述するように、この情報を用いて各演奏端末2の演奏パラメータ(テンポ、リズム、ダイナミクス等)を取得することができる。
そして、受信したメッセージがノートオンメッセージであるときは(ステップS23がYES)、そのメッセージを送信した演奏端末2に割り当てられている演奏パートの演奏情報の中から、その打鍵により発音すべき長さ分の演奏情報を読み出す(ステップS24)。例えば、前述のように、4/4拍子で拍打数が2の場合には2拍分の演奏情報、拍打数が4のときは1拍分の演奏情報を読み出す(ステップS24)。
FIG. 8 is a flowchart showing a flow of sequence processing executed in the controller 1 when a note-on / note-off message is received from the performance terminal 2.
When the controller 1 receives a note-on message or a note-off message from the performance terminal 2 (step S21), the controller 1 indicates the type (note-on or note-off) and content (velocity information) of the received message and its reception timing (time). Each performance terminal is stored in the RAM 14 (step S22). As will be described later, the performance parameters (tempo, rhythm, dynamics, etc.) of each performance terminal 2 can be acquired using this information.
If the received message is a note-on message (YES in step S23), the length to be sounded by the keystroke from the performance information of the performance part assigned to the performance terminal 2 that transmitted the message. Minute performance information is read (step S24). For example, as described above, when the number of beats is 4/4 and the number of beats is 2, performance information for two beats is read, and when the number of beats is 4, performance information for one beat is read (step S24).

そして、先頭の拍の演奏情報に対応する発音を行うための音源制御データを生成し、その演奏端末2に送信し(ステップS25)、次のメッセージの受信を待つ。
すなわち、前記ステップS24で読み出した演奏情報に含まれている先頭の拍の楽音を発生するためのMIDIイベントに基づいて、その発音を指示する音源制御データ(発音指示データ)を生成し、演奏端末2に送信する。このとき、その発音指示データには、そのMIDIイベントにもともと含まれていたベロシティ情報を、演奏端末2から受信したノートオンメッセージ含まれていたベロシティ情報に応じて修正したベロシティ情報が含まれるようにする。これにより、使用者が鍵盤を押した強さに応じた発音強度で楽音を発生させることができる。また、プログラムチェンジやコントロールチェンジ、ピッチベンドなどのMIDIイベントが含まれていたときには、これらに対応した、音色を選択する音源制御データ、音量やパンポットを制御する音源制御データ、音程を変化させる音源制御データなどの音源制御データを生成して、演奏端末2に送信する。
前述のように、これらの音源制御データは、演奏端末2の制御部22により音源24に供給され、対応する楽音がスピーカ25から放音されることとなる。
Then, sound source control data for generating a sound corresponding to the performance information of the first beat is generated, transmitted to the performance terminal 2 (step S25), and the next message is awaited.
That is, based on the MIDI event for generating the musical sound of the first beat included in the performance information read in step S24, sound source control data (sound generation instruction data) for instructing the sound generation is generated, and the performance terminal 2 to send. At this time, the sound generation instruction data includes velocity information obtained by correcting the velocity information originally included in the MIDI event according to the velocity information included in the note-on message received from the performance terminal 2. To do. As a result, it is possible to generate a musical tone with a sound intensity corresponding to the strength with which the user presses the keyboard. When MIDI events such as program change, control change, and pitch bend are included, sound source control data for selecting a tone, sound source control data for controlling volume and panpot, and sound source control for changing pitch Sound source control data such as data is generated and transmitted to the performance terminal 2.
As described above, these sound source control data are supplied to the sound source 24 by the control unit 22 of the performance terminal 2, and the corresponding musical sound is emitted from the speaker 25.

演奏端末2から受信したメッセージがノートオフメッセージであるとき(ステップS23がNO)は、前記コントローラ1の制御部12は、対応する消音を指示する音源制御データ(消音指示データ)を生成して、その演奏端末に送信する(ステップS26)。これにより、ノートオンメッセージに応じて前記ステップS25により発音されていた楽音の発生が停止される。
次に、前記ステップS22で記憶した情報を用いて先行するノートオンメッセージを受信してからこのノートオフメッセージを受信するまでの経過時間を計測し(ステップS27)、該計測した経過時間に基づいてその演奏端末の使用者による演奏のテンポを算出し、設定する(ステップS28)。
このテンポは、計測した1回のノートオンからノートオフまでの経過時間(ゲートタイム)から単純に決定してもよいが、複数回(直近から数回前)の打鍵について、ゲートタイムの移動平均を算出し、これに時間による重み付けを行って決定してもよい。直近の打鍵について最も重み付けを大きくし、過去の打鍵になるほど重み付けを小さくする。このようにテンポを決定することで、ある打鍵の時のみゲートタイムが大きく変化したとしても、突然にテンポが変化することなく、曲の流れに応じて違和感なくテンポ変化を行うことができる。
When the message received from the performance terminal 2 is a note-off message (NO in step S23), the control unit 12 of the controller 1 generates sound source control data (silence instruction data) instructing corresponding silence. It transmits to the performance terminal (step S26). As a result, the generation of the musical sound produced in step S25 in response to the note-on message is stopped.
Next, the elapsed time from the reception of the preceding note-on message to the reception of the note-off message is measured using the information stored in step S22 (step S27), and the measured elapsed time is used. The tempo of performance by the user of the performance terminal is calculated and set (step S28).
This tempo may be determined simply from the measured elapsed time from note-on to note-off (gate time), but the moving average of the gate time for multiple keystrokes (from the most recent to several times before) May be calculated and weighted according to time. The most weighting is performed for the most recent keystroke, and the weighting is decreased as the past keystroke becomes. By determining the tempo in this way, even if the gate time greatly changes only at a certain keystroke, the tempo can be changed without a sense of incongruity according to the flow of music without suddenly changing the tempo.

次に、前記ステップS24で読み出した演奏情報の中に、後続して発音すべき演奏情報があるか否かを判定する(ステップS29)。例えば、前述のように、4/4拍子で拍打数が2の場合には、2拍目又は4拍目の演奏情報が発音すべき演奏情報として残っているときがある。そこで、ステップS29の判定の結果がYESのときには、発音すべき演奏情報に対応する発音指示データと消音指示データを作成して、その演奏端末2に送信する(ステップS3)。すなわち、前記ステップS28で算出したテンポを用いて発音すべき演奏情報のデルタタイムを計数し、その発音タイミングとなったときに、その演奏情報に対応する発音指示データをその演奏端末2に送信する。このとき、この発音指示データに含まれるベロシティ情報も前述と同様に使用者の打鍵の強さに応じた値とする。そして、その音長が経過したときに、対応する消音指示データをその演奏端末2に送信する。このような処理を繰り返し、その打鍵により発音すべき演奏情報の全てについて発音指示データと消音指示データなどの音源制御データを対応する演奏端末2に送信した後、前記ステップS21に戻り、次のノートオンメッセージの受信を待つ。
このように、各使用者が鍵盤を1回押す毎に上記の処理が繰り返され、鍵盤の打鍵に応じて、設定されている拍打数に応じた長さの演奏情報の演奏を、その打鍵の強さに応じた音量とその打鍵に応じたテンポで行うことができる。
Next, it is determined whether or not there is performance information to be subsequently generated in the performance information read in step S24 (step S29). For example, as described above, when the beat is 4/4 and the number of beats is 2, the performance information of the second or fourth beat may remain as performance information to be generated. Therefore, when the determination result in step S29 is YES, the sound generation instruction data and the mute instruction data corresponding to the performance information to be sounded are created and transmitted to the performance terminal 2 (step S3). That is, the delta time of the performance information to be sounded is counted using the tempo calculated in step S28, and the sound generation instruction data corresponding to the performance information is transmitted to the performance terminal 2 when the sound generation timing comes. . At this time, the velocity information included in the sound generation instruction data is also a value corresponding to the strength of the user's keystroke, as described above. Then, when the sound length has elapsed, the corresponding mute instruction data is transmitted to the performance terminal 2. Such processing is repeated, and sound source control data such as sound generation instruction data and mute instruction data is transmitted to the corresponding performance terminal 2 for all performance information to be sounded by the keystroke, and then the process returns to the step S21 and the next note Wait for receipt of on message.
In this way, each time the user presses the keyboard once, the above process is repeated, and according to the keystroke of the keyboard, the performance information having a length corresponding to the number of beats set is played. It can be performed at a volume corresponding to the strength and a tempo corresponding to the keystroke.

なお、上記のように、ノートオフメッセージが入力されるまでは、最初に発音した楽音をそのまま発生するので、使用者が鍵盤から指を戻すまでは同一楽音を鳴らし続けることとなり、この合奏システムにおいては、音を延ばす演奏表現(フェルマータ)を実現することができる。
また、上記のようにしてゲートタイムの移動平均によりテンポを決定することで、以下のような演奏表現を実現することもできる。例えば、ある打鍵の時のみ短くポンと押された場合、その拍分の各音の音長を短くし、一方でゆったりと押された場合その拍分の各音の音長を長くする。これにより、テンポは大きく変化しないが各音の歯切れをよくする演奏表現(スタッカート)を実現したり、テンポを大きく変化させずに音の長さを保つ演奏表現(テヌート)を実現したりすることができる。
なお、上記においては、いずれの鍵盤を打鍵したとしてもノートオンメッセージ、ノートオフメッセージがコントローラ1に送信されるものとしたが、スタッカートやテヌートが効く鍵盤と効かない鍵盤を分けてもよい。コントローラ1は、特定の鍵盤からのノートオン/ノートオフメッセージが入力された場合のみ、テンポを保ちながら音長を変化させるようにすればよい。
As described above, until the note-off message is input, the first tone is generated as it is, so that the same tone continues to be played until the user returns the finger from the keyboard. Can realize a performance expression (fermata) that extends the sound.
In addition, the following performance expression can be realized by determining the tempo based on the moving average of the gate time as described above. For example, when the key is pressed shortly only when a certain key is pressed, the sound length of each sound corresponding to the beat is shortened, while when the key is pressed slowly, the sound length of each sound corresponding to the beat is lengthened. As a result, a performance expression (staccato) that improves the crispness of each sound without changing the tempo, or a performance expression (tenuto) that maintains the length of the sound without significantly changing the tempo is realized. Can do.
In the above description, the note-on message and the note-off message are transmitted to the controller 1 regardless of which key is pressed. However, a keyboard that does not work may be separated from a keyboard that works well. The controller 1 may change the sound length while maintaining the tempo only when a note-on / note-off message is input from a specific keyboard.

図9は、前記合奏パラメータ表示領域49への表示を行う合奏パラメータ表示処理の流れを示すフローチャートである。
前述のように、各演奏端末2からノートオン/ノートオフメッセージを受信したときに、コントローラ1では、そのメッセージの種類と受信タイミングと内容(ベロシティ情報)を記憶している(図8のステップS22)。そこで、該記憶されている情報に基づいて、演奏端末ごとに、その演奏パラメータを取得する(ステップS31)。例えば、ノートオンメッセージの受信回数(打鍵数)からリズムに関する情報が取得でき、ベロシティ情報からダイナミクスに関する情報が取得できる。また、前述のように、前記図8のステップS28で算出したテンポの情報と、直近の打鍵のゲートタイムからスタッカート演奏又はテヌート演奏に関する情報が取得できる。このようにして、ステップS31において、演奏端末(生徒)ごとに、複数種類の演奏パラメータを取得する。
次に、該複数種類の演奏パラメータそれぞれについて、所定期間(例えば、現在から数拍分前まで)の演奏パラメータの移動平均を算出する(ステップS32)。
そして、算出した各演奏パラメータ(移動平均値)を基準となる演奏パラメータと比較し、ズレ量を算出する(ステップS33)。ここで、基準となる演奏パラメータは、ファシリテータの演奏端末の演奏パラメータ(移動平均値)であってもよいし、あるいは、複数の演奏者の演奏端末についての演奏パラメータ(移動平均値)の平均値であってもよい。又は、演奏曲にあらかじめ設定された演奏パラメータでもよい。ここでは、ファシリテータの演奏パラメータを基準値とする。
さらに、算出したズレ量を所定期間の演奏履歴を表す軌跡として表示する場合には、前記ステップS33で算出したズレ量のうち現在から所定期間前までのものを、評価する部分(軌跡として表示する部分)として選択する(ステップS34)。
そして、ステップS35において、各演奏端末について、複数種類の演奏パラメータのズレ量を2次元平面上に表示する。例えば、X軸をリズムのズレ(ノートオンメッセージの受信タイミングの差又は打鍵数の差)とし、Y軸をダイナミクスのズレ(ベロシティ情報の大きさの差で)とする2次元平面上に、そのユーザの演奏パラメータをポイントし、所定期間の演奏パラメータの履歴の軌跡を表示する。このとき、各演奏端末ごとに表示色を変えることなどによってその表示態様を変えることにより、複数の演奏端末を区別することができる。
以下、前記ステップS31に戻り、上述した処理を繰り返す。
FIG. 9 is a flowchart showing a flow of ensemble parameter display processing for displaying in the ensemble parameter display area 49.
As described above, when a note-on / note-off message is received from each performance terminal 2, the controller 1 stores the message type, reception timing, and content (velocity information) (step S22 in FIG. 8). ). Therefore, the performance parameter is acquired for each performance terminal based on the stored information (step S31). For example, information on the rhythm can be acquired from the number of times the note-on message is received (number of keystrokes), and information on the dynamics can be acquired from the velocity information. Further, as described above, information on the staccato performance or the tenuto performance can be acquired from the tempo information calculated in step S28 of FIG. 8 and the gate time of the latest keystroke. In this way, in step S31, a plurality of types of performance parameters are acquired for each performance terminal (student).
Next, for each of the plurality of types of performance parameters, a moving average of performance parameters for a predetermined period (for example, from the present to several beats before) is calculated (step S32).
Then, each calculated performance parameter (moving average value) is compared with a reference performance parameter to calculate a deviation amount (step S33). Here, the reference performance parameter may be a performance parameter (moving average value) of the performance terminal of the facilitator, or an average value of performance parameters (moving average value) of the performance terminals of a plurality of performers. It may be. Or the performance parameter preset to the performance music may be sufficient. Here, the performance parameter of the facilitator is used as a reference value.
Further, when the calculated deviation amount is displayed as a trajectory representing the performance history for a predetermined period, the deviation amount calculated in step S33 from the present to the predetermined period before is displayed as a portion to be evaluated (trajectory). Part) is selected (step S34).
In step S35, the shift amounts of a plurality of types of performance parameters are displayed on the two-dimensional plane for each performance terminal. For example, on the two-dimensional plane where the X axis is the rhythm shift (difference in the reception timing of the note-on message or the number of keystrokes) and the Y axis is the dynamic shift (the difference in velocity information), The user's performance parameters are pointed, and a history of performance parameter history for a predetermined period is displayed. At this time, a plurality of performance terminals can be distinguished by changing the display mode by changing the display color for each performance terminal.
Thereafter, the process returns to step S31 and the above-described processing is repeated.

図10を参照して合奏パラメータの表示形態について説明する。
図10の(a)は、縦軸(Y軸)をダイナミクスのズレ、横軸(X軸)をリズムのズレとして、該2次元平面上に演奏パラメータの基準値とのズレの履歴を表す軌跡を表示するようにしたものである。Aで示す履歴を有する演奏端末は基準値との一致度が高く、Bで示す履歴を有する演奏端末は一致度が低いことを表している。また、Cで示す履歴を有する演奏端末はダイナミクスのズレは小さいが、リズムが進みすぎていることが表されている。このように、この表示形態によれば、各演奏者は、演奏パラメータのズレの方向、基準値に対して、進みすぎているのか/遅れているのか、あるいは、強すぎるのか/弱すぎるのかを一目瞭然に判別することができる。
前記図6の(b)の合奏パラメータ表示領域49には、この方法で各演奏端末のズレの軌跡が異なる色で表示されている例が記載されている。
各使用者(生徒)は、この合奏パラメータ表示領域49の表示をみることにより、自分の演奏における演奏パラメータのズレや他の生徒の演奏パラメータのズレを把握することができ、全員が自分の演奏パラメータの図形が原点付近に位置(収束)することを目指して演奏を修正することにより、全員の演奏の一致度を高めて息の合った演奏を行うことができ、大きな達成感を得ることができる。
なお、複数の演奏端末の演奏パラメータを1つの2次元平面に同時に表示するのではなく、各演奏端末ごとに異なる2次元平面上に演奏パラメータのズレを表示するようにしてもよい。
The display mode of the ensemble parameter will be described with reference to FIG.
FIG. 10A shows a locus representing a history of deviation from the reference value of the performance parameter on the two-dimensional plane, with the vertical axis (Y-axis) representing dynamics deviation and the horizontal axis (X-axis) representing rhythm deviation. Is displayed. A performance terminal having a history indicated by A indicates a high degree of coincidence with the reference value, and a performance terminal having a history indicated by B indicates a low coincidence. In addition, although the performance terminal having a history indicated by C has a small shift in dynamics, it indicates that the rhythm is too advanced. Thus, according to this display form, each performer can determine whether the performance parameter is misaligned, whether it is too advanced / lagging with respect to the reference value, or too strong / too weak. It can be distinguished at a glance.
In the ensemble parameter display area 49 of FIG. 6 (b), an example in which the locus of deviation of each performance terminal is displayed in a different color by this method is described.
Each user (student) sees the display of the ensemble parameter display area 49, so that the deviation of performance parameters in his performance and the performance parameters of other students can be grasped. By correcting the performance so that the figure of the parameter is positioned near the origin (convergence), it is possible to increase the degree of coincidence of the performance of everyone and perform a breath-taking performance, and obtain a great sense of achievement it can.
Instead of simultaneously displaying the performance parameters of a plurality of performance terminals on one two-dimensional plane, the performance parameter deviation may be displayed on a different two-dimensional plane for each performance terminal.

図10の(b)は、合奏パラメータの他の表示形態を示す図である。
この図に示す表示形態は、演奏パラメータのズレの大きさを四角形や円といった2次元の図形により表すものである。
図10の(b)に示す例は、縦軸をダイナミクスのズレの絶対値、横軸をリズムのズレの絶対値として、それらのズレ量の絶対値を菱形の対角線の長さに対応させて表している。すなわち、ダイナミクスとリズムのズレがともに大きい場合は大きな菱形となり、ともに小さな場合は小さな菱形となる。そして、ダイナミクスのズレが大きく、リズムのズレが小さいときは縦長の菱形となり、逆の時は、横長の菱形となる。
なお、この場合にも、表示される菱形の色などにより演奏者を区別することができる。また、例えば、菱形の輪郭の表示線の種類を実線で行うか破線で行うかなどにより、演奏者を区別することができる。
菱形に限らず、円や他の四角形などを用いることもできる。
(B) of FIG. 10 is a figure which shows the other display form of an ensemble parameter.
In the display form shown in this figure, the magnitude of the performance parameter deviation is represented by a two-dimensional figure such as a square or a circle.
In the example shown in FIG. 10B, the vertical axis is the absolute value of the dynamic deviation, the horizontal axis is the absolute value of the rhythm deviation, and the absolute value of the deviation is associated with the diagonal length of the rhombus. Represents. That is, when both the dynamics and the rhythm shift are large, a large rhombus is formed, and when both are small, a small rhombus is formed. When the dynamics shift is large and the rhythm shift is small, a vertically long rhombus is formed, and when it is opposite, a horizontally long rhombus is formed.
In this case as well, the performer can be distinguished by the color of the displayed rhombus. Further, for example, the performer can be distinguished depending on whether the type of display line of the rhombus outline is a solid line or a broken line.
Not only a rhombus but a circle, other squares, etc. can also be used.

図10の(c)は、合奏パラメータのさらに他の表示形態を示す図である。
この図に示す例は、顔により表示を行うものであり、2通りの表示の仕方がある。
一つは、前記(b)の場合と同様に、人の顔の高さと横幅をズレの大きさにより変化させる方法である。
他の方法は、複数の演奏端末を顔の構成要素に割り当てて、顔の大きさは変更せずに、各構成要素の位置、大きさ、形や角度などの図形情報を、ズレ量に応じて変化させることにより表示させる方法である。例えば、右の眉の位置を演奏端末A、左の眉の位置を演奏端末B、右目の位置を演奏端末C、左目の位置をD、口の位置を演奏端末Eに割り当て、それらの位置を、各演奏端末のダイナミクスのズレに応じて通常の位置から上下に移動させ、リズムのズレに応じて左右に移動させるようにする。これにより、各演奏者は、顔が最も普通に見えるように自分の演奏を修正することにより、演奏の一致度を高めることができる。
また、表示させる図形は上記顔の図形に限らず、複数の部分で構成される1つの図形であればよい。例えば、前足、後ろ足、胴体、顔、尻尾等で構成される犬の図形、ボンネット、キャビン、トランク、タイヤ等で構成される車の図形等である。これにより、各演奏者は、前記1つの図形を完成させるように自分の演奏を修正することにより、演奏の一致度を高めることができる。
(C) of FIG. 10 is a figure which shows the further another display form of an ensemble parameter.
The example shown in this figure performs display by face, and there are two ways of display.
One is a method of changing the height and width of a person's face according to the amount of deviation, as in the case of (b).
The other method is to assign multiple performance terminals to face components, and without changing the size of the face, figure information such as the position, size, shape and angle of each component according to the amount of deviation. It is a method of displaying by changing. For example, the position of the right eyebrow is assigned to the performance terminal A, the position of the left eyebrow is the performance terminal B, the position of the right eye is assigned to the performance terminal C, the position of the left eye is assigned to D, and the position of the mouth is assigned to the performance terminal E. Then, it is moved up and down from the normal position in accordance with the dynamics deviation of each performance terminal, and is moved to the left and right in accordance with the rhythm deviation. Thereby, each performer can improve the degree of coincidence of performance by correcting his performance so that the face can be seen most normally.
The figure to be displayed is not limited to the face figure, but may be a single figure composed of a plurality of parts. For example, a dog figure composed of front legs, back legs, torso, face, tail, etc., and a car figure composed of bonnet, cabin, trunk, tire, etc. Thereby, each performer can improve the degree of coincidence of performance by correcting his performance so as to complete the one figure.

なお、上記においては、ダイナミクスのズレとリズムのズレを同時に表示するものとして説明したが、テンポのズレ、スタッカート演奏のズレ、テヌート演奏のズレなどの演奏パラメータなどについても同様に表示することができる。
また、上記においては、複数種類の演奏パラメータのうちの2個をX軸及びY軸に割り当てた2次元平面上にズレ量を表示していたが、3個の演奏パラメータを選択し、これらをX軸、Y軸及びZ軸に割り当てた3次元空間上に、該3個の演奏パラメータのズレ量を図形表示するようにしてもよい。例えば、テンポ、ダイナミクス及びリズムをX軸、Y軸及びZ軸とした3次元空間に、演奏者の演奏パラメータの軌跡を表示したり、ズレ量に応じて形が変化する3次元図形(直方体など)を表示する。これにより、演奏者は、自己の演奏における3個の演奏パラメータのズレ量を同時に認識することができ、ズレ量が少なくなるように演奏を修正することができる。
さらに、上記においては、鍵盤の打鍵といった簡単な操作により合奏を行う合奏システムにおける合奏パラメータ表示装置について説明したが、本発明の合奏パラメータ表示装置は、これに限られることはなく、複数の演奏端末を用い、各演奏端末の演奏データから演奏端末それぞれの演奏パラメータを取得することができる合奏システムであれば、同様に適用することができるものである。
In the above description, the dynamics deviation and the rhythm deviation have been displayed at the same time. However, performance parameters such as a tempo deviation, a staccato performance deviation, and a tenuto performance deviation can be displayed in the same manner. .
In the above description, the amount of deviation is displayed on a two-dimensional plane in which two of a plurality of performance parameters are assigned to the X axis and the Y axis. The amount of deviation of the three performance parameters may be graphically displayed on a three-dimensional space assigned to the X axis, Y axis, and Z axis. For example, a player's performance parameter trajectory is displayed in a three-dimensional space with the tempo, dynamics, and rhythm as the X, Y, and Z axes, or a three-dimensional figure whose shape changes according to the amount of deviation (such as a rectangular parallelepiped) ) Is displayed. Thus, the performer can simultaneously recognize the amount of deviation of the three performance parameters in his performance, and can correct the performance so that the amount of deviation is reduced.
Furthermore, in the above description, the ensemble parameter display device in the ensemble system that performs ensemble by a simple operation such as keystroke on the keyboard has been described, but the ensemble parameter display device of the present invention is not limited to this, and a plurality of performance terminals The ensemble system can acquire the performance parameters of each performance terminal from the performance data of each performance terminal.

本発明の合奏パラメータ表示装置が適用される合奏システムの一実施の形態の構成を示す図である。It is a figure which shows the structure of one Embodiment of the ensemble system to which the ensemble parameter display apparatus of this invention is applied. コントローラの構成を示すブロック図である。It is a block diagram which shows the structure of a controller. 演奏端末の構成を示すブロック図である。It is a block diagram which shows the structure of a performance terminal. パート割り当て処理の流れを示す図である。It is a figure which shows the flow of a part allocation process. 合奏システムで用いられるデータの例を示す図であり、(a)は楽曲データの一例、(b)は演奏パート割り当てテーブルの一例を示す図である。It is a figure which shows the example of the data used with an ensemble system, (a) is an example of music data, (b) is a figure which shows an example of a performance part allocation table. 表示画面の例を示す図であり、(a)はメイン操作ウィンドウの一例、(b)は合奏ウィンドウの一例を示す図である。It is a figure which shows the example of a display screen, (a) is an example of a main operation window, (b) is a figure which shows an example of an ensemble window. 演奏端末の鍵盤が操作されたときの処理の流れを示す図である。It is a figure which shows the flow of a process when the keyboard of a performance terminal is operated. シーケンス処理の流れを示す図である。It is a figure which shows the flow of a sequence process. 合奏パラメータ表示処理の流れを示す図である。It is a figure which shows the flow of an ensemble parameter display process. 合奏パラメータの各種表示形態を示す図である。It is a figure which shows the various display forms of an ensemble parameter.

符号の説明Explanation of symbols

1:コントローラ(PC)、2,2A〜2F:演奏端末、3:MIDIインターフェースボックス、11:通信部、12:制御部、13:HDD、14:RAM、15:操作部、16:表示部、21:通信部、22:制御部、23:鍵盤、24:音源、25:スピーカ、31:パート割り当て処理部、32:シーケンス処理部、33:表示処理部、41:メイン操作ウィンドウ、42:演奏曲名、43:全小節数、44:演奏パート割り当て領域、45:演奏コントロールボタン、46:拍打数設定ボタン、47:合奏ウィンドウ、48:拍打位置表示領域、49:合奏パラメータ表示領域   1: controller (PC), 2, 2A to 2F: performance terminal, 3: MIDI interface box, 11: communication unit, 12: control unit, 13: HDD, 14: RAM, 15: operation unit, 16: display unit, 21: Communication unit, 22: Control unit, 23: Keyboard, 24: Sound source, 25: Speaker, 31: Part assignment processing unit, 32: Sequence processing unit, 33: Display processing unit, 41: Main operation window, 42: Performance Song name, 43: Total number of bars, 44: Performance part assignment area, 45: Performance control button, 46: Beat number setting button, 47: Concert window, 48: Beat position display area, 49: Concert parameter display area

Claims (8)

複数の演奏者の操作により演奏データを生成する複数の演奏端末と、該複数の演奏端末からの演奏データに基づいて楽音の発生を制御する制御装置とを有する合奏システムにおける合奏パラメータ表示装置であって、
前記複数の演奏端末からの演奏データに基づいて演奏端末ごとに複数種類の演奏パラメータを取得する演奏パラメータ取得手段と、
前記演奏パラメータ取得手段により取得した演奏端末ごとの複数種類の演奏パラメータについて、基準となる演奏パラメータとのズレ量を検出する差分検出手段と、
前記差分検出手段により検出された複数種類の演奏パラメータについての基準となる演奏パラメータとのズレ量に基づいて、前記複数種類の演奏パラメータのうちの2個の演奏パラメータについて、そのうちの一方をX軸とし他方をY軸とする2次元平面上に、演奏端末ごとに、前記2個の演奏パラメータと基準となる演奏パラメータとのズレ量を表現する表示画面を表示する合奏パラメータ表示手段と
を有することを特徴とする合奏パラメータ表示装置。
An ensemble parameter display device in an ensemble system having a plurality of performance terminals that generate performance data by operations of a plurality of performers and a control device that controls generation of musical sounds based on performance data from the plurality of performance terminals. And
Performance parameter acquisition means for acquiring a plurality of types of performance parameters for each performance terminal based on performance data from the plurality of performance terminals;
For a plurality of types of performance parameters for each performance terminal acquired by the performance parameter acquisition means, difference detection means for detecting a deviation amount from a performance parameter serving as a reference;
Based on the amount of deviation from the performance parameter serving as a reference for the plurality of types of performance parameters detected by the difference detection means, one of the two types of performance parameters is assigned to the X axis. And a ensemble parameter display means for displaying a display screen expressing the amount of deviation between the two performance parameters and the reference performance parameter for each performance terminal on a two-dimensional plane having the other as the Y axis. An ensemble parameter display device characterized by the above.
複数の演奏者の操作により演奏データを生成する複数の演奏端末と、該複数の演奏端末からの演奏データに基づいて楽音の発生を制御する制御装置とを有する合奏システムにおける合奏パラメータ表示装置であって、
前記複数の演奏端末からの演奏データに基づいて演奏端末ごとに複数種類の演奏パラメータを取得する演奏パラメータ取得手段と、
前記演奏パラメータ取得手段により取得した演奏端末ごとの複数種類の演奏パラメータについて、基準となる演奏パラメータとのズレ量を検出する差分検出手段と、
前記差分検出手段により検出された複数種類の演奏パラメータについての基準となる演奏パラメータとのズレ量に基づいて、前記複数種類の演奏パラメータのうちの3個の演奏パラメータをX軸、Y軸及びZ軸に割り当てた3次元空間上に、演奏端末ごとに、前記3個の演奏パラメータと基準となる演奏パラメータとのズレ量を表現する表示画面を表示する合奏パラメータ表示手段と
を有することを特徴とする合奏パラメータ表示装置。
An ensemble parameter display device in an ensemble system having a plurality of performance terminals that generate performance data by operations of a plurality of performers and a control device that controls generation of musical sounds based on performance data from the plurality of performance terminals. And
Performance parameter acquisition means for acquiring a plurality of types of performance parameters for each performance terminal based on performance data from the plurality of performance terminals;
For a plurality of types of performance parameters for each performance terminal acquired by the performance parameter acquisition means, difference detection means for detecting a deviation amount from a performance parameter serving as a reference;
Based on the amount of deviation from the performance parameter serving as a reference for the plurality of types of performance parameters detected by the difference detection means, three performance parameters of the plurality of types of performance parameters are converted into the X-axis, Y-axis, and Z-axis. Ensemble parameter display means for displaying, on a three-dimensional space assigned to the axis, a display screen representing the amount of deviation between the three performance parameters and a reference performance parameter for each performance terminal. An ensemble parameter display device.
前記基準となる演奏パラメータは、ファシリテータの演奏パラメータ、複数の演奏端末の演奏パラメータの平均値、あらかじめ設定された演奏パラメータ、又は、前記ファシリテータの演奏パラメータ、前記複数の演奏端末の演奏パラメータの平均値もしくは前記あらかじめ設定された演奏パラメータそれぞれの時間的な変化量であることを特徴とする請求項1又は2に記載の合奏パラメータ表示装置。   The reference performance parameter is a facilitator performance parameter, an average value of performance parameters of a plurality of performance terminals, a preset performance parameter, or a performance parameter of the facilitator, an average value of performance parameters of the plurality of performance terminals Alternatively, the ensemble parameter display device according to claim 1 or 2, wherein the performance parameter is a temporal change amount of each of the preset performance parameters. 前記演奏パラメータは、前記演奏者が行う操作のうち、操作の時間と操作の強さに関するパラメータであることを特徴とする請求項1乃至3のいずれかに記載の合奏パラメータ表示装置。   The ensemble parameter display device according to any one of claims 1 to 3, wherein the performance parameter is a parameter related to an operation time and an operation intensity among operations performed by the performer. 前記合奏パラメータ表示手段は、前記2個又は3個の演奏パラメータの所定期間のズレ量の軌跡を表現する表示画面を表示するものであることを特徴とする請求項1乃至4のいずれかに記載の合奏パラメータ表示装置。   5. The ensemble parameter display means displays a display screen expressing a locus of a deviation amount of the two or three performance parameters over a predetermined period. Ensemble parameter display device. 前記合奏パラメータ表示手段は、前記2個又は3個の演奏パラメータのズレ量を図形の大きさに対応させて表示するものであることを特徴とする請求項1乃至4のいずれかに記載の合奏パラメータ表示装置。   5. The ensemble according to any one of claims 1 to 4, wherein the ensemble parameter display means displays a deviation amount of the two or three performance parameters in correspondence with a size of a figure. Parameter display device. 前記合奏パラメータ表示手段は、複数の演奏パラメータのズレ量を複数の部分で構成されるひとつの図形の各部分に対応させて表示するものであることを特徴とする請求項1乃至4のいずれかに記載の合奏パラメータ表示装置。   5. The ensemble parameter display means displays the amount of deviation of a plurality of performance parameters in correspondence with each part of one figure composed of a plurality of parts. The ensemble parameter display device described in 1. 前記合奏パラメータ表示手段は、演奏端末ごとに表示色又は表示線の種類を変更して表示するものであることを特徴とする請求項1乃至7のいずれかに記載の合奏パラメータ表示装置。   8. The ensemble parameter display device according to any one of claims 1 to 7, wherein the ensemble parameter display means changes display color or display line type for each performance terminal.
JP2006094764A 2006-03-30 2006-03-30 Ensemble parameter display device Expired - Fee Related JP4131279B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006094764A JP4131279B2 (en) 2006-03-30 2006-03-30 Ensemble parameter display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006094764A JP4131279B2 (en) 2006-03-30 2006-03-30 Ensemble parameter display device

Publications (2)

Publication Number Publication Date
JP2007271739A true JP2007271739A (en) 2007-10-18
JP4131279B2 JP4131279B2 (en) 2008-08-13

Family

ID=38674625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006094764A Expired - Fee Related JP4131279B2 (en) 2006-03-30 2006-03-30 Ensemble parameter display device

Country Status (1)

Country Link
JP (1) JP4131279B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011164162A (en) * 2010-02-05 2011-08-25 Kwansei Gakuin Support device for giving expression to performance
JP2014071137A (en) * 2012-09-27 2014-04-21 Xing Inc Instrumental sound output device
JP2016184112A (en) * 2015-03-26 2016-10-20 ヤマハ株式会社 Ensemble evaluation apparatus
JP2021110821A (en) * 2020-01-09 2021-08-02 Necプラットフォームズ株式会社 Analyzer, performance supporting system, analysis method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011164162A (en) * 2010-02-05 2011-08-25 Kwansei Gakuin Support device for giving expression to performance
JP2014071137A (en) * 2012-09-27 2014-04-21 Xing Inc Instrumental sound output device
JP2016184112A (en) * 2015-03-26 2016-10-20 ヤマハ株式会社 Ensemble evaluation apparatus
JP2021110821A (en) * 2020-01-09 2021-08-02 Necプラットフォームズ株式会社 Analyzer, performance supporting system, analysis method and program

Also Published As

Publication number Publication date
JP4131279B2 (en) 2008-08-13

Similar Documents

Publication Publication Date Title
JP4752425B2 (en) Ensemble system
JP3317686B2 (en) Singing accompaniment system
US7795524B2 (en) Musical performance processing apparatus and storage medium therefor
JP4797523B2 (en) Ensemble system
JP2004086067A (en) Speech generator and speech generation program
JP2001232062A (en) Game device, game control method and recording medium therefor
JP4692189B2 (en) Ensemble system
JP4131279B2 (en) Ensemble parameter display device
JP2020056938A (en) Musical performance information display device and musical performance information display method, musical performance information display program, and electronic musical instrument
US7838754B2 (en) Performance system, controller used therefor, and program
JP6977741B2 (en) Information processing equipment, information processing methods, performance data display systems, and programs
JP4259532B2 (en) Performance control device and program
EP1975920A2 (en) Musical performance processing apparatus and storage medium therefor
JP7338669B2 (en) Information processing device, information processing method, performance data display system, and program
US20220406279A1 (en) Methods, information processing device, and image display system for electronic musical instruments
JP4108850B2 (en) Method for estimating standard calorie consumption by singing and karaoke apparatus
JP2006178268A (en) Musical sound controller and musical sound control program
JP5011920B2 (en) Ensemble system
JP2008233614A (en) Measure number display device, measure number display method, and measure number display program
JPH1185170A (en) Karaoke sing-along improvisation system
JP4198645B2 (en) Electronic percussion instrument for karaoke equipment
JP2021099459A (en) Program, method, electronic apparatus, and musical performance data display system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080430

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080513

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130606

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees