JP5600968B2 - Automatic performance device and automatic performance program - Google Patents
Automatic performance device and automatic performance program Download PDFInfo
- Publication number
- JP5600968B2 JP5600968B2 JP2010046051A JP2010046051A JP5600968B2 JP 5600968 B2 JP5600968 B2 JP 5600968B2 JP 2010046051 A JP2010046051 A JP 2010046051A JP 2010046051 A JP2010046051 A JP 2010046051A JP 5600968 B2 JP5600968 B2 JP 5600968B2
- Authority
- JP
- Japan
- Prior art keywords
- performance
- difference value
- tempo
- data
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Description
本発明は、デモンストレーション演奏が可能な自動演奏装置および自動演奏プログラムに関する。 The present invention relates to an automatic performance apparatus and an automatic performance program capable of performing a demonstration performance.
電子楽器など楽音を発生することができる装置では、ROMや、メモリカードに格納されたデモンストレーション曲(以下、「デモ曲」と称する)のデータを読み出して、当該デモ曲データに基づいた演奏が可能であるものが多い。デモ曲データの演奏では、通常、操作者(以下、「演奏者」と称する)の操作によりテンポの変更が可能である。しかしながら、単にテンポの変更ができるだけでは、演奏者のそのときの気分に応じたデモ演奏が実現できないという問題点があった。 A device capable of generating musical sounds, such as an electronic musical instrument, can read data of demonstration songs (hereinafter referred to as “demo songs”) stored in a ROM or memory card and perform based on the demo song data There are many things that are. In the performance of demo music data, the tempo can usually be changed by the operation of an operator (hereinafter referred to as “performer”). However, there is a problem that a demo performance according to the mood of the performer cannot be realized simply by changing the tempo.
たとえば、特許文献1には、デモ曲を複数ブロックに分けて、指示にしたがってデモ演奏のパターンを変化させる自動演奏装置が開示されている。また、特許文献2には、演奏者がデモ曲と同一の楽曲を演奏した場合の演奏時間を計測し、デモ曲の演奏時間と比較して、比較結果に基づいてデモ曲演奏時のテンポを制御する自動演奏装置が開示されている。
For example,
演奏者による演奏は、演奏者の心理的な状態を表すため、演奏者による演奏に基づく、テンポ、音量などを含む演奏情報を、デモ曲の自動演奏に反映させることにより、デモ曲の自動演奏を、演奏者の心理状態により合致させることができる。 Since the performance by the performer represents the psychological state of the performer, the performance information including the tempo and volume based on the performance by the performer is reflected in the automatic performance of the demo song, thereby automatically performing the demo song. Can be matched to the psychological state of the performer.
本発明は、さらに、デモ曲など楽曲の自動演奏における演奏情報の調整可能な範囲を、演奏者の心理状態を反映して設定することができる自動演奏装置、および、自動演奏プログラムを提供することを目的とする。 The present invention further provides an automatic performance apparatus and an automatic performance program that can set an adjustable range of performance information in automatic performance of music such as a demo song, reflecting the psychological state of the performer. With the goal.
本発明の目的は、それぞれに音高が割り当てられている複数の演奏操作子と、
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成手段と、
楽曲を構成する楽音のそれぞれについて、音高を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、予め設定された第1のテンポに基づいて前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御手段と、
前記演奏者による入力にしたがって、前記第1のテンポの上限および下限を調整する演奏情報調整手段と、を備え、
前記演奏情報調整手段が、
前記演奏データに基づいて定まる第2のテンポから前記第1のテンポを減じた値に相当する第1のテンポ差分値を算出し、
前記第1のテンポ差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記第1のテンポの上限および下限を決定することを特徴とする自動演奏装置により達成される。
An object of the present invention is to provide a plurality of performance operators each assigned a pitch,
Performance data generating means for generating performance data including records indicating events, sound generation timings and mute timings according to the operation of the performance operator by the performer, and storing the performance data in the performance data storage area of the storage means;
For each of the musical sounds constituting the music, a record of music data including an event including the pitch, a record indicating the sound generation timing and the mute timing is stored in the music data storage area of the storage means based on a preset first tempo. By reading from, the music performance control means for generating performance information according to the event, sound generation timing and mute timing included in the record,
Performance information adjusting means for adjusting an upper limit and a lower limit of the first tempo in accordance with an input by the performer,
The performance information adjusting means is
Calculating a first tempo difference value corresponding to a value obtained by subtracting the first tempo from a second tempo determined based on the performance data;
Obtaining player psychological information indicating the player's psychological state based on the first tempo difference value, and determining an upper limit and a lower limit of the first tempo based on the acquired player psychological information. Is achieved by an automatic performance device characterized by
好ましい実施態様においては、前記記憶手段が、前記演奏者による複数回の演奏に伴う前記第1のテンポ差分値の平均値に相当する第2のテンポ差分値を記憶し、
前記演奏情報調整手段が、
前記第2のテンポ差分値から第1のテンポ差分値を減じた、第3のテンポ差分値が大きくなるのにしたがって、前記第1のテンポの上限および下限をそれぞれ増大させるための、前記演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記演奏情報の第1のテンポの上限および下限を決定する。In a preferred embodiment, the storage means stores a second tempo difference value corresponding to an average value of the first tempo difference values associated with a plurality of performances by the performer,
The performance information adjusting means is
The performer for respectively increasing the upper limit and the lower limit of the first tempo as the third tempo difference value is increased by subtracting the first tempo difference value from the second tempo difference value. Psychological information is acquired, and based on the acquired player psychological information, an upper limit and a lower limit of the first tempo of the performance information are determined.
別の好ましい実施態様においては、それぞれに音高が割り当てられている複数の演奏操作子と、In another preferred embodiment, a plurality of performance operators, each assigned a pitch,
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成手段と、Performance data generating means for generating performance data including records indicating events, sound generation timings and mute timings according to the operation of the performance operator by the performer, and storing the performance data in the performance data storage area of the storage means;
楽曲を構成する楽音のそれぞれについて、音高を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御手段と、For each of the musical tones that make up the music, an event included in the record is obtained by reading from the music data storage area of the storage means a record of the music data including an event including the pitch, a record indicating the sound generation timing and the mute timing. Music performance control means for generating performance information according to the sounding timing and mute timing;
前記演奏者による入力にしたがって、前記演奏情報に含まれる、楽音の発音タイミングと消音タイミングとの間の時間であるゲートタイムの上限および下限を調整する演奏情報調整手段と、を備え、Performance information adjusting means for adjusting an upper limit and a lower limit of a gate time, which is a time between a sound generation timing and a mute timing, included in the performance information, according to the input by the performer,
前記演奏情報調整手段が、The performance information adjusting means is
前記演奏データにおける、それぞれの楽音についての第1のゲートタイムから前記楽曲データにおけるそれぞれの楽音についての第2のゲートタイムを減じた値に相当する第1のゲートタイム差分値を算出し、Calculating a first gate time difference value corresponding to a value obtained by subtracting a second gate time for each musical tone in the music data from a first gate time for each musical tone in the performance data;
前記第1のゲートタイム差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記ゲートタイムの上限および下限を決定することを特徴とする自動演奏装置により達成される。Obtaining player psychological information indicating the player's psychological state based on the first gate time difference value, and determining an upper limit and a lower limit of the gate time based on the acquired player psychological information. Achieved by the featured automatic performance device.
より好ましい実施形態においては、前記記憶手段が、前記演奏者による複数回の演奏に伴う前記第1のゲートタイム差分値の平均値に相当する第2のゲートタイム差分値を記憶し、In a more preferred embodiment, the storage means stores a second gate time difference value corresponding to an average value of the first gate time difference values accompanying a plurality of performances by the performer,
前記演奏情報調整手段が、The performance information adjusting means is
前記第1のゲートタイム差分値から第2のゲートタイム差分値を減じた、第3のテンポ差分値が小さくなるのにしたがって、前記ゲートタイムの上限および下限をそれぞれ増大させるための、前記演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記ゲートタイムの上限および下限を決定する。The performer for respectively increasing the upper limit and the lower limit of the gate time as the third tempo difference value decreases by subtracting the second gate time difference value from the first gate time difference value. Psychological information is acquired, and upper and lower limits of the gate time are determined based on the acquired player psychological information.
別の好ましい実施態様においては、それぞれに音高が割り当てられている複数の演奏操作子と、In another preferred embodiment, a plurality of performance operators, each assigned a pitch,
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成手段と、Performance data generating means for generating performance data including records indicating events, sound generation timings and mute timings according to the operation of the performance operator by the performer, and storing the performance data in the performance data storage area of the storage means;
楽曲を構成する楽音のそれぞれについて、音高および音量を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御手段と、For each of the musical tones that make up the music, a record of music data including an event that includes the pitch and volume, a record that indicates the sound generation timing and the mute timing is included in the record by reading it from the music data storage area of the storage means Music performance control means for generating performance information according to the event to be generated, the sounding timing and the mute timing,
前記演奏者による入力にしたがって、前記演奏情報に含まれる、イベントの音量に相当するベロシティの上限および下限を調整する演奏情報調整手段と、を備え、Performance information adjusting means for adjusting an upper limit and a lower limit of velocity corresponding to the volume of the event included in the performance information according to the input by the performer,
前記演奏情報調整手段が、The performance information adjusting means is
前記演奏データにおける、それぞれの楽音についての第1のベロシティから前記楽曲データにおけるそれぞれの楽音についての第2のベロシティを減じた値に相当する第1のベロシティ差分値を算出し、Calculating a first velocity difference value corresponding to a value obtained by subtracting a second velocity for each musical tone in the music data from a first velocity for each musical tone in the performance data;
前記第1のベロシティ差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記演奏情報のベロシティの上限および下限を決定することを特徴とする自動演奏装置により達成される。Obtaining player psychological information indicating the player's psychological state based on the first velocity difference value, and determining an upper limit and a lower limit of the velocity of the performance information based on the acquired player psychological information. Is achieved by an automatic performance device characterized by
より好ましい実施態様においては、前記記憶手段が、前記演奏者による複数回の演奏に伴う前記第1のベロシティ差分値の平均値に相当する第2のベロシティ差分値を記憶し、In a more preferred embodiment, the storage means stores a second velocity difference value corresponding to an average value of the first velocity difference values accompanying a plurality of performances by the performer,
前記演奏情報調整手段が、The performance information adjusting means is
前記第1のベロシティ差分値から第2のベロシティ差分値を減じた、第3のベロシティ差分値が大きくなるのにしたがって、前記音量の上限および下限をそれぞれ増大させるための、前記演奏者心理情報を取得し、前記演奏者心理情報に基づき、前記演奏情報のベロシティの上限および下限を決定する。The player psychological information for increasing the upper limit and the lower limit of the volume respectively as the third velocity difference value is increased by subtracting the second velocity difference value from the first velocity difference value. The upper limit and the lower limit of the velocity of the performance information are determined based on the player psychological information.
また、本発明の目的は、コンピュータに、In addition, the object of the present invention is to a computer,
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成ステップと、A performance data generating step for generating performance data including a record indicating an event, a sound generation timing and a mute timing according to the operation of the performance operator by the performer, and storing the performance data in a performance data storage area of the storage means;
楽曲を構成する楽音のそれぞれについて、音高を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、予め設定された第1のテンポに基づいて前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御ステップと、For each of the musical sounds constituting the music, a record of music data including an event including the pitch, a record indicating the sound generation timing and the mute timing is stored in the music data storage area of the storage means based on a preset first tempo. A music performance control step for generating performance information in accordance with the event, sound generation timing and mute timing included in the record,
前記演奏者による入力にしたがって、前記第1のテンポの上限および下限を調整する演奏情報調整ステップと、を実行させ、Performing a performance information adjustment step of adjusting an upper limit and a lower limit of the first tempo in accordance with an input by the performer,
前記演奏情報調整ステップが、The performance information adjustment step includes:
前記演奏データに基づいて定まる第2のテンポから前記第1のテンポを減じた値に相当する第1のテンポ差分値を算出し、Calculating a first tempo difference value corresponding to a value obtained by subtracting the first tempo from a second tempo determined based on the performance data;
前記第1のテンポ差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記第1のテンポの上限および下限を決定するステップを含むことを特徴とする自動演奏プログラムにより達成される。Obtaining player psychological information indicating the player's psychological state based on the first tempo difference value, and determining upper and lower limits of the first tempo based on the obtained player psychological information; It is achieved by an automatic performance program characterized by including:
また、本発明の目的は、コンピュータに、
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成ステップと、
楽曲を構成する楽音のそれぞれについて、音高を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御ステップと、
前記演奏者による入力にしたがって、前記演奏情報に含まれる、楽音の発音タイミングと消音タイミングとの間の時間であるゲートタイムの上限および下限を調整する演奏情報調整ステップと、を実行させ、
前記演奏情報調整ステップが、
前記演奏データにおける、それぞれの楽音についての第1のゲートタイムから前記楽曲データにおけるそれぞれの楽音についての第2のゲートタイムを減じた値に相当する第1のゲートタイム差分値を算出し、
前記第1のゲートタイム差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記ゲートタイムの上限および下限を決定するステップを含むことを特徴とする自動演奏プログラムにより達成される。
また、本発明の目的は、コンピュータに、
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成ステップと、
楽曲を構成する楽音のそれぞれについて、音高および音量を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御ステップと、
前記演奏者による入力にしたがって、前記演奏情報に含まれる、イベントの音量に相当するベロシティの上限および下限を調整する演奏情報調整ステップと、を備え、
前記演奏情報調整ステップが、
前記演奏データにおける、それぞれの楽音についての第1のベロシティから前記楽曲データにおけるそれぞれの楽音についての第2のベロシティを減じた値に相当する第1のベロシティ差分値を算出し、
前記第1のベロシティ差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記演奏情報のベロシティの上限および下限を決定するステップを含むことを特徴とする自動演奏プログラムにより達成される。
Further, the object of the present invention is to a computer,
A performance data generating step for generating performance data including a record indicating an event, a sound generation timing and a mute timing according to the operation of the performance operator by the performer, and storing the performance data in a performance data storage area of the storage means;
For each of the musical tones that make up the music, an event included in the record is obtained by reading from the music data storage area of the storage means a record of the music data including an event including the pitch, a record indicating the sound generation timing and the mute timing. A music performance control step for generating performance information according to the pronunciation timing and the mute timing;
In accordance with the input by the performer, a performance information adjustment step for adjusting an upper limit and a lower limit of a gate time, which is a time between the sound generation timing and the mute timing included in the performance information, is executed,
The performance information adjustment step includes:
Calculating a first gate time difference value corresponding to a value obtained by subtracting a second gate time for each musical tone in the music data from a first gate time for each musical tone in the performance data;
Obtaining player psychological information indicating the player's psychological state based on the first gate time difference value, and determining upper and lower limits of the gate time based on the obtained player psychological information; It is achieved by an automatic performance program characterized by including.
Further, the object of the present invention is to a computer,
A performance data generating step for generating performance data including a record indicating an event, a sound generation timing and a mute timing according to the operation of the performance operator by the performer, and storing the performance data in a performance data storage area of the storage means;
For each of the musical tones that make up the music, a record of music data including an event that includes the pitch and volume, a record that indicates the sound generation timing and the mute timing is included in the record by reading it from the music data storage area of the storage means Music performance control step for generating performance information according to the event to be played, the sounding timing and the mute timing,
A performance information adjusting step for adjusting an upper limit and a lower limit of velocity corresponding to the volume of the event included in the performance information in accordance with the input by the performer,
The performance information adjustment step includes:
Calculating a first velocity difference value corresponding to a value obtained by subtracting a second velocity for each musical tone in the music data from a first velocity for each musical tone in the performance data;
Obtaining player psychological information indicating the player's psychological state based on the first velocity difference value, and determining an upper limit and a lower limit of the velocity of the performance information based on the obtained player psychological information; It is achieved by an automatic performance program characterized by including:
本発明によれば、デモ曲など楽曲の自動演奏における演奏情報の調整可能な範囲を、演奏者の心理状態を反映して設定することができる自動演奏装置、および、自動演奏プログラムを提供することが可能となる。 According to the present invention, it is possible to provide an automatic performance apparatus and an automatic performance program capable of setting a range in which performance information can be adjusted in an automatic performance of a musical piece such as a demo song, reflecting the psychological state of the performer. Is possible.
以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、本実施の形態にかかる電子楽器の概略を示す図である。図1に示すように、本実施の形態にかかる電子楽器10は、複数(たとえば61個)の鍵16−1、16−2、・・・を含む鍵盤11を有する。また、鍵盤11の上部には、音色の指定、デモ曲などを含む楽曲の自動演奏のテンポを含むパラメータの設定、演奏者による録音スタートの指示、デモ曲の選択、デモ曲のスタート・ストップのための複数のスイッチ(たとえば、スイッチ17、テンキー18など)や、演奏される楽曲に関する種々の情報、たとえば、音色、デモ曲番号、テンポなどを表示する表示部14を有する。
Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a diagram schematically illustrating the electronic musical instrument according to the present embodiment. As shown in FIG. 1, an electronic
図2は、本実施の形態にかかる電子楽器の構成を示すブロックダイヤグラムである。図2に示すように、本実施の形態にかかる電子楽器10は、CPU21、ROM22、RAM23、サウンドシステム24、鍵盤11、スイッチ部12、および、液晶表示装置を有する表示部14を備える。
FIG. 2 is a block diagram showing the configuration of the electronic musical instrument according to this embodiment. As shown in FIG. 2, the electronic
CPU21は、電子楽器10全体の制御、鍵盤11の鍵(たとえば、図1の符号16−1、16−2参照)の押鍵やスイッチ部12を構成するスイッチの操作の検出、鍵やスイッチの操作にしたがったサウンドシステム24の制御など種々の処理を実行する。また、本実施の形態において、CPU21は、ROM22に格納されたデモ曲のデータを読み出して、音源部26に発音させ、また、演奏者による鍵盤11の鍵の押鍵に基づく演奏データの生成およびRAM23への格納の処理を実行する。さらに、CPU21は、演奏者によるスイッチ12の操作などに基づいて、デモ曲の演奏を規定する演奏情報パラメータを制御するための処理を実行する。
The
ROM22は、CPU21に実行させる種々の処理、たとえば、鍵盤の鍵のオン(押鍵)・オフ(離鍵)の検出、スイッチの操作、押鍵に応じた楽音の発音、デモ曲等の自動演奏、押鍵に基づく演奏データの生成、演奏情報パラメータの制御などのプログラムを格納する。また、ROM22は、ピアノ、ギター、バスドラム、スネアドラム、シンバルなどの楽音を生成するための波形データを格納した波形データエリア、および、自動伴奏を格納したデモ曲データエリア、上記プログラムを格納したプログラムエリアを有する。RAM23は、ROM22から読み出されたプログラムや、処理の過程で生成されたデータなどを記憶する。
The
サウンドシステム24は、音源部26、オーディオ回路27およびスピーカ28を有する。音源部26は、たとえば、押鍵された鍵に関するノートオンイベントをCPU21から受信すると、ROM22の波形データエリアから所定の波形データを読み出して、所定の音高で所定のベロシティの楽音データを生成して出力する。また、音源部26は、波形データ、特に、スネアドラム、バスドラム、シンバルなど打楽器の音色の波形データを、そのまま楽音データとして出力することもできる。オーディオ回路27は、楽音データをD/A変換して増幅する。これによりスピーカ28から音響信号が出力される。
The
図3は、本実施の形態にかかるROMに格納されたデータの一例を説明する図である。図3に示すように、本実施の形態にかかるROM22には、プログラムエリア301、波形データエリア302およびデモ曲データエリア303を含む。デモ曲データエリア303には、複数のデモ曲(たとえば、デモ曲(1)、(2)、(3)・・・)のそれぞれのデータエリア(たとえば、符号311、312、313)を含む。デモ曲データエリア(たとえば、デモ曲(1)のデータエリア311)は、時間情報であるタイムのデータレコード(たとえば符号321、323参照)と、押鍵(ノートオン)或いは離鍵(ノートオフ)のいずれかのイベント情報であるイベントのデータレコード(たとえば符号322、324参照)とを含む。イベントのデータレコードは、そのイベントの内容(ノートオン或いはノートオフ)、イベントにかかる音高情報(たとえば、MIDIにしたがったノート番号)、および、ノートオンイベントであれば音量を指定するベロシティを含む。
FIG. 3 is a diagram for explaining an example of data stored in the ROM according to the present embodiment. As shown in FIG. 3, the
2つのイベントのレコードの間に位置するタイムのレコードは、当該2つのイベントの間の時間間隔を示す。たとえば、イベントのレコード322がある音高のノートオンイベントを示し、イベントのレコード324が当該音高のノートオフイベントを示す場合に、その間のタイムのレコード323は、当該音高の楽音の発音時間を示す。
A time record located between two event records indicates a time interval between the two events. For example, when an
図4および図5は、本実施の形態にかかるRAM23に格納されたデータの一例を説明する図である。図4に示すように、RAM23には、演奏データ記憶エリア400、デモ曲対応履歴データエリア401、パラメータエリア402、第1の差分データエリア403、演奏者状態情報STATEの格納エリア404、デモ曲の曲データを格納する曲データエリア405、曲番号SONGの格納エリア406、第1のタイマ値T1の格納エリア407、および、第2のタイマ値T2の格納エリア408を有する。後に詳述するが、第1の差分データ403は、テンポについての第1の差分値(第1テンポ差分値)Δtempo、ベロシティについての第1の差分値(第1ベロシティ差分値)Δvel、および、押鍵時間に相当するゲートタイムについての第1の差分値(第1ゲートタイム差分値)Δgateのデータレコードを有する。
4 and 5 are diagrams for explaining an example of data stored in the
デモ曲対応履歴データエリア401には、デモ曲ごと(たとえば符号411、412参照)に、第2の差分値データ(符号421参照)を含む。第2の差分データ421は、テンポについての第2の差分値(第2テンポ差分値)ΔTEMPO、ベロシティについての第2の差分値(第2ベロシティ差分値)ΔVEL、および、押鍵時間に相当するゲートタイムについての第2の差分値(第2ゲートタイム差分値)ΔGATEのデータレコードを有する。
The demo song corresponding
パラメータエリア402は、テンポデータ、ベロシティデータおよびゲートタイムデータを有する(符号413〜415参照)。本実施の形態においては、演奏情報パラメータとして、楽曲のテンポ、音量(ベロシティ)、および、ゲートタイムを調整することができるようになっている。上記演奏情報パラメータには、デモ曲演奏の際に用いられるプリセット値データと、値の上限および下限をそれぞれ示す最大値データおよび最小値データが存在する。
The
テンポデータ413は、テンポプリセット値データPR(0)、テンポ最大値データMAX(0)およびテンポ最小値データMIN(0)のデータレコードを有する(符号422参照)。音量データ414は、音量プリセット値データ(PR(1)、音量最大値データMAX(1)および音量最小値データMIN(1)のデータレコードを有する(符号423参照)。また、ゲートタイムデータ415は、ゲートタイムプリセット値データPR(2)、ゲートタイム最大値データMAX(2)およびゲートタイム最小値データMIN(2)のデータレコードを有する(符号424参照)。
The
図5は、本実施の形態にかかる演奏データ記憶エリアおよび曲データエリアのデータ構成例を示す図である。演奏データ記憶エリアおよび曲データエリアの双方とも、同様のデータ構成を備えており、以下、演奏データ記憶エリアについて説明する。演奏データ記憶エリアのレコード群500は、先頭にイニシャルタイムのレコードを有する(符号501)、次いで、ノートオンイベントのレコード(符号502)、ゲートタイムのレコード(符号503)およびステップタイムのレコード(符号504)が格納され、その後に、次のノートオンイベントのレコード(符号505)が格納される。ゲートタイムは、ノートオンイベントによりオン状態となった楽音を消音するまでの時間間隔を示す。その一方、ステップタイムは、ノートオンイベントと次のノートオンイベントとの間の時間間隔を示す。すなわち、ゲートタイムが短くなる(値が小さくなる)ことは、鍵のオン時間が短くなることを示し、演奏において、聴感上フレーズの跳躍感が増大することになる。
FIG. 5 is a diagram showing a data configuration example of the performance data storage area and the song data area according to the present embodiment. Both the performance data storage area and the song data area have the same data structure, and the performance data storage area will be described below. The
図6は、本実施の形態にかかる電子楽器において実行される処理の例を概略的に示すフローチャートである。図6に示すように、電子楽器10の電源が投入されると、CPU21は、RAM23中のデータや、表示部14の画面に表示された画像のクリアを含むイニシャライズを実行する(ステップ601)。イニシャライズが終了すると、電子楽器10のCPU21は、スイッチ処理を実行する(ステップ602)。スイッチ処理が終了すると、CPU21は、鍵盤処理を実行する(ステップ603)。処理が前後するが、以下、鍵盤処理の詳細について先に説明する。
FIG. 6 is a flowchart schematically showing an example of processing executed in the electronic musical instrument according to this embodiment. As shown in FIG. 6, when the power of the electronic
図7は、本実施の形態にかかる鍵盤処理の例を示すフローチャートである。図7に示すように、CPU21は、鍵盤11の鍵を所定の順で(たとえば、音高の低い鍵から)走査して(ステップ701)、処理対象となる鍵の状態に変化があったか否かを判断する(ステップ702)。ステップ702で鍵がオン状態となったと判断された場合には、CPU21は、当該鍵の押鍵に基づき、鍵に対応する音高の楽音を発音することを示すノートオンイベントを生成する(ステップ703)。ノートオンイベントには、音高情報に加え、鍵の押鍵速度に基づき得られたベロシティが含まれる。CPU21は、ノートオンイベントを音源部26に与える(ステップ704)。
FIG. 7 is a flowchart showing an example of keyboard processing according to the present embodiment. As shown in FIG. 7, the
次いで、CPU21は、録音スタートフラグRSTFが「1」であるかを判断する(ステップ705)。ステップ705でYesと判断された場合には、CPU21は、オン状態となった鍵の押鍵が、最初の押鍵に該当するかを判断する(ステップ706)。ここに、最初の押鍵とは、録音スタートフラグが「1」になってからの最初の押鍵を意味する。ステップ706でYesと判断された場合には、CPU21は、RAM23の曲データエリア(符号405参照)のアドレスADをインクリメント、つまり、「1」だけ増大させる(ステップ707)。その一方、ステップ706でNoと判断された場合には、CPU21は、アドレスADを「3」だけ増大させる(ステップ708)。
Next, the
次いで、CPU21は、RAM23において、アドレスADに示す位置にイベント(ノートオンイベント)を格納する(ステップ709)。CPU21は、押鍵が最初の押鍵に該当するかを再度判断する(ステップ710)。ステップ710でNoと判断された場合には、CPU21は、RAM23においてアドレス(AD+1)に示す位置に、第1のタイマ値T1を格納する(ステップ711)。その後、CPU21は、第1のタイマ値T1および第2のタイマ値T2を「0」にクリアする。
Next, the
次に、処理対象となる鍵がオフ状態となった場合について説明する。鍵がオフ状態となった場合には、CPU21は、離鍵された鍵に対応する音高の楽音を消音することを示すノートオフイベントを生成する(ステップ713)。CPU21は、ノートオフイベントを音源部26に与える(ステップ714)。次いで、CPU21は、録音スタートフラグRSTFが「1」であるかを判断する(ステップ715)。ステップ715でYesと判断された場合には、CPU21は、RAM23においてアドレス(AD+2)に示す位置に、第2のタイマ値T2を格納する(ステップ716)。
Next, a case where a key to be processed is turned off will be described. When the key is turned off, the
なお、後述するように、録音スタートスイッチ処理(図8のステップ801、図9)において、録音がスタートされると、RSTFが「1」となっている。また、RSTFが「1」に変化したときに、タイマカウントが開始される。RSTFが「1」の状態では、タイマ(図示せず)が起動し、タイマインタラプトによって、第1のタイマ値T1および第2のタイマ値T2がインクリメントされる。ここでタイマがインクリメントされる周期(タイマ周期)は、テンポ値プリセットデータPR(0)に基づいて決定される。 As will be described later, in the recording start switch process (step 801 in FIG. 8, FIG. 9), when recording is started, the RSTF is “1”. Further, when RSTF changes to “1”, the timer count is started. When RSTF is “1”, a timer (not shown) is started, and the first timer value T1 and the second timer value T2 are incremented by a timer interrupt. Here, the cycle in which the timer is incremented (timer cycle) is determined based on the tempo value preset data PR (0).
鍵盤処理によって、イベント(ノートオンイベント)、ゲートタイム、および、ステップタイムの順でレコードが繰り返し格納された演奏データが生成され、RAM23の演奏データ記憶エリア400に格納される。
By the keyboard processing, performance data in which records are repeatedly stored in the order of event (note-on event), gate time, and step time is generated and stored in the performance
次に、スイッチ処理(ステップ602)についてより詳細に説明する。図8は、本実施の形態にかかるスイッチ処理の例を示すフローチャートである。図8に示すように、スイッチ処理には、録音スタートスイッチ処理(ステップ801)、デモ曲選択スイッチ処理(ステップ802)、デモ曲スタート・ストップスイッチ処理(ステップ803)、パラメータ選択スイッチ処理(ステップ804)、および、パラメータ増減スイッチ処理(ステップ805)を含む。以下、それぞれの処理について説明する。 Next, the switch process (step 602) will be described in more detail. FIG. 8 is a flowchart illustrating an example of the switch processing according to the present embodiment. As shown in FIG. 8, the recording process includes a recording start switch process (step 801), a demo song selection switch process (step 802), a demo song start / stop switch process (step 803), and a parameter selection switch process (step 804). ) And parameter increase / decrease switch processing (step 805). Hereinafter, each processing will be described.
図9は、本実施の形態にかかる録音スタートスイッチ処理の例を示すフローチャートである。図9に示すように、CPU21は、スイッチ部12中の録音スタートスイッチが操作されたかを判断する(ステップ901)。録音スタートスイッチ(図示せず)は、1回目の操作でオン、次の操作でオフとなる、いわゆるトグルスイッチである。スイッチ操作があった場合(ステップ901でYes)、CPU21は、録音スタートフラグRSTFを反転させて(ステップ902)、RSTFが「1」となったかを判断する(ステップ903)。ステップ903でYesと判断された場合には、CPU21は、RAM23中に演奏データ記憶エリア(図4の符号400参照)を確保する(ステップ904)。また、CPU21は、RAM23の演奏エータ記憶エリア23の先頭アドレスを、パラメータADとして設定する。また、CPU21は、RAM23中、アドレスADで示される位置に、現在時刻を格納し(ステップ906)、第1のタイマ値T1および第2のタイマ値T2(図4の符号407、408参照)を「0」にリセットする(ステップ907)。その後、CPU21は、タイマカウントを開始する(ステップ908)。タイマカウントが開始されると、第1のタイマ値T1および第2のタイマ値T2は、所定のタイマ周期で実行されるタイマインタラプト処理(図示せず)においてインクリメントされる。
FIG. 9 is a flowchart showing an example of the recording start switch process according to the present embodiment. As shown in FIG. 9, the
ステップ903でNoと判断された場合には、CPU21は、タイマカウントを停止する(ステップ909)。これにより、タイマインタラプト処理のよるタイマ値T1、T2のインクリメントが停止される。また、CPU21は、分析処理を実行する(ステップ910)。分析処理については後に詳述する。その後、CPU21は、RAM23の演奏データ記憶エリアに格納されたデータをクリアする(ステップ911)。
When it is determined No in
次に、デモ曲選択スイッチ処理(ステップ802)について説明する。図10は、本実施の形態にかかるデモ曲選択スイッチ処理の例を示すフローチャートである。デモ曲選択スイッチは、たとえば、テンキーであり、番号が入力できるようになっている。デモ曲選択スイッチの操作があった場合には(ステップ1001でYes)、CPU21は、入力された番号を、RAM23中の曲番号SONGのエリア(図4の符号406参照)に格納する(ステップ1002)。その後、CPU21は、曲データ変換処理を実行する(ステップ1003)。
Next, the demo song selection switch process (step 802) will be described. FIG. 10 is a flowchart showing an example of the demo song selection switch process according to the present embodiment. The demo song selection switch is, for example, a numeric keypad so that a number can be input. When the demo music selection switch is operated (Yes in step 1001), the
図11および図12は、本実施の形態にかかる曲データ変換処理の例を示すフローチャートである。曲データ変換処理においては、デモ曲データエリアに格納されたデモ曲のデータのデータ形式(図3の符号321〜324参照)を、図5に示すデータ形式に変換する。CPU21は、RAM23中に曲データエリア(図4の符号405参照)を確保する(ステップ1101)。次いで、CPU21は、ROMのアドレスを示すパラメータADとして、曲番号SONGで示されたデモ曲について、ROM22中のデモ曲データエリアの先頭アドレスを設定する(ステップ1102)。また、CPU21は、RAM23のアドレスを示すパラメータAD1として、曲データエリアの先頭アドレスを設定する(ステップ1103)。
FIG. 11 and FIG. 12 are flowcharts showing an example of music data conversion processing according to the present embodiment. In the song data conversion process, the data format of the demo song data stored in the demo song data area (see
CPU21は、RAM23のパラメータ(アドレス)AD1で示される位置に、イニシャルタイムを格納する(ステップ1104)。ここに、イニシャルタイムとして最初のノートオンが開始されるまでの時間を示す。次いで、CPU21は、第1のタイマ値T1および第2のタイマ値T2を初期化する(ステップ1105)。次いで、CPU21は、ROM22において、パラメータ(アドレス)ADに示す位置のデータを読み出し、そのデータ種別を判断する(ステップ1106)。
The
データ種別が「タイム」であった場合には、CPU21は、第1のタイマ値T1に「タイム」の値を加算するとともに、第2のタイマ値T2に「タイム」の値を加算する(ステップ1107)。また、データ種別がノートオンであった場合には、CPU21は、アドレスAD1をインクリメントして(ステップ1108)、RAM23中、アドレスAD1に示す位置に、ROMから読み出されたデータであるノートオンイベントを格納する(ステップ1109)。データ種別がノートオフであった場合には、CPU21は、アドレスAD1を「2」だけ加算して、RAM23中、アドレスAD1に示す位置に第2のタイマ値T2を格納する(ステップ1111)。
When the data type is “time”, the
ステップ1107或いはステップ1111が実行された後、図12に示すように、CPU21は、アドレスADをインクリメントして(ステップ1204)、ROM22においてアドレスADにデモ曲データのレコードが存在しないかを判断する(ステップ1205)。ステップ1205でNoと判断された場合には、ステップ1106に戻り、その一方、ステップ1205でYesと判断された場合には、処理を終了する。
After
ステップ1109が実行された後には、CPU21は、ROM22から読み出されたデータがデモ曲データの最初のデータであるかを判断する(ステップ1201)。ステップ1201でYesと判断された場合には、ステップ1204に進む。その一方、ステップ1201でNoと判断された場合には、RAM23中、において、アドレス(AD1−2)に示す位置に、第1のタイマ値T1を格納する(ステップ1202)。その後、CPU21は、第1のタイマ値T1および第2のタイマ値T2を、それぞれ「0」にリセットし(ステップ1203)、ステップ1204に進む。
After
次に、デモ曲スタート・ストップスイッチ処理について説明する。図13および図14は、本実施の形態にかかるデモ曲スタート・ストップスイッチ処理の例を示すフローチャートである。図13に示すように、CPU21は、スイッチ部21のデモ曲スタート・ストップスイッチが操作されたかを判断する(ステップ1301)。デモ曲スタート・ストップスイッチ(図示せず)は、1回目の操作でオン、次の操作でオフとなる、いわゆるトグルスイッチである。スイッチ操作があった場合(ステップ1301でYes)、スタートフラグSTFを反転させて(ステップ1302)、STFが「1」になったかを判断する(ステップ1303)。ステップ1303でYesと判断された場合には、RAM23中、テンポプリセット値データPR(0)として、曲番号Songで指定されたデモ曲のテンポデータを与える(ステップ1306)。また、CPU21は、パラメータADとして、RAM23中の曲データの先頭アドレスを設定する(ステップ1307)。次いで、CPU21は、ADを用いて、RAM23の曲データエリアにおいて、アドレスADが示す位置の値(タイム)を読み出して、読み出された値を、RAM23中の第1のタイマ値T1および第2のタイマ値T2として格納する(ステップ1308)。その後、CPU21は、演奏者状態情報STATEに基づき、RAM23中のテンポプリセット値データPR(0)を変更する(ステップ1309)。このSTATEに基づく値の変更は後に詳述する。
Next, the demo song start / stop switch process will be described. FIG. 13 and FIG. 14 are flowcharts showing an example of the demo song start / stop switch process according to the present embodiment. As shown in FIG. 13, the
次いで、CPU21は、RAM23中の音量プリセット値データPR(1)に予め定められた音量デフォルト値を与える(ステップ1401)。次いで、CPU21は、演奏者状態情報STATEに基づき、RAM23中の音量プリセット値データPR(1)を変更する(ステップ1402)。
Next, the
また、CPU21は、RAM23中のゲートタイムプリセット値データPR(2)に予め定められたゲートタイム係数デフォルト値を与える(ステップ1403)。次いで、CPU21は、演奏者状態情報STATEに基づき、RAM23中のゲートタイムプリセット値データPR(2)を変更する(ステップ1404)。その後、CPU21は、テンポプリセット値データPR(0)に基づいてタイマ周期を決定し(ステップ1405)、タイマカウントを開始する(ステップ1406)。デモ曲演奏時のタイマカウントは、演奏の録音時のタイマカウントと異なる。後述するデモ曲処理(図19、図20)で説明するが、第1のタイマ値T1および第2のタイマ値T2に、それぞれ、ステップタイムおよびゲートタイムを格納しておき、定められたタイマ周期で、タイマ値を減算している。
Further, the
ステップ1303でNoと判断された場合には、CPU21は、オールノートオフ処理を実行する(ステップ1304)。オールノートオフ処理においては、発音中の全ての楽音についてノートオフイベントが生成され、音源部26に送信される。次いで、CPU21は、タイマカウントを停止する(ステップ1305)。
When it is determined No in
次に、パラメータ選択スイッチ処理(ステップ804)について説明する。図15は、本実施の形態にかかるパラメータ選択スイッチ処理の例を示すフローチャートである。パラメータ選択スイッチにより、後述するパラメータ増減スイッチにて値が増減されるパラメータが選択させる。図15に示すように、CPU21は、スイッチ部12のテンポスイッチがオンされたかを判断し(ステップ1501)、オンされている場合には、スイッチ選択パラメータPに「0」を与える(ステップ1502)。ステップ1501でNoと判断された場合には、CPU21は、スイッチ部12の音量スイッチがオンされたかを判断し(ステップ1503)、オンされている場合には、スイッチ選択パラメータPに「1」を与える(ステップ1504)。ステップ1503でNoと判断された場合には、ゲートタイムスイッチがオンされているかを判断し(ステップ1505)、オンされている場合には、パラメータPに「2」を与える(ステップ1507)。ステップ1502、1505および1506の後、CPU12は、スイッチ押下回数カウンタ値mを「0」にリセットする(ステップ1507)。
Next, the parameter selection switch process (step 804) will be described. FIG. 15 is a flowchart illustrating an example of parameter selection switch processing according to the present embodiment. The parameter whose value is increased or decreased by the parameter increase / decrease switch described later is selected by the parameter selection switch. As shown in FIG. 15, the
次に、パラメータ増減スイッチ処理(ステップ805)について説明する。図16は、本実施の形態にかかるパラメータ増減スイッチ処理の例を示すフローチャートである。図16に示すように、CPU12は、スイッチ部12の増加スイッチ(「+」スイッチ)がオンされたかを判断する(ステップ1601)。ステップ1601においてYesと判断された場合には、スイッチ押下回数カウンタ値mが、RAM23に格納された最大値データMAX(P)より小さいかを判断する(ステップ1602)。本実施の形態においては、RAM23には、テンポ最大値データMAX(0)、音量最大値データMAX(1)およびゲートタイム最大値データMAX(2)が格納されている。したがって、スイッチ選択パラメータPで指定されるMAX(P)が読み出されて、カウンタ値mと比較される。
Next, the parameter increase / decrease switch process (step 805) will be described. FIG. 16 is a flowchart illustrating an example of parameter increase / decrease switch processing according to the present embodiment. As shown in FIG. 16, the
ステップ1602でYesと判断された場合には、CPU21は、スイッチ押下回数パラメータをインクリメントし(ステップ1603)、スイッチ選択パラメータPで指定されるプリセット値データPR(P)をインクリメントする(ステップ1604)。
If YES is determined in
ステップ1601でNoと判断された場合には、スイッチ部12の減少スイッチ(「−」スイッチ)がオンされたかを判断する(ステップ1605)。ステップ1605でYesと判断された場合には、スイッチ押下回数カウンタmが、RAM23に格納された最小値データMIN(P)より大きいかを判断する(ステップ1606)。本実施の形態においては、RAM23には、テンポ最小値データMIN(0)、音量最小値データMIN(1)およびゲートタイム最小値データMIN(2)が格納されている。したがって、スイッチ選択パラメータPで指定されるMIN(P)が読み出されて、カウンタ値mと比較される。
When it is determined No in
ステップ1606でYesと判断された場合には、CPU21は、スイッチ押下回数パラメータをデクリメントし(ステップ1607)、スイッチ選択パラメータPで指定されるプリセット値データPR(P)をデクリメントする(ステップ1608)。
If it is determined Yes in
次に、録音スタートスイッチ処理のステップ910の分析処理についてより詳細に説明する。図17および図18は、本実施の形態にかかる分析処理の例を示すフローチャートである。分析処理は、RAM23中の演奏データ記憶エリア(図4の符号400参照)に格納された演奏データと、曲データエリア(図4の符号405参照)に格納された曲データとを比較して、比較に基づいて、各差分値を更新するとともに、差分値から演奏者状態情報STATEを更新する。
Next, the analysis process in
図17に示すように、CPU21は、RAM23中の演奏データ記憶エリア(図4の符号400参照)に格納された演奏データと、曲データエリア(図4の符号405参照)に格納された曲データとを比較する(ステップ1701)。なお、演奏データは、鍵盤処理(図7)によってRAM23中に格納されている。また、曲データは、曲データ変換処理(図11、図12)によってRAM23中に格納されている。
As shown in FIG. 17, the
CPU21は、テンポ分析を実行する(ステップ1702)。ステップ1702において、CPU21は、曲データに含まれるステップタイムのレコードを参照して、ステップタイムの第1の総和Σ(曲データのステップタイム)を算出するとともに、演奏データに含まれるステップタイムのレコードを参照して、ステップタイムの第2の総和Σ(演奏データのステップタイム)を求める。次いで、CPU21は、第2の総和の、第1の総和に対する比(第2の総和/第1の総和)を求め、得られた比と、曲データのテンポ値とを乗算する。これにより、演奏データに基づく演奏(演奏者による演奏)の、デモ演奏に対する比から、演奏者による演奏のテンポを求めることができる。
The
ステップ1702においては、CPU21は、((演奏者による演奏のテンポ)−(曲データのテンポ))を第1テンポ差分値ΔtempoとしてRAM23中に格納する。
In
次いで、CPU21は、ベロシティ分析を実行する(ステップ1703)。ステップ1703においては、RAM23の演奏データのイベントのレコードに含まれるベロシティを参照して、CPU21は、演奏データにおけるベロシティの平均値を算出するとともに、曲データのイベント(ノートオンイベント)のレコードに含まれるベロシティを参照して、曲データにおけるベロシティの平均値を算出する。
Next, the
CPU21は、((演奏データにおけるベロシティの平均値)−(曲データにおけるベロシティの平均値))を第1ベロシティ差分値ΔvelとしてRAM23中に格納する。
The
また、CPU21は、ゲートタイム分析を実行する(ステップ1704)。ステッ1704においては、CPU21は、RAM23の演奏データのゲートタイムのレコードを参照して演奏データにおけるレコードの平均値を算出するとともに、曲データのゲートタイムのレコードを参照して曲データにおけるレコードの平均値を算出する。
Further, the
CPU21は、((演奏データにおけるゲートタイムの平均値)−(曲データにおけるゲートタイムの平均値))を第1ゲートタイム差分値ΔgateとしてRAM23に格納する。
The
次いで、CPU21は、RAM23から第2テンポ差分値ΔTEMPO、第2ベロシティ差分値ΔVELおよび第2ゲートタイム差分値ΔGATEを読み出す(ステップ1705)。さらに、CPU21は、第1の差分値と、対応する第2の差分値との間の差分値を算出する(ステップ1706〜1708)。より具体的には、
CPU21は、
Δt(第3のテンポ差分値)=Δtempo−ΔTEMPO
Δv(第3のベロシティ差分値)=Δvel−ΔVEL
Δg(第3のゲートタイム差分値)=Δgate−ΔGATE
を算出する。次に、CPU21は、RAM23中の演奏者状態情報STATEを、(Δt,Δv,Δg)の組み合わせにしたがって修正する。より具体的には、CPU21は、ROM22に、値の組(Δt,Δv,Δg)と演奏者状態情報STATEの値とを対応付けたテーブルを用意しておき、STATE=テーブル値(TABLE(Δt,Δv,Δg))とすればよい。
Next, the
The
Δt (third tempo difference value) = Δtempo−ΔTEMPO
Δv (third velocity difference value) = Δvel−ΔVEL
Δg (third gate time difference value) = Δgate−ΔGATE
Is calculated. Next, the
以下、テーブル値について説明する。テーブル値は、Δtが増大するのにしたがって値が増大し、Δvが増大するのにしたがって値が増大し、その一方、Δgが増大するのにしたがって、値が減少する。たとえば、α1、α2、α3を正の係数とすると、
TABLE(Δt,Δv,Δg) =α1・Δt+α2・Δv−α3・Δg
という値になる。したがって上記式に基づいて算出された値を、値の組(Δt,Δv,Δg)と関連付けてROM22中に格納しておけば良い。
Hereinafter, the table value will be described. The table value increases as Δt increases, and increases as Δv increases, while the value decreases as Δg increases. For example, if α1, α2, and α3 are positive coefficients,
TABLE (Δt, Δv, Δg) = α1 · Δt + α2 · Δv−α3 · Δg
It becomes the value. Therefore, the value calculated based on the above equation may be stored in the
次いで、CPU21は、パラメータnを「0」に初期化して(ステップ1801)、パラメータnで指定される演奏情報の最大値MAX(n)および最小値MIN(n)を、STATEに基づいて変更する(ステップ1802)。ステップ1802においては、たとえば、正の係数βnを用いて、以下のように新たなMAX(n)およびMIN(n)を算出すれば良い。
Next, the
MAX(n)=MAX(n)+STATE・βn・MAX(n)
MIN(n)=MIN(n)+STATE・βn・MIN(n)
つまり、演奏家状態情報STATEが正の値をとる場合には、演奏情報の最大値および最小値がそれぞれ増大する。つまり、テンポ、音量(ベロシティ)およびゲートタイムのそれぞれについて、パラメータ増減スイッチ処理(図8のステップ805、図16)において、ユーザのスイッチ操作による値の増減可能な範囲が、上方(値が増大する側)にシフトする。その一方、演奏家状態情報STATEが負の値をとる場合には、テンポ、音量(ベロシティ)およびゲートタイムのそれぞれについて、ユーザのスイッチ操作による値の増減可能な範囲が、下方(値が減少する側)にシフトする。
MAX (n) = MAX (n) + STATE · βn · MAX (n)
MIN (n) = MIN (n) + STATE · βn · MIN (n)
That is, when the player status information STATE takes a positive value, the maximum value and the minimum value of the performance information increase. That is, for each of the tempo, volume (velocity), and gate time, in the parameter increase / decrease switch process (step 805 in FIG. 8, FIG. 16), the range in which the value can be increased / decreased by the user's switch operation is upward (value increases). To the side). On the other hand, when the player state information STATE takes a negative value, the range in which the value can be increased or decreased by the user's switch operation is reduced downward (the value decreases) for each of the tempo, volume (velocity), and gate time. To the side).
CPU21は、パラメータnをインクリメントして(ステップ1803)、パラメータnが「2」より大きいかを判断する(ステップ1804)。ステップ1804でNoと判断された場合にはステップ1802に戻る。ステップ1804でYesと判断された場合には、CPU21は、第1のテンポ差分値Δtempoにしたがって、第2のテンポ差分値ΔTEMPOを更新し(ステップ1805)、第1のベロシティ差分値Δvelにしたがって第2のベロシティ差分値ΔVELを更新し(ステップ1806)、さらに、第1のゲートタイム差分値Δgateにしたがって第2のゲートタイム差分値ΔGATEを更新する(ステップ1807)。たとえば、第2の差分値の更新は、新たに算出された第1の差分値を考慮して、差分値の平均値を再算出することにより実現される。
The
たとえば、分析処理の処理回数がm回であるとすると、第2のテンポ差分値ΔTEMPO、第2のベロシティ差分値ΔVELおよび第2のゲートタイム差分値ΔGATEは、以下のように新たに算出される。 For example, if the number of times of analysis processing is m, the second tempo difference value ΔTEMPO, the second velocity difference value ΔVEL, and the second gate time difference value ΔGATE are newly calculated as follows. .
ΔTEMPO=(1/m)・((m−1)・ΔTEMPO+Δtempo)
ΔVEL=(1/m)・((m−1)・ΔVEL+Δtempo)
ΔGATE=(1/m)・((m−1)・ΔGATE+Δtempo)
新たに算出された第2の差分値はそれぞれRAM23中に格納される。
ΔTEMPO = (1 / m) · ((m−1) · ΔTEMPO + Δtempo)
ΔVEL = (1 / m) · ((m−1) · ΔVEL + Δtempo)
ΔGATE = (1 / m) · ((m−1) · ΔGATE + Δtempo)
Each newly calculated second difference value is stored in the
なお、デモ曲スタート・ストップスイッチ処理(図13、図14)においても、演奏家状態情報STATEに基づいて、テンポプリセット値データPR(0)、音量プリセット値データPR(1)およびゲートタイムプリセット値データPR(2)が変更されている(ステップ1309、ステップ1402、ステップ1404)。ここでも、たとえば、所定の正の計数γnを用いて、以下のように新たなPR(n)を算出すればよい。
In the demo song start / stop switch process (FIGS. 13 and 14), the tempo preset value data PR (0), the volume preset value data PR (1), and the gate time preset value are based on the player status information STATE. The data PR (2) has been changed (
PR(n)=PR(n)+STATE・γn・PR(n)
スイッチ処理(ステップ602)および鍵盤処理(ステップ603)が終了すると、CPU21は、デモ曲処理を実行する(ステップ604)。図19および図20は、本実施の形態にかかるデモ曲処理の例を示すフローチャートである。図19に示すように、CPU21は、スタートフラグSTFが「1」であるかを判断する(ステップ1901)。ステップ1901でYesと判断された場合には、タイマ周期に基づく最小単位時間が経過したかを判断する(ステップ1902)。ステップ1902でYesと判断された場合には、CPU21は、第2のタイマ値T2をデクリメントして(ステップ1903)、第2のタイマ値T2が「0」になったかを判断する(ステップ1904)。ステップ1904でYesと判断された場合には、CPU21は、現在発音中の楽音についてノートオフイベントを生成して、音源部26に送信する(ステップ1905)。次いで、CPU21は、第1のタイマ値T1をデクリメントして(ステップ1906)、第1のタイマ値T1が「0」になったかを判断する(ステップ1907)。ステップ1907でYesと判断された場合には、CPU21は、RAM23中の曲データエリアのアドレスを示すパラメータADをインクリメントする(ステップ1908)。
PR (n) = PR (n) + STATE · γn · PR (n)
When the switch process (step 602) and the keyboard process (step 603) are completed, the
次いで、CPU21は、RAM23中の曲データエリアにおいて、パラメータ(アドレス)ADが示す位置に曲データのレコードが存在しないかを判断する(ステップ1909)。曲データのレコードが存在しない場合(ステップ1909でYes)には、CPU21は、オールノートオフ処理を実行して、発音中のすべの楽音についてノートオフイベントを生成し、ノートオフイベントを音源部26に送信する(ステップ1910)。その後、CPU21は、スタートフラグSTFを「0」にリセットする(ステップ1911)とともに、タイマカウントを停止する(ステップ1912)。
Next, the
ステップ1909でNoと判断された場合には、CPU21は、RAM23中、パラメータ(アドレス)ADが示す位置のデータを読み出して、そのデータ種別を判断する(ステップ2001)。データ種別がステップタイムであれば、CPU21は、データ値を、RAM23中の第1のタイマ値T1として格納する(ステップ2002)。データ種別がイベントであれば、CPU21は、ノートオンイベントを生成して、音源部26に送信する(ステップ2003)。
If it is determined No in
データ種別がゲートタイムであった場合には、CPU21は、ノートオフイベントを生成して、音源部26に送信する(ステップ2004)。その後、CPU21は、読み出されたゲートタイムを、ゲートタイムプリセット値データPR(2)に基づいて変更する。CPU21は、変更されたゲートタイムプリセット値を、RAM23中の第2のタイマ値T2として格納する(ステップ2005)。
If the data type is gate time, the
デモ曲処理(ステップ604)の後、音源部26は、音源発音処理を実行する(ステップ605)。音源発音処理においては、音源部26が、受信したノートオンイベントにしたがって、所定の音高およびベロシティで、楽音データを生成する。また、音源部26は、受信したノートオフイベントにしたがって、ノートオフイベントが示す音高の楽音を消音する。
After the demo song processing (step 604), the
音源発音処理(ステップ605)の後、CPU21は、表示部14の更新などを含むその他の処理(ステップ606)を実行して、ステップ602に戻る。
After the sound source sound generation process (step 605), the
本実施の形態においては、パラメータ増減スイッチ処理において、テンポ、音量及びゲートタイムという演奏情報パラメータが、それぞれの最大値および最小値の範囲内で変更される。パラメータ増減スイッチにより値が増減されたテンポプリセット値データPR(0)により、タイマ周期、つまり、楽曲の再生速度が決定される(ステップ1405)。また、音量プリセット値データPR(1)によってデモ曲演奏の際のベロシティが調整される。また、ゲートタイムプリセット値データPR(2)によってデモ曲演奏の際のゲートタイム、つまり、鍵のオン時間が調整される。 In the present embodiment, in the parameter increase / decrease switch process, performance information parameters such as tempo, volume, and gate time are changed within the range of the maximum value and the minimum value. The timer period, that is, the playback speed of the music is determined by tempo preset value data PR (0) whose value has been increased or decreased by the parameter increase / decrease switch (step 1405). Further, the velocity at the time of demo music performance is adjusted by the volume preset value data PR (1). In addition, the gate time at the time of playing the demo song, that is, the key on time is adjusted by the gate time preset value data PR (2).
さらに、演奏情報パラメータの可変範囲である最大値および最小値は、演奏者による演奏により生成される演奏データと、デモ曲の曲データとの相違に基づいて決定される。 Further, the maximum value and the minimum value, which are variable ranges of the performance information parameter, are determined based on the difference between the performance data generated by the performance by the performer and the music data of the demo music.
本実施の形態においては、CPU21は、演奏者による鍵操作にしたがって、ノートオンイベント、次のノートオンイベントまでの時間を規定するステップタイム、および、消音までの時間を規定するゲートタイムを示すレコードを含む演奏データを生成する。また、CPU21は、デモ曲データを、テンポ情報に基づく所定のタイマ周期にしたがって読み出して、音源部26に発音或いは消音の指示を与える。さらに、CPU21は、演奏者によるスイッチ操作にしたがって、デモ曲を演奏するためのテンポを含む演奏情報を、それぞれの最上値および最小値の間で調整する。CPU11は、デモ曲データ記憶エリアに格納されたデモ曲データのレコードと、演奏データ記憶エリアに格納された演奏データのレコードとを比較して、演奏情報の可変範囲である最大値および最小値を決定する。したがって、演奏者の心理状態を反映していると考えられる実際の演奏に基づいて、デモ曲の自動演奏における演奏情報の可変範囲を適切に変更することが可能となる。
In the present embodiment, the
また、本実施の形態においては、第1のテンポ差分値Δtempoから、複数回の演奏による第1のテンポ差分値の平均値である第2のテンポ差分値ΔTEMPOを減じた第3のテンポ差分値Δtを求め、第3のテンポ差分値Δtに基づいて、テンポの可変範囲である最大値および最小値を決定している。 In the present embodiment, the third tempo difference value obtained by subtracting the second tempo difference value ΔTEMPO, which is an average value of the first tempo difference values obtained by performing a plurality of performances, from the first tempo difference value Δtempo. Δt is obtained, and based on the third tempo difference value Δt, the maximum value and the minimum value which are variable ranges of the tempo are determined.
また、本実施の形態において、同様に、第1のベロシティ差分値Δvelから、複数回の演奏による第1のベロシティ差分値の平均値である第2のベロシティ差分値ΔVELを減じた第3のベロシティ差分値Δvを求め、第3のベロシティ差分値Δvに基づいて、ベロシティの可変範囲である最大値および最小値を決定している。さらに、第1のゲートタイム差分値Δgateから、複数回の演奏による第1のゲートタイム差分値の平均値である第2のゲートタイム差分値ΔGATEを減じた第3のゲートタイム差分値Δgを求め、第3のゲートタイム差分値Δgに基づいて、ゲートタイムの可変範囲である最大値および最小値を決定している。 In the present embodiment, similarly, a third velocity obtained by subtracting a second velocity difference value ΔVEL, which is an average value of the first velocity difference values obtained by performing a plurality of performances, from the first velocity difference value Δvel. The difference value Δv is obtained, and based on the third velocity difference value Δv, the maximum value and the minimum value that are the variable range of the velocity are determined. Further, a third gate time difference value Δg obtained by subtracting the second gate time difference value ΔGATE, which is an average value of the first gate time difference values due to a plurality of performances, is obtained from the first gate time difference value Δgate. Based on the third gate time difference value Δg, the maximum value and the minimum value which are variable ranges of the gate time are determined.
演奏者がデモ曲の演奏を複数回行なうことで、演奏の傾向がより適切に現れることを考慮して、その演奏の傾向が反映される第2の差分値から、さらに第1の差分値がどのように変化したかを見て、演奏者状態情報を決定している。 Considering that the performance tendency appears more appropriately when the performer performs the performance of the demo song several times, the first difference value is further calculated from the second difference value reflecting the performance tendency. The player status information is determined by looking at how it has changed.
本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。 The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.
たとえば、前記実施の形態においては、複数の演奏による第1のテンポ差分値、第1のベロシティ差分値および第1のゲートタイム差分値の、それぞれの平均値である第2のテンポ差分値、第2のベロシティ差分値および第2のゲートタイム差分値を算出している。そして、第1の差分値と対応する第2の差分値を比較して、第3の差分値を得て、第3の差分値( Δt(第3のテンポ差分値)、Δv(第3のベロシティ差分値)、Δg(第3のゲートタイム差分値))から演奏者状態情報STATEを得ている。すなわち、演奏者がデモ曲の演奏を複数回行なうことで、演奏者の心理状態の傾向がより顕著に現れることを考慮して、その演奏の傾向が現れる第2の差分値から、さらに第1の差分値がどのように変化したかを見て、演奏者状態情報を決定している。 For example, in the above-described embodiment, the second tempo difference value, which is the average value of the first tempo difference value, the first velocity difference value, and the first gate time difference value due to a plurality of performances, 2 velocity difference values and second gate time difference values are calculated. Then, the second difference value corresponding to the first difference value is compared to obtain a third difference value, and the third difference value (Δt (third tempo difference value), Δv (third The player status information STATE is obtained from the velocity difference value) and Δg (third gate time difference value)). That is, in consideration of the fact that the player's psychological tendency tends to appear more prominently when the performer performs the demo song a plurality of times, the first difference value from which the performance tendency appears is further reduced to the first. The player status information is determined by looking at how the difference value of the player has changed.
しかしながら、これに限定されず、第3のテンポ差分値Δtの代わりに第1のテンポ差分値Δtempo、第3のベロシティ差分値Δvの代わりに第1のベロシティ差分値Δvel、第3のゲートタイム差分値Δgの代わりに第1のゲートタイム差分値Δgateを用いて、STATE=テーブル値(TABLE(Δtempo,Δvel,Δgate)を取得しても良い。これにより、単一の演奏による演奏者の心理状態を反映した、演奏者状態情報を取得し、さらに、これに基づき、演奏情報の最大値および最小値を決定することが可能となる。 However, the present invention is not limited to this. Instead of the third tempo difference value Δt, the first tempo difference value Δtempo, the third velocity difference value Δv instead of the first velocity difference value Δvel, and the third gate time difference. Instead of the value Δg, the first gate time difference value Δgate may be used to obtain STATE = table value (TABLE (Δtempo, Δvel, Δgate). Thereby, the player's psychological state by a single performance It is possible to acquire the player status information reflecting the above, and to determine the maximum value and the minimum value of the performance information based on this.
10 電子楽器
11 鍵盤
12 スイッチ部
14 表示部
16 鍵
21 CPU
22 ROM
23 RAM
24 サウンドシステム
26 音源部
27 オーディオ回路
28 スピーカ
DESCRIPTION OF
22 ROM
23 RAM
24
Claims (9)
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成手段と、
楽曲を構成する楽音のそれぞれについて、音高を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、予め設定された第1のテンポに基づいて前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御手段と、
前記演奏者による入力にしたがって、前記第1のテンポの上限および下限を調整する演奏情報調整手段と、を備え、
前記演奏情報調整手段が、
前記演奏データに基づいて定まる第2のテンポから前記第1のテンポを減じた値に相当する第1のテンポ差分値を算出し、
前記第1のテンポ差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記第1のテンポの上限および下限を決定することを特徴とする自動演奏装置。 A plurality of performance controls each assigned a pitch, and
Performance data generating means for generating performance data including records indicating events, sound generation timings and mute timings according to the operation of the performance operator by the performer , and storing the performance data in the performance data storage area of the storage means;
For each of the musical sounds constituting the music, a record of music data including an event including the pitch, a record indicating the sound generation timing and the mute timing is stored in the music data storage area of the storage means based on a preset first tempo. By reading from, the music performance control means for generating performance information according to the event, sound generation timing and mute timing included in the record,
Performance information adjusting means for adjusting an upper limit and a lower limit of the first tempo in accordance with an input by the performer,
The performance information adjusting means is
Calculating a first tempo difference value corresponding to a value obtained by subtracting the first tempo from a second tempo determined based on the performance data;
Obtaining player psychological information indicating the player's psychological state based on the first tempo difference value, and determining an upper limit and a lower limit of the first tempo based on the acquired player psychological information. An automatic performance device characterized by
前記演奏情報調整手段が、
前記第2のテンポ差分値から第1のテンポ差分値を減じた、第3のテンポ差分値が大きくなるのにしたがって、前記第1のテンポの上限および下限をそれぞれ増大させるための、前記演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記演奏情報の第1のテンポの上限および下限を決定することを特徴とする請求項1に記載の自動演奏装置。The storage means stores a second tempo difference value corresponding to an average value of the first tempo difference values associated with a plurality of performances by the performer;
The performance information adjusting means is
The performer for respectively increasing the upper limit and the lower limit of the first tempo as the third tempo difference value is increased by subtracting the first tempo difference value from the second tempo difference value. 2. The automatic performance apparatus according to claim 1, wherein psychological information is acquired, and upper and lower limits of a first tempo of the performance information are determined based on the acquired player psychological information.
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成手段と、Performance data generating means for generating performance data including records indicating events, sound generation timings and mute timings according to the operation of the performance operator by the performer, and storing the performance data in the performance data storage area of the storage means;
楽曲を構成する楽音のそれぞれについて、音高を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御手段と、For each of the musical tones that make up the music, an event included in the record is obtained by reading from the music data storage area of the storage means a record of the music data including an event including the pitch, a record indicating the sound generation timing and the mute timing. Music performance control means for generating performance information according to the sounding timing and mute timing;
前記演奏者による入力にしたがって、前記演奏情報に含まれる、楽音の発音タイミングと消音タイミングとの間の時間であるゲートタイムの上限および下限を調整する演奏情報調整手段と、を備え、Performance information adjusting means for adjusting an upper limit and a lower limit of a gate time, which is a time between a sound generation timing and a mute timing, included in the performance information, according to the input by the performer,
前記演奏情報調整手段が、The performance information adjusting means is
前記演奏データにおける、それぞれの楽音についての第1のゲートタイムから前記楽曲データにおけるそれぞれの楽音についての第2のゲートタイムを減じた値に相当する第1のゲートタイム差分値を算出し、Calculating a first gate time difference value corresponding to a value obtained by subtracting a second gate time for each musical tone in the music data from a first gate time for each musical tone in the performance data;
前記第1のゲートタイム差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記ゲートタイムの上限および下限を決定することを特徴とする自動演奏装置。Obtaining player psychological information indicating the player's psychological state based on the first gate time difference value, and determining an upper limit and a lower limit of the gate time based on the acquired player psychological information. An automatic performance device.
前記演奏情報調整手段が、The performance information adjusting means is
前記第1のゲートタイム差分値から第2のゲートタイム差分値を減じた、第3のテンポ差分値が小さくなるのにしたがって、前記ゲートタイムの上限および下限をそれぞれ増大させるための、前記演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記ゲートタイムの上限および下限を決定することを特徴とする請求項3に記載の自動演奏装置。The performer for respectively increasing the upper limit and the lower limit of the gate time as the third tempo difference value decreases by subtracting the second gate time difference value from the first gate time difference value. The automatic performance device according to claim 3, wherein psychological information is acquired, and an upper limit and a lower limit of the gate time are determined based on the acquired player psychological information.
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成手段と、Performance data generating means for generating performance data including records indicating events, sound generation timings and mute timings according to the operation of the performance operator by the performer, and storing the performance data in the performance data storage area of the storage means;
楽曲を構成する楽音のそれぞれについて、音高および音量を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御手段と、For each of the musical tones that make up the music, a record of music data including an event that includes the pitch and volume, a record that indicates the sound generation timing and the mute timing is included in the record by reading it from the music data storage area of the storage means Music performance control means for generating performance information according to the event to be generated, the sounding timing and the mute timing,
前記演奏者による入力にしたがって、前記演奏情報に含まれる、イベントの音量に相当するベロシティの上限および下限を調整する演奏情報調整手段と、を備え、Performance information adjusting means for adjusting an upper limit and a lower limit of velocity corresponding to the volume of the event included in the performance information according to the input by the performer,
前記演奏情報調整手段が、The performance information adjusting means is
前記演奏データにおける、それぞれの楽音についての第1のベロシティから前記楽曲データにおけるそれぞれの楽音についての第2のベロシティを減じた値に相当する第1のベロシティ差分値を算出し、Calculating a first velocity difference value corresponding to a value obtained by subtracting a second velocity for each musical tone in the music data from a first velocity for each musical tone in the performance data;
前記第1のベロシティ差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記演奏情報のベロシティの上限および下限を決定することを特徴とする自動演奏装置。Obtaining player psychological information indicating the player's psychological state based on the first velocity difference value, and determining an upper limit and a lower limit of the velocity of the performance information based on the acquired player psychological information. An automatic performance device characterized by
前記演奏情報調整手段が、The performance information adjusting means is
前記第1のベロシティ差分値から第2のベロシティ差分値を減じた、第3のベロシティ差分値が大きくなるのにしたがって、前記音量の上限および下限をそれぞれ増大させるための、前記演奏者心理情報を取得し、前記演奏者心理情報に基づき、前記演奏情報のベロシティの上限および下限を決定することを特徴とする請求項5に記載の自動演奏装置。The player psychological information for respectively increasing the upper limit and the lower limit of the volume as the third velocity difference value is increased by subtracting the second velocity difference value from the first velocity difference value. 6. The automatic performance apparatus according to claim 5, wherein the automatic performance device is obtained and an upper limit and a lower limit of velocity of the performance information are determined based on the player psychological information.
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成ステップと、A performance data generating step for generating performance data including a record indicating an event, a sound generation timing and a mute timing according to the operation of the performance operator by the performer, and storing the performance data in a performance data storage area of the storage means;
楽曲を構成する楽音のそれぞれについて、音高を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、予め設定された第1のテンポに基づいて前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御ステップと、For each of the musical sounds constituting the music, a record of music data including an event including the pitch, a record indicating the sound generation timing and the mute timing is stored in the music data storage area of the storage means based on a preset first tempo. A music performance control step for generating performance information in accordance with the event, sound generation timing and mute timing included in the record,
前記演奏者による入力にしたがって、前記第1のテンポの上限および下限を調整する演奏情報調整ステップと、を実行させ、Performing a performance information adjustment step of adjusting an upper limit and a lower limit of the first tempo in accordance with an input by the performer,
前記演奏情報調整ステップが、The performance information adjustment step includes:
前記演奏データに基づいて定まる第2のテンポから前記第1のテンポを減じた値に相当する第1のテンポ差分値を算出し、Calculating a first tempo difference value corresponding to a value obtained by subtracting the first tempo from a second tempo determined based on the performance data;
前記第1のテンポ差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記第1のテンポの上限および下限を決定するステップを含むことを特徴とする自動演奏プログラム。Obtaining player psychological information indicating the player's psychological state based on the first tempo difference value, and determining upper and lower limits of the first tempo based on the obtained player psychological information; The automatic performance program characterized by including.
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成ステップと、A performance data generating step for generating performance data including a record indicating an event, a sound generation timing and a mute timing according to the operation of the performance operator by the performer, and storing the performance data in a performance data storage area of the storage means;
楽曲を構成する楽音のそれぞれについて、音高を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御ステップと、For each of the musical tones that make up the music, an event included in the record is obtained by reading from the music data storage area of the storage means a record of the music data including an event including the pitch, a record indicating the sound generation timing and the mute timing. A music performance control step for generating performance information according to the pronunciation timing and the mute timing;
前記演奏者による入力にしたがって、前記演奏情報に含まれる、楽音の発音タイミングと消音タイミングとの間の時間であるゲートタイムの上限および下限を調整する演奏情報調整ステップと、を実行させ、In accordance with the input by the performer, a performance information adjustment step for adjusting an upper limit and a lower limit of a gate time, which is a time between the sound generation timing and the mute timing included in the performance information, is executed,
前記演奏情報調整ステップが、The performance information adjustment step includes:
前記演奏データにおける、それぞれの楽音についての第1のゲートタイムから前記楽曲データにおけるそれぞれの楽音についての第2のゲートタイムを減じた値に相当する第1のゲートタイム差分値を算出し、Calculating a first gate time difference value corresponding to a value obtained by subtracting a second gate time for each musical tone in the music data from a first gate time for each musical tone in the performance data;
前記第1のゲートタイム差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記ゲートタイムの上限および下限を決定するステップを含むことを特徴とする自動演奏プログラム。Obtaining player psychological information indicating the player's psychological state based on the first gate time difference value, and determining upper and lower limits of the gate time based on the obtained player psychological information; An automatic performance program characterized by including.
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成ステップと、A performance data generating step for generating performance data including a record indicating an event, a sound generation timing and a mute timing according to the operation of the performance operator by the performer, and storing the performance data in a performance data storage area of the storage means;
楽曲を構成する楽音のそれぞれについて、音高および音量を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御ステップと、For each of the musical tones that make up the music, a record of music data including an event that includes the pitch and volume, a record that indicates the sound generation timing and the mute timing is included in the record by reading it from the music data storage area of the storage means Music performance control step for generating performance information according to the event to be played, the sounding timing and the mute timing,
前記演奏者による入力にしたがって、前記演奏情報に含まれる、イベントの音量に相当するベロシティの上限および下限を調整する演奏情報調整ステップと、を備え、A performance information adjusting step for adjusting an upper limit and a lower limit of velocity corresponding to the volume of the event included in the performance information in accordance with the input by the performer,
前記演奏情報調整ステップが、The performance information adjustment step includes:
前記演奏データにおける、それぞれの楽音についての第1のベロシティから前記楽曲データにおけるそれぞれの楽音についての第2のベロシティを減じた値に相当する第1のベロシティ差分値を算出し、Calculating a first velocity difference value corresponding to a value obtained by subtracting a second velocity for each musical tone in the music data from a first velocity for each musical tone in the performance data;
前記第1のベロシティ差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記演奏情報のベロシティの上限および下限を決定するステップを含むことを特徴とする自動演奏プログラム。Obtaining player psychological information indicating the player's psychological state based on the first velocity difference value, and determining an upper limit and a lower limit of the velocity of the performance information based on the obtained player psychological information; The automatic performance program characterized by including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010046051A JP5600968B2 (en) | 2010-03-03 | 2010-03-03 | Automatic performance device and automatic performance program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010046051A JP5600968B2 (en) | 2010-03-03 | 2010-03-03 | Automatic performance device and automatic performance program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011180468A JP2011180468A (en) | 2011-09-15 |
JP5600968B2 true JP5600968B2 (en) | 2014-10-08 |
Family
ID=44691990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010046051A Active JP5600968B2 (en) | 2010-03-03 | 2010-03-03 | Automatic performance device and automatic performance program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5600968B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6071608B2 (en) | 2012-03-09 | 2017-02-01 | 新日鐵住金ステンレス株式会社 | Ferritic stainless steel plate with excellent oxidation resistance |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05108075A (en) * | 1991-10-16 | 1993-04-30 | Casio Comput Co Ltd | Electronic musical instrument |
JPH08221072A (en) * | 1995-02-17 | 1996-08-30 | Kawai Musical Instr Mfg Co Ltd | Automatic accompaniment device |
JP3449045B2 (en) * | 1995-06-12 | 2003-09-22 | ヤマハ株式会社 | Performance control device |
JP3675287B2 (en) * | 1999-08-09 | 2005-07-27 | ヤマハ株式会社 | Performance data creation device |
JP4748593B2 (en) * | 2006-04-11 | 2011-08-17 | 株式会社河合楽器製作所 | Electronic musical instruments |
-
2010
- 2010-03-03 JP JP2010046051A patent/JP5600968B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011180468A (en) | 2011-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4107107B2 (en) | Keyboard instrument | |
JP6232850B2 (en) | Touch detection device, touch detection method, electronic musical instrument, and program | |
JP7306402B2 (en) | SOUND SIGNAL GENERATOR, KEYBOARD INSTRUMENT AND PROGRAM | |
JP6795102B2 (en) | Sound signal generators, keyboard instruments and programs | |
JP5188863B2 (en) | Electronic musical instruments | |
JP5897805B2 (en) | Music control device | |
JP5732982B2 (en) | Musical sound generation device and musical sound generation program | |
JP5600968B2 (en) | Automatic performance device and automatic performance program | |
JP2023016956A (en) | Electronic musical instrument, accompaniment sound indication method, program, and accompaniment sound automatic generation device | |
JP2010117419A (en) | Electronic musical instrument | |
JP5827484B2 (en) | Music control device | |
JP5692275B2 (en) | Electronic musical instruments | |
JP5742592B2 (en) | Musical sound generation device, musical sound generation program, and electronic musical instrument | |
JP5560574B2 (en) | Electronic musical instruments and automatic performance programs | |
JP7332002B2 (en) | Electronic musical instrument, method and program | |
JP4094441B2 (en) | Electronic musical instruments | |
JP5564921B2 (en) | Electronic musical instruments | |
JP5151603B2 (en) | Electronic musical instruments | |
JP7124370B2 (en) | Electronic musical instrument, method and program | |
JP3821117B2 (en) | Wind instrument type electronic musical instrument | |
JP6102975B2 (en) | Musical sound generation device, musical sound generation program, and electronic musical instrument | |
JP2017129611A (en) | Electronic sound apparatus | |
JP4186855B2 (en) | Musical sound control device and program | |
JP6305275B2 (en) | Voice assist device and program for electronic musical instrument | |
JP2015148820A (en) | Musical sound generation device and musical sound generation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140225 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140722 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140804 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Ref document number: 5600968 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |