JP5600968B2 - Automatic performance device and automatic performance program - Google Patents

Automatic performance device and automatic performance program Download PDF

Info

Publication number
JP5600968B2
JP5600968B2 JP2010046051A JP2010046051A JP5600968B2 JP 5600968 B2 JP5600968 B2 JP 5600968B2 JP 2010046051 A JP2010046051 A JP 2010046051A JP 2010046051 A JP2010046051 A JP 2010046051A JP 5600968 B2 JP5600968 B2 JP 5600968B2
Authority
JP
Japan
Prior art keywords
performance
difference value
tempo
data
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010046051A
Other languages
Japanese (ja)
Other versions
JP2011180468A (en
Inventor
晃 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010046051A priority Critical patent/JP5600968B2/en
Publication of JP2011180468A publication Critical patent/JP2011180468A/en
Application granted granted Critical
Publication of JP5600968B2 publication Critical patent/JP5600968B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、デモンストレーション演奏が可能な自動演奏装置および自動演奏プログラムに関する。   The present invention relates to an automatic performance apparatus and an automatic performance program capable of performing a demonstration performance.

電子楽器など楽音を発生することができる装置では、ROMや、メモリカードに格納されたデモンストレーション曲(以下、「デモ曲」と称する)のデータを読み出して、当該デモ曲データに基づいた演奏が可能であるものが多い。デモ曲データの演奏では、通常、操作者(以下、「演奏者」と称する)の操作によりテンポの変更が可能である。しかしながら、単にテンポの変更ができるだけでは、演奏者のそのときの気分に応じたデモ演奏が実現できないという問題点があった。   A device capable of generating musical sounds, such as an electronic musical instrument, can read data of demonstration songs (hereinafter referred to as “demo songs”) stored in a ROM or memory card and perform based on the demo song data There are many things that are. In the performance of demo music data, the tempo can usually be changed by the operation of an operator (hereinafter referred to as “performer”). However, there is a problem that a demo performance according to the mood of the performer cannot be realized simply by changing the tempo.

特開平7−72857号公報JP-A-7-72857 特開平8−16165号公報JP-A-8-16165

たとえば、特許文献1には、デモ曲を複数ブロックに分けて、指示にしたがってデモ演奏のパターンを変化させる自動演奏装置が開示されている。また、特許文献2には、演奏者がデモ曲と同一の楽曲を演奏した場合の演奏時間を計測し、デモ曲の演奏時間と比較して、比較結果に基づいてデモ曲演奏時のテンポを制御する自動演奏装置が開示されている。   For example, Patent Document 1 discloses an automatic performance device that divides demo music into a plurality of blocks and changes the pattern of the demo performance in accordance with instructions. In Patent Document 2, the performance time when the performer performs the same music as the demo music is measured, compared with the performance time of the demo music, and the tempo at the time of the performance of the demo music is calculated based on the comparison result. An automatic performance device for controlling is disclosed.

演奏者による演奏は、演奏者の心理的な状態を表すため、演奏者による演奏に基づく、テンポ、音量などを含む演奏情報を、デモ曲の自動演奏に反映させることにより、デモ曲の自動演奏を、演奏者の心理状態により合致させることができる。   Since the performance by the performer represents the psychological state of the performer, the performance information including the tempo and volume based on the performance by the performer is reflected in the automatic performance of the demo song, thereby automatically performing the demo song. Can be matched to the psychological state of the performer.

本発明は、さらに、デモ曲など楽曲の自動演奏における演奏情報の調整可能な範囲を、演奏者の心理状態を反映して設定することができる自動演奏装置、および、自動演奏プログラムを提供することを目的とする。   The present invention further provides an automatic performance apparatus and an automatic performance program that can set an adjustable range of performance information in automatic performance of music such as a demo song, reflecting the psychological state of the performer. With the goal.

本発明の目的は、それぞれに音高が割り当てられている複数の演奏操作子と、
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成手段と、
楽曲を構成する楽音のそれぞれについて、音高を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、予め設定された第1のテンポに基づいて前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御手段と、
前記演奏者による入力にしたがって、前記第1のテンポの上限および下限を調整する演奏情報調整手段と、を備え、
前記演奏情報調整手段が、
前記演奏データに基づいて定まる第2のテンポから前記第1のテンポを減じた値に相当する第1のテンポ差分値を算出し、
前記第1のテンポ差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記第1のテンポの上限および下限を決定することを特徴とする自動演奏装置により達成される。
An object of the present invention is to provide a plurality of performance operators each assigned a pitch,
Performance data generating means for generating performance data including records indicating events, sound generation timings and mute timings according to the operation of the performance operator by the performer, and storing the performance data in the performance data storage area of the storage means;
For each of the musical sounds constituting the music, a record of music data including an event including the pitch, a record indicating the sound generation timing and the mute timing is stored in the music data storage area of the storage means based on a preset first tempo. By reading from, the music performance control means for generating performance information according to the event, sound generation timing and mute timing included in the record,
Performance information adjusting means for adjusting an upper limit and a lower limit of the first tempo in accordance with an input by the performer,
The performance information adjusting means is
Calculating a first tempo difference value corresponding to a value obtained by subtracting the first tempo from a second tempo determined based on the performance data;
Obtaining player psychological information indicating the player's psychological state based on the first tempo difference value, and determining an upper limit and a lower limit of the first tempo based on the acquired player psychological information. Is achieved by an automatic performance device characterized by

好ましい実施態様においては、前記記憶手段が、前記演奏者による複数回の演奏に伴う前記第1のテンポ差分値の平均値に相当する第2のテンポ差分値を記憶し、
前記演奏情報調整手段が、
前記第2のテンポ差分値から第1のテンポ差分値を減じた、第3のテンポ差分値が大きくなるのにしたがって、前記第1のテンポの上限および下限をそれぞれ増大させるための、前記演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記演奏情報の第1のテンポの上限および下限を決定する。
In a preferred embodiment, the storage means stores a second tempo difference value corresponding to an average value of the first tempo difference values associated with a plurality of performances by the performer,
The performance information adjusting means is
The performer for respectively increasing the upper limit and the lower limit of the first tempo as the third tempo difference value is increased by subtracting the first tempo difference value from the second tempo difference value. Psychological information is acquired, and based on the acquired player psychological information, an upper limit and a lower limit of the first tempo of the performance information are determined.

別の好ましい実施態様においては、それぞれに音高が割り当てられている複数の演奏操作子と、In another preferred embodiment, a plurality of performance operators, each assigned a pitch,
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成手段と、Performance data generating means for generating performance data including records indicating events, sound generation timings and mute timings according to the operation of the performance operator by the performer, and storing the performance data in the performance data storage area of the storage means;
楽曲を構成する楽音のそれぞれについて、音高を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御手段と、For each of the musical tones that make up the music, an event included in the record is obtained by reading from the music data storage area of the storage means a record of the music data including an event including the pitch, a record indicating the sound generation timing and the mute timing. Music performance control means for generating performance information according to the sounding timing and mute timing;
前記演奏者による入力にしたがって、前記演奏情報に含まれる、楽音の発音タイミングと消音タイミングとの間の時間であるゲートタイムの上限および下限を調整する演奏情報調整手段と、を備え、Performance information adjusting means for adjusting an upper limit and a lower limit of a gate time, which is a time between a sound generation timing and a mute timing, included in the performance information, according to the input by the performer,
前記演奏情報調整手段が、The performance information adjusting means is
前記演奏データにおける、それぞれの楽音についての第1のゲートタイムから前記楽曲データにおけるそれぞれの楽音についての第2のゲートタイムを減じた値に相当する第1のゲートタイム差分値を算出し、Calculating a first gate time difference value corresponding to a value obtained by subtracting a second gate time for each musical tone in the music data from a first gate time for each musical tone in the performance data;
前記第1のゲートタイム差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記ゲートタイムの上限および下限を決定することを特徴とする自動演奏装置により達成される。Obtaining player psychological information indicating the player's psychological state based on the first gate time difference value, and determining an upper limit and a lower limit of the gate time based on the acquired player psychological information. Achieved by the featured automatic performance device.

より好ましい実施形態においては、前記記憶手段が、前記演奏者による複数回の演奏に伴う前記第1のゲートタイム差分値の平均値に相当する第2のゲートタイム差分値を記憶し、In a more preferred embodiment, the storage means stores a second gate time difference value corresponding to an average value of the first gate time difference values accompanying a plurality of performances by the performer,
前記演奏情報調整手段が、The performance information adjusting means is
前記第1のゲートタイム差分値から第2のゲートタイム差分値を減じた、第3のテンポ差分値が小さくなるのにしたがって、前記ゲートタイムの上限および下限をそれぞれ増大させるための、前記演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記ゲートタイムの上限および下限を決定する。The performer for respectively increasing the upper limit and the lower limit of the gate time as the third tempo difference value decreases by subtracting the second gate time difference value from the first gate time difference value. Psychological information is acquired, and upper and lower limits of the gate time are determined based on the acquired player psychological information.

別の好ましい実施態様においては、それぞれに音高が割り当てられている複数の演奏操作子と、In another preferred embodiment, a plurality of performance operators, each assigned a pitch,
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成手段と、Performance data generating means for generating performance data including records indicating events, sound generation timings and mute timings according to the operation of the performance operator by the performer, and storing the performance data in the performance data storage area of the storage means;
楽曲を構成する楽音のそれぞれについて、音高および音量を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御手段と、For each of the musical tones that make up the music, a record of music data including an event that includes the pitch and volume, a record that indicates the sound generation timing and the mute timing is included in the record by reading it from the music data storage area of the storage means Music performance control means for generating performance information according to the event to be generated, the sounding timing and the mute timing,
前記演奏者による入力にしたがって、前記演奏情報に含まれる、イベントの音量に相当するベロシティの上限および下限を調整する演奏情報調整手段と、を備え、Performance information adjusting means for adjusting an upper limit and a lower limit of velocity corresponding to the volume of the event included in the performance information according to the input by the performer,
前記演奏情報調整手段が、The performance information adjusting means is
前記演奏データにおける、それぞれの楽音についての第1のベロシティから前記楽曲データにおけるそれぞれの楽音についての第2のベロシティを減じた値に相当する第1のベロシティ差分値を算出し、Calculating a first velocity difference value corresponding to a value obtained by subtracting a second velocity for each musical tone in the music data from a first velocity for each musical tone in the performance data;
前記第1のベロシティ差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記演奏情報のベロシティの上限および下限を決定することを特徴とする自動演奏装置により達成される。Obtaining player psychological information indicating the player's psychological state based on the first velocity difference value, and determining an upper limit and a lower limit of the velocity of the performance information based on the acquired player psychological information. Is achieved by an automatic performance device characterized by

より好ましい実施態様においては、前記記憶手段が、前記演奏者による複数回の演奏に伴う前記第1のベロシティ差分値の平均値に相当する第2のベロシティ差分値を記憶し、In a more preferred embodiment, the storage means stores a second velocity difference value corresponding to an average value of the first velocity difference values accompanying a plurality of performances by the performer,
前記演奏情報調整手段が、The performance information adjusting means is
前記第1のベロシティ差分値から第2のベロシティ差分値を減じた、第3のベロシティ差分値が大きくなるのにしたがって、前記音量の上限および下限をそれぞれ増大させるための、前記演奏者心理情報を取得し、前記演奏者心理情報に基づき、前記演奏情報のベロシティの上限および下限を決定する。The player psychological information for increasing the upper limit and the lower limit of the volume respectively as the third velocity difference value is increased by subtracting the second velocity difference value from the first velocity difference value. The upper limit and the lower limit of the velocity of the performance information are determined based on the player psychological information.

また、本発明の目的は、コンピュータに、In addition, the object of the present invention is to a computer,
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成ステップと、A performance data generating step for generating performance data including a record indicating an event, a sound generation timing and a mute timing according to the operation of the performance operator by the performer, and storing the performance data in a performance data storage area of the storage means;
楽曲を構成する楽音のそれぞれについて、音高を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、予め設定された第1のテンポに基づいて前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御ステップと、For each of the musical sounds constituting the music, a record of music data including an event including the pitch, a record indicating the sound generation timing and the mute timing is stored in the music data storage area of the storage means based on a preset first tempo. A music performance control step for generating performance information in accordance with the event, sound generation timing and mute timing included in the record,
前記演奏者による入力にしたがって、前記第1のテンポの上限および下限を調整する演奏情報調整ステップと、を実行させ、Performing a performance information adjustment step of adjusting an upper limit and a lower limit of the first tempo in accordance with an input by the performer,
前記演奏情報調整ステップが、The performance information adjustment step includes:
前記演奏データに基づいて定まる第2のテンポから前記第1のテンポを減じた値に相当する第1のテンポ差分値を算出し、Calculating a first tempo difference value corresponding to a value obtained by subtracting the first tempo from a second tempo determined based on the performance data;
前記第1のテンポ差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記第1のテンポの上限および下限を決定するステップを含むことを特徴とする自動演奏プログラムにより達成される。Obtaining player psychological information indicating the player's psychological state based on the first tempo difference value, and determining upper and lower limits of the first tempo based on the obtained player psychological information; It is achieved by an automatic performance program characterized by including:

また、本発明の目的は、コンピュータに、
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成ステップと、
楽曲を構成する楽音のそれぞれについて、音高を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御ステップと、
前記演奏者による入力にしたがって、前記演奏情報に含まれる、楽音の発音タイミングと消音タイミングとの間の時間であるゲートタイムの上限および下限を調整する演奏情報調整ステップと、を実行させ、
前記演奏情報調整ステップが、
前記演奏データにおける、それぞれの楽音についての第1のゲートタイムから前記楽曲データにおけるそれぞれの楽音についての第2のゲートタイムを減じた値に相当する第1のゲートタイム差分値を算出し、
前記第1のゲートタイム差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記ゲートタイムの上限および下限を決定するステップを含むことを特徴とする自動演奏プログラムにより達成される。
また、本発明の目的は、コンピュータに、
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成ステップと、
楽曲を構成する楽音のそれぞれについて、音高および音量を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御ステップと、
前記演奏者による入力にしたがって、前記演奏情報に含まれる、イベントの音量に相当するベロシティの上限および下限を調整する演奏情報調整ステップと、を備え、
前記演奏情報調整ステップが、
前記演奏データにおける、それぞれの楽音についての第1のベロシティから前記楽曲データにおけるそれぞれの楽音についての第2のベロシティを減じた値に相当する第1のベロシティ差分値を算出し、
前記第1のベロシティ差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記演奏情報のベロシティの上限および下限を決定するステップを含むことを特徴とする自動演奏プログラムにより達成される。
Further, the object of the present invention is to a computer,
A performance data generating step for generating performance data including a record indicating an event, a sound generation timing and a mute timing according to the operation of the performance operator by the performer, and storing the performance data in a performance data storage area of the storage means;
For each of the musical tones that make up the music, an event included in the record is obtained by reading from the music data storage area of the storage means a record of the music data including an event including the pitch, a record indicating the sound generation timing and the mute timing. A music performance control step for generating performance information according to the pronunciation timing and the mute timing;
In accordance with the input by the performer, a performance information adjustment step for adjusting an upper limit and a lower limit of a gate time, which is a time between the sound generation timing and the mute timing included in the performance information, is executed,
The performance information adjustment step includes:
Calculating a first gate time difference value corresponding to a value obtained by subtracting a second gate time for each musical tone in the music data from a first gate time for each musical tone in the performance data;
Obtaining player psychological information indicating the player's psychological state based on the first gate time difference value, and determining upper and lower limits of the gate time based on the obtained player psychological information; It is achieved by an automatic performance program characterized by including.
Further, the object of the present invention is to a computer,
A performance data generating step for generating performance data including a record indicating an event, a sound generation timing and a mute timing according to the operation of the performance operator by the performer, and storing the performance data in a performance data storage area of the storage means;
For each of the musical tones that make up the music, a record of music data including an event that includes the pitch and volume, a record that indicates the sound generation timing and the mute timing is included in the record by reading it from the music data storage area of the storage means Music performance control step for generating performance information according to the event to be played, the sounding timing and the mute timing,
A performance information adjusting step for adjusting an upper limit and a lower limit of velocity corresponding to the volume of the event included in the performance information in accordance with the input by the performer,
The performance information adjustment step includes:
Calculating a first velocity difference value corresponding to a value obtained by subtracting a second velocity for each musical tone in the music data from a first velocity for each musical tone in the performance data;
Obtaining player psychological information indicating the player's psychological state based on the first velocity difference value, and determining an upper limit and a lower limit of the velocity of the performance information based on the obtained player psychological information; It is achieved by an automatic performance program characterized by including:

本発明によれば、デモ曲など楽曲の自動演奏における演奏情報の調整可能な範囲を、演奏者の心理状態を反映して設定することができる自動演奏装置、および、自動演奏プログラムを提供することが可能となる。   According to the present invention, it is possible to provide an automatic performance apparatus and an automatic performance program capable of setting a range in which performance information can be adjusted in an automatic performance of a musical piece such as a demo song, reflecting the psychological state of the performer. Is possible.

図1は、本実施の形態にかかる電子楽器の概略を示す図である。FIG. 1 is a diagram schematically illustrating the electronic musical instrument according to the present embodiment. 図2は、本実施の形態にかかる電子楽器の構成を示すブロックダイヤグラムである。FIG. 2 is a block diagram showing the configuration of the electronic musical instrument according to this embodiment. 図3は、本実施の形態にかかるROMに格納されたデータの一例を説明する図である。FIG. 3 is a diagram for explaining an example of data stored in the ROM according to the present embodiment. 図4は、本実施の形態にかかるRAMに格納されたデータの一例を説明する図である。FIG. 4 is a diagram for explaining an example of data stored in the RAM according to the present embodiment. 図5は、本実施の形態にかかる演奏データ記憶エリアおよび曲データエリアのデータ構成例を示す図である。FIG. 5 is a diagram showing a data configuration example of the performance data storage area and the song data area according to the present embodiment. 図6は、本実施の形態にかかる電子楽器において実行される処理の例を概略的に示すフローチャートである。FIG. 6 is a flowchart schematically showing an example of processing executed in the electronic musical instrument according to this embodiment. 図7は、本実施の形態にかかる鍵盤処理の例を示すフローチャートである。FIG. 7 is a flowchart showing an example of keyboard processing according to the present embodiment. 図8は、本実施の形態にかかるスイッチ処理の例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the switch processing according to the present embodiment. 図9は、本実施の形態にかかる録音スタートスイッチ処理の例を示すフローチャートである。FIG. 9 is a flowchart showing an example of the recording start switch process according to the present embodiment. 図10は、本実施の形態にかかるデモ曲選択スイッチ処理の例を示すフローチャートである。FIG. 10 is a flowchart showing an example of the demo song selection switch process according to the present embodiment. 図11は、本実施の形態にかかる曲データ変換処理の例を示すフローチャートである。FIG. 11 is a flowchart showing an example of music data conversion processing according to the present embodiment. 図12は、本実施の形態にかかる曲データ変換処理の例を示すフローチャートである。FIG. 12 is a flowchart showing an example of music data conversion processing according to the present embodiment. 図13は、本実施の形態にかかるデモ曲スタート・ストップスイッチ処理の例を示すフローチャートである。FIG. 13 is a flowchart showing an example of the demo song start / stop switch process according to the present embodiment. 図14は、本実施の形態にかかるデモ曲スタート・ストップスイッチ処理の例を示すフローチャートである。FIG. 14 is a flowchart showing an example of the demo song start / stop switch process according to the present embodiment. 図15は、本実施の形態にかかるパラメータ選択スイッチ処理の例を示すフローチャートである。FIG. 15 is a flowchart illustrating an example of parameter selection switch processing according to the present embodiment. 図16は、本実施の形態にかかるパラメータ増減スイッチ処理の例を示すフローチャートである。FIG. 16 is a flowchart illustrating an example of parameter increase / decrease switch processing according to the present embodiment. 図17は、本実施の形態にかかる分析処理の例を示すフローチャートである。FIG. 17 is a flowchart illustrating an example of analysis processing according to the present embodiment. 図18は、本実施の形態にかかる分析処理の例を示すフローチャートである。FIG. 18 is a flowchart illustrating an example of analysis processing according to the present embodiment. 図19は、本実施の形態にかかるデモ曲処理の例を示すフローチャートである。FIG. 19 is a flowchart showing an example of the demo song processing according to the present embodiment. 図10は、本実施の形態にかかるデモ曲処理の例を示すフローチャートである。FIG. 10 is a flowchart showing an example of the demo music processing according to the present embodiment.

以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、本実施の形態にかかる電子楽器の概略を示す図である。図1に示すように、本実施の形態にかかる電子楽器10は、複数(たとえば61個)の鍵16−1、16−2、・・・を含む鍵盤11を有する。また、鍵盤11の上部には、音色の指定、デモ曲などを含む楽曲の自動演奏のテンポを含むパラメータの設定、演奏者による録音スタートの指示、デモ曲の選択、デモ曲のスタート・ストップのための複数のスイッチ(たとえば、スイッチ17、テンキー18など)や、演奏される楽曲に関する種々の情報、たとえば、音色、デモ曲番号、テンポなどを表示する表示部14を有する。   Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a diagram schematically illustrating the electronic musical instrument according to the present embodiment. As shown in FIG. 1, an electronic musical instrument 10 according to the present embodiment has a keyboard 11 including a plurality of (for example, 61) keys 16-1, 16-2,. In addition, on the upper part of the keyboard 11, tone specification, parameter setting including tempo of automatic performance of music including demo music, etc., recording start instruction by player, selection of demo music, start / stop of demo music The display unit 14 displays a plurality of switches (for example, the switch 17, the numeric keypad 18 and the like) and various pieces of information related to the music to be played, such as a tone color, a demo music number, and a tempo.

図2は、本実施の形態にかかる電子楽器の構成を示すブロックダイヤグラムである。図2に示すように、本実施の形態にかかる電子楽器10は、CPU21、ROM22、RAM23、サウンドシステム24、鍵盤11、スイッチ部12、および、液晶表示装置を有する表示部14を備える。   FIG. 2 is a block diagram showing the configuration of the electronic musical instrument according to this embodiment. As shown in FIG. 2, the electronic musical instrument 10 according to the present embodiment includes a CPU 21, a ROM 22, a RAM 23, a sound system 24, a keyboard 11, a switch unit 12, and a display unit 14 having a liquid crystal display device.

CPU21は、電子楽器10全体の制御、鍵盤11の鍵(たとえば、図1の符号16−1、16−2参照)の押鍵やスイッチ部12を構成するスイッチの操作の検出、鍵やスイッチの操作にしたがったサウンドシステム24の制御など種々の処理を実行する。また、本実施の形態において、CPU21は、ROM22に格納されたデモ曲のデータを読み出して、音源部26に発音させ、また、演奏者による鍵盤11の鍵の押鍵に基づく演奏データの生成およびRAM23への格納の処理を実行する。さらに、CPU21は、演奏者によるスイッチ12の操作などに基づいて、デモ曲の演奏を規定する演奏情報パラメータを制御するための処理を実行する。   The CPU 21 controls the electronic musical instrument 10 as a whole, detects keys pressed on the keys of the keyboard 11 (see, for example, reference numerals 16-1 and 16-2 in FIG. 1) and operation of switches constituting the switch unit 12, Various processes such as control of the sound system 24 according to the operation are executed. Further, in the present embodiment, the CPU 21 reads out the data of the demo song stored in the ROM 22 and causes the sound generator unit 26 to generate sound, and also generates performance data based on the key depression of the keyboard 11 by the performer. A process of storing in the RAM 23 is executed. Further, the CPU 21 executes a process for controlling performance information parameters that define the performance of the demo song based on the operation of the switch 12 by the performer.

ROM22は、CPU21に実行させる種々の処理、たとえば、鍵盤の鍵のオン(押鍵)・オフ(離鍵)の検出、スイッチの操作、押鍵に応じた楽音の発音、デモ曲等の自動演奏、押鍵に基づく演奏データの生成、演奏情報パラメータの制御などのプログラムを格納する。また、ROM22は、ピアノ、ギター、バスドラム、スネアドラム、シンバルなどの楽音を生成するための波形データを格納した波形データエリア、および、自動伴奏を格納したデモ曲データエリア、上記プログラムを格納したプログラムエリアを有する。RAM23は、ROM22から読み出されたプログラムや、処理の過程で生成されたデータなどを記憶する。   The ROM 22 performs various processes to be executed by the CPU 21, for example, on / off detection of keys on the keyboard, key operation, switch operation, tone generation according to key press, automatic performance of demo songs, etc. Stores programs for generating performance data based on key depression, controlling performance information parameters, and the like. The ROM 22 stores a waveform data area for storing waveform data for generating musical sounds such as piano, guitar, bass drum, snare drum, and cymbal, a demo song data area for storing automatic accompaniment, and the above program. Has a program area. The RAM 23 stores a program read from the ROM 22, data generated in the course of processing, and the like.

サウンドシステム24は、音源部26、オーディオ回路27およびスピーカ28を有する。音源部26は、たとえば、押鍵された鍵に関するノートオンイベントをCPU21から受信すると、ROM22の波形データエリアから所定の波形データを読み出して、所定の音高で所定のベロシティの楽音データを生成して出力する。また、音源部26は、波形データ、特に、スネアドラム、バスドラム、シンバルなど打楽器の音色の波形データを、そのまま楽音データとして出力することもできる。オーディオ回路27は、楽音データをD/A変換して増幅する。これによりスピーカ28から音響信号が出力される。   The sound system 24 includes a sound source unit 26, an audio circuit 27, and a speaker 28. For example, when the sound source unit 26 receives a note-on event related to the depressed key from the CPU 21, the tone generator 26 reads predetermined waveform data from the waveform data area of the ROM 22, and generates musical sound data of a predetermined velocity at a predetermined pitch. Output. The sound source unit 26 can also output waveform data, particularly waveform data of percussion instrument sounds such as a snare drum, bass drum, and cymbal, as musical sound data. The audio circuit 27 D / A converts and amplifies the musical sound data. Thereby, an acoustic signal is output from the speaker 28.

図3は、本実施の形態にかかるROMに格納されたデータの一例を説明する図である。図3に示すように、本実施の形態にかかるROM22には、プログラムエリア301、波形データエリア302およびデモ曲データエリア303を含む。デモ曲データエリア303には、複数のデモ曲(たとえば、デモ曲(1)、(2)、(3)・・・)のそれぞれのデータエリア(たとえば、符号311、312、313)を含む。デモ曲データエリア(たとえば、デモ曲(1)のデータエリア311)は、時間情報であるタイムのデータレコード(たとえば符号321、323参照)と、押鍵(ノートオン)或いは離鍵(ノートオフ)のいずれかのイベント情報であるイベントのデータレコード(たとえば符号322、324参照)とを含む。イベントのデータレコードは、そのイベントの内容(ノートオン或いはノートオフ)、イベントにかかる音高情報(たとえば、MIDIにしたがったノート番号)、および、ノートオンイベントであれば音量を指定するベロシティを含む。   FIG. 3 is a diagram for explaining an example of data stored in the ROM according to the present embodiment. As shown in FIG. 3, the ROM 22 according to the present embodiment includes a program area 301, a waveform data area 302, and a demo music data area 303. The demo song data area 303 includes data areas (for example, reference numerals 311, 312, 313) of a plurality of demo songs (for example, demo songs (1), (2), (3)...)). The demo song data area (eg, the data area 311 of the demo song (1)) is a time data record (see, for example, reference numerals 321 and 323) as time information, and key depression (note on) or key release (note off). Event data records (for example, reference numerals 322 and 324). The event data record includes the content of the event (note-on or note-off), pitch information (eg, note number according to MIDI) for the event, and velocity specifying the volume if a note-on event. .

2つのイベントのレコードの間に位置するタイムのレコードは、当該2つのイベントの間の時間間隔を示す。たとえば、イベントのレコード322がある音高のノートオンイベントを示し、イベントのレコード324が当該音高のノートオフイベントを示す場合に、その間のタイムのレコード323は、当該音高の楽音の発音時間を示す。   A time record located between two event records indicates a time interval between the two events. For example, when an event record 322 indicates a note-on event with a certain pitch and the event record 324 indicates a note-off event with the pitch, the time record 323 between them indicates the sound generation time of the musical tone with the pitch. Indicates.

図4および図5は、本実施の形態にかかるRAM23に格納されたデータの一例を説明する図である。図4に示すように、RAM23には、演奏データ記憶エリア400、デモ曲対応履歴データエリア401、パラメータエリア402、第1の差分データエリア403、演奏者状態情報STATEの格納エリア404、デモ曲の曲データを格納する曲データエリア405、曲番号SONGの格納エリア406、第1のタイマ値T1の格納エリア407、および、第2のタイマ値T2の格納エリア408を有する。後に詳述するが、第1の差分データ403は、テンポについての第1の差分値(第1テンポ差分値)Δtempo、ベロシティについての第1の差分値(第1ベロシティ差分値)Δvel、および、押鍵時間に相当するゲートタイムについての第1の差分値(第1ゲートタイム差分値)Δgateのデータレコードを有する。   4 and 5 are diagrams for explaining an example of data stored in the RAM 23 according to the present embodiment. As shown in FIG. 4, the RAM 23 has a performance data storage area 400, a demo song corresponding history data area 401, a parameter area 402, a first difference data area 403, a player status information STATE storage area 404, a demo song storage area. It has a song data area 405 for storing song data, a storage area 406 for song number SONG, a storage area 407 for first timer value T1, and a storage area 408 for second timer value T2. As will be described in detail later, the first difference data 403 includes a first difference value for tempo (first tempo difference value) Δtempo, a first difference value for velocity (first velocity difference value) Δvel, and It has a data record of the first difference value (first gate time difference value) Δgate for the gate time corresponding to the key pressing time.

デモ曲対応履歴データエリア401には、デモ曲ごと(たとえば符号411、412参照)に、第2の差分値データ(符号421参照)を含む。第2の差分データ421は、テンポについての第2の差分値(第2テンポ差分値)ΔTEMPO、ベロシティについての第2の差分値(第2ベロシティ差分値)ΔVEL、および、押鍵時間に相当するゲートタイムについての第2の差分値(第2ゲートタイム差分値)ΔGATEのデータレコードを有する。   The demo song corresponding history data area 401 includes second difference value data (see reference numeral 421) for each demo song (see, for example, reference numerals 411 and 412). The second difference data 421 corresponds to a second difference value (second tempo difference value) ΔTEMPO for tempo, a second difference value (second velocity difference value) ΔVEL for velocity, and a key pressing time. It has a data record of a second difference value (second gate time difference value) ΔGATE for the gate time.

パラメータエリア402は、テンポデータ、ベロシティデータおよびゲートタイムデータを有する(符号413〜415参照)。本実施の形態においては、演奏情報パラメータとして、楽曲のテンポ、音量(ベロシティ)、および、ゲートタイムを調整することができるようになっている。上記演奏情報パラメータには、デモ曲演奏の際に用いられるプリセット値データと、値の上限および下限をそれぞれ示す最大値データおよび最小値データが存在する。   The parameter area 402 includes tempo data, velocity data, and gate time data (see reference numerals 413 to 415). In the present embodiment, the music tempo, volume (velocity), and gate time can be adjusted as performance information parameters. The performance information parameters include preset value data used in the performance of the demo song, and maximum value data and minimum value data indicating the upper and lower limits of the value, respectively.

テンポデータ413は、テンポプリセット値データPR(0)、テンポ最大値データMAX(0)およびテンポ最小値データMIN(0)のデータレコードを有する(符号422参照)。音量データ414は、音量プリセット値データ(PR(1)、音量最大値データMAX(1)および音量最小値データMIN(1)のデータレコードを有する(符号423参照)。また、ゲートタイムデータ415は、ゲートタイムプリセット値データPR(2)、ゲートタイム最大値データMAX(2)およびゲートタイム最小値データMIN(2)のデータレコードを有する(符号424参照)。   The tempo data 413 includes data records of tempo preset value data PR (0), tempo maximum value data MAX (0), and tempo minimum value data MIN (0) (see reference numeral 422). The volume data 414 includes data records of volume preset value data (PR (1), volume maximum value data MAX (1), and volume minimum value data MIN (1) (see reference numeral 423), and gate time data 415. , Gate time preset value data PR (2), gate time maximum value data MAX (2), and gate time minimum value data MIN (2) data records (see reference numeral 424).

図5は、本実施の形態にかかる演奏データ記憶エリアおよび曲データエリアのデータ構成例を示す図である。演奏データ記憶エリアおよび曲データエリアの双方とも、同様のデータ構成を備えており、以下、演奏データ記憶エリアについて説明する。演奏データ記憶エリアのレコード群500は、先頭にイニシャルタイムのレコードを有する(符号501)、次いで、ノートオンイベントのレコード(符号502)、ゲートタイムのレコード(符号503)およびステップタイムのレコード(符号504)が格納され、その後に、次のノートオンイベントのレコード(符号505)が格納される。ゲートタイムは、ノートオンイベントによりオン状態となった楽音を消音するまでの時間間隔を示す。その一方、ステップタイムは、ノートオンイベントと次のノートオンイベントとの間の時間間隔を示す。すなわち、ゲートタイムが短くなる(値が小さくなる)ことは、鍵のオン時間が短くなることを示し、演奏において、聴感上フレーズの跳躍感が増大することになる。   FIG. 5 is a diagram showing a data configuration example of the performance data storage area and the song data area according to the present embodiment. Both the performance data storage area and the song data area have the same data structure, and the performance data storage area will be described below. The record group 500 in the performance data storage area has an initial time record at the head (reference numeral 501), then a note-on event record (reference numeral 502), a gate time record (reference numeral 503), and a step time record (reference numeral 501). 504) is stored, and then a record of the next note-on event (reference numeral 505) is stored. The gate time indicates a time interval until the musical sound turned on by the note-on event is muted. On the other hand, the step time indicates the time interval between the note-on event and the next note-on event. That is, shortening the gate time (decreasing the value) indicates that the key on-time is shortened, and in the performance, the sense of jumping of the phrase is increased.

図6は、本実施の形態にかかる電子楽器において実行される処理の例を概略的に示すフローチャートである。図6に示すように、電子楽器10の電源が投入されると、CPU21は、RAM23中のデータや、表示部14の画面に表示された画像のクリアを含むイニシャライズを実行する(ステップ601)。イニシャライズが終了すると、電子楽器10のCPU21は、スイッチ処理を実行する(ステップ602)。スイッチ処理が終了すると、CPU21は、鍵盤処理を実行する(ステップ603)。処理が前後するが、以下、鍵盤処理の詳細について先に説明する。   FIG. 6 is a flowchart schematically showing an example of processing executed in the electronic musical instrument according to this embodiment. As shown in FIG. 6, when the power of the electronic musical instrument 10 is turned on, the CPU 21 executes initialization including clearing data in the RAM 23 and an image displayed on the screen of the display unit 14 (step 601). When the initialization is completed, the CPU 21 of the electronic musical instrument 10 executes a switch process (step 602). When the switch process ends, the CPU 21 executes a keyboard process (step 603). Although the process is mixed, the details of the keyboard process will be described first.

図7は、本実施の形態にかかる鍵盤処理の例を示すフローチャートである。図7に示すように、CPU21は、鍵盤11の鍵を所定の順で(たとえば、音高の低い鍵から)走査して(ステップ701)、処理対象となる鍵の状態に変化があったか否かを判断する(ステップ702)。ステップ702で鍵がオン状態となったと判断された場合には、CPU21は、当該鍵の押鍵に基づき、鍵に対応する音高の楽音を発音することを示すノートオンイベントを生成する(ステップ703)。ノートオンイベントには、音高情報に加え、鍵の押鍵速度に基づき得られたベロシティが含まれる。CPU21は、ノートオンイベントを音源部26に与える(ステップ704)。   FIG. 7 is a flowchart showing an example of keyboard processing according to the present embodiment. As shown in FIG. 7, the CPU 21 scans the keys of the keyboard 11 in a predetermined order (for example, from a key with a low pitch) (step 701), and whether or not the state of the key to be processed has changed. Is determined (step 702). If it is determined in step 702 that the key has been turned on, the CPU 21 generates a note-on event indicating that a musical tone having a pitch corresponding to the key is generated based on the depression of the key (step 702). 703). The note-on event includes velocity obtained based on the key pressing speed in addition to the pitch information. The CPU 21 gives a note-on event to the sound source unit 26 (step 704).

次いで、CPU21は、録音スタートフラグRSTFが「1」であるかを判断する(ステップ705)。ステップ705でYesと判断された場合には、CPU21は、オン状態となった鍵の押鍵が、最初の押鍵に該当するかを判断する(ステップ706)。ここに、最初の押鍵とは、録音スタートフラグが「1」になってからの最初の押鍵を意味する。ステップ706でYesと判断された場合には、CPU21は、RAM23の曲データエリア(符号405参照)のアドレスADをインクリメント、つまり、「1」だけ増大させる(ステップ707)。その一方、ステップ706でNoと判断された場合には、CPU21は、アドレスADを「3」だけ増大させる(ステップ708)。   Next, the CPU 21 determines whether or not the recording start flag RSTF is “1” (step 705). When it is determined Yes in step 705, the CPU 21 determines whether or not the key pressing of the key that has been turned on corresponds to the first key pressing (step 706). Here, the first key depression means the first key depression after the recording start flag becomes “1”. If it is determined Yes in step 706, the CPU 21 increments the address AD of the music data area (see reference numeral 405) in the RAM 23, that is, increases it by “1” (step 707). On the other hand, if it is determined No in step 706, the CPU 21 increases the address AD by “3” (step 708).

次いで、CPU21は、RAM23において、アドレスADに示す位置にイベント(ノートオンイベント)を格納する(ステップ709)。CPU21は、押鍵が最初の押鍵に該当するかを再度判断する(ステップ710)。ステップ710でNoと判断された場合には、CPU21は、RAM23においてアドレス(AD+1)に示す位置に、第1のタイマ値T1を格納する(ステップ711)。その後、CPU21は、第1のタイマ値T1および第2のタイマ値T2を「0」にクリアする。   Next, the CPU 21 stores an event (note-on event) at the position indicated by the address AD in the RAM 23 (step 709). The CPU 21 determines again whether or not the key depression corresponds to the first key depression (step 710). When it is determined No in step 710, the CPU 21 stores the first timer value T1 at the position indicated by the address (AD + 1) in the RAM 23 (step 711). Thereafter, the CPU 21 clears the first timer value T1 and the second timer value T2 to “0”.

次に、処理対象となる鍵がオフ状態となった場合について説明する。鍵がオフ状態となった場合には、CPU21は、離鍵された鍵に対応する音高の楽音を消音することを示すノートオフイベントを生成する(ステップ713)。CPU21は、ノートオフイベントを音源部26に与える(ステップ714)。次いで、CPU21は、録音スタートフラグRSTFが「1」であるかを判断する(ステップ715)。ステップ715でYesと判断された場合には、CPU21は、RAM23においてアドレス(AD+2)に示す位置に、第2のタイマ値T2を格納する(ステップ716)。   Next, a case where a key to be processed is turned off will be described. When the key is turned off, the CPU 21 generates a note-off event indicating that the musical tone having the pitch corresponding to the released key is muted (step 713). The CPU 21 gives a note-off event to the sound source unit 26 (step 714). Next, the CPU 21 determines whether or not the recording start flag RSTF is “1” (step 715). If it is determined Yes in step 715, the CPU 21 stores the second timer value T2 at the position indicated by the address (AD + 2) in the RAM 23 (step 716).

なお、後述するように、録音スタートスイッチ処理(図8のステップ801、図9)において、録音がスタートされると、RSTFが「1」となっている。また、RSTFが「1」に変化したときに、タイマカウントが開始される。RSTFが「1」の状態では、タイマ(図示せず)が起動し、タイマインタラプトによって、第1のタイマ値T1および第2のタイマ値T2がインクリメントされる。ここでタイマがインクリメントされる周期(タイマ周期)は、テンポ値プリセットデータPR(0)に基づいて決定される。   As will be described later, in the recording start switch process (step 801 in FIG. 8, FIG. 9), when recording is started, the RSTF is “1”. Further, when RSTF changes to “1”, the timer count is started. When RSTF is “1”, a timer (not shown) is started, and the first timer value T1 and the second timer value T2 are incremented by a timer interrupt. Here, the cycle in which the timer is incremented (timer cycle) is determined based on the tempo value preset data PR (0).

鍵盤処理によって、イベント(ノートオンイベント)、ゲートタイム、および、ステップタイムの順でレコードが繰り返し格納された演奏データが生成され、RAM23の演奏データ記憶エリア400に格納される。   By the keyboard processing, performance data in which records are repeatedly stored in the order of event (note-on event), gate time, and step time is generated and stored in the performance data storage area 400 of the RAM 23.

次に、スイッチ処理(ステップ602)についてより詳細に説明する。図8は、本実施の形態にかかるスイッチ処理の例を示すフローチャートである。図8に示すように、スイッチ処理には、録音スタートスイッチ処理(ステップ801)、デモ曲選択スイッチ処理(ステップ802)、デモ曲スタート・ストップスイッチ処理(ステップ803)、パラメータ選択スイッチ処理(ステップ804)、および、パラメータ増減スイッチ処理(ステップ805)を含む。以下、それぞれの処理について説明する。   Next, the switch process (step 602) will be described in more detail. FIG. 8 is a flowchart illustrating an example of the switch processing according to the present embodiment. As shown in FIG. 8, the recording process includes a recording start switch process (step 801), a demo song selection switch process (step 802), a demo song start / stop switch process (step 803), and a parameter selection switch process (step 804). ) And parameter increase / decrease switch processing (step 805). Hereinafter, each processing will be described.

図9は、本実施の形態にかかる録音スタートスイッチ処理の例を示すフローチャートである。図9に示すように、CPU21は、スイッチ部12中の録音スタートスイッチが操作されたかを判断する(ステップ901)。録音スタートスイッチ(図示せず)は、1回目の操作でオン、次の操作でオフとなる、いわゆるトグルスイッチである。スイッチ操作があった場合(ステップ901でYes)、CPU21は、録音スタートフラグRSTFを反転させて(ステップ902)、RSTFが「1」となったかを判断する(ステップ903)。ステップ903でYesと判断された場合には、CPU21は、RAM23中に演奏データ記憶エリア(図4の符号400参照)を確保する(ステップ904)。また、CPU21は、RAM23の演奏エータ記憶エリア23の先頭アドレスを、パラメータADとして設定する。また、CPU21は、RAM23中、アドレスADで示される位置に、現在時刻を格納し(ステップ906)、第1のタイマ値T1および第2のタイマ値T2(図4の符号407、408参照)を「0」にリセットする(ステップ907)。その後、CPU21は、タイマカウントを開始する(ステップ908)。タイマカウントが開始されると、第1のタイマ値T1および第2のタイマ値T2は、所定のタイマ周期で実行されるタイマインタラプト処理(図示せず)においてインクリメントされる。   FIG. 9 is a flowchart showing an example of the recording start switch process according to the present embodiment. As shown in FIG. 9, the CPU 21 determines whether or not the recording start switch in the switch unit 12 has been operated (step 901). The recording start switch (not shown) is a so-called toggle switch that is turned on by the first operation and turned off by the next operation. When there is a switch operation (Yes in Step 901), the CPU 21 inverts the recording start flag RSTF (Step 902) and determines whether the RSTF is “1” (Step 903). If it is determined Yes in step 903, the CPU 21 secures a performance data storage area (see reference numeral 400 in FIG. 4) in the RAM 23 (step 904). Further, the CPU 21 sets the head address of the performance actor storage area 23 of the RAM 23 as the parameter AD. Further, the CPU 21 stores the current time at the position indicated by the address AD in the RAM 23 (step 906), and stores the first timer value T1 and the second timer value T2 (see reference numerals 407 and 408 in FIG. 4). Reset to “0” (step 907). Thereafter, the CPU 21 starts a timer count (step 908). When the timer count is started, the first timer value T1 and the second timer value T2 are incremented in a timer interrupt process (not shown) executed at a predetermined timer period.

ステップ903でNoと判断された場合には、CPU21は、タイマカウントを停止する(ステップ909)。これにより、タイマインタラプト処理のよるタイマ値T1、T2のインクリメントが停止される。また、CPU21は、分析処理を実行する(ステップ910)。分析処理については後に詳述する。その後、CPU21は、RAM23の演奏データ記憶エリアに格納されたデータをクリアする(ステップ911)。   When it is determined No in step 903, the CPU 21 stops the timer count (step 909). Thereby, the increment of the timer values T1 and T2 by the timer interrupt process is stopped. Further, the CPU 21 executes analysis processing (step 910). The analysis process will be described in detail later. Thereafter, the CPU 21 clears the data stored in the performance data storage area of the RAM 23 (step 911).

次に、デモ曲選択スイッチ処理(ステップ802)について説明する。図10は、本実施の形態にかかるデモ曲選択スイッチ処理の例を示すフローチャートである。デモ曲選択スイッチは、たとえば、テンキーであり、番号が入力できるようになっている。デモ曲選択スイッチの操作があった場合には(ステップ1001でYes)、CPU21は、入力された番号を、RAM23中の曲番号SONGのエリア(図4の符号406参照)に格納する(ステップ1002)。その後、CPU21は、曲データ変換処理を実行する(ステップ1003)。   Next, the demo song selection switch process (step 802) will be described. FIG. 10 is a flowchart showing an example of the demo song selection switch process according to the present embodiment. The demo song selection switch is, for example, a numeric keypad so that a number can be input. When the demo music selection switch is operated (Yes in step 1001), the CPU 21 stores the input number in the area of the music number SONG in the RAM 23 (see reference numeral 406 in FIG. 4) (step 1002). ). Thereafter, the CPU 21 executes music data conversion processing (step 1003).

図11および図12は、本実施の形態にかかる曲データ変換処理の例を示すフローチャートである。曲データ変換処理においては、デモ曲データエリアに格納されたデモ曲のデータのデータ形式(図3の符号321〜324参照)を、図5に示すデータ形式に変換する。CPU21は、RAM23中に曲データエリア(図4の符号405参照)を確保する(ステップ1101)。次いで、CPU21は、ROMのアドレスを示すパラメータADとして、曲番号SONGで示されたデモ曲について、ROM22中のデモ曲データエリアの先頭アドレスを設定する(ステップ1102)。また、CPU21は、RAM23のアドレスを示すパラメータAD1として、曲データエリアの先頭アドレスを設定する(ステップ1103)。   FIG. 11 and FIG. 12 are flowcharts showing an example of music data conversion processing according to the present embodiment. In the song data conversion process, the data format of the demo song data stored in the demo song data area (see reference numerals 321 to 324 in FIG. 3) is converted into the data format shown in FIG. The CPU 21 secures a song data area (see reference numeral 405 in FIG. 4) in the RAM 23 (step 1101). Next, the CPU 21 sets the start address of the demo music data area in the ROM 22 for the demo music indicated by the music number SONG as the parameter AD indicating the ROM address (step 1102). Further, the CPU 21 sets the head address of the music data area as the parameter AD1 indicating the address of the RAM 23 (step 1103).

CPU21は、RAM23のパラメータ(アドレス)AD1で示される位置に、イニシャルタイムを格納する(ステップ1104)。ここに、イニシャルタイムとして最初のノートオンが開始されるまでの時間を示す。次いで、CPU21は、第1のタイマ値T1および第2のタイマ値T2を初期化する(ステップ1105)。次いで、CPU21は、ROM22において、パラメータ(アドレス)ADに示す位置のデータを読み出し、そのデータ種別を判断する(ステップ1106)。   The CPU 21 stores the initial time at the position indicated by the parameter (address) AD1 in the RAM 23 (step 1104). Here, the time until the first note-on is started as the initial time is shown. Next, the CPU 21 initializes the first timer value T1 and the second timer value T2 (step 1105). Next, the CPU 21 reads the data at the position indicated by the parameter (address) AD in the ROM 22 and determines the data type (step 1106).

データ種別が「タイム」であった場合には、CPU21は、第1のタイマ値T1に「タイム」の値を加算するとともに、第2のタイマ値T2に「タイム」の値を加算する(ステップ1107)。また、データ種別がノートオンであった場合には、CPU21は、アドレスAD1をインクリメントして(ステップ1108)、RAM23中、アドレスAD1に示す位置に、ROMから読み出されたデータであるノートオンイベントを格納する(ステップ1109)。データ種別がノートオフであった場合には、CPU21は、アドレスAD1を「2」だけ加算して、RAM23中、アドレスAD1に示す位置に第2のタイマ値T2を格納する(ステップ1111)。   When the data type is “time”, the CPU 21 adds the value of “time” to the first timer value T1 and adds the value of “time” to the second timer value T2 (step). 1107). If the data type is note-on, the CPU 21 increments the address AD1 (step 1108), and the note-on event that is data read from the ROM at the position indicated by the address AD1 in the RAM 23. Is stored (step 1109). If the data type is note-off, the CPU 21 adds the address AD1 by “2” and stores the second timer value T2 at the position indicated by the address AD1 in the RAM 23 (step 1111).

ステップ1107或いはステップ1111が実行された後、図12に示すように、CPU21は、アドレスADをインクリメントして(ステップ1204)、ROM22においてアドレスADにデモ曲データのレコードが存在しないかを判断する(ステップ1205)。ステップ1205でNoと判断された場合には、ステップ1106に戻り、その一方、ステップ1205でYesと判断された場合には、処理を終了する。   After step 1107 or step 1111 is executed, as shown in FIG. 12, the CPU 21 increments the address AD (step 1204), and determines whether there is a record of demo song data at the address AD in the ROM 22 (step 1204). Step 1205). If NO in step 1205, the process returns to step 1106. On the other hand, if YES in step 1205, the process ends.

ステップ1109が実行された後には、CPU21は、ROM22から読み出されたデータがデモ曲データの最初のデータであるかを判断する(ステップ1201)。ステップ1201でYesと判断された場合には、ステップ1204に進む。その一方、ステップ1201でNoと判断された場合には、RAM23中、において、アドレス(AD1−2)に示す位置に、第1のタイマ値T1を格納する(ステップ1202)。その後、CPU21は、第1のタイマ値T1および第2のタイマ値T2を、それぞれ「0」にリセットし(ステップ1203)、ステップ1204に進む。   After step 1109 is executed, the CPU 21 determines whether the data read from the ROM 22 is the first data of the demo song data (step 1201). If “Yes” is determined in step 1201, the process proceeds to step 1204. On the other hand, if it is determined No in step 1201, the first timer value T1 is stored in the RAM 23 at the position indicated by the address (AD1-2) (step 1202). Thereafter, the CPU 21 resets the first timer value T1 and the second timer value T2 to “0”, respectively (step 1203), and proceeds to step 1204.

次に、デモ曲スタート・ストップスイッチ処理について説明する。図13および図14は、本実施の形態にかかるデモ曲スタート・ストップスイッチ処理の例を示すフローチャートである。図13に示すように、CPU21は、スイッチ部21のデモ曲スタート・ストップスイッチが操作されたかを判断する(ステップ1301)。デモ曲スタート・ストップスイッチ(図示せず)は、1回目の操作でオン、次の操作でオフとなる、いわゆるトグルスイッチである。スイッチ操作があった場合(ステップ1301でYes)、スタートフラグSTFを反転させて(ステップ1302)、STFが「1」になったかを判断する(ステップ1303)。ステップ1303でYesと判断された場合には、RAM23中、テンポプリセット値データPR(0)として、曲番号Songで指定されたデモ曲のテンポデータを与える(ステップ1306)。また、CPU21は、パラメータADとして、RAM23中の曲データの先頭アドレスを設定する(ステップ1307)。次いで、CPU21は、ADを用いて、RAM23の曲データエリアにおいて、アドレスADが示す位置の値(タイム)を読み出して、読み出された値を、RAM23中の第1のタイマ値T1および第2のタイマ値T2として格納する(ステップ1308)。その後、CPU21は、演奏者状態情報STATEに基づき、RAM23中のテンポプリセット値データPR(0)を変更する(ステップ1309)。このSTATEに基づく値の変更は後に詳述する。   Next, the demo song start / stop switch process will be described. FIG. 13 and FIG. 14 are flowcharts showing an example of the demo song start / stop switch process according to the present embodiment. As shown in FIG. 13, the CPU 21 determines whether or not the demo song start / stop switch of the switch unit 21 has been operated (step 1301). The demo song start / stop switch (not shown) is a so-called toggle switch that is turned on by the first operation and turned off by the next operation. If there is a switch operation (Yes in step 1301), the start flag STF is inverted (step 1302), and it is determined whether the STF has become "1" (step 1303). If YES in step 1303, the tempo data of the demo song designated by the song number Song is given as the tempo preset value data PR (0) in the RAM 23 (step 1306). Further, the CPU 21 sets the head address of the music data in the RAM 23 as the parameter AD (step 1307). Next, the CPU 21 uses AD to read the position value (time) indicated by the address AD in the music data area of the RAM 23, and uses the read value as the first timer value T 1 and the second value in the RAM 23. Is stored as a timer value T2 (step 1308). Thereafter, the CPU 21 changes the tempo preset value data PR (0) in the RAM 23 based on the player status information STATE (step 1309). The change of the value based on this STATE will be described in detail later.

次いで、CPU21は、RAM23中の音量プリセット値データPR(1)に予め定められた音量デフォルト値を与える(ステップ1401)。次いで、CPU21は、演奏者状態情報STATEに基づき、RAM23中の音量プリセット値データPR(1)を変更する(ステップ1402)。   Next, the CPU 21 gives a predetermined volume default value to the volume preset value data PR (1) in the RAM 23 (step 1401). Next, the CPU 21 changes the volume preset value data PR (1) in the RAM 23 based on the player status information STATE (step 1402).

また、CPU21は、RAM23中のゲートタイムプリセット値データPR(2)に予め定められたゲートタイム係数デフォルト値を与える(ステップ1403)。次いで、CPU21は、演奏者状態情報STATEに基づき、RAM23中のゲートタイムプリセット値データPR(2)を変更する(ステップ1404)。その後、CPU21は、テンポプリセット値データPR(0)に基づいてタイマ周期を決定し(ステップ1405)、タイマカウントを開始する(ステップ1406)。デモ曲演奏時のタイマカウントは、演奏の録音時のタイマカウントと異なる。後述するデモ曲処理(図19、図20)で説明するが、第1のタイマ値T1および第2のタイマ値T2に、それぞれ、ステップタイムおよびゲートタイムを格納しておき、定められたタイマ周期で、タイマ値を減算している。   Further, the CPU 21 gives a predetermined gate time coefficient default value to the gate time preset value data PR (2) in the RAM 23 (step 1403). Next, the CPU 21 changes the gate time preset value data PR (2) in the RAM 23 based on the player status information STATE (step 1404). Thereafter, the CPU 21 determines a timer period based on the tempo preset value data PR (0) (step 1405), and starts a timer count (step 1406). The timer count when the demo song is played is different from the timer count when the performance is recorded. As will be described in demo music processing (FIGS. 19 and 20), which will be described later, step times and gate times are stored in the first timer value T1 and the second timer value T2, respectively. The timer value is subtracted.

ステップ1303でNoと判断された場合には、CPU21は、オールノートオフ処理を実行する(ステップ1304)。オールノートオフ処理においては、発音中の全ての楽音についてノートオフイベントが生成され、音源部26に送信される。次いで、CPU21は、タイマカウントを停止する(ステップ1305)。   When it is determined No in step 1303, the CPU 21 executes an all note off process (step 1304). In the all note-off process, note-off events are generated for all musical sounds that are being generated and transmitted to the sound source unit 26. Next, the CPU 21 stops the timer count (step 1305).

次に、パラメータ選択スイッチ処理(ステップ804)について説明する。図15は、本実施の形態にかかるパラメータ選択スイッチ処理の例を示すフローチャートである。パラメータ選択スイッチにより、後述するパラメータ増減スイッチにて値が増減されるパラメータが選択させる。図15に示すように、CPU21は、スイッチ部12のテンポスイッチがオンされたかを判断し(ステップ1501)、オンされている場合には、スイッチ選択パラメータPに「0」を与える(ステップ1502)。ステップ1501でNoと判断された場合には、CPU21は、スイッチ部12の音量スイッチがオンされたかを判断し(ステップ1503)、オンされている場合には、スイッチ選択パラメータPに「1」を与える(ステップ1504)。ステップ1503でNoと判断された場合には、ゲートタイムスイッチがオンされているかを判断し(ステップ1505)、オンされている場合には、パラメータPに「2」を与える(ステップ1507)。ステップ1502、1505および1506の後、CPU12は、スイッチ押下回数カウンタ値mを「0」にリセットする(ステップ1507)。   Next, the parameter selection switch process (step 804) will be described. FIG. 15 is a flowchart illustrating an example of parameter selection switch processing according to the present embodiment. The parameter whose value is increased or decreased by the parameter increase / decrease switch described later is selected by the parameter selection switch. As shown in FIG. 15, the CPU 21 determines whether or not the tempo switch of the switch unit 12 is turned on (step 1501). If it is turned on, “0” is given to the switch selection parameter P (step 1502). . If it is determined No in step 1501, the CPU 21 determines whether the volume switch of the switch unit 12 is turned on (step 1503). If it is turned on, “1” is set to the switch selection parameter P. (Step 1504). If it is determined No in step 1503, it is determined whether the gate time switch is turned on (step 1505). If it is turned on, "2" is given to the parameter P (step 1507). After steps 1502, 1505, and 1506, the CPU 12 resets the switch pressing number counter value m to “0” (step 1507).

次に、パラメータ増減スイッチ処理(ステップ805)について説明する。図16は、本実施の形態にかかるパラメータ増減スイッチ処理の例を示すフローチャートである。図16に示すように、CPU12は、スイッチ部12の増加スイッチ(「+」スイッチ)がオンされたかを判断する(ステップ1601)。ステップ1601においてYesと判断された場合には、スイッチ押下回数カウンタ値mが、RAM23に格納された最大値データMAX(P)より小さいかを判断する(ステップ1602)。本実施の形態においては、RAM23には、テンポ最大値データMAX(0)、音量最大値データMAX(1)およびゲートタイム最大値データMAX(2)が格納されている。したがって、スイッチ選択パラメータPで指定されるMAX(P)が読み出されて、カウンタ値mと比較される。   Next, the parameter increase / decrease switch process (step 805) will be described. FIG. 16 is a flowchart illustrating an example of parameter increase / decrease switch processing according to the present embodiment. As shown in FIG. 16, the CPU 12 determines whether or not the increase switch (“+” switch) of the switch unit 12 is turned on (step 1601). If it is determined Yes in step 1601, it is determined whether the switch pressing number counter value m is smaller than the maximum value data MAX (P) stored in the RAM 23 (step 1602). In the present embodiment, the RAM 23 stores tempo maximum value data MAX (0), volume maximum value data MAX (1), and gate time maximum value data MAX (2). Therefore, MAX (P) designated by the switch selection parameter P is read and compared with the counter value m.

ステップ1602でYesと判断された場合には、CPU21は、スイッチ押下回数パラメータをインクリメントし(ステップ1603)、スイッチ選択パラメータPで指定されるプリセット値データPR(P)をインクリメントする(ステップ1604)。   If YES is determined in step 1602, the CPU 21 increments the switch pressing frequency parameter (step 1603), and increments the preset value data PR (P) designated by the switch selection parameter P (step 1604).

ステップ1601でNoと判断された場合には、スイッチ部12の減少スイッチ(「−」スイッチ)がオンされたかを判断する(ステップ1605)。ステップ1605でYesと判断された場合には、スイッチ押下回数カウンタmが、RAM23に格納された最小値データMIN(P)より大きいかを判断する(ステップ1606)。本実施の形態においては、RAM23には、テンポ最小値データMIN(0)、音量最小値データMIN(1)およびゲートタイム最小値データMIN(2)が格納されている。したがって、スイッチ選択パラメータPで指定されるMIN(P)が読み出されて、カウンタ値mと比較される。   When it is determined No in step 1601, it is determined whether the decrease switch (“−” switch) of the switch unit 12 is turned on (step 1605). If it is determined Yes in step 1605, it is determined whether the switch pressing number counter m is larger than the minimum value data MIN (P) stored in the RAM 23 (step 1606). In the present embodiment, the RAM 23 stores tempo minimum value data MIN (0), volume minimum value data MIN (1), and gate time minimum value data MIN (2). Therefore, MIN (P) designated by the switch selection parameter P is read and compared with the counter value m.

ステップ1606でYesと判断された場合には、CPU21は、スイッチ押下回数パラメータをデクリメントし(ステップ1607)、スイッチ選択パラメータPで指定されるプリセット値データPR(P)をデクリメントする(ステップ1608)。   If it is determined Yes in step 1606, the CPU 21 decrements the switch pressing frequency parameter (step 1607), and decrements the preset value data PR (P) designated by the switch selection parameter P (step 1608).

次に、録音スタートスイッチ処理のステップ910の分析処理についてより詳細に説明する。図17および図18は、本実施の形態にかかる分析処理の例を示すフローチャートである。分析処理は、RAM23中の演奏データ記憶エリア(図4の符号400参照)に格納された演奏データと、曲データエリア(図4の符号405参照)に格納された曲データとを比較して、比較に基づいて、各差分値を更新するとともに、差分値から演奏者状態情報STATEを更新する。   Next, the analysis process in step 910 of the recording start switch process will be described in more detail. 17 and 18 are flowcharts showing an example of analysis processing according to the present embodiment. The analysis process compares the performance data stored in the performance data storage area (see reference numeral 400 in FIG. 4) in the RAM 23 with the song data stored in the music data area (see reference numeral 405 in FIG. 4). Based on the comparison, each difference value is updated, and the player state information STATE is updated from the difference value.

図17に示すように、CPU21は、RAM23中の演奏データ記憶エリア(図4の符号400参照)に格納された演奏データと、曲データエリア(図4の符号405参照)に格納された曲データとを比較する(ステップ1701)。なお、演奏データは、鍵盤処理(図7)によってRAM23中に格納されている。また、曲データは、曲データ変換処理(図11、図12)によってRAM23中に格納されている。   As shown in FIG. 17, the CPU 21 performs the performance data stored in the performance data storage area (see reference numeral 400 in FIG. 4) in the RAM 23 and the song data stored in the song data area (see reference numeral 405 in FIG. 4). Are compared (step 1701). The performance data is stored in the RAM 23 by keyboard processing (FIG. 7). The song data is stored in the RAM 23 by the song data conversion process (FIGS. 11 and 12).

CPU21は、テンポ分析を実行する(ステップ1702)。ステップ1702において、CPU21は、曲データに含まれるステップタイムのレコードを参照して、ステップタイムの第1の総和Σ(曲データのステップタイム)を算出するとともに、演奏データに含まれるステップタイムのレコードを参照して、ステップタイムの第2の総和Σ(演奏データのステップタイム)を求める。次いで、CPU21は、第2の総和の、第1の総和に対する比(第2の総和/第1の総和)を求め、得られた比と、曲データのテンポ値とを乗算する。これにより、演奏データに基づく演奏(演奏者による演奏)の、デモ演奏に対する比から、演奏者による演奏のテンポを求めることができる。   The CPU 21 executes tempo analysis (step 1702). In step 1702, the CPU 21 refers to the step time record included in the song data, calculates the first sum Σ of the step time (step time of the song data), and records the step time included in the performance data. , The second sum Σ of step times (step time of performance data) is obtained. Next, the CPU 21 obtains a ratio of the second sum to the first sum (second sum / first sum), and multiplies the obtained ratio by the tempo value of the music data. Thereby, the tempo of the performance by the performer can be obtained from the ratio of the performance based on the performance data (performance by the performer) to the demo performance.

ステップ1702においては、CPU21は、((演奏者による演奏のテンポ)−(曲データのテンポ))を第1テンポ差分値ΔtempoとしてRAM23中に格納する。   In step 1702, the CPU 21 stores ((tempo of performance by the performer) − (tempo of music data)) in the RAM 23 as the first tempo difference value Δtempo.

次いで、CPU21は、ベロシティ分析を実行する(ステップ1703)。ステップ1703においては、RAM23の演奏データのイベントのレコードに含まれるベロシティを参照して、CPU21は、演奏データにおけるベロシティの平均値を算出するとともに、曲データのイベント(ノートオンイベント)のレコードに含まれるベロシティを参照して、曲データにおけるベロシティの平均値を算出する。   Next, the CPU 21 executes velocity analysis (step 1703). In step 1703, referring to the velocity included in the performance data event record in the RAM 23, the CPU 21 calculates the average velocity value in the performance data and includes it in the song data event (note-on event) record. The average velocity value in the music data is calculated with reference to the recorded velocity.

CPU21は、((演奏データにおけるベロシティの平均値)−(曲データにおけるベロシティの平均値))を第1ベロシティ差分値ΔvelとしてRAM23中に格納する。   The CPU 21 stores ((average velocity value in performance data) − (average velocity value in music data)) in the RAM 23 as the first velocity difference value Δvel.

また、CPU21は、ゲートタイム分析を実行する(ステップ1704)。ステッ1704においては、CPU21は、RAM23の演奏データのゲートタイムのレコードを参照して演奏データにおけるレコードの平均値を算出するとともに、曲データのゲートタイムのレコードを参照して曲データにおけるレコードの平均値を算出する。   Further, the CPU 21 performs gate time analysis (step 1704). In step 1704, the CPU 21 calculates the average value of the records in the performance data by referring to the record of the gate time of the performance data in the RAM 23, and calculates the average of the records in the song data by referring to the record of the gate time of the song data. Calculate the value.

CPU21は、((演奏データにおけるゲートタイムの平均値)−(曲データにおけるゲートタイムの平均値))を第1ゲートタイム差分値ΔgateとしてRAM23に格納する。   The CPU 21 stores ((average value of gate time in performance data) − (average value of gate time in music data)) in the RAM 23 as the first gate time difference value Δgate.

次いで、CPU21は、RAM23から第2テンポ差分値ΔTEMPO、第2ベロシティ差分値ΔVELおよび第2ゲートタイム差分値ΔGATEを読み出す(ステップ1705)。さらに、CPU21は、第1の差分値と、対応する第2の差分値との間の差分値を算出する(ステップ1706〜1708)。より具体的には、
CPU21は、
Δt(第3のテンポ差分値)=Δtempo−ΔTEMPO
Δv(第3のベロシティ差分値)=Δvel−ΔVEL
Δg(第3のゲートタイム差分値)=Δgate−ΔGATE
を算出する。次に、CPU21は、RAM23中の演奏者状態情報STATEを、(Δt,Δv,Δg)の組み合わせにしたがって修正する。より具体的には、CPU21は、ROM22に、値の組(Δt,Δv,Δg)と演奏者状態情報STATEの値とを対応付けたテーブルを用意しておき、STATE=テーブル値(TABLE(Δt,Δv,Δg))とすればよい。
Next, the CPU 21 reads the second tempo difference value ΔTEMPO, the second velocity difference value ΔVEL, and the second gate time difference value ΔGATE from the RAM 23 (step 1705). Further, the CPU 21 calculates a difference value between the first difference value and the corresponding second difference value (steps 1706 to 1708). More specifically,
The CPU 21
Δt (third tempo difference value) = Δtempo−ΔTEMPO
Δv (third velocity difference value) = Δvel−ΔVEL
Δg (third gate time difference value) = Δgate−ΔGATE
Is calculated. Next, the CPU 21 corrects the player status information STATE in the RAM 23 according to a combination of (Δt, Δv, Δg). More specifically, the CPU 21 prepares a table in the ROM 22 in which a set of values (Δt, Δv, Δg) is associated with the value of the player status information STATE, and STATE = table value (TABLE (Δt , Δv, Δg)).

以下、テーブル値について説明する。テーブル値は、Δtが増大するのにしたがって値が増大し、Δvが増大するのにしたがって値が増大し、その一方、Δgが増大するのにしたがって、値が減少する。たとえば、α1、α2、α3を正の係数とすると、
TABLE(Δt,Δv,Δg) =α1・Δt+α2・Δv−α3・Δg
という値になる。したがって上記式に基づいて算出された値を、値の組(Δt,Δv,Δg)と関連付けてROM22中に格納しておけば良い。
Hereinafter, the table value will be described. The table value increases as Δt increases, and increases as Δv increases, while the value decreases as Δg increases. For example, if α1, α2, and α3 are positive coefficients,
TABLE (Δt, Δv, Δg) = α1 · Δt + α2 · Δv−α3 · Δg
It becomes the value. Therefore, the value calculated based on the above equation may be stored in the ROM 22 in association with the set of values (Δt, Δv, Δg).

次いで、CPU21は、パラメータnを「0」に初期化して(ステップ1801)、パラメータnで指定される演奏情報の最大値MAX(n)および最小値MIN(n)を、STATEに基づいて変更する(ステップ1802)。ステップ1802においては、たとえば、正の係数βnを用いて、以下のように新たなMAX(n)およびMIN(n)を算出すれば良い。   Next, the CPU 21 initializes the parameter n to “0” (step 1801), and changes the maximum value MAX (n) and the minimum value MIN (n) of the performance information specified by the parameter n based on STATE. (Step 1802). In step 1802, for example, new MAX (n) and MIN (n) may be calculated using the positive coefficient βn as follows.

MAX(n)=MAX(n)+STATE・βn・MAX(n)
MIN(n)=MIN(n)+STATE・βn・MIN(n)
つまり、演奏家状態情報STATEが正の値をとる場合には、演奏情報の最大値および最小値がそれぞれ増大する。つまり、テンポ、音量(ベロシティ)およびゲートタイムのそれぞれについて、パラメータ増減スイッチ処理(図8のステップ805、図16)において、ユーザのスイッチ操作による値の増減可能な範囲が、上方(値が増大する側)にシフトする。その一方、演奏家状態情報STATEが負の値をとる場合には、テンポ、音量(ベロシティ)およびゲートタイムのそれぞれについて、ユーザのスイッチ操作による値の増減可能な範囲が、下方(値が減少する側)にシフトする。
MAX (n) = MAX (n) + STATE · βn · MAX (n)
MIN (n) = MIN (n) + STATE · βn · MIN (n)
That is, when the player status information STATE takes a positive value, the maximum value and the minimum value of the performance information increase. That is, for each of the tempo, volume (velocity), and gate time, in the parameter increase / decrease switch process (step 805 in FIG. 8, FIG. 16), the range in which the value can be increased / decreased by the user's switch operation is upward (value increases). To the side). On the other hand, when the player state information STATE takes a negative value, the range in which the value can be increased or decreased by the user's switch operation is reduced downward (the value decreases) for each of the tempo, volume (velocity), and gate time. To the side).

CPU21は、パラメータnをインクリメントして(ステップ1803)、パラメータnが「2」より大きいかを判断する(ステップ1804)。ステップ1804でNoと判断された場合にはステップ1802に戻る。ステップ1804でYesと判断された場合には、CPU21は、第1のテンポ差分値Δtempoにしたがって、第2のテンポ差分値ΔTEMPOを更新し(ステップ1805)、第1のベロシティ差分値Δvelにしたがって第2のベロシティ差分値ΔVELを更新し(ステップ1806)、さらに、第1のゲートタイム差分値Δgateにしたがって第2のゲートタイム差分値ΔGATEを更新する(ステップ1807)。たとえば、第2の差分値の更新は、新たに算出された第1の差分値を考慮して、差分値の平均値を再算出することにより実現される。   The CPU 21 increments the parameter n (step 1803) and determines whether the parameter n is larger than “2” (step 1804). If NO in step 1804, the process returns to step 1802. If YES is determined in step 1804, the CPU 21 updates the second tempo difference value ΔTEMPO in accordance with the first tempo difference value Δtempo (step 1805), and the first velocity difference value Δvel in accordance with the first velocity difference value Δvel. 2 is updated (step 1806), and the second gate time difference value ΔGATE is updated according to the first gate time difference value Δgate (step 1807). For example, the update of the second difference value is realized by recalculating the average value of the difference values in consideration of the newly calculated first difference value.

たとえば、分析処理の処理回数がm回であるとすると、第2のテンポ差分値ΔTEMPO、第2のベロシティ差分値ΔVELおよび第2のゲートタイム差分値ΔGATEは、以下のように新たに算出される。   For example, if the number of times of analysis processing is m, the second tempo difference value ΔTEMPO, the second velocity difference value ΔVEL, and the second gate time difference value ΔGATE are newly calculated as follows. .

ΔTEMPO=(1/m)・((m−1)・ΔTEMPO+Δtempo)
ΔVEL=(1/m)・((m−1)・ΔVEL+Δtempo)
ΔGATE=(1/m)・((m−1)・ΔGATE+Δtempo)
新たに算出された第2の差分値はそれぞれRAM23中に格納される。
ΔTEMPO = (1 / m) · ((m−1) · ΔTEMPO + Δtempo)
ΔVEL = (1 / m) · ((m−1) · ΔVEL + Δtempo)
ΔGATE = (1 / m) · ((m−1) · ΔGATE + Δtempo)
Each newly calculated second difference value is stored in the RAM 23.

なお、デモ曲スタート・ストップスイッチ処理(図13、図14)においても、演奏家状態情報STATEに基づいて、テンポプリセット値データPR(0)、音量プリセット値データPR(1)およびゲートタイムプリセット値データPR(2)が変更されている(ステップ1309、ステップ1402、ステップ1404)。ここでも、たとえば、所定の正の計数γnを用いて、以下のように新たなPR(n)を算出すればよい。   In the demo song start / stop switch process (FIGS. 13 and 14), the tempo preset value data PR (0), the volume preset value data PR (1), and the gate time preset value are based on the player status information STATE. The data PR (2) has been changed (step 1309, step 1402, step 1404). Here, for example, a new PR (n) may be calculated as follows using a predetermined positive count γn.

PR(n)=PR(n)+STATE・γn・PR(n)
スイッチ処理(ステップ602)および鍵盤処理(ステップ603)が終了すると、CPU21は、デモ曲処理を実行する(ステップ604)。図19および図20は、本実施の形態にかかるデモ曲処理の例を示すフローチャートである。図19に示すように、CPU21は、スタートフラグSTFが「1」であるかを判断する(ステップ1901)。ステップ1901でYesと判断された場合には、タイマ周期に基づく最小単位時間が経過したかを判断する(ステップ1902)。ステップ1902でYesと判断された場合には、CPU21は、第2のタイマ値T2をデクリメントして(ステップ1903)、第2のタイマ値T2が「0」になったかを判断する(ステップ1904)。ステップ1904でYesと判断された場合には、CPU21は、現在発音中の楽音についてノートオフイベントを生成して、音源部26に送信する(ステップ1905)。次いで、CPU21は、第1のタイマ値T1をデクリメントして(ステップ1906)、第1のタイマ値T1が「0」になったかを判断する(ステップ1907)。ステップ1907でYesと判断された場合には、CPU21は、RAM23中の曲データエリアのアドレスを示すパラメータADをインクリメントする(ステップ1908)。
PR (n) = PR (n) + STATE · γn · PR (n)
When the switch process (step 602) and the keyboard process (step 603) are completed, the CPU 21 executes a demo music process (step 604). 19 and 20 are flowcharts showing an example of the demo song processing according to the present embodiment. As shown in FIG. 19, the CPU 21 determines whether the start flag STF is “1” (step 1901). If it is determined Yes in step 1901, it is determined whether the minimum unit time based on the timer period has elapsed (step 1902). When it is determined Yes in step 1902, the CPU 21 decrements the second timer value T <b> 2 (step 1903), and determines whether the second timer value T <b> 2 has become “0” (step 1904). . If it is determined Yes in step 1904, the CPU 21 generates a note-off event for the musical sound currently being generated and transmits it to the sound source unit 26 (step 1905). Next, the CPU 21 decrements the first timer value T1 (step 1906), and determines whether or not the first timer value T1 has become “0” (step 1907). If it is determined Yes in step 1907, the CPU 21 increments the parameter AD indicating the address of the song data area in the RAM 23 (step 1908).

次いで、CPU21は、RAM23中の曲データエリアにおいて、パラメータ(アドレス)ADが示す位置に曲データのレコードが存在しないかを判断する(ステップ1909)。曲データのレコードが存在しない場合(ステップ1909でYes)には、CPU21は、オールノートオフ処理を実行して、発音中のすべの楽音についてノートオフイベントを生成し、ノートオフイベントを音源部26に送信する(ステップ1910)。その後、CPU21は、スタートフラグSTFを「0」にリセットする(ステップ1911)とともに、タイマカウントを停止する(ステップ1912)。   Next, the CPU 21 determines whether or not there is a record of song data at the position indicated by the parameter (address) AD in the song data area in the RAM 23 (step 1909). If there is no record of song data (Yes in step 1909), the CPU 21 executes an all-note-off process to generate a note-off event for all musical tones that are sounding, and generates the note-off event as the sound source unit 26. (Step 1910). Thereafter, the CPU 21 resets the start flag STF to “0” (step 1911) and stops the timer count (step 1912).

ステップ1909でNoと判断された場合には、CPU21は、RAM23中、パラメータ(アドレス)ADが示す位置のデータを読み出して、そのデータ種別を判断する(ステップ2001)。データ種別がステップタイムであれば、CPU21は、データ値を、RAM23中の第1のタイマ値T1として格納する(ステップ2002)。データ種別がイベントであれば、CPU21は、ノートオンイベントを生成して、音源部26に送信する(ステップ2003)。   If it is determined No in step 1909, the CPU 21 reads data at the position indicated by the parameter (address) AD in the RAM 23 and determines the data type (step 2001). If the data type is the step time, the CPU 21 stores the data value as the first timer value T1 in the RAM 23 (step 2002). If the data type is an event, the CPU 21 generates a note-on event and transmits it to the sound source unit 26 (step 2003).

データ種別がゲートタイムであった場合には、CPU21は、ノートオフイベントを生成して、音源部26に送信する(ステップ2004)。その後、CPU21は、読み出されたゲートタイムを、ゲートタイムプリセット値データPR(2)に基づいて変更する。CPU21は、変更されたゲートタイムプリセット値を、RAM23中の第2のタイマ値T2として格納する(ステップ2005)。   If the data type is gate time, the CPU 21 generates a note-off event and transmits it to the sound source unit 26 (step 2004). Thereafter, the CPU 21 changes the read gate time based on the gate time preset value data PR (2). The CPU 21 stores the changed gate time preset value as the second timer value T2 in the RAM 23 (step 2005).

デモ曲処理(ステップ604)の後、音源部26は、音源発音処理を実行する(ステップ605)。音源発音処理においては、音源部26が、受信したノートオンイベントにしたがって、所定の音高およびベロシティで、楽音データを生成する。また、音源部26は、受信したノートオフイベントにしたがって、ノートオフイベントが示す音高の楽音を消音する。   After the demo song processing (step 604), the sound source unit 26 executes sound source sound generation processing (step 605). In the sound source sound generation process, the sound source unit 26 generates musical tone data with a predetermined pitch and velocity according to the received note-on event. In addition, the sound source unit 26 mutes the musical tone having the pitch indicated by the note-off event according to the received note-off event.

音源発音処理(ステップ605)の後、CPU21は、表示部14の更新などを含むその他の処理(ステップ606)を実行して、ステップ602に戻る。   After the sound source sound generation process (step 605), the CPU 21 executes other processes (step 606) including updating the display unit 14 and the like, and returns to step 602.

本実施の形態においては、パラメータ増減スイッチ処理において、テンポ、音量及びゲートタイムという演奏情報パラメータが、それぞれの最大値および最小値の範囲内で変更される。パラメータ増減スイッチにより値が増減されたテンポプリセット値データPR(0)により、タイマ周期、つまり、楽曲の再生速度が決定される(ステップ1405)。また、音量プリセット値データPR(1)によってデモ曲演奏の際のベロシティが調整される。また、ゲートタイムプリセット値データPR(2)によってデモ曲演奏の際のゲートタイム、つまり、鍵のオン時間が調整される。   In the present embodiment, in the parameter increase / decrease switch process, performance information parameters such as tempo, volume, and gate time are changed within the range of the maximum value and the minimum value. The timer period, that is, the playback speed of the music is determined by tempo preset value data PR (0) whose value has been increased or decreased by the parameter increase / decrease switch (step 1405). Further, the velocity at the time of demo music performance is adjusted by the volume preset value data PR (1). In addition, the gate time at the time of playing the demo song, that is, the key on time is adjusted by the gate time preset value data PR (2).

さらに、演奏情報パラメータの可変範囲である最大値および最小値は、演奏者による演奏により生成される演奏データと、デモ曲の曲データとの相違に基づいて決定される。   Further, the maximum value and the minimum value, which are variable ranges of the performance information parameter, are determined based on the difference between the performance data generated by the performance by the performer and the music data of the demo music.

本実施の形態においては、CPU21は、演奏者による鍵操作にしたがって、ノートオンイベント、次のノートオンイベントまでの時間を規定するステップタイム、および、消音までの時間を規定するゲートタイムを示すレコードを含む演奏データを生成する。また、CPU21は、デモ曲データを、テンポ情報に基づく所定のタイマ周期にしたがって読み出して、音源部26に発音或いは消音の指示を与える。さらに、CPU21は、演奏者によるスイッチ操作にしたがって、デモ曲を演奏するためのテンポを含む演奏情報を、それぞれの最上値および最小値の間で調整する。CPU11は、デモ曲データ記憶エリアに格納されたデモ曲データのレコードと、演奏データ記憶エリアに格納された演奏データのレコードとを比較して、演奏情報の可変範囲である最大値および最小値を決定する。したがって、演奏者の心理状態を反映していると考えられる実際の演奏に基づいて、デモ曲の自動演奏における演奏情報の可変範囲を適切に変更することが可能となる。   In the present embodiment, the CPU 21 records a note-on event, a step time that defines the time until the next note-on event, and a gate time that defines the time until mute according to the key operation by the performer. Performance data including is generated. Further, the CPU 21 reads the demo music data in accordance with a predetermined timer cycle based on the tempo information, and gives a sounding or muting instruction to the sound source unit 26. Further, the CPU 21 adjusts the performance information including the tempo for playing the demo song between the respective maximum and minimum values according to the switch operation by the performer. The CPU 11 compares the record of the demo song data stored in the demo song data storage area with the record of the performance data stored in the performance data storage area, and determines the maximum value and the minimum value that are the variable range of the performance information. decide. Therefore, it is possible to appropriately change the variable range of the performance information in the automatic performance of the demo song based on the actual performance considered to reflect the psychological state of the performer.

また、本実施の形態においては、第1のテンポ差分値Δtempoから、複数回の演奏による第1のテンポ差分値の平均値である第2のテンポ差分値ΔTEMPOを減じた第3のテンポ差分値Δtを求め、第3のテンポ差分値Δtに基づいて、テンポの可変範囲である最大値および最小値を決定している。   In the present embodiment, the third tempo difference value obtained by subtracting the second tempo difference value ΔTEMPO, which is an average value of the first tempo difference values obtained by performing a plurality of performances, from the first tempo difference value Δtempo. Δt is obtained, and based on the third tempo difference value Δt, the maximum value and the minimum value which are variable ranges of the tempo are determined.

また、本実施の形態において、同様に、第1のベロシティ差分値Δvelから、複数回の演奏による第1のベロシティ差分値の平均値である第2のベロシティ差分値ΔVELを減じた第3のベロシティ差分値Δvを求め、第3のベロシティ差分値Δvに基づいて、ベロシティの可変範囲である最大値および最小値を決定している。さらに、第1のゲートタイム差分値Δgateから、複数回の演奏による第1のゲートタイム差分値の平均値である第2のゲートタイム差分値ΔGATEを減じた第3のゲートタイム差分値Δgを求め、第3のゲートタイム差分値Δgに基づいて、ゲートタイムの可変範囲である最大値および最小値を決定している。   In the present embodiment, similarly, a third velocity obtained by subtracting a second velocity difference value ΔVEL, which is an average value of the first velocity difference values obtained by performing a plurality of performances, from the first velocity difference value Δvel. The difference value Δv is obtained, and based on the third velocity difference value Δv, the maximum value and the minimum value that are the variable range of the velocity are determined. Further, a third gate time difference value Δg obtained by subtracting the second gate time difference value ΔGATE, which is an average value of the first gate time difference values due to a plurality of performances, is obtained from the first gate time difference value Δgate. Based on the third gate time difference value Δg, the maximum value and the minimum value which are variable ranges of the gate time are determined.

演奏者がデモ曲の演奏を複数回行なうことで、演奏の傾向がより適切に現れることを考慮して、その演奏の傾向が反映される第2の差分値から、さらに第1の差分値がどのように変化したかを見て、演奏者状態情報を決定している。   Considering that the performance tendency appears more appropriately when the performer performs the performance of the demo song several times, the first difference value is further calculated from the second difference value reflecting the performance tendency. The player status information is determined by looking at how it has changed.

本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。   The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.

たとえば、前記実施の形態においては、複数の演奏による第1のテンポ差分値、第1のベロシティ差分値および第1のゲートタイム差分値の、それぞれの平均値である第2のテンポ差分値、第2のベロシティ差分値および第2のゲートタイム差分値を算出している。そして、第1の差分値と対応する第2の差分値を比較して、第3の差分値を得て、第3の差分値( Δt(第3のテンポ差分値)、Δv(第3のベロシティ差分値)、Δg(第3のゲートタイム差分値))から演奏者状態情報STATEを得ている。すなわち、演奏者がデモ曲の演奏を複数回行なうことで、演奏者の心理状態の傾向がより顕著に現れることを考慮して、その演奏の傾向が現れる第2の差分値から、さらに第1の差分値がどのように変化したかを見て、演奏者状態情報を決定している。   For example, in the above-described embodiment, the second tempo difference value, which is the average value of the first tempo difference value, the first velocity difference value, and the first gate time difference value due to a plurality of performances, 2 velocity difference values and second gate time difference values are calculated. Then, the second difference value corresponding to the first difference value is compared to obtain a third difference value, and the third difference value (Δt (third tempo difference value), Δv (third The player status information STATE is obtained from the velocity difference value) and Δg (third gate time difference value)). That is, in consideration of the fact that the player's psychological tendency tends to appear more prominently when the performer performs the demo song a plurality of times, the first difference value from which the performance tendency appears is further reduced to the first. The player status information is determined by looking at how the difference value of the player has changed.

しかしながら、これに限定されず、第3のテンポ差分値Δtの代わりに第1のテンポ差分値Δtempo、第3のベロシティ差分値Δvの代わりに第1のベロシティ差分値Δvel、第3のゲートタイム差分値Δgの代わりに第1のゲートタイム差分値Δgateを用いて、STATE=テーブル値(TABLE(Δtempo,Δvel,Δgate)を取得しても良い。これにより、単一の演奏による演奏者の心理状態を反映した、演奏者状態情報を取得し、さらに、これに基づき、演奏情報の最大値および最小値を決定することが可能となる。   However, the present invention is not limited to this. Instead of the third tempo difference value Δt, the first tempo difference value Δtempo, the third velocity difference value Δv instead of the first velocity difference value Δvel, and the third gate time difference. Instead of the value Δg, the first gate time difference value Δgate may be used to obtain STATE = table value (TABLE (Δtempo, Δvel, Δgate). Thereby, the player's psychological state by a single performance It is possible to acquire the player status information reflecting the above, and to determine the maximum value and the minimum value of the performance information based on this.

10 電子楽器
11 鍵盤
12 スイッチ部
14 表示部
16 鍵
21 CPU
22 ROM
23 RAM
24 サウンドシステム
26 音源部
27 オーディオ回路
28 スピーカ
DESCRIPTION OF SYMBOLS 10 Electronic musical instrument 11 Keyboard 12 Switch part 14 Display part 16 Key 21 CPU
22 ROM
23 RAM
24 Sound System 26 Sound Source 27 Audio Circuit 28 Speaker

Claims (9)

それぞれに音高が割り当てられている複数の演奏操作子と、
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成手段と、
楽曲を構成する楽音のそれぞれについて、音高を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、予め設定された第1のテンポに基づいて前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御手段と、
前記演奏者による入力にしたがって、前記第1のテンポの上限および下限を調整する演奏情報調整手段と、を備え、
前記演奏情報調整手段が、
前記演奏データに基づいて定まる第2のテンポから前記第1のテンポを減じた値に相当する第1のテンポ差分値を算出し、
前記第1のテンポ差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記第1のテンポの上限および下限を決定することを特徴とする自動演奏装置。
A plurality of performance controls each assigned a pitch, and
Performance data generating means for generating performance data including records indicating events, sound generation timings and mute timings according to the operation of the performance operator by the performer , and storing the performance data in the performance data storage area of the storage means;
For each of the musical sounds constituting the music, a record of music data including an event including the pitch, a record indicating the sound generation timing and the mute timing is stored in the music data storage area of the storage means based on a preset first tempo. By reading from, the music performance control means for generating performance information according to the event, sound generation timing and mute timing included in the record,
Performance information adjusting means for adjusting an upper limit and a lower limit of the first tempo in accordance with an input by the performer,
The performance information adjusting means is
Calculating a first tempo difference value corresponding to a value obtained by subtracting the first tempo from a second tempo determined based on the performance data;
Obtaining player psychological information indicating the player's psychological state based on the first tempo difference value, and determining an upper limit and a lower limit of the first tempo based on the acquired player psychological information. An automatic performance device characterized by
前記記憶手段が、前記演奏者による複数回の演奏に伴う前記第1のテンポ差分値の平均値に相当する第2のテンポ差分値を記憶し、
前記演奏情報調整手段が、
前記第2のテンポ差分値から第1のテンポ差分値を減じた、第3のテンポ差分値が大きくなるのにしたがって、前記第1のテンポの上限および下限をそれぞれ増大させるための、前記演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記演奏情報の第1のテンポの上限および下限を決定することを特徴とする請求項1に記載の自動演奏装置。
The storage means stores a second tempo difference value corresponding to an average value of the first tempo difference values associated with a plurality of performances by the performer;
The performance information adjusting means is
The performer for respectively increasing the upper limit and the lower limit of the first tempo as the third tempo difference value is increased by subtracting the first tempo difference value from the second tempo difference value. 2. The automatic performance apparatus according to claim 1, wherein psychological information is acquired, and upper and lower limits of a first tempo of the performance information are determined based on the acquired player psychological information.
それぞれに音高が割り当てられている複数の演奏操作子と、A plurality of performance controls each assigned a pitch, and
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成手段と、Performance data generating means for generating performance data including records indicating events, sound generation timings and mute timings according to the operation of the performance operator by the performer, and storing the performance data in the performance data storage area of the storage means;
楽曲を構成する楽音のそれぞれについて、音高を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御手段と、For each of the musical tones that make up the music, an event included in the record is obtained by reading from the music data storage area of the storage means a record of the music data including an event including the pitch, a record indicating the sound generation timing and the mute timing. Music performance control means for generating performance information according to the sounding timing and mute timing;
前記演奏者による入力にしたがって、前記演奏情報に含まれる、楽音の発音タイミングと消音タイミングとの間の時間であるゲートタイムの上限および下限を調整する演奏情報調整手段と、を備え、Performance information adjusting means for adjusting an upper limit and a lower limit of a gate time, which is a time between a sound generation timing and a mute timing, included in the performance information, according to the input by the performer,
前記演奏情報調整手段が、The performance information adjusting means is
前記演奏データにおける、それぞれの楽音についての第1のゲートタイムから前記楽曲データにおけるそれぞれの楽音についての第2のゲートタイムを減じた値に相当する第1のゲートタイム差分値を算出し、Calculating a first gate time difference value corresponding to a value obtained by subtracting a second gate time for each musical tone in the music data from a first gate time for each musical tone in the performance data;
前記第1のゲートタイム差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記ゲートタイムの上限および下限を決定することを特徴とする自動演奏装置。Obtaining player psychological information indicating the player's psychological state based on the first gate time difference value, and determining an upper limit and a lower limit of the gate time based on the acquired player psychological information. An automatic performance device.
前記記憶手段が、前記演奏者による複数回の演奏に伴う前記第1のゲートタイム差分値の平均値に相当する第2のゲートタイム差分値を記憶し、The storage means stores a second gate time difference value corresponding to an average value of the first gate time difference values associated with a plurality of performances by the performer;
前記演奏情報調整手段が、The performance information adjusting means is
前記第1のゲートタイム差分値から第2のゲートタイム差分値を減じた、第3のテンポ差分値が小さくなるのにしたがって、前記ゲートタイムの上限および下限をそれぞれ増大させるための、前記演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記ゲートタイムの上限および下限を決定することを特徴とする請求項3に記載の自動演奏装置。The performer for respectively increasing the upper limit and the lower limit of the gate time as the third tempo difference value decreases by subtracting the second gate time difference value from the first gate time difference value. The automatic performance device according to claim 3, wherein psychological information is acquired, and an upper limit and a lower limit of the gate time are determined based on the acquired player psychological information.
それぞれに音高が割り当てられている複数の演奏操作子と、A plurality of performance controls each assigned a pitch, and
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成手段と、Performance data generating means for generating performance data including records indicating events, sound generation timings and mute timings according to the operation of the performance operator by the performer, and storing the performance data in the performance data storage area of the storage means;
楽曲を構成する楽音のそれぞれについて、音高および音量を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御手段と、For each of the musical tones that make up the music, a record of music data including an event that includes the pitch and volume, a record that indicates the sound generation timing and the mute timing is included in the record by reading it from the music data storage area of the storage means Music performance control means for generating performance information according to the event to be generated, the sounding timing and the mute timing,
前記演奏者による入力にしたがって、前記演奏情報に含まれる、イベントの音量に相当するベロシティの上限および下限を調整する演奏情報調整手段と、を備え、Performance information adjusting means for adjusting an upper limit and a lower limit of velocity corresponding to the volume of the event included in the performance information according to the input by the performer,
前記演奏情報調整手段が、The performance information adjusting means is
前記演奏データにおける、それぞれの楽音についての第1のベロシティから前記楽曲データにおけるそれぞれの楽音についての第2のベロシティを減じた値に相当する第1のベロシティ差分値を算出し、Calculating a first velocity difference value corresponding to a value obtained by subtracting a second velocity for each musical tone in the music data from a first velocity for each musical tone in the performance data;
前記第1のベロシティ差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記演奏情報のベロシティの上限および下限を決定することを特徴とする自動演奏装置。Obtaining player psychological information indicating the player's psychological state based on the first velocity difference value, and determining an upper limit and a lower limit of the velocity of the performance information based on the acquired player psychological information. An automatic performance device characterized by
前記記憶手段が、前記演奏者による複数回の演奏に伴う前記第1のベロシティ差分値の平均値に相当する第2のベロシティ差分値を記憶し、The storage means stores a second velocity difference value corresponding to an average value of the first velocity difference values associated with a plurality of performances by the performer;
前記演奏情報調整手段が、The performance information adjusting means is
前記第1のベロシティ差分値から第2のベロシティ差分値を減じた、第3のベロシティ差分値が大きくなるのにしたがって、前記音量の上限および下限をそれぞれ増大させるための、前記演奏者心理情報を取得し、前記演奏者心理情報に基づき、前記演奏情報のベロシティの上限および下限を決定することを特徴とする請求項5に記載の自動演奏装置。The player psychological information for respectively increasing the upper limit and the lower limit of the volume as the third velocity difference value is increased by subtracting the second velocity difference value from the first velocity difference value. 6. The automatic performance apparatus according to claim 5, wherein the automatic performance device is obtained and an upper limit and a lower limit of velocity of the performance information are determined based on the player psychological information.
コンピュータに、 On the computer,
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成ステップと、A performance data generating step for generating performance data including a record indicating an event, a sound generation timing and a mute timing according to the operation of the performance operator by the performer, and storing the performance data in a performance data storage area of the storage means;
楽曲を構成する楽音のそれぞれについて、音高を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、予め設定された第1のテンポに基づいて前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御ステップと、For each of the musical sounds constituting the music, a record of music data including an event including the pitch, a record indicating the sound generation timing and the mute timing is stored in the music data storage area of the storage means based on a preset first tempo. A music performance control step for generating performance information in accordance with the event, sound generation timing and mute timing included in the record,
前記演奏者による入力にしたがって、前記第1のテンポの上限および下限を調整する演奏情報調整ステップと、を実行させ、Performing a performance information adjustment step of adjusting an upper limit and a lower limit of the first tempo in accordance with an input by the performer,
前記演奏情報調整ステップが、The performance information adjustment step includes:
前記演奏データに基づいて定まる第2のテンポから前記第1のテンポを減じた値に相当する第1のテンポ差分値を算出し、Calculating a first tempo difference value corresponding to a value obtained by subtracting the first tempo from a second tempo determined based on the performance data;
前記第1のテンポ差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記第1のテンポの上限および下限を決定するステップを含むことを特徴とする自動演奏プログラム。Obtaining player psychological information indicating the player's psychological state based on the first tempo difference value, and determining upper and lower limits of the first tempo based on the obtained player psychological information; The automatic performance program characterized by including.
コンピュータに、On the computer,
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成ステップと、A performance data generating step for generating performance data including a record indicating an event, a sound generation timing and a mute timing according to the operation of the performance operator by the performer, and storing the performance data in a performance data storage area of the storage means;
楽曲を構成する楽音のそれぞれについて、音高を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御ステップと、For each of the musical tones that make up the music, an event included in the record is obtained by reading from the music data storage area of the storage means a record of the music data including an event including the pitch, a record indicating the sound generation timing and the mute timing. A music performance control step for generating performance information according to the pronunciation timing and the mute timing;
前記演奏者による入力にしたがって、前記演奏情報に含まれる、楽音の発音タイミングと消音タイミングとの間の時間であるゲートタイムの上限および下限を調整する演奏情報調整ステップと、を実行させ、In accordance with the input by the performer, a performance information adjustment step for adjusting an upper limit and a lower limit of a gate time, which is a time between the sound generation timing and the mute timing included in the performance information, is executed,
前記演奏情報調整ステップが、The performance information adjustment step includes:
前記演奏データにおける、それぞれの楽音についての第1のゲートタイムから前記楽曲データにおけるそれぞれの楽音についての第2のゲートタイムを減じた値に相当する第1のゲートタイム差分値を算出し、Calculating a first gate time difference value corresponding to a value obtained by subtracting a second gate time for each musical tone in the music data from a first gate time for each musical tone in the performance data;
前記第1のゲートタイム差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記ゲートタイムの上限および下限を決定するステップを含むことを特徴とする自動演奏プログラム。Obtaining player psychological information indicating the player's psychological state based on the first gate time difference value, and determining upper and lower limits of the gate time based on the obtained player psychological information; An automatic performance program characterized by including.
コンピュータに、On the computer,
演奏者による演奏操作子の操作にしたがって、イベント、発音タイミングおよび消音タイミングを示すレコードを含む演奏データを生成して、記憶手段の演奏データ記憶エリアに格納する演奏データ生成ステップと、A performance data generating step for generating performance data including a record indicating an event, a sound generation timing and a mute timing according to the operation of the performance operator by the performer, and storing the performance data in a performance data storage area of the storage means;
楽曲を構成する楽音のそれぞれについて、音高および音量を含むイベント、発音タイミングおよび消音タイミングを示すレコードを含む楽曲データのレコードを、前記記憶手段の楽曲データ記憶エリアから読み出すことにより、前記レコードに含まれるイベント、発音タイミングおよび消音タイミングにしたがった演奏情報を生成する楽曲演奏制御ステップと、For each of the musical tones that make up the music, a record of music data including an event that includes the pitch and volume, a record that indicates the sound generation timing and the mute timing is included in the record by reading it from the music data storage area of the storage means Music performance control step for generating performance information according to the event to be played, the sounding timing and the mute timing,
前記演奏者による入力にしたがって、前記演奏情報に含まれる、イベントの音量に相当するベロシティの上限および下限を調整する演奏情報調整ステップと、を備え、A performance information adjusting step for adjusting an upper limit and a lower limit of velocity corresponding to the volume of the event included in the performance information in accordance with the input by the performer,
前記演奏情報調整ステップが、The performance information adjustment step includes:
前記演奏データにおける、それぞれの楽音についての第1のベロシティから前記楽曲データにおけるそれぞれの楽音についての第2のベロシティを減じた値に相当する第1のベロシティ差分値を算出し、Calculating a first velocity difference value corresponding to a value obtained by subtracting a second velocity for each musical tone in the music data from a first velocity for each musical tone in the performance data;
前記第1のベロシティ差分値に基づいて前記演奏者の心理状態を示す演奏者心理情報を取得し、前記取得された演奏者心理情報に基づき、前記演奏情報のベロシティの上限および下限を決定するステップを含むことを特徴とする自動演奏プログラム。Obtaining player psychological information indicating the player's psychological state based on the first velocity difference value, and determining an upper limit and a lower limit of the velocity of the performance information based on the obtained player psychological information; The automatic performance program characterized by including.
JP2010046051A 2010-03-03 2010-03-03 Automatic performance device and automatic performance program Active JP5600968B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010046051A JP5600968B2 (en) 2010-03-03 2010-03-03 Automatic performance device and automatic performance program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010046051A JP5600968B2 (en) 2010-03-03 2010-03-03 Automatic performance device and automatic performance program

Publications (2)

Publication Number Publication Date
JP2011180468A JP2011180468A (en) 2011-09-15
JP5600968B2 true JP5600968B2 (en) 2014-10-08

Family

ID=44691990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010046051A Active JP5600968B2 (en) 2010-03-03 2010-03-03 Automatic performance device and automatic performance program

Country Status (1)

Country Link
JP (1) JP5600968B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6071608B2 (en) 2012-03-09 2017-02-01 新日鐵住金ステンレス株式会社 Ferritic stainless steel plate with excellent oxidation resistance

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05108075A (en) * 1991-10-16 1993-04-30 Casio Comput Co Ltd Electronic musical instrument
JPH08221072A (en) * 1995-02-17 1996-08-30 Kawai Musical Instr Mfg Co Ltd Automatic accompaniment device
JP3449045B2 (en) * 1995-06-12 2003-09-22 ヤマハ株式会社 Performance control device
JP3675287B2 (en) * 1999-08-09 2005-07-27 ヤマハ株式会社 Performance data creation device
JP4748593B2 (en) * 2006-04-11 2011-08-17 株式会社河合楽器製作所 Electronic musical instruments

Also Published As

Publication number Publication date
JP2011180468A (en) 2011-09-15

Similar Documents

Publication Publication Date Title
JP4107107B2 (en) Keyboard instrument
JP6232850B2 (en) Touch detection device, touch detection method, electronic musical instrument, and program
JP7306402B2 (en) SOUND SIGNAL GENERATOR, KEYBOARD INSTRUMENT AND PROGRAM
JP6795102B2 (en) Sound signal generators, keyboard instruments and programs
JP5188863B2 (en) Electronic musical instruments
JP5897805B2 (en) Music control device
JP5732982B2 (en) Musical sound generation device and musical sound generation program
JP5600968B2 (en) Automatic performance device and automatic performance program
JP2023016956A (en) Electronic musical instrument, accompaniment sound indication method, program, and accompaniment sound automatic generation device
JP2010117419A (en) Electronic musical instrument
JP5827484B2 (en) Music control device
JP5692275B2 (en) Electronic musical instruments
JP5742592B2 (en) Musical sound generation device, musical sound generation program, and electronic musical instrument
JP5560574B2 (en) Electronic musical instruments and automatic performance programs
JP7332002B2 (en) Electronic musical instrument, method and program
JP4094441B2 (en) Electronic musical instruments
JP5564921B2 (en) Electronic musical instruments
JP5151603B2 (en) Electronic musical instruments
JP7124370B2 (en) Electronic musical instrument, method and program
JP3821117B2 (en) Wind instrument type electronic musical instrument
JP6102975B2 (en) Musical sound generation device, musical sound generation program, and electronic musical instrument
JP2017129611A (en) Electronic sound apparatus
JP4186855B2 (en) Musical sound control device and program
JP6305275B2 (en) Voice assist device and program for electronic musical instrument
JP2015148820A (en) Musical sound generation device and musical sound generation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140722

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140804

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5600968

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150