JP2658463B2 - Automatic performance device - Google Patents

Automatic performance device

Info

Publication number
JP2658463B2
JP2658463B2 JP1341018A JP34101889A JP2658463B2 JP 2658463 B2 JP2658463 B2 JP 2658463B2 JP 1341018 A JP1341018 A JP 1341018A JP 34101889 A JP34101889 A JP 34101889A JP 2658463 B2 JP2658463 B2 JP 2658463B2
Authority
JP
Japan
Prior art keywords
performance
data
time
input
player
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1341018A
Other languages
Japanese (ja)
Other versions
JPH03200289A (en
Inventor
茂 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KASHIO KEISANKI KK
Original Assignee
KASHIO KEISANKI KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KASHIO KEISANKI KK filed Critical KASHIO KEISANKI KK
Priority to JP1341018A priority Critical patent/JP2658463B2/en
Publication of JPH03200289A publication Critical patent/JPH03200289A/en
Application granted granted Critical
Publication of JP2658463B2 publication Critical patent/JP2658463B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、自動演奏装置に係り、更に詳しくは、演奏
者に実際に演奏操作をさせながら自動演奏用の演奏情報
を入力させ、その演奏情報を再生して自動演奏を行う自
動演奏装置に関する。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic performance apparatus, and more particularly, to a performance apparatus in which a player inputs performance information for automatic performance while actually performing a performance operation. The present invention relates to an automatic performance device that reproduces information and performs an automatic performance.

〔従来の技術〕[Conventional technology]

楽器を自動演奏させるための自動演奏装置において、
演奏音符データを入力する場合、大別して2通りの入力
の仕方がある。1つは、コンピュータ、シーケンサ等に
直接、音譜情報を符号化した音符データをキーボード等
を用いて入力していくもの、もう1つは、演奏者が直接
楽器を演奏しMIDI等のインターフェースを通じてデジタ
ルの音符情報に展開し、その情報をシーケンサ等に蓄積
するものである。前者は楽譜から正確に音符情報が生成
されるので音符に忠実であるが、演奏タイミング等に関
する演奏者の個人性は全く無視される。それに対し後者
は、演奏者の演奏した通りに音符情報が蓄積されるので
それを再生したとき、演奏者の個人性がそのまま再現さ
れる。後者において、例えば1人又は複数の演奏者が、
異なる楽譜パートを別々に演奏して自動演奏用の音符情
報を作成し、それらを合成(シーケンサ等の機能として
一般に実現される)してアンサンブルで自動演奏を行わ
せるような場合においては、各演奏間のリズムを同期さ
せる必要があり、そのために従来、一般的にはメトロノ
ーム等の拍子にあわせて演奏を行わせている。すなわ
ち、演奏者がヘッドホン等によりメトロノーム等の拍子
信号を聴きながらその拍子に合わせて演奏を行っていく
ものである。
In an automatic performance device for automatically playing a musical instrument,
When inputting performance note data, there are roughly two ways of inputting. One is to input musical note data directly into a computer, sequencer, etc. using a keyboard or the like. And stores the information in a sequencer or the like. The former is faithful to the notes because the note information is accurately generated from the musical score, but the individuality of the player regarding the performance timing and the like is completely ignored. On the other hand, in the latter, note information is accumulated as played by the player, and when the note information is reproduced, the individuality of the player is reproduced as it is. In the latter, for example, one or more performers
In the case where note information for automatic performance is created by playing different score parts separately, and these are synthesized (generally realized as a function of a sequencer or the like) and an automatic performance is performed in an ensemble, It is necessary to synchronize the rhythm between them, and for that purpose, conventionally, generally, the performance is performed in time with a metronome or the like. In other words, the performer performs a performance in accordance with the beat while listening to a beat signal of a metronome or the like using headphones or the like.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

しかし、上述のように演奏者がメトロノーム等に合わ
せて演奏を行う場合、メトロノーム等の拍子は機械的な
ものであり、常に一定間隔で拍子が刻まれているため、
演奏者のテンポとの間にずれを生じることが多い。ま
た、演奏者が無理にメトロノームに合わせて演奏を行お
うとするために演奏がぎこちなくなるという問題点を生
ずる。
However, as described above, when the player performs along with the metronome or the like, the time signature of the metronome or the like is mechanical, and the time signature is always engraved at a constant interval.
There is often a deviation from the player's tempo. In addition, there is a problem that the performance becomes awkward because the player forcibly tries to perform in accordance with the metronome.

本発明の課題は、演奏者自身が自分自身のテンポで拍
子をとりながら演奏を行い、その演奏データを基に演奏
者の個人性を保存するように音符データを正規化して、
自動演奏をできるようにすることにある。
An object of the present invention is to perform a performance while taking a time signature at a player's own tempo, and normalize note data so as to preserve the player's personality based on the performance data,
To enable automatic performance.

〔課題を解決するための手段〕[Means for solving the problem]

本発明は、楽音発生手段に演奏データを順次出力する
ことにより楽音発生手段に自動演奏を行わせる自動演奏
装置を前提とする。例えば自動演奏データの記録再生の
みを行う専用のシーケンサである。或いは、楽音発生手
段自身を内蔵した自動演奏機能付の電子楽器であっても
よい。
The present invention is premised on an automatic performance device that causes the musical sound generating means to perform an automatic performance by sequentially outputting performance data to the musical sound generating means. For example, it is a dedicated sequencer that performs only recording and reproduction of automatic performance data. Alternatively, an electronic musical instrument with an automatic performance function that incorporates the musical sound generating means itself may be used.

そして、まず、演奏者に演奏操作を行わせ、該演奏操
作に基づく演奏データを出力する演奏操作手段を有す
る。同手段は、例えば鍵盤である。同手段は、MIDI等を
介して外部に接続されるキーボード等の鍵盤等であって
もよい。
Firstly, there is provided a performance operation means for causing the player to perform a performance operation and outputting performance data based on the performance operation. The means is, for example, a keyboard. The means may be a keyboard or the like externally connected via MIDI or the like.

次に、演奏者に演奏操作と共に拍子タイミングを入力
させ、該入力操作に基づく拍子タイミングデータを出力
する拍子タイミング入力手段を有する。同手段は、例え
ば演奏者に4分音符の拍子で各拍子タイミングで足を入
力させるフットスイッチである。なお、勿論、拍子は2
分音符、8分音符又は16分音符等であってもよい。
Next, there is provided a beat timing input means for allowing the player to input beat timing together with the performance operation, and outputting beat timing data based on the input operation. The means is, for example, a foot switch that allows a player to input a foot at each beat timing in quarter note beats. Of course, the beat is 2
It may be a minute note, eighth note, sixteenth note, or the like.

続いて、演奏データ及び拍子タイミングデータを記憶
する記憶手段を有する。同手段は、例えばRAM等であ
る。
Subsequently, there is provided storage means for storing performance data and time signature data. The means is, for example, a RAM or the like.

加えて、演奏者の演奏操作に基づいて演奏操作手段及
び拍子タイミング入力手段から順次出力される演奏デー
タ及び拍子タイミングデータの入力タイミングを示す時
間データを生成し、該演奏データ及び拍子タイミングデ
ータと共に記憶手段に書き込む書込手段を有する。同手
段は、例えば前回の演奏データ又は拍子タイミングデー
タの入力時点から今回の同データの入力時点までのタイ
ミングを計測するタイマー回路を有し、その出力として
時間データを生成する。
In addition, time data indicating the input timing of the performance data and the time signature data sequentially output from the performance operation means and the time signature input means based on the performance operation of the player are generated and stored together with the performance data and the time signature data. Writing means for writing to the means. The means has, for example, a timer circuit for measuring the timing from the input time of the previous performance data or time signature data to the input time of the same data this time, and generates time data as its output.

更に、記憶手段に記憶されている時間的に隣り合う各
拍子タイミングデータによって定まる各区間の時間が相
互に等しくなるように、記憶手段に記憶されている各時
間データを正規化して書き換える時間データ書き換え手
段を有する。同手段は、例えば各拍子タイミングデータ
によって定まる例えば4分音符の各拍子区間の実時間を
計算する第1の実時間計算部を有する。また、同計算部
で求まった例えば4分音符の各拍子区間の実時間から、
例えば96分音符の実時間を計算する第2の実時間計算部
を有する。更に、各拍子区間内の各時間データの時間値
が、第2の実時間計算部で求まった例えば96分音符の実
時間の何倍になるかを計算し、その計算結果で前記時間
データを書き換える書き換え部を有する。
Further, time data rewriting for normalizing and rewriting each time data stored in the storage means so that the time of each section determined by each temporally adjacent time signature data stored in the storage means becomes equal to each other. Having means. The means has a first real time calculation unit that calculates the real time of each time period of, for example, a quarter note determined by each time signature data. Also, from the real time of each time period of a quarter note, for example, obtained by the calculation unit,
For example, it has a second real time calculator for calculating the real time of a 96th note. Further, it calculates how many times the time value of each time data in each time interval becomes the real time of, for example, a 96th note obtained by the second real time calculation unit, and calculates the time data by the calculation result. It has a rewriting unit for rewriting.

そして、上述の書き換え動作の後に、記憶手段に記憶
されている各時間データに基づくタイミングで、記憶手
段から各演算データを順次読み出して楽音発生手段に出
入する演奏再生手段を有する。同手段は、例えば記憶手
段の各アドレスから或る演奏データが読み出されたらそ
れを楽音発生手段に出力し、それに続いて時間データが
読み出されたらその時間データ分だけ例えばタイマー回
路でタイミングをとり、そのタイミングの後に次の演奏
データを読み出して楽音発生手段に出力する、という動
作を繰り返して、楽音発生手段に自動演奏を行わせる。
Then, after the above-mentioned rewriting operation, there is provided a performance reproducing means for sequentially reading out each operation data from the storage means at a timing based on each time data stored in the storage means and entering and exiting the musical tone generating means. For example, when certain performance data is read from each address of the storage means, it is output to the musical tone generation means, and when time data is subsequently read, the timing is adjusted by the time data by, for example, a timer circuit. Then, after that timing, the operation of reading the next performance data and outputting it to the musical tone generating means is repeated, thereby causing the musical tone generating means to perform an automatic performance.

〔作用〕[Action]

演奏者は、演奏者自身のテンポをフットスイッチ等の
拍子タイミング入力手段でとりながら、演奏操作手段で
演奏操作を行える。従って、演奏者はメトロノーム等の
一定の拍子に無理に合わせて演奏を行う必要がなく、演
奏がぎこちなくなることもなくなる。
The performer can perform a performance operation with the performance operation means while taking his / her own tempo with time signature input means such as a foot switch. Therefore, it is not necessary for the player to perform with a certain time signature such as a metronome, and the performance does not become awkward.

そして、演奏再生時に先立って、時間データ書き換え
手段が、時間的に隣り合う各拍子タイミングデータによ
って定まる各区間の時間が相互に等しくなるように、各
時間データを正規化して書き換える。すなわち、例えば
各区間が96音符を単位として24単位時間となるように正
規化される。しかも、各拍子区間においては、各区間内
の各時間データの相対的な時間データの比は保存したま
ま正規化が行われる。これにより、演奏者自身が1拍毎
のテンポを入力しつつ演奏を行うことにより、各拍子内
の時間データ間の相対的な時間関係は、演奏者の演奏し
た通りに保存され、しかも各拍子間のタイミングは正確
に均一化される。従って、演奏者の個人性を保存しつ
つ、演奏者間又は各演奏動作間のリズムのずれを解消す
ることができる。
Then, prior to the performance reproduction, the time data rewriting means normalizes and rewrites each time data so that the time of each section determined by each temporally adjacent time signature data becomes equal to each other. That is, for example, each section is normalized so as to be 24 unit times in units of 96 notes. In addition, in each beat section, normalization is performed while maintaining the relative time data ratio of each time data in each section. Thus, the player himself performs while inputting the tempo of each beat, so that the relative time relation between the time data in each beat is stored as played by the player, and furthermore, each beat is played. The timing between them is exactly equalized. Therefore, it is possible to eliminate the rhythm deviation between the players or between the performance operations while preserving the individuality of the players.

〔実施例〕〔Example〕

以下、本発明の実施例につき詳細に説明を行う。本実
施例は、自動演奏機能を有する電子楽器として実現され
る。なお、鍵盤等の演奏操作部及び楽音の発音動作を行
う楽音発生部が、MIDIインタフェースを介して外部に接
続され、自動演奏機能のみを有するシーケンサ等として
実現されてもよい。
Hereinafter, embodiments of the present invention will be described in detail. This embodiment is realized as an electronic musical instrument having an automatic performance function. It should be noted that a performance operation unit such as a keyboard and a tone generation unit that performs a tone generation operation may be connected to the outside via a MIDI interface, and may be realized as a sequencer having only an automatic performance function.

第1図は、本発明の実施例の全体構成図である。 FIG. 1 is an overall configuration diagram of an embodiment of the present invention.

まず、鍵盤部1は特には図示しない複数の鍵により構
成されており、演奏者は、この鍵盤部1より演奏データ
を入力する。該鍵盤部1には入力センス回路2が接続さ
れており、前記鍵盤部1の出力を基に押鍵、離鍵検出、
音符に対応するキーコード及び操作速度に対応するベロ
シティデータ等を出力する。
First, the keyboard section 1 is composed of a plurality of keys (not shown), and a player inputs performance data from the keyboard section 1. An input sense circuit 2 is connected to the keyboard unit 1, and based on the output of the keyboard unit 1, a key press, key release detection,
A key code corresponding to a note, velocity data corresponding to an operation speed, and the like are output.

またこれとは別に、演奏者自身のテンポを演奏操作と
同時に入力するための構成を含む演奏情報入力部3があ
る。演奏情報入力部3は、演奏、録音、再生の3種類の
モードからなる演奏モードを選択するための演奏モード
切り替えスイッチ3aと、演奏時のテンポを入力するため
のフットスイッチ3bと、録音の終了または再生の中断を
行うためのスイッチ3c、録音時のテンポを演奏者が入力
するか、一定のテンポにするかを決定するテンポ選択ス
イッチ3dと、再生時のテンポ値を決定するテンポ決定ス
イッチ3e、3fとから構成される。
Apart from this, there is a performance information input unit 3 including a configuration for inputting the player's own tempo simultaneously with the performance operation. The performance information input unit 3 includes a performance mode changeover switch 3a for selecting a performance mode consisting of three types of modes: performance, recording, and playback; a foot switch 3b for inputting a tempo during performance; Or a switch 3c for interrupting playback, a tempo selection switch 3d for determining whether the player inputs a tempo for recording or a fixed tempo, and a tempo determination switch 3e for determining a tempo value during playback. , 3f.

演奏情報入力部3の出力は演奏情報検出回路4に入力
される。演奏情報検出回路4は上述の3a〜3fの各スイッ
チの状態を検知しスイッチの種類に応じて、中央制御位
置5による制御に基づいて、後述する演奏情報記憶部7
と演奏データ記憶部8に検知データの蓄積を行う。
The output of the performance information input unit 3 is input to the performance information detection circuit 4. The performance information detecting circuit 4 detects the state of each of the switches 3a to 3f described above, and, based on the control by the central control position 5, according to the type of the switch, performs a performance information storage unit
Then, the detection data is stored in the performance data storage unit 8.

中央制御装置(CPU、以下同じ)5は、プログラム記
憶部6と、演奏情報記憶部7と、演奏データ記憶部8に
バスを介して接続されており、予めプログラム記憶部6
に蓄えられているプログラムに基づき各処理を行う。具
体的には演奏者により入力される演奏データを、入力セ
ンス回路2より抽出し、演奏データ記憶部8に蓄積する
と同時に、演奏情報入力部3のフットスイッチ3bから出
力されるテンポ情報を演奏情報検出回路4を経て演奏デ
ータ記憶部8に蓄積していく。また前記演奏情報入力部
3のスイッチ3a、3c〜3fから出力される各情報は、演奏
情報検出回路4を経て演奏情報記憶部7に随時記憶され
る。演奏情報記憶部7の内容は、例えば第2図のように
構成され、スイッチが押下されているときは図中のテー
ブル内に「1」が、押下されていないときは「0」が格
納される。CPU5は、演奏情報記憶部7に記憶された演奏
情報を常に監視しており、演奏情報の状態に応じて、必
要なプログラムをプログラム記憶部6より読み込みプロ
グラムの実行を行う。
The central control unit (CPU, hereinafter the same) 5 is connected to the program storage unit 6, the performance information storage unit 7, and the performance data storage unit 8 via a bus.
Each processing is performed based on the program stored in the. Specifically, the performance data input by the player is extracted from the input sense circuit 2 and stored in the performance data storage unit 8, and at the same time, the tempo information output from the foot switch 3b of the performance information input unit 3 is converted to the performance information. The data is stored in the performance data storage unit 8 via the detection circuit 4. Each piece of information output from the switches 3a, 3c to 3f of the performance information input unit 3 is stored in the performance information storage unit 7 via the performance information detection circuit 4 as needed. The contents of the performance information storage unit 7 are configured as shown in FIG. 2, for example. When the switch is pressed, "1" is stored in the table in the figure, and when the switch is not pressed, "0" is stored. You. The CPU 5 constantly monitors the performance information stored in the performance information storage unit 7, reads a necessary program from the program storage unit 6 and executes the program according to the state of the performance information.

また本実施例においては、演奏者のテンポをカウント
するタイマ部9と、演奏再生時のテンポ等を表示するLE
D表示部10と、演奏再生時のテンポを記憶するテンポ値
変換テーブル11が、バスを介してCPU5に接続される。
Further, in this embodiment, a timer unit 9 for counting the tempo of the player, and an LE for displaying the tempo and the like at the time of playing the performance.
A D display unit 10 and a tempo value conversion table 11 for storing a tempo during performance reproduction are connected to the CPU 5 via a bus.

またさらに、本実施例においては、演奏データ記憶部
8に蓄積された演奏データに基づき、デジタル楽音信号
を生成する楽音発生回路12がバスを介してCPU5に接続さ
れ、同回路にデジタル楽音信号をアナログ楽音信号に変
換するD/Aコンバータ13、増幅器14及びスピーカ15が順
次接続され、楽音発生部を構成する。
Further, in the present embodiment, a tone generating circuit 12 for generating a digital tone signal based on the performance data stored in the performance data storage unit 8 is connected to the CPU 5 via a bus, and the digital tone signal is sent to the circuit. A D / A converter 13, an amplifier 14, and a speaker 15 for converting into an analog musical tone signal are sequentially connected to form a musical tone generating section.

以上の構成からなる第1図の電子楽器につき、各部の
詳細な構成を説明しつつ、動作を説明していく。
The operation of the electronic musical instrument of FIG. 1 having the above configuration will be described while describing the detailed configuration of each section.

第3図は演奏者による演奏データの入力から、再生
(自動演奏)までの一連の実行手順を示している。
FIG. 3 shows a series of execution procedures from input of performance data by a player to reproduction (automatic performance).

まず、演奏者によって演奏情報入力部3の演奏モード
切り替えスイッチ3aが録音モードを示す“rec"に、ま
た、テンポ選択スイッチ3dが演奏者自身がテンポを入力
するモードにセットされる(第3図M1)。
First, the performance mode changeover switch 3a of the performance information input section 3 is set to "rec" indicating the recording mode by the player, and the tempo selection switch 3d is set to a mode in which the player himself inputs the tempo (FIG. 3). M1).

次に、演奏者がフットスイッチ3bを押下すると演奏開
始モードになる(第3図M2)。
Next, when the player presses the foot switch 3b, a performance start mode is set (M2 in FIG. 3).

演奏者は自らテンポをフットスイッチ3bより入力しつ
つ、鍵盤部1より楽音の入力を行う。上述のテンポ情報
と楽音情報はそれぞれ、入力センサ回路2と演奏情報検
出回路4を経て、随時演奏データ記憶部8に演奏データ
として蓄積される。この際演奏データ記憶部に蓄積され
る演奏データは、例えば第4図のようになる。最初のア
ドレスには初めてフットスイッチが押下され演奏開始状
態になったときstartイベントデータが書き込まれ、タ
イマー部9が動作を初める。その後、鍵盤部1もしくは
フットスイッチ3bより楽音情報もしくはテンポ情報が入
力される毎に対応したイベントデータ(キーオンイベン
ト、キーオフイベント、テンポイベント等)が書き込ま
れ、タイマー部9で計測された或るイベントと次のイベ
ントまでの時間が書き込まれる(以上、第3図M3)。
The player inputs a tone from the keyboard 1 while inputting the tempo by the foot switch 3b. The above-mentioned tempo information and musical sound information are stored as performance data in the performance data storage unit 8 as needed via the input sensor circuit 2 and the performance information detection circuit 4. At this time, the performance data stored in the performance data storage unit is, for example, as shown in FIG. When the foot switch is pressed for the first time and the performance starts, the start event data is written in the first address, and the timer unit 9 starts operating. Thereafter, every time tone information or tempo information is input from the keyboard 1 or the foot switch 3b, corresponding event data (key-on event, key-off event, tempo event, etc.) is written, and a certain event measured by the timer 9 And the time until the next event are written (above, M3 in FIG. 3).

以上の動作が、演奏終了を示すスイッチ3cが押下され
るまで繰り返され、その時点で演奏データ記憶部8には
演奏終了を示すendイベントが書き込まれる(第4図参
照)。演奏者により演奏終了を示すスイッチ3cが押下さ
れると、その情報は演奏情報記憶部7に記憶され、中央
制御装置5は演奏情報記憶部7に記憶された情報を読み
取り、演奏データを演奏データ記憶部8に蓄積すること
を終了する(以上、第3図M4)。
The above operation is repeated until the switch 3c indicating the end of the performance is pressed, at which point an end event indicating the end of the performance is written in the performance data storage section 8 (see FIG. 4). When the player presses the switch 3c indicating the end of the performance, the information is stored in the performance information storage unit 7, and the central control unit 5 reads the information stored in the performance information storage unit 7, and stores the performance data in the performance data. The storage in the storage unit 8 ends (M4 in FIG. 3).

続いてCPUは、演奏データ記憶部8に蓄積された音符
データのうち時間データのみを書き換える処理を実行す
る。この処理においては、演奏者が演奏時にフットスイ
ッチ3bより入力したテンポ信号に基づいて時間軸の正規
化が行われ、演奏データ記憶部8に記憶されている演奏
データのうち時間データのみが書き直されていくと同時
に、LED表示部10に時間データ書き換え中を示すLEDを点
灯する(以上、第3図M5)。
Subsequently, the CPU executes a process of rewriting only the time data among the note data stored in the performance data storage unit 8. In this process, the time axis is normalized based on the tempo signal input from the foot switch 3b during the performance of the player, and only the time data out of the performance data stored in the performance data storage unit 8 is rewritten. At the same time, the LED indicating that the time data is being rewritten is turned on on the LED display section 10 (M5 in FIG. 3).

その後、演奏情報入力部3のスイッチ3e、3fにより再
生時の演奏テンポが入力されると、その信号に応じて中
央制御装置5はLED表示部10にテンポを表示し、その値
をテンポ値変換テーブル11に格納する(第3図M6)。
Thereafter, when the performance tempo at the time of reproduction is input by the switches 3e and 3f of the performance information input section 3, the central controller 5 displays the tempo on the LED display section 10 in accordance with the signal, and converts the value into a tempo value conversion. It is stored in the table 11 (FIG. 3, M6).

そして、演奏者が演奏モード切り替えスイッチ3aを自
動再生を示す“auto"にし、フットスイッチ3bを押下す
ることにより演奏テンポの正規化された演奏データが、
演奏データ記憶部8から順次読み出され、再生される
(第3図M7)。
Then, when the player sets the performance mode changeover switch 3a to "auto" indicating automatic reproduction and presses the foot switch 3b, the performance data in which the performance tempo is normalized is obtained.
The music data is sequentially read from the performance data storage unit 8 and reproduced (FIG. 3, M7).

次に、本発明に特に関連する第3図M5の時間データ書
き換えの処理につき、詳細に説明する。
Next, the processing of rewriting the time data in FIG. 3 M5 particularly related to the present invention will be described in detail.

第5図は、第3図M5の時間データ書き換え処理の詳細
な動作フローチャートであり、この制御はCPU5がプログ
ラム記憶部6のプログラムを実行することにより実現さ
れる。なお、以下の処理で使用される各変数データAD
R、Rs、Re、P、Q、T、X、Y、Zは、第1図の演奏
情報記憶部7内のワーク領域上の変数データとして確保
される。以下の説明では、各変数データには適宜機械的
な名称が付与されて説明される。
FIG. 5 is a detailed operation flowchart of the time data rewriting process of FIG. M5, and this control is realized by the CPU 5 executing the program in the program storage unit 6. In addition, each variable data AD used in the following processing
R, Rs, Re, P, Q, T, X, Y, and Z are secured as variable data on a work area in the performance information storage unit 7 in FIG. In the following description, each variable data will be described by appropriately giving a mechanical name.

また、以下の処理では、第1図の演奏データ記憶部8
に第7図(a)に示されるような演奏データが記憶され
ている場合を例に説明する。第7図(a)の例では、E2
〜E6が各々鍵盤部1での演奏操作に基づくノートオンイ
ベント・ノートオフイベント等のデータであり、P4、P5
がフットスイッチ3bでのテンポ入力操作に基づくテンポ
イベントのデータである。そして、t1〜t6は、上述の各
イベントデータ間のタイミングを示す時間データであ
る。
In the following processing, the performance data storage unit 8 shown in FIG.
An example in which performance data as shown in FIG. 7A is stored will be described. In the example of FIG. 7A, E2
E6 to E6 are data of a note-on event, a note-off event, and the like based on a performance operation on the keyboard 1, respectively.
Are the data of the tempo event based on the tempo input operation with the foot switch 3b. Then, t 1 ~t 6 is the time data indicating the timing between each event data described above.

第5図において、まず、S1でスイッチ3dの状態が検出
され、演奏者によるテンポ入力の状態にあるか否かが判
別される。演奏者によるテンポ入力の状態でなければ以
下の処理は行わず、第3図M5の時間データ書き換え処理
は実質的に実行されない。
In FIG. 5, first, the state of the switch 3d is detected in S1, and it is determined whether or not the player is in a state of tempo input. If the tempo is not input by the player, the following processing is not performed, and the time data rewriting processing in FIG. M5 is not substantially executed.

逆に、演奏者によるテンポ入力の状態であるならば、
S2で初期状態の設定処理が行われる。ここでは、S21及
びS22で、次に処理すべき演奏データのアドレスADR及び
加算開始アドレスRsが共に1にセットされる。そして、
S23で後述するタイマー値Qの値が255に初期設定され、
更に、S24でLED表示部10に時間データ書き換え中を示す
LEDが点灯される。なお、S23でセットされるタイマー値
Qの値は0以外の値であれば何でもよい。この意味につ
いては後述する。
On the contrary, if the tempo is entered by the player,
In S2, an initial state setting process is performed. Here, in S21 and S22, the address ADR of the performance data to be processed next and the addition start address Rs are both set to 1. And
In S23, the value of the timer value Q described later is initialized to 255,
Further, at S24, the LED display unit 10 indicates that the time data is being rewritten.
LED turns on. The value of the timer value Q set in S23 may be any value other than 0. This meaning will be described later.

次に、S3においては、演奏データ記憶部8の記憶内容
において、特にフットスイッチ3bが押されたことを示す
テンポイベントに着目して、各テンポイベントから次の
テンポイベントまで(演奏開始時点ではstartイベント
から最初のテンポイベントまで)の実時間が計算され
る。
Next, in S3, focusing on a tempo event indicating that the foot switch 3b is pressed in the contents stored in the performance data storage unit 8, from each tempo event to the next tempo event (at the start of the performance, start The actual time (from the event to the first tempo event) is calculated.

すなわち、まず、S31において累算時間データX(後
述する)が0にリセットされる。
That is, first, in S31, the accumulated time data X (described later) is reset to 0.

次に、S32で演奏データ記憶部8のアドレスADRで示さ
れるアドレスの内容が読み出され、変数Yにセットされ
る。今、アドレスADRの内容は1であり(S21参照)、演
奏データ記憶部8上の奇数アドレスには第7図に示され
るように時間データ、偶数アドレスにはイベントデータ
が記憶されているため、変数Yには最初の時間データが
格納される。この変数Yに読み出された時間データは、
S33において累算時間データX(S31でリセットされてい
る)に累算される。
Next, in S32, the contents of the address indicated by the address ADR in the performance data storage section 8 are read out and set to a variable Y. Now, the content of the address ADR is 1 (see S21), and the odd address on the performance data storage section 8 stores time data as shown in FIG. 7 and the even address stores event data. The variable Y stores the first time data. The time data read to this variable Y is
In S33, the accumulated time data is accumulated to the accumulated time data X (reset in S31).

続いて、S34においてアドレスADRがインクリメントさ
れて偶数アドレスにされ、続くS35で演奏データ記憶部
8の偶数アドレスに格納されているイベントデータが変
数Zに読み込まれる。
Subsequently, the address ADR is incremented to an even address in S34, and the event data stored in the even address of the performance data storage unit 8 is read into the variable Z in S35.

このイベントデータがendイベント又はテンポイベン
トでない間は、S36の判別がNOとなり、S37でアドレスAD
Rが再び奇数アドレスにされ、再びS32が実行されて次の
時間情報が変数Yに読み込まれる、というようにしてS3
2〜S37の処理が繰り返される。
While this event data is not an end event or a tempo event, the determination in S36 is NO, and the address AD is determined in S37.
R is again set to an odd address, S32 is executed again, the next time information is read into the variable Y, and so on.
The processing of 2 to S37 is repeated.

以上の処理の繰り返しの後、S35で変数Zにテンポイ
ベント又はendイベントが読み出され、S36の判定がYES
となった時点で、累算時間データXは、startイベント
又は前回のテンポイベントから次のテンポイベントまで
の実時間を示している。この実時間は、演奏者が1拍と
して入力した1区間の累算時間を示している。
After the above processing is repeated, the tempo event or the end event is read out to the variable Z in S35, and the determination in S36 is YES.
At this point, the accumulated time data X indicates the actual time from the start event or the previous tempo event to the next tempo event. This real time indicates the accumulated time of one section that the player has input as one beat.

第7図(a)の例では、まず、startイベントからテ
ンポイベントP4までの区間で、第5図S32〜S37の処理が
繰り返される。これにより、累算時間データXの値は、 X=t1+t2+t3 ……(1) となる。(第7図(b)参照)。
In the example of FIG. 7A, first, the processes of S32 to S37 in FIG. 5 are repeated in a section from the start event to the tempo event P4. Thus, the value of the accumulated time data X is X = t 1 + t 2 + t 3 (1). (See FIG. 7 (b)).

次に、S35で変数Zにテンポイベント或いはendイベン
トが読み出され、S36の判定がYESとなると、S4に進む。
S4において、変数Zの内容がendイベントでなくてテン
ポイベントであればS41の判定がYESとなり、S42に進
む。ここでは、累算時間データXで表される1拍の区間
において、96分音符が何秒になるかが計算される。本実
施例では、演奏者に対して4分音符を1拍としてフット
スイッチ3bを操作するように指定している。そして、4
分音符は96分音符の24個分であるため、96分音符の実時
間を計算するためには、S42の如く、1拍の時間を示す
累算時間データXの値を24で割ればよい。この詳細な動
作フローチャートを、第6図に示す。同図に示されるよ
うに、第5図S42での除算動作は、第6図S423、S424
で、累算時間データXから12ずつ順次減算を行うことに
より実現されており、その結果は11捨12入され、最終的
にS423で累算されるタイマー値Q(S421で0にリセット
されている)として求まる。
Next, a tempo event or an end event is read into the variable Z in S35, and if the determination in S36 is YES, the process proceeds to S4.
In S4, if the content of the variable Z is not an end event but a tempo event, the determination in S41 is YES and the process proceeds to S42. Here, how many seconds a 96th note becomes in a one-beat section represented by the accumulated time data X is calculated. In this embodiment, the player is instructed to operate the foot switch 3b with a quarter note as one beat. And 4
Since the 1/8 note is 24 96th notes, the actual time of the 1 / 96th note can be calculated by dividing the value of the accumulated time data X indicating one beat time by 24 as in S42. . The detailed operation flowchart is shown in FIG. As shown in the figure, the division operation in S42 in FIG.
This is realized by sequentially subtracting 12 from the accumulated time data X, and the result is rounded off by 11 and finally the timer value Q accumulated at S423 (reset to 0 at S421). Is).

上述の動作の後、S43において、現在のアドレスADRか
ら1減算した値が加算終了アドレスReとされる。これに
より加算終了アドレスReは、前述のS32〜S37の処理で検
出された区間において最後の時間データが格納されてい
るアドレスとなる。この役割については後述する。
After the above operation, in S43, a value obtained by subtracting 1 from the current address ADR is set as the addition end address Re. As a result, the addition end address Re becomes an address where the last time data is stored in the section detected in the above-described processing of S32 to S37. This role will be described later.

なお、S4において、変数Zの内容がendイベントの場
合は、S41の判定がNOとなり、S44に進む。ここでは、上
述のタイマー値Qの計算はなされず、現在のアドレスAD
Rに1加算した値が加算終了アドレスReとされる。これ
により加算終了アドレスReは、前述のS32〜S37の処理で
検出された区間においてendイベントが格納されている
最終アドレスの次のアドレスとなる。この役割について
は後述する。
If the content of the variable Z is an end event in S4, the determination in S41 is NO, and the process proceeds to S44. Here, the above-described calculation of the timer value Q is not performed, and the current address AD is calculated.
A value obtained by adding 1 to R is set as an addition end address Re. As a result, the addition end address Re becomes the address next to the last address in which the end event is stored in the section detected in the above-described processing of S32 to S37. This role will be described later.

上記S4の処理を、前述した第7図(a)又は(b)の
startイベントからテンポイベントP4までの区間の例で
説明すると、次のようになる。すなわち、累算時間デー
タXの値は、前述の(1)式の如く、 X=t1+t2+t3 であるから、タイマー値Qは、 Q=(t1+t2+t3)/24 ……(2) となる。また、現在のアドレスADRは、第7図(a)の
アドレス6を示しているため、加算終了アドレスReは、
S43により、 Re=6−1=5 ……(3) となり、時間データt3の格納アドレスとなる。
The processing of the above S4 is performed in the same manner as in FIG.
The following is an example of a section from the start event to the tempo event P4. That is, since the value of the accumulated time data X is X = t 1 + t 2 + t 3 as in the above equation (1), the timer value Q is: Q = (t 1 + t 2 + t 3 ) / 24. ... (2) Also, since the current address ADR indicates the address 6 in FIG. 7A, the addition end address Re is
The S43, Re = 6-1 = 5 ...... (3) , and becomes a storage address of the time data t 3.

次に、第5図のS5において、1拍内での演奏操作に基
づくイベントデータ間の各時間データが96分音符を単位
としてその何倍の時間を持つかという情報に書き直され
てゆく。
Next, in S5 of FIG. 5, each time data between event data based on a performance operation within one beat is rewritten into information indicating how many times the time data is in units of 96th notes.

まず、S501において、後述する動作のために音符累算
値Pが0にリセットされ、次に、S502において、アドレ
スADRに加算開始アドレスRsがセットされる。そして、S
503〜S508の処理の繰り返しにより、加算開始アドレスR
sから加算終了アドレスReの直前までの区間において(S
503)、順次時間データが格納されている奇数アドレス
が指定されながら(S508)、各時間データが以下のよう
に書き直されてゆく。すなわち、S504で、現在のアドレ
スADRで示される時間データが変数Yに格納され、S505
で、その時間データが前述のタイマー値Qで除算され、
音符データTとされる。そして、この音符データTが、
現在のアドレスADRに新たに設定される。今、タイマー
値Qは、現在の区間における96分音符の実時間を表して
いるため、これにより各時間データが96分音符の何倍か
が計算される。また、上記繰り返しにおいて、S507で、
音符累算値P(前述のS501においてリセットされてい
る)に上述の正規化された時間データである音符データ
Tが順次累算されてゆく。この音符累算値Pの役割につ
いては後述する。
First, in S501, the note accumulation value P is reset to 0 for the operation described later, and then, in S502, the addition start address Rs is set in the address ADR. And S
By repeating the processing of 503 to S508, the addition start address R
In the section from s to immediately before the addition end address Re, (S
503) While the odd addresses where the time data are stored are sequentially specified (S508), each time data is rewritten as follows. That is, in S504, the time data indicated by the current address ADR is stored in the variable Y, and in S505
Then, the time data is divided by the aforementioned timer value Q,
Note data T is set. And this note data T is
It is newly set to the current address ADR. Now, since the timer value Q represents the actual time of the 96th note in the current section, the time data is calculated as a multiple of the 96th note. In the above repetition, in S507,
The note data T, which is the normalized time data, is successively accumulated in the note accumulation value P (reset in S501). The role of the note accumulation value P will be described later.

そして、現在のアドレスADRが加算終了アドレスReに
等しくなると、S503の判定がYESとなり、更に、変数Z
の内容がendイベントでなくテンポイベントであれば、S
509の判定がYESとなり、S510〜S512の処理が実行され
る。ここでは、現在の区間の最後の時間データの正規
化、並びに加算開始アドレスRsとアドレスADRの再設定
が行われる。
When the current address ADR becomes equal to the addition end address Re, the determination in S503 becomes YES, and the variable Z
If the content of is not an end event but a tempo event, S
The determination at 509 is YES, and the processing of S510 to S512 is executed. Here, normalization of the last time data of the current section and resetting of the addition start address Rs and the address ADR are performed.

まず、最後の時間データに対しては、前述のS505のよ
うにして正規化を行うのではなく、S510の処理により正
規化が行われる。すなわち、1拍(4分音符)は96分音
符の24個分であるため、最後の時間データは、1拍全体
を示す24から、S505の繰り返しで計算された各時間デー
タに対応する各音符データTの累算値を引いた値で表現
される。この累算値は、前述のS507の処理により音符累
算値Pとして求まっているため、最後の時間データは、
24から音符累算値Pを減算することにより求まる。この
ように処理することにより、前述のS42に対応する第6
図での除算処理による誤差の蓄積を防ぐことができる。
First, the last time data is not normalized as in S505 described above, but is normalized by the processing in S510. That is, since one beat (quarter note) is equivalent to 24 96th notes, the last time data is obtained from 24 indicating the entire beat, and each note corresponding to each time data calculated by repeating S505. It is represented by a value obtained by subtracting the accumulated value of the data T. Since this accumulated value has been obtained as the note accumulated value P by the processing of S507 described above, the last time data is
It is obtained by subtracting the note accumulation value P from 24. By performing such processing, the sixth processing corresponding to S42 described above is performed.
Accumulation of errors due to the division processing in the figure can be prevented.

次に、S511で、加算終了アドレスReの値に2を加算し
た値が新たな加算開始アドレスRsとされる。今、加算終
了アドレスReは、前述のS32〜S37の処理で検出された区
間において最後の時間データが格納されているアドレス
であるため、+2することにより、上記区間の次の区間
の先頭の時間データが格納されているアドレスとなる。
そして、この加算開始アドレスRsは、S512において、同
時にアドレスADRにもセットされる。
Next, in S511, a value obtained by adding 2 to the value of the addition end address Re is set as a new addition start address Rs. Now, since the addition end address Re is the address where the last time data is stored in the section detected in the above-described processing of S32 to S37, by adding +2, the start time of the next section following the above section is obtained. This is the address where the data is stored.
Then, the addition start address Rs is also set to the address ADR at S512.

この動作の後は、前述のS3の処理に戻り、次のテンポ
イベントまでの1拍分の区間の実時間が計算され、上述
と同様の処理が繰り返される。
After this operation, the process returns to the above-described step S3, the actual time of one beat section until the next tempo event is calculated, and the same processing as described above is repeated.

上記S5の処理を、前述した第7図(a)又は(b)の
startイベントからテンポイベントP4までの区間の例で
説明すると、次のようになる。すなわち、S42の処理で
前述の(2)式のように求まるタイマー値Qを用いて、
各時間データt1及びt2は、S505において、各々、 というように正規化される。
The processing of S5 described above is performed according to FIG. 7 (a) or (b).
The following is an example of a section from the start event to the tempo event P4. That is, by using the timer value Q obtained in the processing of S42 as in the above-described equation (2),
The respective time data t 1 and t 2 are, in S505, It is normalized as follows.

また、t1及びt2の正規化が終わった時点で、S507の処
理で音符累算値Pは、(4)式より、 P=t1/Q+t2/Q ……(5) となる。(5)式により、上記区間の最後の時間データ
t3は、S510において、 T=24−P =24−(t1/Q+t2/Q) ……(6) というように正規化される。
At the time when the normalization of t 1 and t 2 is completed, the note accumulation value P in the processing of S507 is given by P = t 1 / Q + t 2 / Q (5) from the equation (4). From equation (5), the last time data of the above section
t 3, at S510, T = 24-P = 24- (t 1 / Q + t 2 / Q) is normalized such that ... (6).

この動作の後、次区間の加算開始アドレスRsは、S511
において、前述の(3)式より、 Rs=Re+2=5+2=7 ……(7) として求まり、テンポイベントP4〜P5で定まる区間の最
初の時間データt4の格納アドレスとなる。この加算開始
アドレスRsは、S512において、同時にアドレスADRとさ
れる。
After this operation, the addition start address Rs in the next section becomes S511
In, from the foregoing equation (3), Motomari as Rs = Re + 2 = 5 + 2 = 7 ...... (7), the first time store the address of the data t 4 of the section defined by the tempo event P4~P5. This addition start address Rs is simultaneously set as the address ADR in S512.

以上の如くして、第7図(a)又は(b)のstartイ
ベントからテンポイベントP4までの1拍分における各イ
ベントデータ間の時間データt1、t2及びt3が正規化され
る。
As described above, the time data t 1 , t 2, and t 3 between event data in one beat from the start event to the tempo event P 4 in FIG. 7A or 7 B are normalized.

続いて、第7図(a)又は(b)のテンポイベントP4
からテンポイベントP5までの区間に対しても、上述の場
合と全く同様の処理が実行されるが、この区間内では、
テンポイベント以外のイベントは発生していないため、
S502からS503の処理に移った時点でS503の判定はすぐに
YESとなり、S504〜S508の処理は実行されない。そし
て、S509の判定のYESとなって、S510の処理が実行され
る。この場合、音符累算値Pは、S501でリセットされた
値0のままであるため、S510で時間データt4を正規化し
た値は24となる。すなわち、時間データt4は、テンポイ
ベントP4からP5までの1拍分の時間すなわち4分音符の
時間であるため、96分音符で24個分を示す正規化値とな
る。
Subsequently, the tempo event P4 shown in FIG.
In the section from to the tempo event P5, exactly the same processing as described above is performed, but within this section,
Since no events other than the tempo event have occurred,
At the time of moving from S502 to S503, the judgment of S503 is immediately
YES, and the processes of S504 to S508 are not executed. Then, the determination at S509 becomes YES, and the process at S510 is executed. In this case, note accumulated value P, because they remain in a value 0 being reset in S501, becomes a 24 value obtained by normalizing the time data t 4 at S510. That is, the time data t 4, since the tempo event P4 is one beat time or quarter note time to P5, a normalized value that indicates the 24 pieces of 96-note.

S5における以上の動作に対して、S5においてendイベ
ントまでの最終区間の正規化を行う場合は、次のように
なる。すなわち、前述のS35でセットされS36で判別され
た変数Zの内容はendイベントであり、前述のS44によっ
て、加算終了アドレスReの内容は、endイベントが格納
されている最終アドレスの次のアドレスとされている。
従って、S503〜S508の繰り返しによって、endイベント
までの最終区間の全ての時間データに対してS505に基づ
く正規化処理が行われる。この場合、タイマー値Qとし
ては、1つ前の区間のものが用いられる(S44で、タイ
マー値Qが計算されていない)。また、S510による正規
化処理も実行されない。これらは、最後の区間は、1拍
に満たない場合があることを考慮した処理である。
When normalizing the last section up to the end event in S5 with respect to the above operation in S5, the following is performed. That is, the content of the variable Z set in S35 and determined in S36 is an end event, and in S44, the content of the addition end address Re is the same as the address next to the last address where the end event is stored. Have been.
Therefore, by repeating S503 to S508, normalization processing based on S505 is performed on all time data in the last section up to the end event. In this case, the timer value Q of the immediately preceding section is used (the timer value Q is not calculated in S44). Further, the normalization process in S510 is not executed. These are processes taking into account that the last section may be shorter than one beat.

この場合に、アドレスADRが加算終了アドレスRe等に
等しくなって、最終区間の最後の時間データの正規化が
終了すると、S503の判定がYES、S509の判定がNOとなっ
て、S6において、第1図のLED表示部10の時間データ書
き換え中を示すLEDを消灯し、第3図M5の時間データ書
き換えの処理を終了する。
In this case, when the address ADR becomes equal to the addition end address Re or the like and the normalization of the last time data in the last section ends, the determination in S503 becomes YES, the determination in S509 becomes NO, and in S6, The LED indicating that the time data is being rewritten is turned off on the LED display unit 10 in FIG. 1, and the time data rewriting process in FIG.

上述の処理を、第7図(a)又は(b)のテンポイベ
ントP5からendイベントまでの区間の例で説明すると、
次のようになる。すなわち、まず、S42ではなくS44の処
理が実行されるため、タイマー値Qとしては、1つ前の
区間の値 Q=t4/24 ……(8) が用いられる。
The above processing will be described with reference to an example of a section from the tempo event P5 to the end event in FIG. 7 (a) or (b).
It looks like this: That is, first, since the processing at S44 without step S42 is executed, the timer value Q, the value of the previous interval Q = t 4/24 ...... ( 8) is used.

このタイマー値Qを用いて、最終区間の各時間データ
t5及びt6は、S505において、各々、 というように正規化される。
Using this timer value Q, each time data of the last section
t 5 and t 6, at S505, each It is normalized as follows.

以上の動作により、例えば第7図(b)で示されるst
artイベントからテンポイベントP4、テンポイベントP4
からテンポイベントP5及びテンポイベントP5からendイ
ベントまでの各1拍の区間が、全て96音符を単位として
24単位時間となるように正規化される。しかも、各拍子
の区間においては、各区間内の各時間データの相対的な
時間比は保存したまま正規化が行われる。これにより、
演奏者自身が1拍毎のテンポを入力しつつ演奏を行うこ
とにより、各拍子内の時間データ間の相対的な時間関係
は、演奏者の演奏した通りに保存され、しかも各拍子間
のタイミングは、96音符単位で24単位となるように正確
に正規化される。従って、演奏者の個人性を保存しつ
つ、演奏者間又は各演奏動作間のリズムのずれを解消す
ることができる。
By the above operation, for example, the st shown in FIG.
art event to tempo event P4, tempo event P4
From the tempo event P5 to the tempo event P5 and from the end event to the end event are all in units of 96 notes.
Normalized to be 24 units of time. In addition, in the interval of each beat, normalization is performed while maintaining the relative time ratio of each time data in each interval. This allows
When the player himself performs while inputting the tempo of each beat, the relative time relation between the time data in each beat is stored as played by the player, and the timing between each beat Is correctly normalized to be 24 units of 96 notes. Therefore, it is possible to eliminate the rhythm deviation between the players or between the performance operations while preserving the individuality of the players.

なお、演奏者が、第3図M3の演奏入力処理において、
何も演奏しないで第1図の演奏情報入力部3のスイッチ
3cを押下した場合、演奏データ記憶部8にはendイベン
トのみが記憶されている。従って、第5図のS32〜S35の
処理は実行されるが意味はなく、すぐにS36がYESとなっ
た後、S41がNOとなる。更にS503は1回だけNOとなっ
て、S504〜S508の処理は実行されるがこれらの処理も意
味はない。そして、S503→S509→S6と進んで、実質的に
何も行わない。この場合、S505において値0による除算
が発生しないよう、S23でタイマー値Qに予め0以外の
値が入力されている。
In the performance input process shown in FIG.
Switch of the performance information input unit 3 shown in FIG.
When 3c is pressed, the performance data storage unit 8 stores only the end event. Therefore, the processing of S32 to S35 in FIG. 5 is executed but has no meaning, and immediately after S36 becomes YES, S41 becomes NO. Further, S503 becomes NO only once, and the processes of S504 to S508 are executed, but these processes have no meaning. Then, the process proceeds from S503 → S509 → S6, and substantially nothing is performed. In this case, a value other than 0 is input in advance to the timer value Q in S23 so that the division by the value 0 does not occur in S505.

本実施例では、第1図のフットスイッチ3bによる拍子
を4分音符でとらせ、それに限られるものではなく、拍
子を2音符、8分音符、16分音符等でとらせることも勿
論可能であり、それらを任意に選択させることもでき
る。また、本実施例では、96分音符の単位で正規化を行
ったが、96分音符以外で正規化してもよい。
In the present embodiment, the time signature of the foot switch 3b in FIG. 1 is taken in quarter notes, and the present invention is not limited to this. Of course, the time signature can be taken in two notes, eighth notes, sixteenth notes, etc. Yes, they can be arbitrarily selected. Further, in this embodiment, the normalization is performed in units of 96th notes, but the normalization may be performed in units other than 96th notes.

〔発明の効果〕〔The invention's effect〕

本発明によれば、演奏者は、演奏者自身のテンポをフ
ットスイッチ等の拍子タイミング入力手段でとりなが
ら、演奏操作手段で演奏操作を行える。従って、演奏者
はメトロノーム等の一定の拍子に無理に合わせて演奏を
行う必要がなく、演奏者の個性を生かした演奏操作を行
うことが可能となる。
According to the present invention, the performer can perform the performance operation with the performance operation means while setting the player's own tempo with the beat timing input means such as a foot switch. Therefore, it is not necessary for the player to perform the performance in a timely manner such as a metronome, and it is possible to perform the performance operation utilizing the individuality of the player.

そして、演奏再生時には、各拍子内の時間データ間の
相対的な時間関係が、演奏者の演奏した通りに保存さ
れ、しかも各拍子間のタイミングが正確に均一化され
て、自動演奏が行われため、演奏者の個人性を保存しつ
つ、演奏者間又は各演奏動作間のリズムのずれを解消す
ることができる。
At the time of performance playback, the relative time relationship between the time data in each time signature is stored as played by the player, and the timing between each time signature is accurately uniformed, and the automatic performance is performed. For this reason, it is possible to eliminate the rhythm deviation between the players or between the performance actions while preserving the individuality of the players.

これにより、例えば1人又は複数の演奏者が、異なる
楽譜パートを別々に演奏して自動演奏用の音符情報を作
成し、それらを合成してアンサンブルで自動演奏を行わ
せるような場合においても、演奏者の個人性を保存した
まま各演奏間のリズムを正確に同期させることが可能と
なる。
Thereby, for example, even in a case where one or a plurality of performers separately play different musical score parts to create note information for automatic performance, and combine them to perform automatic performance in an ensemble, It is possible to accurately synchronize the rhythm between each performance while preserving the personality of the performer.

【図面の簡単な説明】[Brief description of the drawings]

第1図は、本発明の実施例の構成図、 第2図は、演奏情報記憶部7の記憶内容を示した図、 第3図は、本実施例の実行手順を示した動作フローチャ
ート、 第4図は、演奏データ記憶部の記憶内容の例を示した
図、 第5図は、時間データ書き換え処理の動作フローチャー
ト、 第6図は、除算処理の動作フローチャート、 第7図は、本実施例の動作説明図である。 1……鍵盤部、 2……入力センス回路、 3……演奏情報入力部、 3b……フットスイッチ、 4……演奏情報検出回路、 5……中央制御装置(CPU)、 6……プログラム記憶部、 7……演奏情報記憶部、 8……演奏データ記憶部、 9……タイマー部、 10……LED表示部、 11……テンポ値変換テーブル、 12……楽音発生回路、 13……D/Aコンバータ、 14……増幅器、 15……スピーカ.
FIG. 1 is a configuration diagram of an embodiment of the present invention, FIG. 2 is a diagram showing the contents stored in a performance information storage unit 7, FIG. 3 is an operation flowchart showing an execution procedure of this embodiment, FIG. 4 is a diagram showing an example of the contents stored in the performance data storage unit. FIG. 5 is an operation flowchart of a time data rewriting process. FIG. 6 is an operation flowchart of a division process. It is operation | movement explanatory drawing of FIG. DESCRIPTION OF SYMBOLS 1 ... keyboard part, 2 ... input sense circuit, 3 ... performance information input part, 3b ... foot switch, 4 ... performance information detection circuit, 5 ... central control unit (CPU), 6 ... program storage , Performance information storage unit, 8 Performance data storage unit, 9 Timer unit, 10 LED display unit, 11 Tempo value conversion table, 12 Tone generation circuit, 13 D / A converter, 14 …… amplifier, 15 …… speaker.

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】楽音発生手段に演奏データを順次出力する
ことにより該楽音発生手段に自動演奏を行わせる自動演
奏装置において、 演奏者に演奏操作を行わせ、該演奏操作に基づく演奏デ
ータを出力する演奏操作手段と、 演奏者に前記演奏操作と共に拍子タイミングを入力さ
せ、該入力操作に基づく拍子タイミングデータを出力す
る拍子タイミング入力手段と、 前記演奏データ及び前記拍子タイミングデータを記憶す
る記憶手段と、 演奏者の演奏操作に基づいて前記演奏操作手段及び前記
拍子タイミング入力手段から順次出力される前記演奏デ
ータ及び前記拍子タイミングデータの入力タイミングを
示す時間データを生成し、該演奏データ及び拍子タイミ
ングデータと共に前記記憶手段に書き込む書込手段と、 前記記憶手段に記憶されている時間的に隣り合う前記各
拍子タイミングデータによって定まる各区間の時間が相
互に等しくなるように、前記記憶手段に記憶されている
前記各時間データを正規化して書き換える時間データ書
き換え手段と、 該書き換え動作の後に、前記記憶手段に記憶されている
前記各時間データに基づくタイミングで、前記記憶手段
から前記各演奏データを順次読み出して前記楽音発生手
段に出力する演奏再生手段と、 を有することを特徴とする自動演奏装置。
1. An automatic performance device for causing a musical sound generating means to perform an automatic performance by sequentially outputting performance data to a musical sound generating means, wherein a performance operation is performed by a player, and performance data based on the performance operation is output. Performance operation means for performing, a time signature input means for allowing a player to input a time signature together with the performance operation, and outputting a time signature data based on the input operation; and a storage means for storing the performance data and the time signature data. Generating time data indicating the input timing of the performance data and the time signature data sequentially output from the performance operation means and the time signature input means based on the performance operation of the player; Writing means for writing to the storage means together with the storage means; Time data rewriting means for normalizing and rewriting the time data stored in the storage means so that the time of each section determined by the time signature data adjacent to each other in time becomes equal to each other; After that, at a timing based on each of the time data stored in the storage means, a performance reproduction means for sequentially reading out each of the performance data from the storage means and outputting to the musical sound generation means, Automatic playing device.
【請求項2】前記拍子タイミング入力手段は、演奏者に
前記拍子タイミングを足で入力させるフットスイッチで
あることを特徴とする請求項1記載の自動演奏装置。
2. The automatic performance device according to claim 1, wherein said beat timing input means is a foot switch for allowing a player to input said beat timing with a foot.
JP1341018A 1989-12-28 1989-12-28 Automatic performance device Expired - Fee Related JP2658463B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1341018A JP2658463B2 (en) 1989-12-28 1989-12-28 Automatic performance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1341018A JP2658463B2 (en) 1989-12-28 1989-12-28 Automatic performance device

Publications (2)

Publication Number Publication Date
JPH03200289A JPH03200289A (en) 1991-09-02
JP2658463B2 true JP2658463B2 (en) 1997-09-30

Family

ID=18342455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1341018A Expired - Fee Related JP2658463B2 (en) 1989-12-28 1989-12-28 Automatic performance device

Country Status (1)

Country Link
JP (1) JP2658463B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9634257B2 (en) 2013-07-30 2017-04-25 Samsung Display Co., Ltd. Heterocyclic compound and organic light-emitting device including the same
US9831438B2 (en) 2014-07-16 2017-11-28 Samsung Display Co., Ltd. Compound and organic light-emitting device including the same

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW290564B (en) * 1994-06-16 1996-11-11 Ici Plc
JP2998707B2 (en) 1997-07-09 2000-01-11 日本電気株式会社 Organic electroluminescence device
US6329083B1 (en) 1997-11-05 2001-12-11 Nec Corporation Organic electroluminescent device containing a benzoperylene compound
US6465116B1 (en) 1998-06-08 2002-10-15 Nec Corporation Organic electroluminescent device
US6699594B1 (en) 1998-06-08 2004-03-02 Nec Corporation Organic electroluminescent device
JP3548839B2 (en) 1998-10-23 2004-07-28 三星エスディアイ株式会社 Organic electroluminescent device using hole transporting luminescent material
US6759144B2 (en) 1998-12-16 2004-07-06 Samsung Sdi Co., Ltd. Organic electroluminescence device
WO2003078541A1 (en) 2002-03-15 2003-09-25 Idemitsu Kosan Co., Ltd. Material for organic electroluminescent devices and organic electroluminescent devices made by using the same
CN1323128C (en) 2002-07-19 2007-06-27 出光兴产株式会社 Organic electroluminescent device and organic light-emitting medium
JP4188369B2 (en) 2003-04-10 2008-11-26 出光興産株式会社 Aromatic amine derivatives
EP2448374A3 (en) 2003-12-01 2012-06-13 Idemitsu Kosan Co., Ltd. Asymmetric monoanthracene derivative, material for organic electroluminescent device and organic electroluminescent device utilizing the same
KR101325410B1 (en) 2003-12-19 2013-11-04 이데미쓰 고산 가부시키가이샤 Light-emitting material for organic electroluminescent device, organic electroluminescent device using same, and material for organic electroluminescent device
JP2007015961A (en) 2005-07-06 2007-01-25 Idemitsu Kosan Co Ltd Pyrene derivative and organic electroluminescent element using the same
US20070104977A1 (en) 2005-11-07 2007-05-10 Idemitsu Kosan Co., Ltd. Organic electroluminescent device
US7651791B2 (en) 2005-12-15 2010-01-26 Idemitsu Kosan Co., Ltd. Material for organic electroluminescence device and electroluminescence device employing the same
TW200740290A (en) 2006-02-28 2007-10-16 Idemitsu Kosan Co Organic electroluminescent device using fluoranthene derivative and indenoperylene derivative
KR101950474B1 (en) 2012-08-22 2019-02-21 삼성디스플레이 주식회사 Organic light emitting diode
KR101989059B1 (en) 2012-08-22 2019-06-14 삼성디스플레이 주식회사 Cascade-type compound and organic light emitting diode comprising the same
KR102086551B1 (en) 2013-01-11 2020-05-28 삼성디스플레이 주식회사 Organic light emitting diode comprising amine-based compounds and pyrene-based compounds
KR102065588B1 (en) 2013-05-23 2020-01-14 삼성디스플레이 주식회사 Organic light emitting diode
KR102050481B1 (en) 2013-05-23 2019-12-02 삼성디스플레이 주식회사 Organic light emitting diode
KR102111561B1 (en) 2013-05-23 2020-05-19 삼성디스플레이 주식회사 Organic light emitting diode

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9634257B2 (en) 2013-07-30 2017-04-25 Samsung Display Co., Ltd. Heterocyclic compound and organic light-emitting device including the same
US9831438B2 (en) 2014-07-16 2017-11-28 Samsung Display Co., Ltd. Compound and organic light-emitting device including the same

Also Published As

Publication number Publication date
JPH03200289A (en) 1991-09-02

Similar Documents

Publication Publication Date Title
JP2658463B2 (en) Automatic performance device
JP3293745B2 (en) Karaoke equipment
JP2003302984A (en) Lyric display method, lyric display program and lyric display device
JP2595800B2 (en) Automatic performance device
JP3577561B2 (en) Performance analysis apparatus and performance analysis method
JP3760833B2 (en) Karaoke equipment
JP4203750B2 (en) Electronic music apparatus and computer program applied to the apparatus
JP4135004B2 (en) Karaoke equipment
JP3261990B2 (en) Karaoke equipment
JP3430814B2 (en) Karaoke equipment
JP2001022350A (en) Waveform reproducing device
JP3504296B2 (en) Automatic performance device
JPH11338480A (en) Karaoke (prerecorded backing music) device
JP2000330580A (en) Karaoke apparatus
JP3620396B2 (en) Information correction apparatus and medium storing information correction program
JP3903492B2 (en) Karaoke equipment
JP3752956B2 (en) PERFORMANCE GUIDE DEVICE, PERFORMANCE GUIDE METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING PERFORMANCE GUIDE PROGRAM
JP3379414B2 (en) Punch-in device, punch-in method, and medium recording program
JP3656584B2 (en) Performance data processing apparatus and program
JP2002304175A (en) Waveform-generating method, performance data processing method and waveform-selecting device
JP2004219495A (en) Electronic musical instrument
JP2007178890A (en) Automatic playing musical device
JP2016057389A (en) Chord determination device and chord determination program
JP3649117B2 (en) Musical sound reproducing apparatus and method, and storage medium
JP5548975B2 (en) Performance data generating apparatus and program

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19970506

LAPS Cancellation because of no payment of annual fees