JPH1173181A - Automatic playing device and automatic playing method - Google Patents

Automatic playing device and automatic playing method

Info

Publication number
JPH1173181A
JPH1173181A JP9249664A JP24966497A JPH1173181A JP H1173181 A JPH1173181 A JP H1173181A JP 9249664 A JP9249664 A JP 9249664A JP 24966497 A JP24966497 A JP 24966497A JP H1173181 A JPH1173181 A JP H1173181A
Authority
JP
Japan
Prior art keywords
data
performance
note
performance data
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9249664A
Other languages
Japanese (ja)
Other versions
JP3529123B2 (en
Inventor
Sadashi Wakuta
定資 和久田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP24966497A priority Critical patent/JP3529123B2/en
Publication of JPH1173181A publication Critical patent/JPH1173181A/en
Application granted granted Critical
Publication of JP3529123B2 publication Critical patent/JP3529123B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an automatic playing device capable of automatically playing musics with the musical characteristics intrinsic to each piece of musics in spite of having a small amount of playing data, and an automatic playing method therefor. SOLUTION: This automatic playing device has a playing data memory 17, which stores plural pieces of first playing data comprising the data corresponding to a part (key number, step time and gate time) of the note data used for generating one tone and second playing data comprising the data corresponding to the other part (velocity) of the note data, an input port 23 for assigning one among plural pieces of the second playing data stored in the second memory means and a playing tone generating means which generates the playing tones based on the first playing data stored in the playing data memory 17 and the second playing data assigned by this input port 23.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、自動的に演奏を行
う自動演奏装置及び自動演奏方法に関し、特に自動演奏
に使用される演奏データの量を減らす技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic performance apparatus and an automatic performance method for automatically performing a performance, and more particularly to a technique for reducing the amount of performance data used for an automatic performance.

【0002】[0002]

【従来の技術】近年の電子キーボード、電子オルガン、
電子ピアノ等といった電子楽器は、自動演奏機能を有し
ている。この自動演奏機能には、例えばデモンストレー
ション演奏、自動伴奏等が含まれる。ここで、デモンス
トレーション演奏とは、例えば自動演奏データメモリに
格納されている自動演奏データを順次読み出し、この読
み出された自動演奏データに基づいて楽音を発生するこ
とにより所定曲を自動的に演奏することをいう。また、
自動伴奏とは、例えば自動伴奏データメモリに格納され
ている自動伴奏データを順次読み出し、この読み出され
た自動伴奏データと鍵盤装置からの情報に基づいて自動
的に伴奏音を発生することをいう。
2. Description of the Related Art Recent electronic keyboards, electronic organs,
Electronic musical instruments such as electronic pianos have an automatic performance function. The automatic performance function includes, for example, demonstration performance, automatic accompaniment, and the like. Here, the demonstration performance means that, for example, the automatic performance data stored in the automatic performance data memory is sequentially read out, and the predetermined music is automatically performed by generating a musical tone based on the read out automatic performance data. That means. Also,
Automatic accompaniment means, for example, sequentially reading out automatic accompaniment data stored in an automatic accompaniment data memory and automatically generating an accompaniment sound based on the read out automatic accompaniment data and information from a keyboard device. .

【0003】ところで、自動演奏データは1曲分の演奏
データで構成されているのに対し、自動伴奏データは数
小節分の演奏データで構成されている。しかしながら、
自動演奏データと自動伴奏データとは、同一形式の複数
の音符データで作成される点で同じであり、しかも、こ
れら両データは略同様に処理される。従って、以下にお
いては、自動演奏や自動伴奏に使用される演奏データを
単に「演奏データ」という。
By the way, automatic performance data is composed of performance data for one song, while automatic accompaniment data is composed of performance data for several measures. However,
The automatic performance data and the automatic accompaniment data are the same in that they are created by a plurality of note data of the same format, and these two data are processed in substantially the same manner. Therefore, in the following, performance data used for automatic performance and automatic accompaniment is simply referred to as “performance data”.

【0004】演奏データは、例えば図12に示すよう
に、複数の音符データと1つのエンドデータ(ENDデ
ータ)で構成されている。各音符データは例えば4バイ
トで構成されており、各バイトには、「キーナンバ」、
「ステップタイム」、「ゲートタイム」及び「ベロシテ
ィ」が割り当てられている。キーナンバは音高を指示す
るために使用される。ステップタイムは、発音時刻を指
定するために使用される。ゲートタイムは発音の長さを
指定するために使用される。ベロシティは発音の強さを
指定するために使用される。また、エンドデータは例え
ば2バイトで構成され、各バイトには「エンドマーク」
及び「ステップタイム」が割り当てられている。エンド
マークは特殊コードで構成されており、1つの曲の演奏
データの終わりを表すために使用される。
[0004] Performance data is composed of a plurality of note data and one end data (END data) as shown in FIG. Each note data is composed of, for example, 4 bytes, and each byte includes a “key number”,
“Step time”, “gate time”, and “velocity” are assigned. The key number is used to indicate the pitch. The step time is used to specify a sound generation time. The gate time is used to specify the length of the sound. Velocity is used to specify the strength of pronunciation. The end data is composed of, for example, 2 bytes, and each byte has an “end mark”.
And "step time" are assigned. The end mark is composed of a special code, and is used to indicate the end of performance data of one music piece.

【0005】このような従来の自動演奏装置は、例えば
リードオンリメモリ(以下、「ROM」という)で構成
された演奏データメモリを備えている。この演奏データ
メモリには、曲毎に又はリズムの種類毎に演奏データが
記憶されている。そして、ユーザが曲又はリズムを選択
して自動演奏又は自動伴奏を開始させると、自動演奏装
置の制御部は、選択された曲又はリズムに対応する演奏
データを演奏データメモリから読み出し、音源に供給す
る。音源は、受け取った演奏データに基づいて楽音信号
を発生する。この楽音信号は例えばスピーカに供給さ
れ、このスピーカで音響信号に変換される。
Such a conventional automatic performance device includes a performance data memory constituted by, for example, a read-only memory (hereinafter referred to as "ROM"). The performance data memory stores performance data for each song or each rhythm type. Then, when the user selects a song or rhythm and starts automatic performance or automatic accompaniment, the control unit of the automatic performance device reads performance data corresponding to the selected song or rhythm from the performance data memory and supplies it to the sound source. I do. The sound source generates a tone signal based on the received performance data. This tone signal is supplied to, for example, a speaker, and is converted into an acoustic signal by the speaker.

【0006】[0006]

【発明が解決しようとする課題】ところで、電子楽器が
有する音源は、夫々独自の電気的な特性を有している。
従って、1つの演奏データに基づいて発生される音の音
楽的な特性は、各音源によって異なる場合が多い。例え
ば、所定の演奏データをある音源に供給することにより
自動演奏を行わせた場合は好ましい音量バランスで楽音
が発生されるが、その演奏データを他の音源に供給する
ことにより自動演奏を行わせた場合は音量バランスが悪
くなるという事態がしばしば発生する。
The sound sources of electronic musical instruments have their own electrical characteristics.
Therefore, the musical characteristics of the sound generated based on one piece of performance data often differ for each sound source. For example, when an automatic performance is performed by supplying predetermined performance data to a certain sound source, a musical tone is generated with a preferable volume balance. However, the automatic performance is performed by supplying the performance data to another sound source. In such a case, a situation in which the volume balance is deteriorated often occurs.

【0007】一方、演奏データの提供者(例えばメーカ
ー)は、1つの曲を複数の音源で発生できるようにした
いという要求を持っている。このような要求に応えるた
めに、従来の自動演奏装置は、種々の音源に適合する複
数の演奏データを備えている。例えば、各音源に好適な
音量バランスを得るために、各音符データ中のベロシテ
ィデータだけが異なる複数の演奏データが作成され、こ
れらが例えば一つの演奏データメモリに格納されて提供
されている。従って、演奏データを記憶するために必要
な演奏データメモリの容量が増加するという問題があ
る。
[0007] On the other hand, a performance data provider (for example, a maker) has a demand that one tune can be generated by a plurality of sound sources. In order to meet such a demand, the conventional automatic performance device has a plurality of performance data suitable for various sound sources. For example, in order to obtain a suitable volume balance for each sound source, a plurality of pieces of performance data differing only in velocity data in each piece of note data are created, and are provided, for example, stored in one performance data memory. Therefore, there is a problem that the capacity of the performance data memory required for storing the performance data increases.

【0008】そこで、本発明の目的は、少ない演奏デー
タ量であるにも拘わらず、各曲本来の音楽的特性で自動
演奏できる自動演奏装置及び自動演奏方法を提供するこ
とにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide an automatic performance apparatus and an automatic performance method capable of performing an automatic performance with the original musical characteristics of each music piece despite the small performance data amount.

【0009】[0009]

【課題を解決するための手段】本発明の第1の態様に係
る自動演奏装置は、上記目的を達成するために、1つの
音を発生するために使用される音符データの一部に対応
するデータによって構成された第1演奏データを格納す
る第1の記憶手段と、前記音符データの他の一部に対応
するデータによって構成された第2演奏データを複数格
納する第2の記憶手段と、前記第2の記憶手段に格納さ
れている複数の第2演奏データの中の1つを指定する指
定手段と、前記第1の記憶手段に記憶されている第1演
奏データと前記指定手段で指定された第2演奏データと
に基づいて演奏音を発生する演奏音発生手段、とを備え
ている。
According to a first aspect of the present invention, there is provided an automatic performance apparatus which corresponds to a part of note data used to generate one sound in order to achieve the above object. First storage means for storing first performance data composed of data, second storage means for storing a plurality of second performance data composed of data corresponding to another part of the note data, Designation means for designating one of a plurality of second performance data stored in the second storage means, and first performance data stored in the first storage means and designation by the designation means Performance sound generating means for generating a performance sound based on the generated second performance data.

【0010】上記本発明の第1の態様に係る自動演奏装
置において、前記音符データの一部に対応するデータは
音高(ノートナンバ)、音長(ゲートタイム)及び発音
時刻(ステップタイム)を決定するためのデータを含
み、前記音符データの他の一部に対応するデータは音の
大きさ(ベロシティ)を決定するためのデータを含むよ
うに構成できる。この場合、例えば各音源に適するベロ
シティデータを有する複数の第2演奏データを作成して
おき、自動演奏を行う際に、上記指定手段によって好ま
しい第2演奏データを選択すれば、音量バランスのとれ
た自動演奏を行わせることができる。なお、指定手段に
よって音源に適合しない第2演奏データを故意に選択す
ることにより、音量バランスが崩れた自動演奏を故意に
行うことも可能になり、自動演奏のバリエーションが拡
がる。
In the automatic performance device according to the first aspect of the present invention, the data corresponding to a part of the note data includes a pitch (note number), a note length (gate time), and a sounding time (step time). The musical note data may include data for determining, and the data corresponding to another part of the note data may include data for determining a loudness (velocity) of the note. In this case, for example, a plurality of second performance data having velocity data suitable for each sound source is created, and when performing the automatic performance, if the preferable second performance data is selected by the designation means, the sound volume is balanced. Automatic performance can be performed. By intentionally selecting the second performance data that does not match the sound source by the designating means, it is possible to intentionally perform an automatic performance with an imbalanced sound volume, and the variation of the automatic performance is expanded.

【0011】また、記第1演奏データを構成する音符デ
ータの一部として、例えばキーナンバ、ゲートタイム及
びベロシティを表すデータを用い、上記第2演奏データ
を構成する音符データの他の一部として、ステップタイ
ムデータを用いることができる。この場合、ステップタ
イムを微妙にずらした複数の第2演奏データを作成して
おけば、同じ曲でも所謂ノリの異なる自動演奏を行わせ
ることができる。
As a part of the note data constituting the first performance data, for example, data representing a key number, a gate time and a velocity are used, and as another part of the note data constituting the second performance data, Step time data can be used. In this case, if a plurality of pieces of second performance data whose step times are slightly shifted are created, it is possible to perform an automatic performance of the same music with different so-called glues.

【0012】また、本発明の第2の態様に係る自動演奏
装置は、上記と同様の目的で、1つの音を発生するため
に使用される音符データによって構成された第1演奏デ
ータを格納する第1の記憶手段と、前記音符データの一
部に対応するデータによって構成された第2演奏データ
を格納する第2の記憶手段と、前記第2の記憶手段に格
納されている第2演奏データを用いるかどうかを指定す
る指定手段と、該指定手段による指定がない場合は、前
記第1の記憶手段に格納されている第1演奏データに基
づいて演奏音を発生し、該指定手段による指定がある場
合は、前記第1の記憶手段に格納されている第1演奏デ
ータに含まれる各音符データの一部が、前記第2の記憶
手段に格納されている第2演奏データに含まれる各デー
タで夫々置き換えられた第1演奏データに基づいて演奏
音を発生する演奏音発生手段、とを備えている。
The automatic performance device according to the second aspect of the present invention stores first performance data constituted by note data used to generate one sound for the same purpose as described above. First storage means, second storage means for storing second performance data constituted by data corresponding to a part of the note data, and second performance data stored in the second storage means A designating means for designating whether or not to use, if there is no designation by the designating means, a performance sound is generated based on the first performance data stored in the first storage means; If there is a part of each note data included in the first performance data stored in the first storage means, a part of each note data included in the second performance data stored in the second storage means Replace with data Performance sound generating means for generating a performance sound based on the first performance data, and a city.

【0013】また、本発明の第3の態様に係る自動演奏
装置は、上記と同様の目的で、1つの音を発生するため
に使用される音符データによって構成された第1演奏デ
ータを格納する第1の記憶手段と、前記音符データの一
部に対応するデータによって構成された第2演奏データ
を格納する第2の記憶手段と、前記第2の記憶手段に格
納されている第2演奏データを用いるかどうかを指定す
る指定手段と、該指定手段による指定がない場合は、前
記第1の記憶手段に格納されている第1演奏データに基
づいて演奏音を発生し、該指定手段による指定がある場
合は、前記第1の記憶手段に格納されている第1演奏デ
ータに含まれる各音符データの一部に、前記第2の記憶
手段に格納されている第2演奏データに含まれる各デー
タが夫々演算された第1演奏データに基づいて演奏音を
発生する演奏音発生手段、とを備えている。
An automatic performance device according to a third aspect of the present invention stores first performance data constituted by note data used to generate one sound for the same purpose as described above. First storage means, second storage means for storing second performance data constituted by data corresponding to a part of the note data, and second performance data stored in the second storage means A designating means for designating whether or not to use, if there is no designation by the designating means, a performance sound is generated based on the first performance data stored in the first storage means; If there is, a part of each note data included in the first performance data stored in the first storage means is replaced by a part of each note data included in the second performance data stored in the second storage means. Data is calculated respectively Performance sound generating means for generating a performance sound based on the first performance data, and a city.

【0014】これら第2及び第3の態様に係る自動演奏
装置においては、前記音符データは音高、音長、発音時
刻及び音の大きさを決定するデータを含み、前記音符デ
ータの一部に対応するデータは音の大きさを決定するた
めのデータを含むように構成できる。
In the automatic performance devices according to the second and third aspects, the note data includes data for determining a pitch, a duration, a sounding time and a loudness, and part of the note data. The corresponding data can be configured to include data for determining the loudness.

【0015】本発明の第4の態様に係る自動演奏方法
は、上記目的を達成するために、1つの音を発生するた
めに使用される音符データの一部に対応するデータによ
って構成された第1演奏データを格納し、前記音符デー
タの他の一部に対応するデータによって構成された第2
演奏データを複数格納し、前記格納されている複数の第
2演奏データの中の1つを選択し、該選択された第2演
奏データと前記格納されている第1演奏データとに基づ
いて演奏音を発生する、ように構成されている。
According to a fourth aspect of the present invention, in order to attain the above object, the automatic performance method according to the fourth aspect comprises a data structure corresponding to a part of note data used for generating one sound. 1 stores performance data, and is composed of data corresponding to another part of the note data.
A plurality of performance data are stored, one of the stored plurality of second performance data is selected, and a performance is performed based on the selected second performance data and the stored first performance data. It is configured to generate sound.

【0016】この場合、前記音符データの一部に対応す
るデータは音高、音長及び発音時刻を決定するためのデ
ータを含み、前記音符データの他の一部に対応するデー
タは音の大きさを決定するためのデータを含むように構
成できる。
In this case, the data corresponding to a part of the note data includes data for determining a pitch, a tone length and a sounding time, and the data corresponding to another part of the note data is a sound volume. Can be configured to include data for determining

【0017】また、本発明の第5の態様に係る自動演奏
方法は、上記と同様の目的で、1つの音を発生するため
に使用される音符データによって構成された第1演奏デ
ータを格納し、前記音符データの一部に対応するデータ
によって構成された第2演奏データを格納し、前記格納
されている第2演奏データを用いるかどうかを指定し、
該指定がない場合は、前記第1演奏データに基づいて演
奏音を発生し、該指定がある場合は、前記第1演奏デー
タに含まれる各音符データの一部が、前記第2演奏デー
タに含まれる各データで夫々置き換えられた第1演奏デ
ータに基づいて演奏音を発生する、ように構成されてい
る。
Further, in the automatic performance method according to the fifth aspect of the present invention, for the same purpose as described above, the first performance data composed of note data used for generating one sound is stored. Storing second performance data constituted by data corresponding to a part of the note data, and specifying whether to use the stored second performance data;
When the designation is not made, a performance sound is generated based on the first performance data. When the designation is made, a part of each note data included in the first performance data is added to the second performance data. A performance sound is generated based on the first performance data replaced with each of the included data.

【0018】更に、本発明の第6の態様に係る自動演奏
方法は、上記と同様の目的で、1つの音を発生するため
に使用される音符データによって構成された第1演奏デ
ータを格納し、前記音符データの一部に対応するデータ
によって構成された第2演奏データを格納し、前記第2
演奏データを用いるかどうかを指定し、該指定がない場
合は、前記第1演奏データに基づいて演奏音を発生し、
該指定がある場合は、前記第1演奏データに含まれる各
音符データの一部に、前記第2演奏データに含まれる各
データが夫々演算された第1演奏データに基づいて演奏
音を発生する、ように構成されている。
Further, in the automatic performance method according to the sixth aspect of the present invention, for the same purpose as described above, the first performance data composed of note data used to generate one sound is stored. Storing second performance data constituted by data corresponding to a part of the note data;
If the performance data is used or not, if not specified, a performance sound is generated based on the first performance data,
When the designation is made, a performance sound is generated based on the first performance data in which each data included in the second performance data is calculated for a part of each note data included in the first performance data. It is configured as follows.

【0019】これら第5及び第6の態様に係る自動演奏
方法においては、前記音符データは音高、音長、発音時
刻及び音の大きさを決定するデータを含み、前記音符デ
ータの一部に対応するデータは音の大きさを決定するた
めのデータを含むように構成できる。
In the automatic playing methods according to the fifth and sixth aspects, the note data includes data for determining a pitch, a note length, a sounding time, and a sound volume, and part of the note data. The corresponding data can be configured to include data for determining the loudness.

【0020】[0020]

【発明の実施の形態】以下、本発明の自動演奏装置及び
自動演奏方法の実施の形態を図面を参照しながら詳細に
説明する。なお、本発明に係る自動演奏装置は、独立し
た自動演奏装置として構成することもできるが、以下に
説明する実施の形態では電子楽器に組み込まれた自動演
奏装置について説明する。また、本発明に係る自動演奏
装置は、コード展開しながらリズム演奏を行う所謂自動
伴奏装置にも適用できるが、説明を簡単にするために、
以下では、所定曲を単純に演奏する場合の例を説明す
る。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of an automatic performance apparatus and an automatic performance method according to the present invention will be described in detail with reference to the drawings. The automatic performance device according to the present invention can be configured as an independent automatic performance device. However, in the embodiments described below, an automatic performance device incorporated in an electronic musical instrument will be described. Also, the automatic performance device according to the present invention can be applied to a so-called automatic accompaniment device that performs a rhythm performance while developing chords.
Hereinafter, an example in which a predetermined music is simply played will be described.

【0021】(実施の形態1)この実施の形態1に係る
自動演奏装置は、A機種及びB機種で共通に使用される
1種類の第1演奏データと、A機種及びB機種で各別に
使用される2種類の第2演奏データとを有する。第1演
奏データは、音符データの一部分(キーナンバ、ステッ
プタイム及びゲートタイム)で構成され、第2演奏デー
タは、音符データの他の一部分(ベロシティ)で構成さ
れている。
(Embodiment 1) The automatic performance device according to the first embodiment is composed of one type of first performance data commonly used by the A type and the B type, and separately used by the A type and the B type. And two types of second performance data. The first performance data is composed of a part of note data (key number, step time and gate time), and the second performance data is composed of another part of note data (velocity).

【0022】図1は、本発明の実施の形態に係る自動演
奏装置が適用された電子楽器の構成を示すブロック図で
ある。この電子楽器においては、CPU10、プログラ
ムメモリ11、ワークメモリ12、パネルインタフェー
ス回路13、鍵盤インタフェース回路15、演奏データ
メモリ17、波形メモリ18、音源19及び入力ポート
23がシステムバス30を介して相互に接続されてい
る。システムバス30は、例えばアドレスバス、データ
バス、制御信号バス等で構成されており、上記各要素間
のデータの送受を行うために使用される。
FIG. 1 is a block diagram showing a configuration of an electronic musical instrument to which an automatic performance device according to an embodiment of the present invention is applied. In this electronic musical instrument, a CPU 10, a program memory 11, a work memory 12, a panel interface circuit 13, a keyboard interface circuit 15, a performance data memory 17, a waveform memory 18, a sound source 19, and an input port 23 are mutually connected via a system bus 30. It is connected. The system bus 30 includes, for example, an address bus, a data bus, a control signal bus, and the like, and is used for transmitting and receiving data between the above-described elements.

【0023】CPU10は、プログラムメモリ11に記
憶されている制御プログラムに従って動作する。このC
PU10は、電子楽器の各種機能を実現すると共に自動
演奏機能を実現するための処理を行う。このCPU10
によって行われる処理については、後に、フローチャー
トを参照しながら詳細に説明する。
The CPU 10 operates according to a control program stored in the program memory 11. This C
The PU 10 performs various functions of the electronic musical instrument and performs processing for realizing the automatic performance function. This CPU 10
Will be described in detail later with reference to a flowchart.

【0024】プログラムメモリ11は、例えばROMで
構成されている。このプログラムメモリ11には、上述
した制御プログラムの他に、CPU10が使用する種々
の固定データ、音色パラメータ等が記憶されている。音
色パラメータは、所定の音色の楽音(楽器音)を発生さ
せるために使用されるデータである。音色パラメータ
は、例えば音色及び鍵域毎に複数設けられており、各音
色パラメータは、例えば波形アドレス、周波数データ、
エンベロープデータ、フィルタ係数等で構成されてい
る。なお、このプログラムメモリ11はランダムアクセ
スメモリ(以下、「RAM」という)で構成することも
できる。この場合、例えば電源投入時に、例えばフロッ
ピーディスク、ICカード、CD−ROM等に記憶され
た制御プログラム、音色パラメータ等を該RAMにロー
ドするように構成すればよい。
The program memory 11 is constituted by, for example, a ROM. The program memory 11 stores various fixed data, tone parameters, and the like used by the CPU 10 in addition to the control program described above. The timbre parameter is data used to generate a musical tone (instrument sound) of a predetermined timbre. A plurality of timbre parameters are provided, for example, for each timbre and key range, and each timbre parameter includes, for example, a waveform address, frequency data,
It is composed of envelope data, filter coefficients, and the like. Note that the program memory 11 may be constituted by a random access memory (hereinafter, referred to as “RAM”). In this case, for example, when the power is turned on, a control program, tone parameters, and the like stored in, for example, a floppy disk, an IC card, a CD-ROM, or the like may be loaded into the RAM.

【0025】ワークメモリ12は、CPU10が各種処
理を行う際に使用する種々のデータを一時的に記憶す
る。このワークメモリ12には、例えばレジスタ、カウ
ンタ、フラグ等が割り当てられている。ワークメモリ1
2の割当内容については、後に詳細に説明する。
The work memory 12 temporarily stores various data used when the CPU 10 performs various processes. For example, registers, counters, flags, and the like are assigned to the work memory 12. Work memory 1
The assignment content of No. 2 will be described later in detail.

【0026】パネルインタフェース回路13には操作パ
ネル14が接続されている。この操作パネル14には、
例えば図2に示すように、自動演奏スイッチ140、イ
ンジケータ141、曲選択スイッチ142、ディスプレ
イ装置143が設けられている。なお、電子楽器には、
通常上記の他に音色選択スイッチ、テンポ設定スイッ
チ、音響効果選択スイッチ、音量スイッチ、リズム選択
スイッチ、種々のインジケータ等が設けられているが、
図2では省略されている。
An operation panel 14 is connected to the panel interface circuit 13. The operation panel 14 includes:
For example, as shown in FIG. 2, an automatic performance switch 140, an indicator 141, a music selection switch 142, and a display device 143 are provided. In addition, electronic musical instruments
Usually, in addition to the above, a tone selection switch, a tempo setting switch, a sound effect selection switch, a volume switch, a rhythm selection switch, various indicators and the like are provided,
It is omitted in FIG.

【0027】自動演奏スイッチ140は例えば押釦スイ
ッチで構成され、ユーザが自動演奏の開始及び停止を制
御するために使用される。この自動演奏スイッチ140
が押される毎に、電子楽器は、交互に自動演奏モード及
び通常演奏モードに入る。現在何れのモードにあるか
は、後述する自動演奏フラグによって記憶されると共
に、インジケータ141に表示される。インジケータ1
41は、電子楽器が自動演奏モードにある場合に点灯
し、通常演奏モードにある場合に消灯する。
The automatic performance switch 140 is composed of, for example, a push button switch, and is used by the user to control start and stop of the automatic performance. This automatic performance switch 140
Each time is pressed, the electronic musical instrument alternately enters the automatic performance mode and the normal performance mode. The current mode is stored by an automatic performance flag described later, and is displayed on the indicator 141. Indicator 1
41 turns on when the electronic musical instrument is in the automatic performance mode, and turns off when the electronic musical instrument is in the normal performance mode.

【0028】曲選択スイッチ142は、アップスイッチ
142aとダウンスイッチ142bとで構成されてい
る。アップスイッチ142a及びダウンスイッチ142
bは例えば押釦スイッチで構成されている。アップスイ
ッチ142aは曲番号をインクリメントし、ダウンスイ
ッチ142bは曲番号をデクリメントするために使用さ
れる。この曲選択スイッチ142によって選択された曲
番号は、後述する曲番号レジスタに記憶される。
The music selection switch 142 includes an up switch 142a and a down switch 142b. Up switch 142a and down switch 142
b is constituted by, for example, a push button switch. The up switch 142a is used to increment the song number, and the down switch 142b is used to decrement the song number. The music number selected by the music selection switch 142 is stored in a music number register described later.

【0029】ディスプレイ装置143は、LCD、LE
D、CRTその他の表示器で構成できる。このディスプ
レイ装置143には種々のメッセージが表示される。例
えば、上述した曲番号はこのディスプレイ装置143に
表示され、その表示内容(曲番号)は曲選択スイッチ1
42が操作される毎に変化する。
The display device 143 includes an LCD, an LE,
D, CRT or other display device. Various messages are displayed on the display device 143. For example, the above-mentioned song number is displayed on the display device 143, and the displayed content (song number) is the song selection switch 1.
It changes each time 42 is operated.

【0030】パネルインタフェース回路13は、操作パ
ネル14とCPU10との間のデータの送受を制御す
る。即ち、パネルインタフェース回路13は、CPU1
0からの指令に応じて操作パネル14上の各スイッチを
スキャンする。そして、このスキャンにより得られた各
スイッチの開閉状態を示す信号に基づいて、各スイッチ
をそれぞれ1ビットに対応させたパネルデータを作成す
る。パネルデータの各ビットは、例えば「1」でスイッ
チオン、「0」でスイッチオフ状態を表す。このパネル
データは、システムバス30を介してCPU10に送ら
れる。CPU10は、このパネルデータに基づいて、操
作パネル14上の各スイッチのオンイベント又はオフイ
ベントが発生したかどうかを判断する。
The panel interface circuit 13 controls transmission and reception of data between the operation panel 14 and the CPU 10. That is, the panel interface circuit 13 includes the CPU 1
Each switch on the operation panel 14 is scanned according to a command from 0. Then, based on a signal indicating the open / closed state of each switch obtained by this scan, panel data is created in which each switch corresponds to one bit. Each bit of the panel data indicates, for example, "1" for switch-on and "0" for switch-off. This panel data is sent to the CPU 10 via the system bus 30. The CPU 10 determines whether an ON event or an OFF event of each switch on the operation panel 14 has occurred based on the panel data.

【0031】また、パネルインタフェース回路13は、
CPU10から送られてきた文字、数字、記号等を表示
するための表示データをディスプレイ装置143に送
り、また、インジケートデータをインジケータ141に
送る。これにより、CPU10から送られてきた表示デ
ータに従ったメッセージがディスプレイ装置143に表
示され、また、インジケータ141が点灯又は消灯され
る。
Further, the panel interface circuit 13 includes:
Display data for displaying characters, numbers, symbols, and the like sent from the CPU 10 is sent to the display device 143, and indicator data is sent to the indicator 141. Thus, a message according to the display data sent from the CPU 10 is displayed on the display device 143, and the indicator 141 is turned on or off.

【0032】鍵盤インタフェース回路15には鍵盤装置
16が接続されている。鍵盤装置16は、音程を指示す
るための複数の鍵を有している。この鍵盤装置16に
は、例えば2接点方式の鍵が用いられている。即ち、鍵
盤装置16の各鍵は、押鍵又は離鍵に応じて開閉する2
個のキースイッチを有している。これら各キースイッチ
のオン/オフを示すキースイッチ信号は、鍵盤インタフ
ェース回路15に供給される。
A keyboard device 16 is connected to the keyboard interface circuit 15. The keyboard device 16 has a plurality of keys for instructing a pitch. The keyboard device 16 uses, for example, a two-contact key. That is, each key of the keyboard device 16 opens and closes in response to key depression or key release.
Key switches. A key switch signal indicating ON / OFF of each key switch is supplied to the keyboard interface circuit 15.

【0033】鍵盤インタフェース15は、押鍵又は離鍵
に伴う各鍵のオン/オフ状態及び鍵タッチの強さを検出
する。即ち、鍵盤インタフェース15は、鍵盤装置16
からのキースイッチ信号に基づき各鍵のオン/オフ状態
を示すキーデータを生成する。また、上記両キースイッ
チのオン又はオフの時間差に基づき鍵タッチの強さを示
すタッチデータを生成する。これらキーデータ及びタッ
チデータは、CPU10に送られ。CPU10は、この
キーデータ及びタッチデータに基づいて、押鍵又は離鍵
に応じた発音又は消音処理を行う。
The keyboard interface 15 detects the on / off state of each key and the strength of key touch in response to key press or key release. That is, the keyboard interface 15 is
Key data indicating the on / off state of each key is generated based on the key switch signal. Further, touch data indicating the strength of key touch is generated based on the time difference between ON and OFF of the two key switches. These key data and touch data are sent to the CPU 10. Based on the key data and the touch data, the CPU 10 performs sound generation or mute processing according to key press or key release.

【0034】演奏データメモリ17は、本発明の第1の
記憶手段及び第2の記憶手段に対応し、例えばROMで
構成されている。この演奏データメモリ17は、自動演
奏に使用される演奏データを記憶する。この演奏データ
メモリ17に記憶される演奏データの詳細については、
後に詳細に説明する。
The performance data memory 17 corresponds to the first storage means and the second storage means of the present invention, and is constituted by, for example, a ROM. The performance data memory 17 stores performance data used for automatic performance. For details of the performance data stored in the performance data memory 17,
Details will be described later.

【0035】本発明の演奏音発生手段は、波形メモリ1
8、音源19、D/A変換器20、増幅器21、スピー
カ22及び上述したCPU10により構成されている。
The performance sound generating means of the present invention comprises a waveform memory 1
8, a sound source 19, a D / A converter 20, an amplifier 21, a speaker 22, and the CPU 10 described above.

【0036】波形メモリ18は、例えばROMで構成さ
れ、波形データを記憶する。この波形メモリ18には、
複数の音色パラメータのそれぞれに対応した複数の波形
データが記憶されている。波形データは、例えば音信号
を電気信号に変換し、これをパルスコード変調(PC
M)することにより作成できる。この波形メモリ18
は、システムバス30を介して音源19によりアクセス
される。
The waveform memory 18 is composed of, for example, a ROM and stores waveform data. This waveform memory 18 has
A plurality of waveform data corresponding to each of the plurality of timbre parameters is stored. The waveform data is obtained, for example, by converting a sound signal into an electric signal and performing pulse code modulation (PC
M). This waveform memory 18
Are accessed by the sound source 19 via the system bus 30.

【0037】音源19は、複数の発音チャンネルを有し
ている。この音源19は、CPU10から指定された発
音チャンネルを使用して、音色パラメータに応じた楽音
信号を発生する。即ち、CPU10から発音チャンネル
の指定と音色パラメータを受け取ると、指定された発音
チャンネルは、波形メモリ18から波形データを読み出
し、これにエンベロープを付加することによりデジタル
楽音信号を生成する。このデジタル楽音信号は、D/A
変換器20に供給される。
The sound source 19 has a plurality of sound channels. The tone generator 19 generates a tone signal according to a tone color parameter using a tone generation channel designated by the CPU 10. That is, upon receiving the designation of the tone generation channel and the tone color parameter from the CPU 10, the designated tone generation channel reads out the waveform data from the waveform memory 18 and adds an envelope thereto to generate a digital tone signal. This digital tone signal is D / A
It is supplied to the converter 20.

【0038】D/A変換器20は、音源19からのデジ
タル楽音信号をアナログ楽音信号に変換して増幅器21
に送る。増幅器21は、受け取ったアナログ楽音信号を
増幅してスピーカ22に送る。スピーカ22は、増幅器
21からのアナログ楽音信号を音響信号に変換する。こ
れにより、スピーカ22から楽音が発生される。
The D / A converter 20 converts the digital tone signal from the sound source 19 into an analog tone signal, and
Send to The amplifier 21 amplifies the received analog musical tone signal and sends it to the speaker 22. The speaker 22 converts the analog tone signal from the amplifier 21 into an audio signal. Thereby, a musical sound is generated from the speaker 22.

【0039】入力ポート23は、本発明の指定手段に対
応する。この入力ポート23の一端側は、上述したよう
にシステムバス30に接続されており、他端側はジャン
パー線JPにより接地又はプルアップ(抵抗器Rを介し
て電源Vccに接続)できるように構成されている。こ
の入力ポート23は、複数の第2演奏データから1つを
選択するために使用される。即ち、CPU10は、この
入力ポート23から読み込んだデータが低レベル(Lレ
ベル)の場合はA機種用の第2演奏データを、高レベル
(Hレベル)の場合はB機種用の第2演奏データをそれ
ぞれ使用して自動伴奏を行う。
The input port 23 corresponds to the designation means of the present invention. One end of the input port 23 is connected to the system bus 30 as described above, and the other end is configured to be grounded or pulled up (connected to the power supply Vcc via the resistor R) by the jumper line JP. Have been. This input port 23 is used to select one from a plurality of second performance data. That is, when the data read from the input port 23 is at a low level (L level), the CPU 10 outputs the second performance data for model A, and when the data is at a high level (H level), the second performance data for model B is used. Are used to perform automatic accompaniment.

【0040】次に、演奏データメモリ17に格納される
演奏データの構成を、図3を参照しながら詳細に説明す
る。この演奏データメモリ17には、第1演奏データ、
A機種用の第2演奏データ及びB機種用の第2演奏デー
タが記憶されている。なお、この実施の形態1では、説
明を簡単にするために、A機種用及びB機種用といった
2種類の第2演奏データが使用されているが、3種類以
上の第2演奏データを使用することもできる。
Next, the configuration of performance data stored in the performance data memory 17 will be described in detail with reference to FIG. The performance data memory 17 stores first performance data,
Second performance data for model A and second performance data for model B are stored. In the first embodiment, for the sake of simplicity, two types of second performance data for model A and type B are used, but three or more types of second performance data are used. You can also.

【0041】また、第1演奏データ、A機種用の第2演
奏データ及びB機種用の第2演奏データの各々は、複数
の曲の演奏データを含んでいる。各曲の演奏データは、
図3に示すように、曲番号によって指定される。
Each of the first performance data, the second performance data for model A, and the second performance data for model B includes performance data of a plurality of songs. The performance data for each song is
As shown in FIG. 3, it is designated by a music number.

【0042】第1演奏データは、曲毎に複数の部分音符
データ(音符データの一部分をいう)と1つのENDデ
ータとで構成されている。各部分音符データは3バイト
で構成されており、各バイトにはキーナンバ、ステップ
タイム及びゲートタイムが割り当てられている。ここ
で、キーナンバは音高を指示するためのデータである。
ステップタイムは、発音時刻を指定するためのデータで
ある。ゲートタイムは発音の長さを指定するためのデー
タである。また、ENDデータは2バイトで構成されて
おり、各バイトにはエンドマーク及びステップタイムが
割り当てられている。エンドマークは特殊コードで構成
されており、1つの曲の終わりを指示するためのデータ
である。
The first performance data is composed of a plurality of partial note data (refer to a part of the note data) and one END data for each music piece. Each partial note data is composed of 3 bytes, and each byte is assigned a key number, a step time, and a gate time. Here, the key number is data for instructing the pitch.
The step time is data for specifying a sound generation time. The gate time is data for specifying the length of the sound. The END data is composed of 2 bytes, and each byte is assigned an end mark and a step time. The end mark is composed of a special code and is data for indicating the end of one music piece.

【0043】A機種用の第2演奏データ及びB機種用の
第2演奏データの各々は、曲毎に上記部分音符データの
数に対応するバイト数のデータで構成されている。各バ
イトにはベロシティが割り当てられている。このベロシ
ティは発音の強さを指定するためのデータである。A機
種用の第2演奏データに含まれるベロシティとB機種用
の第2演奏データに含まれるベロシティとでは、そのベ
ロシティの値が異なる。なお、第1演奏データには、部
分音符データ及びENDデータの他に、例えば音色変
更、音量変更といった制御を行うための制御データが含
まれるが、図3では図示を省略している。また、部分音
符データであるかそれ以外のデータであるかは、第1バ
イト目(キーナンバ)の最上位ビットで区別される。
Each of the second performance data for model A and the second performance data for model B is composed of data of the number of bytes corresponding to the number of partial note data for each music piece. Each byte is assigned a velocity. This velocity is data for designating the strength of pronunciation. The velocity value included in the second performance data for model A and the velocity included in the second performance data for model B are different. The first performance data includes control data for controlling, for example, tone color change and volume change, in addition to partial note data and END data, but is not shown in FIG. Whether the data is partial note data or other data is distinguished by the most significant bit of the first byte (key number).

【0044】次に、ワークメモリ12に定義されたレジ
スタ、カウンタ、フラグ等について、図4を参照しなが
ら説明する。
Next, registers, counters, flags, and the like defined in the work memory 12 will be described with reference to FIG.

【0045】自動演奏フラグは、この電子楽器が自動演
奏モードであるか通常演奏モードであるかを記憶する。
この自動演奏フラグは、自動演奏モードであれば
「1」、通常演奏モードであれば「0」に設定される。
曲番号レジスタは、曲選択スイッチ142によって選択
された曲の番号を記憶する。この曲番号レジスタの内容
は、第1演奏データ及び第2演奏データの中,から1つ
の曲に対応する部分(演奏データ)を選択するために使
用される。
The automatic performance flag stores whether the electronic musical instrument is in the automatic performance mode or the normal performance mode.
This automatic performance flag is set to "1" in the automatic performance mode and "0" in the normal performance mode.
The song number register stores the number of the song selected by the song selection switch 142. The contents of the music number register are used to select a portion (performance data) corresponding to one music from the first performance data and the second performance data.

【0046】音符データポインタは、自動演奏処理(後
述)において、現在処理されている1つの部分音符デー
タを指すために使用される。ベロシティデータポインタ
は、自動演奏処理(後述)において、現在処理されてい
るベロシティデータを指すために使用される。
The note data pointer is used in automatic performance processing (described later) to indicate one piece of note data currently being processed. The velocity data pointer is used in automatic performance processing (described later) to indicate velocity data currently being processed.

【0047】旧パネルデータレジスタは、前回のパネル
処理(後述する)で得られたパネルデータを記憶する。
新パネルデータレジスタは、今回のパネル処理で得られ
たパネルデータを記憶する。これら旧パネルデータレジ
スタ及び新パネルデータレジスタの内容に基づいて操作
パネル14上のスイッチのイベントがあったかどうかが
判断される。
The old panel data register stores panel data obtained in the previous panel processing (described later).
The new panel data register stores the panel data obtained by the current panel processing. Based on the contents of the old panel data register and the new panel data register, it is determined whether or not a switch event on the operation panel 14 has occurred.

【0048】タイミングカウンタは、自動演奏の進行を
制御するために使用される。このタイミングカウンタの
内容は、電子楽器が自動演奏モードに入った時にクリア
され、その後、その時点で設定されているテンポに応じ
た速度でカウントアップされる。
The timing counter is used to control the progress of the automatic performance. The contents of the timing counter are cleared when the electronic musical instrument enters the automatic performance mode, and thereafter, are counted up at a speed corresponding to the tempo set at that time.

【0049】基底アドレスレジスタは、入力ポート23
からのデータに応じてA機種用の第2演奏データの先頭
アドレス又はB機種用の第2演奏データの先頭アドレス
を格納する。
The base address register is located at the input port 23
The head address of the second performance data for the model A or the head address of the second performance data for the model B is stored in accordance with the data from.

【0050】曲番号−記憶位置変換テーブルは、曲番号
を、第1演奏データ、A機種用の第2演奏データ及びB
機種用の第2演奏データの中の、その曲番号に対応する
部分(演奏データ)の先頭アドレスに変換するために使
用される。
The music number-storage position conversion table stores the music number in the first performance data, the second performance data for the A model, and the B performance data.
It is used to convert to the head address of the part (performance data) corresponding to the music number in the second performance data for the model.

【0051】次に、上記のように構成された本発明の実
施の形態1に係る自動演奏装置が適用された電子楽器の
動作を、図5〜図7のフローチャートを参照しながら説
明する。
Next, the operation of the electronic musical instrument to which the automatic musical instrument according to the first embodiment of the present invention configured as described above is applied will be described with reference to the flowcharts of FIGS.

【0052】(1−1)メイン処理 図5は、この電子楽器のメイン処理を示すフローチャー
トである。このメイン処理ルーチンは、電源の投入によ
り起動される。このメイン処理ルーチンが起動される
と、先ず、初期化処理が行われる(ステップS10)。
この初期化処理では、CPU10の内部がリセットされ
ると共に、ワークメモリ12に定義されているバッフ
ァ、レジスタ、カウンタ、フラグ等が初期状態に設定さ
れる。例えば、この初期化処理では、入力ポート23か
らデータが読み込まれる。そして、読み込まれたデータ
がLレベルであればA機種用の第2演奏データの先頭ア
ドレス(曲番号1の演奏データの先頭アドレスに等し
い)が、基底アドレスレジスタにセットされる。一方、
読み込まれたデータがHレベルであればB機種用の第2
演奏データの先頭アドレス(曲番号1の演奏データの先
頭アドレスに等しい)が、基底アドレスレジスタにセッ
トされる。以下の処理においては、この第2演奏データ
先頭アドレスレジスタの内容が、第2演奏データを算出
する祭の基底アドレスとして使用される。
(1-1) Main Processing FIG. 5 is a flowchart showing the main processing of the electronic musical instrument. This main processing routine is started when the power is turned on. When the main processing routine is started, first, an initialization processing is performed (step S10).
In this initialization process, the inside of the CPU 10 is reset, and buffers, registers, counters, flags, and the like defined in the work memory 12 are set to an initial state. For example, in this initialization processing, data is read from the input port 23. If the read data is at the L level, the start address of the second performance data for model A (equal to the start address of the performance data of the music number 1) is set in the base address register. on the other hand,
If the read data is at H level, the second
The head address of the performance data (equal to the head address of the performance data of the music number 1) is set in the base address register. In the following processing, the contents of the second performance data head address register are used as the base address of the festival for calculating the second performance data.

【0053】この初期化処理が終了すると、次いで、パ
ネル処理が行われる(ステップS11)。このパネル処
理では、操作パネル14上のスイッチの操作に対応する
処理や、表示器141の点灯又は消灯処理、及びディス
プレイ装置143にデータを表示する処理等が行われ
る。このパネル処理の詳細については後述する。
When the initialization process is completed, a panel process is performed (step S11). In the panel processing, processing corresponding to the operation of a switch on the operation panel 14, processing for turning on or off the display 141, processing for displaying data on the display device 143, and the like are performed. Details of this panel processing will be described later.

【0054】次いで、鍵盤処理が行われる(ステップS
12)。この鍵盤処理では、発音処理、消音処理等が行
われる。この鍵盤処理の概要は以下の通りである。即
ち、先ず、鍵スキャン処理が行われる。この処理では、
鍵盤装置16から鍵盤インタフェース回路15を介して
キーデータ(以下、これを「新キーデータ」という)が
読み込まれ、新キーデータレジスタ(図示せず)に格納
される。そして、前回の鍵盤処理で鍵盤装置16から読
み込まれ、ワークメモリ12の旧キーデータレジスタ
(図示せず)に記憶されているキーデータ(以下、「旧
キーデータ」という)と上記新キーデータとの排他的論
理和演算が行われる。この演算結果は、キーイベントマ
ップとして、ワークメモリ12のキーイベントマップ領
域(図示せず)に格納される。その後、新キーデータは
旧キーデータとしてワークメモリ12の旧キーデータレ
ジスタに格納される。
Next, keyboard processing is performed (step S).
12). In this keyboard processing, sound generation processing, mute processing, and the like are performed. The outline of this keyboard processing is as follows. That is, first, a key scan process is performed. In this process,
Key data (hereinafter referred to as “new key data”) is read from the keyboard device 16 via the keyboard interface circuit 15 and stored in a new key data register (not shown). The key data (hereinafter referred to as “old key data”) read from the keyboard device 16 in the previous keyboard processing and stored in the old key data register (not shown) of the work memory 12 and the new key data Exclusive OR operation is performed. This calculation result is stored in a key event map area (not shown) of the work memory 12 as a key event map. Thereafter, the new key data is stored in the old key data register of the work memory 12 as old key data.

【0055】次いで、押鍵イベントがあるかどうかが調
べられる。これは、キーイベントマップ中のオンになっ
ているビットに対応する新キーデータ中のビットにオン
になっているビットが存在するかどうかを調べることに
より行われる。ここで、押鍵イベントがあることが判断
されると、次いで、キーイベントマップ中のオンになっ
ているビットに対応する新キーデータ中のオンになって
いるビットに割り当てられているノートナンバが算出さ
れる。
Next, it is checked whether there is a key press event. This is performed by checking whether or not a bit in the new key data corresponding to an on bit in the key event map has an on bit. Here, if it is determined that there is a key press event, then the note number assigned to the ON bit in the new key data corresponding to the ON bit in the key event map is changed. Is calculated.

【0056】次いで、発音処理が行われる。この発音処
理では、上述したようにして算出されたノートナンバ、
鍵盤インタフェース回路15から読み込まれたタッチデ
ータ及びその時点で選択されている音色等に基づきプロ
グラムメモリ11から1つの音色パラメータが読み出さ
れる。次いで、音源19中の1つの発音チャンネルが当
該音の発音用に割り当てられる。そして、上記読み出さ
れた音色パラメータが、この割り当てられた発音チャン
ネルに送られる。これにより、その発音チャンネルにお
いて、上記音色パラメータに基づいた楽音信号が生成さ
れ、これがD/A変換器20、増幅器21及びスピーカ
22に順次送られて鍵操作に基づく音が発生される。
Next, a tone generation process is performed. In this sound generation process, the note number calculated as described above,
One tone color parameter is read from the program memory 11 based on the touch data read from the keyboard interface circuit 15 and the tone color selected at that time. Next, one sounding channel in the sound source 19 is assigned for sounding the sound. Then, the read timbre parameters are sent to the assigned tone generation channel. As a result, a tone signal based on the tone color parameter is generated in the sounding channel, and the tone signal is sequentially transmitted to the D / A converter 20, the amplifier 21, and the speaker 22 to generate a sound based on a key operation.

【0057】一方、押鍵イベントがないことが判断され
ると、次いで、離鍵イベントがあるかどうかが調べられ
る。これは、上記キーイベントマップ中のオンになって
いるビットに対応する新キーデータ中のビットの中にオ
フになっているビットが存在するかどうかを調べること
により行われる。ここで、離鍵イベントがあることが判
断されると、上記と同様にして、キーイベントマップ中
のオンになっているビットに対応する新キーデータ中の
オフになっているビットに割り当てられているノートナ
ンバが算出される。次いで、算出されたノートナンバに
対応する音の消音処理が行われる。この消音処理では、
所定のデータが当該ノートナンバの発音用に割り当てら
れている発音チャンネルに送られる。これにより、当該
発音チャンネルで発音中の音が消音される。以上の処理
によって、鍵盤装置16の操作に応じた発音及び消音が
行われる。
On the other hand, if it is determined that there is no key press event, then it is checked whether there is a key release event. This is performed by checking whether or not there is an off bit among the bits in the new key data corresponding to the on bit in the key event map. Here, if it is determined that there is a key release event, in the same manner as described above, the new key data is assigned to the OFF bit in the new key data corresponding to the ON bit in the key event map. Note number is calculated. Next, silencing processing of a sound corresponding to the calculated note number is performed. In this silencing process,
The predetermined data is sent to a sound channel assigned for sounding the note number. As a result, the sound being generated in the sound channel is muted. Through the above processing, sound generation and mute according to the operation of the keyboard device 16 are performed.

【0058】以上の鍵盤処理が完了すると、次いで、自
動演奏処理が行われる(ステップS13)。この自動演
奏処理では、演奏データメモリ17から演奏データが読
み出され、この読み出された演奏データに基づいて演奏
音が発生される。この自動演奏処理の詳細については、
後述する。
When the above keyboard processing is completed, an automatic performance processing is performed (step S13). In this automatic performance process, performance data is read from the performance data memory 17, and a performance sound is generated based on the read performance data. For details on this automatic performance process,
It will be described later.

【0059】次いで、「その他の処理」が行われる(ス
テップS14)。この「その他の処理」では、例えば図
示しないMIDIインタフェース回路を介して外部機器
との間でMIDIデータを送受信する処理等が行われ
る。その後、ステップS11に戻り、以下、同様の処理
が繰り返される。
Next, "other processing" is performed (step S14). In this “other processing”, for example, processing for transmitting / receiving MIDI data to / from an external device via a MIDI interface circuit (not shown) is performed. Thereafter, the process returns to step S11, and the same processing is repeated thereafter.

【0060】このように、メイン処理ルーチンの上記ス
テップS11〜S14の繰り返し実行の過程で操作パネ
ル14又は鍵盤装置16が操作されると、その操作に対
応する処理が行われ、電子楽器及び自動演奏装置として
の各種機能が実現されている。
As described above, when the operation panel 14 or the keyboard device 16 is operated during the repetitive execution of the steps S11 to S14 of the main processing routine, the processing corresponding to the operation is performed, and the electronic musical instrument and the automatic performance are executed. Various functions as a device are realized.

【0061】(1−2)パネル処理 次に、パネル処理の詳細について、図6のフローチャー
トを参照しながら説明する。このパネル処理ルーチン
は、メイン処理ルーチンから一定周期でコールされる。
(1-2) Panel Processing Next, details of the panel processing will be described with reference to the flowchart of FIG. This panel processing routine is called at regular intervals from the main processing routine.

【0062】パネル処理では、先ず、スイッチイベント
の有無が調べられる(ステップS20)。これは以下の
手順で行われる。先ず、CPU10は、操作パネル14
からパネルデータ(以下、「新パネルデータ」という)
を読み込み、新パネルデータレジスタに格納する。次い
で、この新パネルデータと、前回のパネル処理で読み込
まれて既に旧パネルデータレジスタに記憶されているパ
ネルデータ(以下、「旧パネルデータ」という)との排
他的論理和をとってパネルイベントマップを作成する。
このパネルイベントマップの全ビットがゼロであればス
イッチイベントは発生しなかったものと判断され、そう
でなければスイッチイベントが発生したものと判断され
る。
In the panel processing, first, the presence or absence of a switch event is checked (step S20). This is performed in the following procedure. First, the CPU 10 operates the operation panel 14.
To panel data (hereinafter referred to as “new panel data”)
Is read and stored in the new panel data register. Next, an exclusive OR of the new panel data and the panel data read in the previous panel processing and already stored in the old panel data register (hereinafter, referred to as “old panel data”) is calculated to obtain a panel event map. Create
If all the bits of this panel event map are zero, it is determined that no switch event has occurred, otherwise it is determined that a switch event has occurred.

【0063】このステップS20でスイッチイベントが
ないことが判断されると、シーケンスはこのパネル処理
ルーチンからメイン処理ルーチンにリターンする。一
方、スイッチイベントがあることが判断されると、次い
で、自動演奏スイッチ140のオンイベントがあるかど
うかが調べられる(ステップS21)。これは、パネル
イベントマップ中の自動演奏スイッチ140に対応する
ビットが「1」であり、且つ新パネルデータ中の自動演
奏スイッチ140に対応するビットが「1」であるかど
うかを調べることにより行われる。ここで、自動演奏ス
イッチ140のオンイベントがないことが判断される
と、シーケンスはステップS26へ分岐する。
If it is determined in step S20 that there is no switch event, the sequence returns from the panel processing routine to the main processing routine. On the other hand, if it is determined that there is a switch event, then it is checked whether there is an ON event of the automatic performance switch 140 (step S21). This is performed by checking whether the bit corresponding to the automatic performance switch 140 in the panel event map is “1” and the bit corresponding to the automatic performance switch 140 in the new panel data is “1”. Will be Here, if it is determined that there is no ON event of the automatic performance switch 140, the sequence branches to step S26.

【0064】一方、自動演奏スイッチ140のオンイベ
ントがあることが判断されると、次いで、自動演奏モー
ドであるかどうかが調べられる(ステップS22)。こ
れは、自動演奏フラグを調べることにより行われる。自
動演奏モードであるかどうかの判断は、以下においても
同じ方法で行われる。
On the other hand, if it is determined that there is an ON event of the automatic performance switch 140, then it is checked whether or not the automatic performance mode is set (step S22). This is performed by checking the automatic performance flag. The determination as to whether the mode is the automatic performance mode is made in the same manner in the following.

【0065】そして、自動演奏モードであることが判断
されると、自動演奏フラグが「0」にクリアされ(ステ
ップS23)、その後シーケンスはステップS26に進
む。一方、自動演奏モードでないことが判断されると自
動演奏フラグが「1」にセットされ(ステップS2
4)、次いで、自動演奏開始処理が行われる(ステップ
S25)。
If it is determined that the mode is the automatic performance mode, the automatic performance flag is cleared to "0" (step S23), and then the sequence proceeds to step S26. On the other hand, if it is determined that the mode is not the automatic performance mode, the automatic performance flag is set to "1" (step S2).
4) Then, automatic performance start processing is performed (step S25).

【0066】この自動演奏開始処理では、先ず、音符デ
ータポインタ及びベロシティデータポインタに初期値が
設定される。即ち、第1演奏データの中の、その時点で
選択されている曲(曲番号レジスタに曲番号として格納
されている)に対応する部分(演奏データ)の先頭アド
レスが曲番号−記憶位置変換テーブルから読み出され、
音符データポインタにセットされる。
In this automatic performance start processing, first, initial values are set in the note data pointer and the velocity data pointer. That is, in the first performance data, the head address of the portion (performance data) corresponding to the currently selected song (stored as the song number in the song number register) is the song number-storage position conversion table. Read from
Set to the note data pointer.

【0067】同様に、第2演奏データの中の、その時点
で選択されている曲に対応する部分(演奏データ)の先
頭アドレスが曲番号−記憶位置変換テーブルから読み出
され、更に基底アドレスレジスタの内容が加算されてベ
ロシティデータポインタにセットされる。これにより、
入力ポート23からのデータに応じてA機種用又はB機
種用の何れかの第2演奏データが選択され、且つ選択さ
れた第2演奏データの曲番号に対応する部分の先頭アド
レスがベロシティデータポインタにセットされることに
なる。
Similarly, the start address of the portion (performance data) corresponding to the currently selected song in the second performance data is read from the song number-storage position conversion table, and furthermore, the base address register Are added and set in the velocity data pointer. This allows
The second performance data for either Model A or Model B is selected according to the data from the input port 23, and the head address of the portion corresponding to the music number of the selected second performance data is a velocity data pointer. Will be set to

【0068】また、自動演奏開始処理では、タイミング
カウンタの内容がゼロにクリアされると共に、カウント
イネーブルにされる。これにより、タイミングカウンタ
は、その時点で設定されているテンポに応じたインター
バルでカウントアップ動作を開始する。その後シーケン
スはステップS26に分岐する。
In the automatic performance start process, the contents of the timing counter are cleared to zero and the count is enabled. Accordingly, the timing counter starts counting up at intervals corresponding to the tempo set at that time. Thereafter, the sequence branches to step S26.

【0069】上記ステップS22〜S24の処理によ
り、自動演奏スイッチ140が押される度に自動演奏モ
ードと通常演奏モードとが交互に反転する。また、上記
ステップS25の処理により、演奏データメモリ17内
の部分音符データ及びベロシティデータを実際に読み出
すアドレスが決定される。
Through the processing of steps S22 to S24, each time the automatic performance switch 140 is pressed, the automatic performance mode and the normal performance mode are alternately reversed. Further, by the processing in step S25, the address at which the partial note data and velocity data in the performance data memory 17 are actually read is determined.

【0070】ステップS26では、曲選択スイッチ14
2のオンイベントがあるかどうかが調べられる。これ
は、パネルイベントマップ中のアップスイッチ142a
又はダウンスイッチ142bの中の何れかに対応するビ
ットが「1」であり、且つ新パネルデータ中のこれらの
スイッチに対応するビットが「1」であるかどうかを順
次調べることにより行われる。ここで、曲選択スイッチ
142の中の何れかのスイッチのオンイベントがあるこ
とが判断されると、オンイベントのあったスイッチに対
応して曲番号が変更される(ステップS27)。即ち、
アップスイッチ142aのオンイベントであれば曲番号
レジスタの内容がインクリメントされ、ダウンスイッチ
142bのオンイベントであれば曲番号レジスタの内容
がデクリメントされる。これらインクリメント又はデク
リメントした結果得られる曲番号は、ディスプレイ装置
143に表示される。上記ステップS26で曲選択スイ
ッチ142のイベントがないことが判断されると、ステ
ップS27はスキップされる。
In step S26, the music selection switch 14
It is checked whether there is a second ON event. This corresponds to the up switch 142a in the panel event map.
Alternatively, this is performed by sequentially checking whether the bit corresponding to any of the down switches 142b is “1” and the bits corresponding to these switches in the new panel data are “1”. Here, when it is determined that any one of the music selection switches 142 has an ON event, the music number is changed corresponding to the switch having the ON event (step S27). That is,
If the up switch 142a is an on event, the content of the song number register is incremented. If the down switch 142b is an on event, the content of the song number register is decremented. The music number obtained as a result of the increment or decrement is displayed on the display device 143. If it is determined in step S26 that there is no event of the music selection switch 142, step S27 is skipped.

【0071】次いで、「その他のスイッチ処理」が行わ
れる(ステップS28)。この「その他のスイッチ処
理」では、例えば音色選択スイッチのイベントに応じた
音色変更処理、テンポ設定スイッチのイベントに応じた
テンポ設定処理、音響効果選択スイッチのイベントに応
じた音響効果付与処理、音量スイッチのイベントに応じ
た音量変更処理等が行われる。そして、最後に、新パネ
ルデータが旧パネルデータレジスタに移動され(図示し
ない)、パネル処理は完了する。
Next, "other switch processing" is performed (step S28). The “other switch processing” includes, for example, a tone change processing according to an event of a tone selection switch, a tempo setting processing according to an event of a tempo setting switch, a sound effect giving processing according to an event of a sound effect selection switch, and a volume switch. The volume change processing and the like according to the event are performed. Finally, the new panel data is moved to the old panel data register (not shown), and the panel processing is completed.

【0072】(1−3)自動演奏処理 次に、自動演奏処理の詳細について、図7のフローチャ
ートを参照しながら説明する。この自動演奏処理ルーチ
ンは、メイン処理ルーチンから一定周期でコールされ
る。
(1-3) Automatic Performance Process Next, details of the automatic performance process will be described with reference to the flowchart of FIG. This automatic performance processing routine is called at regular intervals from the main processing routine.

【0073】自動演奏処理では、先ず、電子楽器が自動
演奏モードにあるかどうかが調べられる(ステップS3
0)。ここで、自動演奏モードにない、つまり通常演奏
モードにあることがことが判断されると、シーケンスは
メイン処理ルーチンにリターンする。これにより自動演
奏を停止する機能が実現されている。
In the automatic performance processing, first, it is checked whether or not the electronic musical instrument is in the automatic performance mode (step S3).
0). If it is determined that the mode is not in the automatic performance mode, that is, in the normal performance mode, the sequence returns to the main processing routine. Thereby, a function of stopping the automatic performance is realized.

【0074】一方、自動演奏モードであることが判断さ
れると、タイミングカウンタの内容がステップタイムデ
ータに一致するかどうかが調べられる(ステップS3
1)。即ち、音符データポインタで指される位置から3
バイトのデータが読み出され、ワークメモリ12の所定
領域に記憶される。そして、そのデータの2バイト目に
格納されているステップタイムデータ(部分音符デー
タ、ENDデータ、その他の制御データを問わず、第2
バイト目にはステップタイムデータが格納されている)
とタイミングカウンタの内容とが比較される。ここで、
タイミングカウンタの内容がステップタイムデータに一
致しないことが判断されると、当該部分音符データは、
未だ発音タイミングに至っていないものと認識され、シ
ーケンスはメイン処理ルーチンにリターンする。
On the other hand, if it is determined that the mode is the automatic performance mode, it is checked whether or not the content of the timing counter matches the step time data (step S3).
1). That is, 3 from the position pointed by the note data pointer
The byte data is read and stored in a predetermined area of the work memory 12. The step time data (partial note data, END data, other control data,
Step time data is stored in the byte.)
And the contents of the timing counter are compared. here,
When it is determined that the content of the timing counter does not match the step time data, the partial note data is
It is recognized that the sounding timing has not yet been reached, and the sequence returns to the main processing routine.

【0075】一方、上記ステップS31でタイミングカ
ウンタの内容がステップタイムデータに一致することが
判断されると、次いで、上記ワークメモリ12の所定領
域に格納されているデータは、部分音符データであるか
どうかが調べられる(ステップS32)。これは、該デ
ータの第1バイト目の最上位ビットを調べることにより
行われる。
On the other hand, if it is determined in step S31 that the content of the timing counter matches the step time data, then the data stored in the predetermined area of the work memory 12 is partial note data. It is checked whether it is (step S32). This is done by examining the most significant bit of the first byte of the data.

【0076】このステップS32で、部分音符データで
あることが判断されると、次いで、ベロシティデータの
読み込みが行われる(ステップS33)。即ち、ベロシ
ティデータポインタで指定される位置から1バイトのベ
ロシティデータが読み出される。これにより、1つの音
を発生するために必要なキーナンバ、ゲートタイム及び
ベロシティの各データが揃う。次いで、発音処理が行わ
れる(ステップS34)。
If it is determined in step S32 that the data is partial note data, then velocity data is read (step S33). That is, 1-byte velocity data is read from the position specified by the velocity data pointer. As a result, the key number, gate time, and velocity data necessary to generate one sound are prepared. Next, a sound generation process is performed (step S34).

【0077】発音処理では、音源19の所定の発音チャ
ンネルに発音が割り当てられる。そして、音符データ中
のキーナンバ、ベロシティ、及びその時点で選択されて
いる音色等に基づきプログラムメモリ11から音色パラ
メータを読み出され、これらが音源19の割り当てられ
た発音チャンネルに送られる。これにより、該発音チャ
ンネルにおいて、上記音色パラメータに基づいたデジタ
ル楽音信号が生成され、これがD/A変換器20、増幅
器21及びスピーカ22に順次送られて演奏音が発音さ
れる。なお、消音は、図示しない消音処理ルーチンでゲ
ートタイムがゼロになった音源19中の発音チャンネル
が検索され、この発音チャンネルに所定のデータが送ら
れることにより行われる。
In the sound generation process, a sound is assigned to a predetermined sound generation channel of the sound source 19. Then, tone color parameters are read from the program memory 11 based on the key number and velocity in the note data, the tone color selected at that time, and the like, and are sent to the tone generation channel assigned to the tone generator 19. As a result, a digital tone signal based on the tone color parameter is generated in the tone generation channel, and the digital tone signal is sequentially sent to the D / A converter 20, the amplifier 21, and the speaker 22, and the performance tone is emitted. The mute is performed by searching for a sound channel in the sound source 19 whose gate time has become zero by a silence processing routine (not shown) and sending predetermined data to this sound channel.

【0078】次いで、ベロシティデータポインタの更新
が行われる(ステップS35)。即ち、ベロシティデー
タポインタの内容がインクリメント(+1)される。次
いで、音符データポインタの更新が行われる(ステップ
S36)。即ち、音符データポインタの内容がインクリ
メント(+3)される。その後、シーケンスはステップ
S31に戻り、以下同様の処理が繰り返される。この繰
り返し処理により、現在のタイミングカウンタの内容と
異なるステップタイムデータを有する部分音符データが
出現するまで発音処理が行われる。
Next, the velocity data pointer is updated (step S35). That is, the content of the velocity data pointer is incremented (+1). Next, the note data pointer is updated (step S36). That is, the content of the note data pointer is incremented (+3). Thereafter, the sequence returns to step S31, and the same processing is repeated thereafter. By this repetition processing, sound generation processing is performed until partial note data having step time data different from the content of the current timing counter appears.

【0079】一方、上記ステップS32で、部分音符デ
ータでないことが判断されると、その他の処理が行われ
る(ステップS37)。その「その他の処理」には、E
NDデータである場合の自動演奏終了処理、制御データ
である場合の各種制御処理が含まれる。例えば、自動演
奏終了処理では、自動演奏フラグが「0」にクリアされ
る。これにより、メイン処理ルーチンから自動演奏処理
ルーチンがコールされてもステップS30における判断
に従って直ちにメイン処理ルートにリターンするので、
自動演奏は行われない。また、例えば音色を変更するた
めの制御処理では、現在の音色を記憶している図示しな
いレジスタの内容が変更される。これにより、以降の発
音処理(ステップS34)では、選択される音色パラメ
ータが、その音色に対応するものに変更されるので、自
動演奏の音色が変更される。その後、シーケンスはステ
ップS36に分岐し、以下同様の処理が繰り返される。
なお、この「その他の処理」が行われる場合は、ベロシ
ティデータポインタの内容は変更されないので、部分音
符データとベロシティデータとの対応関係が破壊される
ことはない。
On the other hand, if it is determined in step S32 that the data is not partial note data, other processing is performed (step S37). The "other processing" includes E
Automatic performance end processing when the data is ND data, and various control processing when the data is control data are included. For example, in the automatic performance end processing, the automatic performance flag is cleared to “0”. As a result, even if the automatic performance processing routine is called from the main processing routine, the routine immediately returns to the main processing route according to the determination in step S30.
No automatic performance is performed. In addition, for example, in the control processing for changing the tone color, the contents of a register (not shown) that stores the current tone color is changed. As a result, in the subsequent tone generation process (step S34), the selected timbre parameter is changed to the one corresponding to the timbre, so that the timbre of the automatic performance is changed. Thereafter, the sequence branches to step S36, and the same processing is repeated thereafter.
When the "other processing" is performed, the content of the velocity data pointer is not changed, so that the correspondence between partial note data and velocity data is not destroyed.

【0080】上記の実施の形態1では、入力ポート23
から得られたデータに基づいて、複数の第2演奏データ
から1つの演奏データを選択するように構成したが、操
作パネル14上に、第2演奏データ選択用のスイッチを
設け、このスイッチの設定状態に応じて1つの第2演奏
データを選択するように構成してもよい。更には、電子
楽器に各種パラメータを設定するためのシステム値設定
モードを有する電子楽器では、このシステム設定値モー
ドにおいて、所定の値を設定することにより、複数の第
2演奏データの中から1つの演奏データを選択するよう
に構成してもよい。
In the first embodiment, the input port 23
Is configured to select one piece of performance data from a plurality of pieces of second performance data on the basis of the data obtained from the above. However, a switch for selecting the second performance data is provided on the operation panel 14, and the setting of this switch is performed. You may be comprised so that one 2nd performance data may be selected according to a state. Further, in an electronic musical instrument having a system value setting mode for setting various parameters in the electronic musical instrument, by setting a predetermined value in this system setting value mode, one of the plurality of second performance data is set. You may be comprised so that performance data may be selected.

【0081】また、上記実施の形態1では、第2演奏デ
ータを構成する各ベロシティデータは第1演奏データを
構成する部分音符データの1つと1対1に対応するよう
に構成したが、各第2演奏データは、各キーナンバに対
応するベロシティデータで構成することができる。この
場合、自動演奏処理のステップS33では、部分音符デ
ータに含まれるキーナンバに対応するベロシティデータ
を第2演奏データから読み出すように構成すればよい。
Further, in the first embodiment, each velocity data constituting the second performance data corresponds to one of the partial note data constituting the first performance data in a one-to-one correspondence. The two performance data can be composed of velocity data corresponding to each key number. In this case, in step S33 of the automatic performance processing, the velocity data corresponding to the key number included in the partial note data may be read from the second performance data.

【0082】(実施の形態2)この実施の形態2に係る
自動演奏装置では、1種類の第1演奏データと1種類の
第2演奏データとを有する。図8に示されるように、第
1演奏データは、音符データ(キーナンバ、ステップタ
イム、ゲートタイム及びベロシティ)で構成され、第2
演奏データは音符データの一部分(ベロシティ)で構成
されている。A機種では第1演奏データに含まれる各音
符データはそのまま使用される。B機種では、第1演奏
データに含まれる各音符データのベロシティが第2演奏
データに含まれる各ベロシティデータで置き換えられる
ことにより形成される音符データが使用される。
(Embodiment 2) The automatic performance apparatus according to Embodiment 2 has one type of first performance data and one type of second performance data. As shown in FIG. 8, the first performance data is composed of note data (key number, step time, gate time and velocity),
Performance data is composed of a part (velocity) of note data. In the model A, each note data included in the first performance data is used as it is. In the B model, note data formed by replacing the velocity of each note data included in the first performance data with each velocity data included in the second performance data is used.

【0083】本実施の形態2に係る自動演奏装置が適用
された電子楽器の構成は、上述した実施の形態1の電子
楽器の構成(図1のブロック図)と同じである。
The configuration of the electronic musical instrument to which the automatic performance device according to the second embodiment is applied is the same as the configuration of the electronic musical instrument of the first embodiment (block diagram in FIG. 1).

【0084】ワークメモリ12に設けられた基底アドレ
スレジスタには、本電子楽器がA機種として動作する場
合に「0」セットされ、B機種として動作する場合は
「1」がセットされる。また、曲番号−記憶位置変換テ
ーブルは、曲番号を、第1演奏データ及び第2演奏デー
タの中の、その曲番号に対応する部分(演奏データ)の
先頭アドレスに変換するために使用される。
The base address register provided in the work memory 12 is set to “0” when the electronic musical instrument operates as model A, and is set to “1” when the electronic musical instrument operates as model B. The song number-storage position conversion table is used to convert a song number into a first address of a portion (performance data) corresponding to the song number in the first performance data and the second performance data. .

【0085】次に、上記のように構成された本発明の実
施の形態2に係る自動演奏装置が適用された電子楽器の
動作を、図5、図6及び図9のフローチャートを参照し
ながら説明する。なお、上述した実施の形態1と同一又
は相当部分には同一符号を付して説明は省略乃至簡略化
し、相違部分を中心に説明する。
Next, the operation of the electronic musical instrument to which the automatic musical instrument according to the second embodiment of the present invention configured as described above is applied will be described with reference to the flowcharts of FIGS. 5, 6 and 9. I do. The same or corresponding portions as those in the first embodiment are denoted by the same reference numerals, and the description thereof will be omitted or simplified, and different portions will be mainly described.

【0086】(2−1)メイン処理 この電子楽器のメイン処理は、初期化処理(ステップS
10)の処理内容を除き、実施の形態1のメイン処理
(図5に示すフローチャート参照)と同じである。
(2-1) Main Processing The main processing of the electronic musical instrument is an initialization processing (step S
Except for the content of the process 10), it is the same as the main process of the first embodiment (see the flowchart shown in FIG. 5).

【0087】この実施の形態2における初期化処理で
は、入力ポート23から読み込まれたデータがLレベル
であればA機種として動作すべき旨が認識され、「0」
が基底アドレスレジスタにセットされる。一方、読み込
まれたデータがHレベルであればB機種として動作すべ
き旨が認識され、「1」が基底アドレスレジスタにセッ
トされる。以下の処理においては、この基底アドレスレ
ジスタの内容に従って、使用する演奏データが選択され
る。
In the initialization process according to the second embodiment, if the data read from the input port 23 is at the L level, it is recognized that the A type should be operated, and "0" is set.
Is set in the base address register. On the other hand, if the read data is at the H level, it is recognized that the operation is to be performed as the B model, and “1” is set in the base address register. In the following processing, performance data to be used is selected according to the contents of the base address register.

【0088】(2−2)パネル処理 この電子楽器のパネル処理は、自動演奏開始処理(ステ
ップS25)の処理内容を除き、実施の形態1のパネル
処理(図6に示すフローチャート参照)と同じである。
(2-2) Panel Processing The panel processing of this electronic musical instrument is the same as the panel processing of the first embodiment (see the flowchart shown in FIG. 6) except for the processing content of the automatic performance start processing (step S25). is there.

【0089】この自動演奏開始処理では、先ず、音符デ
ータポインタ及びベロシティデータポインタに初期値が
設定される。即ち、第1演奏データの中の、その時点で
選択されている曲(曲番号レジスタに曲番号として格納
されている)に対応する部分(演奏データ)の先頭アド
レスが曲番号−記憶位置変換テーブルから読み出され、
音符データポインタにセットされる。
In the automatic performance start processing, first, initial values are set in the note data pointer and the velocity data pointer. That is, in the first performance data, the head address of the portion (performance data) corresponding to the currently selected song (stored as the song number in the song number register) is the song number-storage position conversion table. Read from
Set to the note data pointer.

【0090】同様に、第2演奏データの中の、その時点
で選択されている曲に対応する部分(演奏データ)の先
頭アドレスが曲番号−記憶位置変換テーブルから読み出
されてベロシティデータポインタにセットされる。この
ベロシティデータポインタの内容は、本電子楽器がB機
種として動作するときにのみ参照される。
Similarly, the start address of the portion (performance data) corresponding to the currently selected song in the second performance data is read out from the song number-storage position conversion table, and stored in the velocity data pointer. Set. The content of the velocity data pointer is referred to only when the electronic musical instrument operates as model B.

【0091】(2−3)自動演奏処理 次に、自動演奏処理の詳細について、図9のフローチャ
ートを参照しながら説明する。この自動演奏処理ルーチ
ンは、メイン処理ルーチンから一定周期でコールされ
る。
(2-3) Automatic Performance Processing Next, details of the automatic performance processing will be described with reference to the flowchart of FIG. This automatic performance processing routine is called at regular intervals from the main processing routine.

【0092】ステップS30の処理は、上述した実施の
形態1の処理(図7のフローチャート参照)と同じであ
る。このステップS30で、自動演奏モードであること
が判断されると、タイミングカウンタの内容がステップ
タイムデータに一致するかどうかが調べられる(ステッ
プS31)。この際、音符データポインタで指される位
置から4バイトのデータが読み出される点が、3バイト
のデータが読み出される上記実施の形態1と異なる。
The processing in step S30 is the same as the processing in the first embodiment (see the flowchart in FIG. 7). If it is determined in step S30 that the automatic performance mode is set, it is checked whether or not the content of the timing counter matches the step time data (step S31). At this time, the point that 4-byte data is read from the position pointed to by the note data pointer is different from the first embodiment in which 3-byte data is read.

【0093】このステップS31でタイミングカウンタ
の内容がステップタイムデータに一致することが判断さ
れると、次いで、上記ワークメモリ12の所定領域に格
納されているデータは、音符データであるかどうかが調
べられる(ステップS32)。これは、該データの第1
バイト目の最上位ビットを調べることにより行われる。
If it is determined in step S31 that the content of the timing counter matches the step time data, then it is determined whether the data stored in the predetermined area of the work memory 12 is note data. Is performed (step S32). This is the first of the data
This is done by examining the most significant bit of the byte.

【0094】このステップS32で、音符データである
ことが判断されると、次いで、第2演奏データを使用す
るかどうかが調べられる(ステップS40)。これは、
基底レジスタの内容を調べることにより行われる。ここ
で第2演奏データを使用しない(基底レジスタの内容が
「0」である)ことが判断されると、ステップS33の
処理はスキップされる。この場合、先に読み出してワー
クメモリ12の所定領域に格納されている音符データ
(キーナンバ、ステップタイム、ゲートタイム及びベロ
シティ)が発音に使用される。
If it is determined in step S32 that the data is note data, then it is checked whether or not the second performance data is to be used (step S40). this is,
This is done by examining the contents of the base register. If it is determined that the second performance data is not used (the content of the base register is “0”), the process of step S33 is skipped. In this case, note data (key number, step time, gate time, and velocity) read out and stored in a predetermined area of the work memory 12 is used for sound generation.

【0095】一方、第2演奏データを使用する(基底レ
ジスタの内容が「1」である)ことが判断されると、ベ
ロシティデータの読み込みが行われる(ステップS3
3)。即ち、ベロシティデータポインタで指定される位
置から1バイトのベロシティデータが読み出される。そ
して、上記ワークメモリ12の所定領域に格納されいて
る音符データのベロシティ部分がこのベロシティデータ
によって置き換えられる。この場合、ベロシティデータ
が置き換えられた音符データが発音に使用される。
On the other hand, if it is determined that the second performance data is to be used (the content of the base register is "1"), velocity data is read (step S3).
3). That is, 1-byte velocity data is read from the position specified by the velocity data pointer. Then, the velocity portion of the note data stored in the predetermined area of the work memory 12 is replaced by the velocity data. In this case, note data in which the velocity data has been replaced is used for sound generation.

【0096】次いで、発音処理が行われる(ステップS
34)。次いで、ベロシティデータポインタの更新が行
われる(ステップS35)。即ち、ベロシティデータポ
インタの内容がインクリメント(+1)される。なお、
このステップS35の処理は第2演奏データが使用され
ないときは無意味であるので、その場合は省略するよう
に構成してもよい。
Next, a sound generation process is performed (step S).
34). Next, the velocity data pointer is updated (step S35). That is, the content of the velocity data pointer is incremented (+1). In addition,
The process of step S35 is meaningless when the second performance data is not used, and may be omitted in that case.

【0097】次いで、音符データポインタの更新が行わ
れる(ステップS36)。この際、音符データポインタ
が「+4」される点が、「+3」される上記実施の形態
1と異なる。その後、シーケンスはステップS31に戻
り、以下同様の処理が繰り返される。
Next, the note data pointer is updated (step S36). At this time, the point that the note data pointer is set to “+4” is different from that of the first embodiment in which the note data pointer is set to “+3”. Thereafter, the sequence returns to step S31, and the same processing is repeated thereafter.

【0098】一方、上記ステップS32で、部分音符デ
ータでないことが判断されると、その他の処理が行われ
る(ステップS37)。その「その他の処理」は、実施
の形態1のそれと同じである。
On the other hand, if it is determined in step S32 that the data is not partial note data, other processing is performed (step S37). The “other processing” is the same as that of the first embodiment.

【0099】なお、上記実施の形態2では、第2演奏デ
ータを構成する各ベロシティデータは第1演奏データを
構成する音符データの1つと1対1に対応するように構
成したが、各第2演奏データは、各キーナンバに対応す
るベロシティデータで構成することができる。この場
合、自動演奏処理のステップS33では、音符データに
含まれるキーナンバに対応するベロシティデータを第2
演奏データから読み出すように構成すればよい。
In the second embodiment, each velocity data constituting the second performance data corresponds to one of the note data constituting the first performance data on a one-to-one basis. The performance data can be composed of velocity data corresponding to each key number. In this case, in step S33 of the automatic performance processing, the velocity data corresponding to the key number included in the note data is stored in the second
What is necessary is just to comprise so that it may read from performance data.

【0100】(実施の形態3)この実施の形態3に係る
自動演奏装置は、1種類の第1演奏データと1種類の第
2演奏データとを有する。図10に示されるように、第
1演奏データは、音符データ(キーナンバ、ステップタ
イム、ゲートタイム及びベロシティ)で構成され、第2
演奏データは、上記音符データに含まれるベロシティに
対する変位データで構成されている。ここで、変位デー
タは、例えば2の補数形式で表されている。従って、変
位データは、正、ゼロ及び負の値をとることができる。
A機種では第1演奏データに含まれる各音符データはそ
のまま使用される。B機種では、第1演奏データに含ま
れる各音符データのベロシティに第2演奏データに含ま
れる変位データが加算されることにより形成される音符
データが記憶される。
(Embodiment 3) The automatic performance apparatus according to Embodiment 3 has one type of first performance data and one type of second performance data. As shown in FIG. 10, the first performance data is composed of note data (key number, step time, gate time and velocity), and
The performance data is composed of displacement data for the velocity contained in the note data. Here, the displacement data is represented in, for example, a two's complement format. Therefore, the displacement data can take positive, zero and negative values.
In the model A, each note data included in the first performance data is used as it is. In the model B, note data formed by adding displacement data included in the second performance data to velocity of each note data included in the first performance data is stored.

【0101】本実施の形態3に係る自動演奏装置が適用
された電子楽器の構成は、上述した実施の形態1の電子
楽器の構成(図1のブロック図)と同じである。
The configuration of the electronic musical instrument to which the automatic performance device according to the third embodiment is applied is the same as the configuration of the electronic musical instrument according to the first embodiment (block diagram in FIG. 1).

【0102】ワークメモリ12に設けられた基底アドレ
スレジスタには、本電子楽器がA機種として動作する場
合に「0」セットされ、B機種として動作する場合は
「1」がセットされる。また、曲番号−記憶位置変換テ
ーブルは、曲番号を、第1演奏データ及び第2演奏デー
タの中の、その曲番号に対応する部分(演奏データ)の
先頭アドレスに変換するために使用される。
The base address register provided in the work memory 12 is set to “0” when the electronic musical instrument operates as model A, and is set to “1” when the electronic musical instrument operates as model B. The song number-storage position conversion table is used to convert a song number into a first address of a portion (performance data) corresponding to the song number in the first performance data and the second performance data. .

【0103】次に、上記のように構成された本発明の実
施の形態3に係る自動演奏装置が適用された電子楽器の
動作を、図5、図6及び図11のフローチャートを参照
しながら説明する。なお、上述した実施の形態1と同一
又は相当部分には同一符号を付して説明は省略乃至簡略
化し、相違部分を中心に説明する。
Next, the operation of the electronic musical instrument to which the automatic musical instrument according to the third embodiment of the present invention configured as described above is applied will be described with reference to the flowcharts of FIGS. 5, 6 and 11. I do. The same or corresponding portions as those in the first embodiment are denoted by the same reference numerals, and the description thereof will be omitted or simplified, and different portions will be mainly described.

【0104】(3−1)メイン処理 この電子楽器のメイン処理は、初期化処理(ステップS
10)の処理内容を除き、実施の形態1のメイン処理
(図5に示すフローチャート参照)と同じである。
(3-1) Main Processing The main processing of this electronic musical instrument is an initialization processing (step S
Except for the content of the process 10), it is the same as the main process of the first embodiment (see the flowchart shown in FIG. 5).

【0105】この実施の形態3における初期化処理で
は、入力ポート23から読み込まれたデータがLレベル
であればA機種として動作すべき旨が認識され、「0」
が基底アドレスレジスタにセットされる。一方、読み込
まれたデータがHレベルであればB機種として動作すべ
き旨が認識され、「1」が基底アドレスレジスタにセッ
トされる。以下の処理においては、この基底アドレスレ
ジスタの内容に従って、使用する演奏データが選択され
る。
In the initialization process according to the third embodiment, if the data read from the input port 23 is at the L level, it is recognized that the operation is to be performed as the A model, and "0" is set.
Is set in the base address register. On the other hand, if the read data is at the H level, it is recognized that the operation is to be performed as the B model, and “1” is set in the base address register. In the following processing, performance data to be used is selected according to the contents of the base address register.

【0106】(3−2)パネル処理 この電子楽器のパネル処理は、自動演奏開始処理(ステ
ップS25)の処理内容を除き、実施の形態1のパネル
処理(図6に示すフローチャート参照)と同じである。
(3-2) Panel Processing The panel processing of this electronic musical instrument is the same as the panel processing of the first embodiment (see the flowchart shown in FIG. 6) except for the processing content of the automatic performance start processing (step S25). is there.

【0107】この自動演奏開始処理では、先ず、音符デ
ータポインタ及びベロシティデータポインタに初期値が
設定される。即ち、第1演奏データの中の、その時点で
選択されている曲(曲番号レジスタに曲番号として格納
されている)に対応する部分(演奏データ)の先頭アド
レスが曲番号−記憶位置変換テーブルから読み出され、
音符データポインタにセットされる。
In the automatic performance start processing, first, initial values are set in the note data pointer and the velocity data pointer. That is, in the first performance data, the head address of the portion (performance data) corresponding to the currently selected song (stored as the song number in the song number register) is the song number-storage position conversion table. Read from
Set to the note data pointer.

【0108】同様に、第2演奏データの中の、その時点
で選択されている曲に対応する部分(演奏データ)の先
頭アドレスが曲番号−記憶位置変換テーブルから読み出
されてベロシティデータポインタにセットされる。この
ベロシティデータポインタの内容は、本電子楽器がB機
種として動作するときにのみ参照される。
Similarly, the start address of the portion (performance data) corresponding to the currently selected song in the second performance data is read out from the song number-storage position conversion table and stored in the velocity data pointer. Set. The content of the velocity data pointer is referred to only when the electronic musical instrument operates as model B.

【0109】(3−3)自動演奏処理 次に、自動演奏処理の詳細について、図11のフローチ
ャートを参照しながら説明する。この自動演奏処理ルー
チンは、メイン処理ルーチンから一定周期でコールされ
る。
(3-3) Automatic Performance Process Next, details of the automatic performance process will be described with reference to the flowchart of FIG. This automatic performance processing routine is called at regular intervals from the main processing routine.

【0110】ステップS30の処理は、上述した実施の
形態1の処理(図7のフローチャート参照)と同じであ
る。このステップS30で、自動演奏モードであること
が判断されると、タイミングカウンタの内容がステップ
タイムデータに一致するかどうかが調べられる(ステッ
プS31)。この際、音符データポインタで指される位
置から4バイトのデータが読み出される点が、3バイト
のデータが読み出される上記実施の形態1と異なる。
The processing in step S30 is the same as the processing in the first embodiment (see the flowchart in FIG. 7). If it is determined in step S30 that the automatic performance mode is set, it is checked whether or not the content of the timing counter matches the step time data (step S31). At this time, the point that 4-byte data is read from the position pointed to by the note data pointer is different from the first embodiment in which 3-byte data is read.

【0111】このステップS31でタイミングカウンタ
の内容がステップタイムデータに一致することが判断さ
れると、次いで、上記ワークメモリ12の所定領域に格
納されているデータは、音符データであるかどうかが調
べられる(ステップS32)。これは、該データの第1
バイト目の最上位ビットを調べることにより行われる。
If it is determined in step S31 that the content of the timing counter matches the step time data, then it is determined whether the data stored in the predetermined area of the work memory 12 is note data. Is performed (step S32). This is the first of the data
This is done by examining the most significant bit of the byte.

【0112】このステップS32で、音符データである
ことが判断されると、次いで、第2演奏データを使用す
るかどうかが調べられる(ステップS50)。これは、
基底レジスタの内容を調べることにより行われる。ここ
で第2演奏データを使用しない(基底レジスタの内容が
「0」である)ことが判断されると、ステップS51及
びS52の処理はスキップされる。この場合、先に読み
出してワークメモリ12の所定領域に格納されている音
符データ(キーナンバ、ステップタイム、ゲートタイム
及びベロシティ)が発音に使用される。
If it is determined in step S32 that the data is note data, then it is determined whether or not the second performance data is to be used (step S50). this is,
This is done by examining the contents of the base register. Here, when it is determined that the second performance data is not used (the contents of the base register are “0”), the processing of steps S51 and S52 is skipped. In this case, note data (key number, step time, gate time, and velocity) read out and stored in a predetermined area of the work memory 12 is used for sound generation.

【0113】一方、第2演奏データを使用する(基底レ
ジスタの内容が「1」である)ことが判断されると、変
位データの読み込みが行われる(ステップS51)。即
ち、ベロシティデータポインタで指定される位置から1
バイトの変位データが読み出される。次いで、ベロシテ
ィ計算が行われる(ステップS52)。即ち、上記ワー
クメモリ12の所定領域に格納されいてる音符データの
ベロシティ部分に、ステップS51で読み出された変位
データが加算される。この加算によりベロシティが変更
された音符データが発音に使用される。
On the other hand, when it is determined that the second performance data is to be used (the content of the base register is "1"), displacement data is read (step S51). That is, 1 from the position specified by the velocity data pointer
Byte displacement data is read. Next, velocity calculation is performed (step S52). That is, the displacement data read in step S51 is added to the velocity portion of the note data stored in the predetermined area of the work memory 12. The note data whose velocity has been changed by this addition is used for sound generation.

【0114】次いで、発音処理が行われる(ステップS
34)。次いで、ベロシティデータポインタの更新が行
われる(ステップS35)。即ち、ベロシティデータポ
インタの内容がインクリメント(+1)される。なお、
このステップS35の処理は第2演奏データが使用され
ないときは無意味であるので、その場合は省略するよう
に構成してもよい。
Next, a tone generation process is performed (step S).
34). Next, the velocity data pointer is updated (step S35). That is, the content of the velocity data pointer is incremented (+1). In addition,
The process of step S35 is meaningless when the second performance data is not used, and may be omitted in that case.

【0115】次いで、音符データポインタの更新が行わ
れる(ステップS36)。この際、音符データポインタ
が「+4」される点が、「+3」される上記実施の形態
1と異なる。その後、シーケンスはステップS31に戻
り、以下同様の処理が繰り返される。
Next, the note data pointer is updated (step S36). At this time, the point that the note data pointer is set to “+4” is different from that of the first embodiment in which the note data pointer is set to “+3”. Thereafter, the sequence returns to step S31, and the same processing is repeated thereafter.

【0116】一方、上記ステップS32で、部分音符デ
ータでないことが判断されると、その他の処理が行われ
る(ステップS37)。その「その他の処理」は、実施
の形態1のそれと同じである。
On the other hand, if it is determined in step S32 that the data is not partial note data, other processing is performed (step S37). The “other processing” is the same as that of the first embodiment.

【0117】なお、上記実施の形態3では、第2演奏デ
ータを構成する各変位データは第1演奏データを構成す
る音符データの1つと1対1に対応するように構成した
が、各第2演奏データは、各キーナンバに対応する変位
データで構成することができる。この場合、自動演奏処
理のステップS55では、音符データに含まれるキーナ
ンバに対応する変位データを第2演奏データから読み出
すように構成すればよい。
In the third embodiment, each displacement data forming the second performance data corresponds to one of the note data forming the first performance data in a one-to-one correspondence. The performance data can be composed of displacement data corresponding to each key number. In this case, in step S55 of the automatic performance process, the displacement data corresponding to the key number included in the note data may be read from the second performance data.

【0118】なた、上記の実施の形態2及び実施の形態
3では、入力ポート23から得られたデータに基づい
て、第2演奏データを使用するかどうかを決定するよう
に構成したが、操作パネル14上に、第2演奏データ選
択用のスイッチを設け、このスイッチの設定状態に応じ
て第2演奏データを使用するかどうかを決定するように
構成してもよい。更には、電子楽器に各種パラメータを
設定するためのシステム値設定モードを有する電子楽器
では、このシステム設定値モードにおいて、所定の値を
設定することにより、第2演奏データを使用するかどう
かを決定するように構成してもよい。
In the second and third embodiments, whether or not to use the second performance data is determined based on the data obtained from the input port 23. A switch for selecting the second performance data may be provided on the panel 14, and whether to use the second performance data may be determined according to the setting state of this switch. Further, in an electronic musical instrument having a system value setting mode for setting various parameters in the electronic musical instrument, it is determined whether or not to use the second performance data by setting a predetermined value in this system setting value mode. May be configured.

【0119】また、上記実施の形態1〜実施の形態3に
おいて、例えばRAM、フラッシュメモリといった書換
可能な記憶媒体の中に第2演奏データの格納領域を形成
し、例えばMIDIインタフェースを介して送られてく
る第2演奏データを該格納領域に格納するように構成し
てもよい。この場合、当該電子楽器に必要な第2演奏デ
ータのみを該格納領域に格納すればよいので、メモリの
使用効率を高めることができる。
In the first to third embodiments, the storage area for the second performance data is formed in a rewritable storage medium such as a RAM or a flash memory, and is transmitted via, for example, a MIDI interface. The second performance data may be stored in the storage area. In this case, since only the second performance data required for the electronic musical instrument needs to be stored in the storage area, the efficiency of use of the memory can be improved.

【0120】更に、上記格納領域に格納する第2演奏デ
ータは、鍵盤装置から得るように構成してもよい。この
場合、打鍵時のベロシティ値をそのまま第2演奏データ
とすることもできるし、該ベロシティ値に所定の変更を
施して第2演奏データを生成してもよい。
Further, the second performance data stored in the storage area may be obtained from a keyboard device. In this case, the velocity value at the time of keying can be used as it is as the second performance data, or the velocity value may be subjected to a predetermined change to generate the second performance data.

【0121】[0121]

【発明の効果】以上詳述したように、本発明によれば、
少ない演奏データ量であるにも拘わらず、各曲本来の音
楽的特性で自動演奏できる自動演奏装置及び自動演奏方
法を提供できる。
As described in detail above, according to the present invention,
It is possible to provide an automatic performance device and an automatic performance method that can automatically perform each music piece with its original musical characteristics despite the small amount of performance data.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1〜実施の形態3に係る自
動演奏装置が適用された電子楽器の構成を示すブロック
図である。
FIG. 1 is a block diagram showing a configuration of an electronic musical instrument to which an automatic performance device according to Embodiments 1 to 3 of the present invention is applied.

【図2】図1に示した電子楽器に適用される操作パネル
の一例を示す図である。
FIG. 2 is a diagram showing an example of an operation panel applied to the electronic musical instrument shown in FIG.

【図3】本発明の実施の形態1に係る自動演奏装置が適
用された電子楽器で使用される演奏データの形式を示す
図である。
FIG. 3 is a diagram showing a format of performance data used in an electronic musical instrument to which the automatic performance device according to the first embodiment of the present invention is applied.

【図4】本発明の実施の形態1〜実施の形態3に係る自
動演奏装置が適用された電子楽器のワークメモリ12の
割り当ての一例を示す図である。
FIG. 4 is a diagram showing an example of assignment of a work memory 12 of an electronic musical instrument to which the automatic performance device according to the first to third embodiments of the present invention is applied.

【図5】本発明の実施の形態1〜実施の形態3に係る自
動演奏装置が適用された電子楽器のメイン処理を示すフ
ローチャートである。
FIG. 5 is a flowchart showing a main process of the electronic musical instrument to which the automatic performance device according to the first to third embodiments of the present invention is applied.

【図6】本発明の実施の形態1〜実施の形態3に係る自
動演奏装置が適用された電子楽器のパネル処理を示すフ
ローチャートである。
FIG. 6 is a flowchart showing panel processing of an electronic musical instrument to which the automatic performance device according to the first to third embodiments of the present invention is applied.

【図7】本発明の実施の形態1に係る自動演奏装置が適
用された電子楽器の自動演奏処理を示すフローチャート
である。
FIG. 7 is a flowchart showing an automatic performance process of the electronic musical instrument to which the automatic performance device according to the first embodiment of the present invention is applied.

【図8】本発明の実施の形態2に係る自動演奏装置が適
用された電子楽器で使用される演奏データの形式を示す
図である。
FIG. 8 is a diagram showing a format of performance data used in an electronic musical instrument to which the automatic performance device according to Embodiment 2 of the present invention is applied.

【図9】本発明の実施の形態2に係る自動演奏装置が適
用された電子楽器の自動演奏処理を示すフローチャート
である。
FIG. 9 is a flowchart showing an automatic performance process of an electronic musical instrument to which the automatic performance device according to Embodiment 2 of the present invention is applied.

【図10】本発明の実施の形態3に係る自動演奏装置が
適用された電子楽器で使用される演奏データの形式を示
す図である。
FIG. 10 is a diagram showing a format of performance data used in an electronic musical instrument to which the automatic performance device according to Embodiment 3 of the present invention is applied.

【図11】本発明の実施の形態3に係る自動演奏装置が
適用された電子楽器の自動演奏処理を示すフローチャー
トである。
FIG. 11 is a flowchart showing an automatic performance process of an electronic musical instrument to which the automatic performance device according to Embodiment 3 of the present invention is applied.

【図12】従来の自動演奏装置で使用される演奏データ
の形式を示す図である。
FIG. 12 is a diagram showing a format of performance data used in a conventional automatic performance device.

【符号の説明】[Explanation of symbols]

10 CPU 11 プログラムメモリ 12 ワークメモリ 13 パネルインタフェース回路 14 操作パネル 15 鍵盤インタフェース回路 16 鍵盤装置 17 演奏データメモリ 18 波形メモリ 19 音源 20 D/A変換器 21 増幅器 22 スピーカ 23 入力ポート 30 システムバス Reference Signs List 10 CPU 11 program memory 12 work memory 13 panel interface circuit 14 operation panel 15 keyboard interface circuit 16 keyboard device 17 performance data memory 18 waveform memory 19 sound source 20 D / A converter 21 amplifier 22 speaker 23 input port 30 system bus

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】1つの音を発生するために使用される音符
データの一部に対応するデータによって構成された第1
演奏データを格納する第1の記憶手段と、 前記音符データの他の一部に対応するデータによって構
成された第2演奏データを複数格納する第2の記憶手段
と、 前記第2の記憶手段に格納されている複数の第2演奏デ
ータの中の1つを指定する指定手段と、 前記第1の記憶手段に記憶されている第1演奏データと
前記指定手段で指定された第2演奏データとに基づいて
演奏音を発生する演奏音発生手段、とを備えた自動演奏
装置。
A first note constituted by data corresponding to a part of note data used to generate one note;
First storage means for storing performance data; second storage means for storing a plurality of second performance data constituted by data corresponding to another part of the note data; and second storage means. Specifying means for specifying one of a plurality of stored second performance data; first performance data stored in the first storage means; and second performance data specified by the specifying means. A performance sound generating means for generating a performance sound based on the performance.
【請求項2】前記音符データの一部に対応するデータは
音高、音長及び発音時刻を決定するためのデータを含
み、前記音符データの他の一部に対応するデータは音の
大きさを決定するためのデータを含む請求項1に記載の
自動演奏装置。
2. The data corresponding to a part of the note data includes data for determining a pitch, a tone length and a sounding time, and the data corresponding to another part of the note data is a sound volume. 2. The automatic performance apparatus according to claim 1, further comprising data for determining the following.
【請求項3】1つの音を発生するために使用される音符
データによって構成された第1演奏データを格納する第
1の記憶手段と、 前記音符データの一部に対応するデータによって構成さ
れた第2演奏データを格納する第2の記憶手段と、 前記第2の記憶手段に格納されている第2演奏データを
用いるかどうかを指定する指定手段と、 該指定手段による指定がない場合は、前記第1の記憶手
段に格納されている第1演奏データに基づいて演奏音を
発生し、該指定手段による指定がある場合は、前記第1
の記憶手段に格納されている第1演奏データに含まれる
各音符データの一部が、前記第2の記憶手段に格納され
ている第2演奏データに含まれる各データで夫々置き換
えられた第1演奏データに基づいて演奏音を発生する演
奏音発生手段、とを備えた自動演奏装置。
3. A first storage means for storing first performance data composed of note data used to generate one sound, and data corresponding to a part of the note data. A second storage unit for storing the second performance data; a specification unit for specifying whether to use the second performance data stored in the second storage unit; A performance sound is generated based on the first performance data stored in the first storage means.
A part of each note data included in the first performance data stored in the storage means is replaced with each data included in the second performance data stored in the second storage means. A performance sound generating means for generating a performance sound based on performance data.
【請求項4】1つの音を発生するために使用される音符
データによって構成された第1演奏データを格納する第
1の記憶手段と、 前記音符データの一部に対応するデータによって構成さ
れた第2演奏データを格納する第2の記憶手段と、 前記第2の記憶手段に格納されている第2演奏データを
用いるかどうかを指定する指定手段と、 該指定手段による指定がない場合は、前記第1の記憶手
段に格納されている第1演奏データに基づいて演奏音を
発生し、該指定手段による指定がある場合は、前記第1
の記憶手段に格納されている第1演奏データに含まれる
各音符データの一部に、前記第2の記憶手段に格納され
ている第2演奏データに含まれる各データが夫々演算さ
れた第1演奏データに基づいて演奏音を発生する演奏音
発生手段、とを備えた自動演奏装置。
4. A first storage means for storing first performance data composed of note data used for generating one note, and data corresponding to a part of the note data. A second storage unit for storing the second performance data; a specification unit for specifying whether to use the second performance data stored in the second storage unit; A performance sound is generated based on the first performance data stored in the first storage means.
A part of each note data included in the first performance data stored in the storage means is replaced with a first data obtained by calculating each data included in the second performance data stored in the second storage means. A performance sound generating means for generating a performance sound based on performance data.
【請求項5】前記音符データは音高、音長、発音時刻及
び音の大きさを決定するデータを含み、前記音符データ
の一部に対応するデータは音の大きさを決定するための
データを含む請求項3又は請求項4に記載の自動演奏装
置。
5. The note data includes data for determining a pitch, a duration, a sounding time and a loudness, and data corresponding to a part of the note data is data for determining a loudness. The automatic performance device according to claim 3 or 4, further comprising:
【請求項6】1つの音を発生するために使用される音符
データの一部に対応するデータによって構成された第1
演奏データを格納し、 前記音符データの他の一部に対応するデータによって構
成された第2演奏データを複数格納し、 前記格納されている複数の第2演奏データの中の1つを
選択し、 該選択された第2演奏データと前記格納されている第1
演奏データとに基づいて演奏音を発生する、自動演奏方
法。
6. A first note constituted by data corresponding to a part of note data used to generate one note.
Storing performance data; storing a plurality of second performance data constituted by data corresponding to another part of the note data; selecting one of the stored plurality of second performance data; The selected second performance data and the stored first performance data.
An automatic performance method that generates performance sounds based on performance data.
【請求項7】前記音符データの一部に対応するデータは
音高、音長及び発音時刻を決定するためのデータを含
み、前記音符データの他の一部に対応するデータは音の
大きさを決定するためのデータを含む請求項6に記載の
自動演奏方法。
7. The data corresponding to a part of the note data includes data for determining a pitch, a tone length and a sounding time, and the data corresponding to another part of the note data is a sound volume. 7. The automatic performance method according to claim 6, further comprising data for determining the performance.
【請求項8】1つの音を発生するために使用される音符
データによって構成された第1演奏データを格納し、 前記音符データの一部に対応するデータによって構成さ
れた第2演奏データを格納し、 前記格納されている第2演奏データを用いるかどうかを
指定し、 該指定がない場合は、前記第1演奏データに基づいて演
奏音を発生し、該指定がある場合は、前記第1演奏デー
タに含まれる各音符データの一部が、前記第2演奏デー
タに含まれる各データで夫々置き換えられた第1演奏デ
ータに基づいて演奏音を発生する、自動演奏方法。
8. A method for storing first performance data constituted by note data used to generate one sound, and storing second performance data constituted by data corresponding to a part of the note data. Then, it is specified whether or not the stored second performance data is to be used. If the second performance data is not specified, a performance sound is generated based on the first performance data. An automatic performance method, wherein a performance sound is generated based on first performance data in which part of each note data included in performance data is replaced with each data included in the second performance data.
【請求項9】1つの音を発生するために使用される音符
データによって構成された第1演奏データを格納し、 前記音符データの一部に対応するデータによって構成さ
れた第2演奏データを格納し、 前記第2演奏データを用いるかどうかを指定し、 該指定がない場合は、前記第1演奏データに基づいて演
奏音を発生し、該指定がある場合は、前記第1演奏デー
タに含まれる各音符データの一部に、前記第2演奏デー
タに含まれる各データが夫々演算された第1演奏データ
に基づいて演奏音を発生する、自動演奏方法。
9. A method for storing first performance data composed of note data used to generate one sound, and storing second performance data composed of data corresponding to a part of the note data. And specifying whether or not to use the second performance data. If the second performance data is not specified, a performance sound is generated based on the first performance data. An automatic performance method for generating a performance sound based on first performance data in which each data included in the second performance data is calculated for a part of each note data to be performed.
【請求項10】前記音符データは音高、音長、発音時刻
及び音の大きさを決定するデータを含み、前記音符デー
タの一部に対応するデータは音の大きさを決定するため
のデータを含む請求項8又は請求項9に記載の自動演奏
装置。
10. The note data includes data for determining a pitch, a pitch, a sounding time and a loudness, and data corresponding to a part of the note data is data for determining a loudness. The automatic performance device according to claim 8 or 9, further comprising:
JP24966497A 1997-08-29 1997-08-29 Automatic performance device and automatic performance method Expired - Fee Related JP3529123B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24966497A JP3529123B2 (en) 1997-08-29 1997-08-29 Automatic performance device and automatic performance method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24966497A JP3529123B2 (en) 1997-08-29 1997-08-29 Automatic performance device and automatic performance method

Publications (2)

Publication Number Publication Date
JPH1173181A true JPH1173181A (en) 1999-03-16
JP3529123B2 JP3529123B2 (en) 2004-05-24

Family

ID=17196388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24966497A Expired - Fee Related JP3529123B2 (en) 1997-08-29 1997-08-29 Automatic performance device and automatic performance method

Country Status (1)

Country Link
JP (1) JP3529123B2 (en)

Also Published As

Publication number Publication date
JP3529123B2 (en) 2004-05-24

Similar Documents

Publication Publication Date Title
JP3807275B2 (en) Code presenting device and code presenting computer program
US5414209A (en) Electronic musical instrument
JP3568326B2 (en) Electronic musical instrument
US6777606B2 (en) Automatic accompanying apparatus of electronic musical instrument
US5430242A (en) Electronic musical instrument
JP2587737B2 (en) Automatic accompaniment device
JP3529123B2 (en) Automatic performance device and automatic performance method
JP3640235B2 (en) Automatic accompaniment device and automatic accompaniment method
JP3192597B2 (en) Automatic musical instrument for electronic musical instruments
JP3226268B2 (en) Concert magic automatic performance device
JP2570045B2 (en) Electronic musical instrument
JP2639381B2 (en) Electronic musical instrument
JP3630266B2 (en) Automatic accompaniment device
JPH06348258A (en) Automatic playing device of electronic musical instrument
JP2002215147A (en) Method and device for automatic accompaniment of electronic musical instrument
JPH06242781A (en) Electronic musical instrument
JPH07146681A (en) Electronic musical instrument
JP3549083B2 (en) Volume control device
JP3324881B2 (en) Automatic performance device
JP3241813B2 (en) Performance information processing device
JP2953937B2 (en) Electronic musical instrument volume control device
JP3356326B2 (en) Electronic musical instrument
JP2002287748A (en) Electronic musical instrument
JPH10254444A (en) Displaying device and recording medium in which program or data concerning relevant device are recorded.
JPH0830273A (en) Tempo setting device for electronic musical instrument

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20031204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040223

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees