JPH09319372A - Device and method for automatic accompaniment of electronic musical instrument - Google Patents

Device and method for automatic accompaniment of electronic musical instrument

Info

Publication number
JPH09319372A
JPH09319372A JP8156166A JP15616696A JPH09319372A JP H09319372 A JPH09319372 A JP H09319372A JP 8156166 A JP8156166 A JP 8156166A JP 15616696 A JP15616696 A JP 15616696A JP H09319372 A JPH09319372 A JP H09319372A
Authority
JP
Japan
Prior art keywords
data
pattern data
automatic accompaniment
accompaniment
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8156166A
Other languages
Japanese (ja)
Inventor
Hidekazu Tamura
英一 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP8156166A priority Critical patent/JPH09319372A/en
Publication of JPH09319372A publication Critical patent/JPH09319372A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an automatic accompaniment device and a method capable of solving the monotony of automatic accompaniment independently of a small data volume and executing automatic accompaniment with a feeling of a musical composition or automatic accompaniment with a plentiful presence by an elec tronic musical instrument. SOLUTION: The automatic accompaniment device includes a 1st memory 17 storing (k) pattern data and a 2nd memory 17 storing only one pattern data, a group of reading means 10 to 12 read out (m) pattern data extracted at random from the 1st memory 17 and read out (n) pattern data extracted at random from the 2nd memory 17 and a group of automatic accompaniment means 10 to 12, 18 to 21 automatically generates an accompaniment sound based on the read pattern data. The accompaniment sound is generated by probability based on probability data included in note data out of the pattern data. The volume of the accompaniment sound is changed by probability based on volume variation probability data included in the note data.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、自動的に伴奏音を
発生する電子楽器の自動伴奏装置に関し、特に伴奏音の
発生にバリエーションを持たせる技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic accompaniment device for an electronic musical instrument that automatically generates an accompaniment sound, and more particularly to a technique for providing a variation in the generation of an accompaniment sound.

【0002】[0002]

【従来の技術】近年の電子キーボード、電子オルガン、
電子ピアノ等といった電子楽器の大部分には、自動伴奏
装置が組み込まれている。この自動伴奏装置は、予め記
憶された伴奏用のデータに従って自動的に伴奏音を発生
する。演奏者は、この伴奏音をバックに、例えばメロデ
ィを弾くことによって演奏を楽しむことができる。
2. Description of the Related Art Recent electronic keyboards, electronic organs,
Most electronic musical instruments such as an electronic piano have an automatic accompaniment device built therein. This automatic accompaniment device automatically generates an accompaniment sound in accordance with pre-stored accompaniment data. The performer can enjoy the performance by playing, for example, a melody with the accompaniment sound as a background.

【0003】かかる自動伴奏装置は、例えばリードオン
リメモリ(以下、「ROM」という)で構成される自動
伴奏パターンデータメモリ(以下、単に「パターンメモ
リ」という)を備えている。このパターンメモリには、
リズムの種類毎に、1小節〜数小節程度のフレーズで成
る自動伴奏パターンデータ(以下、単に「パターンデー
タ」という)が記憶されている。そして、ユーザがリズ
ムを選択して自動伴奏を開始させると、自動伴奏装置の
制御部は、選択されたリズムのパターンデータをパター
ンメモリから繰り返して読み出し、このパターンデータ
に基づいて伴奏音を発生する。
Such an automatic accompaniment apparatus is provided with an automatic accompaniment pattern data memory (hereinafter, simply referred to as "pattern memory"), which is composed of a read-only memory (hereinafter, simply referred to as "ROM"). In this pattern memory,
Automatic accompaniment pattern data (hereinafter, simply referred to as "pattern data") composed of phrases of one measure to several measures is stored for each rhythm type. When the user selects a rhythm and starts the automatic accompaniment, the control unit of the automatic accompaniment apparatus repeatedly reads the pattern data of the selected rhythm from the pattern memory and generates an accompaniment sound based on the pattern data. .

【0004】[0004]

【発明が解決しようとする課題】ところで、この種の従
来の自動伴奏装置は、選択されたリズムのパターンデー
タをパターンメモリから繰り返して読み出し、この読み
出されたパターンデータに基づいて伴奏音を発生するだ
けである。従って、伴奏に変化が乏しく、単調になると
いう問題があった。
By the way, the conventional automatic accompaniment apparatus of this kind repeatedly reads out the pattern data of the selected rhythm from the pattern memory and generates an accompaniment sound based on the read out pattern data. Just do. Therefore, there is a problem that the accompaniment has little change and becomes monotonous.

【0005】かかる単調さを解消するために、従来、幾
つかの技術が開発されている。例えば、第1の技術は、
1つのリズムに対して複数のパターンデータを備えてい
る。そして、ユーザがリズムを選択して自動伴奏を開始
させると、自動伴奏装置の制御部は、上記複数のパター
ンデータの中からランダムに1つのパターンデータを選
択し、選択されたパターンデータに基づいて伴奏音を発
生するというものである。
In order to eliminate such monotonousness, several techniques have been conventionally developed. For example, the first technique is
A plurality of pattern data is provided for one rhythm. When the user selects a rhythm and starts the automatic accompaniment, the control unit of the automatic accompaniment apparatus randomly selects one pattern data from the plurality of pattern data, and based on the selected pattern data. The accompaniment sound is generated.

【0006】また、第2の技術は、例えば特開昭55−
140894号公報に示されているように、『パターン
選択スイッチによって選択された指定パターンを示す信
号をシーケンスメモリに書き込むことによりパターン進
行をプログラムし、このプログラムされたパターン進行
に従って複数種類の演奏パターンを記憶するパターンメ
モリから所望の演奏パターンを順次読み出し、これによ
ってプログラムされたパターン進行にしたがい変化する
リズム音、ベース音又はアルペジョ音を自動演奏する』
というものである。これらの技術によれば、上述した単
調さを回避することができる。
The second technique is disclosed in, for example, Japanese Patent Laid-Open No. 55-
As disclosed in Japanese Patent No. 140894, "a pattern progression is programmed by writing a signal indicating a designated pattern selected by a pattern selection switch in a sequence memory, and a plurality of types of performance patterns are created in accordance with the programmed pattern progression. A desired performance pattern is sequentially read from the stored pattern memory, and a rhythm sound, a bass sound, or an arpeggio sound that changes in accordance with the programmed pattern progression is automatically played. "
That is. According to these techniques, the monotonicity described above can be avoided.

【0007】しかしながら、上記第1の技術では、パタ
ーンデータが全くランダムに選択されながら伴奏が行わ
れるので所定の曲想を備えた伴奏パターンを実現するこ
とは困難である。これに対し、上記第2の技術に係る自
動演奏装置は、パターン進行を予めプログラムするよう
になっているので、適当なプログラムを作成することに
より曲想を備えた伴奏パターンを実現できる。しかしな
がら、パターン進行を予めプログラムする必要があるの
で、パターン進行のバリエーションに限界がある。ま
た、パターン進行をプログラムするためのデータが必要
であるので、データ量が増大するという問題がある。
However, according to the first technique, it is difficult to realize an accompaniment pattern having a predetermined musical idea because the accompaniment is performed while the pattern data is selected at random. On the other hand, since the automatic performance device according to the second technique is designed to program the pattern progression in advance, an accompaniment pattern having a musical idea can be realized by creating an appropriate program. However, since it is necessary to program the pattern progression in advance, there are limits to variations in the pattern progression. Further, since data for programming the pattern progression is required, there is a problem that the amount of data increases.

【0008】また、現実の伴奏音には種々の雑音が含ま
れ、また音量が一定しない場合も多い。例えば、ギター
でコード伴奏を行う場合を考えると、押弦位置を移動す
る時にフレットノイズが発生する。また、ストロークの
強さは常に一定という訳ではなく、時間の経過に連れて
強弱に変化する。ところが、従来の自動伴奏装置は、パ
ターンデータを忠実に再生し、楽譜通りの伴奏音を発生
するだけであり、現実の伴奏音に含まれる雑音は一切考
慮されていない。従って、かかる伴奏音は臨場感に乏し
いという問題があった。
In addition, the actual accompaniment sound contains various noises, and the volume is often not constant. For example, considering the case of performing chord accompaniment on a guitar, fret noise is generated when moving the string pressing position. Moreover, the strength of the stroke is not always constant, but changes strongly over time. However, the conventional automatic accompaniment device only faithfully reproduces the pattern data and generates an accompaniment sound according to the musical score, and does not consider noise included in the actual accompaniment sound at all. Therefore, there is a problem that such accompaniment sound lacks realism.

【0009】そこで、本発明の第1の目的は、少ないデ
ータ量であるにも拘わらず自動伴奏の単調さを解消し、
しかも曲想を備えた自動伴奏を行うことができる電子楽
器の自動伴奏装置及び自動伴奏方法を提供することにあ
る。
Therefore, a first object of the present invention is to eliminate the monotony of automatic accompaniment despite the small amount of data.
Moreover, it is an object of the present invention to provide an automatic accompaniment apparatus and an automatic accompaniment method for an electronic musical instrument, which can perform an automatic accompaniment with a musical idea.

【0010】また、本発明の第2の目的は、少ないデー
タ量であるにも拘わらず自動伴奏の単調さを解消し、し
かも臨場感に富んだ自動伴奏を行うことができる電子楽
器の自動伴奏装置及び自動伴奏方法を提供することにあ
る。
A second object of the present invention is to provide an automatic musical accompaniment for an electronic musical instrument which can eliminate the monotony of the automatic accompaniment despite a small amount of data and can perform a highly realistic automatic accompaniment. An object is to provide a device and an automatic accompaniment method.

【0011】[0011]

【課題を解決するための手段】本発明の電子楽器の自動
伴奏装置は、上記第1の目的を達成するために、k(k
=1,2,・・・)個の第1のパターンデータを記憶し
た第1の記憶手段と、l(l=1,2,・・・)個の第
2のパターンデータを記憶した第2の記憶手段と、該第
1の記憶手段からランダムに抽出されたm(m=1,
2,・・・)個のパターンデータを読み出し、該第2の
記憶手段からランダムに抽出されたn(n=1,2,・
・・)個の第2のパターンデータを読み出す読出手段
と、該読出手段により読み出された第1のパターンデー
タ及び第2のパターンデータに基づいて自動的に伴奏音
を発生する自動伴奏手段、とを備えて構成される。
In order to achieve the first object, an automatic accompaniment apparatus for an electronic musical instrument according to the present invention is provided with k (k
= 1, 2, ...) First pattern data stored therein, and 1 (l = 1,2, ...) Second pattern data stored in the second storage means. Memory means and m (m = 1, 1) randomly extracted from the first storage means.
2, ...) pattern data are read out and n (n = 1, 2, ...) Randomly extracted from the second storage means is read.
..) Reading means for reading out the second pattern data, and automatic accompaniment means for automatically generating an accompaniment sound based on the first pattern data and the second pattern data read by the reading means, And is configured.

【0012】本自動伴奏装置で用いられる第1のパター
ンデータは曲想を表し、第2のパターンデータは変化を
表すように構成できる。より具体的な例を挙げて説明す
る。今、第1及び第2のパターンデータは、それぞれ1
小節分のデータで構成されるものとする。また、第1の
記憶手段には3個(k=3)の第1のパターンデータ
が、第2の記憶手段には5個(l=5)の第2のパター
ンデータが記憶されているものとする。そして、4小節
のフレーズから成る伴奏音を発生させるものとする。4
小節のフレーズを実現するためには、例えばm=3、n
=1とすることができる。
The first pattern data used in the present automatic accompaniment apparatus can be configured to represent a musical idea, and the second pattern data can be configured to represent a change. A more specific example will be described. Now, the first and second pattern data are each 1
It shall be composed of data for each measure. Also, three (k = 3) first pattern data are stored in the first storage means, and five (l = 5) second pattern data are stored in the second storage means. And Then, an accompaniment sound consisting of a phrase of 4 bars is generated. Four
In order to realize a phrase of a bar, for example, m = 3, n
= 1.

【0013】この場合、第1の記憶手段からランダムに
抽出された第1のパターンデータが3回読み出され、第
2の記憶手段からランダムに抽出された第2のパターン
データが1回読み出される。従って、3個の第1のパタ
ーンデータを例えば同一又は類似の曲想を表すように作
成し、5個の第2のパターンデータを、各々独特の特徴
を有するように作成すれば、4小節のフレーズのうち、
最初の3小節は同一又は類似の曲想の伴奏で進行し、4
小節目で変化のある伴奏が行われるように構成できる。
従って、従来の第1の技術のような、所定の曲想を有す
る伴奏パターンを得ることができないという問題は解消
される。
In this case, the first pattern data randomly extracted from the first storage means is read three times, and the second pattern data randomly extracted from the second storage means is read once. . Therefore, if three pieces of the first pattern data are created so as to represent the same or similar musical composition, and five pieces of the second pattern data are created so as to have unique characteristics, a phrase of four measures Out of
The first three measures proceed with accompaniment of the same or similar musical composition, 4
It can be configured so that a variable accompaniment is performed at each bar.
Therefore, the problem that the accompaniment pattern having a predetermined musical idea cannot be obtained unlike the conventional first technique is solved.

【0014】また、本発明によれば、最初の3小節の伴
奏パターンが「3×3×3=27通り」、第4小節目の
伴奏パターンが5通りであるので、全部で135通りの
伴奏パターンが得られる。従来の第2の技術に係る自動
演奏装置で同様の伴奏パターンを得るためには、135
個のプログラムを予め用意する必要がある。これに対
し、本発明では、このようなプログラムは不要であるの
で、データ量の増加を抑制できる。
Further, according to the present invention, the accompaniment pattern of the first three measures is “3 × 3 × 3 = 27 ways” and the accompaniment pattern of the fourth measure is five ways, so that there are a total of 135 ways of accompaniment. The pattern is obtained. To obtain a similar accompaniment pattern with the conventional automatic performance device according to the second technique, 135
It is necessary to prepare individual programs in advance. On the other hand, in the present invention, since such a program is unnecessary, it is possible to suppress an increase in the amount of data.

【0015】なお、上記では、伴奏パターンの一例とし
て、k=3、l=5、m=3、n=1の各値を用いた場
合について説明したが、本発明はこれに限定されない。
k、l、m、nの各々は任意の値を採ることができる。
In the above description, the case where each value of k = 3, l = 5, m = 3, and n = 1 is used as an example of the accompaniment pattern, but the present invention is not limited to this.
Each of k, l, m, and n can take any value.

【0016】また、本発明の自動伴奏装置は、第1のパ
ターンデータ及び第2のパターンデータといった2種類
のパターンデータを用いて多数の伴奏パターンを発生す
るように構成されているが、3種類以上のパターンデー
タを用いるように拡張することもできる。この場合、更
に複雑な伴奏パターンを実現できる。
The automatic accompaniment apparatus of the present invention is configured to generate a large number of accompaniment patterns by using two types of pattern data such as the first pattern data and the second pattern data. It can be extended to use the above pattern data. In this case, a more complicated accompaniment pattern can be realized.

【0017】また、上記第1の目的を達成するために、
本発明の電子楽器の自動伴奏方法は、k(k=1,2,
・・・)個の第1のパターンデータ及びl(l=1,
2,・・・)個の第2のパターンデータをそれぞれ記憶
しておき、該記憶されたk個の第1のパターンデータの
中からランダムにm(m=1,2,・・・)個を順次読
み出し、引き続いて該記憶されたl個の第2のパターン
データの中からランダムにn(n=1,2,・・・)個
を順次読み出し、該読み出された第1のパターンデータ
及び第2のパターンデータに基づいて自動的に伴奏音を
発生することを特徴とする。
In order to achieve the first object,
The automatic accompaniment method of the electronic musical instrument of the present invention is k (k = 1, 2,
...) first pattern data and l (l = 1, 1)
2, ...) Second pattern data are respectively stored, and m (m = 1, 2, ...) Randomly among the k first pattern data stored. Are sequentially read out, and subsequently n (n = 1, 2, ...) Pieces are randomly read out from the stored 1 piece of second pattern data, and the read first pattern data And an accompaniment sound is automatically generated based on the second pattern data.

【0018】また、本発明の電子楽器の自動伴奏装置
は、上記第2の目的を達成するために、複数の音符デー
タで構成されたパターンデータを記憶した記憶手段と、
該記憶手段からパターンデータを読み出す読出手段と、
該読出手段で読み出されたパターンデータ中の各音符デ
ータに基づいて伴奏音を発生する自動伴奏手段とを備え
た電子楽器の自動伴奏装置であって、該各音符データは
確率データを含み、該自動伴奏手段は、該確率データに
応じた確率で当該音符データに基づく伴奏音を発生する
ように構成される。
Further, in order to achieve the second object, the automatic accompaniment apparatus for an electronic musical instrument of the present invention comprises a storage means for storing pattern data composed of a plurality of note data,
Reading means for reading pattern data from the storage means,
An automatic accompaniment device for an electronic musical instrument, comprising: an automatic accompaniment means for generating an accompaniment sound based on each note data in the pattern data read by the reading means, wherein each note data includes probability data, The automatic accompaniment means is configured to generate an accompaniment sound based on the note data with a probability according to the probability data.

【0019】本自動伴奏装置によれば、パターンデータ
の中に、例えばギターのフレットノイズ音を発音するた
めの音符データ予め組み込んでおき、該音符データに含
まれた確率データに従った確率で当該フレットノイズ音
を発生させることができる。これにより、より現実の伴
奏に近い臨場感に富んだ自動伴奏を行うことができる。
According to this automatic accompaniment apparatus, note data for producing a fret noise sound of a guitar, for example, is previously incorporated in the pattern data, and the probability data according to the probability data included in the note data is used. A fret noise sound can be generated. As a result, it is possible to perform an automatic accompaniment that is more realistic and more realistic.

【0020】また、本発明の電子楽器の自動伴奏方法
は、同様の目的で、複数の音符データで構成されたパタ
ーンデータを記憶しておき、該記憶されたパターンデー
タを読み出し、該読み出されたパターンデータ中の各音
符データに基づいて伴奏音を発生する電子楽器の自動伴
奏方法であって、該各音符データは確率データを含み、
該音符データに基づく伴奏音は、該確率データに応じた
確率で発生するように構成されている。
For the same purpose, the automatic accompaniment method for an electronic musical instrument of the present invention stores pattern data composed of a plurality of note data, reads the stored pattern data, and reads the stored pattern data. An automatic accompaniment method for an electronic musical instrument that generates an accompaniment sound based on each note data in the pattern data, wherein each note data includes probability data,
The accompaniment sound based on the note data is generated with a probability according to the probability data.

【0021】また、本発明の電子楽器の自動伴奏装置
は、上記第2の目的を達成するために、複数の音符デー
タで構成されたパターンデータを記憶した記憶手段と、
該記憶手段からパターンデータを読み出す読出手段と、
該読出手段で読み出されたパターンデータ中の各音符デ
ータに基づいて伴奏音を発生する自動伴奏手段とを備え
た電子楽器の自動伴奏装置であって、該各音符データは
音量変動確率データを含み、該自動伴奏手段は、当該音
符データに基づく伴奏音の音量を、該音量変動確率デー
タに応じて変動させるように構成されている。
Further, in order to achieve the above-mentioned second object, the automatic accompaniment apparatus for an electronic musical instrument of the present invention comprises storage means for storing pattern data composed of a plurality of note data,
Reading means for reading pattern data from the storage means,
An automatic accompaniment apparatus for an electronic musical instrument, comprising: an automatic accompaniment means for generating an accompaniment sound based on each note data in the pattern data read by the reading means, wherein each note data is volume variation probability data. In addition, the automatic accompaniment means is configured to vary the volume of the accompaniment sound based on the note data in accordance with the volume variation probability data.

【0022】本自動伴奏装置によれば、音符データに含
まれた音量変動確率データに従って当該音符データの音
量を変化させることができる。これにより、伴奏音の音
量は所定の確率で変動し、より現実の伴奏に近い臨場感
に富んだ自動伴奏を行うことができる。
According to this automatic accompaniment apparatus, the volume of the note data can be changed according to the volume change probability data included in the note data. As a result, the volume of the accompaniment sound changes with a predetermined probability, and it is possible to perform an automatic accompaniment that is more realistic and more realistic.

【0023】また、本発明の電子楽器の自動伴奏方法
は、同様の目的で、複数の音符データで構成されたパタ
ーンデータを記憶しておき、該記憶されたパターンデー
タを読み出し、該読み出されたパターンデータ中の各音
符データに基づいて伴奏音を発生する電子楽器の自動伴
奏方法であって、該各音符データは音量変動確率データ
を含み、当該音符データに基づく伴奏音の音量は、該音
量変動確率データに応じて変動させるように構成されて
いる。
For the same purpose, the electronic musical instrument automatic accompaniment method of the present invention stores pattern data composed of a plurality of note data, reads the stored pattern data, and reads the pattern data. An automatic accompaniment method for an electronic musical instrument that generates an accompaniment sound based on each note data in the pattern data, wherein each note data includes volume variation probability data, and the volume of the accompaniment sound based on the note data is It is configured to vary according to the volume variation probability data.

【0024】[0024]

【発明の実施の形態】以下、本発明の電子楽器の自動伴
奏装置及び自動伴奏方法の実施の形態につき図面を参照
しながら詳細に説明する。なお、本自動伴奏装置は、独
立した自動伴奏装置として構成することもできるが、本
実施の形態では電子楽器に組み込まれた自動伴奏装置に
ついて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of an automatic accompaniment apparatus and an automatic accompaniment method for an electronic musical instrument of the present invention will be described in detail with reference to the drawings. The automatic accompaniment apparatus can be configured as an independent automatic accompaniment apparatus, but in the present embodiment, the automatic accompaniment apparatus incorporated in the electronic musical instrument will be described.

【0025】(実施の形態1)本実施の形態1の自動伴
奏装置は、4小節のフレーズを繰り返して自動伴奏する
ものとする。また、このフレーズは、前半の3小節を形
成するグループA(m=3)と後半の1小節を形成する
グループB(n=1)に分割され、グループAには3個
の第1のパターンデータ(k=3)が含まれ、グループ
Bは5個の第2のパターンデータ(l=5)が含まれる
ものとする。
(Embodiment 1) The automatic accompaniment apparatus according to the first embodiment is assumed to automatically perform accompaniment by repeating phrases of four measures. Further, this phrase is divided into a group A (m = 3) forming the first half 3 bars and a group B (n = 1) forming the second half 1 bar, and the group A has three first patterns. It is assumed that the data (k = 3) is included and the group B includes five second pattern data (l = 5).

【0026】本発明の読出手段は、CPU10、プログ
ラムメモリ11及びRAM12で構成されている。ま
た、本発明の自動伴奏手段は、CPU10、プログラム
メモリ11、RAM12、波形メモリ18、音源19、
増幅器20及びスピーカ21で構成されている。
The reading means of the present invention comprises a CPU 10, a program memory 11 and a RAM 12. The automatic accompaniment means of the present invention includes a CPU 10, a program memory 11, a RAM 12, a waveform memory 18, a sound source 19,
It is composed of an amplifier 20 and a speaker 21.

【0027】図1は、本発明の自動伴奏装置が適用され
た電子楽器の構成を示すブロック図である。この電子楽
器においては、CPU10、プログラムメモリ11、R
AM12、パネルインタフェース回路13、鍵盤インタ
フェース回路15、パターンメモリ17、波形メモリ1
8及び音源19がシステムバス30によって相互に接続
されている。システムバス30は、例えばアドレスバ
ス、データバス、制御信号バス等で構成されており、上
記各要素間のデータの送受を行うために使用される。
FIG. 1 is a block diagram showing the configuration of an electronic musical instrument to which the automatic accompaniment apparatus of the present invention is applied. In this electronic musical instrument, the CPU 10, program memory 11, R
AM 12, panel interface circuit 13, keyboard interface circuit 15, pattern memory 17, waveform memory 1
8 and the sound source 19 are connected to each other by a system bus 30. The system bus 30 is composed of, for example, an address bus, a data bus, a control signal bus, etc., and is used for transmitting and receiving data between the above-mentioned respective elements.

【0028】CPU10は、プログラムメモリ11に記
憶されている制御プログラムに従って動作する。このC
PU10は、本自動伴奏装置を含む電子楽器の各種機能
を実現するための処理を行う。例えば、CPU10は、
鍵操作に応じた鍵盤処理、パネル操作に応じたパネル処
理、或いは伴奏音を自動的に発生させる為の自動伴奏処
理、その他の各種処理を行う。
The CPU 10 operates according to a control program stored in the program memory 11. This C
The PU 10 performs processing for realizing various functions of the electronic musical instrument including the automatic accompaniment device. For example, the CPU 10
A keyboard process according to a key operation, a panel process according to a panel operation, an automatic accompaniment process for automatically generating an accompaniment sound, and other various processes are performed.

【0029】プログラムメモリ11は、例えばROMで
構成することができる。このプログラムメモリ11に
は、上述した制御プログラムの他に、CPU10が使用
する種々の固定データが記憶されている。また、このプ
ログラムメモリ11には音色パラメータが記憶されてい
る。音色パラメータは、所定の音色の楽音(楽器音)を
発生させるために使用される。音色パラメータは、例え
ば音色及び鍵域毎に複数設けられており、各音色パラメ
ータは、例えば波形アドレス、周波数データ、エンベロ
ープデータ、フィルタ係数等で構成されている。
The program memory 11 can be composed of, for example, a ROM. The program memory 11 stores various fixed data used by the CPU 10 in addition to the control program described above. The program memory 11 stores tone color parameters. The tone color parameter is used to generate a musical tone (musical instrument sound) of a predetermined tone color. A plurality of tone color parameters are provided, for example, for each tone color and key range, and each tone color parameter is composed of, for example, waveform address, frequency data, envelope data, filter coefficient, and the like.

【0030】RAM12は、CPU10が処理する種々
のデータを一時的に記憶する。このRAM12には、例
えばバッファ、レジスタ、カウンタ、フラグ等が設けら
れている。これらの詳細については、後述する。
The RAM 12 temporarily stores various data processed by the CPU 10. The RAM 12 is provided with, for example, a buffer, a register, a counter, a flag and the like. Details of these will be described later.

【0031】パネルインタフェース回路13には操作パ
ネル14が接続されている。この操作パネル14には、
各種スイッチ、表示器等が設けられている。各種スイッ
チには、スタート/ストップスイッチ、リズム選択スイ
ッチ、音色選択スイッチ等(何れも図示しない)が含ま
れる。スタート/ストップスイッチは、自動伴奏を開始
させ又は停止させるために使用される。自動伴奏停止中
にスタート/ストップスイッチが押されると自動伴奏が
開始される。一方、自動伴奏中にスタート/ストップス
イッチが押されると自動伴奏が停止される。リズム選択
スイッチは自動伴奏のリズム(例えばロック、ワルツ、
マンボ等)を選択するために使用される。このリズム選
択スイッチで選択されたリズムの番号は、RAM12に
設けられたリズム番号レジスタに記憶される。
An operation panel 14 is connected to the panel interface circuit 13. On this operation panel 14,
Various switches and indicators are provided. The various switches include a start / stop switch, a rhythm selection switch, a tone color selection switch, etc. (none of which are shown). The start / stop switch is used to start or stop automatic accompaniment. When the start / stop switch is pressed while the automatic accompaniment is stopped, the automatic accompaniment is started. On the other hand, when the start / stop switch is pressed during the automatic accompaniment, the automatic accompaniment is stopped. The rhythm selection switch is used for automatic accompaniment rhythms (eg rock, waltz,
Mambo, etc.) used to select. The rhythm number selected by the rhythm selection switch is stored in the rhythm number register provided in the RAM 12.

【0032】また、表示器には、個別表示器とキャラク
タ表示器とが含まれる。個別表示器は、各スイッチに対
応して設けられ、そのオン/オフを示すために使用され
る。キャラクタ表示器は、文字、記号、数字等を表示す
るために使用される。キャラクタ表示器は、例えば7セ
グメントのLED表示器で構成することができる。キャ
ラクタ表示器には、例えば音色選択時には音色番号が、
リズム選択時にはリズム番号がそれぞれ表示される。な
お、このキャラクタ表示器は7セグメントのLED表示
器に限らず、LCD表示器、CRT表示器、その他の各
種表示器を用いることができる。
The display includes an individual display and a character display. An individual display is provided corresponding to each switch and is used to indicate ON / OFF of the switch. Character displays are used to display characters, symbols, numbers, etc. The character display can be composed of, for example, a 7-segment LED display. For example, when selecting a tone, the tone number is displayed on the character display.
Each rhythm number is displayed when the rhythm is selected. The character display is not limited to the 7-segment LED display, and an LCD display, a CRT display, and other various displays can be used.

【0033】パネルインタフェース回路13は、操作パ
ネル14とCPU10との間のデータの送受を制御す
る。即ち、パネルインタフェース回路13は、操作パネ
ル14から受け取った信号に基づきパネルデータを生成
し、CPU10に送る。このパネルデータは、各スイッ
チのオン/オフ状態を示すビット列で構成されている。
CPU10は、このパネルデータに基づいてパネル操作
に対応した各種処理を行う。また、パネルインタフェー
ス回路13は、CPU10から受け取った表示データを
操作パネル14に送り出す。これにより、操作パネル1
4の各種表示器の点灯/消灯等が制御される。
The panel interface circuit 13 controls transmission / reception of data between the operation panel 14 and the CPU 10. That is, the panel interface circuit 13 generates panel data based on the signal received from the operation panel 14 and sends the panel data to the CPU 10. This panel data is composed of a bit string indicating the on / off state of each switch.
The CPU 10 performs various processes corresponding to the panel operation based on this panel data. The panel interface circuit 13 sends out the display data received from the CPU 10 to the operation panel 14. As a result, the operation panel 1
Lighting / extinction of various indicators of 4 is controlled.

【0034】鍵盤インタフェース回路15には鍵盤装置
16が接続されている。鍵盤装置16は、音程を指示す
るための複数の鍵を有している。この鍵盤装置16に
は、例えば2接点方式の鍵が用いられている。即ち、鍵
盤装置16の各鍵は、押鍵又は離鍵に連動して開閉する
2個のキースイッチを有し、鍵タッチを検出できるよう
になっている。
A keyboard device 16 is connected to the keyboard interface circuit 15. The keyboard device 16 has a plurality of keys for designating a pitch. For the keyboard device 16, for example, a two-contact type key is used. That is, each key of the keyboard device 16 has two key switches that open and close in association with a key press or a key release, and can detect a key touch.

【0035】鍵盤インタフェース15は、押鍵又は離鍵
に伴う各鍵のオン/オフ状態及び鍵タッチの強さを検出
する。即ち、鍵盤インタフェース15は、鍵盤インタフ
ェース回路15から受け取った信号に基づき各鍵のオン
/オフ状態を示すキーデータ及び鍵タッチの強さを示す
タッチデータを生成し、CPU10に送る。CPU10
は、このキーデータ及びタッチデータに基づいて、押鍵
又は離鍵に応じた各種処理を行う。
The keyboard interface 15 detects the on / off state of each key and the strength of the key touch when the key is pressed or released. That is, the keyboard interface 15 generates key data indicating the on / off state of each key and touch data indicating the strength of key touch based on the signal received from the keyboard interface circuit 15 and sends them to the CPU 10. CPU10
Performs various processes according to key depression or key release based on the key data and the touch data.

【0036】パターンメモリ17は、本発明の第1の記
憶手段及び第2の記憶手段に対応する。このパターンメ
モリ17は、例えばROMで構成することができる。こ
のパターンメモリ17は、自動伴奏に使用されるパター
ンデータを記憶する。このパターンメモリ17に記憶さ
れるパターンデータの詳細については、後述する。
The pattern memory 17 corresponds to the first storage means and the second storage means of the present invention. The pattern memory 17 can be composed of, for example, a ROM. The pattern memory 17 stores pattern data used for automatic accompaniment. Details of the pattern data stored in the pattern memory 17 will be described later.

【0037】波形メモリ18は、波形データを記憶する
ものであり、例えばROMで構成される。この波形メモ
リ18には、複数の音色パラメータのそれぞれに対応し
た複数の波形データが記憶されている。波形データは、
例えば放音された楽音を電気信号に変換し、これをパル
スコード変調(PCM)して作成することができる。こ
の波形メモリ18は、システムバス30を介して音源1
9によりアクセスされる。
The waveform memory 18 stores waveform data, and is composed of, for example, a ROM. The waveform memory 18 stores a plurality of waveform data corresponding to a plurality of tone parameters. The waveform data is
For example, the emitted musical tone can be converted into an electric signal, which can be created by pulse code modulation (PCM). This waveform memory 18 is used for the sound source 1 via the system bus 30.
9 is accessed.

【0038】音源19は、複数の発音チャンネルを有し
ている。この音源19は、CPU10から指定された発
音チャンネルを使用して、音色パラメータに応じた楽音
信号を発生する。即ち、音源19は、CPU10から発
音チャンネルの指定と音色パラメータを受け取ると、指
定された発音チャンネルの機能を用いて、波形メモリ1
8から波形データを読み出し、これにエンベロープを付
加してデジタル楽音信号を生成し、D/A変換器20に
送出する。
The sound source 19 has a plurality of sound generation channels. The tone generator 19 uses the tone generation channel designated by the CPU 10 to generate a tone signal corresponding to a tone color parameter. That is, when the tone generator 19 receives the designation of the tone generation channel and the tone color parameter from the CPU 10, the tone generator 19 uses the function of the designated tone generation channel to execute the waveform memory
The waveform data is read from No. 8, an envelope is added to the waveform data, and a digital tone signal is generated and sent to the D / A converter 20.

【0039】D/A変換器20は、音源19からのデジ
タル楽音信号をアナログ楽音信号に変換して増幅器21
に送る。増幅器21は、入力されたアナログ楽音信号を
所定の増幅率で増幅してスピーカ22に送る。スピーカ
22は、増幅器からのアナログ楽音信号を音響信号に変
換して出力する。これにより、スピーカ22から楽音が
発生される。
The D / A converter 20 converts the digital musical tone signal from the sound source 19 into an analog musical tone signal and an amplifier 21.
Send to The amplifier 21 amplifies the input analog musical tone signal with a predetermined amplification factor and sends it to the speaker 22. The speaker 22 converts the analog musical tone signal from the amplifier into an acoustic signal and outputs it. As a result, a musical sound is generated from the speaker 22.

【0040】次に、パターンメモリ17に記憶されるパ
ターンデータの詳細について図2を参照しながら説明す
る。パターンメモリ17には、パターンデータがリズム
毎に記憶されている。本実施の形態1では、例えば図2
に示すように、1つのリズムに対して8個のパターンデ
ータが用意されている。本発明の自動伴奏装置の第1の
パターンデータとしてパターンデータ0〜2(k=3)
を対応させ、第2のパターンデータとしてパターンデー
タ3〜7(l=5)を対応させることができる。各パタ
ーンデータ0〜7は、1小節分の音符データと1個のエ
ンドデータとで構成されている。音符データであるかエ
ンドデータであるかは、第1バイト目のMSBで区別さ
れる。
Next, details of the pattern data stored in the pattern memory 17 will be described with reference to FIG. Pattern data is stored in the pattern memory 17 for each rhythm. In the first embodiment, for example, FIG.
As shown in, eight pattern data are prepared for one rhythm. Pattern data 0 to 2 (k = 3) as the first pattern data of the automatic accompaniment apparatus of the present invention.
And the pattern data 3 to 7 (l = 5) can be made to correspond as the second pattern data. Each pattern data 0 to 7 is composed of note data for one measure and one end data. Whether the data is note data or end data is distinguished by the MSB of the first byte.

【0041】各音符データは例えば4バイトで構成さ
れ、各バイトには、キーナンバ、ステップタイム、ゲー
トタイム及びベロシティが割り当てられている。キーナ
ンバは音高を指示するデータである。ステップタイム
は、発音時刻を指定するデータである。ゲートタイムは
発音の長さを指定するデータである。ベロシティは発音
の強さを指定するデータである。また、エンドデータは
例えば2バイトで構成され、各バイトにはエンドマーク
及びステップタイムが割り当てられている。エンドマー
クは、1つのパターンデータの終わりを表す。
Each note data is composed of, for example, 4 bytes, and a key number, step time, gate time and velocity are assigned to each byte. The key number is data that indicates the pitch. The step time is data for specifying a sound generation time. The gate time is data that specifies the length of the sound. Velocity is data that specifies the strength of pronunciation. The end data is composed of, for example, 2 bytes, and each byte is assigned an end mark and a step time. The end mark represents the end of one pattern data.

【0042】次に、RAM12に定義されたバッファ、
レジスタ、カウンタ、フラグ等について、図3を参照し
ながら説明する。
Next, the buffer defined in the RAM 12
Registers, counters, flags and the like will be described with reference to FIG.

【0043】(a)自動伴奏フラグ:自動伴奏中である
かどうかを記憶する。 (b)リズム番号レジスタ:リズム選択スイッチによっ
て選択されたリズムの番号を記憶する。 (c)ステップタイムカウンタ:小節先頭からのステッ
プタイムCOUNTを計数する。1ステップの時間はテ
ンポにより決定される。 (d)ステップタイムレジスタ:音符データ中のステッ
プタイムSTEPを一時的に記憶する。 (e)乱数バッファ:生成された乱数を一時的に記憶す
るバッファである。 (f)パターンアドレスレジスタ:現在処理中のパター
ンデータの中の音符データの記憶位置を指定する。 (g)演奏回数カウンタ:発音処理を行った回数(パタ
ーンデータ数)を計数する。 (h)グループフラグ:A又はBの何れのグループのパ
ターンデータを処理しているかを記憶する。 (i)候補数レジスタ:グループ毎に設けられるレジス
タであり、各グループに属するパターンデータ数を記憶
する。 (j)演奏回数レジスタ:グループ毎に設けられるレジ
スタであり、各グループに属するパターンデータに基づ
く演奏を行う回数を記憶する。 (k)候補パターンナンバテーブル:グループ毎に設け
られるテーブルであり、候補となるパターンデータの番
号(以下、「候補パターンナンバ」という)が記憶され
る。 (l)候補パターンアドレステーブル:グループ毎に設
けられるテーブルであり、候補パターンナンバに対応す
るパターンデータが記憶されているパターンメモリ17
のアドレスが記憶される。
(A) Automatic accompaniment flag: The automatic accompaniment flag is stored. (B) Rhythm number register: stores the number of the rhythm selected by the rhythm selection switch. (C) Step time counter: The step time COUNT from the beginning of the bar is counted. The time of one step is determined by the tempo. (D) Step time register: The step time STEP in the note data is temporarily stored. (E) Random number buffer: A buffer that temporarily stores the generated random numbers. (F) Pattern address register: Designates the storage position of the note data in the pattern data currently being processed. (G) Performance counter: Counts the number of times the tone generation processing has been performed (the number of pattern data). (H) Group flag: Stores which group of pattern data, A or B, is being processed. (I) Candidate number register: A register provided for each group and stores the number of pattern data belonging to each group. (J) Performance count register: This register is provided for each group and stores the number of performances based on the pattern data belonging to each group. (K) Candidate pattern number table: This is a table provided for each group and stores the number of candidate pattern data (hereinafter referred to as "candidate pattern number"). (L) Candidate pattern address table: This is a table provided for each group, and the pattern memory 17 stores pattern data corresponding to candidate pattern numbers.
The address of is stored.

【0044】次に、上記の構成において、本実施の形態
1の自動伴奏装置の動作について、図5〜図8のフロー
チャートを参照しながら説明する。
Next, the operation of the automatic accompaniment apparatus of the first embodiment having the above-mentioned structure will be described with reference to the flow charts of FIGS.

【0045】(1)メイン処理 図5は、本自動伴奏装置が適用された電子楽器のメイン
処理を示すフローチャートである。このメイン処理ルー
チンは、電源の投入により起動される。即ち、電源が投
入されると、先ず、初期化処理が行われる(ステップS
10)。この初期化処理では、CPU10の内部がリセ
ットされると共に、RAM12に定義されているバッフ
ァ、レジスタ、カウンタ、フラグ等が初期状態に設定さ
れる。
(1) Main Processing FIG. 5 is a flowchart showing the main processing of the electronic musical instrument to which this automatic accompaniment apparatus is applied. This main processing routine is started when the power is turned on. That is, when the power is turned on, first, initialization processing is performed (step S
10). In this initialization processing, the inside of the CPU 10 is reset and the buffers, registers, counters, flags, etc. defined in the RAM 12 are set to the initial state.

【0046】例えば、グループAの候補数レジスタに
は、グループAで使用されるパターンデータの数k(例
えばk=3)が設定され、グループBの候補数レジスタ
には、グループBで使用されるパターンデータの数l
(例えばl=5)が設定される。また、グループAの演
奏回数レジスタには、グループAのパターンデータに基
づいて自動伴奏を行う回数m(例えばm=3)が設定さ
れ、グループBの演奏回数レジスタには、グループBの
パターンデータに基づいて自動伴奏を行う回数n(例え
ばn=1)が設定される。m=3及びn=1とすること
により、4小節のフレーズで成る伴奏音が繰り返して発
生される。
For example, the number k of pattern data used in group A (for example, k = 3) is set in the group A candidate number register, and the group B candidate number register is used in group B. Number of pattern data l
(For example, l = 5) is set. In addition, the number of times m (for example, m = 3) of performing automatic accompaniment based on the pattern data of group A is set in the number-of-times register of group A, and the number-of-times register of group B is set to the pattern data of group B. Based on this, the number of times of automatic accompaniment n (for example, n = 1) is set. By setting m = 3 and n = 1, an accompaniment sound consisting of phrases of four measures is repeatedly generated.

【0047】なお、本実施の形態では、初期化処理時に
候補数レジスタ及び演奏回数レジスタに値を設定するよ
うにしているが、これらのレジスタには、操作パネル1
4を用いて値を設定するように構成できる。
In this embodiment, values are set in the candidate number register and the performance number register at the time of initialization processing, but these registers are set in the operation panel 1
4 can be used to set the value.

【0048】この初期化処理が終了すると、次いで、パ
ネル処理が行われる(ステップS11)。このパネル処
理では、操作パネル14上のスイッチの操作に対応する
処理や、表示器にデータを表示する処理が行われる。こ
のパネル処理の詳細については後述する。
Upon completion of this initialization processing, panel processing is then carried out (step S11). In this panel processing, processing corresponding to the operation of the switch on the operation panel 14 and processing for displaying data on the display are performed. Details of this panel processing will be described later.

【0049】次いで、鍵盤処理が行われる(ステップS
12)。この鍵盤処理では、発音処理、消音処理等が行
われる。これらの処理によって、鍵盤装置16の操作に
応じた楽音が発生される。
Next, keyboard processing is performed (step S).
12). In this keyboard processing, sound generation processing, silence processing, etc. are performed. Through these processes, a musical tone corresponding to the operation of the keyboard device 16 is generated.

【0050】次いで、自動伴奏処理が行われる(ステッ
プS13)。この自動伴奏処理では、パターンメモリ1
7からパターンデータが読み出され、この読み出された
パターン電子楽器に基づいて伴奏音が発生される。この
自動伴奏処理の詳細については、後述する。
Next, automatic accompaniment processing is performed (step S13). In this automatic accompaniment process, the pattern memory 1
The pattern data is read from No. 7, and an accompaniment sound is generated based on the read pattern electronic musical instrument. Details of this automatic accompaniment processing will be described later.

【0051】次いで、「その他の処理」が行われる(ス
テップS13)。この「その他の処理」では、例えば図
示しないMIDIインタフェース回路を介して外部機器
との間でMIDIデータを送受信する処理等が行われ
る。その後、ステップS11に戻り、以下、同様の処理
が繰り返される。
Next, "other processing" is performed (step S13). In this "other process", for example, a process of transmitting / receiving MIDI data to / from an external device via a MIDI interface circuit (not shown) is performed. Thereafter, the process returns to step S11, and the same processing is repeated thereafter.

【0052】このように、メイン処理ルーチンの上記ス
テップS11〜S14の繰り返し実行の過程でパネル操
作又は鍵盤操作が行われると、その操作に対応する処理
が行われる。これにより、電子楽器及び自動伴奏装置と
しての各種機能が実現されている。
As described above, when a panel operation or a keyboard operation is performed in the process of repeatedly executing steps S11 to S14 of the main processing routine, a process corresponding to the operation is performed. Thereby, various functions as an electronic musical instrument and an automatic accompaniment device are realized.

【0053】(2)パネル処理 次に、パネル処理の詳細について、図6のフローチャー
トを参照しながら説明する。このパネル処理ルーチン
は、メイン処理ルーチンから一定周期でコールされる。
(2) Panel Processing Next, details of the panel processing will be described with reference to the flowchart of FIG. This panel processing routine is called at regular intervals from the main processing routine.

【0054】パネル処理では、先ず、パネルスキャン処
理が行われる(ステップS20)。このパネルスキャン
処理では、操作パネル14からパネルインタフェース回
路13を介してパネルデータ(以下、これを「新パネル
データ」という)が読み込まれる。そして、上記と同様
にして前回のパネル処理で操作パネル14から読み込ま
れ、既にRAM12の所定領域に記憶されているパネル
データ(以下、「旧パネルデータ」という)と上記新パ
ネルデータとの排他的論理和演算が行われる。この演算
結果は、パネルイベントマップとして、RAM12の所
定領域に格納される。その後、新パネルデータが旧パネ
ルデータとしてRAM12の所定領域に格納される。
In the panel process, first, a panel scan process is performed (step S20). In this panel scan process, panel data (hereinafter referred to as “new panel data”) is read from the operation panel 14 via the panel interface circuit 13. Then, similarly to the above, the panel data (hereinafter referred to as “old panel data”) read from the operation panel 14 in the previous panel processing and already stored in a predetermined area of the RAM 12 and the new panel data are exclusive. A logical sum operation is performed. The calculation result is stored in a predetermined area of the RAM 12 as a panel event map. Then, the new panel data is stored in the predetermined area of the RAM 12 as the old panel data.

【0055】次いで、スタート/ストップスイッチのオ
ンイベントがあるかどうかが調べられる(ステップS2
1)。これは、上記イベントマップ中のスタート/スト
ップスイッチに対応するビット及び新パネルデータ中の
スタート/ストップスイッチに対応するビットの双方が
オンになっているかどうかを調べることにより行われ
る。スイッチのオンイベントの有無は、他のスイッチに
ついても同様の方法で調べられる。
Then, it is checked whether or not there is an on event of the start / stop switch (step S2).
1). This is done by checking whether both the bit corresponding to the start / stop switch in the event map and the bit corresponding to the start / stop switch in the new panel data are on. The presence / absence of a switch ON event is checked in the same manner for other switches.

【0056】ここで、スタート/ストップスイッチのオ
ンイベントがあることが判断されると、次いで、自動伴
奏フラグが「1」であるかどうかが調べられる(ステッ
プS22)。そして、自動演奏フラグが「1」であるこ
とが判断されると、自動伴奏中にスタート/ストップス
イッチが押されたことが認識され、自動伴奏フラグが
「0」にクリアされる(ステップS23)。その後、シ
ーケンスはメイン処理ルーチンにリターンする。これに
より、自動伴奏中にスタート/ストップスイッチが押さ
れると自動伴奏が停止されることになる。
If it is determined that the start / stop switch is on, then it is checked whether the automatic accompaniment flag is "1" (step S22). When it is determined that the automatic performance flag is "1", it is recognized that the start / stop switch is pressed during the automatic accompaniment, and the automatic accompaniment flag is cleared to "0" (step S23). . Thereafter, the sequence returns to the main processing routine. As a result, when the start / stop switch is pressed during the automatic accompaniment, the automatic accompaniment is stopped.

【0057】上記ステップS22において、自動伴奏フ
ラグが「0」であることが判断されると、自動伴奏停止
中にスタート/ストップスイッチが押されたことが認識
され、自動伴奏フラグが「1」にセットされる(ステッ
プS24)。以下、自動伴奏を開始させるための処理が
行われる。即ち、先ず、ステップタイムカウンタの内容
COUNTがゼロにクリアされる(ステップS25)。
次いで、グループフラグが「A」にセットされる(ステ
ップS26)。次いで、グループAの演奏回数レジスタ
の内容が演奏回数カウンタにセットされる(ステップS
27)。次いで、パターンデータ選択処理が行われる
(ステップS28)。このパターンデータの選択処理で
は、複数のパターンデータの中から1つのパターンデー
タをランダムに選択する処理(詳細は後述)が行われ
る。以下、選択されたパターンデータに基づいて自動伴
奏が行われる。その後、シーケンスはメイン処理ルーチ
ンにリータンする。
When it is determined in step S22 that the automatic accompaniment flag is "0", it is recognized that the start / stop switch is pressed while the automatic accompaniment is stopped, and the automatic accompaniment flag is set to "1". It is set (step S24). Hereinafter, processing for starting the automatic accompaniment is performed. That is, first, the content COUNT of the step time counter is cleared to zero (step S25).
Next, the group flag is set to "A" (step S26). Next, the contents of the performance number register of group A is set in the performance number counter (step S
27). Next, pattern data selection processing is performed (step S28). In this pattern data selection process, a process of randomly selecting one pattern data from a plurality of pattern data (details will be described later) is performed. Hereinafter, automatic accompaniment is performed based on the selected pattern data. After that, the sequence returns to the main processing routine.

【0058】上記ステップS21でスタート/ストップ
スイッチのオンイベントがないことが判断されると、次
いで、リズム選択スイッチのオンイベントがあったかど
うかが調べられる(ステップS29)。そして、リズム
選択スイッチのオンイベントがあることが判断される
と、当該スイッチに対応するリズムの番号がリズム番号
レジスタにセットされる(ステップS30)。その後、
シーケンスはメイン処理ルーチンにリターンする。一
方、リズム選択スイッチのオンイベントがないことが判
断されると、次いで、「その他のスイッチ処理」が行わ
れる(ステップS31)。この処理では、例えば音色選
択スイッチ、その他の各種スイッチのイベントに対する
処理が行われる。その後、シーケンスはメイン処理ルー
チンにリターンする。
When it is determined in step S21 that there is no start / stop switch on event, it is then checked whether or not there is an on event of the rhythm selection switch (step S29). When it is determined that there is an on event of the rhythm selection switch, the rhythm number corresponding to the switch is set in the rhythm number register (step S30). afterwards,
The sequence returns to the main processing routine. On the other hand, if it is determined that there is no on event of the rhythm selection switch, then "other switch processing" is performed (step S31). In this processing, for example, processing for an event of the tone color selection switch and other various switches is performed. Thereafter, the sequence returns to the main processing routine.

【0059】(3)パターンデータ選択処理 次いで、上記パネル処理ルーチンのステップS28及び
後述する自動伴奏処理ルーチン(図8)のステップS5
8で行われるパターンデータ選択処理について図7のフ
ローチャートを参照しながら説明する。
(3) Pattern data selection processing Next, step S28 of the panel processing routine and step S5 of the automatic accompaniment processing routine (FIG. 8) described later.
The pattern data selection process performed in 8 will be described with reference to the flowchart of FIG.

【0060】パターンデータ選択処理では、先ず、演奏
回数カウンタの内容がデクリメントされ、その結果がゼ
ロであるかどうかが調べられる(ステップS40)。そ
して、ゼロでないことが判断されるとステップS46へ
分岐する。一方、ゼロであることが判断されると、次い
で、グループフラグが「A」又は「B」の何れであるか
が調べられる(ステップS41)。ここで、グループフ
ラグが「A」であることが判断されると、グループAの
パターンデータの処理は完了したものと認識され、グル
ープフラグが「B」にセットされる(ステップS4
2)。次いで、グループBの演奏回数レジスタの内容が
演奏回数カウンタにセットされ(ステップS43)、そ
の後、ステップS46へ進む。一方、グループフラグが
「B」であることが判断されると、グループBのパター
ンデータの処理は完了したものと認識され、グループフ
ラグが「A」にセットされ(ステップS44)、グルー
プAの演奏回数レジスタの内容が演奏回数カウンタにセ
ットされる(ステップS45)。その後、シーケンスは
ステップS46へ分岐する。
In the pattern data selection process, first, the content of the performance counter is decremented and it is checked whether or not the result is zero (step S40). When it is determined that the value is not zero, the process branches to step S46. On the other hand, if it is determined to be zero, then it is checked whether the group flag is "A" or "B" (step S41). Here, if it is determined that the group flag is “A”, it is recognized that the processing of the pattern data of the group A is completed, and the group flag is set to “B” (step S4).
2). Next, the content of the performance number register of group B is set in the performance number counter (step S43), and then the process proceeds to step S46. On the other hand, when it is determined that the group flag is "B", it is recognized that the processing of the pattern data of the group B is completed, the group flag is set to "A" (step S44), and the performance of the group A is performed. The content of the frequency register is set in the performance frequency counter (step S45). After that, the sequence branches to step S46.

【0061】ステップS46では、グループフラグが
「A」又は「B」の何れであるかが調べられる。ここ
で、グループフラグが「A」であることが判断される
と、グループAのパターンデータの中から1つのパター
ンデータをランダムに選択する処理が行われる(ステッ
プS47)。この処理では、先ず、乱数を乱数バッファ
に生成する。乱数の発生方法は、公知のいかなる方法を
も用いることができる。次いで、乱数(乱数バッファの
内容)を候補数(グループAの候補数レジスタの内容)
で除算し、剰余を得る。そして、グループAの候補パタ
ーンナンバテーブルから、この剰余に対応する候補パタ
ーンナンバを取り出す。これにより、1つのパターンデ
ータが選択される。なお、上記で使用する乱数のデータ
長は、確率データのデータ長より十分長くしておくこと
が好ましい。これにより、乱数の偏りを回避することが
できる。
In step S46, it is checked whether the group flag is "A" or "B". Here, if it is determined that the group flag is "A", a process of randomly selecting one pattern data from the pattern data of the group A is performed (step S47). In this process, first, a random number is generated in the random number buffer. Any known method can be used as the method of generating the random number. Next, the random number (contents of the random number buffer) is set to the number of candidates (contents of the candidate number register of group A).
Divide by and get the remainder. Then, the candidate pattern number corresponding to this remainder is extracted from the candidate pattern number table of group A. Thereby, one pattern data is selected. The data length of the random numbers used above is preferably set sufficiently longer than the data length of the probability data. This makes it possible to avoid bias in random numbers.

【0062】次いで、パターンデータアドレスセット処
理が行われる(ステップS49)。この処理では、パタ
ーンアドレステーブルから、上記で得られた候補パター
ンナンバに対応するパターンアドレスが取り出され、パ
ターンアドレスレジスタにセットされる。これにより、
1つのパターンデータに対する自動伴奏の準備が完了す
る。その後、シーケンスはコールしたルーチンにリター
ンする。
Then, pattern data address setting processing is performed (step S49). In this process, the pattern address corresponding to the candidate pattern number obtained above is extracted from the pattern address table and set in the pattern address register. This allows
Preparations for automatic accompaniment for one pattern data are completed. The sequence then returns to the routine that called it.

【0063】上記ステップS46でグループフラグが
「B」であることが判断されると、グループBのパター
ンデータの中から1つのパターンデータをランダムに選
択する処理が行われる(ステップS48)。この処理
は、グループBの候補数レジスタ及び候補パターンナン
バテーブルを使用して処理が行われることを除けば、ス
テップS47の処理と同じである。その後、ステップS
49へ分岐し、以下同様の処理が行われる。
When it is determined in step S46 that the group flag is "B", a process of randomly selecting one pattern data from the pattern data of group B is performed (step S48). This process is the same as the process of step S47, except that the process is performed using the group B candidate count register and the candidate pattern number table. Then, step S
After branching to 49, the same processing is performed thereafter.

【0064】なお、上記では、候補パターンナンバテー
ブルに候補パターンナンバを記憶し、候補パターンナン
バテーブルからランダムに選択された候補パターンナン
バで更に候補パターンアドレステーブルを参照してパタ
ーンアドレスを得るようにしているが、候補パターンナ
ンバテーブルにパターンアドレスを記憶しておき、候補
パターンナンバテーブルからランダムにパターンアドレ
スを選択するように構成してもよい。この方法によれ
ば、上述した候補パターンアドレステーブルを省略する
ことができると共に、処理を簡略化できる。
In the above, the candidate pattern number is stored in the candidate pattern number table, and the pattern address is obtained by further referring to the candidate pattern address table with the candidate pattern number randomly selected from the candidate pattern number table. However, the pattern address may be stored in the candidate pattern number table and the pattern address may be randomly selected from the candidate pattern number table. According to this method, the above-mentioned candidate pattern address table can be omitted and the processing can be simplified.

【0065】(4)自動伴奏処理 次に、自動伴奏処理の詳細について、図8のフローチャ
ートを参照しながら説明する。この自動伴奏処理ルーチ
ンは、メイン処理ルーチンから一定周期でコールされ
る。
(4) Automatic Accompaniment Processing Next, details of the automatic accompaniment processing will be described with reference to the flowchart of FIG. This automatic accompaniment processing routine is called at regular intervals from the main processing routine.

【0066】自動伴奏処理では、先ず、自動伴奏フラグ
が「1」であるかどうかが調べられる(ステップS5
0)。ここで、自動伴奏フラグが「1」でない、つまり
自動伴奏停止中であることがことが判断されると、シー
ケンスはメイン処理ルーチンにリターンする。これによ
り自動伴奏を停止する機能が実現されている。
In the automatic accompaniment process, it is first checked whether or not the automatic accompaniment flag is "1" (step S5).
0). If it is determined that the automatic accompaniment flag is not "1", that is, the automatic accompaniment is stopped, the sequence returns to the main processing routine. This realizes the function of stopping the automatic accompaniment.

【0067】一方、自動伴奏フラグが「1」であり、現
在自動伴奏中であることが判断されると、パターンデー
タの読出タイミングであるかどうかが調べられる(ステ
ップS51)。ここで、読出タイミングとは、1ステッ
プタイムが経過する毎に到来するタイミングをいう。こ
の読出タイミングが到来したかどうかは、例えば図示し
ない時計機構で計時されている時刻を参照することによ
り判断される。このステップS51で、読出タイミング
でないことが判断されると、シーケンスはメイン処理ル
ーチンにリターンする。
On the other hand, when the automatic accompaniment flag is "1" and it is determined that the automatic accompaniment is currently being performed, it is checked whether or not it is the timing of reading the pattern data (step S51). Here, the read timing means a timing that arrives every time one step time elapses. Whether or not the read timing has come is determined by, for example, referring to the time measured by a clock mechanism (not shown). If it is determined in step S51 that it is not the read timing, the sequence returns to the main processing routine.

【0068】上記ステップS51で読出タイミングであ
ることが判断されると、次いで、ステップタイムレジス
タにセットされているステップタイムSTEPとステッ
プタイムカウンタの内容COUNTとが比較される。こ
こで、一致しないことが判断されると、ステップタイム
STEPを有する音符データは、未だ発音タイミングに
至っていないものと判断され、ステップタイムカウンタ
の内容COUNTがインクリメントされる(ステップS
63)。その後、シーケンスはメイン処理ルーチンにリ
ターンする。
When it is determined in step S51 that it is the read timing, the step time STEP set in the step time register is compared with the content COUNT of the step time counter. If it is determined that they do not match, it is determined that the note data having the step time STEP has not yet reached the tone generation timing, and the content COUNT of the step time counter is incremented (step S
63). Thereafter, the sequence returns to the main processing routine.

【0069】一方、上記比較結果が一致することが判断
されると、その時点でパターンアドレスレジスタにセッ
トされているパターンメモリ17のアドレス位置から4
バイトのデータが読み出される。そして、そのデータは
音符データであるかエンドデータであるかが判断され
る。これは、第1バイト目のMSBを調べることにより
行われる。ここで、エンドデータでないことが判断され
ると、次いで、発音処理が行われる(ステップS5
6)。
On the other hand, when it is determined that the comparison results match, it is determined that the address 4 in the pattern memory 17 is set in the pattern address register at that time.
Bytes of data are read. Then, it is determined whether the data is note data or end data. This is performed by examining the MSB of the first byte. Here, if it is determined that the data is not the end data, then the tone generation processing is performed (step S5).
6).

【0070】発音処理は、音源19の所定の発音チャン
ネルに発音を割り当て、音符データ中のキーナンバ、ベ
ロシティ、及びその時点で選択されている音色等に基づ
きプログラムメモリ11から音色パラメータを読み出
し、これを音源19に送る処理である。これにより、音
源19の割り当てられた発音チャンネルにおいて、上記
音色パラメータに基づいたデジタル楽音信号が生成さ
れ、これがD/A変換器20、増幅器21及びスピーカ
22に順次送られて伴奏音が発音される。なお、消音
は、図示しない消音処理ルーチンでゲートタイムがゼロ
になった音源19中の発音チャンネルを検索し、この発
音チャンネルに所定のデータを送ることにより行われ
る。
In the tone generation process, a tone is assigned to a predetermined tone generation channel of the tone generator 19, a tone color parameter is read from the program memory 11 based on the key number, velocity, tone color selected at that time, etc. in the note data, and this is read. This is a process of sending to the sound source 19. As a result, a digital tone signal based on the tone color parameter is generated in the assigned tone generation channel of the sound source 19, and this digital tone signal is sequentially sent to the D / A converter 20, the amplifier 21, and the speaker 22 to produce the accompaniment tone. . The mute is performed by searching for a sound channel in the sound source 19 whose gate time has become zero by a silence processing routine (not shown) and sending predetermined data to this sound channel.

【0071】次いで、次の音符データ中のステップタイ
ムSTEPを読み出し、これをステップタイムレジスタ
にセットし(ステップS57)、その後、シーケンスは
ステップS52に戻り、以下同様の処理を繰り返す。こ
の繰り返し処理により、音符データを次々にパターンメ
モリ17から読み出し、読み出された音符データに基づ
いて発音することにより、自動伴奏が行われる。
Next, the step time STEP in the next note data is read out and set in the step time register (step S57), after which the sequence returns to step S52 and the same processing is repeated thereafter. By this repetitive processing, note data is read from the pattern memory 17 one after another, and sound is generated based on the read note data, whereby automatic accompaniment is performed.

【0072】一方、上記ステップS55で、エンドデー
タであることが判断されると、次のパターンデータの選
択を行うべく、パターンデータ選択処理が行われる(ス
テップS58)。このパターンデータ選択処理の内容は
既に説明した。その後、ステップS52に戻って、以下
同様の処理が繰り返される。このようにエンドデータが
読み出される毎、つまり1つのパターンデータの処理が
完了する毎に、次のパターンデータがランダムに選択さ
れるので、複雑な伴奏パターンで自動伴奏を行うことが
できる。
On the other hand, if it is determined in step S55 that the data is end data, pattern data selection processing is performed to select the next pattern data (step S58). The contents of this pattern data selection processing have already been described. Then, the process returns to step S52 and the same process is repeated. Thus, each time the end data is read, that is, each time the processing of one pattern data is completed, the next pattern data is randomly selected, so that automatic accompaniment can be performed with a complicated accompaniment pattern.

【0073】(実施の形態2)本実施の形態2の自動伴
奏装置では、パターンデータに含まれる音符データは常
に発音に使用されるのではなく、一定の確率で発音に使
用されるように構成されている。
(Second Embodiment) In the automatic accompaniment apparatus according to the second embodiment, the note data included in the pattern data is not always used for sound generation but is used for sound generation with a certain probability. Has been done.

【0074】本実施の形態2の自動伴奏装置としては、
上述した実施の形態1の電子楽器の構成(図1のブロッ
ク図)を用いることができる。この実施の形態2の自動
伴奏装置で使用される音符データは、図9に示すよう
に、キーナンバ、ステップタイム、ゲートタイム及びベ
ロシティに加えて、確率データを有している。この確率
データは、自動伴奏処理において、発音処理を行う確率
を規定する。なお、本実施の形態2で使用する音符デー
タは、実施の形態1で使用した音符データに確率データ
を追加して構成されているが、ベロシティの代わりに確
率データを使用するように構成してもよい。この場合、
ベロシティは一定値となるが、音符データの量の増加を
抑制できる。
As the automatic accompaniment apparatus of the second embodiment,
The configuration (block diagram in FIG. 1) of the electronic musical instrument according to the first embodiment described above can be used. The note data used in the automatic accompaniment apparatus of the second embodiment has probability data in addition to the key number, step time, gate time and velocity, as shown in FIG. This probability data defines the probability of performing the sounding process in the automatic accompaniment process. Note that the note data used in the second embodiment is configured by adding probability data to the note data used in the first embodiment, but the probability data is used instead of the velocity. Good. in this case,
Although the velocity has a constant value, the increase in the amount of note data can be suppressed.

【0075】本実施の形態2の自動伴奏装置の動作を制
御する処理ルーチンは、自動伴奏処理ルーチン(図8)
を除き、実施の形態1の処理ルーチンをそのまま用いる
ことができる。本実施の形態2の自動伴奏処理ルーチン
は、実施の形態1の自動伴奏処理ルーチン(図8)を図
10のように変更することにより構成できる。以下、図
10のフローチャートを参照しながら、本実施の形態2
の自動伴奏処理について説明する。
The processing routine for controlling the operation of the automatic accompaniment apparatus according to the second embodiment is an automatic accompaniment processing routine (FIG. 8).
The processing routine of the first embodiment can be used as it is, except for. The automatic accompaniment processing routine of the second embodiment can be configured by modifying the automatic accompaniment processing routine (FIG. 8) of the first embodiment as shown in FIG. Hereinafter, the second embodiment will be described with reference to the flowchart of FIG.
The automatic accompaniment process will be described.

【0076】この自動伴奏処理ルーチンでは、ステップ
S60及びS61が追加されていることを除けば、図8
に示した実施の形態1の自動伴奏処理ルーチンと同じで
ある。以下においては、相異点を中心に説明する。
This automatic accompaniment processing routine is shown in FIG. 8 except that steps S60 and S61 are added.
This is the same as the automatic accompaniment processing routine of the first embodiment shown in FIG. In the following, differences will be mainly described.

【0077】この自動伴奏処理では、ステップS55で
エンドマークでないことが判断されると、次いで、乱数
(乱数バッファの内容)が確率データで除算される(ス
テップS60)。そして、除算結果の剰余がゼロである
かどうかが調べられる(ステップS61)。ここでゼロ
であることが判断されると発音処理(ステップS56)
が行われ、ゼロでないことが判断されると、発音処理は
スキップされる。
In this automatic accompaniment process, if it is determined in step S55 that the mark is not the end mark, then the random number (content of the random number buffer) is divided by the probability data (step S60). Then, it is checked whether the remainder of the division result is zero (step S61). If it is determined that the value is zero, the sounding process is performed (step S56).
Is performed and it is determined that it is not zero, the sound generation processing is skipped.

【0078】このような処理により、例えば確率データ
を「1」にしておけば、上記除算の結果の剰余は常にゼ
ロになる。従って、「1」の値を有する確率データを含
む音符データは常に発音に使用されることになり、実施
の形態1の自動伴奏装置と同じ動作をする。一方、例え
ば確率データを「2」にしておけば、上記剰余は二分の
一の確率でゼロになる。従って、「2」の値を有する確
率データを含む音符データは、2回に1回の割合で発音
に使用される。以下同様に、確率データを大きくするに
連れて当該音符データが発音される確率は低くなる。
By such processing, if the probability data is set to "1", the remainder of the result of the division is always zero. Therefore, note data including probability data having a value of "1" is always used for sounding, and operates in the same manner as the automatic accompaniment apparatus of the first embodiment. On the other hand, if the probability data is set to "2", for example, the above-mentioned remainder becomes zero with a probability of one half. Therefore, the note data including the probability data having the value of "2" is used for the sound generation once every two times. Similarly, as the probability data increases, the probability that the note data will be sounded decreases.

【0079】なお、乱数のデータ長は、確率データのデ
ータ長より十分長くしておくことが好ましい。これによ
り、確率の偏りを回避することができる。
It is preferable that the data length of the random number be sufficiently longer than the data length of the probability data. This makes it possible to avoid a bias in the probability.

【0080】本実施の形態2の自動伴奏装置によれば、
パターンデータの中に、例えばギターのフレットノイズ
音を発音するための音符データ予め組み込んでおき、該
音符データの確率データを所定値に設定しておけば、そ
の所定値に応じた確率でフレットノイズ音を発生させる
ことができる。これにより、より現実の伴奏に近い臨場
感に富んだ自動伴奏を行うことができる。
According to the automatic accompaniment apparatus of the second embodiment,
In the pattern data, for example, note data for producing a fret noise sound of a guitar is incorporated in advance, and if the probability data of the note data is set to a predetermined value, the fret noise has a probability according to the predetermined value. Can generate sound. As a result, it is possible to perform an automatic accompaniment that is more realistic and more realistic.

【0081】(実施の形態3)本実施の形態3の自動伴
奏装置では、パターンデータに含まれる音符データに基
づく音は、常にその音符データに含まれるベロシティ値
に応じた音量で発音されるのではなく、所定の強弱変動
確率データに応じて変更された音量で発音されるように
構成されている。
(Third Embodiment) In the automatic accompaniment apparatus according to the third embodiment, the sound based on the note data included in the pattern data is always sounded at the volume corresponding to the velocity value included in the note data. Instead, the sound volume is changed according to the predetermined strength variation probability data.

【0082】本実施の形態3の自動伴奏装置としては、
上述した実施の形態1の電子楽器の構成(図1のブロッ
ク図)を用いることができる。この実施の形態3で使用
される音符データは、図11に示すように、キーナン
バ、ステップタイム、ゲートタイム及びベロシティに加
えて、強弱変動確率データを有している。この強弱変動
確率データは、自動伴奏処理において、発音される音量
を変更する確率を規定する。
As the automatic accompaniment apparatus of the third embodiment,
The configuration (block diagram in FIG. 1) of the electronic musical instrument according to the first embodiment described above can be used. As shown in FIG. 11, the note data used in the third embodiment has dynamic variation probability data in addition to the key number, step time, gate time and velocity. This strength variation probability data defines the probability of changing the sound volume produced in the automatic accompaniment process.

【0083】本実施の形態3の自動伴奏装置の動作を制
御する処理ルーチンは、自動伴奏処理ルーチン(図8)
を除き、実施の形態1の処理ルーチンをそのまま用いる
ことができる。本実施の形態3の自動伴奏処理ルーチン
は、実施の形態1の自動伴奏処理ルーチン(図8)を図
12のように変更することにより構成できる。以下、図
13のフローチャートを参照しながら、本実施の形態3
の自動伴奏処理について説明する。
The processing routine for controlling the operation of the automatic accompaniment apparatus according to the third embodiment is an automatic accompaniment processing routine (FIG. 8).
The processing routine of the first embodiment can be used as it is, except for. The automatic accompaniment processing routine of the third embodiment can be configured by modifying the automatic accompaniment processing routine (FIG. 8) of the first embodiment as shown in FIG. Hereinafter, the third embodiment will be described with reference to the flowchart of FIG.
The automatic accompaniment process will be described.

【0084】この自動伴奏処理ルーチンでは、ステップ
S70及びS71が追加されていることを除けば、図8
に示した実施の形態1の自動伴奏処理ルーチンと同じで
ある。以下においては、相異点を中心に説明する。
In this automatic accompaniment processing routine, except that steps S70 and S71 are added, FIG.
This is the same as the automatic accompaniment processing routine of the first embodiment shown in FIG. In the following, differences will be mainly described.

【0085】この自動伴奏処理では、ステップS55で
エンドマークでないことが判断されると、次いで、乱数
(乱数バッファの内容)が強弱変動確率データで除算さ
れた剰余に「1」が加算されて値Xが求められる(ステ
ップS70)。そして、音符データ中のベロシティが値
Xで除算されて新たなベロシティが生成される(ステッ
プS71)。そして、この新たなベロシティに基づく音
量で発音処理(ステップS56)が行われる。
In this automatic accompaniment process, when it is determined in step S55 that the end mark is not an end mark, a random number (contents of the random number buffer) is divided by the strength variation probability data, and "1" is added to obtain a value. X is obtained (step S70). Then, the velocity in the note data is divided by the value X to generate a new velocity (step S71). Then, the tone generation processing (step S56) is performed with the volume based on this new velocity.

【0086】このような処理により、例えば強弱変動確
率データを「1」にしておけば、上記除算の結果の剰余
は常にゼロになる。従って、値Xは常に「1」になるの
で新たなベロシティは元のベロシティと同じになり、実
施の形態1の自動伴奏装置と同じ動作をする。一方、例
えば確率データを「2」にしておけば、上記剰余は二分
の一の確率で「1」になる。従って、値Xは二分の一の
確率で「2」になるので、新たなベロシティは二分の一
の確率で元のベロシティの半分になる。以下同様に、強
弱変動確率データを大きくするに連れて当該音符データ
のベロシティが小さくなる確率は高くなると共にその大
きさも小さくなる。
By such processing, if the strength variation probability data is set to "1", for example, the remainder of the result of the division is always zero. Therefore, since the value X is always "1", the new velocity becomes the same as the original velocity, and the same operation as the automatic accompaniment apparatus of the first embodiment is performed. On the other hand, if the probability data is set to "2", the remainder becomes "1" with a probability of one half. Therefore, the value X has a probability of halving to "2", and the new velocity has a probability of halving to half the original velocity. Similarly, as the strength variation probability data is increased, the probability that the velocity of the note data becomes smaller becomes higher and the magnitude becomes smaller.

【0087】なお、乱数のデータ長は、強弱変動確率デ
ータのデータ長より十分長くしておくことが好ましい。
これにより、確率の偏りを回避することができる。
The data length of the random number is preferably set to be sufficiently longer than the data length of the strength variation probability data.
This makes it possible to avoid a bias in the probability.

【0088】本実施の形態3の自動伴奏装置によれば、
音符データに含まれた音量変動確率データを適宜所望の
値に設定しておけば、この音量変更確率データに応じた
確率で当該音符データに基づく伴奏音の音量を変化させ
ることができる。これにより、より現実の伴奏に近い臨
場感に富んだ自動伴奏を行うことができる。
According to the automatic accompaniment apparatus of the third embodiment,
By appropriately setting the volume variation probability data included in the note data to a desired value, it is possible to change the volume of the accompaniment sound based on the note data with a probability according to the volume change probability data. As a result, it is possible to perform an automatic accompaniment that is more realistic and more realistic.

【0089】[0089]

【発明の効果】以上詳述したように、本発明によれば、
少ないデータ量であるにも拘わらず自動伴奏の単調さを
解消し、しかも曲想を備えた自動伴奏を行うことができ
る電子楽器の自動伴奏装置及び自動伴奏方法を提供でき
る。また、少ないデータ量であるにも拘わらず自動伴奏
の単調さを解消し、しかも臨場感に富んだ自動伴奏を行
うことができる電子楽器の自動伴奏装置及び自動伴奏方
法を提供できる。
As described in detail above, according to the present invention,
It is possible to provide an automatic accompaniment apparatus and an automatic accompaniment method for an electronic musical instrument, which can eliminate the monotony of the automatic accompaniment despite the small amount of data and can perform the automatic accompaniment with musical ideas. Further, it is possible to provide an automatic accompaniment apparatus and an automatic accompaniment method for an electronic musical instrument, which can eliminate the monotony of the automatic accompaniment despite a small amount of data, and can perform an automatic accompaniment rich in realism.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態1〜実施の形態3に共通に
使用される電子楽器の自動伴奏装置の構成を示すブロッ
ク図である。
FIG. 1 is a block diagram showing a configuration of an automatic accompaniment device for an electronic musical instrument, which is commonly used in Embodiments 1 to 3 of the present invention.

【図2】本発明の実施の形態1で使用される電子楽器の
自動伴奏装置のパターンデータの一例を示す図である。
FIG. 2 is a diagram showing an example of pattern data of the automatic accompaniment device for an electronic musical instrument used in the first embodiment of the present invention.

【図3】本発明の実施の形態1〜実施の形態3に共通に
使用される電子楽器の自動伴奏装置のRAM12の割り
当ての一例(その1)を示す図である。
FIG. 3 is a diagram showing an example (No. 1) of allocation of a RAM 12 of an automatic accompaniment device for an electronic musical instrument, which is commonly used in Embodiments 1 to 3 of the present invention.

【図4】本発明の実施の形態1〜実施の形態3に共通に
使用される電子楽器の自動伴奏装置のRAM12の割り
当ての一例(その2)を示す図である。
FIG. 4 is a diagram showing an example (No. 2) of allocation of the RAM 12 of the automatic accompaniment device for an electronic musical instrument which is commonly used in the first to third embodiments of the present invention.

【図5】本発明の実施の形態1〜実施の形態3に共通に
使用される電子楽器の自動伴奏装置のメイン処理の一例
を示す図である。
FIG. 5 is a diagram showing an example of a main process of an automatic accompaniment device for an electronic musical instrument, which is commonly used in the first to third embodiments of the present invention.

【図6】本発明の実施の形態1〜実施の形態3に共通に
使用される電子楽器の自動伴奏装置のパネル処理の一例
を示す図である。
FIG. 6 is a diagram showing an example of panel processing of an automatic accompaniment device for an electronic musical instrument, which is commonly used in the first to third embodiments of the present invention.

【図7】本発明の実施の形態1〜実施の形態3に共通に
使用される電子楽器の自動伴奏装置のパターンデータ選
択処理の一例を示す図である。
FIG. 7 is a diagram showing an example of pattern data selection processing of an automatic accompaniment device for an electronic musical instrument, which is commonly used in the first to third embodiments of the present invention.

【図8】本発明の実施の形態1で使用される電子楽器の
自動伴奏装置の自動伴奏処理の一例を示す図である。
FIG. 8 is a diagram showing an example of an automatic accompaniment process of the automatic accompaniment device for an electronic musical instrument used in the first embodiment of the present invention.

【図9】本発明の実施の形態2で使用される電子楽器の
自動伴奏装置のパターンデータの一例を示す図である。
FIG. 9 is a diagram showing an example of pattern data of an automatic accompaniment device for an electronic musical instrument used in Embodiment 2 of the present invention.

【図10】本発明の実施の形態2で使用される電子楽器
の自動伴奏装置の自動伴奏処理の一例を示す図である。
FIG. 10 is a diagram showing an example of an automatic accompaniment process of the automatic accompaniment device for an electronic musical instrument used in the second embodiment of the present invention.

【図11】本発明の実施の形態3で使用される電子楽器
の自動伴奏装置のパターンデータの一例を示す図であ
る。
FIG. 11 is a diagram showing an example of pattern data of the automatic accompaniment device for an electronic musical instrument used in Embodiment 3 of the present invention.

【図12】本発明の実施の形態3で使用される電子楽器
の自動伴奏装置の自動伴奏処理の一例を示す図である。
FIG. 12 is a diagram showing an example of an automatic accompaniment process of the automatic accompaniment device for an electronic musical instrument used in the third embodiment of the present invention.

【符号の説明】[Explanation of symbols]

10 CPU 11 プログラムメモリ 12 RAM 13 パネルインタフェース回路 14 操作パネル 15 鍵盤インタフェース回路 16 鍵盤装置 17 パターンメモリ 18 波形メモリ 19 音源 20 増幅器 21 スピーカ 30 システムバス 10 CPU 11 Program Memory 12 RAM 13 Panel Interface Circuit 14 Operation Panel 15 Keyboard Interface Circuit 16 Keyboard Device 17 Pattern Memory 18 Waveform Memory 19 Sound Source 20 Amplifier 21 Speaker 30 System Bus

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】k(k=1,2,・・・)個の第1のパタ
ーンデータを記憶した第1の記憶手段と、 l(l=1,2,・・・)個の第2のパターンデータを
記憶した第2の記憶手段と、 該第1の記憶手段からランダムに抽出されたm(m=
1,2,・・・)個のパターンデータを読み出し、該第
2の記憶手段からランダムに抽出されたn(n=1,
2,・・・)個の第2のパターンデータを読み出す読出
手段と、 該読出手段により読み出された第1のパターンデータ及
び第2のパターンデータに基づいて自動的に伴奏音を発
生する自動伴奏手段、 とを備えたことを特徴とする電子楽器の自動伴奏装置。
1. A first storage means for storing k (k = 1, 2, ...) First pattern data, and 1 (l = 1, 2, ...) Second storage means. Pattern data stored in the second storage means and m (m = m) randomly extracted from the first storage means.
1, 2, ...) Pattern data is read out and n (n = 1, 1) randomly extracted from the second storage means is read.
2, ...) Second reading means for reading the second pattern data, and automatic generation of an accompaniment sound automatically based on the first pattern data and the second pattern data read by the reading means. An automatic accompaniment device for an electronic musical instrument, comprising: accompaniment means.
【請求項2】前記第1のパターンデータは曲想を表すデ
ータであり、前記第2のパターンデータは変化を表すデ
ータであることを特徴とする請求項1に記載の電子楽器
の自動伴奏装置。
2. The automatic accompaniment apparatus for an electronic musical instrument according to claim 1, wherein the first pattern data is data representing a musical idea, and the second pattern data is data representing a change.
【請求項3】k(k=1,2,・・・)個の第1のパタ
ーンデータ及びl(l=1,2,・・・)個の第2のパ
ターンデータをそれぞれ記憶しておき、 該記憶されたk個の第1のパターンデータの中からラン
ダムにm(m=1,2,・・・)個を順次読み出し、引
き続いて該記憶されたl個の第2のパターンデータの中
からランダムにn(n=1,2,・・・)個を順次読み
出し、 該読み出された第1のパターンデータ及び第2のパター
ンデータに基づいて自動的に伴奏音を発生することを特
徴とする電子楽器の自動伴奏方法。
3. The k (k = 1, 2, ...) First pattern data and the l (l = 1, 2, ...) Second pattern data are stored respectively. , M (m = 1, 2, ...) Are sequentially read out from the stored k pieces of the first pattern data, and subsequently, the stored 1 pieces of the second pattern data are stored. N (n = 1, 2, ...) Pieces are randomly read from the inside, and an accompaniment sound is automatically generated based on the read first pattern data and second pattern data. A characteristic automatic musical accompaniment method for electronic musical instruments.
【請求項4】複数の音符データで構成されたパターンデ
ータを記憶した記憶手段と、 該記憶手段からパターンデータを読み出す読出手段と、 該読出手段で読み出されたパターンデータ中の各音符デ
ータに基づいて伴奏音を発生する自動伴奏手段とを備え
た電子楽器の自動伴奏装置であって、 該各音符データは確率データを含み、該自動伴奏手段
は、該確率データに応じた確率で当該音符データに基づ
く伴奏音を発生することを特徴とする電子楽器の自動伴
奏装置。
4. Storage means for storing pattern data composed of a plurality of note data, reading means for reading the pattern data from the storage means, and note data for each note data in the pattern data read by the reading means. An automatic accompaniment device for an electronic musical instrument, comprising: an automatic accompaniment means for generating an accompaniment sound based on each of the note data including probability data, wherein the automatic accompaniment means has a probability according to the probability data. An automatic accompaniment device for an electronic musical instrument, which produces an accompaniment sound based on data.
【請求項5】複数の音符データで構成されたパターンデ
ータを記憶しておき、 該記憶されたパターンデータを読み出し、 該読み出されたパターンデータ中の各音符データに基づ
いて伴奏音を発生する電子楽器の自動伴奏方法であっ
て、 該各音符データは確率データを含み、該音符データに基
づく伴奏音は、該確率データに応じた確率で発生するこ
とを特徴とする電子楽器の自動伴奏方法。
5. A pattern data composed of a plurality of note data is stored, the stored pattern data is read, and an accompaniment sound is generated based on each note data in the read pattern data. An automatic accompaniment method for an electronic musical instrument, wherein each note data includes probability data, and an accompaniment sound based on the note data is generated with a probability according to the probability data. .
【請求項6】複数の音符データで構成されたパターンデ
ータを記憶した記憶手段と、 該記憶手段からパターンデータを読み出す読出手段と、 該読出手段で読み出されたパターンデータ中の各音符デ
ータに基づいて伴奏音を発生する自動伴奏手段とを備え
た電子楽器の自動伴奏装置であって、 該各音符データは音量変動確率データを含み、該自動伴
奏手段は、当該音符データに基づく伴奏音の音量を、該
音量変動確率データに応じて変動させることを特徴とす
る電子楽器の自動伴奏装置。
6. Storage means for storing pattern data composed of a plurality of note data, reading means for reading the pattern data from the storage means, and note data for each note data in the pattern data read by the reading means. An automatic accompaniment apparatus for an electronic musical instrument, comprising: an automatic accompaniment means for generating an accompaniment sound based on the note data, wherein each note data includes volume variation probability data, and the automatic accompaniment means generates an accompaniment sound based on the note data. An automatic accompaniment device for an electronic musical instrument, wherein the volume is varied according to the volume variation probability data.
【請求項7】複数の音符データで構成されたパターンデ
ータを記憶しておき、 該記憶されたパターンデータを読み出し、 該読み出されたパターンデータ中の各音符データに基づ
いて伴奏音を発生する電子楽器の自動伴奏方法であっ
て、 該各音符データは音量変動確率データを含み、当該音符
データに基づく伴奏音の音量は、該音量変動確率データ
に応じて変動させることを特徴とする電子楽器の自動伴
奏方法。
7. A pattern data composed of a plurality of note data is stored, the stored pattern data is read, and an accompaniment sound is generated based on each note data in the read pattern data. An automatic accompaniment method for an electronic musical instrument, wherein each of the note data includes volume change probability data, and the volume of an accompaniment sound based on the note data is changed according to the volume change probability data. Automatic accompaniment method.
JP8156166A 1996-05-28 1996-05-28 Device and method for automatic accompaniment of electronic musical instrument Pending JPH09319372A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8156166A JPH09319372A (en) 1996-05-28 1996-05-28 Device and method for automatic accompaniment of electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8156166A JPH09319372A (en) 1996-05-28 1996-05-28 Device and method for automatic accompaniment of electronic musical instrument

Publications (1)

Publication Number Publication Date
JPH09319372A true JPH09319372A (en) 1997-12-12

Family

ID=15621800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8156166A Pending JPH09319372A (en) 1996-05-28 1996-05-28 Device and method for automatic accompaniment of electronic musical instrument

Country Status (1)

Country Link
JP (1) JPH09319372A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022201945A1 (en) 2021-03-23 2022-09-29 カシオ計算機株式会社 Automatic performance device, electronic musical instrument, performance system, automatic performance method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022201945A1 (en) 2021-03-23 2022-09-29 カシオ計算機株式会社 Automatic performance device, electronic musical instrument, performance system, automatic performance method, and program

Similar Documents

Publication Publication Date Title
JPH04153697A (en) Automatic music player
JP3207091B2 (en) Automatic accompaniment device
JPH10187157A (en) Automatic performance device
JPH09179559A (en) Device and method for automatic accompaniment
JPH0627960A (en) Automatic accompaniment playing device
JP4318194B2 (en) Automatic accompaniment apparatus and automatic accompaniment method for electronic musical instrument
JPH09319372A (en) Device and method for automatic accompaniment of electronic musical instrument
JPH0566776A (en) Automatic orchestration device
JP3385543B2 (en) Automatic performance device
JP3630266B2 (en) Automatic accompaniment device
JPH06348258A (en) Automatic playing device of electronic musical instrument
JPH06337674A (en) Automatic musical performance device for electronic musical instrument
JPH0822282A (en) Automatic accompaniment device for guitar
JP3424989B2 (en) Automatic accompaniment device for electronic musical instruments
JP3800947B2 (en) Performance data processing apparatus and method, and storage medium
JP2000172253A (en) Electronic musical instrument
JP2001067074A (en) Electronic keyed instrument
JPH10319949A (en) Electronic musical instrument
JP3529123B2 (en) Automatic performance device and automatic performance method
JPH08263060A (en) Automatic accompaniment device of electronic musical instrument
JPH07181973A (en) Automatic accompaniment device of electronic musical instrument
JPH05108074A (en) Automatic accompaniment device of electronic musical instrument
JPH06314096A (en) Device for detecting front code of electronic musical instrument
JPH0772857A (en) Automatic music playing device for electronic musical instrument
JPH07104753A (en) Automatic tuning device of electronic musical instrument

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030715