JP2623175B2 - Automatic performance device - Google Patents

Automatic performance device

Info

Publication number
JP2623175B2
JP2623175B2 JP3058190A JP5819091A JP2623175B2 JP 2623175 B2 JP2623175 B2 JP 2623175B2 JP 3058190 A JP3058190 A JP 3058190A JP 5819091 A JP5819091 A JP 5819091A JP 2623175 B2 JP2623175 B2 JP 2623175B2
Authority
JP
Japan
Prior art keywords
intonation
performance
pattern
data
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3058190A
Other languages
Japanese (ja)
Other versions
JPH04274298A (en
Inventor
慎哉 小西
義久 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP3058190A priority Critical patent/JP2623175B2/en
Publication of JPH04274298A publication Critical patent/JPH04274298A/en
Priority to US08/320,842 priority patent/US5418324A/en
Application granted granted Critical
Publication of JP2623175B2 publication Critical patent/JP2623175B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、演奏の盛り上がり度
(イントネーション)に応じた自動演奏ができる電子楽
器の自動演奏装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic musical instrument for an electronic musical instrument capable of performing an automatic performance in accordance with the degree of excitement (intonation) of the performance.

【0002】[0002]

【従来の技術】電子キーボード(電子ピアノなど)にお
いては、イントロ、フィルイン、ノーマル、エンディン
グなどの自動伴奏パターン(発音用音符データ)を予め
記憶しておき、曲の進行(盛り上がりの状況)に合わせ
てこれらの単フレーズのパターンを選択するスイッチを
操作して、演奏中にこれらのパターンに対応するフレー
ズを挿入していた。
2. Description of the Related Art In an electronic keyboard (such as an electronic piano), automatic accompaniment patterns (note data for sound generation) such as intro, fill-in, normal, and ending are stored in advance so that they can be adjusted according to the progress of the music (the state of excitement) By operating a switch for selecting a pattern of these single phrases, a phrase corresponding to these patterns is inserted during the performance.

【0003】[0003]

【発明が解決しようとする課題】固定の自動伴奏パター
ンを演奏中に挿入すると、演奏の流れが不連続になり、
かえって演奏の盛り上がりを損じる結果になることがあ
る。つまり演奏の盛り上がりに応じて伴奏が徐々に変化
してゆく感じを得ることが困難であった。本発明は、こ
の問題に鑑み、演奏の盛り上がりを指示することがで
き、盛り上がり度に応じた自動伴奏音が得られるように
する事を目的とする。
When a fixed automatic accompaniment pattern is inserted during a performance, the flow of the performance becomes discontinuous,
On the contrary, the result may impair the excitement of the performance. In other words, it is difficult to obtain a feeling that the accompaniment gradually changes according to the excitement of the performance. The present invention has been made in view of the above circumstances, and it is an object of the present invention to be able to instruct the excitement of a performance and to obtain an automatic accompaniment sound corresponding to the degree of excitement.

【0004】[0004]

【課題を解決するための手段】本発明の自動演奏装置
は、自動演奏の音符データ列を記憶した音符データ記憶
手段と、上記音符データ記憶手段から読み出された音符
データ列に基づいて楽音を発生する楽音発生手段と、演
奏の盛り上がり度に対応させてイントネーション値を増
減するイントネーション値可変手段と、盛り上がり度が
異なる単フレーズの演奏パターンを複数種記憶した演奏
パターン記憶手段と、上記単フレーズの挿入指示があっ
たとき、上記イントネーション値の大きさに応じて上記
複数の演奏パターンの一つを選択し、選択した演奏パタ
ーンに基づいて、上記音符データ記憶手段から対応の音
符データ列を読み出して上記楽音発生手段に導出する楽
音制御手段とを備えることを特徴とする。
According to the present invention, there is provided an automatic performance apparatus for storing musical data based on a note data string read out from the note data storage means. Musical tone generating means for generating, intonation value varying means for increasing or decreasing the intonation value corresponding to the degree of excitement of the performance, performance pattern storage means for storing a plurality of types of performance patterns of single phrases having different degrees of excitement, When an insertion instruction is given, one of the plurality of performance patterns is selected according to the magnitude of the intonation value, and a corresponding note data string is read from the note data storage means based on the selected performance pattern. And a musical tone control means derived from the musical tone generating means.

【0005】[0005]

【作用】指示操作によって挿入される単フレーズの演奏
パターンが演奏の盛り上がりに対応して自動的に変化す
る。従って、単フレーズの演奏パターンを挿入しても演
奏の盛り上がりを損じることがなくなる。
The performance pattern of a single phrase inserted by an instruction operation automatically changes according to the climax of the performance. Therefore, even if a performance pattern of a single phrase is inserted, the excitement of the performance is not lost.

【0006】[0006]

【実施例】図1は、本発明の一実施例を示す電子楽器の
要部ブロック図である。この電子楽器は鍵盤11、操作
パネル12、表示装置13を備える。また鍵盤11の横
には、演奏の盛り上がり度を指示するためのダイヤル1
0が設けられている。
FIG. 1 is a block diagram of a main part of an electronic musical instrument showing an embodiment of the present invention. This electronic musical instrument includes a keyboard 11, an operation panel 12, and a display device 13. A dial 1 is provided next to the keyboard 11 to indicate the degree of performance excitement.
0 is provided.

【0007】電子楽器の回路部は、バス18によって結
合されたCPU21、ROM20、RAM19から成る
マイクロコンピュータで構成されている。CPU21
は、鍵盤11に結合されたキースイッチ回路15から鍵
盤11の操作情報を検出し、操作パネル12に結合され
たパネルスイッチ回路16からパネルスイッチの操作情
報を検出する。ダイヤル10には、パルス発生器14が
結合されていて、CPU21はダイヤル操作に応じてパ
ルス発生器14が発生するパルスをカウントして、盛り
上がり度情報(イントネーション値)を得る。
The circuit section of the electronic musical instrument is constituted by a microcomputer comprising a CPU 21, a ROM 20, and a RAM 19 connected by a bus 18. CPU 21
Detects operation information of the keyboard 11 from a key switch circuit 15 coupled to the keyboard 11, and detects operation information of a panel switch from a panel switch circuit 16 coupled to an operation panel 12. A pulse generator 14 is connected to the dial 10, and the CPU 21 counts the pulses generated by the pulse generator 14 in response to the dial operation, and obtains degree-of-surge information (intonation value).

【0008】操作パネル12によって選択されたリズム
や楽器の種類、ダイヤル操作に対応したイントネーショ
ン値などは、CPU21から表示ドライブ回路17を介
して表示装置13に与えられる表示データに基づいて表
示される。
The rhythm and the type of musical instrument selected by the operation panel 12, the intonation value corresponding to the dial operation, and the like are displayed based on display data given from the CPU 21 to the display device 13 via the display drive circuit 17.

【0009】CPU21は、鍵盤操作に対応した音符情
報やパネルスイッチ操作に対応したリズム、音色などの
パラメータ情報を楽音発生回路22に送出する。楽音発
生回路22は、これらの情報に基づいてROM20から
PCM音源データを読み出し、その振幅やエンベロープ
を加工してD/A変換器23に出力する。D/A変換器
23から得られる楽音信号は、アンプ24を介してスピ
ーカ25に与えられる。
The CPU 21 sends note information corresponding to keyboard operation and parameter information such as rhythm and timbre corresponding to panel switch operation to the musical tone generation circuit 22. The tone generation circuit 22 reads out the PCM sound source data from the ROM 20 based on the information, processes the amplitude and the envelope, and outputs the processed data to the D / A converter 23. The tone signal obtained from the D / A converter 23 is supplied to a speaker 25 via an amplifier 24.

【0010】ROM20には自動伴奏データが書き込ま
れている。CPU21は、操作パネル12の自動伴奏選
択釦の操作にに対応する自動伴奏データをROM20か
ら読み出し、楽音発生回路22に与える。楽音発生回路
22は、自動伴奏データに対応するコード、ベース、ド
ラムなどの波形データをROM20から読み出し、D/
A変換器23に導出する。従って、鍵操作に対応した発
音と共に自動伴奏のコード音、ベース音、ドラム音がス
ピーカ25から得られる。
The ROM 20 stores automatic accompaniment data. The CPU 21 reads out the automatic accompaniment data corresponding to the operation of the automatic accompaniment selection button on the operation panel 12 from the ROM 20, and gives the data to the tone generation circuit 22. The tone generation circuit 22 reads out the waveform data of the code, bass, drum, etc. corresponding to the automatic accompaniment data from the ROM 20,
It is derived to the A converter 23. Therefore, the chord sound, the bass sound, and the drum sound of the automatic accompaniment are obtained from the speaker 25 together with the sound corresponding to the key operation.

【0011】図2は、本発明の要素的特徴を示すブロッ
ク図である。イントネーション操作部32は、図1のダ
イヤル10及びパルス発生器14に対応する。リズム選
択操作部33は操作パネル12に設けられているテンキ
ースイッチ12aで構成されている。また操作パネル1
2には、イントロ、エンディング、フィルインなどの単
フレーズのサブフレーズパターンの挿入を指示する複数
の押し釦スイッチ12bが設けられている。これれらの
押し釦スイッチ12bが図2のサブフレーズ選択部30
を構成している。
FIG. 2 is a block diagram showing the elementary features of the present invention. The intonation operation unit 32 corresponds to the dial 10 and the pulse generator 14 in FIG. The rhythm selection operation unit 33 includes a ten-key switch 12a provided on the operation panel 12. Operation panel 1
2 is provided with a plurality of push button switches 12b for instructing insertion of a subphrase pattern of a single phrase such as intro, ending, fill-in, and the like. These push-button switches 12b correspond to the sub-phrase selection unit 30 of FIG.
Is composed.

【0012】演奏の盛り上がりに応じてダイヤル10を
操作すると、パルス発生器14の出力パルスがイントネ
ーション値設定部31に与えられる。またサブフレーズ
選択部3において所望のサブフレーズパターンを選択す
ると、対応の選択情報がイントネーション値設定部31
に与えられる。またリズム選択操作部33から選択した
リズム番号がイントネーション値設定部31に与えられ
る。
When the dial 10 is operated according to the excitement of the performance, the output pulse of the pulse generator 14 is given to the intonation value setting section 31. When a desired sub-phrase pattern is selected in the sub-phrase selecting section 3, the corresponding selection information is displayed in the intonation value setting section 31.
Given to. The rhythm number selected from the rhythm selection operation section 33 is given to the intonation value setting section 31.

【0013】イントネーション値設定部31は、図3に
示すようなROM20に設定されているイントネーショ
ンプリセットテーブル41を持っている。このテーブル
41は、リズムごとにイントネーションプリセット値を
有していて、例えばリズム1に対してはイントネーショ
ンレベルとして2が与えられる。イントネーション値設
定部31は、イントネーションプリセット値をダイヤル
操作に応じて増減し、イントネーション値及びリズム番
号をイントネーションパターンメモリ34に導出する。
The intonation value setting section 31 has an intonation preset table 41 set in the ROM 20 as shown in FIG. This table 41 has an intonation preset value for each rhythm, and for example, 2 is given to a rhythm 1 as an intonation level. The intonation value setting unit 31 increases or decreases the intonation preset value according to the dial operation, and derives the intonation value and the rhythm number to the intonation pattern memory 34.

【0014】イントネーションパターンメモリ34は、
ROM20に設けられていて、図4にも示すように、リ
ズムごとにイントネーション値に対応した複数レベル
(例えば0〜15の16個)のイントネーションパター
ンテーブル42を持っている。従って、選択されたリズ
ム及び与えられたイントネーション値に対応した所定レ
ベルのイントネーションパターンデータ34aがメモリ
34から読み出され、楽音制御部35に与えられる。例
えば、選択されたリズム番号が1で、イントネーション
値が2であれば、対応するレベル2のイントネーション
パターンデータ34aが読み出される。
The intonation pattern memory 34
As shown in FIG. 4, the ROM 20 has an intonation pattern table 42 of a plurality of levels (for example, 16 from 0 to 15) corresponding to the intonation value for each rhythm. Accordingly, intonation pattern data 34 a of a predetermined level corresponding to the selected rhythm and the given intonation value is read from the memory 34 and provided to the tone control unit 35. For example, if the selected rhythm number is 1 and the intonation value is 2, the corresponding level 2 intonation pattern data 34a is read.

【0015】イントネーションパターンデータの一部
は、サブフレーズパターン34bとして用いられてい
る。このサブフレーズパターン34bは、イントロ、エ
ンディング、フィルインなどのサブフレーズ(単フレー
ズ)を挿入するときに読み出される。
Part of the intonation pattern data is used as a subphrase pattern 34b. The subphrase pattern 34b is read when a subphrase (single phrase) such as an intro, ending, or fill-in is inserted.

【0016】図5は、1つのリズムにおけるイントネー
ションパターンデータの配列を示す。16個のイントネ
ーションパターンデータ43〜58は、イントネーショ
ンレベルに対応したイントネーション値INT0〜F
(F=15)の順に配列されている。イントネーション
値INT0〜7のイントネーションパターンデータ43
〜50は、イントネーションの制御に用いられる。また
イントネーション値INT8〜Fのイントネーションパ
ターンデータ51〜58は、イントロパターン(51、
52)、ソフトフィルインパターン(53、54)、ラ
ウドフィルインパターン(55、56)、エンディング
パターン(57、58)から成るサブフレーズパターン
として用いられている。
FIG. 5 shows an arrangement of intonation pattern data in one rhythm. The sixteen intonation pattern data 43 to 58 include intonation values INT0 to INT corresponding to intonation levels.
(F = 15). Intonation pattern data 43 of intonation values INT0 to INT7
50 are used for the control of intonation. The intonation pattern data 51 to 58 of the intonation values INT8 to INTF include intro patterns (51,
52), a soft-fill-in pattern (53, 54), a loud-fill-in pattern (55, 56), and an ending pattern (57, 58).

【0017】1レベルのイントネーションパターンデー
タ34aは、音量、音色、楽器などを指定するデータ、
数小節の自動演奏パターンを得るための演奏パターンデ
ータからなる。演奏パターンデータはROM20内の自
動演奏データ(音符データ)を読み出すためのアドレス
の配列からなる。
The one-level intonation pattern data 34a includes data designating volume, tone color, musical instrument, and the like.
It consists of performance pattern data for obtaining an automatic performance pattern of several measures. The performance pattern data is composed of an array of addresses for reading out automatic performance data (note data) in the ROM 20.

【0018】楽音制御部35は、イントネーションパタ
ーンデータの演奏パターンデータに基づいて自動演奏デ
ータメモリ36から自動演奏データを読み出し、音量、
音色、楽器などを指定するデータによって自動演奏デー
タを修飾して楽音発生部37に導出する。自動演奏デー
タメモリ36は、ROM20に設けられていて、リズム
ごとにコード、ベース、ドラムなどの自動伴奏のための
音符データ列を記憶している。各音符データは、キー
(音程)番号、発音タイミング、発音時間幅、音量など
のデータからなる。
The tone control unit 35 reads out automatic performance data from the automatic performance data memory 36 based on the performance pattern data of the intonation pattern data,
The automatic performance data is modified by data designating the timbre, the musical instrument, and the like, and is derived to the musical tone generating unit 37. The automatic performance data memory 36 is provided in the ROM 20 and stores a note data string for automatic accompaniment such as a chord, a bass, and a drum for each rhythm. Each note data is composed of data such as a key (pitch) number, sounding timing, sounding time width, and volume.

【0019】楽音発生部37は、楽音制御部35からの
音符データに基づいて波形ROM38から対応するPC
M音源波形を読み出して楽音信号を形成する。これによ
ってイントネーションレベルに対応した自動伴奏音が得
られる。そしてダイヤル操作によってイントネーション
のレベルを自由に変更することができる。
The musical tone generating section 37 receives a note data from the musical tone controlling section 35 and outputs a corresponding PC from the waveform ROM 38.
The M tone waveform is read to form a tone signal. Thereby, an automatic accompaniment sound corresponding to the intonation level is obtained. The intonation level can be freely changed by dial operation.

【0020】図6及び図7は、イントネーションパター
ンデータの詳細を示すデータ構成図である。1レベルの
イントネーションパターンデータは、コード、ベース、
ドラム1〜3からなる5トラック(チャンネル)のデー
タで構成されている。各トラックは、音量差分値VEL
O、音色/楽器指定データ、演奏パターンデータからな
る。従って、各トラックごとにこれらのデータを変更又
は指定することができる。
FIGS. 6 and 7 are data configuration diagrams showing details of intonation pattern data. One-level intonation pattern data consists of chord, base,
It is composed of data of five tracks (channels) including drums 1 to 3. Each track has a volume difference value VEL
O, timbre / instrument designation data, and performance pattern data. Therefore, these data can be changed or designated for each track.

【0021】1バイトの音量差分値VELOは、自動演
奏データの各音の音量値に加算すべき値である。この差
分値によって、各トラックの楽音ごとにアクセント(音
量の大小)を与えることができる。たとえば、図6のレ
ベル0、2のイントネーションパターンデータ43、4
5の各トラックにおいて音量差分値は0である。また図
7のレベル4のイントネーションパターンデータ47の
ドラム2の音量差分値は20H(Hは16進表示)であ
る。従って、イントネーションのレベル4では、ドラム
2の音量が大きくなる。また図7のレベル6のイントネ
ーションパターンデータ46の全トラックの音量差分値
は20Hとなっていて、伴奏の各パートの音量が20H
だけ大きくされる。
The one-byte volume difference value VELO is a value to be added to the volume value of each sound in the automatic performance data. With this difference value, an accent (loudness of volume) can be given to each musical tone of each track. For example, the intonation pattern data 43, 4 of levels 0 and 2 in FIG.
In each of the tracks 5, the volume difference value is 0. The volume difference value of the drum 2 in the intonation pattern data 47 of level 4 in FIG. 7 is 20H (H is hexadecimal). Therefore, at the level 4 of intonation, the volume of the drum 2 increases. Also, the volume difference value of all the tracks in the level 6 intonation pattern data 46 of FIG. 7 is 20H, and the volume of each part of the accompaniment is 20H.
Only be enlarged.

【0022】2バイトの音色/楽器データは、音色/楽
器の変更指示情報である。コード及びベースのトラック
については、1バイトの音色パラメータを与え、他の1
バイトは使用していない(NC)。図6、図7の例で
は、イントネーションのレベル0、2ではコード、ベー
スの音色パラメータは01H、40Hであり、イントネ
ーションのレベル4、6では20H、40Hに変化して
いる。
The 2-byte timbre / instrument data is timbre / instrument change instruction information. For chord and bass tracks, give one byte of timbre parameters and the other one
No bytes are used (NC). In the examples of FIGS. 6 and 7, the chord and bass timbre parameters are 01H and 40H at the intonation levels 0 and 2, and change to 20H and 40H at the intonation levels 4 and 6.

【0023】ドラム1〜3の各トラックについては、2
バイトの楽器変換情報を与えている。一般にドラムトラ
ックの音符情報は音階データ(鍵データ)が楽器情報と
して割り当てられている。例えば、ドがバスドラム、レ
がスネア、ミがハイハットに割り当てられている。図6
のイントネーションのレベル2では、ドラム1のトラッ
クに26H、28Hが記録されている。これは音符デー
タ中の26H(クローズハイハット)を28H(オープ
ンハイハット)に変換することを示している。従って、
同一の音符データを使用していても、イントネーション
のレベルに応じて異なる楽器のドラム音を発生させるこ
とができる。
For each track of drums 1 to 3, 2
It gives instrument conversion information in bytes. Generally, scale data (key data) is assigned to musical note information of a drum track as musical instrument information. For example, do is assigned to bass drum, les to snare, and mi to hi-hat. FIG.
In the intonation level 2, 26H and 28H are recorded on the track of the drum 1. This indicates that 26H (closed hi-hat) in the note data is converted to 28H (open hi-hat). Therefore,
Even if the same note data is used, drum sounds of different musical instruments can be generated according to the intonation level.

【0024】3トラックのドラムチャンネルには、それ
ぞれ別の楽器を割り当てることができる。そしてトラッ
クごとに楽器を変更することができるので、レベルに応
じたイントネーションパターンの変化には多くの自由度
がある。また各ドラムトラックは共通の音符データをア
クセスすることができるので、ドラムチャンネルを増や
しても、音符データの量が大幅に増大することはない。
Different musical instruments can be assigned to the three track drum channels. Since the instrument can be changed for each track, there are many degrees of freedom in changing the intonation pattern according to the level. Further, since each drum track can access common note data, even if the number of drum channels is increased, the amount of note data does not greatly increase.

【0025】イントネーションパターンデータの演奏パ
ターン部は、4小節の音符指示情報から成っている。こ
の音符指示情報は実際には音符データの特定位置を示す
アドレスデータである。1小節は4拍から成り、例えば
1.0 、1.2 は1小節の1拍目、3拍目をそれぞれ示して
いる。例えば、イントネーションのレベル0のコードト
ラックでは音符データのアドレス0000Hから第1小
節4拍の音符の再生が進行し、第2小節ではアドレス0
001Hから音符の再生が進行する。第4小節の最後に
はリピート記号REPが記録され、この記号まで再生が
進行すると、先頭アドレスに戻るようになっている。
The performance pattern portion of the intonation pattern data is composed of note indication information of four measures. This note instruction information is actually address data indicating a specific position of the note data. A bar consists of 4 beats, for example
1.0 and 1.2 indicate the first and third beats of one measure, respectively. For example, in the intonation level 0 chord track, the reproduction of the note of the first measure 4 beats proceeds from the address 0000H of the note data, and the address 0 in the second measure.
From 001H, note reproduction proceeds. At the end of the fourth measure, a repeat symbol REP is recorded, and when the reproduction progresses up to this symbol, it returns to the head address.

【0026】演奏パターン部の音符指示情報を変更する
ことにより、演奏パターンを容易に変更することができ
る。例えば、イントネーションのレベル0では、ベース
トラックの指示情報は0100H、0101Hが与えら
れているが、レベル2では0102H、0103Hに変
更されている。従って、レベル2では、ドラム1の楽器
が変化するとともに、ベースラインの演奏パターンが変
化する。このように演奏パターン部の一部を変更するこ
とによって、容易にイントネーションのレベルを異なら
せることができる。
The performance pattern can be easily changed by changing the note instruction information in the performance pattern section. For example, at the level 0 of the intonation, the instruction information of the base track is given 0100H and 0101H, but at the level 2 it is changed to 0102H and 0103H. Therefore, at level 2, the musical instrument of the drum 1 changes and the performance pattern of the bass line changes. By changing a part of the performance pattern portion in this way, the intonation level can be easily changed.

【0027】イントネーションのレベル4では、レベル
2に対して演奏パターンを変更せずにコード音色、ドラ
ム1、2の楽器、ドラム2の音量をそれぞれ変更してい
る。またレベル6では、各トラックについて音量、音
色、楽器、演奏パターンの少なくとも1つをを変更して
いる。このレベル6は演奏のかなりの盛り上がりを示し
ている。
At the level 4 of the intonation, the chord timbre, the musical instruments of the drums 1 and 2 and the volume of the drum 2 are changed without changing the performance pattern with respect to the level 2. At level 6, at least one of the volume, tone, musical instrument, and performance pattern is changed for each track. This level 6 shows a considerable excitement of the performance.

【0028】図5に示すように、偶数番目のレベル0、
2、4、6として図6、図7のようなパターンデータを
用い、奇数番目のレベル1、3、5、7のパターンデー
タとして音量の差分データのみを用いている。他の音色
/楽器及び演奏パターンデータについては1つ下のレベ
ルと同一にして、省略している。従って、奇数番目のレ
ベルでは音量のみが変更されて伴奏にアクセントが付加
される。このようにすると8レベルのイントネーション
パターンデータの全体のデータ量は約半分に圧縮され
る。奇数番目のイントネーションパターンデータを展開
するときには、音色/楽器及び演奏パターンデータは1
つ前のデータを読み、音量についてのみ加算演算を行
う。
As shown in FIG. 5, even level 0,
The pattern data shown in FIGS. 6 and 7 are used as 2, 4, and 6, and only the volume difference data is used as the odd-numbered level 1, 3, 5, and 7 pattern data. Other timbres / instruments and performance pattern data are omitted because they are the same as those of the next lower level. Therefore, at the odd-numbered levels, only the volume is changed, and an accent is added to the accompaniment. In this way, the entire data amount of the eight-level intonation pattern data is reduced to about half. When developing the odd-numbered intonation pattern data, the timbre / instrument and performance pattern data are set to 1
The previous data is read, and an addition operation is performed only for the volume.

【0029】レベル8〜Fのサブフレーズパターンは、
図6、7に示したイントネーションパターンデータと同
一のデータ構成であってよい。又奇数のレベル9、B
(11)、D(13)、F(15)についても、イント
ネーションパターンと同様に音量の差分データのみの縮
小パターンになっている。
The subphrase patterns of levels 8 to F are:
The data configuration may be the same as the intonation pattern data shown in FIGS. Also odd level 9, B
(11), D (13), and F (15) are also reduced patterns of only the difference data of the volume as in the intonation pattern.

【0030】図8は、イントネーションパターンデータ
又はサブフレーズパターンデータを介してアクセスされ
る音符データ47の一部を示している。音符データの一
音は、キーナンバK、ステップタイムS、ゲートタイム
G、ベロシティーVの4バイトから成っている。キーナ
ンバKは音階を示し、ステップタイムSは発音のタイミ
ングを示し、ゲートタイムGは発音の持続時間を示し、
ベロシティーVは発音の音量(押鍵圧)を示している。
この他に、図示しないが、音色データや音符パターンの
繰り返し記号などが音符データに含まれる。
FIG. 8 shows a part of note data 47 accessed via intonation pattern data or subphrase pattern data. One note of note data is composed of 4 bytes of key number K, step time S, gate time G, and velocity V. The key number K indicates the scale, the step time S indicates the timing of sound generation, the gate time G indicates the duration of sound generation,
Velocity V indicates the volume of sound (key pressing pressure).
In addition to this, although not shown, note data includes tone color data and note pattern repetition symbols.

【0031】音符データは、イントネーションパターン
データの演奏パターン部によって指示されるアドレスか
ら4バイトずつ順番に自動演奏データメモリ36から読
み出される。図2の楽音制御部35は、イントネーショ
ンパターンデータに基づいてアドレス制御を行い、読み
出した音符データの音量、キーナンバをイントネーショ
ンパターンデータの音量、楽器の指示データによって修
飾し、また音色を変更して楽音発生部37に送出する。
The note data is read from the automatic performance data memory 36 in order of four bytes from the address specified by the performance pattern portion of the intonation pattern data. The tone control unit 35 of FIG. 2 performs address control based on the intonation pattern data, modifies the volume of the read note data and the key number with the volume of the intonation pattern data and the instruction data of the musical instrument, and changes the timbre to change the tone. It is sent to the generator 37.

【0032】図9〜図15は、イントネーションパター
ンデータによる自動演奏の制御を示すフローチャートで
ある。まず図9のステップ60で初期化を行い、ステッ
プ61で鍵盤11の操作に対する処理を行う。次にステ
ップ62でパネルスキャン(操作検出)の処理を行い、
オンイベントであれば、イントロ、エンディング、フィ
ルインのサブフレーズを演奏中に挿入するための押し釦
スイッチ12bのいずれの操作であるかをステップ64
〜66で判定する。
FIGS. 9 to 15 are flow charts showing control of automatic performance based on intonation pattern data. First, initialization is performed in step 60 of FIG. 9, and processing for operation of the keyboard 11 is performed in step 61. Next, in step 62, panel scan (operation detection) processing is performed.
If it is an ON event, it is determined in step 64 which operation of the push button switch 12b for inserting the intro, ending, or fill-in subphrases during the performance.
The judgment is made at ~ 66.

【0033】イントロに対応する釦操作の場合には、次
のステップ67で08Hをイントネーション値としてイ
ントネーションバッフアINTBUFに入れる。またエ
ンディングに対応する釦操作の場合には、ステップ68
で0EHをイントネーション値としてイントネーション
バッフアINTBUFに入れる。またフィルインに対応
する釦操作の場合には、ステップ69でダイヤルで設定
したイントネーション値が4以上であるか否かを調べ
る。そして4以上であればステップ70で0CHをイン
トネーション値としてイントネーションバッフアINT
BUFに入れる。また4以下であればステップ71で0
AHをイントネーション値としてイントネーションバッ
フアINTBUFに入れる。これらのイントネーション
代入値は図5の各サブフレーズパターンのイントネーシ
ョン値に相当する。イントネーション値の代入処理が終
了すると、図10のリズムスタートのステップ75に進
む。
In the case of a button operation corresponding to the intro, in the next step 67, 08H is put into the intonation buffer INTBUF as an intonation value. In the case of a button operation corresponding to ending, step 68
And puts 0EH into the intonation buffer INTBUF as an intonation value. In the case of a button operation corresponding to fill-in, it is checked in step 69 whether the intonation value set by the dial is 4 or more. If it is 4 or more, in step 70 the intonation buffer INT is set with 0CH as the intonation value.
Put in BUF. If it is 4 or less, 0 is set in step 71.
AH is put into the intonation buffer INTBUF as an intonation value. These intonation substitution values correspond to the intonation values of each subphrase pattern in FIG. When the intonation value substitution process is completed, the process proceeds to step 75 of rhythm start in FIG.

【0034】ステップ64〜66の判断がNOであれ
ば、リズムスタート/ストップの操作が行われたことに
なるので、ステップ66から図10のステップ72に進
み、リズム動作中であるか否かを判定する。リズム動作
中であれば、ステップ73でその時のイントネーション
値をバッファにセットし、リズムスタートのステップ7
5に進む。このステップ75では、伴奏の各パート(ト
ラック)の音符読み出しアドレスをセットする。またリ
ズム動作中でなければ、ステップ74でリズムを停止し
て、ダイヤルカウントの処理に進む。
If the determination in steps 64 to 66 is NO, it means that the rhythm start / stop operation has been performed, so the process proceeds from step 66 to step 72 in FIG. 10 to determine whether or not the rhythm operation is being performed. judge. If the rhythm operation is in progress, the intonation value at that time is set in the buffer in step 73, and the rhythm start step 7
Go to 5. In this step 75, the note reading address of each part (track) of the accompaniment is set. If the rhythm operation is not being performed, the rhythm is stopped in step 74, and the process proceeds to dial count processing.

【0035】図10のダイヤルカウント処理では、ダイ
ヤル10の操作に応答してイントネーション値を変更す
る。まずステップ76、77でパルス発生器14の出力
パルスのカウント値が7以上か、−7以下かを判断し、
7以上であればイントネーション値を+1し、−7以下
であれば−1する(ステップ78、79)。なおダイヤ
ル10の約1/3回転がカウント値7に相当し、右回し
のときカウント値が増加し、左回しのときカウント値が
減少する。
In the dial counting process shown in FIG. 10, the intonation value is changed in response to the operation of the dial 10. First, in steps 76 and 77, it is determined whether the count value of the output pulse of the pulse generator 14 is 7 or more, or -7 or less.
If the value is 7 or more, the intonation value is incremented by 1; It should be noted that approximately 1 / rotation of the dial 10 corresponds to the count value 7, and the count value increases when the dial 10 is turned clockwise and decreases when the dial 10 is turned counterclockwise.

【0036】次にステップ80でイントネーション値を
表示装置13において表示し、ステップ81でイントネ
ーションチェンジフラグをセットし、ステップ82でダ
イヤルカウンタをクリアする。そして自動演奏のルーチ
ン83を実行して、図9の鍵処理のステップ61からル
ープする。
Next, at step 80, the intonation value is displayed on the display device 13, at step 81 an intonation change flag is set, and at step 82 the dial counter is cleared. Then, an automatic performance routine 83 is executed, and the process loops from the key processing step 61 in FIG.

【0037】以上のように、イントロの選択スイッチを
押すと、イントネーション値が08Hとなって、イント
ロパターン51に基づくサブフレーズパターンの自動演
奏が行われる。またエンディング選択スイッチを押す
と、イントネーション値が0EHとなって、エンディン
グパターン57に基づくサブフレーズパターンの自動演
奏が行われる。またフィルインの選択スイッチを押す
と、その時点のイントネーション値が4以下ではイント
ネーション値が0AHとなって、比較的盛り上がり度の
低いソフトフィルインパターン54に基づくサブフレー
ズパターンの自動演奏が行われる。また、その時点のイ
ントネーション値が4以上の場合には、イントネーショ
ン値が0CHとなって、比較的盛り上がり度の高いラウ
ドフィルインパターン55に基づくサブフレーズパター
ンの自動演奏が行われる。
As described above, when the intro selection switch is pressed, the intonation value becomes 08H, and the automatic performance of the subphrase pattern based on the intro pattern 51 is performed. When the ending selection switch is pressed, the intonation value becomes 0EH, and the automatic performance of the subphrase pattern based on the ending pattern 57 is performed. When the fill-in selection switch is pressed, if the intonation value at that time is 4 or less, the intonation value becomes 0AH, and the automatic performance of the subphrase pattern based on the soft fill-in pattern 54 having a relatively low degree of excitement is performed. When the intonation value at that time is 4 or more, the intonation value becomes 0CH, and the automatic performance of the subphrase pattern based on the loud fill-in pattern 55 having a relatively high degree of excitement is performed.

【0038】図11は、図10のパートアドレスセット
のルーチンの詳細を示す。まずステップ700でリズム
番号に対応したイントネーションパターンデータの先頭
アドレスをセットし、ステップ710で現在のイントネ
ーション値によって指示されているイントネーションパ
ターンデータの先頭アドレスをセットする。更にステッ
プ720〜760で、コード、ベース、ドラム1〜3の
5トラックについてイントネーションパターンデータの
読出しのアドレスをセットし、各データをバッファに読
み出す。そしてステップ770でリズムオンフラグをセ
ットする。
FIG. 11 shows details of the part address set routine of FIG. First, in step 700, the start address of the intonation pattern data corresponding to the rhythm number is set, and in step 710, the start address of the intonation pattern data indicated by the current intonation value is set. Further, in steps 720 to 760, an address for reading intonation pattern data is set for five tracks of a code, a base, and drums 1 to 3, and each data is read to a buffer. Then, in step 770, the rhythm on flag is set.

【0039】図12は、図11のコードアドレスセット
のルーチンの詳細を示す。ここでは先ずステップ800
でイントネーション値をチェックし、次ぎにステップ8
10でイントネーションパターンデータの音量差分デー
タをベロシティ加算値としてセットする。次にステップ
820で音色番号をセットし、ステップ830で演奏パ
ターンデータの先頭アドレスをセットする。次にステッ
プ840でROM20から自動演奏データの上記先頭ア
ドレスに対応した1音の音符データを読み出し、ステッ
プ850で最初のステップタイムデータをバッファにセ
ットする。そしてステップ860でコードの音符データ
の時間軸のカウンタ値をクリアして、戻る。図11の他
のチャンネルのステップ730〜760も同様にして行
われる。
FIG. 12 shows details of the code address set routine of FIG. Here, first, step 800
To check the intonation value, then step 8
At 10, the sound volume difference data of the intonation pattern data is set as a velocity added value. Next, in step 820, a tone color number is set, and in step 830, the head address of the performance pattern data is set. Next, at step 840, note data of one tone corresponding to the above-mentioned head address of the automatic performance data is read from the ROM 20, and at step 850, the first step time data is set in the buffer. Then, in step 860, the counter value on the time axis of the note data of the chord is cleared, and the process returns. Steps 730 to 760 for the other channels in FIG. 11 are performed in a similar manner.

【0040】図13、図14は図10のステップ83で
実行される自動演奏ルーチンの詳細を示す。このルーチ
ンでは、まずステップ900でコードーシーケンスモー
ドか否かをチェックして、このモードの場合にはステッ
プ910でコード進行パターンを再生してコードの音階
を展開する。次に、ステップ920で時間軸カウンタの
カウント値がバッファ内のステップタイムと一致したか
否かを見て、一致しなければメインルーチンに戻る。
FIGS. 13 and 14 show details of the automatic performance routine executed in step 83 of FIG. In this routine, it is first checked in step 900 whether or not the mode is a chord sequence mode. In this mode, the chord progression pattern is reproduced in step 910 to develop the scale of the chord. Next, at step 920, it is determined whether or not the count value of the time axis counter matches the step time in the buffer. If not, the process returns to the main routine.

【0041】ステップ920で、時間軸カウンタのカウ
ント値がステップタイムと一致したときには、読み出し
アドレスをセットして(ステップ930)、ROM20
から4バイト分の音符データを読み出す。次に、ステッ
プ950で読み出した音符データがリピートマークであ
るか否かをチェックし、リピートマークである場合に
は、ステップ960でリピート処理を行って、ステップ
900の前に戻る。ステップ950で通常の音符データ
であることが判別された場合には、図14のステップ9
70に進み、発音モードをセットする。
At step 920, when the count value of the time axis counter coincides with the step time, a read address is set (step 930).
4 bytes of note data are read from. Next, it is checked whether or not the read note data is a repeat mark in step 950, and if it is a repeat mark, repeat processing is performed in step 960, and the process returns to step 900. If it is determined in step 950 that the data is normal note data, step 9 in FIG.
Proceed to 70 to set the sounding mode.

【0042】次に、ステップ980で自動伴奏モードで
あるか否かをチェックし、自動伴奏モードであれば、ス
テップ990、1000でキー番号、ベロシティ値、ゲ
ートタイムをそれぞれセットし、ステップ1010で対
応する音符の発音処理を行う。発音処理が終了すると、
次に、ステップ1020で読み出しアドレスを4バイト
進め、ステップ1030で次に発音すべき音符データを
ROM20から読み出す。そして次のステップタイムを
バッファにセットして、図13の自動演奏ルーチンの最
初に戻る。以下これを繰り返して自動伴奏の音符の発音
を順次行う。
Next, at step 980, it is checked whether the mode is the automatic accompaniment mode. If the mode is the automatic accompaniment mode, key numbers, velocity values, and gate times are set at steps 990 and 1000, respectively. The sound processing of the note to be performed is performed. When the pronunciation process ends,
Next, at step 1020, the read address is advanced by 4 bytes, and at step 1030, note data to be generated next is read from the ROM 20. Then, the next step time is set in the buffer, and the process returns to the beginning of the automatic performance routine of FIG. This is repeated to sequentially generate notes of the automatic accompaniment.

【0043】図13のステップ950において、音符デ
ータの終端のリピートマークを検出した場合には、ステ
ップ960に進み、図15に示すリピート処理を行う。
このルーチンでは、まずステップ1100で時間軸のコ
ードカウンタをクリアし、次にステップ111でイント
ネーションパターンデータの読み出しアドレスを1つ進
める。そして現在の自動演奏パターンデータが図6、7
に示したリピートマークREP(FFH)であるか否か
をステップ1120で調べ、リピートマークREPでな
ければ、図12のステップ830に戻り、次の第2小節
の自動演奏パターンの先頭アドレスをセットし、音符デ
ータの読出を続行する。
When the repeat mark at the end of the note data is detected in step 950 of FIG. 13, the process proceeds to step 960, and the repeat processing shown in FIG. 15 is performed.
In this routine, first, at step 1100, the code counter on the time axis is cleared, and then, at step 111, the read address of the intonation pattern data is advanced by one. The current automatic performance pattern data is shown in FIGS.
In step 1120, it is checked whether or not it is the repeat mark REP (FFH) shown in (1). If it is not the repeat mark REP, the process returns to step 830 in FIG. 12 to set the start address of the next automatic performance pattern in the second bar. The reading of the note data is continued.

【0044】図15のステップ1120においてリピー
トマークREP(FFH)を検出した場合には、ステッ
プ1130でイントネーションパターンデータの読出ア
ドレスから16を減算して、読み出し位置を第1小節の
1拍目に戻し、図12のステップ830から音符データ
の読出を続行する。
If a repeat mark REP (FFH) is detected at step 1120 in FIG. 15, 16 is subtracted from the read address of the intonation pattern data at step 1130 to return the read position to the first beat of the first bar. The reading of the note data is continued from step 830 in FIG.

【0045】伴奏音のイントネーションレベルは、ダイ
ヤル10の操作によって自由に変更することができる。
イントネーションパターンデータのレベルの配列順を演
奏の盛り上がり度と一致させておくと、伴奏音が徐々に
盛り上がって行くダイヤル操作感が得られる。なおダイ
ヤルの変わりにフットペダルを用いることもできる。或
いは、イントネーション値を増減させることができる一
対の押しボタンを用いてもよい。
The intonation level of the accompaniment sound can be freely changed by operating the dial 10.
If the arrangement order of the levels of the intonation pattern data is matched with the degree of excitement of the performance, a dial operation feeling in which the accompaniment sound gradually excites is obtained. Note that a foot pedal can be used instead of the dial. Alternatively, a pair of push buttons that can increase or decrease the intonation value may be used.

【0046】[0046]

【発明の効果】本発明の自動演奏装置は、演奏の盛り上
がり度に対応させてイントネーション値を増減するイン
トネーション値可変段と、盛り上がり度が異なる単フレ
ーズの演奏パターンを複数種記憶した演奏パターン記憶
手段とを設け、上記単フレーズの挿入指示があったと
き、上記イントネーション値の大きさに応じて上記複数
の演奏パターンの一つを選択し、選択した演奏パターン
に基づいて、音符データ記憶手段から対応の音符データ
列を読み出して自動演奏を行うようにしたことを特徴と
する。従って、本発明によると、指示操作によって挿入
される単フレーズの演奏パターンが演奏の盛り上がりに
対応して自動的に変化するので、単フレーズの演奏パタ
ーンを挿入しても演奏の盛り上がりを損じることがなく
なる。
According to the present invention, there is provided an automatic performance apparatus comprising: an intonation value variable stage for increasing / decreasing an intonation value in accordance with the degree of excitement of a performance; When there is an instruction to insert the single phrase, one of the plurality of performance patterns is selected in accordance with the magnitude of the intonation value, and based on the selected performance pattern, the corresponding note data storage means responds. Is read out to perform an automatic performance. Therefore, according to the present invention, the performance pattern of a single phrase inserted by the instruction operation automatically changes in accordance with the excitement of the performance, so that even if the performance pattern of the single phrase is inserted, the excitement of the performance may be impaired. Disappears.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の自動演奏装置の一実施例を示す電子楽
器のブロック図である。
FIG. 1 is a block diagram of an electronic musical instrument showing one embodiment of an automatic performance device of the present invention.

【図2】本発明の自動演奏装置の要素的特徴を示すブロ
ック図である。
FIG. 2 is a block diagram showing elemental features of the automatic performance device of the present invention.

【図3】イントネーションプリセット値のメモリテーブ
ルの図である。
FIG. 3 is a diagram of a memory table of intonation preset values.

【図4】イントネーションパターンデータのメモリテー
ブルの図である。
FIG. 4 is a diagram of a memory table of intonation pattern data.

【図5】イントネーションパターンデータのデータ配列
を示す図である。
FIG. 5 is a diagram showing a data array of intonation pattern data.

【図6】イントネーションパターンデータのデータ構造
を示す図である。
FIG. 6 is a diagram showing a data structure of intonation pattern data.

【図7】イントネーションパターンデータのデータ構造
を示す図である。
FIG. 7 is a diagram showing a data structure of intonation pattern data.

【図8】イントネーションパターンデータによって読み
出される音符データの構造を示す図である。
FIG. 8 is a diagram showing a structure of musical note data read by intonation pattern data.

【図9】イントネーションパターンデータによる自動演
奏の制御を示すフローチャートである。
FIG. 9 is a flowchart showing control of automatic performance based on intonation pattern data.

【図10】イントネーションパターンデータによる自動
演奏の制御を示すフローチャートである。
FIG. 10 is a flowchart showing control of automatic performance based on intonation pattern data.

【図11】イントネーションパターンデータによる自動
演奏の制御を示すフローチャートである。
FIG. 11 is a flowchart showing control of automatic performance based on intonation pattern data.

【図12】イントネーションパターンデータによる自動
演奏の制御を示すフローチャートである。
FIG. 12 is a flowchart showing control of automatic performance based on intonation pattern data.

【図13】イントネーションパターンデータによる自動
演奏の制御を示すフローチャートである。
FIG. 13 is a flowchart showing control of automatic performance based on intonation pattern data.

【図14】イントネーションパターンデータによる自動
演奏の制御を示すフローチャートである。
FIG. 14 is a flowchart showing control of automatic performance based on intonation pattern data.

【図15】イントネーションパターンデータによる自動
演奏の制御を示すフローチャートである。
FIG. 15 is a flowchart showing control of automatic performance based on intonation pattern data.

【符号の説明】[Explanation of symbols]

10 ダイヤル 11 鍵盤 12 操作パネル 13 表示装置 14 パルス発生器 15 キースイッチ回路 16 パネルスイッチ回路 17 表示ドライブ回路 18 バス 19 RAM 20 ROM 21 CPU 22 楽音発生回路 23 D/A変換器 24 アンプ 25 スピーカ 30 サブフレーズ選択部 31 イントネーション値設定部 32 イントネーション操作部 33 リズム選択操作部 34 イントネーションパターンメモリ 35 楽音制御部 36 自動演奏データメモリ 37 楽音発生部 38 波形ROM Reference Signs List 10 dial 11 keyboard 12 operation panel 13 display device 14 pulse generator 15 key switch circuit 16 panel switch circuit 17 display drive circuit 18 bus 19 RAM 20 ROM 21 CPU 22 musical sound generation circuit 23 D / A converter 24 amplifier 25 speaker 30 sub Phrase selection unit 31 Intonation value setting unit 32 Intonation operation unit 33 Rhythm selection operation unit 34 Intonation pattern memory 35 Musical sound control unit 36 Automatic performance data memory 37 Musical sound generation unit 38 Waveform ROM

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G10H 1/46 G10H 1/46 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 6 Identification code Agency reference number FI Technical display location G10H 1/46 G10H 1/46

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 自動演奏の音符データ列を記憶した音符
データ記憶手段と、上記音符データ記憶手段から読み出
された音符データ列に基づいて楽音を発生する楽音発生
手段と、演奏の盛り上がり度に対応させてイントネーシ
ョン値を増減するイントネーション値可変手段と、盛り
上がり度の異なる単フレーズの演奏パターンを複数種記
憶した演奏パターン記憶手段と、上記単フレーズの挿入
指示があったとき、上記イントネーション値の大きさに
応じて上記複数の演奏パターンの一つを選択し、選択し
た演奏パターンに基づいて、上記音符データ記憶手段か
ら対応の音符データ列を読み出して上記楽音発生手段に
導出する楽音制御手段とを備えることを特徴とする自動
演奏装置。
A musical note data storage means for storing a musical note data string of an automatic performance; a musical tone generating means for generating a musical tone based on the musical note data string read from the musical note data storage means; Intonation value variable means for increasing or decreasing the intonation value in correspondence therewith, performance pattern storage means for storing a plurality of types of performance patterns of single phrases having different excitement degrees, and when the single phrase insertion instruction is issued, Selecting one of the plurality of performance patterns in accordance with the selected performance pattern, reading a corresponding note data string from the note data storage means based on the selected performance pattern, and deriving the same to the tone generation means. An automatic performance device comprising:
【請求項2】 上記演奏パターン記憶手段が、演奏の盛
り上がり度に対応した複数レベルのイントネーションパ
ターンを記憶したイントネーションパターン記憶手段で
あり、上記単フレーズの演奏パターンがこの記憶手段の
一部に記憶されているとともに、上記楽音制御手段は、
設定したイントネーション値に対応するイントネーショ
ンパターンデータに基づいて、上記音符データ記憶手段
から読み出される音符データ列を制御して上記楽音発生
手段に導出する様に構成され、互いに異なるレベルの上
記イントネーションパターンデータは、上記音符データ
記憶手段の異なる読み出し位置を指定する指示情報、読
み出された音符データに対して与える異なる音量情報、
異なる音色情報、異なる楽器情報のいずれか1つ又は複
数を含むことを特徴とする請求項1の自動演奏装置。
2. The performance pattern storage means according to claim 1, wherein said performance pattern storage means stores intonation patterns of a plurality of levels corresponding to the degree of excitement of the performance. The performance pattern of said single phrase is stored in a part of said storage means. And the tone control means is
Based on the intonation pattern data corresponding to the set intonation value, the musical note data string read from the musical note data storage means is controlled so as to be derived to the musical tone generating means. Instruction information specifying different read positions of the note data storage means, different volume information given to the read note data,
2. The automatic performance apparatus according to claim 1, further comprising one or more of different timbre information and different instrument information.
【請求項3】 上記単フレーズの挿入指示を行う複数個
の操作手段を備え、その内の少なくとも1つは、上記イ
ントネーション値の大きさに応じて割り当てられた上記
複数の演奏パターンに対応し、他の操作手段は、上記イ
ントネーション値の大きさと無関係の特定の単フレーズ
の演奏パターンに割り当てられていることを特徴とする
請求項1の自動演奏装置。
3. A plurality of operating means for instructing the insertion of the single phrase, at least one of which corresponds to the plurality of performance patterns assigned according to the magnitude of the intonation value, 2. The automatic performance apparatus according to claim 1, wherein the other operation means is assigned to a performance pattern of a specific single phrase irrespective of the magnitude of the intonation value.
【請求項4】 上記イントネーション値可変手段がダイ
ヤル状であることを特徴とする請求項1の自動演奏装
置。
4. The automatic performance apparatus according to claim 1, wherein said intonation value changing means has a dial shape.
【請求項5】 上記イントネーションパターンデータ
は、リズムの種類ごとに記憶されていることを特徴とす
る請求項2の自動演奏装置。
5. The automatic performance apparatus according to claim 2, wherein said intonation pattern data is stored for each rhythm type.
【請求項6】 リズムごとにイントネーション値のプリ
セット値を記憶するプリセット値記憶手段を備えている
ことを特徴とする請求項1の自動演奏装置。
6. The automatic performance apparatus according to claim 1, further comprising preset value storage means for storing a preset value of an intonation value for each rhythm.
JP3058190A 1991-02-26 1991-02-28 Automatic performance device Expired - Fee Related JP2623175B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP3058190A JP2623175B2 (en) 1991-02-28 1991-02-28 Automatic performance device
US08/320,842 US5418324A (en) 1991-02-26 1994-10-07 Auto-play apparatus for generation of accompaniment tones with a controllable tone-up level

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3058190A JP2623175B2 (en) 1991-02-28 1991-02-28 Automatic performance device

Publications (2)

Publication Number Publication Date
JPH04274298A JPH04274298A (en) 1992-09-30
JP2623175B2 true JP2623175B2 (en) 1997-06-25

Family

ID=13077106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3058190A Expired - Fee Related JP2623175B2 (en) 1991-02-26 1991-02-28 Automatic performance device

Country Status (1)

Country Link
JP (1) JP2623175B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2646884B2 (en) * 1991-05-30 1997-08-27 ヤマハ株式会社 Automatic performance device

Also Published As

Publication number Publication date
JPH04274298A (en) 1992-09-30

Similar Documents

Publication Publication Date Title
GB2118756A (en) Automatic accompaniment generating apparatus
US4708046A (en) Electronic musical instrument equipped with memorized randomly modifiable accompaniment patterns
JPH0546172A (en) Automatic playing device
JP2756877B2 (en) Phrase playing device
US4887503A (en) Automatic accompaniment apparatus for electronic musical instrument
JP2660456B2 (en) Automatic performance device
JP2623175B2 (en) Automatic performance device
JP2660462B2 (en) Automatic performance device
US5418324A (en) Auto-play apparatus for generation of accompaniment tones with a controllable tone-up level
JP2660471B2 (en) Automatic performance device
US5283388A (en) Auto-play musical instrument with an octave shifter for editing phrase tones
JP2660457B2 (en) Automatic performance device
JP2518056B2 (en) Music data processor
JP2572317B2 (en) Automatic performance device
JP2689614B2 (en) Electronic musical instrument
US5483018A (en) Automatic arrangement apparatus including selected backing part production
JP2572316B2 (en) Automatic performance device
JP2580872Y2 (en) Electronic musical instrument
JPS62183495A (en) Automatic performer
JP3282675B2 (en) Electronic musical instrument
JP3120487B2 (en) Electronic musical instrument with automatic accompaniment function
JP3424989B2 (en) Automatic accompaniment device for electronic musical instruments
JP2546272B2 (en) Automatic musical instrument accompaniment device
JPH05108074A (en) Automatic accompaniment device of electronic musical instrument
JP2679308B2 (en) Sound source determination device and electronic musical instrument using the same

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees