JPH04274299A - Automatic musical performance device - Google Patents

Automatic musical performance device

Info

Publication number
JPH04274299A
JPH04274299A JP9158191A JP5819191A JPH04274299A JP H04274299 A JPH04274299 A JP H04274299A JP 9158191 A JP9158191 A JP 9158191A JP 5819191 A JP5819191 A JP 5819191A JP H04274299 A JPH04274299 A JP H04274299A
Authority
JP
Japan
Prior art keywords
performance
musical
intonation
note data
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9158191A
Other languages
Japanese (ja)
Other versions
JP2660457B2 (en
Inventor
Shinya Konishi
小西 慎哉
Yoshihisa Shimada
義久 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP3058191A priority Critical patent/JP2660457B2/en
Publication of JPH04274299A publication Critical patent/JPH04274299A/en
Application granted granted Critical
Publication of JP2660457B2 publication Critical patent/JP2660457B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PURPOSE:To secure a climax of musical performance by filling an interval of key operation with the automatic musical performance of a specified phrase at time of playing such an ad lib performance as calling a short phrase's playing pattern corresponding to the key operation. CONSTITUTION:In an automatic musical performance device which is equipped with a note data storage means 35 stored with a note data line of automatic musical performance, and a musical tone generating means 37 generating a musical tone on the basis of the note data line read out of the note data storage means 35, there is provided a playing pattern storage means 33 which stored a playing pattern of plural short phrases different with each other, selecting the playing pattern of the short phrases allotted to a key in response to key operation, and simultaneously either of the musical performance patterns is selected when there is no key operation and, on the basis of the selected playing pattern, a corresponding note data line is read out of the note storage means 36, outputting it to the note generating means 37.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、演奏の盛り上がり度(
イントネーション)に応じた自動演奏ができる電子楽器
の自動演奏装置に関する。
[Industrial Field of Application] The present invention can improve the excitement level of a performance (
The present invention relates to an automatic performance device for an electronic musical instrument that can perform automatic performance according to the intonation.

【0002】0002

【従来の技術】一般に、電子キーボード(電子ピアノな
ど)は、リズムの自動伴奏、コードやベースの自動伴奏
などの自動伴奏機能を備えている。また複数の鍵にの各
々に1小節程度の異なるフレーズを割り当てて、一本指
の鍵操作によってこれらのフレーズを選択的に呼び出し
て一連のフレーズの結合によるアドリブ的な演奏効果を
得る機能(所謂ワンフィンガーアドリブプレイ)を備え
た電子楽器も知られている。
2. Description of the Related Art Generally, electronic keyboards (such as electronic pianos) have automatic accompaniment functions such as automatic rhythm accompaniment, chord and bass accompaniment, and the like. There is also a function that assigns different phrases of about one measure to each of multiple keys, and selectively calls out these phrases by pressing the keys with one finger to create improvisational performance effects by combining a series of phrases (so-called Electronic musical instruments equipped with one-finger improvisational play are also known.

【0003】0003

【発明が解決しようとする課題】上述のようなリズム伴
奏、コード伴奏、アドリブフレーズ演奏の総ての機能を
備える電子楽器においては、総ての機能が動作しても発
音の欠損が生じないように、最低限必要なトラック数(
発音チャンネル数)を備えている。しかし通常は総ての
トラックを利用しているわけではない。本発明は、この
点に鑑み、休止中のトラックを有効に利用することによ
って、演奏の華やかな盛り上がりが得られるようにする
ことを目的とする。
[Problem to be Solved by the Invention] In an electronic musical instrument that has all the functions of rhythm accompaniment, chord accompaniment, and improvised phrase performance as described above, it is necessary to ensure that no loss of pronunciation occurs even when all functions are activated. , the minimum number of tracks required (
(number of pronunciation channels). However, not all trucks are normally used. In view of this, it is an object of the present invention to make it possible to obtain a lively and lively performance by effectively utilizing tracks that are inactive.

【0004】0004

【課題を解決するための手段】本発明の自動演奏装置は
、自動演奏の音符データ列を記憶した音符データ記憶手
段と、上記音符データ記憶手段から読み出された音符デ
ータ列に基づいて楽音を発生する楽音発生手段と、複数
の互いに異なる短フレーズの演奏パターンを記憶した演
奏パターン記憶手段と、鍵の操作に対応して鍵に割当て
られた上記短フレーズの演奏パターンを選択すると共に
、鍵操作がないとき上記演奏パターンのいずれか一つを
選択し、選択した演奏パターンに基づいて、上記音符デ
ータ記憶手段から対応の音符データ列を読み出して上記
楽音発生手段に導出する楽音制御手段とを備える。
[Means for Solving the Problems] The automatic performance device of the present invention includes a note data storage means that stores a note data string for automatic performance, and a musical tone based on the note data string read from the note data storage means. a musical tone generating means; a performance pattern storage means storing a plurality of short phrase performance patterns that are different from each other; and musical tone control means for selecting one of the performance patterns when there is no musical note data, and reading out a corresponding musical note data string from the musical note data storage means based on the selected musical pattern and outputting it to the musical sound generating means. .

【0005】[0005]

【作用】鍵の操作に対応して上記短フレーズの演奏パタ
ーンを呼び出すアドリブ演奏をしているときに、鍵操作
の合間が所定フレーズの自動演奏で埋められるので、演
奏の盛り上がりが得られる。この自動演奏のために専用
トラックを増設する必要はない。
[Function] During improvisational performance in which the short phrase performance pattern is called in response to key operations, the intervals between key operations are filled with automatic performance of predetermined phrases, so that the performance becomes more exciting. There is no need to add a dedicated track for this automatic performance.

【0006】[0006]

【実施例】図1は、本発明の一実施例を示す電子楽器の
要部ブロック図である。この電子楽器は鍵盤11、操作
パネル12、表示装置13を備える。また鍵盤11の横
には、演奏の盛り上がり度を指示するためのダイヤル1
0が設けられている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a block diagram of essential parts of an electronic musical instrument showing an embodiment of the present invention. This electronic musical instrument includes a keyboard 11, an operation panel 12, and a display device 13. Also, next to the keyboard 11 is a dial 1 for indicating the excitement level of the performance.
0 is set.

【0007】電子楽器の回路部は、バス18によって結
合されたCPU21、ROM20、RAM19から成る
マイクロコンピュータで構成されている。CPU21は
、鍵盤11に結合されたキースイッチ回路15から鍵盤
11の操作情報を検出し、操作パネル12に結合された
パネルスイッチ回路16からパネルスイッチの操作情報
を検出する。ダイヤル10には、パルス発生器14が結
合されていて、CPU21はダイヤル操作に応じてパル
ス発生器14が発生するパルスをカウントして、盛り上
がり度情報(イントネーション値)を得る。
The circuit section of the electronic musical instrument is composed of a microcomputer consisting of a CPU 21, a ROM 20, and a RAM 19 connected by a bus 18. The CPU 21 detects operation information of the keyboard 11 from a key switch circuit 15 coupled to the keyboard 11, and detects operation information of the panel switch from a panel switch circuit 16 coupled to the operation panel 12. A pulse generator 14 is coupled to the dial 10, and the CPU 21 counts pulses generated by the pulse generator 14 in response to dial operations to obtain excitement degree information (intonation value).

【0008】操作パネル12によって選択されたリズム
や楽器の種類、ダイヤル操作に対応したイントネーショ
ン値などは、CPU21から表示ドライブ回路17を介
して表示装置13に与えられる表示データに基づいて表
示される。
The rhythm, the type of musical instrument, the intonation value corresponding to the dial operation, etc. selected by the operation panel 12 are displayed based on display data provided from the CPU 21 to the display device 13 via the display drive circuit 17.

【0009】CPU21は、鍵盤操作に対応した音符情
報やパネルスイッチ操作に対応したリズム、音色などの
パラメータ情報を楽音発生回路22に送出する。楽音発
生回路22は、これらの情報に基づいてROM20から
PCM音源データを読み出し、その振幅やエンベロープ
を加工してD/A変換器23に出力する。D/A変換器
23から得られる楽音信号は、アンプ24を介してスピ
ーカ25に与えられる。
[0009] The CPU 21 sends to the musical sound generation circuit 22 parameter information such as musical note information corresponding to keyboard operations and rhythm and timbre corresponding to panel switch operations. The musical sound generation circuit 22 reads out the PCM sound source data from the ROM 20 based on this information, processes its amplitude and envelope, and outputs the processed data to the D/A converter 23. A musical tone signal obtained from the D/A converter 23 is given to a speaker 25 via an amplifier 24.

【0010】ROM20には自動伴奏データが書き込ま
れている。CPU21は、操作パネル12の自動伴奏選
択釦の操作にに対応する自動伴奏データをROM20か
ら読み出し、楽音発生回路22に与える。楽音発生回路
22は、自動伴奏データに対応するコード、ベース、ド
ラムなどの波形データをROM20から読み出し、D/
A変換器23に導出する。従って、鍵操作に対応した発
音と共に自動伴奏のコード音、ベース音、ドラム音がス
ピーカ25から得られる。
Automatic accompaniment data is written in the ROM 20. The CPU 21 reads automatic accompaniment data corresponding to the operation of the automatic accompaniment selection button on the operation panel 12 from the ROM 20 and supplies it to the tone generation circuit 22. The musical sound generation circuit 22 reads waveform data of chords, bass, drums, etc. corresponding to the automatic accompaniment data from the ROM 20, and outputs the data from the ROM 20.
The signal is output to the A converter 23. Therefore, chord tones, bass tones, and drum tones of automatic accompaniment can be obtained from the speaker 25 along with pronunciations corresponding to key operations.

【0011】図2は、本発明の要素的特徴を示すブロッ
ク図である。イントネーション操作部31は、図1のダ
イヤル10及びパルス発生器14に対応する。リズム選
択部30は操作パネル12に設けられているテンキース
イッチ12aで構成されている。また操作パネル12に
は、リズム伴奏、自動コード伴奏、アドリブフレーズ演
奏などのモードを選択するための選択ボタン12bが設
けられている。
FIG. 2 is a block diagram showing the essential features of the present invention. The intonation operation section 31 corresponds to the dial 10 and pulse generator 14 in FIG. The rhythm selection section 30 is composed of a numeric keypad switch 12a provided on the operation panel 12. Further, the operation panel 12 is provided with a selection button 12b for selecting a mode such as rhythm accompaniment, automatic chord accompaniment, or improvised phrase performance.

【0012】演奏の盛り上がりに応じてダイヤル10を
操作すると、パルス発生器14の出力パルスが楽音制御
部32に与えられる。またリズム選択部30で選択した
リズム番号が楽音制御部32に与えられる。鍵盤11の
操作情報は、キースイッチ回路15から楽音制御部32
に与えられる。
When the dial 10 is operated in accordance with the climax of the performance, output pulses from the pulse generator 14 are applied to the tone control section 32. Further, the rhythm number selected by the rhythm selection section 30 is given to the musical tone control section 32. Operation information for the keyboard 11 is transmitted from the key switch circuit 15 to the tone control section 32.
given to.

【0013】楽音制御部32に接続されたイントネーシ
ョンパターンメモリ34は、ROM20に設けられてい
て、図3にも示すように、リズムごとにイントネーショ
ン値に対応した複数レベル(例えば0〜15の16個)
のイントネーションパターンテーブル42を持っている
。従って、選択されたリズム及び与えられたイントネー
ション値に対応した所定レベルのイントネーションパタ
ーンデータ34aがメモリ34から読み出され、楽音制
御部32に与えられる。例えば、選択されたリズム番号
が1で、イントネーション値が2であれば、対応するレ
ベル2のイントネーションパターンデータ34aが読み
出される。
The intonation pattern memory 34 connected to the musical tone control section 32 is provided in the ROM 20, and as shown in FIG. )
intonation pattern table 42. Therefore, intonation pattern data 34a of a predetermined level corresponding to the selected rhythm and the given intonation value is read out from the memory 34 and given to the musical tone control section 32. For example, if the selected rhythm number is 1 and the intonation value is 2, the intonation pattern data 34a of the corresponding level 2 is read out.

【0014】楽音制御部32に接続されたフレーズデー
タメモリ33は、ROM20に設けられていて、図3に
も示すように、リズムごとに17鍵(0〜16)に割り
当てられた17種のフレーズデータから成るフレーズデ
ータテーブル43を有している。個々のフレーズデータ
は、1小節程の音符データを演奏データメモリから読み
出すための演奏パターンデータで構成されている。アド
リブフレーズ演奏においては、選択されたリズムに対応
して特定の17鍵にフレーズが割り当てられる。1つの
鍵を押すと、フレーズデータメモリ33から対応のフレ
ーズデータが読み出され、このデータに基づいて4拍の
フレーズを構成する音符データが自動演奏データメモリ
36から読み出されて再生される。17鍵に対応したフ
レーズは総て異なるので、例えば4拍ごとに鍵を操作す
ることにより、簡単にアドリブ演奏ができる。
A phrase data memory 33 connected to the tone control section 32 is provided in the ROM 20, and as shown in FIG. 3, stores 17 types of phrases assigned to 17 keys (0 to 16) for each rhythm. It has a phrase data table 43 consisting of data. Each phrase data is composed of performance pattern data for reading note data of about one measure from the performance data memory. In ad-lib phrase performance, phrases are assigned to specific 17 keys corresponding to the selected rhythm. When one key is pressed, corresponding phrase data is read from the phrase data memory 33, and based on this data, note data constituting a four-beat phrase is read from the automatic performance data memory 36 and reproduced. Since the phrases corresponding to the 17 keys are all different, improvisational performances can be easily performed by operating the keys every four beats, for example.

【0015】フレーズデータメモリ33の各リズムにお
ける17番目のデータとして、カウンタメロディデータ
が格納されている。このカウンタメロディは、メロディ
ラインに対抗するトラックとして所定条件の時に、フレ
ーズ再生トラック(チャンネル)を通じて自動再生され
る。なお、このカウンタメロディのデータとして上記1
7鍵に割り当てられている例えば0番のフレーズデータ
を用いても良い。
Counter melody data is stored as the 17th data in each rhythm in the phrase data memory 33. This counter melody is automatically played back through a phrase playback track (channel) under predetermined conditions as a track that opposes the melody line. Note that the data for this counter melody is shown in 1 above.
For example, phrase data of number 0 assigned to key 7 may be used.

【0016】楽音制御部35は、イントネーションパタ
ーンデータの演奏パターンデータやフレーズデータに基
づいて自動演奏データメモリ36から自動演奏データを
読み出し、音量、音色、楽器などを指定するデータによ
って自動演奏データを修飾して楽音発生部37に導出す
る。自動演奏データメモリ36は、ROM20に設けら
れていて、図3に示すようにリズムごとにコード、ベー
ス、ドラムなどの自動伴奏のための音符データ列を記憶
したテーブル44を備えている。各音符データは、キー
(音程)番号、発音タイミング、発音時間幅、音量など
のデータからなる。  なおROM20は、図3に示す
ように、リズムごとにイントネーションプリセット値を
格納したテーブル41を備えている。
The musical tone control unit 35 reads automatic performance data from the automatic performance data memory 36 based on the performance pattern data and phrase data of the intonation pattern data, and modifies the automatic performance data with data specifying the volume, tone, musical instrument, etc. and output to the musical tone generating section 37. The automatic performance data memory 36 is provided in the ROM 20, and includes a table 44 storing note data strings for automatic accompaniment such as chords, bass, drums, etc. for each rhythm, as shown in FIG. Each note data consists of data such as key (pitch) number, pronunciation timing, pronunciation time width, and volume. As shown in FIG. 3, the ROM 20 includes a table 41 storing intonation preset values for each rhythm.

【0017】楽音発生部37は、楽音制御部35からの
音符データに基づいて波形ROM36から対応するPC
M音源波形を読み出して楽音信号を形成する。これによ
って自動伴奏音が得られる。そしてダイヤル操作によっ
て伴奏音のイントネーションのレベルを自由に変更する
ことができる。
The musical tone generator 37 generates a corresponding PC from the waveform ROM 36 based on the musical note data from the musical tone controller 35.
The M sound source waveform is read out to form a musical tone signal. This provides an automatic accompaniment sound. By operating the dial, you can freely change the intonation level of the accompaniment sound.

【0018】図4は、イントネーションパターンデータ
の詳細を示すデータ構成図である。1レベルのイントネ
ーションパターンデータは、コード、ベース、ドラム1
〜3からなる5トラック(チャンネル)のデータで構成
されている。各トラックは、音量差分値VELO、音色
/楽器指定データ、演奏パターンデータからなる。従っ
て、各トラックごとにこれらのデータを変更又は指定す
ることができる。
FIG. 4 is a data configuration diagram showing details of intonation pattern data. 1 level intonation pattern data includes chord, bass, drum 1
It consists of 5 tracks (channels) of data consisting of 3 to 3 tracks. Each track consists of a volume difference value VELO, timbre/instrument specification data, and performance pattern data. Therefore, these data can be changed or specified for each track.

【0019】1バイトの音量差分値VELOは、自動演
奏データの各音の音量値に加算すべき値である。この差
分値によって、各トラックの楽音ごとにアクセント(音
量の大小)を与えることができる。たとえば、図4のレ
ベル1、2のイントネーションパターンデータ42a、
42bの各トラックにおいて音量差分値は0である。
The 1-byte volume difference value VELO is a value to be added to the volume value of each note in the automatic performance data. Using this difference value, it is possible to give an accent (volume level) to each musical tone of each track. For example, intonation pattern data 42a of levels 1 and 2 in FIG.
The volume difference value in each track of 42b is 0.

【0020】2バイトの音色/楽器データは、音色/楽
器の変更指示情報である。コード及びベースのトラック
については、1バイトの音色パラメータを与え、他の1
バイトは使用していない(NC)。図4の例では、イン
トネーションのレベル1、2ではコード、ベースの音色
パラメータは01H、40Hである。
The 2-byte timbre/instrument data is timbre/instrument change instruction information. For chord and bass tracks, give a 1-byte timbre parameter and another 1-byte timbre parameter.
Bytes are not used (NC). In the example of FIG. 4, at intonation levels 1 and 2, the chord and bass tone parameters are 01H and 40H.

【0021】ドラム1〜3の各トラックについては、2
バイトの楽器変換情報を与えている。一般にドラムトラ
ックの音符情報は音階データ(鍵データ)が楽器情報と
して割り当てられている。例えば、ドがバスドラム、レ
がスネア、ミがハイハットに割り当てられている。図4
のイントネーションのレベル2では、ドラム1のトラッ
クに26H、28Hが記録されている。これは音符デー
タ中の26H(クローズハイハット)を28H(オープ
ンハイハット)に変換することを示している。従って、
同一の音符データを使用していても、イントネーション
のレベルに応じて異なる楽器のドラム音を発生させるこ
とができる。
For each track of drums 1 to 3, 2
Byte's instrument conversion information is given. Generally, musical scale data (key data) is assigned to musical note information on a drum track as musical instrument information. For example, C is assigned to the bass drum, D to the snare, and E to the hi-hat. Figure 4
At intonation level 2, 26H and 28H are recorded on the drum 1 track. This indicates that 26H (closed hi-hat) in the note data is converted to 28H (open hi-hat). Therefore,
Even if the same note data is used, drum sounds of different instruments can be generated depending on the intonation level.

【0022】3トラックのドラムチャンネルには、それ
ぞれ別の楽器を割り当てることができる。そしてトラッ
クごとに楽器を変更することができるので、レベルに応
じたイントネーションパターンの変化には多くの自由度
がある。また各ドラムトラックは共通の音符データをア
クセスすることができるので、ドラムチャンネルを増や
しても、音符データの量が大幅に増大することはない。
Different musical instruments can be assigned to each of the three drum channels. And since you can change the instrument for each track, you have a lot of freedom in changing intonation patterns depending on the level. Furthermore, since each drum track can access common note data, even if the number of drum channels is increased, the amount of note data will not increase significantly.

【0023】イントネーションパターンデータの演奏パ
ターン部は、4小節の音符指示情報から成っている。こ
の音符指示情報は実際には音符データの特定位置を示す
アドレスデータである。1小節は4拍から成り、例えば
1.0 、1.2 は1小節の1拍目、3拍目をそれぞ
れ示している。例えば、イントネーションのレベル1の
コードトラックでは音符データのアドレス0000Hか
ら第1小節4拍の音符の再生が進行し、第2小節ではア
ドレス0001Hから音符の再生が進行する。第4小節
の最後にはリピート記号REPが記録され、この記号ま
で再生が進行すると、先頭アドレスに戻るようになって
いる。
The performance pattern section of the intonation pattern data consists of four measures of note instruction information. This note instruction information is actually address data indicating a specific position of note data. One measure consists of four beats; for example, 1.0 and 1.2 indicate the first and third beats of one measure, respectively. For example, in a chord track with intonation level 1, the playback of notes of four beats in the first bar starts from address 0000H of the note data, and the playback of notes starts from address 0001H in the second measure. A repeat symbol REP is recorded at the end of the fourth measure, and when the reproduction progresses to this symbol, the playback returns to the beginning address.

【0024】演奏パターン部の音符指示情報を変更する
ことにより、演奏パターンを容易に変更することができ
る。例えば、イントネーションのレベル1では、ベース
トラックの指示情報は0100H、0101Hが与えら
れているが、レベル2では0102H、0103Hに変
更されている。従って、レベル2では、ドラム1の楽器
が変化するとともに、ベースラインの演奏パターンが変
化する。このように演奏パターン部の一部を変更するこ
とによって、容易にイントネーションのレベルを異なら
せることができる。
By changing the note instruction information in the performance pattern section, the performance pattern can be easily changed. For example, at intonation level 1, the bass track instruction information is given as 0100H and 0101H, but at level 2, it is changed to 0102H and 0103H. Therefore, at level 2, the instrument of drum 1 changes, and the performance pattern of the bass line changes. By changing part of the performance pattern section in this way, the intonation level can be easily varied.

【0025】図5は、イントネーションパターンデータ
又はフレーズデータを介してアクセスされる音符データ
44の一部を示している。音符データの一音は、キーナ
ンバK、ステップタイムS、ゲートタイムG、ベロシテ
ィーVの4バイトから成っている。キーナンバKは音階
を示し、ステップタイムSは発音のタイミングを示し、
ゲートタイムGは発音の持続時間を示し、ベロシティー
Vは発音の音量(押鍵圧)を示している。この他に、図
示しないが、音色データや音符パターンの繰り返し記号
などが音符データに含まれる。
FIG. 5 shows a portion of note data 44 accessed via intonation pattern data or phrase data. One note of musical note data consists of 4 bytes: key number K, step time S, gate time G, and velocity V. The key number K indicates the scale, the step time S indicates the timing of pronunciation,
The gate time G indicates the duration of the sound, and the velocity V indicates the volume of the sound (key pressing pressure). In addition, although not shown, the note data includes timbre data, repetition symbols of note patterns, and the like.

【0026】音符データは、イントネーションパターン
データの演奏パターン部やフレーズデータによって指示
されるアドレスから4バイトずつ順番に自動演奏データ
メモリ36から読み出される。図2の楽音制御部35は
、イントネーションパターンデータに基づいてアドレス
制御を行い、読み出した音符データの音量、キーナンバ
をイントネーションパターンデータの音量、楽器の指示
データによって修飾し、また音色を変更して楽音発生部
37に送出する。
The musical note data is sequentially read out from the automatic performance data memory 36 in 4-byte units starting from the address specified by the performance pattern section of the intonation pattern data or the phrase data. The musical tone control unit 35 in FIG. 2 performs address control based on the intonation pattern data, modifies the volume and key number of the read note data with the volume of the intonation pattern data and instruction data of the instrument, and also changes the tone color to produce musical sounds. It is sent to the generating section 37.

【0027】図6〜図21は、パターンデータもしくは
フレーズデータによる自動演奏の制御を示すフローチャ
ートである。まず図6のステップ50で初期化を行い、
ステップ51で鍵盤11の操作に対する走査検出を行う
。鍵オンのイベントであれば、ステップ52からオンイ
ベント処理のステップ53に進み、鍵オフのイベントで
あれば、ステップ54からオフイベント処理のステップ
55に進む。鍵イベントでなければ、ステップ56でパ
ネルの操作検出処理を行い、次にイントネーションダイ
ヤルの処理をステップ57で行い、更にステップ58で
楽音の再生処理を行って、ステップ51にループする。
FIGS. 6 to 21 are flowcharts showing automatic performance control using pattern data or phrase data. First, initialization is performed in step 50 of FIG.
In step 51, scanning detection for the operation of the keyboard 11 is performed. If it is a key-on event, the process proceeds from step 52 to step 53 for on-event processing, and if it is a key-off event, the process proceeds from step 54 to step 55 for off-event processing. If it is not a key event, panel operation detection processing is performed in step 56, then intonation dial processing is performed in step 57, and musical tone reproduction processing is performed in step 58, and the process loops to step 51.

【0028】図7は、鍵のオンイベント、オフイベント
の処理を示す。オンイベントの場合には、まずステップ
59で、フレーズ演奏モードか否かを調べ、否であれば
ステップ60で発音処理を行う。またフレー演奏モード
であれば、ステップ61でフレーズナンバ(キーナンバ
)をセットする。そしてステップ62でフレーズ演奏を
開始し、ステップ63でカウンタメロディフラグをクリ
アする。
FIG. 7 shows the processing of key on and off events. In the case of an on-event, it is first checked in step 59 whether or not the phrase performance mode is in effect, and if not, a sound generation process is performed in step 60. If the phrase performance mode is selected, a phrase number (key number) is set in step 61. Then, in step 62, phrase performance is started, and in step 63, the counter melody flag is cleared.

【0029】図7のオフイベントの処理では、まずステ
ップ64でフレーズ演奏モードか否かを調べ、否であれ
ばステップ65で消音処理を行う。またフレーズ演奏モ
ードであれば、ステップ66でフレーズ演奏を停止する
。そして次のステップ67、68、69でリズム動作中
かつ、自動伴奏動作中かつ、イントネーション値が4以
上であることを調べる。これらの条件が成り立つ場合に
は、ステップ70で17番のフレーズナンバをセットし
、ステップ71でカウンタメロディフラグをセットする
。つまりアドリブフレーズの演奏音が無くなったら、1
7番のフレーズ(カウンタメロディ)で自動演奏を開始
する。なおイントネーション値が4以下では、演奏の盛
り上がり度がそれほど高くないので、カウンタメロディ
演奏は行わない。
In the off-event processing shown in FIG. 7, it is first checked in step 64 whether or not the phrase performance mode is in effect, and if not, a mute process is performed in step 65. If it is in the phrase performance mode, the phrase performance is stopped in step 66. Then, in the next steps 67, 68, and 69, it is checked that the rhythm action is in progress, the automatic accompaniment action is in progress, and the intonation value is 4 or more. If these conditions are met, a phrase number 17 is set in step 70, and a counter melody flag is set in step 71. In other words, if the performance sound of the improvised phrase disappears, 1
Automatic performance starts with phrase number 7 (counter melody). Note that when the intonation value is 4 or less, the excitement of the performance is not so high, so the counter melody is not played.

【0030】図8は、パネル処理を示す。まずステップ
80でスキャン処理を行い、オンイベントの場合には、
ステップ81からステップ82、84、86のスイッチ
検出に進む。走査パネル12の選択スイッチ12aの自
動演奏スイッチをオンにしたときには、ステップ83の
自動演奏モードの処理を行う。リズムスタート/ストッ
プスイッチをオンにしたときには、ステップ85のリズ
ムモードの処理を行う。またフレーズ演奏スイッチをオ
ンにした時には、ステップ87のフレーズモードの処理
を行う。
FIG. 8 shows panel processing. First, scan processing is performed in step 80, and in the case of an on event,
The process proceeds from step 81 to switch detection in steps 82, 84, and 86. When the automatic performance switch of the selection switch 12a of the scanning panel 12 is turned on, the automatic performance mode processing of step 83 is performed. When the rhythm start/stop switch is turned on, the rhythm mode processing of step 85 is performed. When the phrase performance switch is turned on, the phrase mode processing of step 87 is performed.

【0031】図9は、自動演奏モードの処理を示す。こ
のモード処理では、まずステップ88でオート(自動演
奏)フラグのオンを調べ、オフであればフラグをセット
し、オンであればフラグをクリアする。
FIG. 9 shows processing in automatic performance mode. In this mode processing, first, in step 88, it is checked whether the auto (automatic performance) flag is on, and if it is off, the flag is set, and if it is on, it is cleared.

【0032】図10は、リズムモードの処理を示す。こ
のモード処理では、まずステップ91でリズムフラグの
オンを調べ、オフであれば、ステップ92〜96を経て
ステップ97でリズムスタートの処理を行う。ステップ
92〜96は、所定条件の時にカウンタメロディのフラ
グを立てる処理であって、フレーズ演奏フラグがオフで
あるとき、オート(自動伴奏)フラグがオンで、イント
ネーション値が4以上であれば、カウンタメロディのフ
レーズ番号17をセットし、カウンタメロディフラグを
セットする。またステップ91で、リズムフラグがオン
であれば、ステップ98でリズムストップの処理を行う
FIG. 10 shows the rhythm mode processing. In this mode processing, first in step 91 it is checked whether the rhythm flag is on, and if it is off, the rhythm start processing is performed in step 97 via steps 92 to 96. Steps 92 to 96 are processes for setting a counter melody flag when predetermined conditions are met. When the phrase performance flag is off, the auto (automatic accompaniment) flag is on, and the intonation value is 4 or more, the counter melody flag is set. Set the melody phrase number 17 and set the counter melody flag. Further, if the rhythm flag is on in step 91, rhythm stop processing is performed in step 98.

【0033】図11は、フレーズモードの処理を示す。 このモード処理では、まずステップ99でフレーズフラ
グのオンを調べ、オフであれば、ステップ100でフレ
ーズフラグをセットし、ステップ101〜105で所定
条件の時にカウンタメロディのフラグを立てる。即ち、
リズムフラグがオンで、オート(自動伴奏)フラグがオ
ンで、イントネーション値が4以上であれば、カウンタ
メロディのフレーズ番号17をセットし、カウンタメロ
ディフラグをセットする。またステップ99で、フレー
ズフラグがオンであれば、ステップ106でフレーズフ
ラグクリアの処理を行う。
FIG. 11 shows phrase mode processing. In this mode processing, first, in step 99, it is checked whether the phrase flag is on, and if it is off, the phrase flag is set in step 100, and in steps 101 to 105, a counter melody flag is set when a predetermined condition is met. That is,
If the rhythm flag is on, the auto (automatic accompaniment) flag is on, and the intonation value is 4 or more, counter melody phrase number 17 is set and the counter melody flag is set. Further, if the phrase flag is on in step 99, processing to clear the phrase flag is performed in step 106.

【0034】図12はダイヤルカウント処理を示す。こ
の処理では、ダイヤル10の操作に応答してイントネー
ション値を変更する。まずステップ110、111でパ
ルス発生器14の出力パルスのカウント値が7以上か、
−7以下かを判断し、7以上であればイントネーション
値を+1し、−7以下であれば−1する(ステップ11
5、112)。なおダイヤル10の約1/3回転がカウ
ント値7に相当し、右回しのときカウント値が増加し、
左回しのときカウント値が減少する。
FIG. 12 shows dial count processing. In this process, the intonation value is changed in response to the operation of the dial 10. First, in steps 110 and 111, whether the count value of the output pulses of the pulse generator 14 is 7 or more,
It is determined whether the intonation value is -7 or less, and if it is 7 or more, the intonation value is +1, and if it is -7 or less, it is -1 (step 11).
5, 112). Approximately 1/3 rotation of the dial 10 corresponds to a count value of 7, and when turned clockwise, the count value increases.
The count value decreases when turning counterclockwise.

【0035】イントネーションー値を+1したときには
、ステップ116〜119で所定条件の時にカウンタメ
ロディのフラグを立てる。即ち、リズムフラグがオンで
、オート(自動伴奏)フラグがオンで、イントネーショ
ン値が4以上であれば、カウンタメロディのフレーズ番
号17をセットし、カウンタメロディフラグをセットす
る。またイントネーションー値を−1したときには、ス
テップ113でイントネーション値が4以下かどうかを
調べ、4以下であればステップ114でカウンタメロデ
ィフラグをクリアする。
When the intonation value is increased by 1, a counter melody flag is set in steps 116 to 119 when a predetermined condition is met. That is, if the rhythm flag is on, the auto (automatic accompaniment) flag is on, and the intonation value is 4 or more, counter melody phrase number 17 is set and the counter melody flag is set. When the intonation value is decreased by 1, it is checked in step 113 whether the intonation value is 4 or less, and if it is 4 or less, the counter melody flag is cleared in step 114.

【0036】図13は、図10のステップ97のリズム
スタートのルーチンを示す。まずステップ120でカウ
ンタメロディフラグのオンを調べ、オンであればステッ
プ121でカウンタメロディをスタートする。更にステ
ップ122でイントネーション値が3以下であるかを調
べ、3以下であれば、ステップ123でカウンタメロデ
ィをストップする。次にステップ124でリズム番号に
対応したイントネーションパターンデータの先頭アドレ
スをセットし、ステップ125で現在のイントネーショ
ン値によって指示されているイントネーションパターン
データの先頭アドレスをセットする。更にステップ12
6〜130で、コード、ベース、ドラム1〜3の5トラ
ックについてイントネーションパターンデータの読出し
のアドレスをセットし、各データをバッファに読み出す
。そしてステップ131でリズムオンフラグをセットす
る。
FIG. 13 shows the rhythm start routine of step 97 in FIG. First, in step 120, it is checked whether the counter melody flag is on, and if it is on, the counter melody is started in step 121. Furthermore, in step 122 it is checked whether the intonation value is 3 or less, and if it is 3 or less, the counter melody is stopped in step 123. Next, in step 124, the start address of the intonation pattern data corresponding to the rhythm number is set, and in step 125, the start address of the intonation pattern data indicated by the current intonation value is set. Further step 12
At steps 6 to 130, addresses for reading intonation pattern data are set for the five tracks of chord, bass, and drums 1 to 3, and each data is read into the buffer. Then, in step 131, a rhythm-on flag is set.

【0037】図14は、図13のコードアドレスセット
のルーチンの詳細を示す。ここでは先ずステップ140
でイントネーション値をチェックし、次ぎにステップ1
41でイントネーションパターンデータの音量差分デー
タをベロシティ加算値としてセットする。次にステップ
142で音色番号をセットし、ステップ143で演奏パ
ターンデータの先頭アドレスをセットする。次にステッ
プ144でROM20から自動演奏データの上記先頭ア
ドレスに対応した1音の音符データを読み出し、ステッ
プ145で最初のステップタイムデータをバッファにセ
ットする。そしてステップ146でコードの音符データ
の時間軸カウンタ値をクリアして、戻る。図13の他の
チャンネルのステップ127〜130も同様にして行わ
れる。
FIG. 14 shows details of the code address set routine of FIG. Here, first step 140
Check the intonation value with , then step 1
At step 41, the volume difference data of the intonation pattern data is set as a velocity addition value. Next, in step 142, the tone color number is set, and in step 143, the start address of the performance pattern data is set. Next, in step 144, the note data of one note corresponding to the above-mentioned start address of the automatic performance data is read from the ROM 20, and in step 145, the first step time data is set in the buffer. Then, in step 146, the time axis counter value of the note data of the code is cleared, and the process returns. Steps 127 to 130 for other channels in FIG. 13 are performed in the same manner.

【0038】図15は、アドリブフレーズ演奏又はカウ
ンタメロディ演奏のスタート時の処理を示す。まずステ
ップ150でバッファをクリアして、ステップ151で
音色変更があるか否かを調べる。変更がなければ、フレ
ーズナンバ(鍵番号又はカウンタメロディに割り当てら
れた番号)をステップ152で取り込み、ステップ15
3で音色ナンバをセットし、ステップ154で発音モー
ドをセットする。そしてステップ155で音源回路の音
源を変更する処理を行い、ステップ156でフレーズデ
ータのトップアドレスをセットする。その後、ステップ
157でROMデータを読み出し、ステップ158で第
1ステップタイムデータをセットし、カウンタメロディ
(フレーズ演奏)のフラグをセットし、ステップ160
でカウンタメロディ(フレーズ演奏)の時間軸カウンタ
をクリアする。
FIG. 15 shows processing at the start of improvised phrase performance or counter melody performance. First, in step 150, the buffer is cleared, and in step 151, it is checked whether there is a timbre change. If there is no change, the phrase number (key number or number assigned to the counter melody) is imported in step 152, and step 15
Step 3 sets the tone number, and step 154 sets the sound generation mode. Then, in step 155, processing is performed to change the sound source of the sound source circuit, and in step 156, the top address of the phrase data is set. After that, the ROM data is read in step 157, the first step time data is set in step 158, the counter melody (phrase performance) flag is set, and step 160
Clear the time axis counter of the counter melody (phrase performance).

【0039】次に図16は、自動伴奏の音符再生処理の
ルーチンを示す。このルーチンでは、ステップ170で
カウンタメロディオンフラグを調べ、オンであれば、ス
テップ171においてフレーズ又はカウンタメロディの
再生を行う。カウンタメロディオンフラグがオフで、次
のステップ172でリズムオンであれば、伴奏音の再生
を実行する。即ち、ステップ170で時間軸カウンタの
カウント値がバッファ内のステップタイムと一致したか
否かを見て、一致しなければメインルーチンに戻る。
Next, FIG. 16 shows a routine for automatic accompaniment note reproduction processing. In this routine, the counter melody on flag is checked in step 170, and if it is on, the phrase or counter melody is played back in step 171. If the counter melody on flag is off and the rhythm is on in the next step 172, the accompaniment sound is played back. That is, in step 170, it is checked whether the count value of the time axis counter matches the step time in the buffer, and if they do not match, the process returns to the main routine.

【0040】ステップ172で、時間軸カウンタのカウ
ント値がステップタイムと一致したときには、読み出し
アドレスをセットして(ステップ174)、ROM20
から4バイト分の音符データを読み出す。次に、ステッ
プ170で読み出した音符データがリピートマークであ
るか否かをチェックし、リピートマークである場合には
、ステップ177でリピート処理を行って、ステップ1
73の前に戻る。ステップ176で通常の音符データで
あることが判別された場合には、図17のステップ17
8に進み、発音モードをセットする。
In step 172, when the count value of the time axis counter matches the step time, a read address is set (step 174), and the ROM 20
Reads 4 bytes of note data from. Next, it is checked whether the read note data is a repeat mark in step 170, and if it is a repeat mark, repeat processing is performed in step 177, and step 1
Return to before 73. If it is determined in step 176 that the note data is normal note data, step 17 in FIG.
Proceed to step 8 and set the sound production mode.

【0041】次に、ステップ179で自動伴奏モードで
あるか否かをチェックし、自動伴奏モードであれば、ス
テップ180、181でキー番号、ベロシティ値、ゲー
トタイムをそれぞれセットし、ステップ182で対応す
る音符の発音処理を行う。発音処理が終了すると、次に
、ステップ183で読み出しアドレスを4バイト進め、
ステップ184で次に発音すべき音符データをROM2
0から読み出す。そして次のステップタイムをバッファ
にセットして、図16の自動演奏ルーチンのステップ1
73に戻る。以下これを繰り返して自動伴奏の音符の発
音を順次行う。
Next, in step 179, it is checked whether or not the mode is automatic accompaniment mode. If it is automatic accompaniment mode, the key number, velocity value, and gate time are respectively set in steps 180 and 181, and the corresponding response is performed in step 182. Performs pronunciation processing for the notes to be played. When the sound generation process is completed, the read address is advanced by 4 bytes in step 183.
At step 184, note data to be produced next is stored in ROM2.
Read from 0. Then, set the next step time in the buffer, and step 1 of the automatic performance routine in Figure 16.
Return to 73. Thereafter, this process is repeated to sequentially pronounce the notes of the automatic accompaniment.

【0042】図16のステップ176において、音符デ
ータの終端のリピートマークを検出した場合には、ステ
ップ177に進み、図18に示すリピート処理を行う。 このルーチンでは、まずステップ190でカウンタメロ
ディフラグ(フレーズ再生)を調べ、オンであればステ
ップ191でカウンタメロディスタートの処理を行う。 次にステップ192で時間軸のコードカウンタをクリア
し、次にステップ193でイントネーションパターンデ
ータの読み出しアドレスを1つ進める。そして現在の自
動演奏パターンデータが図4に示したリピートマークR
EP(FFH)であるか否かをステップ194で調べ、
リピートマークREPでなければ、図14のステップ1
43に戻り、次の第2小節の自動演奏パターンの先頭ア
ドレスをセットし、音符データの読出を続行する。
In step 176 of FIG. 16, if a repeat mark at the end of the note data is detected, the process proceeds to step 177, and repeat processing shown in FIG. 18 is performed. In this routine, first, the counter melody flag (phrase playback) is checked in step 190, and if it is on, counter melody start processing is performed in step 191. Next, in step 192, the time axis code counter is cleared, and then in step 193, the intonation pattern data read address is incremented by one. The current automatic performance pattern data is the repeat mark R shown in Figure 4.
It is checked in step 194 whether it is EP (FFH),
If it is not a repeat mark REP, step 1 in Figure 14
Returning to step 43, the start address of the automatic performance pattern for the next second bar is set, and reading of note data is continued.

【0043】図18のステップ194においてリピート
マークREP(FFH)を検出した場合には、ステップ
195でイントネーションパターンデータの読出アドレ
スから16を減算して、読み出し位置を第1小節の1拍
目に戻し、図14のステップ143から音符データの読
出を続行する。
If the repeat mark REP (FFH) is detected in step 194 of FIG. 18, 16 is subtracted from the intonation pattern data read address in step 195, and the read position is returned to the 1st beat of the 1st measure. , continues reading out the note data from step 143 in FIG.

【0044】図19〜21は、フレーズ再生のルーチン
であるが、各ステップ200〜212は図16、17の
ステップ170〜185と同じである。リピート処理は
ステップ220、221でカウンタメロディのフラグが
オンになっているときに、カウンタメロディを小節の先
頭でスタートさせることにより行う。
FIGS. 19 to 21 show phrase playback routines, and steps 200 to 212 are the same as steps 170 to 185 in FIGS. 16 and 17. The repeat process is performed by starting the counter melody at the beginning of a measure when the counter melody flag is turned on in steps 220 and 221.

【0045】[0045]

【発明の効果】本発明の自動演奏装置は、複数の互いに
異なる短フレーズの演奏パターンを記憶した演奏パター
ン記憶手段を設け、上記鍵の操作に対応して鍵に割り当
てられた上記短フレーズの演奏パターンを選択すると共
に、鍵操作がないとき上記演奏パターンのいずれか一つ
を選択し、選択した演奏パターンに基づいて、対応の音
符データ列を読み出して楽音を発生するようにしている
。従って、鍵の操作に対応して上記短フレーズの演奏パ
ターンを呼び出すアドリブ演奏をしているときに、鍵操
作の合間が所定フレーズの自動演奏で埋められるので、
演奏の盛り上がりが得られる。この自動演奏のために専
用トラックを増設する必要はないので、コスト高になら
ずに高機能が得られる。
Effects of the Invention The automatic performance device of the present invention is provided with a performance pattern storage means that stores performance patterns of a plurality of mutually different short phrases, and performs the performance of the short phrase assigned to a key in response to the operation of the key. In addition to selecting a pattern, when there is no key operation, one of the performance patterns is selected, and based on the selected performance pattern, a corresponding note data string is read out to generate a musical tone. Therefore, when performing an improvised performance in which the performance pattern of the above-mentioned short phrase is called in response to a key operation, the interval between key operations can be filled with the automatic performance of the predetermined phrase.
This will add excitement to your performance. Since there is no need to add a dedicated track for this automatic performance, high functionality can be obtained without increasing costs.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の自動演奏装置の一実施例を示す電子楽
器のブロック図である。
FIG. 1 is a block diagram of an electronic musical instrument showing an embodiment of an automatic performance device of the present invention.

【図2】本発明の自動演奏装置の要素的特徴を示すブロ
ック図である。
FIG. 2 is a block diagram showing the essential features of the automatic performance device of the present invention.

【図3】自動演奏データの構成を示す図である。FIG. 3 is a diagram showing the structure of automatic performance data.

【図4】イントネーションパターンデータの構成を示す
図である。
FIG. 4 is a diagram showing the structure of intonation pattern data.

【図5】自動演奏パターンデータによって読み出される
音符データの構造を示す図である。
FIG. 5 is a diagram showing the structure of note data read out based on automatic performance pattern data.

【図6】自動演奏の制御を示すフローチャートである。FIG. 6 is a flowchart showing control of automatic performance.

【図7】自動演奏の制御を示すフローチャートである。FIG. 7 is a flowchart showing control of automatic performance.

【図8】自動演奏の制御を示すフローチャートである。FIG. 8 is a flowchart showing control of automatic performance.

【図9】自動演奏の制御を示すフローチャートである。FIG. 9 is a flowchart showing control of automatic performance.

【図10】自動演奏の制御を示すフローチャートである
FIG. 10 is a flowchart showing control of automatic performance.

【図11】自動演奏の制御を示すフローチャートである
FIG. 11 is a flowchart showing control of automatic performance.

【図12】自動演奏の制御を示すフローチャートである
FIG. 12 is a flowchart showing control of automatic performance.

【図13】自動演奏の制御を示すフローチャートである
FIG. 13 is a flowchart showing control of automatic performance.

【図14】自動演奏の制御を示すフローチャートである
FIG. 14 is a flowchart showing control of automatic performance.

【図15】自動演奏の制御を示すフローチャートである
FIG. 15 is a flowchart showing control of automatic performance.

【図16】自動演奏の制御を示すフローチャートである
FIG. 16 is a flowchart showing control of automatic performance.

【図17】自動演奏の制御を示すフローチャートである
FIG. 17 is a flowchart showing control of automatic performance.

【図18】自動演奏の制御を示すフローチャートである
FIG. 18 is a flowchart showing control of automatic performance.

【図19】自動演奏の制御を示すフローチャートである
FIG. 19 is a flowchart showing control of automatic performance.

【図20】自動演奏の制御を示すフローチャートである
FIG. 20 is a flowchart showing control of automatic performance.

【図21】自動演奏の制御を示すフローチャートである
FIG. 21 is a flowchart showing control of automatic performance.

【符号の説明】[Explanation of symbols]

10  ダイヤル 11  鍵盤 12  操作パネル 13  表示装置 14  パルス発生器 15  キースイッチ回路 16  パネルスイッチ回路 17  表示ドライブ回路 18  バス 19  RAM 20  ROM 21  CPU 22  楽音発生回路 23  D/A変換器 24  アンプ 25  スピーカ 30  リズム選択部 31  イントネーション操作部 32  楽音制御部 33  フレーズデータメモリ 34  イントネーションパターンメモリ36  波形
ROM 37  楽音発生部
10 Dial 11 Keyboard 12 Operation panel 13 Display device 14 Pulse generator 15 Key switch circuit 16 Panel switch circuit 17 Display drive circuit 18 Bus 19 RAM 20 ROM 21 CPU 22 Musical tone generation circuit 23 D/A converter 24 Amplifier 25 Speaker 30 Rhythm Selection section 31 Intonation operation section 32 Musical tone control section 33 Phrase data memory 34 Intonation pattern memory 36 Waveform ROM 37 Musical tone generation section

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】  自動演奏の音符データ列を記憶した音
符データ記憶手段と、上記音符データ記憶手段から読み
出された音符データ列に基づいて楽音を発生する楽音発
生手段と、複数の互いに異なる短フレーズの演奏パター
ンを記憶した演奏パターン記憶手段と、鍵の操作に対応
して鍵に割当てられた上記短フレーズの演奏パターンを
選択すると共に、鍵操作がないとき上記演奏パターンの
いずれか一つを選択し、選択した演奏パターンに基づい
て、上記音符データ記憶手段から対応の音符データ列を
読み出して上記楽音発生手段に導出する楽音制御手段と
を備えることを特徴とする自動演奏装置。
1. A musical note data storage means that stores a musical note data string for automatic performance; a musical sound generating means that generates musical tones based on the musical note data string read from the musical note data storage means; A performance pattern storage means that stores a performance pattern of a phrase, and selects a performance pattern of the short phrase assigned to a key in response to a key operation, and selects one of the performance patterns when there is no key operation. 1. An automatic performance apparatus comprising: musical tone control means for selecting a musical note data string and reading out a corresponding musical note data string from the musical note data storage means based on the selected musical performance pattern and outputting the same to the musical tone generating means.
【請求項2】  演奏の盛り上がり度に対応させてイン
トネーション値を増減するイントネーション値可変手段
を備え、上記楽音制御手段は、イントネーション値が所
定値を越え且つ鍵操作がないとき上記演奏パターンの一
つを選択することを特徴とする請求項1の自動演奏装置
2. An intonation value variable means for increasing or decreasing an intonation value in accordance with the excitement level of the performance, the musical tone control means controlling one of the performance patterns when the intonation value exceeds a predetermined value and there is no key operation. 2. The automatic performance device according to claim 1, wherein the automatic performance device selects the following.
【請求項3】  演奏の盛り上がり度に対応した複数レ
ベルのイントネーションパターンを記憶したイントネー
ションパターン記憶手段を備え、上記楽音制御手段は、
イントネーション値に対応するイントネーションパター
ンデータに基づいて、上記音符データ記憶手段から読み
出される音符データ列を制御して上記楽音発生手段に導
出する様に構成され、互いに異なるレベルの上記イント
ネーションパターンデータは、上記音符データ記憶手段
の異なる読み出し位置を指定する指示情報、読み出され
た音符データに対して与える異なる音量情報、異なる音
色情報、異なる楽器情報のいずれか1つ又は複数を含む
ことを特徴とする請求項1の自動演奏装置。
3. The musical tone control means comprises intonation pattern storage means storing intonation patterns of a plurality of levels corresponding to the excitement level of the performance, and the musical tone control means comprises:
Based on intonation pattern data corresponding to intonation values, the note data string read from the note data storage means is controlled and output to the musical sound generation means, and the intonation pattern data at different levels are A claim characterized in that the claim includes any one or more of instruction information specifying a different reading position of the musical note data storage means, different volume information, different tone color information, and different musical instrument information given to the read musical note data. Item 1 Automatic performance device.
【請求項4】  上記複数の互いに異なる短フレーズの
演奏パターンが、リズムの種類ごとに記憶されているこ
とを特徴とする請求項1の自動演奏装置。
4. The automatic performance device according to claim 1, wherein said plurality of mutually different short phrase performance patterns are stored for each type of rhythm.
【請求項5】  上記鍵の操作に対応して上記短フレー
ズの演奏パターンの一つを選択するアドリブモードをオ
ン/オフする操作手段を備え、アドリブモードをオフに
したときには、イントネーション値が所定値を越えたと
きに上記演奏パターンの一つを選択することを特徴とす
る請求項2の自動演奏装置。
5. An operation means for turning on/off an ad lib mode for selecting one of the performance patterns of the short phrase in response to an operation of the key, wherein when the ad lib mode is turned off, the intonation value is set to a predetermined value. 3. The automatic performance device according to claim 2, wherein one of the performance patterns is selected when the number of performance patterns exceeds .
【請求項6】  上記イントネーション値可変手段がダ
イヤル状であることを特徴とする請求項2の自動演奏装
置。
6. The automatic performance device according to claim 2, wherein said intonation value variable means is dial-shaped.
【請求項7】  上記イントネーションパターンデータ
は、リズムの種類ごとに記憶されていることを特徴とす
る請求項3の自動演奏装置。
7. The automatic performance apparatus according to claim 3, wherein the intonation pattern data is stored for each type of rhythm.
【請求項8】  リズムごとにイントネーション値のプ
リセット値を記憶するプリセット値記憶手段を備えてい
ることを特徴とする請求項1の自動演奏装置。
8. The automatic performance device according to claim 1, further comprising preset value storage means for storing preset intonation values for each rhythm.
【請求項9】  上記鍵操作がないときに選択される上
記演奏パターンが鍵に割当てられていることを特徴とす
る請求項1の自動演奏装置。
9. The automatic performance device according to claim 1, wherein said performance pattern selected when said key is not operated is assigned to a key.
【請求項10】  上記鍵操作がないときに選択される
上記演奏パターンが鍵に割当てられていないことを特徴
とする請求項1の自動演奏装置。
10. The automatic performance device according to claim 1, wherein the performance pattern selected when the key is not operated is not assigned to a key.
JP3058191A 1991-02-28 1991-02-28 Automatic performance device Expired - Fee Related JP2660457B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3058191A JP2660457B2 (en) 1991-02-28 1991-02-28 Automatic performance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3058191A JP2660457B2 (en) 1991-02-28 1991-02-28 Automatic performance device

Publications (2)

Publication Number Publication Date
JPH04274299A true JPH04274299A (en) 1992-09-30
JP2660457B2 JP2660457B2 (en) 1997-10-08

Family

ID=13077131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3058191A Expired - Fee Related JP2660457B2 (en) 1991-02-28 1991-02-28 Automatic performance device

Country Status (1)

Country Link
JP (1) JP2660457B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11161271A (en) * 1997-09-24 1999-06-18 Yamaha Corp Musical sound producing method, musical sound producing device and medium with program recorded

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11161271A (en) * 1997-09-24 1999-06-18 Yamaha Corp Musical sound producing method, musical sound producing device and medium with program recorded

Also Published As

Publication number Publication date
JP2660457B2 (en) 1997-10-08

Similar Documents

Publication Publication Date Title
JP2800465B2 (en) Electronic musical instrument
JP2860510B2 (en) Automatic performance device
JP2756877B2 (en) Phrase playing device
JPH09179559A (en) Device and method for automatic accompaniment
JPH0631980B2 (en) Automatic musical instrument accompaniment device
JPH02131292A (en) Automatic playing device
JPH06332449A (en) Singing voice reproducing device for electronic musical instrument
JP2660456B2 (en) Automatic performance device
JP2587737B2 (en) Automatic accompaniment device
JP2660462B2 (en) Automatic performance device
JP2660457B2 (en) Automatic performance device
JPS6335038B2 (en)
US5418324A (en) Auto-play apparatus for generation of accompaniment tones with a controllable tone-up level
JPH0822282A (en) Automatic accompaniment device for guitar
JPH0527762A (en) Electronic musical instrument
JP2636393B2 (en) Automatic performance device
JP2623175B2 (en) Automatic performance device
JP2660471B2 (en) Automatic performance device
JPH058638Y2 (en)
JP2513014B2 (en) Electronic musical instrument automatic performance device
JPH0734158B2 (en) Automatic playing device
JPH04257895A (en) Apparatus and method for code-step recording and automatic accompaniment system
JPH04243295A (en) Electronic musical instrument
JPH05108074A (en) Automatic accompaniment device of electronic musical instrument
JPH0561469A (en) Automatic musical performance device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees