JP2654727C - - Google Patents
Info
- Publication number
- JP2654727C JP2654727C JP2654727C JP 2654727 C JP2654727 C JP 2654727C JP 2654727 C JP2654727 C JP 2654727C
- Authority
- JP
- Japan
- Prior art keywords
- data
- key
- melody
- musical
- accompaniment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000001514 detection method Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000033764 rhythmic process Effects 0.000 description 3
- 230000000994 depressed Effects 0.000 description 2
- 230000001360 synchronised Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000000051 modifying Effects 0.000 description 1
- 230000002250 progressing Effects 0.000 description 1
- 230000001020 rhythmical Effects 0.000 description 1
- 230000002194 synthesizing Effects 0.000 description 1
Description
【発明の詳細な説明】
【0001】
【産業上の利用分野】
本発明は、プログラムされた自動演奏の音譜データにより自動演奏を行う電子
楽器の自動演奏装置に関する。
【0002】
【従来の技術】
一般に、電子キーボード(電子ピアノなど)は、リズムの自動伴奏、コードや
ベースの自動伴奏などの自動伴奏機能を備えている。また複数の鍵にの各々に1
小節程度の異なるフレーズを割り当てて、一本指の鍵操作によってこれらのフレ
ーズを選択的に呼び出して、一連のフレーズの結合によるアドリブ的な演奏効果
を得る機能(所謂ワンフィンガーアドリブプレイ)を備えた電子楽器も知られて
いる。また上述のアドリブフレーズ演奏と並行して自動伴奏音を発音する機能を
持った電子楽器も知られている。
【0003】
【発明が解決しようとする課題】
従来の自動演奏装置における自動伴奏は、鍵操作とは無関係に所定のテンポで
進行し、鍵操作が行われた瞬間にアドリブフレーズ演奏を行うためのフレーズデ
ータを読み取るようにしている。このため、上記所定のテンポで進行している自
動伴奏に対してアドリブフレーズ演奏を行う場合には、上記鍵操作を行うタイミ
ングを上記自動伴奏のタイミングに正確に合わせることが必要であった。しかし
なから、初心者、特に幼児はリズム感が無いので、上記自動伴奏に対してアドリ
ブフレーズ演奏の鍵操作のタイミングがずれることがある。このため、自動伴奏
とずれた旋律音が発音されてしまう問題があった。
【0004】
本発明は、この問題に鑑み、初心者でも自動伴奏のタイミングに合った旋律発
音が得られるようにすることを目的とする。
【0005】
【課題を解決するための手段】
本発明の自動演奏装置は、複数のキーをスキャンして、キーオンまたはキーオ
フを検出する鍵情報検出手段と、旋律データと伴奏データとからなる自動演奏の
音譜データ列を記憶した音譜データ記憶手段と、上記音譜データ記憶手段から上
記旋律データおよび上記伴奏データを所定のテンポに応じて順次並列的に同期し
て読み出す音譜データ読み出し手段と、上記音譜データ読み出し手段によって読
み出された伴奏データを定常的に楽音発生手段に供給する伴奏データ供給手段と
、上記音譜データ読み出し手段によって読み出された旋律データを選択的に楽音
発生手段に供給する旋律データ供給手段とを有し、上記旋律データ供給手段は、
上記鍵情報検出手段によってキーオンが検出されたときに、上記音譜データ読み
出し手段によって読み出されている旋律データを上記楽音発生手段に供給し、上
記鍵情報検出手段によってキーオフが検出されたときに、上記音譜データ読み出
し手段によって読み出されている旋律データを上記楽音発生手段に供給するのを
直ちに停止することにより、上記キーを押すタイミングかずれても、上記旋律デ
ータを発音するタイミングが伴奏データの発音タイミングに対してずれないよう
にしたことを特徴としている。
【0006】
【作用】
本発明は上記技術手段を有するので、旋律データ22と伴奏データ23とが同
じテンポで記憶手段(ROM14)から常に読み出されている。そして、キーが
押されている間は旋律データ供給手段(ゲート手段25)が上記旋律データ22
を上記伴奏データ23と一緒に楽音発生手段(音源回路(CPU)13)供給す
るので、伴奏データとともに発音される。
また、キーがオフにされると、上記旋律データ供給手段が上記記憶手段から読
み出された旋律データを上記楽音発生手段に直ちに供給しなくなるので、旋律デ
ータは上記記憶手段から読み出されているにも関わらず、キーオフ検出と同時に
旋律演奏音は発音されなくなる。
このようにして旋律データの発音および中断が行われることにより、キーを押
すタイミングがずれても、旋律データを発音するタイミングが伴奏データの発音
タイミングに対してずれる不都合は生じない。
【0007】
【実施例】
図1は、本発明の一実施例を示す電子楽器の要部ブロック図である。この電子
楽器は鍵盤11を備え、鍵盤11の操作情報がキースイッチ回路15により検出
され、音源回路13に与えられる。音源回路13は、CPUで構成され鍵盤の操
作のキー情報に基づいてROM14から波形データを読み出し、そのエンベロー
プや振幅を変調して楽音信号としてアンプ15を介してスピーカ16に供給する
。ROM14には、自動演奏のための楽曲データ(発音用音譜データ)や発音処
理のプログラムが記憶されている。
【0008】
図2は、本発明の電子楽器の機能的ブロック図を示す。図1のROM14に記
憶された楽曲データ21は、旋律データ22と伴奏データ23からなる。伴奏デ
ータ23は、ROM14から所定のテンポで読み出されて、音源回路13に供給
される。また、旋律データは、ゲート手段25を介して音源回路13に供給され
る。ゲート手段25は、キースキャン手段24が鍵盤11の何れかのキーのオン
を検出した時開き、旋律データを音源回路13に伝達する。またゲート手段25
はキーのオフにより閉じ、旋律データの伝達を阻止する。
【0009】
図3〜図5は、音源回路13(CPU)におけるデータ処理の流れを示し、図
6は楽曲データの構造を示す。図6に示す様に、楽曲データ21は、1音がキー
ナンバー、ステップタイム、ゲートタイム、ベロシティーの4バイトからなる音
譜データの配列である。キーナンバーは発音の音呈を示し、ステップタイムは発
音のタイミングを示し、ゲートタイムは発音の時間幅を示し、ベロシティーは発
音の音量を示す。この外に、図示しないが、音色データや音符パターンの繰返し
記号などが楽曲データに含まれる。
【0010】
図3は、メインルーチンを示し、まずステップ31でキースキャンを行い、鍵
盤操作を検出する。次にステップ32でパネルスキャンを行い、パネルスイッチ
の操作を検出する。次に自動演奏の処理ステップ33を行い、ステップ31にル
ープする。
【0011】
図4は、図1の自動演奏のステップ33における自動伴奏の処理を示す。まず
第1音のステップタイムが時間軸カウンタのカウント値に達したか否かをステッ
プ41で調べ、イエスであれは、ROM14から伴奏データ23の第1音の音符
データ(4バイト)を読み出し、ステップ43で発音処理を行う。次にステップ
44でアドレスを4バイト進めて、ステップ45で次に発音する音符のステップ
タイムデータをセットする。その後ステップ41に戻って、上記の処理を繰返す
。
【0012】
図5は、図3の自動演奏のステップ33における旋律演奏の処理を示す。まず
、第1音のステップタイムが時間軸カウンタのカウント値に達したか否かをステ
ップ51で調べ、達した場合はROM14から旋律データ22の第1音の音符デ
ータを(4バイト)を読み出す。次にキーオンイベントかキーオフイベントかの
判断をステップ53、54で行い、キーオンの時には、ステップ55で発音処理
を行い、キーオフの時には、ステップ65で消音処理を行う。これらの処理が終
了するかまたはキーオンでもキーオフでもないとき、ステップ57に進み、アド
レスを4バイト進めて、ステップ58で次に発音する音符のステップタイムデー
タをセットする。その後ステップ51に戻って、上記の処理を繰返す。
【0013】
従って、キーをオンにした時その直後のステップタイムデータを持つ旋律音符
の発音が行われ、キーを押している間は旋律発音が順次行われる。またキーをオ
フにすると旋律発音は中断する。キーを押さなけれは、ROMからの音符データ
の読み出しは行われるが、ゲートが閉じているため発音処理は行われない。一方
、図4に示したように、伴奏発音はキー操作と関係なく進行する。旋律データ2
2と伴奏データ23とは同じテンポでROM14から読み出されるから、キーを
押すタイミングがずれても、旋律データを発音するタイミングが伴奏データの発
音タイミングに対してずれることはない。
【0014】
このように初心者、特に幼児は、自動伴奏音を聞きながらキーを操作し、旋律
発音を行わせることができる。キー操作のタイミングが多少ずれても旋律と伴奏
とが常に同期しているから、不自然な楽曲が演奏されることがない。幼児にとっ
ては操作が容易であり、玩具のように扱いながら自然とリズム感が養われる。
【0015】
【発明の効果】
本発明は上述したように、旋律データと伴奏データとを同じテンポで記憶手段
から連続的に読み出すようにするとともに、キーが押されている間は旋律データ
供給手段が上記旋律データを上記伴奏データと一緒に楽音発生手段に供給し、キ
ーが押されている間は上記旋律データと伴奏データとを一緒に発音する。
【0016】
また、旋律データ供給手段はキーがオフにされた瞬間に上記記憶手段から読み
出された旋律データを上記楽音発生手段に供給しないようにして、旋律データが
上記記憶手段からよみだされているにも関わらず、旋律データが発音されないよ
うに中断する。
【0017】
上述のようにして、旋律データを発音したり、あるいは中断したりするように
したので、キーを押すタイミングがずれても、旋律データを発音するタイミング
が伴奏データの発音タイミングに対してずれる不都合が生じないようにすること
ができる。これにより、キーを押すタイミングがずれても不自然が楽曲が演奏さ
れないようにすることができるとともに、キーをオンすると同時に旋律演奏を発
音することができるとともに、キーをオフすると同時に旋律演奏の発音を直ちに
停止することができるので、ユーザー(演奏者)があたかも自分でメロディを演
奏しているような気分にさせることができる。また、操作が極めて容易なので、
幼児でも簡単に取り扱うことかでき、幼児が玩具のように扱いながらリズム感を
自然と養うことができる自動演奏装置を提供することができる。Description: BACKGROUND OF THE INVENTION [0001] 1. Field of the Invention [0002] The present invention relates to an automatic musical performance apparatus for an electronic musical instrument that performs an automatic performance based on programmed automatic performance musical score data. 2. Description of the Related Art Generally, an electronic keyboard (such as an electronic piano) has an automatic accompaniment function such as an automatic accompaniment of a rhythm and an automatic accompaniment of a chord and a bass. And one for each of the keys
A function (so-called one-finger ad-lib play) is provided in which phrases different in length of a bar are assigned, these phrases are selectively called by a single finger key operation, and an ad-lib performance effect is obtained by combining a series of phrases. Electronic musical instruments are also known. There is also known an electronic musical instrument having a function of generating an automatic accompaniment sound in parallel with the above-mentioned ad-lib phrase play. [0003] The automatic accompaniment in the conventional automatic performance device progresses at a predetermined tempo irrespective of the key operation, and an ad-lib phrase is played at the moment when the key operation is performed. It reads phrase data. For this reason, when performing an ad-lib phrase performance for the automatic accompaniment progressing at the predetermined tempo, it is necessary to precisely match the timing of performing the key operation with the timing of the automatic accompaniment. However, since beginners, especially infants, do not have a sense of rhythm, the timing of the key operation of the ad-lib phrase play may be shifted with respect to the automatic accompaniment. For this reason, there has been a problem that a melody tone shifted from the automatic accompaniment is generated. [0004] In view of this problem, an object of the present invention is to enable even a beginner to obtain a melody pronunciation that matches the timing of automatic accompaniment. [0005] An automatic performance device according to the present invention includes an automatic performance device comprising key information detection means for scanning a plurality of keys to detect key-on or key-off, and melody data and accompaniment data. Musical note data storage means storing the musical note data string of the musical note, and the melody data and the accompaniment data from the musical note data storage means are sequentially and synchronously synchronized in accordance with a predetermined tempo.
Selection and notation data reading means, and the accompaniment data supply means for supplying a constantly tone generating means accompaniment data read out by the notation data reading means, the melody data read by the notation data reading means for reading Te Melody data supplying means for supplying the melody data supplying means to the musical tone generating means, wherein the melody data supplying means reads the melody read by the musical score data reading means when the key information detecting means detects a key-on. the data is supplied to the musical tone generating means, the upper
When key-off information is detected by the key-writing information detecting means, the above-mentioned musical score data is read out.
Supply of the melody data read by the synthesizing means to the tone generating means.
By stopping immediately, even if the timing of pressing the key is out of sync, the melody
So that the timing of sounding the data does not deviate from the timing of sounding the accompaniment data.
It is characterized in the thing. Since the present invention has the above technical means, the melody data 22 and the accompaniment data 23 are always read from the storage means (ROM 14) at the same tempo. While the key is being pressed, the melody data supply means (gate means 25) outputs the melody data 22.
Is supplied together with the accompaniment data 23 to generate a tone together with the accompaniment data. When the key is turned off, the melody data supply means does not immediately supply the melody data read from the storage means to the tone generating means, and the melody data is read from the storage means. Nevertheless, at the same time as key-off detection
The melody performance sound will not be pronounced. By generating and interrupting the melody data in this manner, even if the timing of pressing the key is shifted, there is no inconvenience that the timing of generating the melody data is shifted from the timing of generating the accompaniment data. FIG. 1 is a block diagram of a main part of an electronic musical instrument showing an embodiment of the present invention. The electronic musical instrument includes a keyboard 11, and operation information of the keyboard 11 is detected by a key switch circuit 15 and provided to a sound source circuit 13. The tone generator 13 is composed of a CPU, reads out waveform data from the ROM 14 based on key information of keyboard operation, modulates its envelope and amplitude, and supplies it as a tone signal to the speaker 16 via the amplifier 15. The ROM 14 stores music data (musical data for pronunciation) for automatic performance and a program for pronunciation processing. FIG. 2 shows a functional block diagram of the electronic musical instrument of the present invention. The music data 21 stored in the ROM 14 of FIG. 1 includes melody data 22 and accompaniment data 23. The accompaniment data 23 is read from the ROM 14 at a predetermined tempo and supplied to the tone generator 13. The melody data is supplied to the tone generator circuit 13 via the gate means 25. The gate means 25 is opened when the key scanning means 24 detects that any key of the keyboard 11 is turned on, and transmits the melody data to the tone generator circuit 13. Gate means 25
Is closed by turning off the key, preventing the transmission of melody data. FIGS. 3 to 5 show the flow of data processing in the tone generator circuit 13 (CPU), and FIG. 6 shows the structure of music data. As shown in FIG. 6, the music data 21 is an array of musical score data in which one sound is composed of four bytes of a key number, a step time, a gate time, and a velocity. The key number indicates the pronunciation of the sound, the step time indicates the timing of the sound, the gate time indicates the time width of the sound, and the velocity indicates the volume of the sound. In addition, although not shown, timbre data and repetition symbols of musical note patterns are included in the music data. FIG. 3 shows a main routine. First, in step 31, a key scan is performed to detect a keyboard operation. Next, in step 32, a panel scan is performed to detect an operation of a panel switch. Next, a processing step 33 for automatic performance is performed, and a loop is made to step 31. FIG. 4 shows an automatic accompaniment process in step 33 of the automatic performance shown in FIG. First, it is checked in step 41 whether the step time of the first sound has reached the count value of the time axis counter, and if yes, the note data (4 bytes) of the first sound of the accompaniment data 23 is read from the ROM 14, At step 43, a sound generation process is performed. Next, at step 44, the address is advanced by 4 bytes, and at step 45, the step time data of the note to be sounded next is set. Thereafter, the flow returns to step 41 to repeat the above processing. FIG. 5 shows melody performance processing in step 33 of the automatic performance of FIG. First, it is checked in step 51 whether or not the step time of the first sound has reached the count value of the time axis counter, and when it has reached, the note data of the first sound of the melody data 22 is read from the ROM 14 (4 bytes). . Next, whether a key-on event or a key-off event is determined is performed in steps 53 and 54. If the key is on, a sound generation process is performed in step 55, and if the key is off, a mute process is performed in step 65. When these processes are completed or when neither key-on nor key-off is performed, the process proceeds to step 57, where the address is advanced by 4 bytes, and step 58 sets the step time data of the next note to be pronounced. Thereafter, the flow returns to step 51, and the above processing is repeated. Therefore, when the key is turned on, a melody note having step time data immediately after the key is turned on, and while the key is pressed, the melody note is sequentially generated. When the key is turned off, the melody is interrupted. If no key is depressed, note data is read from the ROM, but no sound generation processing is performed because the gate is closed. On the other hand, as shown in FIG. 4, the accompaniment pronunciation proceeds irrespective of the key operation. Melody data 2
2 and the accompaniment data 23 are read from the ROM 14 at the same tempo. Therefore, even if the timing of pressing the key is shifted, the timing of generating the melody data is not shifted from the timing of generating the accompaniment data. As described above, a beginner, particularly a baby, can operate the keys while listening to the automatic accompaniment sound to cause the melody to sound. Even if the key operation timing is slightly shifted, the melody and the accompaniment are always synchronized, so that an unnatural music is not played. The operation is easy for infants, and the rhythm is naturally cultivated while being treated like a toy. According to the present invention, as described above, the melody data and the accompaniment data are continuously read from the storage means at the same tempo, and the melody data supply means is provided while the key is pressed. Supplies the melody data together with the accompaniment data to the musical sound generating means, and produces the melody data and the accompaniment data together while the key is pressed. The melody data supply means does not supply the melody data read from the storage means to the musical sound generation means at the moment when the key is turned off, so that the melody data is read from the storage means. Is interrupted so that the melody data is not pronounced even though As described above, the melody data is sounded or interrupted. Therefore, even if the key is depressed at a wrong timing, the melody data is generated at a timing that is different from that of the accompaniment data. It is possible to prevent the inconvenience of deviation from occurring. This makes it possible to prevent the music from being played unnaturally even if the key is pressed at the wrong time.
As soon as the key is turned off, the melody is pronounced
Since it can be stopped , the user (player) can be made to feel as if he or she is playing the melody by himself. Also, because the operation is extremely easy,
It is possible to provide an automatic performance device that can be easily handled even by an infant and can naturally feed a rhythmic feeling while treating the infant like a toy.
【図面の簡単な説明】 【図1】 本発明の自動演奏装置の一実施例を示す電子楽器のブロック図である。 【図2】 本発明の自動演奏装置の機能的特徴を示すブロック図である。 【図3】 自動演奏の制御を示すフローチャートである。 【図4】 自動演奏の制御を示すフローチャートである。 【図5】 自動演奏の制御を示すフローチャートである。 【図6】 自動演奏の音符データの構造を示す図である。 【符号の説明】 11 鍵盤 12 キースイッチ回路 13 音源回路 14 ROM 15 アンプ 16 スピーカ 22 旋律データ 23 伴奏データ 24 キースキャン手段 25 ゲート手段[Brief description of the drawings] FIG. It is a block diagram of an electronic musical instrument showing one embodiment of the automatic performance device of the present invention. FIG. 2 FIG. 3 is a block diagram showing functional features of the automatic performance device of the present invention. FIG. 3 It is a flowchart which shows control of an automatic performance. FIG. 4 It is a flowchart which shows control of an automatic performance. FIG. 5 It is a flowchart which shows control of an automatic performance. FIG. 6 It is a figure showing the structure of note data of automatic performance. [Explanation of symbols] 11 keys 12 Key switch circuit 13 sound source circuit 14 ROM 15 amplifier 16 speakers 22 Melody data 23 Accompaniment data 24 key scanning means 25 Gate means
Claims (1)
る鍵情報検出手段と、 旋律データと伴奏データとからなる自動演奏の音譜データ列を記憶した音譜デ
ータ記憶手段と、 上記音譜データ記憶手段から上記旋律データおよび上記伴奏データを所定のテ
ンポに応じて順次並列的に同期して読み出す音譜データ読み出し手段と、 上記音譜データ読み出し手段によって読み出された伴奏データを定常的に楽音
発生手段に供給する伴奏データ供給手段と、 上記音譜データ読み出し手段によって読み出された旋律データを選択的に楽音
発生手段に供給する旋律データ供給手段とを有し、 上記旋律データ供給手段は、上記鍵情報検出手段によってキーオンが検出され
たときに、上記音譜データ読み出し手段によって読み出されている旋律データを
上記楽音発生手段に供給し、上記鍵情報検出手段によってキーオフが検出された
ときに、上記音譜データ読み出し手段によって読み出されている旋律データを上
記楽音発生手段に供給するのを直ちに停止することにより、 上記キーを押すタイミングかずれても、上記旋律データを発音するタイミング
が伴奏データの発音タイミングに対してずれないようにしたことを特徴とする自
動演奏装置。Claims: 1. Key information detecting means for scanning a plurality of keys to detect a key-on or a key-off, and musical-speech data storing a musical-speech data string of an automatic performance composed of melody data and accompaniment data. Storage means; musical note data reading means for sequentially and synchronously reading the melody data and the accompaniment data from the musical note data storing means in accordance with a predetermined tempo; and accompaniment data read by the musical note data reading means. Accompaniment data supply means for steadily supplying the melody data read out by the musical note data reading means to the tone generation means. A supply unit that, when a key-on is detected by the key information detection unit, the musical score data reading unit; Therefore, the melody data that has been read is supplied to the musical sound generating means, and a key-off is detected by the key information detecting means.
Sometimes, the melody data read by the musical score data reading means is
By immediately stopping the supply to the musical tone generating means, even if the timing of pressing the key deviates, the timing of generating the melody data
The automatic performance device is characterized in that the sound is not shifted with respect to the sounding timing of the accompaniment data .
Family
ID=
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH0546172A (en) | Automatic playing device | |
JP2756877B2 (en) | Phrase playing device | |
JP3239411B2 (en) | Electronic musical instrument with automatic performance function | |
JP4808868B2 (en) | Automatic performance device | |
JP2654727B2 (en) | Automatic performance device | |
JP2587737B2 (en) | Automatic accompaniment device | |
JP2654727C (en) | ||
JP4498645B2 (en) | Electronic musical instrument automatic performance device | |
JP2660462B2 (en) | Automatic performance device | |
JPH04274297A (en) | Automatic musical performance device | |
JPH06337674A (en) | Automatic musical performance device for electronic musical instrument | |
JPH0314717Y2 (en) | ||
JPH06348258A (en) | Automatic playing device of electronic musical instrument | |
JP3120487B2 (en) | Electronic musical instrument with automatic accompaniment function | |
JPH02304599A (en) | Electronic musical instrument | |
JPH058638Y2 (en) | ||
JPH10171475A (en) | Karaoke (accompaniment to recorded music) device | |
JP4619495B2 (en) | Automatic accompaniment apparatus and automatic accompaniment method | |
JP3017902B2 (en) | Automatic accompaniment device for electronic musical instruments | |
JP2665854B2 (en) | Automatic performance device | |
JP2004317775A (en) | Automatic player and program for automatic musical performance processing | |
JPH1097250A (en) | Musical tone generator | |
JP2587737C (en) | ||
JP2000029466A (en) | Electronic keyboard instrument | |
JPH09212164A (en) | Keyboard playing device |