JP2010190942A - Electronic musical instrument and program for the electronic musical instrument - Google Patents

Electronic musical instrument and program for the electronic musical instrument Download PDF

Info

Publication number
JP2010190942A
JP2010190942A JP2009032380A JP2009032380A JP2010190942A JP 2010190942 A JP2010190942 A JP 2010190942A JP 2009032380 A JP2009032380 A JP 2009032380A JP 2009032380 A JP2009032380 A JP 2009032380A JP 2010190942 A JP2010190942 A JP 2010190942A
Authority
JP
Japan
Prior art keywords
note
data
sound
guide
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009032380A
Other languages
Japanese (ja)
Inventor
Toshiyuki Tachibana
敏之 橘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009032380A priority Critical patent/JP2010190942A/en
Publication of JP2010190942A publication Critical patent/JP2010190942A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make a player play outline of a melody by guiding only the outline of the melody. <P>SOLUTION: A CPU 21 determines whether or not the note indicated by note data corresponds to a grace note with reference to the note data stored in a music piece data area of a ROM 22, and stores the note data determined not to correspond to the grace note into a guide data area of a RAM 23 as guide data. Also, the CPU 21 reads out the note data stored in the guide data area, and makes an LED arranged in a key of a keyboard 11 emit light based on the read out note data so as to notify a player of the key to be depressed, in guide performance. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、メロディをガイドすることができる電子楽器および電子楽器のプログラムに関する。   The present invention relates to an electronic musical instrument capable of guiding a melody and an electronic musical instrument program.

電子楽器においては、鍵の近傍(通常は、演奏者の反対側の鍵の端部付近)や、鍵の内部にLEDを配置し、楽曲の音符にしたがって、演奏者に押鍵すべき鍵を示すためにLEDを点灯させる技術が従前より知られている。このような機能は、「ガイド」と称され、たとえば、演奏レベルのあまり高くない演奏者が、メロディや伴奏の演奏を練習するために利用される。   In an electronic musical instrument, LEDs are placed near the key (usually near the end of the key on the opposite side of the performer) or inside the key, and the key to be pressed by the performer is determined according to the musical notes. Techniques for turning on LEDs to show are known for some time. Such a function is called a “guide”, and is used, for example, by a performer who does not have a high performance level to practice playing a melody or accompaniment.

このようなガイド機能においては、メモリ中に格納された音符データの発音時刻(発音開始時刻)および発音時間とに基づいて、発音開始時刻が到来した音符の音高に対応する鍵のLEDを点灯し、その後、当該音符の発音時間が経過すると、LEDを消灯する。演奏者は、LEDが点灯した鍵を押鍵することで、楽曲の演奏を進めることができる。   In such a guide function, the LED of the key corresponding to the pitch of the note at which the pronunciation start time arrives is turned on based on the pronunciation time (pronunciation start time) and pronunciation time of the note data stored in the memory. Thereafter, when the sound generation time of the note has elapsed, the LED is turned off. The performer can advance the performance of the music piece by pressing the key whose LED is lit.

たとえば、特許文献1には、上記ガイド機能において、コードの弾き方を段階的に取得できるように、設定されたレベルに応じてコード構成音のうち所定の音(たとえば、ルート音のみ、三和音のみなど)について、LEDを点灯する技術が提案されている。   For example, Patent Document 1 discloses that a predetermined sound (for example, only a root sound, a triad, etc.) is selected from chord constituent sounds according to a set level so that a chord playing method can be acquired stepwise in the guide function. For example, a technique for lighting an LED has been proposed.

特開2007−156308号公報JP 2007-156308 A 特開2002−175072号公報JP 2002-175072 A

特許文献1に提案されているように、伴奏パートについては、演奏レベルが高くなるのにしたがって、和音構成音を増やすようにすることで、演奏レベルに応じた伴奏演奏のガイドが実現できる。その一方、メロディ音については、基本的に、演奏レベルに応じて音を省略することが容易ではないという問題点がある。したがって、メロディ音については、細かい音符、特に、装飾音も含めて、楽譜のとおりに演奏する必要があった。初心者にとって、細かい音符を楽譜のとおりに弾くことは容易ではない。たとえば、特許文献2には、所定の範囲のミスタッチを許容するような技術が提案されている。これにより、所定範囲のミスタッチを許容することで、上記細かい音符を楽譜どおりに弾かなくても良くすることで、演奏を進ませる、或いは、レッスンを進ませることを優先させている。しかしながら、本来ミスタッチは無い方が望ましく、また、楽曲において、装飾音を省略しても、曲の大枠は変化せず、たとえば、その楽曲の雰囲気が損なわれることはない。   As proposed in Patent Document 1, for accompaniment parts, the accompaniment performance guide according to the performance level can be realized by increasing the chord constituent sounds as the performance level increases. On the other hand, the melody sound basically has a problem that it is not easy to omit the sound according to the performance level. Therefore, the melody sound has to be played in accordance with the score including fine notes, especially decoration sounds. For beginners, it is not easy to play fine notes according to the score. For example, Patent Literature 2 proposes a technique that allows a predetermined range of mistouch. Thus, by giving a predetermined range of mistouch, it is not necessary to play the above-mentioned fine notes according to the score, so that priority is given to advancing performance or a lesson. However, it is desirable that there should be no mistouch, and even if the decoration sound is omitted in the music, the outline of the music does not change, and for example, the atmosphere of the music is not impaired.

そこで、本発明は、装飾音をガイドせず、メロディの大枠のみをガイドすることで、メロディの大枠を演奏者に演奏させる電子楽器および電子楽器のプログラムを提供することを目的とする。   Accordingly, an object of the present invention is to provide an electronic musical instrument and a program for an electronic musical instrument that allow a player to play the outline of the melody by guiding only the outline of the melody without guiding the decorative sound.

本発明の目的は、予め定められた楽曲を構成する音符のそれぞれについて、発音時刻と、音高或いは休符であることを示す情報と、を含む音符データを格納した音符データ記憶手段と、
演奏操作子の操作に基づいて、所定の音高の楽音データを生成する楽音データ生成手段と、
前記演奏操作子のそれぞれの近傍に配置され、当該演奏操作子の操作を指示する複数の発光素子と、を備えた電子楽器であって、
前記音符データ記憶手段に格納された音符データを参照して、当該音符データが示す音符が装飾音に該当するか否かを判断し、装飾音に該当しないと判断された音符データを、ガイドデータとして、ガイドデータ記憶手段に格納するガイドデータ生成手段と、
前記ガイドデータ記憶手段に格納された音符データを読み出して、前記音符データに基づく演奏操作子の発光素子を発光させる発光制御手段と、を備えたことを特徴とする電子楽器により達成される。
An object of the present invention is to provide a note data storage means for storing note data including a time of sound generation and information indicating a pitch or a rest for each of notes constituting a predetermined musical piece,
Musical tone data generating means for generating musical tone data of a predetermined pitch based on the operation of the performance operator;
An electronic musical instrument comprising a plurality of light emitting elements arranged in the vicinity of each of the performance operators and instructing the operation of the performance operators,
With reference to the note data stored in the note data storage means, it is determined whether or not the note indicated by the note data corresponds to a decoration sound, and the note data determined not to be a decoration sound is determined as guide data. As guide data generation means for storing in the guide data storage means,
The electronic musical instrument comprises: a light emission control means for reading the note data stored in the guide data storage means and causing the light emitting element of the performance operator to emit light based on the note data.

好ましい実施態様においては、前記音符データが、前記音符のそれぞれについて発音時間を含み、
前記発光制御手段が、前記発光素子を、前記発音時刻に点灯し、発音時刻だけ継続して発光させる。
In a preferred embodiment, the note data includes a pronunciation time for each of the notes,
The light emission control means turns on the light emitting element at the sounding time and continuously emits light only at the sounding time.

また、好ましい実施態様においては、前記ガイドデータ生成手段が、
(1)後続する音符が休符ではない、
(2)同時発音すべき音符がない、
(3)音長が所定値以下である、および、
(4)その音符は休符ではない
ときに、前記音符が装飾音に該当すると判断する。
In a preferred embodiment, the guide data generating means
(1) The following note is not a rest,
(2) There are no notes to be pronounced simultaneously,
(3) The sound length is below a predetermined value, and
(4) When the note is not a rest, it is determined that the note corresponds to a decorative sound.

別の好ましい実施態様においては、前記ガイドデータ生成手段が、
(1)後続する音符が休符ではない
(2)同時発音すべき音符がない
(4)その音符は休符ではない、および、
(5)音長が、当該音符の前後所定数の音符の音長と比較して短い
ときに、前記音符が装飾音に該当すると判断する。
In another preferred embodiment, the guide data generating means includes
(1) the following note is not a rest (2) there are no notes to be played simultaneously (4) the note is not a rest, and
(5) When the note length is shorter than the note length of a predetermined number of notes before and after the note, it is determined that the note corresponds to a decoration sound.

また、本発明の目的は、予め定められた楽曲を構成する音符のそれぞれについて、発音時刻と、音高或いは休符であることを示す情報と、を含む音符データを格納した音符データ記憶手段と、操作子のそれぞれの近傍に配置され、当該操作子の操作を指示する複数の発光素子とを備えたコンピュータに、
前記操作子の操作に基づいて、所定の音高の楽音データを生成する楽音データ生成ステップと、
前記音符データ記憶手段に格納された音符データを参照して、当該音符データが示す音符が装飾音に該当するか否かを判断し、装飾音に該当しないと判断された音符データを、ガイドデータとして、ガイドデータ記憶手段に格納するガイドデータ生成ステップと、
前記ガイドデータ記憶手段に格納された音符データを読み出して、前記音符データに基づく操作子の発光素子を発光させる発光制御ステップと、を実行させることを特徴とする電子楽器のプログラムにより達成される。
Further, an object of the present invention is to provide note data storage means for storing note data including a sounding time and information indicating a pitch or a rest for each of notes constituting a predetermined music piece. In a computer provided with a plurality of light emitting elements arranged in the vicinity of each of the operators and instructing the operation of the operator,
A musical sound data generating step for generating musical sound data of a predetermined pitch based on the operation of the operator;
With reference to the note data stored in the note data storage means, it is determined whether or not the note indicated by the note data corresponds to a decoration sound, and the note data determined not to be a decoration sound is determined as guide data. As a guide data generation step to be stored in the guide data storage means,
The electronic musical instrument program is characterized in that the musical note data stored in the guide data storage means is read out and a light emission control step of causing the light emitting element of the operation element to emit light based on the musical note data is executed.

本発明によれば、装飾音をガイドせず、メロディの大枠のみをガイドすることで、メロディの大枠を演奏者に演奏させる電子楽器および電子楽器のプログラムを提供することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the electronic musical instrument and the program of an electronic musical instrument which make a player perform a large frame of a melody by guiding only the large frame of a melody, without guiding a decoration sound.

図1は、本実施の形態にかかる電子楽器の外観を示す図である。FIG. 1 is a diagram showing an external appearance of an electronic musical instrument according to the present embodiment. 図2は、本発明の実施の形態にかかる電子楽器の構成を示すブロックダイヤグラムである。FIG. 2 is a block diagram showing the configuration of the electronic musical instrument according to the embodiment of the present invention. 図3は、本実施の形態にかかる電子楽器のメインフローの概略を示すフローチャートである。FIG. 3 is a flowchart showing an outline of the main flow of the electronic musical instrument according to the present embodiment. 図4は、本実施の形態にかかるタイマインタラプト処理の例を示す図である。FIG. 4 is a diagram illustrating an example of timer interrupt processing according to the present embodiment. 図5は、本実施の形態にかかるスイッチ処理の例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of the switch processing according to the present embodiment. 図6は、本実施の形態にかかるガイドデータ作成処理の例を示すフローチャートである。FIG. 6 is a flowchart showing an example of guide data creation processing according to the present embodiment. 図7は、本実施の形態にかかる曲データおよびガイドデータを説明する図である。FIG. 7 is a diagram for explaining song data and guide data according to the present embodiment. 図8は、本実施の形態にかかるガイド処理の例を示すフローチャートである。FIG. 8 is a flowchart showing an example of the guide processing according to the present embodiment. 図9は、本実施の形態にかかる鍵盤処理の例を示すフローチャートである。FIG. 9 is a flowchart showing an example of keyboard processing according to the present embodiment. 図10は、本実施の形態にかかる発音処理の例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of the sound generation process according to the present embodiment.

以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、本実施の形態にかかる電子楽器の外観を示す図である。図1に示すように、本実施の形態にかかる電子楽器10は、61個の鍵(C2〜C7)を含む鍵盤11を有する。また、鍵盤11の上部には、音色の指定、ガイドデータの作成、ガイドの有無などを指定するためのスイッチ(たとえば、符号17参照)や、演奏される楽曲に関する種々の情報、たとえば、音色、リズムパターン、コードネームなどを表示する液晶表示装置14を有する。   Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a diagram showing an external appearance of an electronic musical instrument according to the present embodiment. As shown in FIG. 1, an electronic musical instrument 10 according to the present embodiment has a keyboard 11 including 61 keys (C2 to C7). Also, on the upper part of the keyboard 11, a switch (for example, reference numeral 17) for designating a timbre, creation of guide data, the presence / absence of a guide, and various information relating to the music to be played, such as a timbre It has a liquid crystal display device 14 for displaying rhythm patterns, code names, and the like.

図2は、本発明の実施の形態にかかる電子楽器の構成を示すブロックダイヤグラムである。図2に示すように、本実施の形態にかかる電子楽器10は、CPU21、ROM22、RAM23、サウンドシステム24、鍵盤11、スイッチ群12および表示部13を備える。   FIG. 2 is a block diagram showing the configuration of the electronic musical instrument according to the embodiment of the present invention. As shown in FIG. 2, the electronic musical instrument 10 according to the present embodiment includes a CPU 21, a ROM 22, a RAM 23, a sound system 24, a keyboard 11, a switch group 12, and a display unit 13.

表示部13は、液晶表示装置14およびLED群15を有する。LED群15を構成するLEDは、鍵盤11の鍵盤(たとえば、図1の符号16−1、16−2)の内部にそれぞれ配置されている。   The display unit 13 includes a liquid crystal display device 14 and an LED group 15. The LEDs constituting the LED group 15 are arranged inside the keyboard of the keyboard 11 (for example, reference numerals 16-1 and 16-2 in FIG. 1).

CPU21は、電子楽器10全体の制御、鍵盤11の鍵(たとえば、図1の符号16−1、16−2参照)の押鍵や入力部12を構成するスイッチ(たとえば、図1の符号17)の操作の検出、鍵やスイッチの操作にしたがったサウンドシステム24の制御、ガイドデータにしたがったLEDの点灯など種々の処理を実行する。   The CPU 21 controls the entire electronic musical instrument 10, presses keys of the keyboard 11 (for example, reference numerals 16-1 and 16-2 in FIG. 1) and switches that constitute the input unit 12 (for example, reference numeral 17 in FIG. 1). Various processes such as detection of the operation, control of the sound system 24 according to the operation of the key and switch, and lighting of the LED according to the guide data are executed.

ROM22は、CPU21に実行させる種々の処理、たとえば、鍵盤の鍵のオン(押鍵)・オフ(離鍵)、スイッチの操作、押鍵に応じた楽音の発音、ガイドデータにしたがったLEDの点灯などのプログラムを格納する。また、ROM22は、ピアノ、ギター、バスドラム、スネアドラム、シンバルなどの楽音を生成するための波形データを格納した波形データエリア、および、楽曲を構成する音符の音符データを格納した曲データエリアを有する。RAM23は、ROM22から読み出されたプログラムや、処理の過程で生成されたデータを記憶する。後述するように、本実施の形態においては、曲データエリアに格納された音符データに基づいて、演奏者に次に押鍵すべき鍵を示すガイドデータを生成する。生成されたガイドデータは、RAM23に格納される。   The ROM 22 performs various processes to be executed by the CPU 21, for example, on / off (key release) of keys on the keyboard, switch operation, tone generation according to the key press, and LED lighting according to the guide data. Store programs such as. The ROM 22 has a waveform data area for storing waveform data for generating musical sounds such as piano, guitar, bass drum, snare drum, and cymbal, and a song data area for storing note data of notes constituting the music. Have. The RAM 23 stores a program read from the ROM 22 and data generated in the course of processing. As will be described later, in the present embodiment, guide data indicating the key to be pressed next to the performer is generated based on the note data stored in the song data area. The generated guide data is stored in the RAM 23.

サウンドシステム24は、音源部26、オーディオ回路27およびスピーカ28を有する。音源部26は、たとえば、押鍵された鍵に関するノートオンイベントをCPU21から受信すると、ROM22の波形データエリアから所定の波形データを読み出して、所定の音高の楽音データを生成して出力する。また、音源部26は、波形データ、特に、スネアドラム、バスドラム、シンバルなど打楽器の音色の波形データを、そのまま楽音データとして出力することもできる。オーディオ回路27は、楽音データをD/A変換して増幅する。これによりスピーカ28から音響信号が出力される。   The sound system 24 includes a sound source unit 26, an audio circuit 27, and a speaker 28. For example, when receiving a note-on event related to the depressed key from the CPU 21, the tone generator 26 reads predetermined waveform data from the waveform data area of the ROM 22, generates musical tone data of a predetermined pitch, and outputs it. The sound source unit 26 can also output waveform data, particularly waveform data of percussion instrument sounds such as a snare drum, bass drum, and cymbal, as musical sound data. The audio circuit 27 D / A converts and amplifies the musical sound data. Thereby, an acoustic signal is output from the speaker 28.

本実施の形態にかかる電子楽器10は、通常モードの下においては、鍵盤11の鍵の押鍵に基づいて楽音を発生することができる。その一方、電子楽器10は、ガイドスイッチ(図示せず)が操作されることにより、ガイドモードとなる。ガイドモードの下では、ガイドデータにしたがって所定の鍵のLEDが点灯し、演奏者に対して、次に押鍵すべき鍵を示すことができる。   The electronic musical instrument 10 according to the present embodiment can generate a musical tone based on the key depression of the keyboard 11 under the normal mode. On the other hand, the electronic musical instrument 10 enters a guide mode when a guide switch (not shown) is operated. Under the guide mode, the LED of a predetermined key is turned on according to the guide data, and the player can indicate the key to be pressed next.

図3は、本実施の形態にかかる電子楽器のメインフローの概略を示すフローチャートである。また、図4は、本実施の形態にかかるタイマインタラプト処理の例を示す図である。電源の投入とともに、メインフローは起動し、後述する各処理が繰り返し実行される。また、タイマインタラプト処理は、メインフローが実行されているときに、所定の時間間隔で割り込み処理として実行され、タイマのインクリメントなどが行なわれる。   FIG. 3 is a flowchart showing an outline of the main flow of the electronic musical instrument according to the present embodiment. FIG. 4 is a diagram illustrating an example of timer interrupt processing according to the present embodiment. When the power is turned on, the main flow is activated and each process described later is repeatedly executed. The timer interrupt process is executed as an interrupt process at a predetermined time interval when the main flow is being executed, and the timer is incremented.

図3に示すように、電子楽器10のCPU21は、電子楽器10の電源が投入されると、RAM23中のデータや、液晶表示装置14の画像のクリアクリアおよびLED群15のクリアを含むイニシャル処理(初期化処理)を実行する(ステップ301)。イニシャル処理(ステップ301)が終了すると、CPU21は、入力部12を構成するスイッチのそれぞれの操作を検出し、検出された操作にしたがった処理を実行するスイッチ処理を実行する(ステップ302)。図5は、本実施の形態にかかるスイッチ処理の例を示すフローチャートである。   As shown in FIG. 3, when the electronic musical instrument 10 is turned on, the CPU 21 of the electronic musical instrument 10 performs initial processing including clearing of data in the RAM 23 and clearing of the image of the liquid crystal display device 14 and clearing of the LED group 15. (Initialization processing) is executed (step 301). When the initial process (step 301) ends, the CPU 21 detects each operation of the switches constituting the input unit 12, and executes a switch process that executes a process according to the detected operation (step 302). FIG. 5 is a flowchart illustrating an example of the switch processing according to the present embodiment.

図5に示すように、スイッチ処理において、CPU21は、ガイドデータ作成スイッチがオンされたかを判断する(ステップ501)。ステップ501においてYesと判断された場合には、ガイドデータ作成処理を実行する(ステップ502)。ガイドデータ作成処理については後に詳述する。また、CPU21は、ガイドスイッチがオンされたかを判断する(ステップ503)。ステップ503でYesと判断された場合には、CPU21は、RAM23中のガイドフラグを反転させる(ステップ504)。CPU21は、RAM23中のガイドフラグが「1」であれば「0」にリセットし、ガイドフラグが「0」であれば「1」にセットする。本実施の形態においては、ガイドスイッチ(図示せず)は単一のスイッチであり、最初にガイドスイッチがオンされることにより、動作モードはガイドモードとなり、ガイドが「オン」状態となる。また、ガイドモードのときに、ガイドスイッチがオンされることにより、ガイドが「オフ」状態となる。   As shown in FIG. 5, in the switch process, the CPU 21 determines whether the guide data creation switch is turned on (step 501). When it is determined Yes in step 501, guide data creation processing is executed (step 502). The guide data creation process will be described in detail later. The CPU 21 determines whether the guide switch is turned on (step 503). If it is determined Yes in step 503, the CPU 21 inverts the guide flag in the RAM 23 (step 504). The CPU 21 resets it to “0” if the guide flag in the RAM 23 is “1”, and sets it to “1” if the guide flag is “0”. In the present embodiment, the guide switch (not shown) is a single switch. When the guide switch is first turned on, the operation mode becomes the guide mode, and the guide is turned on. In the guide mode, the guide is turned off by turning on the guide switch.

次いで、CPU21は、ガイドフラグが「1」であるかを判断する(ステップ505)。ステップ505でYesと判断された場合には、CPU21は、内蔵するタイマをスタートさせる(ステップ506)。それに対して、ステップ505でNoと判断された場合には、CPU21は、ガイドを停止させる(ステップ507)とともに、タイマを停止する(ステップ508)。   Next, the CPU 21 determines whether or not the guide flag is “1” (step 505). If it is determined Yes in step 505, the CPU 21 starts a built-in timer (step 506). On the other hand, when it is determined No in step 505, the CPU 21 stops the guide (step 507) and stops the timer (step 508).

その後、CPU21は、他のスイッチ処理を実行する(ステップ509)。他のスイッチ処理(ステップ509)においては、音色指定スイッチなど種々のスイッチの操作が検出され、スイッチの操作に応じた処理が実行される。   Thereafter, the CPU 21 executes another switch process (step 509). In another switch process (step 509), the operation of various switches such as a tone color designation switch is detected, and the process corresponding to the switch operation is executed.

ステップ506でスタートされ、また、ステップ508で停止されるタイマは、タイマインタラプト処理においてインクリメントされる。図4に示すように、タイマインタラプト処理が開始されると、CPU21は、ガイドフラグが「1」であるかを判断する(ステップ401)。ステップ401でNoと判断された場合には処理を終了する。ステップ401でYesと判断された場合には、CPU21は、タイマをインクリメントし、かつ、鍵盤の番号(鍵番号)を示すパラメータnを「0」に初期化する。鍵番号nは、最低音の鍵盤が「0」であり、鍵の音高が高くなるのにしたがって、「1」ずつ大きくなる。   The timer started in step 506 and stopped in step 508 is incremented in the timer interrupt process. As shown in FIG. 4, when the timer interrupt process is started, the CPU 21 determines whether the guide flag is “1” (step 401). If it is determined No in step 401, the process is terminated. If it is determined Yes in step 401, the CPU 21 increments the timer and initializes a parameter n indicating a keyboard number (key number) to “0”. The key number n is “0” for the lowest note and increases by “1” as the pitch of the key increases.

CPU21は、鍵番号nが示す鍵におけるLEDの発光時間を示す発光残り時間On[n]が「0」であるか否かを判断する(ステップ404)。発光残り時間On[n]が「0」ではない場合(ステップ404でNo)、CPU21は、発光残り時間On[n]をデクリメントする(ステップ405)。ステップ404でYesと判断された場合、或いは、ステップ405が実行された後、CPU21は、鍵番号を示すパラメータnをインクリメントして(ステップ406)、パラメータnが鍵盤総数を超えたか否かを判断する(ステップ407)。ステップ407でNoと判断された場合には、ステップ404に戻る。その一方、ステップ407でYesと判断された場合には処理を終了する。上述したように、タイマインタラプト処理においては、ガイドモードであるときに、タイマがインクリメントされるとともに、対応するLEDを発光中の鍵について、発光残り時間を減算する処理が実行される。   The CPU 21 determines whether or not the remaining light emission time On [n] indicating the light emission time of the LED in the key indicated by the key number n is “0” (step 404). If the remaining light emission time On [n] is not “0” (No in step 404), the CPU 21 decrements the remaining light emission time On [n] (step 405). When it is determined Yes in step 404 or after step 405 is executed, the CPU 21 increments the parameter n indicating the key number (step 406) and determines whether the parameter n exceeds the total number of keys. (Step 407). If NO is determined in step 407, the process returns to step 404. On the other hand, if it is determined Yes in step 407, the process is terminated. As described above, in the timer interrupt process, when in the guide mode, the timer is incremented and a process of subtracting the remaining light emission time is executed for the key that is emitting the corresponding LED.

次に、図5のステップ502のガイドデータ作成処理についてより詳細に説明する。図6は、本実施の形態にかかるガイドデータ作成処理の例を示すフローチャートである。図6に示すように、CPU21は、ROM22の曲データエリアから音符データを読み出す(ステップ601)。   Next, the guide data creation process in step 502 of FIG. 5 will be described in more detail. FIG. 6 is a flowchart showing an example of guide data creation processing according to the present embodiment. As shown in FIG. 6, the CPU 21 reads note data from the song data area of the ROM 22 (step 601).

図7は、本実施の形態にかかる曲データおよびガイドデータを説明する図である。図7において、曲データエリア700は、ROM22に設けられ、ガイドデータエリア701は、RAM23中に設けられる。曲データエリアには、楽曲を構成する音符のそれぞれについて、音符データが含まれる(たとえば、符号710、711参照)。音符データ(たとえば、音符データ(0))は、それぞれ、発音時刻(符号721参照)、音高情報または休符情報(符号722参照)、および、発音時間(符号723参照)を有する。音高情報は、MIDI(Musical Instrument Digital Interface)のノートナンバーに相当する。また、休符情報として、ノートナンバーに含まれない所定の値が割り当てられる。   FIG. 7 is a diagram for explaining song data and guide data according to the present embodiment. In FIG. 7, the song data area 700 is provided in the ROM 22, and the guide data area 701 is provided in the RAM 23. The song data area includes note data for each note constituting the song (see, for example, reference numerals 710 and 711). Note data (for example, note data (0)) has a sounding time (see reference numeral 721), pitch information or rest information (see reference numeral 722), and a sounding time (see reference numeral 723), respectively. The pitch information corresponds to a note number of MIDI (Musical Instrument Digital Interface). A predetermined value not included in the note number is assigned as rest information.

ガイドデータエリアには、以下に述べるガイドデータ作成処理により、音符データから選択されたものが、ガイドデータとして格納される。したがって、ガイドデータエリアに格納されたガイドデータの構成は音符データと同様である。また、ガイドデータエリアは複数の音符データを含むことになるが、音符データの数は、曲データエリアにおける音符データの数以下となる。以下、ガイドデータもその構成自体は音符データと同様であるため、ガイドデータエリアに格納されたデータについて、音符データとも称する。   In the guide data area, data selected from the note data by the guide data creation process described below is stored as guide data. Therefore, the structure of the guide data stored in the guide data area is the same as that of the note data. The guide data area includes a plurality of note data, but the number of note data is equal to or less than the number of note data in the music data area. In the following, since the structure of the guide data is the same as that of the note data, the data stored in the guide data area is also referred to as note data.

CPU21は処理対象となる音符データ(たとえば、音符データ(i))について、後続する音符(たとえば、音符データ(i+1))が休符であるか否かを判断する(ステップ602)。音符が休符に相当するか否かは、音符データ中の音高情報または休符情報の項を参照することにより実現できる。ステップ602でYesと判断された場合には、CPU21は、RAM23のガイドデータエリアに、当該音符データ(音符データ(i))をガイドデータとして格納する(ステップ606)。   The CPU 21 determines whether or not the subsequent note (for example, note data (i + 1)) is a rest for the note data (for example, note data (i)) to be processed (step 602). Whether or not a note corresponds to a rest can be realized by referring to the section of pitch information or rest information in the note data. If it is determined Yes in step 602, the CPU 21 stores the note data (note data (i)) as guide data in the guide data area of the RAM 23 (step 606).

ステップ602でNoと判断された場合には、CPU21は、処理対象となる音符データが示す音符と同時発音すべき音符が存在するか否かを判断する(ステップ603)。CPU21は、曲データエリアにおいて、処理対象となる音符データ(音符データ(i))と同一の発音時刻を持つ他の音符データが存在するか否かを調べる。ステップ603でYesと判断された場合には、CPU21は、RAM23のガイドデータエリアに、当該音符データ(音符データ(i))をガイドデータとして格納する(ステップ606)。その一方、ステップ603でNoと判断された場合には、CPU21は、処理対象となる音符データが示す音符の音長が、予め定められた所定値より大きいかを判断する(ステップ604)。   When it is determined No in step 602, the CPU 21 determines whether or not there is a note that should be sounded simultaneously with the note indicated by the note data to be processed (step 603). The CPU 21 checks whether there is other note data having the same pronunciation time as the note data (note data (i)) to be processed in the music data area. If it is determined Yes in step 603, the CPU 21 stores the note data (note data (i)) as guide data in the guide data area of the RAM 23 (step 606). On the other hand, if it is determined No in step 603, the CPU 21 determines whether the note length indicated by the note data to be processed is greater than a predetermined value (step 604).

音長は、当該音符データの発音時間に対応する。本実施の形態にかかるステップ604では、たとえば、音長が、64分音符より大きいかが判断される。ステップ604でYesと判断された場合には、CPU21は、RAM23のガイドデータエリアに、当該音符データ(音符データ(i))を格納する(ステップ606)。その一方、ステップ604でNoと判断された場合には、CPU21は、処理対象となる音符データが示す音符が休符であるか否かを判断する(ステップ605)。ステップ605でYesと判断された場合には、CPU21は、RAM23のガイドデータエリアに、当該音符データ(音符データ(i))をガイドデータとして格納する(ステップ606)。   The sound length corresponds to the sound generation time of the note data. In step 604 according to the present embodiment, for example, it is determined whether the sound length is greater than a 64th note. If it is determined Yes in step 604, the CPU 21 stores the note data (note data (i)) in the guide data area of the RAM 23 (step 606). On the other hand, when it is determined No in step 604, the CPU 21 determines whether or not the note indicated by the note data to be processed is a rest (step 605). When it is determined Yes in step 605, the CPU 21 stores the note data (note data (i)) as guide data in the guide data area of the RAM 23 (step 606).

ステップ605でNoと判断された場合、或いは、ステップ606が終了した後に、CPU21は、曲データエリアに次の音符の音符データが存在するかを判断する(ステップ607)。ステップ607でYesと判断された場合には、ステップ601に戻る。その一方、ステップ607でNoと判断された場合には処理を終了する。   When it is determined No in step 605 or after step 606 is completed, the CPU 21 determines whether or not there is note data for the next note in the song data area (step 607). If YES is determined in step 607, the process returns to step 601. On the other hand, if No is determined in step 607, the process is terminated.

本実施の形態にかかるガイドデータ作成処理においては、曲データエリアにおける音符データが示す音符において、装飾音であると考えられる音符を除き、装飾音が除かれた音符から構成される音符データをガイドデータとして、ガイドデータエリアに格納している。ここで、装飾音と考えられる音符は以下のものとしている。
(1)後続する音符が休符ではない。
(2)同時発音すべき音符がない(和音構成音ではない)。
(3)音長が所定値以下である。
(4)その音符は休符ではない。
In the guide data creation processing according to the present embodiment, note data composed of notes from which the decoration sound is removed is excluded from the notes indicated by the note data in the music data area, excluding the notes considered to be decoration sounds. Data is stored in the guide data area. Here, the notes considered as decoration sounds are as follows.
(1) The following note is not a rest.
(2) There are no notes that should be sounded simultaneously (not a chord component).
(3) The sound length is below a predetermined value.
(4) The note is not a rest.

すなわち、上記(1)〜(4)の全てが成立したものを装飾音と判断している。   That is, it is determined that a decoration sound is established when all of the above (1) to (4) are established.

このように、楽曲の音符を、装飾音を除去したものから構成し、その音符のみを、対応する鍵に配置されたLEDを発光することでガイドすることにより、楽曲の雰囲気を損なうことなく、初心者であっても演奏可能な音符をガイドすることが可能となる。   In this way, the musical notes are composed of those from which the decorative sound is removed, and only the musical notes are guided by emitting the LEDs arranged on the corresponding keys, without impairing the atmosphere of the musical piece, Even beginners can guide musical notes that can be played.

スイッチ処理(図3のステップ302)が終了すると、CPU21は、ガイド処理を実行する(ステップ303)。図8は、本実施の形態にかかるガイド処理の例を示すフローチャートである。図8に示すように、CPU21は、ガイドフラグが「1」であるかを判断する(ステップ801)。ステップ801でNoと判断された場合には処理を終了する。ステップ801でYesと判断された場合には、CPU21は、ガイドデータエリアに格納された音符データを読み出し(ステップ802)、読み出された音符データの発音時刻およびタイマの値(タイマ時刻)を参照して、タイマ時刻が発音時刻に達したかを判断する(ステップ803)。ステップ803でNoと判断された場合には、CPU21は、ガイドデータエリアから次の音符データを読み出して(ステップ806)、ガイドデータエリアから全ての音符データの読み出しが終了したかを判断する(ステップ807)。ステップ807でNoと判断された場合には、ステップ803に戻る。   When the switch process (step 302 in FIG. 3) ends, the CPU 21 executes a guide process (step 303). FIG. 8 is a flowchart showing an example of the guide processing according to the present embodiment. As shown in FIG. 8, the CPU 21 determines whether the guide flag is “1” (step 801). If it is determined No in step 801, the process ends. If YES is determined in step 801, the CPU 21 reads the note data stored in the guide data area (step 802), and refers to the sounding time and timer value (timer time) of the read note data. Then, it is determined whether the timer time has reached the sounding time (step 803). If it is determined No in step 803, the CPU 21 reads the next note data from the guide data area (step 806), and determines whether reading of all the note data from the guide data area has been completed (step 806). 807). If NO is determined in step 807, the process returns to step 803.

ステップ803でYesと判断された場合には、CPU21は、処理対象となる音符データ(音符データ(i))中の音高情報が示す鍵番号kに対応する鍵を発光すべく、LED群15に信号を出力する(ステップ804)。次いで、CPU21は、当該鍵番号kについての、発光残り時間On[k]に、当該音符データの発音時間をセットする(ステップ805)。これにより、ガイドデータエリア中の音符データが示す音符の発音時刻が到来すると、その音符に対応する鍵のLEDが点灯し、かつ、LEDは、その音符データ中の発音時間に相当する時間だけ発光する。   If it is determined Yes in step 803, the CPU 21 emits a key corresponding to the key number k indicated by the pitch information in the note data (note data (i)) to be processed. A signal is output to (step 804). Next, the CPU 21 sets the sound generation time of the note data for the remaining light emission time On [k] for the key number k (step 805). Thus, when the sounding time of the note indicated by the note data in the guide data area arrives, the LED of the key corresponding to the note is turned on, and the LED emits light for the time corresponding to the sounding time in the note data. To do.

ステップ807でYesと判断された場合には、CPU21は、鍵番号を示すパラメータnを初期化して(ステップ808)、発光残り時間On[n]が「0」であるかを判断する(ステップ809)。なお、発光残り時間On[n]は前述したタイマインタラプト処理において、所定の時間間隔でデクリメントされている。ステップ809でYesと判断された場合には、CPU21は、鍵番号nに対応する鍵を消灯するようにLED群15に信号を出力する(ステップ810)。ステップ809でNoと判断された場合、或いは、ステップ810が実行された後に、CPU21は、パラメータnをインクリメントして(ステップ811)、パラメータnが鍵盤総数を超えたか否かを判断する(ステップ812)。ステップ811でNoと判断された場合には、ステップ809に戻る。その一方、ステップ811でYesと判断された場合には処理を終了する。   If it is determined Yes in step 807, the CPU 21 initializes the parameter n indicating the key number (step 808) and determines whether the remaining light emission time On [n] is “0” (step 809). ). Note that the remaining light emission time On [n] is decremented at a predetermined time interval in the timer interrupt process described above. If it is determined Yes in step 809, the CPU 21 outputs a signal to the LED group 15 so that the key corresponding to the key number n is turned off (step 810). When it is determined No in step 809 or after step 810 is executed, the CPU 21 increments the parameter n (step 811) and determines whether the parameter n has exceeded the total number of keys (step 812). ). If NO is determined in step 811, the process returns to step 809. On the other hand, if it is determined Yes in step 811, the process ends.

ガイド処理(図3のステップ303)が終了すると、CPU21は、鍵盤処理を実行する(ステップ304)。図9は、本実施の形態にかかる鍵盤処理の例を示すフローチャートである。図9に示すように、CPU21は、鍵盤11の鍵を所定の順で(たとえば、音高の低い鍵から)走査して(ステップ901)、処理対象となる鍵の状態に変化があったか否かを判断する(ステップ902)。ステップ902で鍵がオン状態となった場合には、CPU21は、当該鍵の押鍵に基づき、鍵に対応する音高の楽音を発音することを示すノートオンイベントを生成する(ステップ903)。また、処理対象となる鍵がオフ状態となった場合には、CPU21は、離鍵された鍵に対応する音高の楽音を消音することを示すノートオフイベントを生成する(ステップ904)。ノートオンイベントおよびノートオフイベントは、RAM23のイベントエリアに格納される。   When the guide process (step 303 in FIG. 3) ends, the CPU 21 executes a keyboard process (step 304). FIG. 9 is a flowchart showing an example of keyboard processing according to the present embodiment. As shown in FIG. 9, the CPU 21 scans the keys of the keyboard 11 in a predetermined order (for example, from a key with a low pitch) (step 901), and whether or not the state of the key to be processed has changed. Is determined (step 902). When the key is turned on in step 902, the CPU 21 generates a note-on event indicating that a musical tone having a pitch corresponding to the key is generated based on the key depression (step 903). If the key to be processed is turned off, the CPU 21 generates a note-off event indicating that the musical tone having the pitch corresponding to the released key is muted (step 904). The note-on event and note-off event are stored in the event area of the RAM 23.

ステップ903、904が実行された後、或いは、ステップ902で鍵の状態に変化がないと判断された場合には、CPU21は、すべての鍵について処理が終了したかを判断する(ステップ905)。ステップ905でNoと判断された場合には、ステップ901に戻る。その一方、ステップ905でYesと判断された場合には処理を終了する。   After steps 903 and 904 are executed, or when it is determined in step 902 that there is no change in the key state, the CPU 21 determines whether the processing has been completed for all keys (step 905). If NO is determined in step 905, the process returns to step 901. On the other hand, if it is determined YES in step 905, the process is terminated.

鍵盤処理(ステップ304)の後に、発音処理が実行される(ステップ305)。図10は、本実施の形態にかかる発音処理の例を示すフローチャートである。CPU21は、RAM23のイベントエリアを参照して(ステップ1001)、未処理のイベントが存在するかを判断する(ステップ1002)。ステップ1002でNoと判断された場合には処理を終了する。ステップ1002でYesと判断された場合には、CPU21は、イベントがノートオンイベントであるかを判断する(ステップ1003)。ステップ1003でYesと判断された場合には、CPU21は、音源部26に対して、ノートオンイベントが示す音高の楽音を、所定の音色で発音するように指示を与える(ステップ1004)。音源部26は、指示に応答して、指定された音色の波形データを、指定された音高に基づいて読み出して、かつ、読み出された波形データに、エンベロープに基づく乗算値を乗算して楽音データを生成し、オーディオ回路27に出力する。   After the keyboard process (step 304), a sound generation process is executed (step 305). FIG. 10 is a flowchart illustrating an example of the sound generation process according to the present embodiment. The CPU 21 refers to the event area of the RAM 23 (step 1001), and determines whether there is an unprocessed event (step 1002). If it is determined No in step 1002, the process ends. If it is determined Yes in step 1002, the CPU 21 determines whether the event is a note-on event (step 1003). If YES is determined in step 1003, the CPU 21 instructs the sound source unit 26 to generate a musical tone having a pitch indicated by the note-on event with a predetermined tone color (step 1004). In response to the instruction, the sound source unit 26 reads the waveform data of the specified tone color based on the specified pitch, and multiplies the read waveform data by the multiplication value based on the envelope. Musical sound data is generated and output to the audio circuit 27.

ステップ1003でNoと判断された場合、つまり、イベントがノートオフイベントであった場合には、CPU21は、ノートオフイベントが示す音高の楽音を消音するように音源部26に指示を与える。音源部26は、指示に応答して、読み出された波形データに、徐々に減少するリリースのエンベロープを乗算して楽音データを生成してオーディオ回路27に出力する。   If it is determined No in step 1003, that is, if the event is a note-off event, the CPU 21 instructs the sound source unit 26 to mute the musical tone having the pitch indicated by the note-off event. In response to the instruction, the sound source unit 26 multiplies the read waveform data by a gradually decreasing release envelope to generate musical sound data and outputs the musical sound data to the audio circuit 27.

本実施の形態によれば、CPU21は、曲データエリアに格納された音符データを参照して、音符データが示す音符が装飾音に該当するか否かを判断し、装飾音に該当しないと判断された音符データを、ガイドデータとして、ガイドデータエリアに格納している。また、CPU21は、ガイドデータエリアに格納された音符データを読み出して、前記音符データに基づく鍵盤のLEDを発光させる。これにより、装飾音に該当しない音符についてのみ、音符に対応する鍵のLEDを発光させて、演奏者に押鍵を促す。したがって音符自体は簡素化されつつ、メロディの大枠に影響を与えず、かつ、楽曲の雰囲気を損なうことない演奏が可能となる。   According to the present embodiment, the CPU 21 refers to the note data stored in the song data area, determines whether or not the note indicated by the note data corresponds to a decorative sound, and determines that it does not correspond to a decorative sound. The recorded note data is stored as guide data in the guide data area. The CPU 21 reads the note data stored in the guide data area, and causes the keyboard LED based on the note data to emit light. As a result, the key LED corresponding to the note is emitted only for the note that does not correspond to the decoration sound, and the player is prompted to press the key. Therefore, the musical note itself is simplified, and it is possible to perform without affecting the outline of the melody and without impairing the atmosphere of the music.

また、本実施の形態によれば、CPU21は、音符データにしたがって、LEDを発音時刻に点灯し、発音時刻だけ継続して発光させる。音符の音長にしたがってLEDの発光を継続することで、演奏者に音符の長短を知らせることが可能となる。   Further, according to the present embodiment, the CPU 21 lights the LED at the sounding time according to the note data and continuously emits light only at the sounding time. By continuing the light emission of the LED according to the note length, it is possible to inform the performer of the length of the note.

さらに、本実施の形態によれば、CPU21は、
(1)後続する音符が休符ではない、
(2)同時発音すべき音符がない、
(3)音長が所定値以下である、および、
(4)その音符は休符ではない
ときに、音符が装飾音に該当すると判断する。これにより比較的簡単なロジックで適切に装飾音を特定することができる。
Furthermore, according to the present embodiment, the CPU 21
(1) The following note is not a rest,
(2) There are no notes to be pronounced simultaneously,
(3) The sound length is below a predetermined value, and
(4) When the note is not a rest, it is determined that the note corresponds to a decorative sound. As a result, the decoration sound can be appropriately specified with relatively simple logic.

本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。   The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.

たとえば、前記実施の形態においては、
(1)後続する音符が休符ではない。
(2)同時発音すべき音符がない(和音構成音ではない)。
(3)音長が所定値以下である。
(4)その音符は休符ではない。
という4つの条件が全てが成立した場合に、音符を装飾音と判断している。しかしながらこれに限定されるものではなく、たとえば、
(1)後続する音符が休符ではない。
(2)同時発音すべき音符がない(和音構成音ではない)。
(4)その音符は休符ではない。
(5)音長が、当該音符の前後所定数の音符の音長と比較して短い。
という4つの条件が全てが成立した場合に、音符を装飾音と判断しても良い。ここで、前後所定数の音符の音長は、たとえば、所定数の音符の音長の平均値を算出し、判断対象となった音符の音長と、算出された平均値とを比較すれば良い。或いは、判断対象となった音符の音長の、算出された平均値に対する比を算出し、比が所定値以下(たとえば、1/2以下)であった場合に、当該音符を装飾音であると判断しても良い。
For example, in the above embodiment,
(1) The following note is not a rest.
(2) There are no notes that should be sounded simultaneously (not a chord component).
(3) The sound length is below a predetermined value.
(4) The note is not a rest.
When all the four conditions are satisfied, the note is determined as a decoration sound. However, it is not limited to this. For example,
(1) The following note is not a rest.
(2) There are no notes that should be sounded simultaneously (not a chord component).
(4) The note is not a rest.
(5) The sound length is shorter than the sound length of a predetermined number of notes before and after the note.
The note may be determined as a decoration sound when all of the four conditions are satisfied. Here, the sound length of the predetermined number of notes before and after is calculated by, for example, calculating the average value of the sound lengths of the predetermined number of notes and comparing the sound length of the notes to be determined with the calculated average value. good. Alternatively, a ratio of the note length of the note to be determined to the calculated average value is calculated, and when the ratio is equal to or less than a predetermined value (for example, 1/2 or less), the note is a decorative sound. You may judge.

この例によれば、楽曲において判断対象となった音符の前後の音符の音長に比較して短い音符を装飾音として除去しえる。したがって、メロディ中のフレーズの大枠に与える影響の小さな短い音長の音符のみを省略することで、楽曲の雰囲気を損なわずに音符の省略が可能となる。   According to this example, it is possible to remove a note that is shorter than the note length before and after the note to be determined in the music piece as a decoration sound. Therefore, by omitting only the short-length notes that have a small effect on the outline of the phrase in the melody, it is possible to omit the notes without impairing the music atmosphere.

10 電子楽器
11 鍵盤
12 入力部
13 表示部
14 液晶表示装置
15 LED群
16 鍵
21 CPU
22 ROM
23 RAM
24 サウンドシステム
26 音源部
27 オーディオ回路
28 スピーカ
DESCRIPTION OF SYMBOLS 10 Electronic musical instrument 11 Keyboard 12 Input part 13 Display part 14 Liquid crystal display device 15 LED group 16 Key 21 CPU
22 ROM
23 RAM
24 Sound System 26 Sound Source 27 Audio Circuit 28 Speaker

Claims (5)

予め定められた楽曲を構成する音符のそれぞれについて、発音時刻と、音高或いは休符であることを示す情報と、を含む音符データを格納した音符データ記憶手段と、
演奏操作子の操作に基づいて、所定の音高の楽音データを生成する楽音データ生成手段と、
前記演奏操作子のそれぞれの近傍に配置され、当該演奏操作子の操作を指示する複数の発光素子と、を備えた電子楽器であって、
前記音符データ記憶手段に格納された音符データを参照して、当該音符データが示す音符が装飾音に該当するか否かを判断し、装飾音に該当しないと判断された音符データを、ガイドデータとして、ガイドデータ記憶手段に格納するガイドデータ生成手段と、
前記ガイドデータ記憶手段に格納された音符データを読み出して、前記音符データに基づく演奏操作子の発光素子を発光させる発光制御手段と、を備えたことを特徴とする電子楽器。
Note data storage means for storing note data including a sounding time and information indicating a pitch or a rest for each of the notes constituting a predetermined music piece;
Musical tone data generating means for generating musical tone data of a predetermined pitch based on the operation of the performance operator;
An electronic musical instrument comprising a plurality of light emitting elements arranged in the vicinity of each of the performance operators and instructing the operation of the performance operators,
With reference to the note data stored in the note data storage means, it is determined whether or not the note indicated by the note data corresponds to a decoration sound, and the note data determined not to be a decoration sound is determined as guide data. As guide data generation means for storing in the guide data storage means,
An electronic musical instrument comprising: light emission control means for reading out note data stored in the guide data storage means and causing a light emitting element of a performance operator based on the note data to emit light.
前記音符データが、前記音符のそれぞれについて発音時間を含み、
前記発光制御手段が、前記発光素子を、前記発音時刻に点灯し、発音時刻だけ継続して発光させることを特徴とする請求項1に記載の電子楽器。
The note data includes a pronunciation time for each of the notes;
2. The electronic musical instrument according to claim 1, wherein the light emission control unit lights the light emitting element at the sounding time and continuously emits light only at the sounding time.
前記ガイドデータ生成手段は、
(1)後続する音符が休符ではない、
(2)同時発音すべき音符がない、
(3)音長が所定値以下である、および、
(4)その音符は休符ではない
ときに、前記音符が装飾音に該当すると判断することを特徴とする請求項1または2に記載の電子楽器。
The guide data generation means includes
(1) The following note is not a rest,
(2) There are no notes to be pronounced simultaneously,
(3) The sound length is below a predetermined value, and
(4) The electronic musical instrument according to claim 1 or 2, wherein when the note is not a rest, it is determined that the note corresponds to a decorative sound.
前記ガイドデータ生成手段が、
(1)後続する音符が休符ではない
(2)同時発音すべき音符がない
(4)その音符は休符ではない、および、
(5)音長が、当該音符の前後所定数の音符の音長と比較して短い
ときに、前記音符が装飾音に該当すると判断することを特徴とする請求項1または2に記載の電子楽器。
The guide data generating means
(1) the following note is not a rest (2) there are no notes to be played simultaneously (4) the note is not a rest, and
(5) The electronic device according to claim 1 or 2, wherein when the sound length is shorter than the sound length of a predetermined number of notes before and after the note, it is determined that the note corresponds to a decorative sound. Musical instrument.
予め定められた楽曲を構成する音符のそれぞれについて、発音時刻と、音高或いは休符であることを示す情報と、を含む音符データを格納した音符データ記憶手段と、操作子のそれぞれの近傍に配置され、当該操作子の操作を指示する複数の発光素子とを備えたコンピュータに、
前記操作子の操作に基づいて、所定の音高の楽音データを生成する楽音データ生成ステップと、
前記音符データ記憶手段に格納された音符データを参照して、当該音符データが示す音符が装飾音に該当するか否かを判断し、装飾音に該当しないと判断された音符データを、ガイドデータとして、ガイドデータ記憶手段に格納するガイドデータ生成ステップと、
前記ガイドデータ記憶手段に格納された音符データを読み出して、前記音符データに基づく操作子の発光素子を発光させる発光制御ステップと、を実行させることを特徴とする電子楽器のプログラム。
For each of the notes making up a predetermined musical piece, a note data storage means storing note data including the sound generation time and information indicating the pitch or rest, and in the vicinity of each of the operators In a computer provided with a plurality of light emitting elements arranged and instructing operation of the operation element,
A musical sound data generating step for generating musical sound data of a predetermined pitch based on the operation of the operator;
With reference to the note data stored in the note data storage means, it is determined whether or not the note indicated by the note data corresponds to a decoration sound, and the note data determined not to be a decoration sound is determined as guide data. As a guide data generation step to be stored in the guide data storage means,
A program for an electronic musical instrument, comprising: performing a light emission control step of reading note data stored in the guide data storage means and causing a light emitting element of an operator to emit light based on the note data.
JP2009032380A 2009-02-16 2009-02-16 Electronic musical instrument and program for the electronic musical instrument Pending JP2010190942A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009032380A JP2010190942A (en) 2009-02-16 2009-02-16 Electronic musical instrument and program for the electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009032380A JP2010190942A (en) 2009-02-16 2009-02-16 Electronic musical instrument and program for the electronic musical instrument

Publications (1)

Publication Number Publication Date
JP2010190942A true JP2010190942A (en) 2010-09-02

Family

ID=42817085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009032380A Pending JP2010190942A (en) 2009-02-16 2009-02-16 Electronic musical instrument and program for the electronic musical instrument

Country Status (1)

Country Link
JP (1) JP2010190942A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10347229B2 (en) 2017-03-24 2019-07-09 Casio Computer Co., Ltd. Electronic musical instrument, method of controlling the electronic musical instrument, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10347229B2 (en) 2017-03-24 2019-07-09 Casio Computer Co., Ltd. Electronic musical instrument, method of controlling the electronic musical instrument, and recording medium

Similar Documents

Publication Publication Date Title
JP5168297B2 (en) Automatic accompaniment device and automatic accompaniment program
JP5041015B2 (en) Electronic musical instrument and musical sound generation program
JP2004264501A (en) Keyboard musical instrument
JP6638624B2 (en) Keyboard instrument
JP5897805B2 (en) Music control device
JP2010190942A (en) Electronic musical instrument and program for the electronic musical instrument
JP4268920B2 (en) Electronic musical instruments
JP5912268B2 (en) Electronic musical instruments
JP2010117419A (en) Electronic musical instrument
JP6410345B2 (en) Sound preview apparatus and program
JP5692275B2 (en) Electronic musical instruments
JP5560574B2 (en) Electronic musical instruments and automatic performance programs
JP5640308B2 (en) Performance device and performance processing program
JP3620366B2 (en) Electronic keyboard instrument
JP5827484B2 (en) Music control device
JP4094441B2 (en) Electronic musical instruments
JP7263998B2 (en) Electronic musical instrument, control method and program
JP5742592B2 (en) Musical sound generation device, musical sound generation program, and electronic musical instrument
JP5453966B2 (en) Musical sound generating device and musical sound generating program
JP5600968B2 (en) Automatic performance device and automatic performance program
JP2009025503A (en) Electronic musical instrument
JP6305275B2 (en) Voice assist device and program for electronic musical instrument
JP2004258383A (en) Electronic musical instrument
JP5703543B2 (en) Electronic musical instrument, method and program
JP5463724B2 (en) Musical sound generating device and musical sound generating program