JP2002040921A - Method and device for guiding performance, and recording medium - Google Patents

Method and device for guiding performance, and recording medium

Info

Publication number
JP2002040921A
JP2002040921A JP2000222216A JP2000222216A JP2002040921A JP 2002040921 A JP2002040921 A JP 2002040921A JP 2000222216 A JP2000222216 A JP 2000222216A JP 2000222216 A JP2000222216 A JP 2000222216A JP 2002040921 A JP2002040921 A JP 2002040921A
Authority
JP
Japan
Prior art keywords
data
sound
name
performance
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000222216A
Other languages
Japanese (ja)
Other versions
JP3674469B2 (en
Inventor
Tomoyuki Funaki
知之 船木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2000222216A priority Critical patent/JP3674469B2/en
Publication of JP2002040921A publication Critical patent/JP2002040921A/en
Application granted granted Critical
Publication of JP3674469B2 publication Critical patent/JP3674469B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide various performance guides. SOLUTION: When a position to be operated on a performance operation part 36 is instructed by an indication element group or indicators or the like belonging to a display part 40, either an accompaniment indication mode or a code indication mode is selected by an operator group 38. When the accompaniment indication mode is selected, the position to be operated is indicated by a display means based on an accompaniment data in a storage part 16A, and when the code indication mode is selected, the position to be operated is indicated by the display means based on a code progressing data on the storage part 16A. When automatic performance is carried out during halt of the performance guide, an indication pattern varying according to the progress of the automatic performance may be displayed by the display means. When a sound name to be generated is uttered in a syllable name or a pitch name or the like, a note with an accidental mark may be expressed by 'A', 'I', 'U', or the like, or a sound name may be uttered in a different sound data according to the note length.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、鍵盤演奏等の練
習に用いるに好適な演奏ガイド方法、演奏ガイド装置及
び記録媒体に関し、特に操作すべき位置を表示手段で指
示する際に伴奏操作すべき位置を指示するモード又はコ
ード操作すべき位置を指示するモードを任意に選択した
り、発生すべき音の名称を発音させる際に臨時記号付き
の音符については音名又は階名以外の短い名称(例えば
「ア」)を発音させたりすることにより多彩な演奏ガイ
ドを実現したものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a performance guide method, a performance guide device, and a recording medium suitable for use in practicing keyboard playing and the like, and more particularly, to perform an accompaniment operation when a position to be operated is indicated by a display means. When arbitrarily selecting a mode indicating a position or a mode indicating a position where a chord is to be operated, or when generating a name of a sound to be generated, for notes with accidentals, short names other than note names or scale names ( For example, a variety of performance guides can be realized by, for example, producing “A”).

【0002】[0002]

【従来の技術】従来、鍵盤楽器用の演奏ガイド装置とし
ては、鍵盤の複数の鍵にそれぞれ対応して設けた複数の
発光素子を選択的に点灯させる発光型式のもの等が知ら
れている。
2. Description of the Related Art Hitherto, as a performance guide device for a keyboard instrument, there has been known a light emitting type device for selectively lighting a plurality of light emitting elements provided corresponding to a plurality of keys of a keyboard.

【0003】発光型式の演奏ガイド装置としては、
(イ)記憶したコード進行データに基づいてコード構成
音に対応する発光素子を点灯させるもの、(ロ)記憶し
た伴奏データ(左手演奏データ)に基づいて発光素子を
点灯させるもの等が知られている。
[0003] As a light emitting type performance guide device,
(B) One that turns on a light emitting element corresponding to a chord component sound based on stored chord progression data, and (b) One that turns on a light emitting element based on stored accompaniment data (left hand performance data). I have.

【0004】発音型式の演奏ガイド装置としては、臨時
記号(シャープ又はフラット)なしの音符については階
名を発音させると共に臨時記号付きの音符については階
名の発音に並行してシャープ又はフラットの記号に対応
する発光素子を点灯させるものが知られている。
[0004] As a musical performance guide device of the pronunciation type, a musical note without an accidental symbol (sharp or flat) is pronounced with a floor name, and a musical note with an accidental symbol is marked with a sharp or flat symbol in parallel with the pronunciation of the musical floor name. There is known a device that turns on a light emitting element corresponding to.

【0005】[0005]

【発明が解決しようとする課題】伴奏練習において、初
心者は、自動伴奏に関連してコード指定のための演奏ガ
イドを利用することが多く、上級者は、マニアル伴奏の
ための演奏ガイドを利用することが多い。しかしなが
ら、これらの演奏ガイドは、従来技術(イ)、(ロ)に
関して上記したように別々の演奏ガイド装置で実現され
ていたものであり、1つの演奏ガイド装置で2種類の演
奏ガイドを利用することはできなかった。
In accompaniment practice, beginners often use a performance guide for specifying a chord in connection with automatic accompaniment, and advanced users use a performance guide for manual accompaniment. Often. However, these performance guides are realized by separate performance guide devices as described above with respect to the prior arts (a) and (b), and one performance guide device utilizes two types of performance guides. I couldn't do that.

【0006】また、発光素子は、演奏ガイドに使用され
るものの、演奏ガイドの停止中は不使用であり、十分に
活用されていなかった。
Although the light emitting element is used for a performance guide, it is not used while the performance guide is stopped and is not fully utilized.

【0007】一方、発音型式の演奏ガイド装置では、臨
時記号付きの音符についてシャープ又はフラットの記号
に対応する発光素子を注視する必要があり、ユーザが練
習に専念するのを妨げる要因になっていた。
On the other hand, in a pronunciation-type performance guide device, it is necessary to watch a light-emitting element corresponding to a sharp or flat symbol for a musical note with an accidental symbol, which is a factor that hinders the user from concentrating on practice. .

【0008】また、短い音符に対応する階名を発音する
際に、階名の発音が短く且つ明瞭でないため、ユーザが
十分に聴取できないことがあった。
[0008] Further, when a floor name corresponding to a short musical note is pronounced, the user may not be able to hear the floor name sufficiently because the pronunciation of the floor name is short and unclear.

【0009】この発明の目的は、上記のような問題点を
解決した新規な演奏ガイド方法及び装置を提供すること
にある。
An object of the present invention is to provide a novel performance guide method and apparatus which solve the above-mentioned problems.

【0010】[0010]

【課題を解決するための手段】この発明に係る第1の演
奏ガイド方法は、演奏操作部に関して操作すべき位置を
表示手段で指示することにより演奏ガイドを行なう演奏
ガイド方法であって、第1及び第2の指示モードのうち
いずれかの指示モードを選択するステップと、前記第1
の指示モードの選択時には所定の楽曲に関する伴奏曲を
表わす伴奏データを発生すると共に前記第2の指示モー
ドの選択時には前記楽曲に関するコード進行に従って操
作すべき位置を表わす操作位置データを発生するステッ
プと、前記第1の指示モードの選択時には発生に係る伴
奏データに基づいて操作すべき位置を前記表示手段に指
示させると共に前記第2の指示モードの選択時には発生
に係る操作位置データに基づいて操作すべき位置を前記
表示手段に指示させるステップとを含むものである。
A first performance guide method according to the present invention is a performance guide method for performing a performance guide by indicating a position to be operated with respect to a performance operation unit by a display means. Selecting one of the instruction modes from the first and second instruction modes;
Generating an accompaniment data representing an accompaniment music related to a predetermined music when the instruction mode is selected, and generating operation position data representing a position to be operated in accordance with a chord progression regarding the music when the second instruction mode is selected; When the first instruction mode is selected, a position to be operated is instructed on the display means based on the accompaniment data related to the occurrence, and when the second instruction mode is selected, the operation should be performed based on the operation position data related to the occurrence. Causing the display means to indicate a position.

【0011】第1の演奏ガイド方法によれば、第1の指
示モードを選択すると、表示手段では、伴奏データに基
づいて操作すべき位置が指示される。従って、ユーザ
は、操作すべき位置の指示に従って伴奏の練習を行なう
ことができる。また、第2の指示モードを選択すると、
表示手段では、操作位置データに基づいて操作すべき位
置が指示される。従って、ユーザは、操作すべき位置の
指示に従ってコード指定の練習を行なうことができる。
According to the first performance guiding method, when the first instruction mode is selected, a position to be operated is indicated on the display means based on the accompaniment data. Therefore, the user can practice accompaniment according to the instruction of the position to be operated. When the second instruction mode is selected,
The display means indicates a position to be operated based on the operation position data. Therefore, the user can practice the code designation according to the instruction of the position to be operated.

【0012】この発明に係る第2の演奏ガイド方法は、
演奏操作部に関して操作すべき位置を表示手段で指示す
ることにより演奏ガイドを行なう演奏ガイド方法であっ
て、前記演奏ガイドの停止中に楽曲の自動演奏を行なう
ステップと、前記演奏ガイドの停止中に前記自動演奏の
進行に従って演奏内容に相当する指示パターンとは異な
る態様で変化する指示パターンを前記表示手段に表示さ
せるステップとを含むものである。
[0012] A second performance guiding method according to the present invention comprises:
A performance guide method for performing a performance guide by indicating a position to be operated with respect to a performance operation unit by a display means, wherein a step of automatically performing a music while the performance guide is stopped; and Displaying on the display means an instruction pattern that changes in a manner different from the instruction pattern corresponding to the content of the performance as the automatic performance progresses.

【0013】第2の演奏ガイド方法によれば、演奏ガイ
ドの停止中に楽曲の自動演奏が行なわれると共に、自動
演奏の進行に従って変化する指示パターンが表示され
る。従って、ユーザは、所望の楽曲の自動演奏を聞きな
がら表示手段で表示される指示パターンをイルミネーシ
ョンとして楽しむことができる。
According to the second performance guide method, an automatic performance of the music is performed while the performance guide is stopped, and an instruction pattern that changes with the progress of the automatic performance is displayed. Therefore, the user can enjoy the instruction pattern displayed on the display means as illumination while listening to the automatic performance of the desired music.

【0014】この発明に係る第3の演奏ガイド方法は、
演奏操作部に関して発生すべき音の名称を発音手段で発
音させることにより演奏ガイドを行なう演奏ガイド方法
であって、演奏すべき曲を構成する複数の音符のうち臨
時記号なしの音符を音名又は階名からなる第1種の名称
で指示すると共に臨時記号付きの音符を音名又は階名以
外で臨時記号名より短い第2種の名称で指示するように
して前記曲の進行に従って各音符毎に該第1又は第2種
の名称で発生すべき音を指示する指示データを発生する
ステップと、発生に係る各指示データの指示する名称を
前記発音手段に発音させるステップとを含むものであ
る。
[0014] A third performance guiding method according to the present invention comprises:
A performance guide method for performing a performance guide by causing a sound generating means to generate a name of a sound to be generated with respect to a performance operation unit, wherein a note without an accidental symbol is replaced with a note or accidental note among a plurality of notes constituting a music to be played. A note with accidentals is designated by a first type name consisting of floor names, and notes with accidentals are designated by second type names other than note names or floor names, which are shorter than accidental names. Generating the instruction data indicating the sound to be generated with the first or second type name, and causing the sounding means to generate the name specified by each instruction data relating to the generation.

【0015】第3の演奏ガイド方法によれば、臨時記号
なしの音符については音名又は階名が発音されると共
に、臨時記号付きの音符については例えば「C♯」であ
れば「ア」が、「D♯」であれば「イ」が発音される。
従って、ユーザは、臨時記号対応の発光素子を見ること
なく即座に発生すべき音を認識することができる。
According to the third performance guide method, note names or scale names are pronounced for notes without accidentals, and "A" is given for notes with accidentals, for example, "C ア". , "D @", "a" is pronounced.
Therefore, the user can immediately recognize the sound to be generated without looking at the accidental light emitting element.

【0016】この発明に係る第4の演奏ガイド方法は、
演奏操作部に関して発生すべき音の名称を発音手段で発
音させることにより演奏ガイドを行なう演奏ガイド方法
であって、発生すべき音の名称及び発音長を指示するス
テップと、発生すべき音の名称を発音するための音声デ
ータとして発音長の短い第1の音声データ及び発音長の
長い第2の音声データを記憶した記憶手段から指示に係
る短い発音長に対応して第1の音声データを読出して発
音長の短い名称を前記発音手段に発音させると共に指示
に係る長い発音長に対応して第2の音声データを読出し
て発音長の長い名称を前記発音手段に発音させるステッ
プとを含むものである。
A fourth performance guiding method according to the present invention comprises:
A performance guide method for performing a performance guide by causing a sound generation means to generate a name of a sound to be generated with respect to a performance operation unit, wherein a step of designating a name of a sound to be generated and a sound length; The first voice data corresponding to the short pronunciation length according to the instruction is read from the storage means storing the first audio data having a short pronunciation length and the second audio data having a long pronunciation length as the audio data for producing the sound. And causing the sounding means to sound a name with a short sounding length, reading the second voice data corresponding to the long sounding length according to the instruction, and causing the sounding means to sound the name having a long sounding length.

【0017】第4の演奏ガイドの方法によれば、短い発
音長が指示されると、発音長の短い第1の音声データに
基づいて発音長の短い名称が発音され、長い発音長が指
示されると、発音長の長い第2の音声データに基づいて
発音長の長い名称が発音される。従って、ユーザは、発
音長の短い名称及び長い名称のいずれも明確に聴取する
ことができる。
According to the fourth performance guide method, when a short pronunciation length is designated, a short pronunciation length is pronounced based on the first speech data having a short pronunciation length, and a long pronunciation length is designated. Then, a name with a long pronunciation length is pronounced based on the second sound data with a long pronunciation length. Therefore, the user can clearly hear both short and long pronunciation names.

【0018】[0018]

【発明の実施の形態】図1は、この発明の一実施形態に
係る演奏ガイド装置を備えた電子楽器の回路構成を示す
ものであり、この電子楽器は、パーソナルコンピュータ
等の小型コンピュータによって楽音発生、演奏ガイド等
が制御されるようになっている。
FIG. 1 shows a circuit configuration of an electronic musical instrument provided with a performance guide device according to an embodiment of the present invention. This electronic musical instrument generates a musical sound by a small computer such as a personal computer. , A performance guide and the like are controlled.

【0019】バス10には、CPU(中央処理装置)1
2、ROM(リード・オンリィ・メモリ)14、RAM
(ランダム・アクセス・メモリ)16、検出回路18,
20、表示回路22、音源回路24、効果回路26、外
部記憶装置28、MIDI(Musical Instrument Dig
ital Interface)インターフェース30、通信インタ
ーフェース32、タイマ34等が接続されている。
The bus 10 has a CPU (Central Processing Unit) 1
2, ROM (Read Only Memory) 14, RAM
(Random access memory) 16, detection circuit 18,
20, display circuit 22, sound source circuit 24, effect circuit 26, external storage device 28, MIDI (Musical Instrument Dig)
Ital interface), a communication interface 32, a timer 34 and the like are connected.

【0020】CPU12は、ROM14にストアされた
プログラムに従って楽音発生、演奏ガイド等のための各
種処理を実行するもので、演奏ガイド処理については図
3〜7を参照して後述する。
The CPU 12 executes various processes for tone generation, performance guide, and the like in accordance with a program stored in the ROM 14. The performance guide process will be described later with reference to FIGS.

【0021】RAM16は、CPU12による各種処理
に際して利用される種々の記憶部を含むもので、この発
明の実施に関係する記憶部としては、曲データ記憶部1
6A、伴奏パターンデータ記憶部16B、指示パターン
データ記憶部16C等を含んでいる。
The RAM 16 includes various storage units used for various processes by the CPU 12. As the storage units related to the embodiment of the present invention, the music data storage unit 1
6A, an accompaniment pattern data storage section 16B, an instruction pattern data storage section 16C, and the like.

【0022】検出回路18は、演奏操作部36から演奏
操作情報を検出するものである。演奏操作部36は、一
例として図2(A)に示すような鍵盤36Aからなるも
のであるが、ギターの音高指定部等であってもよい。
The detection circuit 18 detects performance operation information from the performance operation section 36. The performance operation section 36 is composed of a keyboard 36A as shown in FIG. 2A as an example, but may be a pitch designation section of a guitar.

【0023】検出回路20は、操作子群38から各種操
作子の操作情報を検出するものである。操作子群38
は、楽器本体のパネル面に設けられた楽音制御用及び演
奏制御用の各種操作子を含むと共に、文字入力及び数値
入力が可能なキーボードを含んでおり、ポインティング
デバイスとしてのマウスも含んでいる。
The detection circuit 20 detects operation information of various operators from the operator group 38. Operator group 38
Includes a keyboard for inputting characters and numerical values, and a mouse as a pointing device, in addition to various controls for tone control and performance control provided on the panel surface of the instrument body.

【0024】表示回路22は、表示部40の表示動作を
制御することにより各種の表示を可能にするものであ
る。表示部40は、楽譜等を表示可能な表示器(図示せ
ず)を含むと共に、図2(A)に示すように鍵盤36A
の各鍵に対応してその近傍に配置されたランプ又はLE
D(発光ダイオード)のような表示素子Lからなる表示
素子群40Aを含んでいる。
The display circuit 22 enables various displays by controlling the display operation of the display unit 40. The display unit 40 includes a display (not shown) capable of displaying a score or the like, and a keyboard 36A as shown in FIG.
Lamp or LE arranged near each key of
A display element group 40A including a display element L such as D (light emitting diode) is included.

【0025】音源回路24は、多数(例えば64個)の
楽音発生チャンネルを有するもので各楽音発生チャンネ
ルは、ピアノ、オルガン、フルート、バスドラム、シン
バル等の各種音色の楽音信号を発生可能であると共に、
「ド」、「レ」、「ミ」…等の階名、「シ」、「ディ
ー」、「イー」…等の音名、「ア」、「イ」、「ウ」…
等の特殊階名、「タ」、「チ」、「ツ」…等の特殊音名
を表わす音声信号を発生可能である。ここで、「ア」、
「イ」、「ウ」は、「ド#」、「レ#」、「ファ#」に
それぞれ対応し、「タ」、「チ」、「ツ」は、「シ
#」、「ディー#」、「エフ#」にそれぞれ対応する。
The tone generator circuit 24 has a large number (for example, 64) of tone generating channels. Each tone generating channel can generate tone signals of various tone colors such as piano, organ, flute, bass drum, cymbal and the like. Along with
Floor names such as "do,""re,""mi," etc., note names such as "shi,""de,""e," etc., "a,""i,""u,..."
And the like, and audio signals representing special note names such as "ta", "chi", "tu", etc. can be generated. Where "A",
"I" and "U" correspond to "de #", "le #", and "fa #", respectively, and "ta", "chi", and "tu" correspond to "shi #" and "dee #". , "F #" respectively.

【0026】音源回路24は、波形記憶方式、フォルマ
ント合成方式等の公知の方式で構成可能であるが、この
実施形態では、一例として波形記憶方式を用いる。楽音
信号については音色毎に楽音波形を表わす楽音データを
楽音メモリに記憶しておき、発音要求のあった音色の楽
音波形を読出して楽音信号を発生する。音声信号につい
ては発生すべき音の名称毎に発音長の短い音声波形を表
わす短音用の音声データと発音長の長い音声波形を表わ
す長音用の音声データとを音声メモリに記憶しておき、
発音要求のあった名称について発音長が短ければ短音用
の音声データを読出して音声信号を発生し、発音長が長
ければ長音用の音声データを読出して音声信号を発生す
る。
The tone generator circuit 24 can be constituted by a known system such as a waveform storage system and a formant synthesis system. In this embodiment, a waveform storage system is used as an example. For the tone signal, tone data representing a tone waveform for each tone is stored in a tone memory, and a tone waveform of a tone requested to be generated is read out to generate a tone signal. For the sound signal, short-sound sound data representing a short-sounding sound waveform and long-sound sound data representing a long-sounding sound waveform are stored in a sound memory for each sound name to be generated,
If the pronunciation length of the name for which the pronunciation is requested is short, the audio data for the short tone is read to generate an audio signal, and if the pronunciation length is long, the audio data for the long tone is read to generate the audio signal.

【0027】音声データは、オクターブ毎に別々に持つ
ようにしてもよいし、一部又は全部のオクターブで共用
するようにしてもよい。音声データを複数のオクターブ
で共用する場合、オクターブ毎に対応するピッチで発音
させてもよいし、複数のオクターブについて一定のピッ
チで発音させてもよい。
The audio data may be held separately for each octave, or may be shared by some or all octaves. When the audio data is shared by a plurality of octaves, the sound may be produced at a pitch corresponding to each octave, or may be produced at a constant pitch for a plurality of octaves.

【0028】効果回路26は、音源回路24から発生さ
れる楽音信号及び音声信号に対してコーラス、リバー
ブ、エコー等の効果を付加可能なものである。ユーザ
は、操作子群38中の操作子の操作により効果の付加/
非付加、効果量等を設定可能である。効果回路26から
送出される楽音信号及び音声信号は、サウンドシステム
42に供給され、音響に変換される。
The effect circuit 26 can add effects such as chorus, reverb, and echo to the tone signal and audio signal generated from the tone generator 24. The user operates the operator in the operator group 38 to add / add an effect.
Non-addition, effect amount, etc. can be set. The tone signal and the audio signal sent from the effect circuit 26 are supplied to the sound system 42 and converted into sound.

【0029】外部記憶装置28は、HD(ハードディス
ク)、FD(フロッピー(登録商標)ディスク)、CD
(コンパクトディスク)、DVD(ディジタル多目的デ
ィスク)、MO(光磁気ディスク)等のうち1又は複数
種類の記録媒体を着脱可能なものである。外部記憶装置
28に所望の記録媒体を装着した状態では、記録媒体か
らRAM16へデータを転送可能である。また、装着し
た記録媒体がHDやFDのように書込可能なものであれ
ば、RAM16のデータを記録媒体に転送可能である。
The external storage device 28 includes HD (hard disk), FD (floppy (registered trademark) disk), and CD.
(Compact disk), DVD (digital versatile disk), MO (magneto-optical disk), etc., one or more types of recording media can be attached and detached. When a desired recording medium is mounted on the external storage device 28, data can be transferred from the recording medium to the RAM 16. If the mounted recording medium is a writable one such as HD or FD, the data in the RAM 16 can be transferred to the recording medium.

【0030】プログラム記録手段としては、ROM14
の代りに外部記憶装置28の記録媒体を用いることがで
きる。この場合、記録媒体に記録したプログラムは、外
部記憶装置28からRAM16へ転送する。そして、R
AM16に記憶したプログラムにしたがってCPU12
を動作させる。このようにすると、プログラムの追加や
バージョンアップ等を容易に行なうことができる。
The program recording means includes a ROM 14
Instead, the recording medium of the external storage device 28 can be used. In this case, the program recorded on the recording medium is transferred from the external storage device 28 to the RAM 16. And R
CPU 12 according to the program stored in AM 16
To work. By doing so, it is possible to easily add a program, upgrade a version, and the like.

【0031】MIDIインターフェース30は、自動演
奏装置等の他のMIDI機器44との間で演奏情報等の
送受信を行なうために設けられたものである。
The MIDI interface 30 is provided for transmitting and receiving performance information and the like to and from another MIDI device 44 such as an automatic performance device.

【0032】通信インターフェース32は、通信ネット
ワーク46(例えばLAN(ローカル・エリア・ネット
ワーク)、インターネット、電話回線等の有線又は無線
のネットワーク)を介してサーバコンピュータ48と情
報通信を行なうために設けられたものである。この発明
の実施に必要なプログラムや各種データは、サーバコン
ピュータ48から通信ネットワーク46及び通信インタ
ーフェース32を介してRAM16又は外部記憶装置2
8へダウンロード要求に応じて取込むようにしてもよ
い。
The communication interface 32 is provided for performing information communication with a server computer 48 via a communication network 46 (for example, a wired or wireless network such as a LAN (local area network), the Internet, or a telephone line). Things. Programs and various data necessary for implementing the present invention are transmitted from the server computer 48 to the RAM 16 or the external storage device 2 via the communication network 46 and the communication interface 32.
8 may be loaded in response to a download request.

【0033】タイマ34は、与えられるテンポデータT
Mに対応する周期でテンポクロック信号TCLを発生す
るもので、テンポクロック信号TCLは、割込命令とし
てCPU12に供給される。CPU12は、テンポクロ
ック信号TCLの各クロックパルス毎に割込処理を開始
する。このような割込処理を利用することにより記憶部
16Aのメロディデータに基づく演奏ガイド、記憶部1
6Aの伴奏データ基づく自動伴奏及び演奏ガイド、記憶
部16Aのコード進行データに基づく演奏ガイド、記憶
部16Bの伴奏パターンデータに基づく自動伴奏、記憶
部16Cの指示パターンデータに基づく指示パターンの
表示等が可能になる。
The timer 34 receives the tempo data T
The tempo clock signal TCL is generated at a cycle corresponding to M. The tempo clock signal TCL is supplied to the CPU 12 as an interrupt command. The CPU 12 starts an interrupt process for each clock pulse of the tempo clock signal TCL. By utilizing such interrupt processing, a performance guide based on the melody data in the storage unit 16A, the storage unit 1
Automatic accompaniment and performance guide based on 6A accompaniment data, performance guide based on chord progression data in storage unit 16A, automatic accompaniment based on accompaniment pattern data in storage unit 16B, display of instruction pattern based on instruction pattern data in storage unit 16C, and the like. Will be possible.

【0034】図3は、演奏ガイド処理の第1の例を示す
ものである。データベース(ROM14又は外部記憶装
置28)には、多数の楽曲について各楽曲毎にメロディ
を表わすメロディデータと伴奏を表わす伴奏データとコ
ード進行を表すコード進行データとが記憶されている。
FIG. 3 shows a first example of the performance guide processing. The database (the ROM 14 or the external storage device 28) stores melody data representing a melody, accompaniment data representing an accompaniment, and chord progression data representing a chord progression for each of a large number of music pieces.

【0035】メロディデータは、発生すべき音毎に発生
タイミングを表わすオンタイミングデータと音高を表わ
すノートオンイベントデータとを含むと共に消去すべき
音毎に消去タイミングを表わすオフタイミングデータと
音高を表わすノートオフイベントデータとを含んでい
る。
The melody data includes on-timing data indicating generation timing and note-on event data indicating pitch for each sound to be generated, and sets off-timing data and pitch indicating deletion timing for each sound to be deleted. Note-off event data to be represented.

【0036】伴奏データは、左手伴奏パートの伴奏デー
タを含むと共に、ベースパート、リズムパート等の伴奏
データを含むこともある。左手伴奏パート及びベースパ
ートの伴奏データは、メロディデータと同様の構成であ
る。リズムパートの伴奏データは、発音すべきタイミン
グ毎にそのタイミングを表わすタイミングデータとその
タイミングで発音すべき1又は複数の打楽器音等のリズ
ム音を表わすリズム音指定データとを含んでいる。
The accompaniment data includes accompaniment data of a left-hand accompaniment part, and may also include accompaniment data of a bass part, a rhythm part and the like. The accompaniment data of the left-hand accompaniment part and the bass part have the same configuration as the melody data. The accompaniment data of the rhythm part includes, for each timing to be sounded, timing data indicating the timing and rhythm sound designation data indicating one or more rhythm sounds such as percussion sounds to be sounded at the timing.

【0037】コード進行データは、所定の演奏区間(例
えば1小節)毎にコードを指定するコード指定データ
(例えばコード根音及びコードタイプを表わすデータ)
を含むものである。
The chord progression data is chord designation data (for example, data representing a chord root and a chord type) for designating a chord for each predetermined performance section (for example, one bar).
Is included.

【0038】ステップSでは、指示モード選択処理を
行なう。指示モードとしては、コード指示モードと伴奏
指示モードとがあり、いずれかの指示モードがユーザに
よる操作子群38での選択操作により選択される。コー
ド指示モードは、コード進行データの表わすコード進行
に従って操作すべき位置を指示するモードであり、伴奏
指示モードは、伴奏データ中の左手伴奏パートの伴奏デ
ータに基づいて操作すべき位置を指示するモードであ
る。
[0038] In step S 1, an instruction mode selection process. The instruction mode includes a chord instruction mode and an accompaniment instruction mode, and one of the instruction modes is selected by a user's selection operation on the operation group 38. The chord instruction mode is a mode for instructing a position to be operated in accordance with a chord progression represented by chord progression data, and the accompaniment instruction mode is a mode for instructing a position to be operated based on accompaniment data of a left-hand accompaniment part in the accompaniment data. It is.

【0039】ユーザは、表示部40の表示器に表示され
る曲名等を参考にして操作子群38中の操作子の操作に
よりデータベースから所望の楽曲を選択することができ
る。選択に係る楽曲のメロディデータ、伴奏データ及び
コード進行データは、図3に示すように記憶部16Aに
書込まれる。また、ユーザが選択に係る楽曲に合わせて
例えばワルツ等の伴奏スタイルを選択すると、選択に係
る伴奏スタイルに対応する伴奏パターンデータがデータ
ベースから読出されて記憶部16Bに書込まれる。伴奏
パターンデータは、所定のコード(例えばCメジャー)
を基準として前述のメロディデータと同様にして作成さ
れたもので、所定のコード以外のコードが指定されたと
きは指定に係るコードに応じて音高を変換して自動伴奏
を行なう。
The user can select a desired song from the database by operating the operators in the operator group 38 with reference to the song names displayed on the display of the display unit 40. The melody data, accompaniment data, and chord progression data of the selected music are written into the storage unit 16A as shown in FIG. When the user selects an accompaniment style such as a waltz in accordance with the selected music, the accompaniment pattern data corresponding to the selected accompaniment style is read from the database and written into the storage unit 16B. The accompaniment pattern data is a predetermined chord (for example, C major)
When the chord other than the predetermined chord is designated, the pitch is converted according to the designated chord and the automatic accompaniment is performed.

【0040】ステップSでは、コードモード選択処理
を行なう。コードモードとしては、シングルフィンガコ
ードモードとフィンガードコードモードとがあり、いず
れかのコードモードがユーザによる操作子群38での選
択操作により選択される。シングルフィンガコードモー
ドは、例えばメジャーならば根音のみを指示し、マイナ
ーならば根音と近くの黒鍵を指示しというように根音と
コードタイプに応じた所定鍵とを指示する簡易和音指定
モードであり、フィンガードコードモードは、例えばC
メジャーならばC,E,Gというようにすべてのコード
構成音を指示する実和音指定モードである。
In step S 2, performs encoding mode selection process. The code mode includes a single finger code mode and a fingered code mode, and one of the code modes is selected by a user's selection operation on the operator group 38. Single finger chord mode is a simple chord specification that indicates the root note and a predetermined key according to the chord type, such as instructing only the root note in the case of major, and instructing the root note and a nearby black key in the case of minor. The fingered code mode is, for example, C
The major chord designation mode instructs all chord constituent tones such as C, E, and G for major.

【0041】ステップSでは、データ読出処理を行な
う。前述した割込処理によりテンポクロック信号TCL
のクロックタイミング毎に記憶部16A,16Bの記憶
部データ中のタイミングデータを参照して読出すべきデ
ータがあるか判定し、あればそのデータを読出す。
[0041] In step S 3, data reading processing. By the above-described interrupt processing, the tempo clock signal TCL
It is determined whether there is data to be read by referring to the timing data in the storage unit data of the storage units 16A and 16B at each clock timing of, and if so, the data is read out.

【0042】ステップSでは、記憶部16Aから読出
されるコード指定データCDに基づいて操作位置データ
PDを生成する。ステップSでシングルフィンガコー
ドモードを選択したときは、コード指定データCDがコ
ードタイプとしてメジャーを指定するならば操作位置デ
ータPDとしてデータCDの表わす根音のみを指示する
データが生成され、コード指定データCDがコードタイ
プとしてメジャー以外のものを指定するならば操作位置
データPDとしてデータCDの表わす根音とデータCD
の表わすコードタイプに応じた所定鍵とを指示するデー
タが生成される。また、ステップSでフィンガコード
モードを選択したときは、操作位置データPDとして、
コード指定データCDの表わすコードのすべての構成音
を指示するデータが生成される。
[0042] In step S 4, and generates an operation position data PD based on the code designation data CD is read from the storage unit 16A. When selecting single finger code mode in step S 2, the code specifies data CD data indicating only the root that represents the data CD as operation position data PD If you specify a measure is generated as the code type, code specifies If the data CD designates a code type other than major, the root and data CD represented by the data CD as the operation position data PD.
Is generated to indicate a predetermined key corresponding to the code type represented by. Also, when selecting a finger code mode in step S 2, the operating position data PD,
Data indicating all the constituent sounds of the chord represented by the chord designation data CD is generated.

【0043】ステップSでは、データ選択処理を行な
う。ステップSでコード指示モードを選択したとき
は、操作位置データPDを選択し、ステップSで伴奏
指示モードを選択したときは、記憶部16Aの左手伴奏
パートの伴奏データ中から読出されるノートオンイベン
トデータ又はノートオフイベントデータからなるノート
イベントデータANを選択する。
[0043] In step S 5, performs data selection processing. When selecting code instruction mode in step S 1, select the operation position data PD, when selected accompaniment indication mode in step S 1, notes to be read from the accompaniment data of the left hand accompaniment part of the storage unit 16A Select note event data AN consisting of on event data or note off event data.

【0044】ステップSでは、表示制御処理を行な
う。演奏操作部36としての鍵盤36Aにおいて、メロ
ディ鍵域(右手演奏鍵域)では、記憶部16Aのメロデ
ィデータ中から読出されるノートオンイベントデータ又
はノートオフイベントデータからなるノートイベントデ
ータMNに従って表示素子群40A中の表示素子を選択
的に点灯して操作すべき鍵を指示する。例えば、ノート
イベントデータMNとして音高Cを表わすノートオン
イベントデータが読出されると、C鍵に対応する表示
素子が点灯すべく制御され、この後ノートイベントデー
タMNとして音高Cを表わすノートオフイベントデー
タが読出されると、Cに対応する表示素子が滅灯すべ
く制御される。ユーザは、このようなメロディ押鍵の指
示に従って鍵盤36Aにてメロディ演奏の練習を行うこ
とができる。
[0044] In step S 6, performs display control processing. In the keyboard 36A serving as the performance operation unit 36, in the melody key range (right hand performance key range), the display element according to the note event data MN composed of the note-on event data or the note-off event data read out from the melody data of the storage unit 16A. A display element in the group 40A is selectively turned on to indicate a key to be operated. For example, the note-on event data representing the pitch C 4 as note event data MN is read is controlled so as to light up the display elements corresponding to the C 4 key, the pitch C 4 as the after note event data MN note-off event data represented Once read, the display element corresponding to the C 4 is controlled to TOMOS flashing. The user can practice the melody performance on the keyboard 36A in accordance with such a melody depressing key instruction.

【0045】ステップSでコード指示モードを選択し
たときは、ステップSにおいて操作位置データPDに
基づいて操作すべき位置が指示される。ステップS
シングルフィンガコードモードを選択した場合には、鍵
盤36Aの左手伴奏用の伴奏鍵域において操作位置デー
タPDに応じて根音鍵に対応した表示素子が点灯した
り、根音鍵とコードタイプ対応の所定鍵とに対応した複
数の表示素子が点灯したりする。これに対し、ステップ
2でフィンガードコードモードを選択した場合には、
操作位置データPDに応じてコード構成音相当の複数鍵
に対応する複数の表示素子が点灯する。例えば、Cメジ
ャーのコードに基づいて操作位置データPDが生成され
ると、鍵盤36Aの伴奏鍵域では、図2(A)に示すよ
うにC,E,Gの鍵にそれぞれ対応した3個の表示素子
が点灯する。ユーザは、いずれの場合にもコードに関す
る押鍵の指示に従ってコード指定の練習を行うことがで
きる。
[0045] When selecting code instruction mode in step S 1, the position to be operated is indicated on the basis of the operation position data PD at step S 6. When you select the single finger code mode in step S 2, the display device or lights corresponding to root key according to the operation position data PD in accompaniment range for the left hand accompaniment keyboard 36A, a root key A plurality of display elements corresponding to the predetermined key corresponding to the code type are turned on. In contrast, if you select the fingered chord mode in step S 2,
A plurality of display elements corresponding to a plurality of keys corresponding to chord constituent sounds are turned on according to the operation position data PD. For example, when the operation position data PD is generated based on the chord of the C major, in the accompaniment key range of the keyboard 36A, as shown in FIG. 2A, three keys corresponding to the keys of C, E, and G respectively. The display element lights up. In any case, the user can practice the chord designation in accordance with the instruction of the key press on the chord.

【0046】コード指示モードの選択時にあっては、ユ
ーザ指定に係るコードと記憶部16Bの伴奏パターンデ
ータとに基づいて自動伴奏が行なわれる。ステップS
では、鍵盤36Aでの押鍵状態に基づいてコード検出を
おこなう。ステップSでシングルフィンガコードモー
ドを選択した場合、1鍵のみ押された状態では該鍵に対
応する音を根音とするメジャーコードと決定する。ま
た、複数鍵が押された状態では、該複数鍵中の最低音鍵
に相当する音を根音とし且つ該複数鍵中の残りの鍵に基
づいてコードタイプを決定する。ステップSでフィン
ガコードモードを選択した場合、コード毎に予め定めら
れた押鍵パターンを参照して押鍵状態がどの押鍵パター
ンに対応するか判定することによりコードを決定する。
When the chord instruction mode is selected, automatic accompaniment is performed based on the chord specified by the user and the accompaniment pattern data in the storage section 16B. Step S 7
Then, a chord is detected based on a key pressed state on the keyboard 36A. When selecting the single finger chord mode in step S 2, the pressed state of only one key to determine the major chord to root the sound corresponding to said key. When a plurality of keys are pressed, a sound corresponding to the lowest key of the plurality of keys is set as a root note, and a chord type is determined based on the remaining keys of the plurality of keys. Step S 2 if you select the finger code mode, with reference to the predetermined depressed key pattern for each code to determine the code by determining corresponds to which key depression pattern depressed state.

【0047】ステップSでは、伴奏生成処理を行な
う。記憶部16Bの伴奏パターンデータ中から読出され
たノートオンイベントデータ又はノートオフイベントデ
ータからなるノートイベントデータPNについてステッ
プS7で検出されたコードを表わすコードデータDCに
応じて音高変換等の処理を行なう。例えば、伴奏パター
ンデータがCメジャーを基準にして作成されている場
合、コードデータDCがCメジャー以外のコードを示す
ときは、変換テーブルを参照するなどしてノートイベン
トデータPNの示す音高を修正する。
[0047] In step S 8, performs accompaniment generation process. Processing such as pitch conversion in accordance with the code data DC for note event data PN consisting note-on event data or note OFF event data read from the accompaniment pattern data storage unit 16B representing the detected code in step S 7 Perform For example, when the accompaniment pattern data is created based on the C major, and when the chord data DC indicates a chord other than the C major, the pitch indicated by the note event data PN is corrected by referring to a conversion table or the like. I do.

【0048】ステップSで伴奏指示モードを選択した
ときは、ステップSにおいてノートイベントデータA
Nに基づいて操作すべき位置が指示される。このときの
押鍵の指示は、メロディに関して前述したと同様にして
行われる。一例として、図2(B)には、鍵盤36Aの
伴奏鍵域において1度(C)と5度(G)の鍵に対応し
た2つの表示素子が点灯した状態を示す。
[0048] When selecting the accompaniment indication mode in step S 1, the note event data A in step S 6
The position to be operated is indicated based on N. The key press instruction at this time is performed in the same manner as described above for the melody. As an example, FIG. 2B shows a state in which two display elements corresponding to keys of 1 degree (C) and 5 degrees (G) are lit in the accompaniment key range of the keyboard 36A.

【0049】ステップSでは、楽音発生処理を行な
う。演奏操作部36としての鍵盤36Aにおいていずれ
かの鍵が押されるたびに押された鍵に対応する音高を表
わすキーオンイベントデータが発生されると共にいずれ
かの鍵が離されるたびに離された鍵に対応する音高を表
わすキーオフイベントデータが発生される。キーオンイ
ベントデータ又はキーオフイベントデータからなるキー
イベントデータKDは、キーオンイベントデータのとき
は発音命令信号と共に、キーオフイベントデータのとき
は消音命令信号と共に音源回路24に供給される。キー
オンイベントデータ及び発音命令信号が供給されると、
いずれかの空きの楽音発生チャンネルに割当てられ、割
当てに係る楽音発生チャンネルからは発音命令信号に応
じてキーオンイベントデータの表わす音高を有する楽音
信号が発生される。キーオフイベントデータ及び消音命
令信号が供給されると、キーオフイベントデータの表わ
す音高を有する楽音信号を発生中である楽音発生チャン
ネルにおいて消音命令信号に応じて楽音信号の減衰が開
始される。このような処理により鍵盤36Aのメロディ
鍵域での鍵操作に応じてメロディ音が発生されると共に
鍵盤36Aの伴奏鍵域での鍵操作に応じて伴奏音が発生
される。なお、ステップSでコード指示モードを選択
した場合は、鍵盤36Aの伴奏鍵域で押した鍵に対応す
る楽音は発生されず、次に述べるようにして自動伴奏が
行なわれる。
[0049] In step S 9, performs the tone generation process. Each time any key is pressed on the keyboard 36A as the performance operation unit 36, key-on event data indicating a pitch corresponding to the pressed key is generated, and the key released each time any key is released. Is generated as key-off event data representing the pitch corresponding to. The key event data KD composed of key-on event data or key-off event data is supplied to the tone generator circuit 24 together with a sound generation command signal when the key-on event data is used, and with a mute command signal when the key-off event data is used. When the key-on event data and the sounding instruction signal are supplied,
A tone signal having a pitch represented by the key-on event data is generated in response to a tone generation command signal from the assigned tone generation channel. When the key-off event data and the mute command signal are supplied, the tone signal is started to be attenuated according to the mute command signal in the tone generation channel which is generating the tone signal having the pitch represented by the key-off event data. By such processing, a melody sound is generated according to a key operation in the melody key range of the keyboard 36A, and an accompaniment sound is generated according to a key operation in the accompaniment key range of the keyboard 36A. Note, if you select the code instruction mode in step S 1, the musical tone corresponding to the key pressed by the accompaniment range of the keyboard 36A is not generated, the automatic accompaniment is performed as described below.

【0050】ステップSでコード指示モードを選択し
たときは、ステップSで生成されたノートオンイベン
トデータ又はノートオフイベントデータからなるノート
イベントデータPN’が音源回路24に供給される。音
源回路24では、キーオンイベントデータKDに関して
前述したと同様にして発音命令信号及びノートオンイベ
ントデータに応じて楽音信号が発生され、消音命令信号
及びノートオフイベントデータに応じて楽音信号の減衰
が開始される。このようにしてオートコード等の自動伴
奏が行なわれる。自動伴奏としては、ベースパターンデ
ータ及び/又はリズムパターンデータを記憶し、読出す
ことによりオートベース及び/又はオートリズムの演奏
を行なうようにしてもよい。このようにした場合、記憶
部16Aの伴奏データ中から読出される制御イベントデ
ータCNに基づくベース音及び/又はリズム音の発生を
禁止する。
[0050] When selecting code instruction mode in step S 1, the note event data PN 'is supplied to the tone generator 24 consisting of the note-on event data or note OFF event data generated in step S 8. In the tone generator circuit 24, a tone signal is generated in accordance with the tone generation command signal and the note-on event data in the same manner as described above with respect to the key-on event data KD, and the tone signal starts to attenuate in accordance with the mute command signal and the note-off event data. Is done. In this way, automatic accompaniment such as auto chord is performed. As the automatic accompaniment, the base pattern data and / or the rhythm pattern data may be stored and read to perform the auto bass and / or the auto rhythm. In this case, the generation of the bass sound and / or the rhythm sound based on the control event data CN read from the accompaniment data in the storage unit 16A is prohibited.

【0051】ステップS1で伴奏指示モードを選択した
ときは、上記したようなノートイベントデータPN’に
基づく自動伴奏は行なわれない。しかし、記憶部16A
に伴奏データとしてベースパート及び/又はリズムパー
トの伴奏データを記憶しておいた場合には、記憶データ
に基づいてベース及び/又はリズムの自動伴奏が行なわ
れる。
[0051] When selecting the accompaniment indication mode in step S 1, the automatic accompaniment based on the note event data PN 'as described above is not performed. However, the storage unit 16A
When the accompaniment data of the bass part and / or the rhythm part is stored as the accompaniment data, the automatic accompaniment of the bass and / or the rhythm is performed based on the stored data.

【0052】ベースパートの伴奏を記憶しておいた場
合、制御イベントデータCNとしては、ベースパートに
関するノートオンイベントデータ又はノートオフイベン
トデータが読出される。ステップSでは、制御イベン
トデータCNが音源回路24に供給される。音源回路2
4では、キーイベントデータKDに関して前述したと同
様にして発音命令信号及びノートオンイベントデータに
応じて楽音信号が発生され、消音命令信号及びノートオ
フイベントデータに応じて楽音信号の減衰が開始され
る。このようにしてベースパートの自動伴奏が行われ
る。
When the accompaniment of the bass part is stored, note-on event data or note-off event data relating to the bass part is read out as the control event data CN. In step S 9, the control event data CN is supplied to the tone generator 24. Sound source circuit 2
In step 4, a tone signal is generated in accordance with the tone generation command signal and the note-on event data in the same manner as described above with respect to the key event data KD, and attenuation of the tone signal is started in accordance with the mute command signal and the note-off event data. . In this way, the automatic accompaniment of the bass part is performed.

【0053】リズムパートの伴奏データを記憶しておい
た場合、制御イベントデータCNとしては、リズムパー
トに関するリズム音指定データが読出される。ステップ
では、リズム音指定データが発音命令信号と共に音
源回路24に供給される。音源回路24では、リズム音
指定データの指定する1又は複数のリズム音が空きの1
又は複数の楽音発生チャンネルにそれぞれ割当てられ、
割当てに係るリズム音に対応したリズム音信号が発生さ
れる。このようにしてリズムパートの自動演奏が行なわ
れる。
When the accompaniment data of the rhythm part is stored, rhythm sound designation data relating to the rhythm part is read out as the control event data CN. In step S 9, the rhythm sound specifying data is supplied to the tone generator 24 together with the sound command signal. In the sound source circuit 24, one or more rhythm sounds specified by the rhythm sound specification data
Or assigned to each of a plurality of tone generation channels,
A rhythm sound signal corresponding to the assigned rhythm sound is generated. The automatic performance of the rhythm part is performed in this manner.

【0054】上記した図3の演奏ガイド処理によれば、
ユーザは、自己の習熟度に合わせて次の(1)、(2)
又は(3)のいずれかの態様で演奏練習を行なうことが
できる。
According to the performance guide processing shown in FIG.
The user follows the following (1) and (2) according to his / her proficiency.
Alternatively, the performance practice can be performed in any of the modes (3).

【0055】(1)コード指示モードを選択すると共
に、シングルフィンガコードモードを選択する。この場
合、鍵盤36Aに関しては、ノートイベントデータMN
に基づいてメロディ押鍵の指示が行なわれると共に操作
位置データPDに基づいてシングルフィンガコードモー
ドでの押鍵指示が行なわれる。また、ノートイベントデ
ータPN及びコードデータDCに基づいてオートコード
等の自動伴奏が行なわれる。従って、ユーザは、メロデ
ィ押鍵の指示に従ってメロディ演奏の練習を行なえると
共に、シングルフィンガコードモードでの押鍵指示に従
って自動伴奏のためのコード指定の練習を行なうことが
できる。
(1) Select the code instruction mode and the single finger code mode. In this case, regarding the keyboard 36A, the note event data MN
, And a key-depression instruction in the single-finger code mode is performed based on the operation position data PD. Further, an automatic accompaniment such as an auto chord is performed based on the note event data PN and the chord data DC. Therefore, the user can practice the melody performance in accordance with the instruction of the melody key press, and can also practice the chord designation for the automatic accompaniment in accordance with the key press instruction in the single finger chord mode.

【0056】(2)コード指示モードを選択すると共
に、フィンガコードモードを選択する。この場合、上記
(1)の場合と同様にメロディ演奏の練習を行なうこと
ができる。また、コードに関する押鍵指示は、シングル
フィンガコードモードからフィンガードコードモードに
変更され、フィンガードコードモードの押鍵指示に従っ
て自動伴奏のためのコード指定の練習を行なうことがで
きる。フィンガードコードモードでのコード指定は、シ
ングルフィンガコードモードでのコード指定に比べて難
度が高いから、上記(1)の練習に習熟した段階で
(2)の練習に進むのが望ましい。
(2) Select the code instruction mode and the finger code mode. In this case, it is possible to practice the melody performance as in the case of the above (1). In addition, the key press instruction for the chord is changed from the single finger chord mode to the fingered chord mode, and the chord designation for automatic accompaniment can be practiced according to the key press instruction in the fingered chord mode. Since the chord designation in the fingered chord mode is more difficult than the chord designation in the single finger chord mode, it is desirable to proceed to the practice of (2) when the user has mastered the practice of (1).

【0057】(3)伴奏指示モードを選択する。この場
合、上記(1)の場合と同様にメロディ演奏の練習を行
なうことができる。また、ノートイベントデータANに
基づいてマニアル伴奏に関する押鍵指示が行なわれるの
で、鍵盤36Aの伴奏鍵域では、マニアル伴奏の練習を
行なうことができる。マニアル伴奏は、フィンガードコ
ードモードでのコード指定に比べて難度が高いから、上
記(2)の練習に習熟した段階で(3)の練習に進むの
が望ましい。
(3) Select the accompaniment instruction mode. In this case, it is possible to practice the melody performance as in the case of the above (1). In addition, since the key press instruction regarding the manual accompaniment is performed based on the note event data AN, it is possible to practice the manual accompaniment in the accompaniment key range of the keyboard 36A. Since the manual accompaniment is more difficult than the chord designation in the fingered chord mode, it is desirable to proceed to the practice of (3) at the stage when the practice of the above (2) is mastered.

【0058】図4は、演奏ガイド処理の第2の例を示す
ものである。データベースには、多数の楽曲について各
楽曲毎にメロディを表わす曲データと指示パターンを表
わす指示パターンデータとが記憶されている。曲データ
は、前述したメロディデータと同様の構成である。指示
パターンデータは、前述したメロディデータと同様の構
成であるが、楽音発生には用いず、表示素子群40A中
の表示素子を駆動するためにだけ用いる。指示パターン
は、演奏ガイドの停止中に自動演奏に伴って表示される
もので、自動演奏の進行に従って演奏内容に相当する指
示パターンとは異なる態様で変化する。指示パターンと
しては、自動演奏される曲の曲想に合ったものを用いる
ようにし、例えばリズム感や盛り上がり感などで適合性
がよいものを用いるとよい。
FIG. 4 shows a second example of the performance guide processing. The database stores song data representing a melody and instruction pattern data representing an instruction pattern for each of many songs. The music data has the same configuration as the melody data described above. The instruction pattern data has the same configuration as that of the melody data described above, but is not used for generating a tone, but is used only for driving the display elements in the display element group 40A. The instruction pattern is displayed along with the automatic performance while the performance guide is stopped, and changes in a manner different from the instruction pattern corresponding to the performance content as the automatic performance progresses. As the instruction pattern, a pattern that matches the idea of the music to be automatically played may be used. For example, a pattern with good rhythm and excitement may be used.

【0059】ユーザは、図3に関して前述したような演
奏ガイドの停止中において前述したと同様にしてデータ
ベースから所望の楽曲を選択し、選択に係る楽曲の自動
演奏(デモンストレーション演奏)を聴くことができ
る。すなわち、ユーザが所望の楽曲を選択すると、選択
に係る楽曲の曲データ及び指示パターンデータがデータ
ベースから読出され、図4に示すように記憶部16Aに
書込まれる。ステップS 11では、前述したステップS
と同様にしてデータ読出処理を行なう。
The user may perform the performance as described above with reference to FIG.
While the playing guide is stopped,
Select a desired song from the base and automatically select the song
You can listen to the performance (demonstration performance)
You. That is, when the user selects a desired music,
The song data and the instruction pattern data of the song related to
It is read from the base and stored in the storage unit 16A as shown in FIG.
Written. Step S 11Then, the above-described step S
3The data reading process is performed in the same manner as described above.

【0060】ステップS12では、記憶部16Aの曲デ
ータ中から読出されたノートイベントデータ又はノート
オフイベントデータからなるノートイベントデータSN
を音源回路24に供給する。音源回路24では、ステッ
プSで述べたと同様にして発音命令信号及びノートオ
ンイベントデータに応じて楽音信号を発生させると共に
消音命令信号及びノートオフイベントデータに応じて楽
音信号の減衰を開始させることにより楽曲の自動演奏を
行なう。
[0060] In step S 12, note event data SN consisting note event data or note OFF event data read from in the song data storage unit 16A
Is supplied to the tone generator circuit 24. The tone generator 24, to initiate the attenuation of the tone signal in response to the mute command signal and the note-off event data together to generate a musical tone signal in response to the sound command signal and the note-on event data in the same manner as described in step S 9 Perform the music automatically.

【0061】ステップS13では、記憶部16Aの指示
パターンデータ中から読出されるノートオンイベントデ
ータ又はノートオフイベントデータからなるノートイベ
ントデータPTに基づいて表示素子群40A中の表示素
子を選択的に点灯して自動演奏の進行に従って変化する
指示パターンを表示させる。
[0061] In step S 13, selectively display elements in the display element group 40A on the basis of the note-on event data or note OFF consisting event data note event data PT is read from in an instruction pattern data storage section 16A Lights to display an instruction pattern that changes as the automatic performance progresses.

【0062】図4の処理によれば、ユーザは、演奏ガイ
ドの停止中に所望の楽曲のデモンストレーション演奏を
聴きながら表示素子群40Aで表示される指示パターン
をイルミネーションとして楽しむことができる。
According to the processing of FIG. 4, the user can enjoy the instruction pattern displayed on the display element group 40A as illumination while listening to the demonstration performance of the desired music while the performance guide is stopped.

【0063】図4の処理では、1つの楽曲に1つの指示
パターンを対応させたが、1つの楽曲に複数の指示パタ
ーンを対応させて記憶し、ユーザが所望の楽曲を選択す
る際に選択に係る楽曲に対応した複数の指示パターンの
うちの1つをランダムに自動選択するか又はユーザが任
意に選択し、選択に係る指示パターンを表示するように
してもよい。
In the process shown in FIG. 4, one instruction pattern is associated with one music, but a plurality of instruction patterns are stored in association with one music, and are selected when the user selects a desired music. One of a plurality of instruction patterns corresponding to the music may be automatically and randomly selected, or may be arbitrarily selected by the user and the selected instruction pattern may be displayed.

【0064】図5は、図4の処理の第1の変形例を示す
ものである。図5において、図4と同様の部分には同様
の符号を付して詳細な説明を省略する。
FIG. 5 shows a first modification of the processing of FIG. In FIG. 5, the same parts as those in FIG. 4 are denoted by the same reference numerals, and detailed description will be omitted.

【0065】図5の例の特徴は、データベースに曲デー
タとは独立に複数の指示パターンデータを記憶したこと
である。この場合、ユーザは、所望の楽曲の曲データを
選択すると共に、所望の指示パターンを選択する。選択
に係る曲データは、記憶部16Aに書込まれ、選択に係
る指示パターンを表わす指示パターンデータは、記憶部
16Cに書込まれる。この後、自動演奏処理及び指示パ
ターン表示処理が図4で述べたと同様にして実行され
る。
The feature of the example of FIG. 5 is that a plurality of instruction pattern data are stored in the database independently of the music data. In this case, the user selects music data of a desired music and also selects a desired instruction pattern. The music data related to the selection is written into the storage unit 16A, and the instruction pattern data representing the instruction pattern according to the selection is written into the storage unit 16C. Thereafter, the automatic performance processing and the instruction pattern display processing are executed in the same manner as described with reference to FIG.

【0066】図5の処理によれば、1つの指示パターン
を複数の楽曲で共通に使用することができ、データベー
スにおいて指示パターン記憶部の記憶容量を低減するこ
とができる。また、1つの楽曲を複数回自動演奏する場
合に各回毎に異なる指示パターンを選択可能であり、多
様なイルミネーション効果が得られる。
According to the processing of FIG. 5, one instruction pattern can be used in common for a plurality of music pieces, and the storage capacity of the instruction pattern storage unit in the database can be reduced. In addition, when one music piece is automatically performed a plurality of times, different instruction patterns can be selected each time, and various illumination effects can be obtained.

【0067】図5の処理では、指示パターンをユーザが
選択するようにしたが、楽曲の選択に伴って指示パター
ンをランダムに自動選択するようにしてもよい。また、
図4で述べたように曲データ毎に指示パターンを記憶す
る方式と図5で述べたように曲データとは別に指示パタ
ーンを記憶する方式とのうちからユーザがいずれかの方
式を選択して利用できるようにしてもよい。
In the process of FIG. 5, the instruction pattern is selected by the user, but the instruction pattern may be automatically selected at random with the selection of the music. Also,
The user selects one of the method of storing the instruction pattern for each piece of music data as described in FIG. 4 and the method of storing the instruction pattern separately from the piece of music data as described in FIG. You may make it available.

【0068】図6は、図4の処理の第2の変形例を示す
ものである。図6において、図4と同様の部分には同様
の符号を付して詳細な説明を省略する。
FIG. 6 shows a second modification of the processing of FIG. 6, the same parts as those in FIG. 4 are denoted by the same reference numerals, and detailed description will be omitted.

【0069】図6の例の特徴は、データベースから選択
して記憶部16Aに読出した曲データに基づいて指示パ
ターンデータを生成するようにしたことである。この場
合、曲データとしては、メロディパートの曲データの他
に伴奏パートの曲データを含むものを用いる。
The feature of the example of FIG. 6 is that the instruction pattern data is generated based on the music data selected from the database and read into the storage section 16A. In this case, as the music data, data including the music data of the accompaniment part in addition to the music data of the melody part is used.

【0070】ステップS14では、記憶部16Aの曲デ
ータに基づいて指示パターンデータを生成するデータ生
成処理を行なう。一例として、メロディパートの曲デー
タ中から順次にオンタイミングデータ及びオフタイミン
グデータを読出すと共に、伴奏パートの曲データ中から
順次にノートオンイベントデータ及びノートオフイベン
トデータを読出し、オンタイミングデータとノートオン
イベントデータを組合わせ且つオフタイミングデータと
ノートオフイベントデータを組合わせて指示パターンデ
ータを生成する。このようにして生成された指示パター
ンデータは、指示タイミングがメロディパートのオン/
オフタイミングデータに応じて決定されると共に指示位
置が伴奏パートのノートオン/オフイベントデータに応
じて決定されるもので、記憶部16Cに書込まれる。こ
の後、自動演奏処理及び指示パターン表示処理が図4で
述べたと同様にして実行される。
[0070] In step S 14, performs data generating process for generating an indication pattern data on the basis of the music data in the storage unit 16A. As an example, the on-timing data and the off-timing data are sequentially read from the melody part music data, and the note-on event data and the note-off event data are sequentially read from the music data of the accompaniment part. Instruction pattern data is generated by combining on-event data and combining off-timing data and note-off event data. The instruction pattern data generated in this manner has an instruction timing of ON / OFF of the melody part.
It is determined according to the off-timing data and the designated position is determined according to the note-on / off event data of the accompaniment part, and is written in the storage unit 16C. Thereafter, the automatic performance processing and the instruction pattern display processing are executed in the same manner as described with reference to FIG.

【0071】図6の処理によれば、ステップS14で指
示パターンを生成するので、データベースには指示パタ
ーンを記憶させなくてよい。また、曲データに基づいて
指示パターンを生成するので、自動演奏される曲に適合
した指示パターンが得られる。
[0071] According to the process of FIG. 6, because it generates an instruction pattern in step S 14, the database may not be stored indication pattern. In addition, since the instruction pattern is generated based on the music data, an instruction pattern suitable for the automatically played music can be obtained.

【0072】図6の処理では、複数パートの曲データ中
のノートオン/オフデータを混合して指示パターンを生
成したり、全く新しいパターンを演算等により生成した
りしてもよい。また、図4又は図5で述べたように指示
パターンを記憶する方式と図6で述べたように指示パタ
ーンを生成する方式とのうちからユーザがいずれかの方
式を選択して利用できるようにしてもよい。さらに、複
数種類の指示パターン生成方式のうちからユーザがいず
れかの生成方式を選択して利用できるようにしてもよ
い。
In the process shown in FIG. 6, the instruction pattern may be generated by mixing note-on / off data in the music data of a plurality of parts, or a completely new pattern may be generated by calculation or the like. In addition, the user can select and use any one of a method of storing an instruction pattern as described in FIG. 4 or FIG. 5 and a method of generating an instruction pattern as described in FIG. You may. Further, the user may be allowed to select and use any one of a plurality of types of instruction pattern generation methods.

【0073】図5又は図6の処理において、曲データに
基づく演奏期間の長さと指示パターンデータに基づく表
示期間の長さが一致しないときは、指示パターンデータ
の一部又は全部を繰返すか一部を省略するなどして長さ
を一致させるとよい。
In the processing shown in FIG. 5 or FIG. 6, when the length of the performance period based on the music data does not match the length of the display period based on the instruction pattern data, a part or all of the instruction pattern data is repeated or partly repeated. May be omitted so that the lengths match.

【0074】図7は、演奏ガイド処理の第3の例を示す
もので、この例では、発生すべき音の名称を発音させる
ことにより音声で演奏ガイドを行なう。
FIG. 7 shows a third example of the performance guide processing. In this example, the performance guide is performed by voice by generating the name of the sound to be generated.

【0075】ユーザが前述したと同様にしてデータベー
スから所望の楽曲を選択すると、選択に係る楽曲のメロ
ディを表わす曲データが記憶部16Aに書き込まれる。
曲データは、発生すべき音毎に発生タイミングを表わす
オンタイミングデータと発音長を表わす発音長データと
音高を表わすノートオンイベントデータとを含むと共に
消去すべき音毎に消去タイミングを表わすオフタイミン
グデータと音高を表わすノートオフイベントデータとを
含んでいる。発音長データは、発音期間の長さを例えば
4分音符長より長ければ1で表わし、4分音符長以下と
短ければ0で表わす。
When the user selects a desired song from the database in the same manner as described above, song data representing the melody of the selected song is written to the storage unit 16A.
The music data includes on-timing data representing generation timing, note-length data representing note length, and note-on event data representing pitch for each note to be generated, and off-timing representing deletion timing for each note to be deleted. It contains data and note-off event data representing the pitch. The sounding length data is represented by 1 if the length of the sounding period is longer than a quarter note length, for example, and is represented by 0 if it is shorter than the quarter note length.

【0076】ステップS21では名称指定処理を行な
う。ユーザは、操作子群38の操作子の操作により発音
すべき名称として階名又は音名のいずれかを指定すると
共に指定に係る名称について特殊名称を指定する。指定
名称が「ドレミファソラシ」のような階名であった場
合、特殊名称は特殊階名となり、例えば「ド♯」、「レ
♯」、「ファ♯」…にそれぞれ対応して「ア」、
「イ」、「ウ」…のような特殊階名を指定する。指定名
称が「シー、ディー、イー、…ビー」のような音名であ
った場合、特殊名称は特殊音名となり、「シー♯」、
「ディー♯」、「エフ♯」…にそれぞれ対応して
「タ」、「チ」、「ツ」…のような特殊階名を指定す
る。指定した特殊階名又は特殊音名は、変更可能であ
る。例えば、「ド♯」、「レ♯」、「ファ♯」…にそれ
ぞれ対応して「ナ」、「ニ」、「ヌ」…を指定可能であ
る。なお、このような指定は、「ド♯、レ♯…」に対し
て一括指定又は個別指定のいずれも可能である。
[0076] In the step S 21 performs the name specified processing. The user designates either a floor name or a sound name as a name to be pronounced by operating the manipulators of the manipulator group 38, and specifies a special name for the specified name. If the designated name is a floor name such as “Doremi Fasorashi”, the special name is a special floor name, for example, “A”, “A”,
Specify a special floor name such as "I", "U" ... If the specified name is a sound name such as "Sea, Dee, E, ... Be", the special name will be a special sound name,
Special floor names such as "ta", "chi", "tu", etc. are designated corresponding to "D", "F", respectively. The specified special floor name or special sound name can be changed. For example, “na”, “d”, “nu”,... Can be designated corresponding to “do”, “ray”, “fa”, respectively. Such designation can be either collective designation or individual designation for “Do, Re ...”.

【0077】ステップS22では、前述したステップS
と同様にデータ読出処理を行なう。ステップS23
は、記憶部16Aの曲データ中から読出されたノートオ
ンイベントデータ又はノートオフイベントデータからな
るノートイベントデータQNを音源回路24に供給す
る。音源回路24では、ステップSで述べたと同様に
して発音命令信号及びノートオンイベントデータに応じ
て楽音信号を発生させると共に消音命令信号及びノート
オフイベントデータに応じて楽音信号の減衰を開始させ
ることにより楽曲の自動演奏を行なう。なお、音源回路
24には、図3のステップSで述べたようにキーイベ
ントデータKDが供給されるので、マニアル演奏音発生
が可能である。
[0077] In the step S 22, step S described above
Data read processing is performed in the same manner as in No. 3 . In step S 23, and supplies the note event data QN consisting note-on event data or note OFF event data read from in the song data in the storage unit 16A to the tone generator 24. The tone generator 24, to initiate the attenuation of the tone signal in response to the mute command signal and the note-off event data together to generate a musical tone signal in response to the sound command signal and the note-on event data in the same manner as described in step S 9 Perform the music automatically. Note that the tone generator 24, since the key event data KD as described in step S 9 of FIG. 3 is supplied, it is possible to manual play sound generation.

【0078】ステップS24では、音高/名称変換処理
を行なう。記憶部16Aからの読出データRDとして
は、ノートオンイベントデータ、発音長データ及びノー
トオフイベントデータがある。これらのデータのうちノ
ートオンイベントデータ及びノートオフイベントデータ
については、ステップS21での指定に従って音高を名
称に変換する。例えば、ステップS21で階名発音を選
択した場合、C、C 、Dは、それぞれド、ア、
レに変換される。また、ステップS21で音名発音を選
択した場合、C、C 、Dはそれぞれシー、タ、
ディーに変換される。発生すべき音毎に発音すべき名称
は変換に係るノートオンイベントデータにより表わされ
ると共に発音期間の長さは発音長データにより表わされ
る。変換に係るノートオフイベントデータは、消去すべ
き名称を表わす。
Step S24Now, pitch / name conversion processing
Perform As read data RD from storage unit 16A
Indicates note-on event data, note length data, and
To-off event data. Of these data,
Note-on event data and note-off event data
For step S21The pitch as specified in
To a name. For example, step S21Select the floor name pronunciation with
If you choose, C4, C 4, D4Are de, a,
Is converted to Step S21To select the note name pronunciation
If you choose, C4, C 4, D4Are sea, ta,
Converted to dee. Name to be pronounced for each sound to be generated
Is represented by the note-on event data related to the conversion.
And the length of the sounding period is represented by the sounding length data.
You. Note-off event data related to conversion should be deleted.
The name.

【0079】ステップS25では、名称発音処理を行な
う。変換に係るノートオンイベントデータと時間長デー
タと発音命令信号とからなる1音分の発音制御データを
音源回路24に供給し、いずれかの空きの楽音発生チャ
ンネルに割当てる。割当てに係る楽音発生チャンネルで
は、変換に係るノートオンイベントデータの指示する名
称(例えば階名「ア」)に対応する2つの音声データの
うち発音長データの指示する発音長(例えば短い発音
長)に対応する音声データに基づいて指示に係る名称
(例えば短い「ア」)を表わす音声信号が発生される。
この後、変換に係るノートオフイベントデータと消音命
令信号とからなる1音分の消音制御データを音源回路2
4に供給し、ノートオフイベントデータの表わす名称を
発音中である楽音発生チャンネルにおいて消音命令信号
に応じて音声信号の減衰を開始させる。このとき、音声
が滑らかに減衰するようにエンベロープジェネレータに
よりリリース波形を付与するとよい。上記のような処理
により階名及び特殊階名(又は音名及び特殊音名)の発
音が可能となる。
[0079] In the step S 25, performs a name pronunciation processing. One tone generation control data of note-on event data, time length data, and a tone generation instruction signal relating to the conversion is supplied to the tone generator circuit 24 and assigned to one of the free tone generation channels. In the tone generation channel related to the assignment, the sound length (for example, short sound length) indicated by the sound length data of the two sound data corresponding to the name (for example, floor name “A”) indicated by the note-on event data for conversion. Is generated on the basis of the voice data corresponding to the name (e.g., short "A").
Thereafter, the mute control data for one sound composed of the note-off event data relating to the conversion and the mute command signal is transmitted to the sound source circuit 2.
4 to start attenuating the audio signal in response to the mute command signal in the tone generation channel which is generating the name represented by the note-off event data. At this time, a release waveform may be given by the envelope generator so that the sound is attenuated smoothly. With the above-described processing, it is possible to generate floor names and special floor names (or note names and special note names).

【0080】図7の処理によれば、楽曲の自動演奏を聴
きながら階名又は音名による演奏ガイドに従って鍵盤3
6A等の演奏操作部36で演奏練習を行なうことができ
る。また、臨時記号付きの音符については、階名又は音
名以外で臨時記号名より短い「ア」、「イ」、「ウ」等
の名称を発音するようにしたので、発生すべき音を簡単
明瞭に認識することができる。その上、短い名称を発音
長の短い音声データに基づいて発音すると共に長い名称
を発音長の長い音声データに基づいて発音するようにし
たので、聴取しやすい演奏ガイドを実現することができ
る。
According to the processing shown in FIG. 7, the keyboard 3 is played according to the performance guide based on the floor name or note name while listening to the automatic performance of the music.
A performance practice can be performed with the performance operation unit 36 such as 6A. For notes with accidentals, names other than floor names or note names, such as "A", "I", and "U", which are shorter than accidentals, are pronounced. It can be clearly recognized. In addition, since short names are pronounced based on audio data having a short pronunciation length and long names are pronounced based on audio data having a long pronunciation length, a performance guide that is easy to hear can be realized.

【0081】図7の処理では、母音と子音のうち子音に
ついてだけ発音長の長・短に対応して複数の音声データ
を記憶して選択的に再生し、母音については1つの音声
データを記憶し、短い発音長に対応してそのまま再生
し、長い発音長に対応して反復再生するようにしてもよ
い。また、1つの名称について複数の音声データを記憶
する場合、発音長の長・短に限らず、長・中・短のよう
に3つ以上の音声データを記憶し、選択的に再生するよ
うにしてもよい。
In the processing shown in FIG. 7, a plurality of voice data are stored and selectively reproduced corresponding to the length of the pronunciation length of the vowel and the consonant only, and one voice data is stored for the vowel. Alternatively, the reproduction may be performed as it is in response to the short pronunciation length, and may be repeatedly performed in response to the long pronunciation length. When a plurality of voice data are stored for one name, three or more voice data such as long / medium / short, not only long / short, are stored and selectively reproduced. You may.

【0082】記憶部16Aに記憶する発音長データとし
ては、発音長又は音符長をクロック数等の数値で表わす
ものを用いてもよい。この場合、ステップS25では、
発音長データに基づいて発音長の長い又は短いを判定
し、短い発音長のときは発音長の短い音声データを再生
し、長い発音長のときは発音長の長い音声データを再生
するようにすればよい。また、曲データとしては、音高
の代りに階名又は音名を表わすものを記憶部16Aに記
憶し、ステップS23では階名又は音名を音高に変換し
て自動演奏を行ない、ステップS25では階名または音
名を発音するようにしてもよい。この場合、ステップS
24の音高/名称変換処理は不要となり、ステップS
21,S24では特殊階名又は特殊音名の指定を変更す
るための処理を行なうようにすればよい。
As the note length data stored in the storage section 16A, note length data or note length data represented by numerical values such as the number of clocks may be used. In this case, in step S 25,
Judgment is made based on the pronunciation length data to determine whether the pronunciation length is long or short. I just need. As the music data, storing those representing the pitch syllable names or pitch name instead of the storage unit 16A, performs automatic performance by converting syllable names or pitch name in step S 23 to pitch, step it may be to pronounce the S 25 in the syllable names or sound name. In this case, step S
The pitch / name conversion process of step 24 becomes unnecessary, and step S
21, S the process 24 in order to change the designation of special floor name or special note name may be performed.

【0083】ユーザは、図3で述べた表示方式の演奏ガ
イド又は図7で述べた発音方式の演奏ガイドを選択して
利用することができる。
The user can select and use the performance guide of the display method described in FIG. 3 or the performance guide of the sound generation method described in FIG.

【0084】この発明は上記した実施形態に限定される
ものではなく、種々の改変形態で実施可能なものであ
る。例えば、次のような変更が可能である。
The present invention is not limited to the above embodiment, but can be implemented in various modified forms. For example, the following changes are possible.

【0085】(1)コード指示モードの場合、自動伴奏
を行なうようにしたが、自動伴奏を行なうか否かをユー
ザが任意に選択できるようにしてもよい。自動演奏を行
なわないときは、ユーザ指定に係るコードに対応するコ
ード音を発生させるようにしてもよい。
(1) In the case of the chord instruction mode, the automatic accompaniment is performed. However, the user may arbitrarily select whether or not to perform the automatic accompaniment. When the automatic performance is not performed, a chord sound corresponding to the chord specified by the user may be generated.

【0086】(2)コード指示モードの場合、コード進
行データに基づいて操作位置データを生成するようにし
たが、コード進行に従って操作すべき位置を表わす操作
位置データを記憶しておき、該操作位置データを読出し
て操作すべき位置を指示させるようにしてもよい。な
お、コード進行に従ってコード名を表示してもよい。
(2) In the case of the chord instruction mode, the operation position data is generated based on the chord progression data. However, the operation position data indicating the position to be operated in accordance with the chord progression is stored, and the operation position data is stored. Data may be read and a position to be operated may be indicated. The chord name may be displayed according to the chord progression.

【0087】(3)表示手段としては、ランプやLED
のような発光素子の配列からなるものに限らず、LCD
(液晶表示器)やCRT(陰極線管)等のディスプレイ
からなるものを用いてもよい。ディスプレイを用いる場
合、ディスプレイは、演奏操作部の近傍に限らず、演奏
操作部から離れた位置に配置することができる。ディス
プレイの画面には、演奏操作部を表示すると共に表示に
係る演奏操作部に関して操作すべき位置を指示する構成
とする。なお、コードや伴奏に関して操作すべき位置と
しては、現在操作すべき位置に限らず、その次に操作す
べき位置を指示してもよい。
(3) Lamps and LEDs are used as display means.
LCDs are not limited to arrays of light emitting elements such as
A display device such as a (liquid crystal display) or a CRT (cathode ray tube) may be used. When a display is used, the display can be arranged not only in the vicinity of the performance operation unit but also in a position distant from the performance operation unit. On the screen of the display, a performance operation unit is displayed, and a position to be operated with respect to the displayed performance operation unit is indicated. The position to be operated with respect to the chord and the accompaniment is not limited to the position to be operated at present, but may be the position to be operated next.

【0088】(4)この発明は、鍵盤楽器に限らず、弦
楽器、管楽器、打楽器等の演奏ガイドにも応用すること
ができる。又、この発明は、音楽ゲームに適用してもよ
い。
(4) The present invention can be applied not only to keyboard instruments but also to performance guides for stringed instruments, wind instruments, percussion instruments, and the like. Further, the present invention may be applied to a music game.

【0089】(5)この発明は、電子楽器の形態に限ら
ず、パーソナルコンピュータとアプリケーションソフト
ウェアとの組合わせの形態でも実施することができる。
アプリケーションソフトウェアは、磁気ディスク、光磁
気ディスク、半導体メモリ等の記録媒体に記憶させてパ
ーソナルコンピュータに供給してもよいし、あるいは通
信ネットワークを介してパーソナルコンピュータに供給
するようにしてもよい。
(5) The present invention is not limited to the form of an electronic musical instrument, but can be implemented in the form of a combination of a personal computer and application software.
The application software may be stored in a recording medium such as a magnetic disk, a magneto-optical disk, or a semiconductor memory and supplied to the personal computer, or may be supplied to the personal computer via a communication network.

【0090】(6)この発明は、音源装置、自動演奏装
置等を内蔵した電子楽器に限らず、鍵盤、音源装置、自
動演奏装置等をMIDIや各種ネットワークなどの通信
手段で結合した電子楽器にも適用することができる。
(6) The present invention is not limited to an electronic musical instrument having a built-in tone generator, an automatic musical instrument, and the like, but is also applicable to an electronic musical instrument in which a keyboard, a tone generator, an automatic musical instrument, etc. are connected by communication means such as MIDI or various networks. Can also be applied.

【0091】(7)メロディ、伴奏等の曲データのフォ
ーマットは、イベントの発生時刻を1つ前のイベントか
らの相対時間で表わす「イベント+相対時間」方式に限
らず、イベントの発生時刻を曲や小節内の絶対時間で表
わす「イベント+絶対時間」方式、音符の音高と音符長
及び休符と休符長で曲の内容を表わす「音高(休符)+
符長」方式、イベント発生の最小時間単位毎に記憶領域
を確保し、イベントの発生時刻に対応する記憶領域にイ
ベントを記憶する方式等の任意の方式を用いることがで
きる。
(7) The format of music data such as melody and accompaniment is not limited to the “event + relative time” system in which the event occurrence time is represented by a relative time from the immediately preceding event. "Event + Absolute time" method expressed in absolute time in a bar or bar, "Pitch (rest) +
An arbitrary method such as a "sign length" method, a method of securing a storage area for each minimum time unit of event occurrence, and storing the event in a storage area corresponding to the event occurrence time can be used.

【0092】(8)複数パート分の曲データを作成する
場合、複数パートのデータを混在させて記録してもよい
し、パート毎に記録トラックを別にして記録してもよ
い。
(8) When creating music data for a plurality of parts, data of a plurality of parts may be mixed and recorded, or a recording track may be separately recorded for each part.

【0093】(9)曲データを記録する場合、メモリ内
の連続する領域に時系列的に記録してもよいし、メモリ
内の飛び飛びの領域に分散させて記録して連続するデー
タとして管理するようにしてもよい。
(9) When recording music data, the data may be recorded in a continuous area in the memory in a time-series manner, or may be dispersedly recorded in discrete areas in the memory and managed as continuous data. You may do so.

【0094】[0094]

【発明の効果】以上のように、この発明によれば、伴奏
データに基づいて操作すべき位置を指示する第1の指示
モード及びコード進行に従って操作すべき位置を指示す
る第2の指示モードのうち任意の指示モードを選択して
演奏ガイドを受けられる構成にしたので、初心者及び上
級者のいずれも自分に合ったレベルで演奏練習を行なえ
る効果が得られる。
As described above, according to the present invention, the first instruction mode for instructing the position to be operated based on the accompaniment data and the second instruction mode for instructing the position to be operated according to the chord progression are provided. Since an arbitrary instruction mode is selected to receive a performance guide, it is possible for both beginners and advanced users to practice at a level suitable for themselves.

【0095】また、演奏ガイドの停止中に自動演奏を行
なうと共に自動演奏の進行に従って変化する指示パター
ンを表示手段で表示する構成にしたので、指示パターン
をイルミネーションとして楽しめると共に表示手段の有
効活用が可能となる効果が得られる。
Further, since the automatic performance is performed while the performance guide is stopped and the instruction pattern that changes according to the progress of the automatic performance is displayed on the display means, the instruction pattern can be enjoyed as illumination and the display means can be effectively used. The following effect can be obtained.

【0096】さらに、発音式の演奏ガイドにおいて臨時
記号付きの音符については「ア」、「イ」等の短い名称
で発音する構成にしたので、視覚に頼らずに聴覚だけで
速やかに発生すべき音を認識可能となり、効率的に演奏
練習を行なえる効果が得られる。
Furthermore, notes with accidentals are pronounced with short names such as "A" and "I" in the pronunciation-type performance guide, so that they should be generated promptly only by hearing without relying on the visual sense. The sound can be recognized, and the effect that the performance practice can be performed efficiently can be obtained.

【0097】その上、発音式の演奏ガイドにおいて指示
に係る短い発音長に対応して発音長の短い第1の音声デ
ータに基づいて短い名称を発音すると共に指示に係る長
い発音長に対応して発音長の長い第2の音声データに基
づいて長い名称を発音する構成にしたので、短い名称も
長い名称も明確に聴取可能となり、効率的に演奏練習を
行なえる効果が得られる。
In addition, in the pronunciation-type performance guide, a short name is pronounced based on the first sound data having a short pronunciation length corresponding to the short pronunciation length according to the instruction, and a short name is produced corresponding to the long pronunciation length according to the instruction. Since the long name is pronounced based on the second sound data having the long pronunciation length, the short name and the long name can be clearly heard, and the effect that the performance practice can be performed efficiently can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の一実施形態に係る演奏ガイド装置
を備えた電子楽器の回路構成をを示すブロック図であ
る。
FIG. 1 is a block diagram showing a circuit configuration of an electronic musical instrument provided with a performance guide device according to an embodiment of the present invention.

【図2】 コード指示モード及び伴奏指示モードにおけ
る押鍵指示状態を示す鍵盤の上面図である。
FIG. 2 is a top view of the keyboard showing a key pressing instruction state in a chord instruction mode and an accompaniment instruction mode.

【図3】 演奏ガイド処理の第1の例を示すブロック図
である。
FIG. 3 is a block diagram showing a first example of a performance guide process.

【図4】 演奏ガイド処理の第2の例を示すブロック図
である。
FIG. 4 is a block diagram showing a second example of the performance guide processing.

【図5】 図4の処理の第1の変形例を示すブロック図
である。
FIG. 5 is a block diagram showing a first modified example of the processing in FIG. 4;

【図6】 図4の処理の第2の変形例を示すブロック図
である。
FIG. 6 is a block diagram showing a second modification of the processing in FIG. 4;

【図7】 演奏ガイド処理の第3の例を示すブロック図
である。
FIG. 7 is a block diagram showing a third example of the performance guide processing.

【符号の説明】[Explanation of symbols]

10:バス、12:CPU、14:ROM、16:RA
M、16A:曲データ記憶部、16B:伴奏パターンデ
ータデータ記憶部、16C:指示パターンデータ記憶
部、18,20:検出回路、22:表示回路、24:音
源回路、26:効果回路、28:外部記憶装置、30:
MIDIインターフェース、32:通信インターフェー
ス、34:タイマ、36:演奏操作部、38:操作子
群、40:表示部、42:サウンドシステム、44:他
のMIDI機器、46:通信ネットワーク、48:サー
バコンピュータ。
10: bus, 12: CPU, 14: ROM, 16: RA
M, 16A: music data storage, 16B: accompaniment pattern data storage, 16C: instruction pattern data storage, 18, 20: detection circuit, 22: display circuit, 24: tone generator circuit, 26: effect circuit, 28: External storage device, 30:
MIDI interface, 32: communication interface, 34: timer, 36: performance operation unit, 38: operator group, 40: display unit, 42: sound system, 44: other MIDI equipment, 46: communication network, 48: server computer .

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5D082 AA05 AA06 AA07 AA13 AA14 AA26 AA27 5D378 LA17 LA61 LA71 LB12 LB18 LB27 MM24 MM26 MM27 MM34 MM54 MM62 MM92 NN03 NN04 NN12 NN23 NN26 NN28 TT03 TT05 TT06 TT22 TT34 TT35 XX11  ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference)

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 演奏操作部に関して操作すべき位置を表
示手段で指示することにより演奏ガイドを行なう演奏ガ
イド方法であって、 第1及び第2の指示モードのうちいずれかの指示モード
を選択するステップと、 前記第1の指示モードの選択時には所定の楽曲に関する
伴奏曲を表わす伴奏データを発生すると共に前記第2の
指示モードの選択時には前記楽曲に関するコード進行に
従って操作すべき位置を表わす操作位置データを発生す
るステップと、 前記第1の指示モードの選択時には発生に係る伴奏デー
タに基づいて操作すべき位置を前記表示手段に指示させ
ると共に前記第2の指示モードの選択時には発生に係る
操作位置データに基づいて操作すべき位置を前記表示手
段に指示させるステップとを含む演奏ガイド方法。
1. A performance guide method for performing a performance guide by indicating a position to be operated with respect to a performance operation unit by a display means, wherein one of a first and a second instruction mode is selected. And operation position data representing a position to be operated in accordance with a chord progression of the musical piece when the second instruction mode is selected, while generating accompaniment data representing an accompaniment music relating to a predetermined musical piece when the first instruction mode is selected. Generating a position to be operated based on the accompaniment data pertaining to the generation when the first instruction mode is selected, and operating position data pertaining to the generation when the second instruction mode is selected. Instructing the display means to indicate a position to be operated based on the performance guide.
【請求項2】 演奏操作部に関して操作すべき位置を表
示手段で指示することにより演奏ガイドを行なう演奏ガ
イド装置であって、 第1及び第2の指示モードのうちいずれかの指示モード
を選択する選択手段と、 この選択手段で第1の指示モードが選択されたときは所
定の楽曲に関する伴奏曲を表わす伴奏データを発生する
と共に前記選択手段で第2の指示モードが選択されたと
きは前記楽曲に関するコード進行に従って操作すべき位
置を表わす操作位置データを発生するデータ発生手段
と、 前記選択手段で第1の指示モードが選択されたときは前
記データ発生手段からの伴奏データに基づいて操作すべ
き位置を前記表示手段に指示させると共に前記選択手段
で第2の指示モードが選択されたときは前記データ発生
手段からの操作位置データに基づいて操作すべき位置を
前記表示手段に指示させる制御手段とを備えた演奏ガイ
ド装置。
2. A performance guide device for performing a performance guide by indicating a position to be operated with respect to a performance operation unit by a display means, wherein one of the first and second instruction modes is selected. Selecting means for generating accompaniment data representing an accompaniment music relating to a predetermined music when the first instruction mode is selected by the selection means, and generating the musical piece when the second instruction mode is selected by the selecting means. Data generating means for generating operation position data indicating a position to be operated in accordance with the chord progression, and when the first instruction mode is selected by the selection means, operation should be performed based on accompaniment data from the data generation means. When the second instruction mode is selected by the selection means, the operation position data from the data generation means is displayed. Control means for instructing the display means to indicate a position to be operated based on the performance guide.
【請求項3】 演奏操作部に関して操作すべき位置を表
示手段で指示することにより演奏ガイドを行なう演奏ガ
イド装置において使用される記録媒体であって、 第1及び第2の指示モードのうちいずれかの指示モード
を選択するステップと、 前記第1の指示モードの選択時には所定の楽曲に関する
伴奏曲を表わす伴奏データを発生すると共に前記第2の
指示モードの選択時には前記楽曲に関するコード進行に
従って操作すべき位置を表わす操作位置データを発生す
るステップと、 前記第1の指示モードの選択時には発生に係る伴奏デー
タに基づいて操作すべき位置を前記表示手段に指示させ
ると共に前記第2の指示モードの選択時には発生に係る
操作位置データに基づいて操作すべき位置を前記表示手
段に指示させるステップとを含むプログラムを記録した
記録媒体。
3. A recording medium used in a performance guide device for performing a performance guide by indicating a position to be operated with respect to a performance operation section by a display means, wherein the recording medium is one of a first and a second instruction mode. Selecting the first instruction mode; generating the accompaniment data representing the accompaniment music related to the predetermined music when the first instruction mode is selected; and operating according to the chord progression for the music when the second instruction mode is selected. Generating operation position data representing a position; when the first instruction mode is selected, the display means is instructed to indicate a position to be operated based on accompaniment data relating to the generation; and when the second instruction mode is selected. Causing the display means to indicate a position to be operated based on operation position data relating to the occurrence. A recording medium on which a ram is recorded.
【請求項4】 演奏操作部に関して操作すべき位置を表
示手段で指示することにより演奏ガイドを行なう演奏ガ
イド方法であって、 前記演奏ガイドの停止中に楽曲の自動演奏を行なうステ
ップと、 前記演奏ガイドの停止中に前記自動演奏の進行に従って
演奏内容に相当する指示パターンとは異なる態様で変化
する指示パターンを前記表示手段に表示させるステップ
とを含む演奏ガイド方法。
4. A performance guide method for performing a performance guide by indicating a position to be operated with respect to a performance operation unit by a display means, wherein the automatic performance of a music piece is performed while the performance guide is stopped; Displaying an instruction pattern that changes in a manner different from the instruction pattern corresponding to the performance content according to the progress of the automatic performance while the guide is stopped, on the display means.
【請求項5】 演奏操作部に関して操作すべき位置を表
示手段で指示することにより演奏ガイドを行なう演奏ガ
イド装置であって、 前記演奏ガイドの停止中に楽曲の自動演奏を行なう演奏
手段と、 前記演奏ガイドの停止中に前記自動演奏の進行に従って
演奏内容に相当する指示パターンとは異なる態様で変化
する指示パターンを前記表示手段に表示させる制御手段
とを備えた演奏ガイド装置。
5. A performance guide device for performing a performance guide by indicating a position to be operated with respect to a performance operation unit by a display means, wherein the performance means performs an automatic performance of a music while the performance guide is stopped; A performance guide device comprising: control means for displaying, on the display means, an instruction pattern that changes in a manner different from the instruction pattern corresponding to the performance content while the performance guide is stopped.
【請求項6】 演奏操作部に関して操作すべき位置を表
示手段で指示することにより演奏ガイドを行なう演奏ガ
イド装置において使用される記録媒体であって、 前記演奏ガイドの停止中に楽曲の自動演奏を行なうステ
ップと、 前記演奏ガイドの停止中に前記自動演奏の進行に従って
演奏内容に相当する指示パターンとは異なる態様で変化
する指示パターンを前記表示手段に表示させるステップ
とを含むプログラムを記録した記録媒体。
6. A recording medium used in a performance guide device for performing a performance guide by designating a position to be operated with respect to a performance operation unit by a display means, wherein an automatic performance of music is performed while the performance guide is stopped. A recording medium storing a program including a step of performing, and a step of displaying, on the display means, an instruction pattern that changes in a manner different from an instruction pattern corresponding to the performance content according to the progress of the automatic performance while the performance guide is stopped. .
【請求項7】 演奏操作部に関して発生すべき音の名称
を発音手段で発音させることにより演奏ガイドを行なう
演奏ガイド方法であって、 演奏すべき曲を構成する複数の音符のうち臨時記号なし
の音符を音名又は階名からなる第1種の名称で指示する
と共に臨時記号付きの音符を音名又は階名以外で臨時記
号名より短い第2種の名称で指示するようにして前記曲
の進行に従って各音符毎に該第1又は第2種の名称で発
生すべき音を指示する指示データを発生するステップ
と、 発生に係る各指示データの指示する名称を前記発音手段
に発音させるステップとを含む演奏ガイド方法。
7. A performance guide method for performing a performance guide by causing a name of a sound to be generated with respect to a performance operation section to be generated by a sounding means, wherein a plurality of notes constituting a tune to be played have no accidentals. A note is designated by a first type name consisting of a note name or a floor name, and a note with an accidental is designated by a second type name other than the note name or the floor name and shorter than the accidental name. Generating instruction data indicating a sound to be generated with the first or second type of name for each note in accordance with progress; and causing the sounding means to generate a name specified by each instruction data relating to generation. Including a performance guide method.
【請求項8】 演奏操作部に関して発生すべき音の名称
を発音手段で発音させることにより演奏ガイドを行なう
演奏ガイド装置であって、 演奏すべき曲を構成する複数の音符のうち臨時記号なし
の音符を音名又は階名からなる第1種の名称で指示する
と共に臨時記号付きの音符を音名又は階名以外で臨時記
号名より短い第2種の名称で指示するようにして前記曲
の進行に従って各音符ごとに該第1または第2種の名称
で発生すべき音を指示する指示データを発生するデータ
発生手段と、 このデータ発生手段から発生される各指示データの指示
する名称を前記発音手段に発音させる制御手段とを備え
た演奏ガイド装置。
8. A performance guide device for performing a performance guide by causing a sound generation means to generate a name of a sound to be generated with respect to a performance operation unit, wherein a plurality of musical notes constituting a music to be played have no accidentals. A note is designated by a first type name consisting of a note name or a floor name, and a note with an accidental is designated by a second type name other than the note name or the floor name and shorter than the accidental name. Data generating means for generating, for each note, a sound to be generated with the first or second type name for each note in accordance with the progression; A performance guide device provided with control means for causing the sounding means to sound.
【請求項9】 演奏操作部に関して発生すべき音の名称
を発音手段で発音させることにより演奏ガイドを行なう
演奏ガイド装置において使用される記録媒体であって、 演奏すべき曲を構成する複数の音符のうち臨時記号なし
の音符を音名又は階名からなる第1種の名称で指示する
と共に臨時記号付きの音符を音名又は階名以外で臨時記
号名より短い第2種の名称で指示するようにして前記曲
の進行に従って各音符毎に該第1又は第2種の名称で発
生すべき音を指示する指示データを発生するステップ
と、 発生に係る各指示データの指示する名称を前記発音手段
に発音させるステップとを含むプログラムを記録した記
録媒体。
9. A recording medium used in a performance guide device for performing a performance guide by causing a sound generation means to generate a name of a sound to be generated with respect to a performance operation section, wherein a plurality of notes constituting a music to be played are provided. The notes without accidentals are designated by a first type name consisting of a note name or a scale name, and the notes with accidentals are designated by a second type name shorter than the accidental names other than the note names or the floor names. Generating instruction data indicating a sound to be generated with the first or second type of name for each note in accordance with the progress of the music in such a manner as described above; Recording a program including a step of causing a means to sound.
【請求項10】 演奏操作部に関して発生すべき音の名
称を発音手段で発音させることにより演奏ガイドを行な
う演奏ガイド方法であって、 発生すべき音の名称及び発音長を指示するステップと、 発生すべき音の名称を発音するための音声データとして
発音長の短い第1の音声データ及び発音長の長い第2の
音声データを記憶した記憶手段から指示に係る短い発音
長に対応して第1の音声データを読出して発音長の短い
名称を前記発音手段に発音させると共に指示に係る長い
発音長に対応して第2の音声データを読出して発音長の
長い名称を前記発音手段に発音させるステップとを含む
演奏ガイド方法。
10. A performance guide method for performing a performance guide by causing a sound generation means to generate a name of a sound to be generated with respect to a performance operation unit, comprising the steps of designating a name of a sound to be generated and a sound length. The first sound data having a short sounding length and the second sound data having a long sounding length are stored as sound data for sounding the name of the sound to be played, and the first sound data corresponding to the short sounding length according to the instruction is stored in the storage means. Reading the second voice data and causing the sounding means to sound the name having the short sounding length and reading the second sound data corresponding to the long sounding length according to the instruction. And a performance guide method including:
【請求項11】 演奏操作部に関して発生すべき音の名
称を発音手段で発音させることにより演奏ガイドを行な
う演奏ガイド装置であって、 発生すべき音の名称及び発音長を指示する指示手段と、 発生すべき音の名称を発音するための音声データとして
発音長の短い第1の音声データ及び発音長の長い第2の
音声データを記憶した記憶手段と、 前記指示手段が短い発音長を指示するのに応答して前記
記憶手段から第1の音声データを読出して発音長の短い
名称を前記発音手段に発音させると共に前記指示手段が
長い発音長を指示するのに応答して前記記憶手段から第
2の音声データを読出して発音長の長い名称を前記発音
手段に発音させる制御手段とを備えた演奏ガイド装置。
11. A performance guide device for performing a performance guide by causing a sounding means to sound a name of a sound to be generated with respect to a performance operation unit, and instructing means for specifying a name and a sound length of a sound to be generated. Storage means for storing first sound data having a short sounding length and second sound data having a long sounding length as sound data for sounding the name of a sound to be generated; and the instructing means for instructing a short sounding length. The first voice data is read out from the storage means in response to the first sound data, and the short sounding name is sounded by the sounding means, and the first sound data is read out from the storage means in response to the instruction means instructing the long sounding length. And a control means for reading out the audio data of No. 2 and causing the sounding means to sound a name having a long sounding length.
【請求項12】 演奏操作部に関して発生すべき音の名
称を発音する発音手段と、発生すべき音の名称を発音す
るための音声データとして発音長の短い第1の音声デー
タ及び発音長の長い第2の音声データを記憶した記憶手
段とを備えた演奏ガイド装置において使用される記録媒
体であって、 発生すべき音の名称及び発音長を指示するステップと、 前記記憶手段から指示に係る短い発音長に対応して第1
の音声データを読出して発音長の短い名称を前記発音手
段に発音させると共に指示に係る長い発音長に対応して
第2の音声データを読出して発音長の長い名称を前記発
音手段に発音させるステップとを含むプログラムを記録
した記録媒体。
12. A sound generating means for generating a name of a sound to be generated with respect to a performance operation unit, and first sound data having a short sounding length and long sounding length as sound data for generating a name of a sound to be generated. A recording medium used in a performance guide device including a storage unit that stores second audio data, wherein a step of instructing a name and a pronunciation length of a sound to be generated; First according to pronunciation length
Reading the second voice data and causing the sounding means to sound the name having the short sounding length and reading the second sound data corresponding to the long sounding length according to the instruction. And a recording medium recording a program including the following.
JP2000222216A 2000-07-24 2000-07-24 Performance guide method and apparatus and recording medium Expired - Fee Related JP3674469B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000222216A JP3674469B2 (en) 2000-07-24 2000-07-24 Performance guide method and apparatus and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000222216A JP3674469B2 (en) 2000-07-24 2000-07-24 Performance guide method and apparatus and recording medium

Publications (2)

Publication Number Publication Date
JP2002040921A true JP2002040921A (en) 2002-02-08
JP3674469B2 JP3674469B2 (en) 2005-07-20

Family

ID=18716486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000222216A Expired - Fee Related JP3674469B2 (en) 2000-07-24 2000-07-24 Performance guide method and apparatus and recording medium

Country Status (1)

Country Link
JP (1) JP3674469B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6736122B1 (en) * 2019-06-12 2020-08-05 雄一 永田 Chord performance input device, electronic musical instrument, and chord performance input program
JP2020201489A (en) * 2019-06-12 2020-12-17 雄一 永田 Chord performance input device, electronic musical instrument, and chord performance input program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0511686A (en) * 1991-06-29 1993-01-22 Casio Comput Co Ltd Electronic musical instrument
JPH08297487A (en) * 1995-04-26 1996-11-12 Yamaha Corp Playing instruction device
JPH1069215A (en) * 1996-06-14 1998-03-10 Yamaha Corp Playing training device and medium recording program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0511686A (en) * 1991-06-29 1993-01-22 Casio Comput Co Ltd Electronic musical instrument
JPH08297487A (en) * 1995-04-26 1996-11-12 Yamaha Corp Playing instruction device
JPH1069215A (en) * 1996-06-14 1998-03-10 Yamaha Corp Playing training device and medium recording program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6736122B1 (en) * 2019-06-12 2020-08-05 雄一 永田 Chord performance input device, electronic musical instrument, and chord performance input program
WO2020250333A1 (en) * 2019-06-12 2020-12-17 雄一 永田 Chord playing input device, electronic musical instrument, and chord playing input program
JP2020201489A (en) * 2019-06-12 2020-12-17 雄一 永田 Chord performance input device, electronic musical instrument, and chord performance input program
JP7306711B2 (en) 2019-06-12 2023-07-11 雄一 永田 CHORD PERFORMANCE INPUT DEVICE, ELECTRONIC MUSICAL INSTRUMENT, AND CHORD PERFORMANCE INPUT PROGRAM
US11823652B2 (en) 2019-06-12 2023-11-21 InstaChord Corp. Chord-playing input device, electronic musical instrument, and chord-playing input program

Also Published As

Publication number Publication date
JP3674469B2 (en) 2005-07-20

Similar Documents

Publication Publication Date Title
US7795524B2 (en) Musical performance processing apparatus and storage medium therefor
JP3807275B2 (en) Code presenting device and code presenting computer program
JP2004264392A (en) Device and program for performance practice
JP3407626B2 (en) Performance practice apparatus, performance practice method and recording medium
JP2002023747A (en) Automatic musical composition method and device therefor and recording medium
JP4274272B2 (en) Arpeggio performance device
JP3266149B2 (en) Performance guide device
JP4379291B2 (en) Electronic music apparatus and program
JP4038836B2 (en) Karaoke equipment
JP2000214848A (en) Performance support device, performance support method, and recording medium with performance support program recorded therein
JP2003288077A (en) Music data output system and program
JP3267777B2 (en) Electronic musical instrument
US20210225345A1 (en) Accompaniment Sound Generating Device, Electronic Musical Instrument, Accompaniment Sound Generating Method and Non-Transitory Computer Readable Medium Storing Accompaniment Sound Generating Program
EP1975920B1 (en) Musical performance processing apparatus and storage medium therefor
JPH06332449A (en) Singing voice reproducing device for electronic musical instrument
JP3674469B2 (en) Performance guide method and apparatus and recording medium
JP3551014B2 (en) Performance practice device, performance practice method and recording medium
JP4821505B2 (en) Electronic keyboard instrument and program used there
JP3047879B2 (en) Performance guide device, performance data creation device for performance guide, and storage medium
JP4244504B2 (en) Performance control device
JP4003625B2 (en) Performance control apparatus and performance control program
JP3620366B2 (en) Electronic keyboard instrument
JP6981239B2 (en) Equipment, methods and programs
JP2002297139A (en) Playing data modification processor
JP3397071B2 (en) Automatic performance device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050418

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090513

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100513

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110513

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees