JP2943492B2 - Electronic musical instrument - Google Patents

Electronic musical instrument

Info

Publication number
JP2943492B2
JP2943492B2 JP4064214A JP6421492A JP2943492B2 JP 2943492 B2 JP2943492 B2 JP 2943492B2 JP 4064214 A JP4064214 A JP 4064214A JP 6421492 A JP6421492 A JP 6421492A JP 2943492 B2 JP2943492 B2 JP 2943492B2
Authority
JP
Japan
Prior art keywords
channel
tone
rhythm
sounding
midi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP4064214A
Other languages
Japanese (ja)
Other versions
JPH05265457A (en
Inventor
康 桜井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP4064214A priority Critical patent/JP2943492B2/en
Publication of JPH05265457A publication Critical patent/JPH05265457A/en
Application granted granted Critical
Publication of JP2943492B2 publication Critical patent/JP2943492B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、発生される音量等が
時間経過に従い変化する楽音を発生するとともに、発音
割当処理が良好に行える電子楽器に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic musical instrument that generates musical tones whose volume and the like change with time and that can perform sound generation assignment processing well.

【0002】[0002]

【従来の技術】従来の複数の楽音発生用チャンネル(発
音チャンネル)を有する電子楽器には、メモリに記憶さ
れた波形データを演奏者による鍵盤等の操作に応じて読
み出す音源と、その波形データの振幅を制御して波形デ
ータの音量を制御するエンベロープ信号を発生するエン
ベロープジェネレータ(EG)とが設けられているもの
がある。
2. Description of the Related Art A conventional electronic musical instrument having a plurality of musical tone generating channels (toning channels) includes a sound source for reading out waveform data stored in a memory in response to an operation of a keyboard or the like by a player, and a sound source of the waveform data. Some include an envelope generator (EG) for generating an envelope signal for controlling the amplitude and controlling the volume of the waveform data.

【0003】そして、この種の電子楽器には、EGから
出力されている現在のエンベロープ信号のレベルに基づ
いて、減衰発音中の発音チャンネルのうち、最も減衰状
態が進んでいるチャンネル(最減衰チャンネル)を検出
し、この最減衰チャンネルに新たな押鍵音を割当るよう
に制御するトランケート手段が設けられているものがあ
った。なお、上述した技術の詳細については、本出願人
が先に提案した電子楽器の公報(特公平1−27437
号公報)を参照されたい。また、従来の電子楽器におい
ては、キーオンが最も早かったチャンネルを検出してト
ランケート処理を行うものもあった。
[0003] In this type of electronic musical instrument, a channel (a most attenuated channel) of the most attenuated state among sounding channels that are attenuated, based on the current level of the envelope signal output from the EG. ) Is detected, and a truncation means is provided for controlling so as to assign a new key press sound to the most attenuated channel. The details of the above technology are described in the gazette of the electronic musical instrument previously proposed by the present applicant (Japanese Patent Publication No. Hei 1-27437).
Gazette). Some conventional electronic musical instruments perform a truncation process by detecting the channel with the fastest key-on.

【0004】[0004]

【発明が解決しようとする課題】ところで、楽音には、
ドラムなどの打楽器音のように、キーオンしかないトリ
ガ駆動型の音色と、ピアノなどの打弦楽器のように、キ
ーオンとキーオフとがあるイベント駆動型の音色とがあ
る。また、打楽器の楽音においても、ハイハットやホイ
ッスルなどのように、イベント駆動型の音色もある。
[0005] By the way, musical sounds include:
There are trigger-driven tones with only key-on like percussion instruments such as drums, and event-driven tones with key-on and key-off like percussion instruments such as pianos. There are also event-driven tones, such as hi-hats and whistles, for percussion instruments.

【0005】しかしながら、従来の電子楽器などにおい
ては、上述したように、EGから出力されている現在の
エンベロープ信号のレベルだけに基づいて最減衰チャン
ネルを検出してトランケート処理したり、キーオンが最
も早かったチャンネルを検出してトランケート処理した
りしているため、たとえば、以下に示すような不都合が
生じていた。
However, in a conventional electronic musical instrument or the like, as described above, the truncation process is performed by detecting the most attenuated channel based on only the level of the current envelope signal output from the EG, and the key-on is performed at the earliest. Since the truncated process is performed by detecting the channel that has occurred, for example, the following inconvenience has occurred.

【0006】図12に示すように、チャンネルAの時刻
1におけるエンベロープ信号の現在のレベルLaは、チ
ャンネルBの時刻t1におけるエンベロープ信号の現在
のレベルLbより小さく、減衰が進んでいるので、チャ
ンネルAが最減衰チャンネルとして検出されてトランケ
ート処理されてしまう。したがって、チャンネルAにイ
ベント駆動型の音色が割当られている場合には、時刻t
1以降に発生するキーオフが処理されずに、不自然であ
る。この発明は、このような背景の下になされたもの
で、イベント駆動型の打楽器音の音色を正確に発生で
き、発音割当処理を正確に行うことができる電子楽器を
提供することを目的とする。
As shown in FIG. 12, the current level L a of the envelope signal at time t 1 of channel A is smaller than the current level L b of the envelope signal at time t 1 of channel B, and the attenuation is advanced. Therefore, channel A is detected as the most attenuated channel and truncated. Therefore, when an event-driven tone is assigned to channel A, time t
The key-off that occurs after 1 is not processed and is unnatural. The present invention has been made under such a background, and an object of the present invention is to provide an electronic musical instrument that can accurately generate an event-driven percussion instrument tone and can accurately perform a pronunciation assignment process. .

【0007】[0007]

【課題を解決するための手段】この発明による電子楽器
は、鍵操作情報を発生する鍵操作情報発生手段と、複数
の楽音信号発生用の発音チャンネルを有し、各発音チャ
ンネル毎に、少なくとも、イベント駆動型の楽音の楽音
信号と、トリガ駆動型の楽音の楽音信号とをそれぞれ出
力する楽音発生手段と、前記複数の発音チャンネルが全
て発音中であるか否かを検出する発音チャンネル検出手
段と、該発音チャンネル検出手段において前記複数の発
音チャンネルが全て発音中であることが検出された場
合、前記複数の発音チャンネルで発音中の楽音信号のう
ち、イベント駆動型の楽音の楽音信号に比してトリガ駆
動型の楽音の楽音信号を優先的にトランケートするトラ
ンケート手段と、該トランケート手段のトランケート結
果および前記鍵操作情報発生手段から出力される新たな
鍵操作情報に基づいて、新たな楽音の発生を前記楽音発
生手段の前記複数の発音チャンネルのいずれかに割当て
る割当手段とを具備することを特徴としている。
An electronic musical instrument according to the present invention has key operation information generating means for generating key operation information, and a plurality of tone generation channels for generating tone signals. Musical tone generating means for outputting a musical tone signal of an event-driven musical tone and a musical tone signal of a trigger-driven musical tone, and a sounding channel detecting means for detecting whether or not all of the plurality of sounding channels are sounding. The plurality of sound sources are generated by the sound channel detecting means .
When it is detected that all sound channels are sounding
In this case, the tone signals being produced on the plurality of
A truncation means for preferentially truncating a trigger-driven musical tone signal as compared to an event-driven musical tone signal , and a truncation result of the truncated means and a new key operation information output means. Allocating means for allocating the generation of a new musical tone to any of the plurality of tone generation channels of the musical tone generating means based on the key operation information.

【0008】[0008]

【作用】上記構成によれば、鍵操作情報発生手段が新た
な鍵操作情報を発生すると、発音チャンネル検出手段が
複数の発音チャンネルが全て発音中であるか否かを検出
する。そして、発音チャンネル検出手段において複数の
発音チャンネルが全て発音中であることが検出された場
合、トランケート手段は、それら複数の発音チャンネル
で発音中の楽音信号のうち、イベント駆動型の楽音の楽
音信号に比してトリガ駆動型の楽音の楽音信号を優先的
にトランケートする。したがって、割当手段は、トラン
ケート手段のトランケート結果および新たな鍵操作情報
に基づいて、新たな楽音の発生を楽音発生手段の複数の
発音チャンネルのいずれかに割当てるので、楽音発生手
段は、割当てられた発音チャンネルから楽音信号を出力
する。
According to the above construction, when the key operation information generating means generates new key operation information, the sounding channel detecting means detects whether or not all of the plurality of sounding channels are sounding. Then, in the sounding channel detecting means, a plurality of
When it is detected that all pronunciation channels are sounding
If so, the truncation means
Of the event-driven musical tones
The tone signal of the trigger-driven tone is truncated in priority to the tone signal. Therefore, the assigning means assigns the generation of a new musical tone to one of the plurality of sounding channels of the musical tone generating means based on the truncation result of the truncating means and the new key operation information. Outputs a tone signal from the pronunciation channel.

【0009】[0009]

【実施例】以下、図面を参照して、この発明の一実施例
について説明する。図1はこの発明の一実施例による電
子楽器の構成を示すブロック図であり、この図におい
て、1は装置各部を制御するCPU(中央処理装置)、
2はCPU1にロードされる各種制御プログラムやこれ
らプログラムで用いられる各種データなどが記憶された
ROM、3はワーキングバッファやMIDIデータが格
納されるMIDIバッファなどが設けられたRAMであ
る。
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of an electronic musical instrument according to an embodiment of the present invention. In this figure, reference numeral 1 denotes a CPU (Central Processing Unit) for controlling each part of the apparatus;
Reference numeral 2 denotes a ROM in which various control programs to be loaded on the CPU 1 and various data used in these programs are stored. Reference numeral 3 denotes a RAM provided with a working buffer, a MIDI buffer for storing MIDI data, and the like.

【0010】また、4は複数のキーからなる鍵盤であ
り、各鍵毎の押離鍵を検出するとともに、押鍵の速度お
よび離鍵の速度を検出する機構を有し、押離鍵および押
離鍵の速度に対応した信号を発生する。5は鍵盤インタ
ーフェイスであり、鍵盤4から供給される各種信号に基
づき、音高や押鍵速度等に関する鍵情報を発生し、これ
らをCPU1が管理するデータが転送されるアドレス/
データ・バス6を介してCPU1に転送する。
Reference numeral 4 denotes a keyboard comprising a plurality of keys. The keyboard 4 has a mechanism for detecting a key press / release key for each key and a key press / release speed. A signal corresponding to the key release speed is generated. Reference numeral 5 denotes a keyboard interface, which generates key information relating to a pitch, a key pressing speed, and the like based on various signals supplied from the keyboard 4, and transmits them to an address / address to which data managed by the CPU 1 is transferred.
The data is transferred to the CPU 1 via the data bus 6.

【0011】さらに、7は操作パネルであり、液晶ディ
スプレイ等の表示器と、テンキーと、表示器の表示画面
の変更等を行うエンターキーと、表示器上のカーソルを
移動させるカーソルキーなどとから構成されている。そ
して、操作パネル7は、アドレス/データ・バス6およ
び操作パネルインターフェイス8を介してCPU1から
供給されるデータを表示するとともに、各キーの状態に
応じたデータを操作パネルインターフェイス8およびア
ドレス/データ・バス6を介してCPU1に転送する。
An operation panel 7 includes a display such as a liquid crystal display, numeric keys, an enter key for changing a display screen of the display, and a cursor key for moving a cursor on the display. It is configured. The operation panel 7 displays data supplied from the CPU 1 via the address / data bus 6 and the operation panel interface 8, and displays data corresponding to the state of each key on the operation panel interface 8 and the address / data / data bus. The data is transferred to the CPU 1 via the bus 6.

【0012】加えて、9はMIDIインターフェイスで
あり、CPU1がこのMIDIインターフェイス9およ
びMIDI規格に応じたデータが転送されるMIDI・
バス10を介して他の電子楽器等とMIDIデータ等の
交換を行う。また、11は楽音合成回路であり、CPU
1よりMIDI・バス10を介して供給される各種MI
DIデータに基づいて楽音合成を行う複数の発音チャン
ネルを有し、この発音チャンネルで形成される複数の楽
音信号を出力するとともに、各発音チャンネルの楽音信
号のエンベロープレベルを随時アドレス/データ・バス
6を介してCPU1に供給する。12はサウンドシステ
ムであり、楽音合成回路11から出力される複数の楽音
信号に対してフィルタリングを施し、不要ノイズの除
去、あるいは効果音処理などを施した後、増幅してスピ
ーカ13に与え、楽音として発音させる。
In addition, reference numeral 9 denotes a MIDI interface. The CPU 1 transmits the MIDI interface 9 and a MIDI interface to which data conforming to the MIDI standard is transferred.
It exchanges MIDI data and the like with other electronic musical instruments and the like via the bus 10. Reference numeral 11 denotes a tone synthesis circuit,
1 through the MIDI bus 10
It has a plurality of tone channels for synthesizing tone based on DI data, outputs a plurality of tone signals formed by the tone channels, and adjusts the envelope level of tone signals of each tone channel as needed on an address / data bus 6. Is supplied to the CPU 1 via. Reference numeral 12 denotes a sound system, which filters a plurality of tone signals output from the tone synthesis circuit 11 to remove unnecessary noise or perform sound effect processing, and then amplifies the resulting signal to give it to a speaker 13. To be pronounced as

【0013】なお、通常のMIDI規格のチャンネル数
が0チャンネルから15チャンネルまでの計16個であ
るのに対して、この実施例におけるMIDI・バス10
は、0チャンネルから39チャンネルまでの計40チャ
ンネルの幅を有する拡張されたMIDI・バスである。
したがって、これ以後、これらのチャンネル番号を区別
するために、通常のMIDI規格に則ったMIDIチャ
ンネルを外部MIDIチャンネルといい、この実施例に
おけるMIDIチャンネルを、単に、MIDIチャンネ
ルということにする。
While the number of channels of the normal MIDI standard is 16 in total from channel 0 to channel 15, the MIDI bus 10 in this embodiment
Is an extended MIDI bus having a width of a total of 40 channels from channel 0 to channel 39.
Therefore, hereinafter, in order to distinguish these channel numbers, a MIDI channel conforming to a normal MIDI standard is called an external MIDI channel, and a MIDI channel in this embodiment is simply called a MIDI channel.

【0014】この実施例において、MIDIチャンネル
数を電子楽器内部で40に拡張したのは、以下に示す理
由による。すなわち、従来のMIDI規格のように、チ
ャンネル数が16程度と少ないと、鍵盤4による演奏
と、自動演奏、あるいは、自動リズム演奏などとを同時
に行った場合、チャンネル番号が重なってしまうことが
あり、その場合、鍵盤4を弾くことによりノートオンさ
れた発音チャンネルの楽音が外部MIDIチャンネルを
介して入力されたノートオフによって消音されてしまう
ことがあったからであり、上述したように、電子楽器内
部でMIDIチャンネルを拡張することにより、以上説
明した不都合はなくなる。
In this embodiment, the number of MIDI channels is expanded to 40 inside the electronic musical instrument for the following reason. That is, if the number of channels is as small as about 16 as in the conventional MIDI standard, the channel numbers may be overlapped when the performance by the keyboard 4 and the automatic performance or the automatic rhythm performance are performed at the same time. In this case, the musical tone of the sounding channel that is turned on by playing the keyboard 4 may be muted by the note-off input via the external MIDI channel, as described above. By expanding the MIDI channel, the disadvantages described above are eliminated.

【0015】なお、図1においては、サウンドシステム
12にもMIDI・バス10が接続されているが、これ
は、このサウンドシステム12においては、各MIDI
チャンネルに対応した発音チャンネル毎に楽音のボリュ
ームを制御することができるからであり、MIDI・バ
ス10を介してサウンドシステム12の各発音チャンネ
ルへメッセージを転送することにより、たとえば、ある
発音チャンネルはこの程度のボリュームでというよう
に、各発音チャンネル毎にボリュームを制御することが
でき、全体の発音チャンネルのボリュームを制御するこ
とができる。
In FIG. 1, a MIDI bus 10 is also connected to the sound system 12, but this MIDI bus 10 is connected to each MIDI system.
This is because the tone volume can be controlled for each sound channel corresponding to the channel. By transferring a message to each sound channel of the sound system 12 via the MIDI bus 10, for example, a certain sound channel can It is possible to control the volume for each sounding channel, for example, to control the volume of the entire sounding channel.

【0016】このような構成において、CPU1の動作
について図3〜図11のフローチャートに基づいて説明
する。図1の電子楽器に電源が投入されると、CPU1
は、まず、図3のメインルーチンのステップSA1の処
理へ進み、装置各部のイニシャライズを行う。このイニ
シャライズは、各種レジスタのゼロリセットおよび周辺
回路の初期設定となる各種変数の初期設定等である。そ
して、CPU1は、ステップSA2へ進む。
In such a configuration, the operation of the CPU 1 will be described with reference to the flowcharts of FIGS. When power is applied to the electronic musical instrument of FIG.
First, the process proceeds to the processing of step SA1 of the main routine of FIG. 3 to initialize each unit of the apparatus. This initialization includes resetting various registers to zero and initializing various variables for initial setting of peripheral circuits. Then, the CPU 1 proceeds to step SA2.

【0017】ステップSA2では、MIDI処理を行
う。この実施例においては、電子楽器の各部をそれぞれ
モジュールとしてとらえ、これらの間でのデータ通信
は、MIDIデータによって行い、各モジュールから出
力されるMIDIデータは、一旦、RAM3のMIDI
バッファに格納される。そして、CPU1は、このMI
DI処理において、RAM3のMIDIバッファに格納
されたMIDIデータを順次読み出してデータの種類に
応じた所定の処理を行うとともに、読み出したMIDI
データをMIDI・バス10を介して楽音合成回路11
に転送する。これにより、楽音合成回路11は、MID
Iデータに応じて楽音信号を出力する。なお、このMI
DI処理の詳細については、後述する。そして、このM
IDI処理が終了すると、CPU1は、ステップSA3
へ進む。
At step SA2, a MIDI process is performed. In this embodiment, each part of the electronic musical instrument is considered as a module, and data communication between them is performed by MIDI data. MIDI data output from each module is temporarily stored in the MIDI memory of the RAM 3.
Stored in buffer. Then, the CPU 1
In the DI process, the MIDI data stored in the MIDI buffer of the RAM 3 is sequentially read out, a predetermined process corresponding to the type of data is performed, and the read MIDI data is processed.
The data is transmitted to the tone synthesis circuit 11 via the MIDI bus 10
Transfer to As a result, the tone synthesis circuit 11
A tone signal is output according to the I data. Note that this MI
Details of the DI processing will be described later. And this M
When the IDI processing ends, the CPU 1 proceeds to step SA3
Proceed to.

【0018】ステップSA3では、外部MIDI処理を
行う。この処理は、MIDIインターフェイス9および
MIDI・バス10を介して外部から入力されたMID
Iデータを40チャンネル分に拡張されたMIDIデー
タに変換してMIDI・バス10を介してRAM3のM
IDIバッファに格納するものである。この実施例にお
いては、チャンネル番号0〜15の計16個の外部MI
DIチャンネルは、図2に示すように、そのチャンネル
番号に9を加えたMIDIチャンネルのチャンネル番号
9〜24に割り当てられている。したがって、たとえ
ば、チャンネル番号0の外部MIDIチャンネルのノー
トオンは、チャンネル番号9のMIDIチャンネルのノ
ートオンとしてRAM3のMIDIバッファに格納され
る。そして、この外部MIDI処理が終了すると、CP
U1は、ステップSA4へ進む。
At step SA3, an external MIDI process is performed. This processing is performed by the MID input from outside via the MIDI interface 9 and the MIDI bus 10.
I data is converted to MIDI data expanded to 40 channels, and the
This is stored in the IDI buffer. In this embodiment, a total of 16 external MIs of channel numbers 0 to 15 are provided.
As shown in FIG. 2, the DI channels are assigned to channel numbers 9 to 24 of MIDI channels obtained by adding 9 to the channel number. Therefore, for example, the note-on of the external MIDI channel of channel number 0 is stored in the MIDI buffer of the RAM 3 as the note-on of the MIDI channel of channel number 9. When the external MIDI processing is completed, the CP
U1 proceeds to step SA4.

【0019】ステップSA4では、鍵盤4のいずれかの
キーが押鍵された際に働く鍵処理を行う。鍵盤4から出
力された鍵情報は、まず、鍵盤インターフェイス5およ
びアドレス/データ・バス6を介してCPU1に転送さ
れるので、CPU1は、この鍵処理において、鍵をスキ
ャンして転送された鍵情報からMIDIイベントを生成
する。この実施例においては、鍵盤4の複数のキーを上
鍵域と下鍵域とにスプリットしているので、CPU1
は、図2に示すように、上鍵域のMIDIイベントをM
IDIチャンネル0のオーケストラ1のノートオンやノ
ートオフなどの情報とし、下鍵域のMIDIイベントを
MIDIチャンネル1のオーケストラ2の情報としてR
AM3のMIDIバッファに順次格納する。なお、この
鍵処理の詳細については、後述する。そして、この鍵処
理が終了すると、CPU1は、ステップSA5へ進む。
At step SA4, a key process is performed which is performed when any key on the keyboard 4 is pressed. Since the key information output from the keyboard 4 is first transferred to the CPU 1 via the keyboard interface 5 and the address / data bus 6, the CPU 1 scans the key in the key processing and transfers the key information. From the MIDI event. In this embodiment, a plurality of keys of the keyboard 4 are split into an upper key range and a lower key range.
As shown in FIG. 2, the MIDI event in the upper
The IDI channel 0 orchestra 1 note-on and note-off information, and the lower key range MIDI event as MIDI channel 1 orchestra 2 information R
The data is sequentially stored in the MIDI buffer of AM3. The details of the key processing will be described later. Then, when this key processing ends, the CPU 1 proceeds to step SA5.

【0020】ステップSA5では、自動演奏処理や自動
リズム演奏処理などの自動処理を行う。自動演奏処理
は、演奏者によって操作パネル7を用いて設定された曲
風(スタイル:ワルツ、ロック、タンゴなど)およびテ
ンポと、鍵盤4を用いて指定された和音情報(コードの
ルートROOTとタイプTYPE)とに基づいて自動演
奏イベントを生成する。そして、この自動演奏のイベン
トは、対応するMIDIチャンネルのイベントとしてR
AM3のMIDIデータバッファに順次格納する。
At step SA5, automatic processing such as automatic performance processing and automatic rhythm performance processing is performed. The automatic performance processing is performed by setting the music style (style: waltz, rock, tango, etc.) and tempo set by the player using the operation panel 7, and the chord information (chord root ROOT and type) specified using the keyboard 4. TYPE), and an automatic performance event is generated. Then, the event of the automatic performance is R event as the event of the corresponding MIDI channel.
The data is sequentially stored in the MIDI data buffer of AM3.

【0021】また、自動リズム演奏処理は、上述した曲
風とテンポとに基づいてリズムパターンの生成を行う。
そして、このリズムパターンも、対応するMIDIチャ
ンネルのイベントとしてRAM3のMIDIデータバッ
ファに順次格納する。なお、この自動処理の詳細につい
ては、後述する。そして、この自動処理が終了すると、
CPU1は、ステップSA6へ進む。
In the automatic rhythm performance processing, a rhythm pattern is generated based on the music style and tempo described above.
The rhythm pattern is also sequentially stored in the MIDI data buffer of the RAM 3 as a corresponding MIDI channel event. The details of this automatic processing will be described later. Then, when this automatic processing is completed,
The CPU 1 proceeds to step SA6.

【0022】ステップSA6では、楽音合成回路11の
各発音チャンネルの中でエンベロープレベルがある一定
以下になった発音チャンネルを空きチャンネルとして検
出する発音チャンネル処理を、チャンネル番号0〜31
までの通常音のMIDIチャンネルに対応した発音チャ
ンネルと、チャンネル番号32〜39までのリズム音の
MIDIチャンネルに対応した発音チャンネルとについ
て別々に行う。なお、この発音チャンネル処理の詳細に
ついては、後述する。そして、この発音チャンネル処理
が終了すると、CPU1は、ステップSA7へ進む。
At step SA6, a sound channel process for detecting a sound channel whose envelope level is below a certain level among the sound channels of the tone synthesis circuit 11 as an empty channel is performed by channel numbers 0 to 31.
The sounding channels corresponding to the MIDI channels of the normal sounds up to and the sounding channels corresponding to the MIDI channels of the rhythm sounds of channel numbers 32 to 39 are separately performed. The details of the sound channel processing will be described later. When the sound channel processing is completed, the CPU 1 proceeds to step SA7.

【0023】ステップSA7では、演奏者による操作パ
ネル7の操作に応じて曲風やテンポの設定、あるいは、
MIDIチャンネル毎の音色の設定などを行う。なお、
後述する各処理のフローチャートにおいて、代入文がな
くて定数的に使用している変数は、このパネル処理にお
いてすべて演奏者が設定するものとする。そして、この
パネル処理が終了すると、CPU1は、ステップSA8
へ進む。
In step SA7, the music style and tempo are set according to the operation of the operation panel 7 by the player, or
The user sets tone colors for each MIDI channel. In addition,
In the flowchart of each processing described later, it is assumed that all the variables used without a substitution statement and used in a constant manner are set by the player in this panel processing. When the panel processing is completed, the CPU 1 proceeds to step SA8.
Proceed to.

【0024】ステップSA8では、この電子楽器が備え
ているシーケンサについてのMIDIチャンネル番号2
〜8のシーケンサトラック1〜7(図2参照)に関する
処理等、上述した各処理において特に説明しなかったそ
の他の処理が実行され、こうした処理完了後に、上述し
たステップSA2に戻り、電源が切断されるまでステッ
プSA2〜SA8の一連の処理が繰り返し実行される。
このように、メインルーチンにおいては、CPU1が各
種イベントに応じた楽音合成を指示するように動作し、
この楽音合成は後述する各種処理によって実現される。
At step SA8, the MIDI channel number 2 for the sequencer provided in the electronic musical instrument
Other processes not particularly described in the above-described processes, such as the processes related to the sequencer tracks 1 to 7 (see FIG. 2), are executed. After the completion of such processes, the process returns to the above-described step SA2, and the power is turned off. A series of processes of steps SA2 to SA8 is repeatedly executed until the process is completed.
As described above, in the main routine, the CPU 1 operates so as to instruct the tone synthesis according to various events.
This tone synthesis is realized by various processes described later.

【0025】次に、CPU1のMIDI処理について図
4のフローチャートに基づいて説明する。CPU1の処
理が図3のステップSA2へ進むと、図4に示すMID
I処理ルーチンが起動される。CPU1は、まず、ステ
ップSB1の処理へ進み、RAM3のMIDIバッファ
を走査した後、ステップSB2へ進む。
Next, the MIDI processing of the CPU 1 will be described with reference to the flowchart of FIG. When the processing of the CPU 1 proceeds to step SA2 in FIG. 3, the MID shown in FIG.
The I processing routine is started. The CPU 1 first proceeds to the process of step SB1, scans the MIDI buffer of the RAM 3, and then proceeds to step SB2.

【0026】ステップSB2では、MIDIイベントの
有無を判断する。この判断結果が「NO」の場合、すな
わち、MIDIイベントが検出されない場合には、何も
せず、図3のメインルーチンへ戻り、ステップSA3へ
進む。いっぽう、ステップSB2の判断結果が「YE
S」の場合、すなわち、MIDIイベントが検出された
場合には、ステップSB3へ進む。
At step SB2, it is determined whether there is a MIDI event. If the result of this determination is "NO", that is, if no MIDI event is detected, nothing is done, the process returns to the main routine of FIG. 3, and proceeds to step SA3. On the other hand, if the determination result of step SB2 is “YE
If "S", that is, if a MIDI event is detected, the process proceeds to Step SB3.

【0027】ステップSB3では、RAM3のMIDI
バッファからMIDIチャンネル番号およびMIDIイ
ベントを読み出し、それぞれレジスタMCHおよびEV
に格納した後、ステップSB4へ進む。ステップSB4
では、レジスタEVの内容がノートイベントに対応する
ものであるか否かを判断する。この実施例においては、
ノートイベントもリズムのノートイベントも形式として
は、MIDI規格のノートオンの形式である。しかし、
通常楽音とリズム楽音とを別の発音チャンネルで生成す
るようにしており、リズム楽音には、図2に示すよう
に、MIDIチャンネル番号32〜39が別途割当てら
れているので、ノートイベントとリズムのノートイベン
トとの判別は、MIDIチャンネル番号によって行う。
ステップSB4の判断結果が「YES」の場合、すなわ
ち、レジスタEVの内容がノートイベントに対応するも
のである場合には、ステップSB5へ進む。
At Step SB3, the MIDI
The MIDI channel number and the MIDI event are read from the buffer, and the registers MCH and EV are respectively read.
After that, the process proceeds to Step SB4. Step SB4
Then, it is determined whether or not the contents of the register EV correspond to a note event. In this example,
Both the note event and the rhythm note event are of the MIDI standard note-on format. But,
The normal tone and the rhythm tone are generated on different sounding channels. MIDI channel numbers 32-39 are separately assigned to the rhythm tone as shown in FIG. The determination of a note event is made based on the MIDI channel number.
If the decision result in the step SB4 is "YES", that is, if the content of the register EV corresponds to the note event, the process proceeds to a step SB5.

【0028】ステップSB5では、ノートイベント処理
を行う。なお、このノートイベント処理の詳細について
は、後述する。そして、このノートイベント処理が終了
すると、CPU1は、図3のメインルーチンへ戻り、ス
テップSA3へ進む。いっぽう、ステップSB4の判断
結果が「NO」の場合、すなわち、レジスタEVの内容
がノートイベントでなく、リズムのノートイベント、あ
るいは、チャンネルイベントである場合には、ステップ
SB6へ進む。
At step SB5, note event processing is performed. The details of the note event process will be described later. Then, when this note event process ends, the CPU 1 returns to the main routine of FIG. 3 and proceeds to step SA3. On the other hand, if the result of the determination in step SB4 is "NO", that is, if the content of the register EV is not a note event but a rhythm note event or a channel event, the process proceeds to step SB6.

【0029】ステップSB6では、レジスタEVの内容
がリズムのノートイベントに対応するものであるか否か
を判断する。この判断結果が「YES」の場合には、ス
テップSB7へ進む。ステップSB7では、リズムノー
トイベント処理を行う。なお、このリズムノートイベン
ト処理の詳細については、後述する。そして、このリズ
ムノートイベント処理が終了すると、CPU1は、図3
のメインルーチンへ戻り、ステップSA3へ進む。
At step SB6, it is determined whether or not the contents of the register EV correspond to a rhythm note event. If this determination is "YES", the flow proceeds to step SB7. At Step SB7, a rhythm note event process is performed. The details of the rhythm note event process will be described later. When the rhythm note event process ends, the CPU 1 proceeds to FIG.
Then, the process returns to the main routine and proceeds to step SA3.

【0030】いっぽう、ステップSB4の判断結果が
「NO」の場合、すなわち、レジスタEVの内容がリズ
ムのノートイベントでなく、チャンネルイベントである
場合には、ステップSB8へ進む。ステップSB8で
は、MIDIチャンネルの音色切り替えを要求するプロ
グラムチェンジ情報やピッチベンド情報等のチャンネル
イベントを処理するチャンネルイベント処理を行う。そ
して、このチャンネルイベント処理が終了すると、CP
U1は、図3のメインルーチンへ戻り、ステップSA3
へ進む。
On the other hand, if the decision result in the step SB4 is "NO", that is, if the content of the register EV is not a rhythm note event but a channel event, the process proceeds to step SB8. In step SB8, a channel event process for processing a channel event such as program change information or pitch bend information for requesting switching of the timbre of the MIDI channel is performed. Then, when the channel event processing is completed, the CP
U1 returns to the main routine of FIG.
Proceed to.

【0031】次に、CPU1のノートイベント処理につ
いて図5のフローチャートに基づいて説明する。CPU
1の処理が図4のステップSB5へ進むと、図5に示す
ノートイベント処理ルーチンが起動される。CPU1
は、まず、ステップSC1の処理へ進み、レジスタEV
の内容がノートオンイベントNONに対応するものであ
るか否かを判断する。この判断結果が「YES」の場合
には、ステップSC2へ進む。
Next, the note event processing of the CPU 1 will be described with reference to the flowchart of FIG. CPU
When the process 1 proceeds to step SB5 in FIG. 4, the note event processing routine shown in FIG. 5 is started. CPU1
First, the process proceeds to step SC1, where the register EV
It is determined whether or not the content corresponds to the note-on event NON. If this determination is "YES", the flow proceeds to step SC2.

【0032】ステップSC2では、割当可能である発音
チャンネルを検出するための空き発音チャンネルのサー
チをした後、ステップSC3へ進む。ここで、空き発音
チャンネルとは、発音まで待機している状態を意味して
いる。ステップSC3では、ステップSC2の空き発音
チャンネルのサーチ処理において検出された発音チャン
ネルの状態から現在空き発音チャンネルがあるか否かを
判断する。この判断結果が「NO」の場合、すなわち、
全ての発音チャンネルが何らかの形で発音中である場合
には、ステップSC4へ進む。
In step SC2, a search is made for a free sounding channel to detect a sounding channel that can be assigned, and then the process proceeds to step SC3. Here, an empty sounding channel means a state of waiting for sounding. In step SC3, it is determined whether or not there is an empty sounding channel at present based on the state of the sounding channel detected in the search process for the empty sounding channel in step SC2. If the result of this determination is "NO",
If all the sounding channels are sounding in some way, the process proceeds to step SC4.

【0033】ステップSC4では、発音中の発音チャン
ネルの中で最も減衰が進んでいる発音チャンネル、ある
いは、最も古く押鍵された発音チャンネルを検出し、こ
れを強制的に発音停止させて「空き発音チャンネル」と
するトランケート処理を行う。なお、このトランケート
処理の詳細については、後述する。そして、このトラン
ケート処理が終了すると、CPU1は、ステップSC6
へ進む。
In step SC4, a sound channel having the most attenuated sound among the sound channels being sounded or a sound channel which is the oldest depressed is detected, and the sound is forcibly stopped and the "empty sound" is output. A truncation process for “channel” is performed. The details of the truncation process will be described later. When this truncation processing is completed, the CPU 1 proceeds to step SC6.
Proceed to.

【0034】いっぽう、ステップSC3の判断結果が
「YES」の場合、すなわち、現在空き発音チャンネル
がある場合には、ステップSC5へ進む。ステップSC
5では、アサインされる発音チャンネルの番号が一時格
納されるレジスタACHに、得られた空き発音チャンネ
ルの番号を格納した後、ステップSC6へ進む。ステッ
プSC6では、レジスタACHに格納された発音チャン
ネルの番号に対応した発音チャンネルの状態を発音持続
状態として表すため、レジスタST〔ACH〕の値(ス
テート信号ST)を「1」とした後、ステップSC7へ
進む。ここで、このレジスタST〔ACH〕と各発音チ
ャンネルの状態との対応は、ST〔ACH〕=「0」は
空き発音チャンネル、すなわち、チャンネル待機状態を
表し、「1」は押鍵中の発音チャンネル、すなわち、ノ
ートオンによる発音持続状態を表し、「2」は離鍵され
ているが発音中である発音チャンネル、すなわち、リリ
ース波形発音状態を表している。
On the other hand, if the decision result in the step SC3 is "YES", that is, if there is a currently available sounding channel, the process proceeds to a step SC5. Step SC
In step 5, the obtained free sounding channel number is stored in the register ACH in which the number of the sounding channel to be assigned is temporarily stored, and then the process proceeds to step SC6. In step SC6, the value of the register ST [ACH] (state signal ST) is set to "1" in order to represent the state of the sounding channel corresponding to the sounding channel number stored in the register ACH as a sounding continuous state. Proceed to SC7. Here, the correspondence between the register ST [ACH] and the state of each sounding channel is as follows: ST [ACH] = "0" indicates an empty sounding channel, that is, a channel standby state, and "1" indicates sounding during key depression. A channel, that is, a note-on state in which sound is generated by note-on, and “2” indicates a key-released but sounding channel, that is, a release waveform sounding state.

【0035】ステップSC7では、発音すべきノートコ
ードNCをMIDIイベントから取り出して、各発音チ
ャンネルで発音中のノートコードNCが格納されるレジ
スタSTNC〔ACH〕に格納する。1つのノートオン
のMIDIメッセージには、MIDIチャンネル番号
と、ノートコードNCと、ベロシティNV等の情報が納
められている。そして、CPU1は、ステップSC8へ
進む。
At step SC7, note codes NC to be sounded are taken out of the MIDI event and stored in a register STNC [ACH] in which the note codes NC sounding in each sounding channel are stored. One note-on MIDI message contains information such as a MIDI channel number, a note code NC, and a velocity NV. Then, the CPU 1 proceeds to step SC8.

【0036】ステップSC8では、各発音チャンネルに
アサインされているMIDIチャンネルの番号が格納さ
れるレジスタAMC〔ACH〕に、レジスタMCHに格
納されているMIDIチャンネル番号を格納した後、ス
テップSC9へ進む。ステップSC9では、レジスタA
CHに格納された発音チャンネルの番号に対応する楽音
合成回路11の空き発音チャンネルに対してMIDIチ
ャンネル番号MCH、ノートコードNC、ベロシティN
V、ノートオン情報をMIDI・バス10を介して出力
する。これらは、実際には、MIDI規格に則ったMI
DIイベントの形で送出される。これにより、楽音合成
回路11は、これらの情報に基づいた楽音信号を発生す
る。そして、CPU1は、ステップSC10へ進む。
In step SC8, the MIDI channel number stored in the register MCH is stored in the register AMC [ACH] in which the number of the MIDI channel assigned to each sounding channel is stored, and then the flow proceeds to step SC9. In step SC9, the register A
A MIDI channel number MCH, a note code NC, and a velocity N for an empty sound channel of the tone synthesis circuit 11 corresponding to the sound channel number stored in the CH.
V, note-on information is output via the MIDI bus 10. These are actually MI-IDs conforming to the MIDI standard.
Dispatched in the form of a DI event. Thus, the tone synthesis circuit 11 generates a tone signal based on the information. Then, the CPU 1 proceeds to step SC10.

【0037】ステップSC10では、各発音チャンネル
毎に設けられ、ノートオンされる度に1インクリメント
されるノートオンカウンタNONC〔ACH〕の値を0
にリセットする。このノートオンカウンタNONC〔A
CH〕の値が最大の発音チャンネルが最も古くから押鍵
された発音チャンネルを示しているので、それぞれのノ
ートオンカウンタNONC〔ACH〕の値を参照するこ
とにより、鍵盤4のどのキーが最も早く押鍵されたかを
知ることができる。そして、CPU1は、ステップSC
11へ進む。
At step SC10, the value of the note-on counter NNC [ACH], which is provided for each tone generation channel and is incremented by one each time a note-on is performed, is set to 0.
Reset to. This note-on counter NNC [A
[CH] indicates the sounding channel whose key has been pressed for the longest time. Therefore, by referring to the value of each note-on counter NONC [ACH], which key of the keyboard 4 is the earliest. You can know if the key is pressed. Then, the CPU 1 determines in step SC
Proceed to 11.

【0038】ステップSC11では、発音中の発音チャ
ンネルに対応する全てのノートオンカウンタNONC
〔ACH〕の値を1ずつインクリメントする。もちろ
ん、発音していない発音チャンネルに対応するノートオ
ンカウンタNONC〔ACH〕の値をインクリメントし
てはならない。なお、ここで、発音中の発音チャンネル
に対応する全てのノートオンカウンタNONC〔AC
H〕としたのは、ノートオンされた発音チャンネルに対
応する全てのノートオンカウンタNONC〔ACH〕と
すると、発音中であるが離鍵された発音チャンネル(具
体的には、ST〔ACH〕=「2」)が、後述するトラ
ンケート処理において誤って処理されてしまうからであ
る。そして、CPU1は、図4のMIDI処理ルーチン
を経て図3のメインルーチンへ戻り、ステップSA3へ
進む。
In step SC11, all the note-on counters NONC corresponding to the sounding channel being sounded are set.
The value of [ACH] is incremented by one. Of course, the value of the note-on counter NONC [ACH] corresponding to the sounding channel that is not sounding must not be incremented. Here, all note-on counters NONC [AC
[H] means that all note-on counters NONC [ACH] corresponding to the note-on sound channels are sounding channels that are sounding but have been released (specifically, ST [ACH] = This is because “2”) is erroneously processed in a truncation process described later. Then, the CPU 1 returns to the main routine of FIG. 3 via the MIDI processing routine of FIG. 4, and proceeds to step SA3.

【0039】いっぽう、ステップSC1の判断結果が
「NO」の場合、すなわち、レジスタEVの内容がノー
トオンイベントNONに対応するものでなく、ノートオ
フイベントNOFFに対応するものである場合には、ス
テップSC12へ進む。ステップSC12では、各発音
チャンネルの情報をサーチする。ここで、同じMIDI
チャンネルで同じノートコードNCを発音している発音
チャンネルがあれば、後述するように、その発音チャン
ネルのノートオフ処理を行うが、同じノートコードNC
でも、異なるMIDIチャンネルであれば、その発音チ
ャンネルはノートオフしてはならない。そこで、このこ
とを検出できるようにするため、ステップSC7および
8において、各発音チャンネル毎に、ノートコードNC
およびMIDIチャンネル番号をレジスタSTNC〔A
CH〕およびAMC〔ACH〕にそれぞれ格納している
のである。そして、CPU1は、ステップSC13へ進
む。
On the other hand, if the decision result in the step SC1 is "NO", that is, if the contents of the register EV do not correspond to the note-on event NON but correspond to the note-off event NOFF, Proceed to SC12. In step SC12, information of each sounding channel is searched. Here, the same MIDI
If there is a sound channel that is sounding the same note code NC in the channel, note-off processing of that sound channel is performed as described later.
However, if it is a different MIDI channel, the sounding channel must not be turned off. In order to detect this, in steps SC7 and SC8, note codes NC
And the MIDI channel number in the register STNC [A
CH] and AMC [ACH]. Then, the CPU 1 proceeds to step SC13.

【0040】ステップSC13では、対応する発音チャ
ンネルがあるか否かを判断する。この判断結果が「N
O」の場合、すなわち、対応する発音チャンネルの楽音
がもう発音されていない場合、たとえば、押鍵が持続さ
れて発音が完全に減衰してしまった状態や、トランケー
ト処理により押鍵中にもかかわらず発音が強制終了させ
られた場合などには、なにもせず、図4のMIDI処理
ルーチンを経て図3のメインルーチンへ戻り、ステップ
SA3へ進む。
At step SC13, it is determined whether or not there is a corresponding sounding channel. The result of this determination is “N
In the case of "O", that is, when the musical tone of the corresponding sounding channel is not sounded anymore, for example, even if the sound is completely attenuated due to the continued key depression or during the key depression due to the truncation process. If the sound generation is forcibly terminated, the process returns to the main routine of FIG. 3 via the MIDI processing routine of FIG. 4 without doing anything, and proceeds to step SA3.

【0041】いっぽう、ステップSC13の判断結果が
「YES」の場合、すなわち、対応する発音チャンネル
が現在発音中である場合には、ステップSC14へ進
む。ステップSC14では、サーチされた発音チャンネ
ル番号をレジスタCHへ格納した後、ステップSC15
へ進む。ステップSC15では、上述した各発音チャン
ネル毎の状態が記憶されるレジスタST〔CH〕に離鍵
されているが発音中である発音チャンネル、すなわち、
リリース波形発音状態であることを表す「2」を格納し
た後、ステップSC16へ進む。ステップSC16で
は、レジスタCHに格納された発音チャンネルの番号に
対応する楽音合成回路11の発音チャンネルに対してノ
ートオフ情報を出力した後、図4のMIDI処理ルーチ
ンを経て図3のメインルーチンへ戻り、ステップSA3
へ進む。
On the other hand, if the decision result in the step SC13 is "YES", that is, if the corresponding sounding channel is currently sounding, the flow advances to a step SC14. In step SC14, after the searched sounding channel number is stored in the register CH, in step SC15
Proceed to. In step SC15, the sounding channel which has been released but is sounding in the register ST [CH] in which the state of each sounding channel is stored, that is,
After storing “2” indicating that the release waveform is sounding, the process proceeds to step SC16. In step SC16, note-off information is output to the tone generation channel of the tone synthesis circuit 11 corresponding to the tone generation channel number stored in the register CH, and then the process returns to the main routine of FIG. 3 via the MIDI processing routine of FIG. , Step SA3
Proceed to.

【0042】次に、CPU1のトランケート処理につい
て図6のフローチャートに基づいて説明する。CPU1
の処理が図5のステップSC4へ進むと、図6に示すト
ランケート処理ルーチンが起動される。CPU1は、ま
ず、ステップSD1の処理へ進み、各発音チャンネルの
状態をスキャンする、すなわち、レジスタST〔CH〕
をスキャンした後、ステップSD2へ進む。
Next, the truncation process of the CPU 1 will be described with reference to the flowchart of FIG. CPU1
When the process proceeds to step SC4 in FIG. 5, a truncation process routine shown in FIG. 6 is started. The CPU 1 first proceeds to the processing of step SD1, and scans the state of each tone generation channel, that is, the register ST [CH].
After scanning, the process proceeds to step SD2.

【0043】ステップSD2では、ノートオフ中の発音
チャンネルがあるか否か、すなわち、レジスタST〔C
H〕の値が「2」である発音チャンネルがあるか否かを
判断する。この判断結果が「YES」の場合には、ステ
ップSD3へ進む。ステップSD3では、ノートオフ中
の発音チャンネルの中でエンベロープレベルENVが最
も小さい発音チャンネル、すなわち、最も減衰が進んで
いる発音チャンネルの番号をトランケート候補の発音チ
ャンネルの番号が格納されるレジスタTCHに格納した
後、ステップSD5へ進む。
In step SD2, it is determined whether or not there is a note-off sound channel, that is, the register ST [C
It is determined whether or not there is a sound channel whose value of [H] is “2”. If this determination is "YES", the flow proceeds to step SD3. In step SD3, the sound channel having the smallest envelope level ENV, ie, the sound channel number with the most attenuated sound among the sound-off channels during note-off, is stored in the register TCH in which the sound channel number of the truncation candidate is stored. After that, the process proceeds to Step SD5.

【0044】いっぽう、ステップSD2の判断結果が
「NO」の場合、すなわち、ノートオフ中の発音チャン
ネルがない場合には、ステップSD4へ進む。ステップ
SD4では、発音中の発音チャンネルの中で最も古く押
鍵された発音チャンネル、すなわち、ノートオンカウン
タNONC〔ACH〕の値が最大の発音チャンネルの番
号をレジスタTCHに格納する。これにより、ストリン
グスやパイプオルガン等のスローアタックの楽音の音色
でも、押鍵中であれば、トランケート処理されることが
ない。そして、CPU1は、ステップSD5へ進む。
On the other hand, if the decision result in the step SD2 is "NO", that is, if there is no note-off sounding channel, the process proceeds to a step SD4. In step SD4, the oldest depressed sounding channel among the sounding channels being sounded, that is, the number of the sounding channel whose note-on counter NONC [ACH] has the largest value is stored in the register TCH. As a result, even a tone of a slow attack musical tone such as a string or a pipe organ is not truncated while the key is being pressed. Then, the CPU 1 proceeds to step SD5.

【0045】ステップSD5では、レジスタTCHに格
納された発音チャンネルの番号に対応する楽音合成回路
11の発音チャンネルに対してダンプ要求信号を送出す
る。これにより、楽音合成回路11の発音チャンネル
は、ダンプ要求信号に応じて所定の速度でエンベロープ
をダンプするが、完全にダンプされるまでにある程度時
間がかかる。したがって、この発音チャンネルにすぐに
ノートオン情報が入力された場合には、不都合が生じる
可能性があるが、楽音合成回路11は、このような状態
の場合、該当する発音チャンネルのエンベロープが完全
にダンプされるまでノートオン情報を遅延させておき、
ダンプが終了した時点でノートオン情報に基づき、直ち
に発音を立ち上げる機能を有しているので、問題はな
い。そして、CPU1は、ステップSD6へ進む。ステ
ップSD6では、レジスタTCHの値をレジスタACH
に格納した後、図5のノートイベント処理ルーチンへ戻
り、ステップSC6へ進む。
In step SD5, a dump request signal is sent to the tone generation channel of the tone synthesis circuit 11 corresponding to the tone generation channel number stored in the register TCH. As a result, the tone generation channel of the tone synthesis circuit 11 dumps the envelope at a predetermined speed in response to the dump request signal, but it takes some time until the envelope is completely dumped. Therefore, if note-on information is immediately input to this sounding channel, inconvenience may occur. However, in such a state, the tone synthesis circuit 11 completely removes the envelope of the corresponding sounding channel. Delay note-on information until dumped,
There is no problem because it has a function to immediately start sounding based on the note-on information when the dump is completed. Then, the CPU 1 proceeds to step SD6. At step SD6, the value of the register TCH is stored in the register ACH.
After that, the process returns to the note event processing routine of FIG. 5 and proceeds to step SC6.

【0046】次に、CPU1のリズムノートイベント処
理について図7のフローチャートに基づいて説明する。
CPU1の処理が図4のステップSB7へ進むと、図7
に示すリズムノートイベント処理ルーチンが起動され
る。CPU1は、まず、ステップSE1の処理へ進み、
レジスタEVの内容がリズムのノートオンイベントNO
Nに対応するものであるか否かを判断する。この判断結
果が「YES」の場合には、ステップSE2へ進む。
Next, the rhythm note event processing of the CPU 1 will be described with reference to the flowchart of FIG.
When the processing of the CPU 1 proceeds to step SB7 in FIG.
The rhythm note event processing routine shown in FIG. First, the CPU 1 proceeds to the process of step SE1.
The content of the register EV is a rhythm note-on event NO
It is determined whether it corresponds to N. If this determination is "YES", the flow proceeds to step SE2.

【0047】ステップSE2では、割当可能であるリズ
ムチャンネルを検出するための空きリズムチャンネルの
サーチをした後、ステップSE3へ進む。ここで、空き
リズムチャンネルとは、リズム発音まで待機している状
態を意味している。ステップSE3では、ステップSE
2の空きリズムチャンネルのサーチ処理において検出さ
れたリズムチャンネルの状態から現在空きリズムチャン
ネルがあるか否かを判断する。この判断結果が「NO」
の場合、すなわち、全てのリズムチャンネルが何らかの
形で発音中である場合には、ステップSE4へ進む。
In step SE2, a search is made for an empty rhythm channel for detecting a rhythm channel that can be assigned, and then the flow advances to step SE3. Here, an empty rhythm channel means a state of waiting for rhythm sounding. In step SE3, step SE
It is determined from the state of the rhythm channel detected in the search processing of the second empty rhythm channel whether or not there is a current empty rhythm channel. If the result of this determination is "NO"
In other words, if all the rhythm channels are sounding in some form, the process proceeds to step SE4.

【0048】ステップSE4では、リズム発音中のリズ
ムチャンネルの中でエンベロープレベルが最も小さいリ
ズムチャンネル、すなわち、最も減衰が進んでいるリズ
ムチャンネルを検出し、これを強制的に発音停止させて
「空きリズムチャンネル」とするリズムトランケート処
理を行う。なお、このリズムトランケート処理の詳細に
ついては、後述する。そして、このリズムトランケート
処理が終了すると、CPU1は、ステップSE6へ進
む。
In step SE4, a rhythm channel having the lowest envelope level, that is, a rhythm channel with the most attenuated rhythm, is detected from among the rhythm channels that are generating a rhythm, and the rhythm channel is forcibly stopped to generate an "empty rhythm". Rhythm truncation processing for “channel” is performed. The details of the rhythm truncation process will be described later. When the rhythm truncation process ends, the CPU 1 proceeds to step SE6.

【0049】いっぽう、ステップSE3の判断結果が
「YES」の場合、すなわち、現在空きリズムチャンネ
ルがある場合には、ステップSE5へ進む。ステップS
E5では、レジスタACHに得られた空きリズムチャン
ネルの番号を格納した後、ステップSE6へ進む。ステ
ップSE6では、レジスタACHに格納されたリズムチ
ャンネルの番号に対応したリズムチャンネルの状態をリ
ズム発音持続状態として表すため、レジスタRST〔A
CH〕の値を「1」とした後、ステップSE7へ進む。
ここで、このレジスタRST〔ACH〕と各リズムチャ
ンネルの状態との対応は、レジスタST〔ACH〕と各
発音チャンネルの状態との対応と同様、RST〔AC
H〕=「0」は空きリズムチャンネル、すなわち、リズ
ムチャンネル待機状態を表し、「1」はリズムノートオ
ンによるリズム発音持続状態を表し、「2」はリリース
波形発音状態を表している。
On the other hand, if the decision result in the step SE3 is "YES", that is, if there is a currently available rhythm channel, the process proceeds to a step SE5. Step S
At E5, the number of the vacant rhythm channel obtained in the register ACH is stored, and the process proceeds to step SE6. In step SE6, the state of the rhythm channel corresponding to the rhythm channel number stored in the register ACH is represented as a rhythm sound sustaining state.
CH] is set to “1”, and the process proceeds to Step SE7.
Here, the correspondence between the register RST [ACH] and the state of each rhythm channel is the same as the correspondence between the register ST [ACH] and the state of each sounding channel.
H] = “0” indicates an empty rhythm channel, that is, a rhythm channel standby state, “1” indicates a rhythm sound sustaining state due to rhythm note-on, and “2” indicates a release waveform sounding state.

【0050】ステップSE7では、リズム発音すべきリ
ズムのノートコードNCをMIDIイベントから取り出
して、各リズムチャンネルでリズム発音中のリズムのノ
ートコードNCが格納されるレジスタRSTNC〔AC
H〕に格納する。1つのリズムのノートオンのMIDI
メッセージには、MIDIチャンネル番号と、リズムの
ノートコードNCと、ベロシティNV等の情報が納めら
れている。そして、CPU1は、ステップSE8へ進
む。
In step SE7, the note code NC of the rhythm to be sounded is extracted from the MIDI event, and the register RSTNC [AC] in which the note code NC of the rhythm sounding in each rhythm channel is stored.
H]. One rhythm note-on MIDI
The message contains information such as a MIDI channel number, a rhythm note code NC, and a velocity NV. Then, the CPU 1 proceeds to step SE8.

【0051】ステップSE8では、アサインされている
MIDIチャンネルの番号が格納されるレジスタRAM
C〔ACH〕に、レジスタMCHに格納されているMI
DIチャンネル番号を格納した後、ステップSE9へ進
む。ステップSE9では、レジスタACHに格納された
リズムチャンネルの番号に対応する楽音合成回路11の
空きリズムチャンネルに対してMIDIチャンネル番号
MCH、リズムのノートコードNC、ベロシティNV、
ノートオン情報をMIDI・バス10を介して出力す
る。これらは、実際には、MIDI規格に則ったMID
Iイベントの形で送出される。これにより、楽音合成回
路11は、これらの情報に基づいたリズム楽音信号を発
生する。そして、CPU1は、図4のMIDI処理ルー
チンを経て図3のメインルーチンへ戻り、ステップSA
3へ進む。
At step SE8, a register RAM storing the number of the assigned MIDI channel
C [ACH], the MI stored in the register MCH
After storing the DI channel number, the process proceeds to step SE9. In step SE9, a MIDI channel number MCH, a rhythm note code NC, a velocity NV, a MIDI channel number MCH for an empty rhythm channel of the tone synthesis circuit 11 corresponding to the rhythm channel number stored in the register ACH.
The note-on information is output via the MIDI bus 10. These are actually MIDs conforming to the MIDI standard.
Dispatched in the form of an I event. Thus, the tone synthesis circuit 11 generates a rhythm tone signal based on the information. Then, the CPU 1 returns to the main routine of FIG. 3 through the MIDI processing routine of FIG.
Proceed to 3.

【0052】いっぽう、ステップSE1の判断結果が
「NO」の場合、すなわち、レジスタEVの内容がリズ
ムのノートオンイベントNONに対応するものでなく、
リズムのノートオフイベントNOFFに対応するもので
ある場合には、ステップSE10へ進む。ステップSE
10では、各リズムチャンネルの情報をサーチする。こ
こで、同じMIDIチャンネルで同じリズムのノートコ
ードNCを発音しているリズムチャンネルがあれば、後
述するように、そのリズムチャンネルのリズムノートオ
フ処理を行うが、同じリズムのノートコードNCでも、
異なるMIDIチャンネルであれば、そのリズムチャン
ネルはリズムノートオフしてはならない。そこで、この
ことを検出できるようにするため、ステップSE7およ
び8において、各リズムチャンネル毎に、リズムのノー
トコードNCおよびMIDIチャンネル番号をレジスタ
RSTNC〔ACH〕およびRAMC〔ACH〕にそれ
ぞれ格納しているのである。そして、CPU1は、ステ
ップSE11へ進む。
On the other hand, if the decision result in the step SE1 is "NO", that is, the content of the register EV does not correspond to the note-on event NON of the rhythm,
If the event corresponds to the rhythm note-off event NOFF, the process proceeds to step SE10. Step SE
At 10, the information of each rhythm channel is searched. Here, if there is a rhythm channel sounding the same rhythm note code NC on the same MIDI channel, rhythm note off processing of that rhythm channel is performed as described later.
If it is a different MIDI channel, the rhythm channel must not have rhythm notes turned off. In order to detect this, in steps SE7 and SE8, the rhythm note code NC and MIDI channel number are stored in the registers RSTNC [ACH] and RAMC [ACH] for each rhythm channel. It is. Then, the CPU 1 proceeds to step SE11.

【0053】ステップSE11では、対応するリズムチ
ャンネルがあるか否かを判断する。この判断結果が「N
O」の場合、すなわち、対応するリズムチャンネルの楽
音がもうリズム発音されていない場合、たとえば、リズ
ムトランケート処理によりリズム発音が強制終了させら
れた場合などには、なにもせず、図4のMIDI処理ル
ーチンを経て図3のメインルーチンへ戻り、ステップS
A3へ進む。
At step SE11, it is determined whether or not there is a corresponding rhythm channel. The result of this determination is “N
In the case of "O", that is, when the musical tone of the corresponding rhythm channel is no longer rhythm-produced, for example, when the rhythm pronunciation is forcibly terminated by rhythm truncation processing, nothing is performed, and the MIDI shown in FIG. After the processing routine, the process returns to the main routine of FIG.
Proceed to A3.

【0054】いっぽう、ステップSE11の判断結果が
「YES」の場合、すなわち、対応するリズムチャンネ
ルが現在リズム発音中である場合には、ステップSE1
2へ進む。ステップSE12では、サーチされたリズム
チャンネル番号をレジスタCHへ格納した後、ステップ
SE13へ進む。ステップSE13では、上述した各リ
ズムチャンネル毎の状態が記憶されるレジスタRST
〔CH〕にリリース波形発音状態であることを表す
「2」を格納した後、ステップSE14へ進む。ステッ
プSE14では、レジスタCHに格納されたリズムチャ
ンネルの番号に対応する楽音合成回路11のリズムチャ
ンネルに対してノートオフ情報を出力した後、図4のM
IDI処理ルーチンを経て図3のメインルーチンへ戻
り、ステップSA3へ進む。
On the other hand, if the decision result in the step SE11 is "YES", that is, if the corresponding rhythm channel is currently producing a rhythm, step SE1 is executed.
Proceed to 2. In step SE12, the searched rhythm channel number is stored in the register CH, and the process proceeds to step SE13. In step SE13, a register RST in which the state of each rhythm channel described above is stored
After "2" indicating the release waveform sounding state is stored in [CH], the process proceeds to step SE14. In step SE14, note-off information is output to the rhythm channel of the tone synthesis circuit 11 corresponding to the rhythm channel number stored in the register CH.
After the IDI processing routine, the process returns to the main routine of FIG. 3 and proceeds to step SA3.

【0055】次に、この発明の特徴であるCPU1のリ
ズムトランケート処理について図8のフローチャートに
基づいて説明する。CPU1の処理が図7のステップS
E4へ進むと、図8に示すリズムトランケート処理ルー
チンが起動される。CPU1は、まず、ステップSF1
の処理へ進み、リズムチャンネルの中で楽音合成回路1
1から供給されるエンベロープレベルENVが最も小さ
いリズムチャンネル、すなわち、最も減衰が進んでいる
リズムチャンネルの番号をトランケート候補としてレジ
スタTCHに格納する。
Next, the rhythm truncation process of the CPU 1 which is a feature of the present invention will be described with reference to the flowchart of FIG. The processing of the CPU 1 is performed at the step S in FIG.
When proceeding to E4, a rhythm truncation processing routine shown in FIG. 8 is started. First, the CPU 1 executes step SF1
Processing, and the tone synthesis circuit 1 in the rhythm channel
The number of the rhythm channel with the smallest envelope level ENV supplied from 1, that is, the number of the rhythm channel with the most attenuated value is stored in the register TCH as a truncation candidate.

【0056】ただし、「発明が解決しようとする課題」
のところで説明したように、打楽器音には、ハイハット
やホイッスルなどのように、キーオンとキーオフとがあ
るイベント駆動型の音色と、ドラムなどのように、キー
オンしかないトリガ駆動型の音色とがあるので、これら
の音色のエンベロープレベルENVを一様に比較してし
まうと、すでに述べたような不都合が生じてしまう。
However, "the problem to be solved by the invention"
As described above, percussion sounds include event-driven sounds with key-on and key-off, such as hi-hats and whistles, and trigger-driven sounds, such as drums, that have only key-on. Therefore, if the envelope levels ENV of these timbres are compared uniformly, the inconvenience as described above occurs.

【0057】そこで、イベント駆動型の音色とトリガ駆
動型の音色とを区別するために、フラグEDを設け、イ
ベント駆動型の音色である場合には、フラグEDを1に
セットしておき、このステップSF1において、フラグ
EDが1にセットされている場合には、エンベロープレ
ベルENVに、図12(a)に示すように、オフセット
OFTを加えた後、トリガ駆動型の音色のエンベロープ
レベルENVと比較して評価することにする。これによ
り、イベント駆動型の音色がトランケートされにくくな
り、キーオフが処理されるので、自然であり、イベント
駆動型の打楽器音の音色を正確に発生させることができ
る。そして、CPU1は、ステップSF2へ進む。
Therefore, a flag ED is provided in order to distinguish between the event-driven tone color and the trigger-driven tone color. If the event-driven tone color is set, the flag ED is set to "1". In step SF1, if the flag ED is set to 1, after adding an offset OFT to the envelope level ENV as shown in FIG. 12A, the envelope level ENV is compared with the envelope level ENV of the trigger-driven timbre. I will evaluate it. As a result, the event-driven timbre is less likely to be truncated, and the key-off is processed, so that a natural and event-driven percussion sound can be accurately generated. Then, the CPU 1 proceeds to step SF2.

【0058】ステップSF2では、レジスタTCHに格
納されたリズムチャンネルの番号に対応する楽音合成回
路11のリズムチャンネルに対してダンプ要求信号を送
出する。これにより、楽音合成回路11のリズムチャン
ネルは、ダンプ要求信号に応じて所定の速度でエンベロ
ープをダンプする。そして、CPU1は、ステップSF
3へ進む。ステップSF3では、レジスタTCHの値を
レジスタACHに格納した後、図7のリズムノートイベ
ント処理ルーチンへ戻り、ステップEC6へ進む。
In step SF2, a dump request signal is sent to the rhythm channel of the tone synthesis circuit 11 corresponding to the rhythm channel number stored in the register TCH. As a result, the rhythm channel of the tone synthesis circuit 11 dumps the envelope at a predetermined speed according to the dump request signal. Then, the CPU 1 executes step SF
Proceed to 3. In step SF3, after storing the value of the register TCH in the register ACH, the process returns to the rhythm note event processing routine of FIG. 7 and proceeds to step EC6.

【0059】次に、CPU1の鍵処理について図9のフ
ローチャートに基づいて説明する。CPU1の処理が図
3のステップSA4へ進むと、図9に示す鍵処理ルーチ
ンが起動される。CPU1は、まず、ステップSG1の
処理へ進み、鍵盤4をスキャンして鍵盤4の押離鍵状態
を検出した後、ステップSG2へ進む。ステップSG2
では、ステップSG1の鍵スキャン処理において検出さ
れた鍵盤4の押離鍵状態から鍵イベントの有無を判断す
る。この判断結果が「NO」の場合、すなわち、鍵イベ
ントが検出されない場合には、何もせず、図3のメイン
ルーチンへ戻り、ステップSA5へ進む。
Next, the key processing of the CPU 1 will be described with reference to the flowchart of FIG. When the processing of the CPU 1 proceeds to step SA4 in FIG. 3, a key processing routine shown in FIG. 9 is started. The CPU 1 first proceeds to the process of step SG1, scans the keyboard 4 to detect the pressed / released state of the keyboard 4, and then proceeds to step SG2. Step SG2
Then, the presence / absence of a key event is determined based on the pressed / released state of the keyboard 4 detected in the key scanning process in step SG1. If the result of this determination is "NO", that is, if no key event has been detected, nothing is done and the process returns to the main routine of FIG. 3 and proceeds to step SA5.

【0060】いっぽう、ステップSG2の判断結果が
「YES」の場合、すなわち、鍵イベントが検出された
場合には、ステップSG3へ進む。ステップSG3で
は、あらかじめ設定されているモードMODEに応じて
対応するMIDIチャンネルの情報として該当するイベ
ントをRAM3のMIDIバッファにアドレス/データ
・バス6を介して格納した後、ステップSG4へ進む。
On the other hand, if the decision result in the step SG2 is "YES", that is, if a key event is detected, the process proceeds to a step SG3. In step SG3, an event corresponding to the MIDI channel corresponding to the preset mode MODE is stored in the MIDI buffer of the RAM 3 via the address / data bus 6, and then the process proceeds to step SG4.

【0061】ここで、モードMODEについて説明す
る。 モードMODE=0:通常発音モード 鍵盤4の全てのイベントをチャンネル番号0のMIDI
チャンネルの情報としてRAM3のMIDIバッファに
アドレス/データ・バス6を介して格納する。 モードMODE=1:スプリットモード 鍵盤4のある点(KSP:キースプリットポイント)よ
り上の鍵域のイベントは、チャンネル番号0のMIDI
チャンネルの情報とし、キースプリットポイントKSP
より下の鍵域のイベントは、チャンネル番号1のMID
Iチャンネルの情報としてRAM3のMIDIバッファ
にアドレス/データ・バス6を介して格納する。これに
より、鍵域に応じて各MIDIチャンネルに割当てられ
た音色が発音される。なお、キースプリットポイントK
SPは、固定でも、演奏者によって設定可能でもよい。
Here, the mode MODE will be described. Mode MODE = 0: Normal sounding mode All events of keyboard 4 are MIDI of channel number 0
The information of the channel is stored in the MIDI buffer of the RAM 3 via the address / data bus 6. Mode MODE = 1: Split mode An event in a key range above a certain point of the keyboard 4 (KSP: key split point) is MIDI of channel number 0
Key split point KSP as channel information
The lower key event is the MID of channel number 1.
The information is stored in the MIDI buffer of the RAM 3 via the address / data bus 6 as I channel information. As a result, a tone assigned to each MIDI channel is generated according to the key range. The key split point K
SP may be fixed or may be set by the player.

【0062】モードMODE=2:自動伴奏モード 鍵盤4のある点(ASP:自動伴奏スプリットポイン
ト)より上の鍵域は、通常の押鍵域とし、そのイベント
は、チャンネル番号0のMIDIチャンネルの情報とし
てRAM3のMIDIバッファにアドレス/データ・バ
ス6を介して格納する。また、自動伴奏スプリットポイ
ントASPより下の鍵域は、自動伴奏用の調検出領域と
して用い、その音は発音しない、すなわち、MIDIイ
ベントとしてRAM3のMIDIバッファにアドレス/
データ・バス6を介して格納せず、検出された情報は、
コードの根音(ルート)ROOTとタイプTYPEの形
で、たとえば、演奏者が「ドミソ」と押鍵していれば、
後述するステップSG5の処理において、ルートROO
Tとして「ド」が、タイプTYPEとして「メジャー」
がRAM3に格納され、後述する自動処理で利用され
る。なお、自動伴奏スプリットポイントASPは、キー
スプリットポイントKSPと同じにしてもよい。
Mode MODE = 2: Automatic Accompaniment Mode The key range above a certain point of the keyboard 4 (ASP: automatic accompaniment split point) is a normal key depression range, and the event is information on the MIDI channel of channel number 0. Is stored in the MIDI buffer of the RAM 3 via the address / data bus 6. The key range below the automatic accompaniment split point ASP is used as a key detection area for automatic accompaniment, and the sound is not emitted, that is, the address / address is stored in the MIDI buffer of the RAM 3 as a MIDI event.
The information detected without being stored via the data bus 6 is:
In the form of the root of the chord (root) ROOT and the type TYPE, for example, if the player presses the key "Domiso",
In the process of step SG5 described later, the route ROO
"Do" as T and "major" as type TYPE
Is stored in the RAM 3 and used in automatic processing described later. Note that the automatic accompaniment split point ASP may be the same as the key split point KSP.

【0063】ステップSG4では、モードMODEが
「2」であるか否かを判断する。この判断結果が「N
O」の場合には、何もせず、図3のメインルーチンへ戻
り、ステップSA5へ進む。いっぽう、ステップSG4
の判断結果が「YES」の場合、すなわち、モードMO
DEが「2」である場合には、ステップSG5へ進む。
ステップSG5では、鍵盤4の下鍵域で押鍵されている
キーのノートナンバの組み合わせからコードのルートR
OOTとタイプTYPEとを図示せぬテーブルを参照し
て決定し、RAM3に格納した後、図3のメインルーチ
ンへ戻り、ステップSA5へ進む。
In step SG4, it is determined whether or not the mode MODE is "2". The result of this determination is “N
In the case of "O", nothing is performed, the process returns to the main routine of FIG. 3, and proceeds to step SA5. Meanwhile, step SG4
Is "YES", that is, the mode MO
If DE is “2”, the flow proceeds to step SG5.
In step SG5, the chord root R is determined based on the combination of the note number of the key pressed in the lower range of the keyboard 4.
The OOT and the type TYPE are determined with reference to a table (not shown), and stored in the RAM 3. Then, the process returns to the main routine of FIG. 3 and proceeds to step SA5.

【0064】次に、CPU1の自動処理について図10
のフローチャートに基づいて説明する。CPU1の処理
が図3のステップSA5へ進むと、図10に示す自動処
理ルーチンが起動される。CPU1は、まず、ステップ
SH1の処理へ進み、モードMODEが「2」であるか
否かを判断する。この判断結果が「YES」の場合に
は、ステップSH2へ進む。
Next, the automatic processing of the CPU 1 will be described with reference to FIG.
A description will be given based on the flowchart of FIG. When the processing of the CPU 1 proceeds to step SA5 in FIG. 3, the automatic processing routine shown in FIG. 10 is started. First, the CPU 1 proceeds to the process of step SH1, and determines whether or not the mode MODE is “2”. If the result of this determination is "YES", the flow proceeds to step SH2.

【0065】ステップSH2では、ROM2やRAM3
等の自動伴奏データエリアにあらかじめ7thの形で記
憶された自動伴奏データを、演奏者によって設定された
スタイルSTYLEおよびテンポTEMPO並びに上述
した鍵処理によって検出されてRAM3に格納されたタ
イプTYPEおよびルートROOTに応じて読み出し、
タイプTYPEに応じてメジャーやマイナー等に変更
し、ルートROOTによってシフトする。以上説明した
処理を、図2に示すチャンネル番号25〜31のMID
Iチャンネル、すなわち、自動伴奏コードトラック1〜
6および自動伴奏ベーストラックについて行い、それら
のMIDIチャンネルの情報として各イベントをRAM
3のMIDIデータバッファに順次格納した後、ステッ
プSH3へ進む。いっぽう、ステップSH1の判断結果
が「NO」の場合、すなわち、モードMODEが「2」
でない場合にも、ステップSH3へ進む。
At step SH2, the ROM 2 or the RAM 3
The automatic accompaniment data stored in advance in the 7th form in the automatic accompaniment data area, such as the style STYLE and the tempo TEMPO set by the player, and the type TYPE and root ROOT detected and stored in the RAM 3 by the key processing described above. Read according to,
Change to major or minor according to the type TYPE, and shift by route ROOT. The processing described above is performed by using MIDs of channel numbers 25 to 31 shown in FIG.
I channel, that is, automatic accompaniment chord tracks 1 to
6 and automatic accompaniment bass track, and each event is stored in RAM
After that, the process proceeds to step SH3. On the other hand, when the result of the determination in step SH1 is "NO", that is, when the mode MODE is "2"
If not, the process proceeds to step SH3.

【0066】ステップSH3では、演奏者が自動リズム
演奏を選択した場合に1にセットされる自動リズムフラ
グRHYTHMが1にセットされているか否かを判断す
る。この判断結果が「NO」の場合には、何もせず、図
3のメインルーチンへ戻り、ステップSA6へ進む。い
っぽう、ステップSH3の判断結果が「YES」の場
合、すなわち、自動リズムフラグRHYTHMが1にセ
ットされている場合には、ステップSH4へ進む。ステ
ップSH4では、ROM2やRAM3等の自動リズムデ
ータエリアにあらかじめ記憶された自動リズムデータを
演奏者によって設定されたスタイルSTYLEおよびテ
ンポTEMPOに応じて読み出す処理を、図2に示すチ
ャンネル番号32〜39のMIDIチャンネル、すなわ
ち、自動伴奏リズムトラックについて行い、それらのM
IDIチャンネルの情報として各イベントをRAM3の
MIDIデータバッファに順次格納した後、図3のメイ
ンルーチンへ戻り、ステップSA6へ進む。
In step SH3, it is determined whether or not the automatic rhythm flag RHYTHM, which is set to 1 when the player selects automatic rhythm performance, is set to 1. If the result of this determination is "NO", nothing is done, the process returns to the main routine of FIG. 3, and proceeds to step SA6. On the other hand, if the result of the determination in step SH3 is "YES", that is, if the automatic rhythm flag RHYTHM is set to 1, the flow proceeds to step SH4. In step SH4, the process of reading out the automatic rhythm data stored in advance in the automatic rhythm data area such as the ROM 2 or the RAM 3 in accordance with the style STYLE and the tempo TEMPO set by the player is performed in accordance with the channel numbers 32 to 39 shown in FIG. MIDI channels, that is, automatic accompaniment rhythm tracks,
After each event is sequentially stored in the MIDI data buffer of the RAM 3 as IDI channel information, the process returns to the main routine of FIG. 3 and proceeds to step SA6.

【0067】次に、CPU1の発音チャンネル処理につ
いて図11のフローチャートに基づいて説明する。CP
U1の処理が図3のステップSA6へ進むと、図11に
示す発音チャンネル処理ルーチンが起動される。CPU
1は、まず、ステップSI1の処理へ進み、全発音チャ
ンネルの状態を検索するため、レジスタCHの値を
「0」に設定した後、ステップSI2へ進む。
Next, the sound channel processing of the CPU 1 will be described with reference to the flowchart of FIG. CP
When the process of U1 proceeds to step SA6 in FIG. 3, the sound channel processing routine shown in FIG. 11 is started. CPU
1 first proceeds to the processing of step SI1, sets the value of the register CH to "0" in order to search the state of all sounding channels, and then proceeds to step SI2.

【0068】ステップSI2では、各発音チャンネル毎
のエンベロープレベルが記憶されるレジスタENV〔C
H〕に楽音合成回路11から供給される各発音チャンネ
ルのエンベロープレベルを格納した後、ステップSI3
へ進む。ステップSI3では、各発音チャンネル毎の状
態を表すレジスタST〔CH〕が「2」、すなわち、離
鍵されているが発音状態であるか否かを判断する。この
判断結果が「YES」の場合には、ステップSI4へ進
み、いっぽう、ステップSI3の判断結果が「NO」の
場合、すなわち、空き発音チャンネルである場合には、
当該チャンネルが発音待機状態にあるから、後述するス
テップSI7へ進む。
At step SI2, a register ENV [C which stores the envelope level of each sounding channel is stored.
H], the envelope level of each sounding channel supplied from the tone synthesis circuit 11 is stored.
Proceed to. In step SI3, it is determined whether or not the register ST [CH] indicating the state of each sounding channel is "2", that is, whether or not the key is released but the sounding state. If this determination is "YES", the flow proceeds to step SI4. On the other hand, if the determination in step SI3 is "NO", that is, if the channel is an empty sounding channel,
Since the channel is in the sound standby state, the process proceeds to step SI7 described later.

【0069】ステップSI4では、レジスタENV〔C
H〕に格納された、レジスタCHに設定された発音チャ
ンネルの番号に対応した楽音合成回路11の発音チャン
ネルのエンベロープレベルが各音色毎にあらかじめ設定
されたスレッショルドTH(たとえば、0にかなり近い
値)より小さいか否かを判断する。この判断結果が「Y
ES」の場合には、ステップSI5へ進み、いっぽう、
ステップSI4の判断結果が「NO」の場合、すなわ
ち、レジスタENV〔CH〕に格納されたエンベロープ
レベルがスレッショルドTH以上である場合には、後述
するステップSI7へ進む。
At step SI4, the register ENV [C
H], the envelope level of the sound channel of the tone synthesis circuit 11 corresponding to the sound channel number set in the register CH is set to a predetermined threshold TH (for example, a value very close to 0) for each tone. It is determined whether it is smaller than. The result of this determination is “Y
ES ”, proceed to step SI5,
If the determination result of step SI4 is "NO", that is, if the envelope level stored in the register ENV [CH] is equal to or higher than the threshold TH, the process proceeds to step SI7 described later.

【0070】ステップSI5では、発音チャンネルCH
は減衰しきっているため、レジスタST〔CH〕の値を
「0」に設定して発音待機状態であることを示した後、
ステップSI6へ進む。ステップSI6では、各発音チ
ャンネル毎に設けられ、ノートオンされる度に1インク
リメントされるノートオンカウンタNONC〔CH〕の
値を0にリセットした後、ステップSI7へ進む。
In step SI5, the sound channel CH
Has been attenuated completely, so that the value of the register ST [CH] is set to "0" to indicate that it is in the sound standby state.
Proceed to step SI6. In step SI6, the value of a note-on counter NONCH [CH] provided for each sounding channel and incremented by one each time a note-on is performed is reset to 0, and then the process proceeds to step SI7.

【0071】ステップSI7では、次の発音チャンネル
を検索するために、レジスタCHの値を1インクリメン
トした後、ステップSI7へ進む。ステップSI8で
は、このインクリメントされたレジスタCHの値が32
であるか否か、すなわち、通常音のMIDIチャンネル
に対応した発音チャンネルすべてについて上述したステ
ップSI3〜SI6の処理が終了したか否かを判断す
る。この判断結果が「NO」の場合には、ステップSI
2へ戻り、上述した処理を通常音のMIDIチャンネル
に対応した発音チャンネルすべてについて繰返す。
At step SI7, the value of the register CH is incremented by 1 in order to search for the next sounding channel, and then the process proceeds to step SI7. In step SI8, the value of the incremented register CH is set to 32
That is, it is determined whether or not the above-described processing of steps SI3 to SI6 has been completed for all the sounding channels corresponding to the MIDI channel of the normal sound. If the result of this determination is "NO", then step SI
2, the above-described processing is repeated for all sound channels corresponding to the MIDI channel of the normal sound.

【0072】いっぽう、ステップSI8の判断結果が
「YES」の場合には、ステップSI9へ進む。ステッ
プSI9では、レジスタENV〔CH〕に各リズムチャ
ンネルのエンベロープレベルを格納した後、ステップS
I10へ進む。ステップSI10では、各リズムチャン
ネル毎の状態を表すレジスタRST〔CH〕が「0」で
ない、すなわち、空きリズムチャンネルでない否かを判
断する。この判断を行うのは、トリガ駆動型の音色の場
合、キーオフがないので、レジスタRST〔CH〕が
「0」か「1」にしかならないからである。ステップS
I10の判断結果が「YES」の場合には、ステップS
I11へ進み、いっぽう、ステップSI10の判断結果
が「NO」の場合、すなわち、空きリズムチャンネルで
ある場合には、当該リズムチャンネルがリズム発音待機
状態にあるから、後述するステップSI13へ進む。
On the other hand, if the decision result in the step SI8 is "YES", the process proceeds to a step SI9. In step SI9, after the envelope level of each rhythm channel is stored in the register ENV [CH],
Proceed to I10. In step SI10, it is determined whether or not the register RST [CH] indicating the state of each rhythm channel is not "0", that is, whether or not the register is an empty rhythm channel. This determination is made because the register RST [CH] can only be set to "0" or "1" in the case of the trigger-driven tone color because there is no key-off. Step S
If the determination result of I10 is “YES”, the step S
If the result of the determination in step SI10 is "NO", that is, if the channel is an empty rhythm channel, the process proceeds to step SI13, which will be described later, because the rhythm channel is in a rhythm sound standby state.

【0073】ステップSI11では、レジスタENV
〔CH〕に格納された、レジスタCHに設定されたリズ
ムチャンネルの番号に対応する楽音合成回路11のリズ
ムチャンネルのエンベロープレベルが各音色毎にあらか
じめ設定されたスレッショルドTH(たとえば、0にか
なり近い値)より小さく、かつ、フラグEDが0にリセ
ットされている(トリガ駆動型の音色である)か否かを
判断する。この判断結果が「YES」の場合には、ステ
ップSI12へ進み、いっぽう、ステップSI11の判
断結果が「NO」の場合、すなわち、レジスタENV
〔CH〕に格納されたエンベロープレベルがスレッショ
ルドTH以上であるか、または、フラグEDが1にセッ
トされている(イベント駆動型の音色である)場合に
は、後述するステップSI13へ進む。
At step SI11, the register ENV
The envelope level of the rhythm channel of the tone synthesis circuit 11 corresponding to the rhythm channel number set in the register CH and stored in [CH] is a threshold TH (for example, a value substantially close to 0) preset for each tone. ) And whether the flag ED is reset to 0 (trigger-driven timbre). If this determination is "YES", the flow proceeds to step SI12. On the other hand, if the determination in step SI11 is "NO", that is, the register ENV
If the envelope level stored in [CH] is equal to or higher than the threshold TH or the flag ED is set to 1 (it is an event-driven timbre), the process proceeds to step SI13 described later.

【0074】ステップSI12では、リズムチャンネル
CHは減衰しきっているため、レジスタRST〔CH〕
の値を「0」に設定してリズム発音待機状態であること
を示した後、ステップSI13へ進む。ステップSI1
3では、次のリズムチャンネルを検索するために、レジ
スタCHの値を1インクリメントした後、ステップSI
14へ進む。
In step SI12, since the rhythm channel CH has been completely attenuated, the register RST [CH]
Is set to "0" to indicate that the rhythm is in the standby state, and the process proceeds to step SI13. Step SI1
In step 3, after the value of the register CH is incremented by 1 in order to search for the next rhythm channel, step SI
Proceed to 14.

【0075】ステップSI14では、このインクリメン
トされたレジスタCHの値が40であるか否か、すなわ
ち、リズム音のMIDIチャンネルに対応したリズムチ
ャンネルすべてについて上述したステップSI9〜SI
13の処理が終了したか否かを判断する。この判断結果
が「NO」の場合には、ステップSI9へ戻り、上述し
た処理をリズム音のMIDIチャンネルに対応したリズ
ムチャンネルすべてについて繰返す。いっぽう、ステッ
プSI14の判断結果が「YES」の場合、すなわち、
レジスタCHの値が40である場合には、図3のメイン
ルーチンへ戻り、ステップSA7へ進む。
In step SI14, it is determined whether or not the incremented value of the register CH is 40, that is, the above-mentioned steps SI9 to SI9 are performed for all the rhythm channels corresponding to the MIDI channels of the rhythm sound.
It is determined whether or not the process of 13 is completed. If this determination is "NO", the flow returns to step SI9, and the above-described processing is repeated for all rhythm channels corresponding to the MIDI channels of the rhythm sound. On the other hand, when the determination result of step SI14 is “YES”, that is,
If the value of the register CH is 40, the process returns to the main routine of FIG. 3 and proceeds to step SA7.

【0076】なお、上述した一実施例においては、リズ
ム音についてのみこの発明に関するトランケート処理を
行うようにして、通常音の発音チャンネルとリズム音の
リズムチャンネルとを完全に独立した発音チャンネルと
した例を示したが、浮動的にアサインできるようにして
もよい。その際には、リズム音と同様に通常音にもこの
発明に関するトランケート処理を行うようにして、ノー
トイベント処理とトランケート処理の大部分を共用する
ことができる。また、上述した一実施例においては、通
常鍵域のトランケート時に、キーオン中の発音チャンネ
ルのうち、最も古くキーオンされた発音チャンネルをト
ランケートする例を示したが、これに限定されず、たと
えば、キーオフ中の発音チャンネルのうち、最も古くキ
ーオフされた発音チャンネルをトランケートするように
してもよい。
In the above-described embodiment, the truncation process according to the present invention is performed only on the rhythm sound, and the sound channel of the normal sound and the rhythm channel of the rhythm sound are completely independent sound channels. However, it is also possible to make the assignment in a floating manner. In this case, the truncation processing according to the present invention is performed on the normal sound as well as the rhythm sound, so that most of the note event processing and the truncation processing can be shared. Further, in the above-described embodiment, the example in which the oldest key-on sound channel is truncated among the key-on sound channels at the time of normal key range truncation has been described. However, the present invention is not limited to this. The oldest keyed-off sounding channel among the middle sounding channels may be truncated.

【0077】さらに、上述した一実施例においては、リ
ズムトランケート処理において、イベント駆動型のリズ
ム音のエンベロープレベルにオフセットOFTを加え
て、トリガ駆動型のリズム音のエンベロープレベルと比
較したので、イベント駆動型のリズム音がトランケート
されてしまう虞もあるが、トリガ駆動型のリズム音があ
る場合、イベント駆動型のリズム音がトランケートされ
ないようにしてもよい。尤も、イベント駆動型のリズム
音しかない場合には、当然、それらのうちのいずれかを
トランケートする必要がある。
Furthermore, in the above-described embodiment, the offset OFT is added to the envelope level of the event-driven rhythm sound in the rhythm truncation processing, and the envelope level of the event-driven rhythm sound is compared with the envelope level of the trigger-driven rhythm sound. There is a possibility that the pattern-type rhythm sound may be truncated, but if there is a trigger-driven rhythm sound, the event-driven rhythm sound may not be truncated. However, if there are only event-driven rhythm sounds, one of them must be truncated.

【0078】ところで、自然楽器のドラムの奏法には、
ドラムヘッドを叩いた後、手でドラムヘッドを抑えてミ
ュートする奏法があるが、その奏法をシミュレートする
と、その楽音信号は、イベント駆動型のリズム音と同様
なエンベロープとなる。したがって、上述した一実施例
によれば、そのような楽音信号が発生された場合でも、
リズムトランケート処理において、イベント駆動型のリ
ズム音と同様、トランケートされにくくなる。
By the way, the playing method of the drum of the natural musical instrument includes:
There is a playing technique in which the drumhead is muted by hitting the drumhead by hand after hitting the drumhead. When the playing technique is simulated, the musical tone signal has an envelope similar to an event-driven rhythm sound. Therefore, according to the above-described embodiment, even when such a tone signal is generated,
In the rhythm truncation process, truncation is difficult to occur as in the event-driven rhythm sound.

【0079】[0079]

【発明の効果】以上説明したように、この発明によれ
ば、複数の発音チャンネルが全て発音中である場合にイ
ベント駆動型の楽音の楽音信号に比してトリガ駆動型の
楽音の楽音信号を優先的にトランケートすることとした
ので、キーオンとキーオフとがあるイベント駆動型の楽
音の音色を正確に発生でき、発音割当処理を正確に行う
ことができるという効果がある。
As described above, according to the present invention, when a plurality of sounding channels are all sounding,
The trigger drive type is compared to the vent drive type tone signal.
Truncate the tone signal of the musical tone preferentially
Therefore, there is an effect that the tone color of the event-driven musical tone having the key-on and the key-off can be accurately generated, and the sound generation assignment processing can be accurately performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の一実施例による電子楽器の構成を
示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an electronic musical instrument according to an embodiment of the present invention.

【図2】 MIDIチャンネルのそれぞれの機能の一例
を示す図である。
FIG. 2 is a diagram illustrating an example of each function of a MIDI channel.

【図3】 この発明の一実施例におけるCPU1のメイ
ンルーチンの動作を示すフローチャートである。
FIG. 3 is a flowchart illustrating an operation of a main routine of a CPU 1 according to an embodiment of the present invention.

【図4】 この発明の一実施例におけるCPU1のMI
DI処理ルーチンの動作を示すフローチャートである。
FIG. 4 is a diagram showing an MI of a CPU 1 according to an embodiment of the present invention;
It is a flowchart which shows operation | movement of a DI processing routine.

【図5】 この発明の一実施例におけるCPU1のノー
トイベント処理ルーチンの動作を示すフローチャートで
ある。
FIG. 5 is a flowchart illustrating an operation of a note event processing routine of the CPU 1 according to the embodiment of the present invention.

【図6】 この発明の一実施例におけるCPU1のトラ
ンケート処理ルーチンの動作を示すフローチャートであ
る。
FIG. 6 is a flowchart showing an operation of a truncation processing routine of the CPU 1 in one embodiment of the present invention.

【図7】 この発明の一実施例におけるCPU1のリズ
ムイベント処理ルーチンの動作を示すフローチャートで
ある。
FIG. 7 is a flowchart showing an operation of a rhythm event processing routine of the CPU 1 in one embodiment of the present invention.

【図8】 この発明の一実施例におけるCPU1のリズ
ムトランケート処理ルーチンの動作を示すフローチャー
トである。
FIG. 8 is a flowchart showing an operation of a rhythm truncation processing routine of the CPU 1 in one embodiment of the present invention.

【図9】 この発明の一実施例におけるCPU1の鍵処
理ルーチンの動作を示すフローチャートである。
FIG. 9 is a flowchart showing an operation of a key processing routine of the CPU 1 according to the embodiment of the present invention.

【図10】 この発明の一実施例におけるCPU1の自
動処理ルーチンの動作を示すフローチャートである。
FIG. 10 is a flowchart illustrating an operation of an automatic processing routine of a CPU 1 according to an embodiment of the present invention.

【図11】 この発明の一実施例におけるCPU1の発
音チャンネル処理ルーチンの動作を示すフローチャート
である。
FIG. 11 is a flowchart illustrating an operation of a sound channel processing routine of a CPU 1 according to an embodiment of the present invention.

【図12】 従来の技術の不都合点を説明するための図
である。
FIG. 12 is a diagram for explaining a disadvantage of the conventional technique.

【符号の説明】[Explanation of symbols]

1……CPU、2……ROM、3……RAM、4……鍵
盤、5……鍵盤インターフェイス、6……アドレス/デ
ータ・バス、7……操作パネル、8……操作パネルイン
ターフェイス、9……MIDIインターフェイス、10
……MIDI・バス、11……楽音合成回路、12……
サウンドシステム、13……スピーカ。
1 ... CPU, 2 ... ROM, 3 ... RAM, 4 ... keyboard, 5 ... keyboard interface, 6 ... address / data bus, 7 ... operation panel, 8 ... operation panel interface, 9 ... ... MIDI interface, 10
... MIDI bus, 11 ... Sound synthesis circuit, 12 ...
Sound system, 13 ... Speaker.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平2−216196(JP,A) 特開 平5−6179(JP,A) 特開 平4−362997(JP,A) 特開 昭57−136698(JP,A) 特開 昭63−65496(JP,A) 特開 昭62−90697(JP,A) 特開 昭55−140893(JP,A) 実開 昭61−89898(JP,U) 特許2687810(JP,B2) 特公 平7−46271(JP,B2) 特公 平1−27437(JP,B2) (58)調査した分野(Int.Cl.6,DB名) G10H 1/18 101 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-2-216196 (JP, A) JP-A-5-6179 (JP, A) JP-A-4-362997 (JP, A) JP-A-57- 136698 (JP, A) JP-A-63-65496 (JP, A) JP-A-62-90697 (JP, A) JP-A-55-140893 (JP, A) Patent 2678810 (JP, B2) JP 7-46271 (JP, B2) JP 1-27437 (JP, B2) (58) Fields investigated (Int. Cl. 6 , DB name) G10H 1/18 101

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 鍵操作情報を発生する鍵操作情報発生手
段と、 複数の楽音信号発生用の発音チャンネルを有し、各発音
チャンネル毎に、少なくとも、イベント駆動型の楽音の
楽音信号と、トリガ駆動型の楽音の楽音信号とをそれぞ
れ出力する楽音発生手段と、 前記複数の発音チャンネルが全て発音中であるか否かを
検出する発音チャンネル検出手段と、 該発音チャンネル検出手段において前記複数の発音チャ
ンネルが全て発音中であることが検出された場合、前記
複数の発音チャンネルで発音中の楽音信号のうち、イベ
ント駆動型の楽音の楽音信号に比してトリガ駆動型の楽
音の楽音信号を優先的にトランケートするトランケート
手段と、 該トランケート手段のトランケート結果および前記鍵操
作情報発生手段から出力される新たな鍵操作情報に基づ
いて、新たな楽音の発生を前記楽音発生手段の前記複数
の発音チャンネルのいずれかに割当てる割当手段とを具
備することを特徴とする電子楽器。
A key operation information generating means for generating key operation information; a plurality of tone generation channels for generating tone signals; at least a tone signal of an event-driven tone for each tone channel; Tone generating means for respectively outputting a tone signal of a drive-type tone, sounding channel detecting means for detecting whether or not all of the plurality of sounding channels are sounding, and generating the plurality of sounds in the sounding channel detecting means . Cha
If it is detected that all of the channels are sounding, the sound signal that is sounding on the plurality of sounding channels is selected from among the event signals.
Truncation means for preferentially truncating the tone signal of the trigger-driven tone compared to the tone-driven tone signal; a truncation result of the truncation means and a new key output from the key operation information generating means. An electronic musical instrument comprising: an assigning unit that assigns a new musical tone to one of the plurality of sounding channels of the musical tone generating unit based on operation information.
JP4064214A 1992-03-19 1992-03-19 Electronic musical instrument Expired - Fee Related JP2943492B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4064214A JP2943492B2 (en) 1992-03-19 1992-03-19 Electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4064214A JP2943492B2 (en) 1992-03-19 1992-03-19 Electronic musical instrument

Publications (2)

Publication Number Publication Date
JPH05265457A JPH05265457A (en) 1993-10-15
JP2943492B2 true JP2943492B2 (en) 1999-08-30

Family

ID=13251618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4064214A Expired - Fee Related JP2943492B2 (en) 1992-03-19 1992-03-19 Electronic musical instrument

Country Status (1)

Country Link
JP (1) JP2943492B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2687810B2 (en) 1992-03-19 1997-12-08 ヤマハ株式会社 Electronic musical instrument

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55140893A (en) * 1979-04-21 1980-11-04 Kawai Musical Instr Mfg Co System for allocating keyboard switch information
JPS57136698A (en) * 1981-02-19 1982-08-23 Nippon Musical Instruments Mfg Electronic musical instrument
JPS6189898U (en) * 1984-11-16 1986-06-11
JPS6290697A (en) * 1985-10-17 1987-04-25 ヤマハ株式会社 Keying allotter for electronic musical apparatus
JPS6365496A (en) * 1986-09-06 1988-03-24 株式会社河合楽器製作所 Key assigner system
JPS6427437A (en) * 1987-07-21 1989-01-30 Sadami Ito Food material
JPH02216196A (en) * 1989-02-17 1990-08-29 Matsushita Electric Ind Co Ltd Output channel determining device for electronic musical instrument
JP3117482B2 (en) * 1990-08-06 2000-12-11 ローランド株式会社 Electronic musical instrument assigner
JPH056179A (en) * 1991-06-27 1993-01-14 Kawai Musical Instr Mfg Co Ltd Musical note channel allocating device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2687810B2 (en) 1992-03-19 1997-12-08 ヤマハ株式会社 Electronic musical instrument

Also Published As

Publication number Publication date
JPH05265457A (en) 1993-10-15

Similar Documents

Publication Publication Date Title
JP7331746B2 (en) Electronic keyboard instrument, musical tone generating method and program
JP3177374B2 (en) Automatic accompaniment information generator
US6066795A (en) Techniques of using computer keyboard as musical instrument keyboard
JP2705395B2 (en) Electronic musical instrument
JP3383108B2 (en) Electronic musical instrument
JP2541063B2 (en) Electronic musical instrument
JP3223756B2 (en) Music systems and electronic musical instruments
JP2943492B2 (en) Electronic musical instrument
JPH06195075A (en) Musical tone generating device
JP2687810B2 (en) Electronic musical instrument
JP3567293B2 (en) Pronunciation channel assignment device
JP2698942B2 (en) Tone generator
JP2640992B2 (en) Pronunciation instruction device and pronunciation instruction method for electronic musical instrument
JP2701177B2 (en) Tone generator
JP2738217B2 (en) Electronic musical instrument
JP3667387B2 (en) Electronic musical instruments
JP3554770B2 (en) Tone generator
JP3493856B2 (en) Performance information converter
JPH05204297A (en) Syllable name generator
JP2953217B2 (en) Electronic musical instrument
JP2694788B2 (en) Electronic musical instrument
JP2001051681A (en) Automatic accompaniment information generator
JPH08278781A (en) Sound source module
JP2715003B2 (en) Electronic musical instrument
JP2555060Y2 (en) Electronic musical instrument

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990525

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080625

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090625

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100625

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100625

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110625

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees