JPH05265457A - Electronic musical instrument - Google Patents

Electronic musical instrument

Info

Publication number
JPH05265457A
JPH05265457A JP4064214A JP6421492A JPH05265457A JP H05265457 A JPH05265457 A JP H05265457A JP 4064214 A JP4064214 A JP 4064214A JP 6421492 A JP6421492 A JP 6421492A JP H05265457 A JPH05265457 A JP H05265457A
Authority
JP
Japan
Prior art keywords
channel
rhythm
tone
midi
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4064214A
Other languages
Japanese (ja)
Other versions
JP2943492B2 (en
Inventor
Yasushi Sakurai
康 桜井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP4064214A priority Critical patent/JP2943492B2/en
Publication of JPH05265457A publication Critical patent/JPH05265457A/en
Application granted granted Critical
Publication of JP2943492B2 publication Critical patent/JP2943492B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PURPOSE:To correctly perform a sound generation assigning process by accurately generating the timbre of an event driven type musical sound. CONSTITUTION:This electronic musical instrument is provided with a keyboard 4 which generates key operation information, a musical sound synthesizing circuit 11 which outputs at least a musical sound signal of the event driven type musical sound and a musical sound signal of a trigger driven type musical sound by plural sound generation channels, and a CPU 1 which detects whether or not all the sound generation channels of the musical sound synthesizing circuit 11 are in sound generation, preferentially truncates the musical sound signal of the trigger driven type musical sound being generated over one of the sound generation channels, and assigns the generation of a new musical sound to one of the sound generation channels of the musical sound synthesizing circuit 11 according to the truncation result and new key operation information outputted from the keyboard 4.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、発生される音量等が
時間経過に従い変化する楽音を発生するとともに、発音
割当処理が良好に行える電子楽器に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic musical instrument which produces musical tones whose volume and the like change with the passage of time, and which is capable of favorably assigning a tone.

【0002】[0002]

【従来の技術】従来の複数の楽音発生用チャンネル(発
音チャンネル)を有する電子楽器には、メモリに記憶さ
れた波形データを演奏者による鍵盤等の操作に応じて読
み出す音源と、その波形データの振幅を制御して波形デ
ータの音量を制御するエンベロープ信号を発生するエン
ベロープジェネレータ(EG)とが設けられているもの
がある。
2. Description of the Related Art In a conventional electronic musical instrument having a plurality of musical tone generating channels (sound generation channels), a sound source for reading out waveform data stored in a memory in response to an operation of a keyboard or the like by a performer and the waveform data Some are provided with an envelope generator (EG) that generates an envelope signal that controls the amplitude to control the volume of the waveform data.

【0003】そして、この種の電子楽器には、EGから
出力されている現在のエンベロープ信号のレベルに基づ
いて、減衰発音中の発音チャンネルのうち、最も減衰状
態が進んでいるチャンネル(最減衰チャンネル)を検出
し、この最減衰チャンネルに新たな押鍵音を割当るよう
に制御するトランケート手段が設けられているものがあ
った。なお、上述した技術の詳細については、本出願人
が先に提案した電子楽器の公報(特公平1−27437
号公報)を参照されたい。また、従来の電子楽器におい
ては、キーオンが最も早かったチャンネルを検出してト
ランケート処理を行うものもあった。
In this kind of electronic musical instrument, the channel in the most attenuated state (the most attenuated channel) among the sounding channels being attenuated based on the level of the current envelope signal output from the EG. ) Is detected, and a truncation means for controlling so as to assign a new key depression sound to this most attenuated channel is provided. In addition, regarding the details of the above-described technique, the electronic musical instrument publication previously proposed by the present applicant (Japanese Patent Publication No.
Issue). In addition, some conventional electronic musical instruments detect the channel with the earliest key-on and perform truncate processing.

【0004】[0004]

【発明が解決しようとする課題】ところで、楽音には、
ドラムなどの打楽器音のように、キーオンしかないトリ
ガ駆動型の音色と、ピアノなどの打弦楽器のように、キ
ーオンとキーオフとがあるイベント駆動型の音色とがあ
る。また、打楽器の楽音においても、ハイハットやホイ
ッスルなどのように、イベント駆動型の音色もある。
By the way, in the musical tone,
There are trigger-driven timbres such as drum sounds that have only key-on, and event-driven timbres that have key-on and key-off, such as stringed instruments such as piano. In addition, even percussion instruments have event-driven tones such as hi-hat and whistle.

【0005】しかしながら、従来の電子楽器などにおい
ては、上述したように、EGから出力されている現在の
エンベロープ信号のレベルだけに基づいて最減衰チャン
ネルを検出してトランケート処理したり、キーオンが最
も早かったチャンネルを検出してトランケート処理した
りしているため、たとえば、以下に示すような不都合が
生じていた。
However, in the conventional electronic musical instruments and the like, as described above, the most attenuated channel is detected based on only the level of the current envelope signal output from the EG, the truncation processing is performed, and the key-on is the earliest. For example, the following inconveniences have arisen because the channel is detected and truncated.

【0006】図12に示すように、チャンネルAの時刻
1におけるエンベロープ信号の現在のレベルLaは、チ
ャンネルBの時刻t1におけるエンベロープ信号の現在
のレベルLbより小さく、減衰が進んでいるので、チャ
ンネルAが最減衰チャンネルとして検出されてトランケ
ート処理されてしまう。したがって、チャンネルAにイ
ベント駆動型の音色が割当られている場合には、時刻t
1以降に発生するキーオフが処理されずに、不自然であ
る。この発明は、このような背景の下になされたもの
で、イベント駆動型の打楽器音の音色を正確に発生で
き、発音割当処理を正確に行うことができる電子楽器を
提供することを目的とする。
As shown in FIG. 12, the current level L a of the envelope signal at time t 1 of channel A is smaller than the current level L b of the envelope signal at time t 1 of channel B, and the attenuation is advanced. Therefore, the channel A is detected as the most attenuated channel and is truncated. Therefore, if an event-driven tone color is assigned to channel A, the time t
Key-offs that occur after 1 are unprocessed and unnatural. The present invention has been made under such a background, and an object of the present invention is to provide an electronic musical instrument capable of accurately generating a tone color of an event-driven percussion instrument sound and accurately performing a pronunciation assignment process. ..

【0007】[0007]

【課題を解決するための手段】この発明による電子楽器
は、鍵操作情報を発生する鍵操作情報発生手段と、複数
の楽音信号発生用の発音チャンネルを有し、各発音チャ
ンネル毎に、少なくとも、イベント駆動型の楽音の楽音
信号と、トリガ駆動型の楽音の楽音信号とをそれぞれ出
力する楽音発生手段と、前記複数の発音チャンネルが全
て発音中であるか否かを検出する発音チャンネル検出手
段と、該発音チャンネル検出手段の検出結果に基づい
て、前記複数の発音チャンネルのいずれかにおいて発音
中のトリガ駆動型の楽音の楽音信号を優先的にトランケ
ートするトランケート手段と、該トランケート手段のト
ランケート結果および前記鍵操作情報発生手段から出力
される新たな鍵操作情報に基づいて、新たな楽音の発生
を前記楽音発生手段の前記複数の発音チャンネルのいず
れかに割当てる割当手段とを具備することを特徴として
いる。
An electronic musical instrument according to the present invention has a key operation information generating means for generating key operation information and a plurality of tone generation channels for generating tone signals, and at least for each tone generation channel, A tone generation unit that outputs a tone signal of an event-driven tone and a tone-driven tone signal of a trigger, and a sound generation channel detection unit that detects whether or not all of the plurality of sound generation channels are sounding. A truncating means for preferentially truncating a musical tone signal of a trigger-driven musical tone being sounded in any of the plurality of sounding channels based on a detection result of the sounding channel detecting means, and a truncating result of the truncate means; Based on the new key operation information output from the key operation information generating means, generation of a new musical sound is generated by the musical sound generating means. It is characterized by comprising allocation means for allocating to one of said plurality of tone generation channels.

【0008】[0008]

【作用】上記構成によれば、鍵操作情報発生手段が新た
な鍵操作情報を発生すると、発音チャンネル検出手段が
複数の発音チャンネルが全て発音中であるか否かを検出
する。これにより、トランケート手段は、発音チャンネ
ル検出手段の検出結果に基づいて、複数の発音チャンネ
ルのいずれかにおいて発音中のトリガ駆動型の楽音の楽
音信号を優先的にトランケートする。したがって、割当
手段は、トランケート手段のトランケート結果および新
たな鍵操作情報に基づいて、新たな楽音の発生を楽音発
生手段の複数の発音チャンネルのいずれかに割当てるの
で、楽音発生手段は、割当てられた発音チャンネルから
楽音信号を出力する。
According to the above construction, when the key operation information generating means generates new key operation information, the sounding channel detecting means detects whether or not all the sounding channels are sounding. As a result, the truncate means preferentially truncates the musical tone signal of the trigger-driven musical sound being sounded in any of the plurality of sound generation channels based on the detection result of the sound generation channel detection means. Therefore, the assigning means assigns the generation of a new musical sound to any of the plurality of sound generation channels of the musical sound generating means based on the truncation result of the truncate means and the new key operation information. A tone signal is output from the tone generation channel.

【0009】[0009]

【実施例】以下、図面を参照して、この発明の一実施例
について説明する。図1はこの発明の一実施例による電
子楽器の構成を示すブロック図であり、この図におい
て、1は装置各部を制御するCPU(中央処理装置)、
2はCPU1にロードされる各種制御プログラムやこれ
らプログラムで用いられる各種データなどが記憶された
ROM、3はワーキングバッファやMIDIデータが格
納されるMIDIバッファなどが設けられたRAMであ
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of an electronic musical instrument according to an embodiment of the present invention. In FIG. 1, 1 is a CPU (central processing unit) for controlling each part of the device,
Reference numeral 2 is a ROM in which various control programs loaded into the CPU 1 and various data used in these programs are stored, and 3 is a RAM provided with a working buffer and a MIDI buffer in which MIDI data is stored.

【0010】また、4は複数のキーからなる鍵盤であ
り、各鍵毎の押離鍵を検出するとともに、押鍵の速度お
よび離鍵の速度を検出する機構を有し、押離鍵および押
離鍵の速度に対応した信号を発生する。5は鍵盤インタ
ーフェイスであり、鍵盤4から供給される各種信号に基
づき、音高や押鍵速度等に関する鍵情報を発生し、これ
らをCPU1が管理するデータが転送されるアドレス/
データ・バス6を介してCPU1に転送する。
Reference numeral 4 denotes a keyboard consisting of a plurality of keys, which has a mechanism for detecting the key pressing and releasing for each key, and for detecting the key pressing speed and the key releasing speed. Generates a signal corresponding to the key release speed. Reference numeral 5 denotes a keyboard interface, which generates key information relating to a pitch, a key pressing speed, etc. based on various signals supplied from the keyboard 4, and is an address / address to which data managed by the CPU 1 is transferred.
Transfer to the CPU 1 via the data bus 6.

【0011】さらに、7は操作パネルであり、液晶ディ
スプレイ等の表示器と、テンキーと、表示器の表示画面
の変更等を行うエンターキーと、表示器上のカーソルを
移動させるカーソルキーなどとから構成されている。そ
して、操作パネル7は、アドレス/データ・バス6およ
び操作パネルインターフェイス8を介してCPU1から
供給されるデータを表示するとともに、各キーの状態に
応じたデータを操作パネルインターフェイス8およびア
ドレス/データ・バス6を介してCPU1に転送する。
Further, 7 is an operation panel, which comprises a display device such as a liquid crystal display, a ten-key pad, an enter key for changing the display screen of the display device, a cursor key for moving a cursor on the display device, and the like. It is configured. The operation panel 7 displays the data supplied from the CPU 1 via the address / data bus 6 and the operation panel interface 8, and displays the data according to the state of each key in the operation panel interface 8 and the address / data. Transfer to the CPU 1 via the bus 6.

【0012】加えて、9はMIDIインターフェイスで
あり、CPU1がこのMIDIインターフェイス9およ
びMIDI規格に応じたデータが転送されるMIDI・
バス10を介して他の電子楽器等とMIDIデータ等の
交換を行う。また、11は楽音合成回路であり、CPU
1よりMIDI・バス10を介して供給される各種MI
DIデータに基づいて楽音合成を行う複数の発音チャン
ネルを有し、この発音チャンネルで形成される複数の楽
音信号を出力するとともに、各発音チャンネルの楽音信
号のエンベロープレベルを随時アドレス/データ・バス
6を介してCPU1に供給する。12はサウンドシステ
ムであり、楽音合成回路11から出力される複数の楽音
信号に対してフィルタリングを施し、不要ノイズの除
去、あるいは効果音処理などを施した後、増幅してスピ
ーカ13に与え、楽音として発音させる。
In addition, reference numeral 9 denotes a MIDI interface, and the CPU 1 transmits the MIDI interface 9 and a MIDI interface to which data conforming to the MIDI standard is transferred.
MIDI data and the like are exchanged with other electronic musical instruments and the like via the bus 10. Further, 11 is a tone synthesis circuit, which is a CPU
Various MIs supplied from 1 via MIDI bus 10.
It has a plurality of tone generation channels for performing tone synthesis based on DI data, outputs a plurality of tone signals formed by the tone generation channels, and outputs the envelope level of the tone signal of each tone generation channel to the address / data bus 6 as needed. Is supplied to the CPU 1 via. Reference numeral 12 denotes a sound system, which filters a plurality of tone signals output from the tone synthesizer circuit 11 to remove unnecessary noise or perform sound effect processing, and then amplifies and gives to the speaker 13. To pronounce as.

【0013】なお、通常のMIDI規格のチャンネル数
が0チャンネルから15チャンネルまでの計16個であ
るのに対して、この実施例におけるMIDI・バス10
は、0チャンネルから39チャンネルまでの計40チャ
ンネルの幅を有する拡張されたMIDI・バスである。
したがって、これ以後、これらのチャンネル番号を区別
するために、通常のMIDI規格に則ったMIDIチャ
ンネルを外部MIDIチャンネルといい、この実施例に
おけるMIDIチャンネルを、単に、MIDIチャンネ
ルということにする。
While the number of channels of the standard MIDI standard is 16 from 0 to 15 in total, the MIDI bus 10 in this embodiment is used.
Is an extended MIDI bus having a total width of 40 channels from 0 to 39.
Therefore, hereinafter, in order to distinguish these channel numbers, a MIDI channel conforming to the normal MIDI standard is called an external MIDI channel, and the MIDI channel in this embodiment is simply called a MIDI channel.

【0014】この実施例において、MIDIチャンネル
数を電子楽器内部で40に拡張したのは、以下に示す理
由による。すなわち、従来のMIDI規格のように、チ
ャンネル数が16程度と少ないと、鍵盤4による演奏
と、自動演奏、あるいは、自動リズム演奏などとを同時
に行った場合、チャンネル番号が重なってしまうことが
あり、その場合、鍵盤4を弾くことによりノートオンさ
れた発音チャンネルの楽音が外部MIDIチャンネルを
介して入力されたノートオフによって消音されてしまう
ことがあったからであり、上述したように、電子楽器内
部でMIDIチャンネルを拡張することにより、以上説
明した不都合はなくなる。
In this embodiment, the number of MIDI channels is expanded to 40 inside the electronic musical instrument for the following reason. That is, if the number of channels is as small as about 16 as in the conventional MIDI standard, the channel numbers may overlap when the performance by the keyboard 4 and the automatic performance or the automatic rhythm performance are performed simultaneously. In that case, the musical tone of the tone generation channel that is note-on by playing the keyboard 4 may be muted by the note-off that is input via the external MIDI channel. By expanding the MIDI channel with, the above-mentioned inconvenience disappears.

【0015】なお、図1においては、サウンドシステム
12にもMIDI・バス10が接続されているが、これ
は、このサウンドシステム12においては、各MIDI
チャンネルに対応した発音チャンネル毎に楽音のボリュ
ームを制御することができるからであり、MIDI・バ
ス10を介してサウンドシステム12の各発音チャンネ
ルへメッセージを転送することにより、たとえば、ある
発音チャンネルはこの程度のボリュームでというよう
に、各発音チャンネル毎にボリュームを制御することが
でき、全体の発音チャンネルのボリュームを制御するこ
とができる。
Although the MIDI bus 10 is also connected to the sound system 12 in FIG. 1, this is not the case for each MIDI system in this sound system 12.
This is because the volume of the musical sound can be controlled for each sounding channel corresponding to the channel, and by transmitting a message to each sounding channel of the sound system 12 via the MIDI bus 10, for example, a certain sounding channel can be The volume can be controlled for each sound generation channel, such as with a certain volume, and the volume of all sound generation channels can be controlled.

【0016】このような構成において、CPU1の動作
について図3〜図11のフローチャートに基づいて説明
する。図1の電子楽器に電源が投入されると、CPU1
は、まず、図3のメインルーチンのステップSA1の処
理へ進み、装置各部のイニシャライズを行う。このイニ
シャライズは、各種レジスタのゼロリセットおよび周辺
回路の初期設定となる各種変数の初期設定等である。そ
して、CPU1は、ステップSA2へ進む。
The operation of the CPU 1 having such a configuration will be described with reference to the flow charts of FIGS. When the electronic musical instrument of FIG. 1 is powered on, the CPU 1
First, the process proceeds to step SA1 of the main routine of FIG. 3 to initialize each part of the apparatus. This initialization includes zero reset of various registers and initialization of various variables that are initial settings of peripheral circuits. Then, the CPU 1 proceeds to step SA2.

【0017】ステップSA2では、MIDI処理を行
う。この実施例においては、電子楽器の各部をそれぞれ
モジュールとしてとらえ、これらの間でのデータ通信
は、MIDIデータによって行い、各モジュールから出
力されるMIDIデータは、一旦、RAM3のMIDI
バッファに格納される。そして、CPU1は、このMI
DI処理において、RAM3のMIDIバッファに格納
されたMIDIデータを順次読み出してデータの種類に
応じた所定の処理を行うとともに、読み出したMIDI
データをMIDI・バス10を介して楽音合成回路11
に転送する。これにより、楽音合成回路11は、MID
Iデータに応じて楽音信号を出力する。なお、このMI
DI処理の詳細については、後述する。そして、このM
IDI処理が終了すると、CPU1は、ステップSA3
へ進む。
At step SA2, MIDI processing is performed. In this embodiment, each part of the electronic musical instrument is regarded as a module, data communication between them is performed by MIDI data, and the MIDI data output from each module is temporarily stored in the MIDI of the RAM 3.
It is stored in the buffer. Then, the CPU 1
In the DI process, the MIDI data stored in the MIDI buffer of the RAM 3 is sequentially read to perform a predetermined process according to the type of the data, and the read MIDI
Tone synthesis circuit 11 for data via MIDI bus 10
Transfer to. As a result, the tone synthesis circuit 11 is
A tone signal is output according to the I data. In addition, this MI
Details of the DI process will be described later. And this M
When the IDI process ends, the CPU 1 executes step SA3.
Go to.

【0018】ステップSA3では、外部MIDI処理を
行う。この処理は、MIDIインターフェイス9および
MIDI・バス10を介して外部から入力されたMID
Iデータを40チャンネル分に拡張されたMIDIデー
タに変換してMIDI・バス10を介してRAM3のM
IDIバッファに格納するものである。この実施例にお
いては、チャンネル番号0〜15の計16個の外部MI
DIチャンネルは、図2に示すように、そのチャンネル
番号に9を加えたMIDIチャンネルのチャンネル番号
9〜24に割り当てられている。したがって、たとえ
ば、チャンネル番号0の外部MIDIチャンネルのノー
トオンは、チャンネル番号9のMIDIチャンネルのノ
ートオンとしてRAM3のMIDIバッファに格納され
る。そして、この外部MIDI処理が終了すると、CP
U1は、ステップSA4へ進む。
In step SA3, external MIDI processing is performed. This processing is based on the MID input from the outside through the MIDI interface 9 and the MIDI bus 10.
The I data is converted into MIDI data expanded to 40 channels, and the M data in the RAM 3 is transferred via the MIDI bus 10.
It is stored in the IDI buffer. In this embodiment, a total of 16 external MIs with channel numbers 0 to 15 are used.
The DI channel is assigned to the channel numbers 9 to 24 of the MIDI channel obtained by adding 9 to the channel number, as shown in FIG. Therefore, for example, note-on of the external MIDI channel of channel number 0 is stored in the MIDI buffer of RAM 3 as note-on of the MIDI channel of channel number 9. When this external MIDI processing is completed, CP
U1 proceeds to step SA4.

【0019】ステップSA4では、鍵盤4のいずれかの
キーが押鍵された際に働く鍵処理を行う。鍵盤4から出
力された鍵情報は、まず、鍵盤インターフェイス5およ
びアドレス/データ・バス6を介してCPU1に転送さ
れるので、CPU1は、この鍵処理において、鍵をスキ
ャンして転送された鍵情報からMIDIイベントを生成
する。この実施例においては、鍵盤4の複数のキーを上
鍵域と下鍵域とにスプリットしているので、CPU1
は、図2に示すように、上鍵域のMIDIイベントをM
IDIチャンネル0のオーケストラ1のノートオンやノ
ートオフなどの情報とし、下鍵域のMIDIイベントを
MIDIチャンネル1のオーケストラ2の情報としてR
AM3のMIDIバッファに順次格納する。なお、この
鍵処理の詳細については、後述する。そして、この鍵処
理が終了すると、CPU1は、ステップSA5へ進む。
At step SA4, a key process that is performed when any key on the keyboard 4 is depressed is performed. Since the key information output from the keyboard 4 is first transferred to the CPU 1 via the keyboard interface 5 and the address / data bus 6, the CPU 1 scans the key in this key processing and transfers the transferred key information. To generate a MIDI event. In this embodiment, a plurality of keys on the keyboard 4 are split into an upper key range and a lower key range.
As shown in FIG.
Information such as note-on and note-off of the orchestra 1 of the IDI channel 0, and MIDI events in the lower key region as information of the orchestra 2 of the MIDI channel 1
The data is sequentially stored in the MIDI buffer of AM3. The details of this key processing will be described later. Then, when this key processing is completed, the CPU 1 proceeds to step SA5.

【0020】ステップSA5では、自動演奏処理や自動
リズム演奏処理などの自動処理を行う。自動演奏処理
は、演奏者によって操作パネル7を用いて設定された曲
風(スタイル:ワルツ、ロック、タンゴなど)およびテ
ンポと、鍵盤4を用いて指定された和音情報(コードの
ルートROOTとタイプTYPE)とに基づいて自動演
奏イベントを生成する。そして、この自動演奏のイベン
トは、対応するMIDIチャンネルのイベントとしてR
AM3のMIDIデータバッファに順次格納する。
At step SA5, automatic processing such as automatic performance processing and automatic rhythm performance processing is performed. The automatic performance process is performed by the performer using the operation panel 7 to set the musical style (style: waltz, rock, tango, etc.) and tempo, and the chord information specified using the keyboard 4 (chord root root and type). TYPE) to generate an automatic performance event. Then, the event of this automatic performance is R as an event of the corresponding MIDI channel.
The data is sequentially stored in the MIDI data buffer of AM3.

【0021】また、自動リズム演奏処理は、上述した曲
風とテンポとに基づいてリズムパターンの生成を行う。
そして、このリズムパターンも、対応するMIDIチャ
ンネルのイベントとしてRAM3のMIDIデータバッ
ファに順次格納する。なお、この自動処理の詳細につい
ては、後述する。そして、この自動処理が終了すると、
CPU1は、ステップSA6へ進む。
In the automatic rhythm performance processing, a rhythm pattern is generated based on the above-mentioned musical style and tempo.
Then, this rhythm pattern is also sequentially stored in the MIDI data buffer of the RAM 3 as an event of the corresponding MIDI channel. The details of this automatic processing will be described later. And when this automatic processing ends,
The CPU 1 proceeds to step SA6.

【0022】ステップSA6では、楽音合成回路11の
各発音チャンネルの中でエンベロープレベルがある一定
以下になった発音チャンネルを空きチャンネルとして検
出する発音チャンネル処理を、チャンネル番号0〜31
までの通常音のMIDIチャンネルに対応した発音チャ
ンネルと、チャンネル番号32〜39までのリズム音の
MIDIチャンネルに対応した発音チャンネルとについ
て別々に行う。なお、この発音チャンネル処理の詳細に
ついては、後述する。そして、この発音チャンネル処理
が終了すると、CPU1は、ステップSA7へ進む。
In step SA6, tone number channel processing for detecting tone tone channels whose envelope level is below a certain level among tone tone channels of the tone synthesizer circuit 11 as free channels is performed.
Up to the sound generation channels corresponding to the normal sound MIDI channels and the sound generation channels corresponding to the rhythm sound MIDI channels of channel numbers 32 to 39 are separately performed. The details of this tone generation channel processing will be described later. Then, when this tone generation channel processing is completed, the CPU 1 proceeds to step SA7.

【0023】ステップSA7では、演奏者による操作パ
ネル7の操作に応じて曲風やテンポの設定、あるいは、
MIDIチャンネル毎の音色の設定などを行う。なお、
後述する各処理のフローチャートにおいて、代入文がな
くて定数的に使用している変数は、このパネル処理にお
いてすべて演奏者が設定するものとする。そして、この
パネル処理が終了すると、CPU1は、ステップSA8
へ進む。
At step SA7, the musical style and tempo are set according to the operation of the operation panel 7 by the player, or
Set the tone color for each MIDI channel. In addition,
In the flow charts of the respective processes described later, it is assumed that the performer sets all variables that are used in a constant manner without assignment statements. Then, when this panel processing is completed, the CPU 1 executes step SA8.
Go to.

【0024】ステップSA8では、この電子楽器が備え
ているシーケンサについてのMIDIチャンネル番号2
〜8のシーケンサトラック1〜7(図2参照)に関する
処理等、上述した各処理において特に説明しなかったそ
の他の処理が実行され、こうした処理完了後に、上述し
たステップSA2に戻り、電源が切断されるまでステッ
プSA2〜SA8の一連の処理が繰り返し実行される。
このように、メインルーチンにおいては、CPU1が各
種イベントに応じた楽音合成を指示するように動作し、
この楽音合成は後述する各種処理によって実現される。
At step SA8, the MIDI channel number 2 for the sequencer provided in this electronic musical instrument is set.
~ 8 sequencer tracks 1 to 7 (see Fig. 2) and the like, other processes not specifically described in the above-described processes are executed, and after completion of these processes, the process returns to step SA2 described above, and the power is cut off. The series of processing of steps SA2 to SA8 is repeatedly executed until the above.
Thus, in the main routine, the CPU 1 operates so as to instruct to synthesize a musical sound according to various events,
This tone synthesis is realized by various processes described later.

【0025】次に、CPU1のMIDI処理について図
4のフローチャートに基づいて説明する。CPU1の処
理が図3のステップSA2へ進むと、図4に示すMID
I処理ルーチンが起動される。CPU1は、まず、ステ
ップSB1の処理へ進み、RAM3のMIDIバッファ
を走査した後、ステップSB2へ進む。
Next, the MIDI processing of the CPU 1 will be described with reference to the flowchart of FIG. When the processing of the CPU 1 proceeds to step SA2 of FIG. 3, the MID shown in FIG.
The I processing routine is started. The CPU 1 first proceeds to the process of step SB1, scans the MIDI buffer of the RAM 3, and then proceeds to step SB2.

【0026】ステップSB2では、MIDIイベントの
有無を判断する。この判断結果が「NO」の場合、すな
わち、MIDIイベントが検出されない場合には、何も
せず、図3のメインルーチンへ戻り、ステップSA3へ
進む。いっぽう、ステップSB2の判断結果が「YE
S」の場合、すなわち、MIDIイベントが検出された
場合には、ステップSB3へ進む。
At step SB2, it is determined whether or not there is a MIDI event. If the result of this determination is "NO", that is, if no MIDI event is detected, nothing is done, the process returns to the main routine of FIG. 3, and proceeds to step SA3. On the other hand, the judgment result of step SB2 is "YE
If "S", that is, if a MIDI event is detected, the process proceeds to step SB3.

【0027】ステップSB3では、RAM3のMIDI
バッファからMIDIチャンネル番号およびMIDIイ
ベントを読み出し、それぞれレジスタMCHおよびEV
に格納した後、ステップSB4へ進む。ステップSB4
では、レジスタEVの内容がノートイベントに対応する
ものであるか否かを判断する。この実施例においては、
ノートイベントもリズムのノートイベントも形式として
は、MIDI規格のノートオンの形式である。しかし、
通常楽音とリズム楽音とを別の発音チャンネルで生成す
るようにしており、リズム楽音には、図2に示すよう
に、MIDIチャンネル番号32〜39が別途割当てら
れているので、ノートイベントとリズムのノートイベン
トとの判別は、MIDIチャンネル番号によって行う。
ステップSB4の判断結果が「YES」の場合、すなわ
ち、レジスタEVの内容がノートイベントに対応するも
のである場合には、ステップSB5へ進む。
In step SB3, the MIDI of RAM3
Reads MIDI channel number and MIDI event from the buffer and registers MCH and EV respectively
After storing in, the process proceeds to step SB4. Step SB4
Then, it is determined whether or not the content of the register EV corresponds to the note event. In this example,
Both the note event and the rhythm note event have the MIDI standard note-on format. But,
The normal tone and the rhythm tone are generated in different tone generation channels, and the MIDI channel numbers 32 to 39 are separately assigned to the rhythm tone as shown in FIG. The determination as a note event is made by the MIDI channel number.
If the determination result of step SB4 is "YES", that is, if the content of the register EV corresponds to the note event, the process proceeds to step SB5.

【0028】ステップSB5では、ノートイベント処理
を行う。なお、このノートイベント処理の詳細について
は、後述する。そして、このノートイベント処理が終了
すると、CPU1は、図3のメインルーチンへ戻り、ス
テップSA3へ進む。いっぽう、ステップSB4の判断
結果が「NO」の場合、すなわち、レジスタEVの内容
がノートイベントでなく、リズムのノートイベント、あ
るいは、チャンネルイベントである場合には、ステップ
SB6へ進む。
At step SB5, note event processing is performed. The details of this note event process will be described later. Then, when this note event process is completed, the CPU 1 returns to the main routine of FIG. 3 and proceeds to step SA3. On the other hand, if the determination result in step SB4 is "NO", that is, if the content of the register EV is not a note event but a rhythm note event or a channel event, the process proceeds to step SB6.

【0029】ステップSB6では、レジスタEVの内容
がリズムのノートイベントに対応するものであるか否か
を判断する。この判断結果が「YES」の場合には、ス
テップSB7へ進む。ステップSB7では、リズムノー
トイベント処理を行う。なお、このリズムノートイベン
ト処理の詳細については、後述する。そして、このリズ
ムノートイベント処理が終了すると、CPU1は、図3
のメインルーチンへ戻り、ステップSA3へ進む。
In step SB6, it is determined whether or not the content of the register EV corresponds to a rhythm note event. If the result of this determination is "YES", the flow proceeds to step SB7. In step SB7, rhythm note event processing is performed. The details of the rhythm note event process will be described later. When this rhythm note event process is completed, the CPU 1
And returns to the main routine of step SA3.

【0030】いっぽう、ステップSB4の判断結果が
「NO」の場合、すなわち、レジスタEVの内容がリズ
ムのノートイベントでなく、チャンネルイベントである
場合には、ステップSB8へ進む。ステップSB8で
は、MIDIチャンネルの音色切り替えを要求するプロ
グラムチェンジ情報やピッチベンド情報等のチャンネル
イベントを処理するチャンネルイベント処理を行う。そ
して、このチャンネルイベント処理が終了すると、CP
U1は、図3のメインルーチンへ戻り、ステップSA3
へ進む。
On the other hand, if the result of the determination in step SB4 is "NO", that is, if the content of the register EV is not a rhythm note event but a channel event, the process proceeds to step SB8. In step SB8, channel event processing for processing channel events such as program change information requesting tone color switching of the MIDI channel and pitch bend information is performed. When this channel event processing is completed, the CP
U1 returns to the main routine of FIG. 3, and step SA3
Go to.

【0031】次に、CPU1のノートイベント処理につ
いて図5のフローチャートに基づいて説明する。CPU
1の処理が図4のステップSB5へ進むと、図5に示す
ノートイベント処理ルーチンが起動される。CPU1
は、まず、ステップSC1の処理へ進み、レジスタEV
の内容がノートオンイベントNONに対応するものであ
るか否かを判断する。この判断結果が「YES」の場合
には、ステップSC2へ進む。
Next, the note event process of the CPU 1 will be described with reference to the flowchart of FIG. CPU
When the processing of No. 1 proceeds to step SB5 of FIG. 4, the note event processing routine shown in FIG. 5 is started. CPU1
First, the process proceeds to step SC1 and the register EV
It is determined whether or not the contents of No. 1 correspond to the note-on event NON. If the result of this determination is "YES", then the operation proceeds to step SC2.

【0032】ステップSC2では、割当可能である発音
チャンネルを検出するための空き発音チャンネルのサー
チをした後、ステップSC3へ進む。ここで、空き発音
チャンネルとは、発音まで待機している状態を意味して
いる。ステップSC3では、ステップSC2の空き発音
チャンネルのサーチ処理において検出された発音チャン
ネルの状態から現在空き発音チャンネルがあるか否かを
判断する。この判断結果が「NO」の場合、すなわち、
全ての発音チャンネルが何らかの形で発音中である場合
には、ステップSC4へ進む。
In step SC2, a search is made for an empty sound generation channel for detecting allocatable sound generation channels, and then the operation proceeds to step SC3. Here, the idle sound generation channel means a state of waiting for sound generation. In step SC3, it is determined whether or not there is a current sound generation channel from the state of the sound generation channel detected in the search processing of the free sound generation channel in step SC2. If the result of this determination is "NO", that is,
If all the sounding channels are sounding in some way, the process proceeds to step SC4.

【0033】ステップSC4では、発音中の発音チャン
ネルの中で最も減衰が進んでいる発音チャンネル、ある
いは、最も古く押鍵された発音チャンネルを検出し、こ
れを強制的に発音停止させて「空き発音チャンネル」と
するトランケート処理を行う。なお、このトランケート
処理の詳細については、後述する。そして、このトラン
ケート処理が終了すると、CPU1は、ステップSC6
へ進む。
At step SC4, the sounding channel that is most attenuated among the sounding sounding channels or the sounding channel that is the oldest depressed key is detected, and this is forcibly stopped to generate an "idle sound." Perform the truncation process of "Channel". The details of this truncation processing will be described later. Then, when this truncate processing ends, the CPU 1 executes step SC6.
Go to.

【0034】いっぽう、ステップSC3の判断結果が
「YES」の場合、すなわち、現在空き発音チャンネル
がある場合には、ステップSC5へ進む。ステップSC
5では、アサインされる発音チャンネルの番号が一時格
納されるレジスタACHに、得られた空き発音チャンネ
ルの番号を格納した後、ステップSC6へ進む。ステッ
プSC6では、レジスタACHに格納された発音チャン
ネルの番号に対応した発音チャンネルの状態を発音持続
状態として表すため、レジスタST〔ACH〕の値(ス
テート信号ST)を「1」とした後、ステップSC7へ
進む。ここで、このレジスタST〔ACH〕と各発音チ
ャンネルの状態との対応は、ST〔ACH〕=「0」は
空き発音チャンネル、すなわち、チャンネル待機状態を
表し、「1」は押鍵中の発音チャンネル、すなわち、ノ
ートオンによる発音持続状態を表し、「2」は離鍵され
ているが発音中である発音チャンネル、すなわち、リリ
ース波形発音状態を表している。
On the other hand, if the result of the determination in step SC3 is "YES", that is, if there is a currently unused tone generation channel, the operation proceeds to step SC5. Step SC
In 5, the obtained free tone generation channel number is stored in the register ACH in which the number of the assigned tone generation channel is temporarily stored, and then the process proceeds to step SC6. In step SC6, since the state of the tone generation channel corresponding to the tone generation channel number stored in the register ACH is expressed as the tone generation continuation state, the value of the register ST [ACH] (state signal ST) is set to "1", and then the step Go to SC7. Here, the correspondence between the register ST [ACH] and the state of each sounding channel is that ST [ACH] = “0” represents an empty sounding channel, that is, a channel standby state, and “1” represents sounding during key depression. A channel, that is, a note-on sounding continuation state, and "2" represents a sounding channel that is released but is sounding, that is, a release waveform sounding state.

【0035】ステップSC7では、発音すべきノートコ
ードNCをMIDIイベントから取り出して、各発音チ
ャンネルで発音中のノートコードNCが格納されるレジ
スタSTNC〔ACH〕に格納する。1つのノートオン
のMIDIメッセージには、MIDIチャンネル番号
と、ノートコードNCと、ベロシティNV等の情報が納
められている。そして、CPU1は、ステップSC8へ
進む。
At step SC7, the note code NC to be sounded is extracted from the MIDI event and stored in the register STNC [ACH] which stores the note code NC being sounded in each sounding channel. One note-on MIDI message contains information such as a MIDI channel number, note code NC, and velocity NV. Then, the CPU 1 proceeds to step SC8.

【0036】ステップSC8では、各発音チャンネルに
アサインされているMIDIチャンネルの番号が格納さ
れるレジスタAMC〔ACH〕に、レジスタMCHに格
納されているMIDIチャンネル番号を格納した後、ス
テップSC9へ進む。ステップSC9では、レジスタA
CHに格納された発音チャンネルの番号に対応する楽音
合成回路11の空き発音チャンネルに対してMIDIチ
ャンネル番号MCH、ノートコードNC、ベロシティN
V、ノートオン情報をMIDI・バス10を介して出力
する。これらは、実際には、MIDI規格に則ったMI
DIイベントの形で送出される。これにより、楽音合成
回路11は、これらの情報に基づいた楽音信号を発生す
る。そして、CPU1は、ステップSC10へ進む。
In step SC8, the MIDI channel number stored in the register MCH is stored in the register AMC [ACH] in which the number of the MIDI channel assigned to each tone generation channel is stored. Then, the process proceeds to step SC9. At step SC9, register A
The MIDI channel number MCH, the note code NC, and the velocity N for the empty tone generation channel of the tone synthesis circuit 11 corresponding to the tone generation channel number stored in CH.
V and note-on information is output via the MIDI bus 10. These are actually MIs that comply with the MIDI standard.
It is sent in the form of DI events. As a result, the tone synthesis circuit 11 generates a tone signal based on these pieces of information. Then, the CPU 1 proceeds to step SC10.

【0037】ステップSC10では、各発音チャンネル
毎に設けられ、ノートオンされる度に1インクリメント
されるノートオンカウンタNONC〔ACH〕の値を0
にリセットする。このノートオンカウンタNONC〔A
CH〕の値が最大の発音チャンネルが最も古くから押鍵
された発音チャンネルを示しているので、それぞれのノ
ートオンカウンタNONC〔ACH〕の値を参照するこ
とにより、鍵盤4のどのキーが最も早く押鍵されたかを
知ることができる。そして、CPU1は、ステップSC
11へ進む。
At step SC10, the value of the note-on counter NONC [ACH], which is provided for each tone generation channel and is incremented by 1 each time a note-on is made, is set to 0.
Reset to. This note-on counter NONC [A
Since the tone generation channel with the largest value of CH] indicates the tone generation channel that has been depressed since the oldest time, by referring to the value of each note-on counter NONC [ACH], which key of the keyboard 4 is the earliest. You can know if the key was pressed. Then, the CPU 1 proceeds to step SC
Proceed to 11.

【0038】ステップSC11では、発音中の発音チャ
ンネルに対応する全てのノートオンカウンタNONC
〔ACH〕の値を1ずつインクリメントする。もちろ
ん、発音していない発音チャンネルに対応するノートオ
ンカウンタNONC〔ACH〕の値をインクリメントし
てはならない。なお、ここで、発音中の発音チャンネル
に対応する全てのノートオンカウンタNONC〔AC
H〕としたのは、ノートオンされた発音チャンネルに対
応する全てのノートオンカウンタNONC〔ACH〕と
すると、発音中であるが離鍵された発音チャンネル(具
体的には、ST〔ACH〕=「2」)が、後述するトラ
ンケート処理において誤って処理されてしまうからであ
る。そして、CPU1は、図4のMIDI処理ルーチン
を経て図3のメインルーチンへ戻り、ステップSA3へ
進む。
At step SC11, all note-on counters NONC corresponding to the sounding channel being sounded.
The value of [ACH] is incremented by one. Of course, the value of the note-on counter NONC [ACH] corresponding to the sounding channel that is not sounding should not be incremented. Here, all note-on counters NONC [AC corresponding to the sounding channel being sounded are
H] is all note-on counters NONC [ACH] corresponding to the note-on sounding channels, and sounding channels that are sounding but are released (specifically, ST [ACH] = This is because "2") is erroneously processed in the truncation process described later. Then, the CPU 1 returns to the main routine of FIG. 3 through the MIDI processing routine of FIG. 4, and proceeds to step SA3.

【0039】いっぽう、ステップSC1の判断結果が
「NO」の場合、すなわち、レジスタEVの内容がノー
トオンイベントNONに対応するものでなく、ノートオ
フイベントNOFFに対応するものである場合には、ス
テップSC12へ進む。ステップSC12では、各発音
チャンネルの情報をサーチする。ここで、同じMIDI
チャンネルで同じノートコードNCを発音している発音
チャンネルがあれば、後述するように、その発音チャン
ネルのノートオフ処理を行うが、同じノートコードNC
でも、異なるMIDIチャンネルであれば、その発音チ
ャンネルはノートオフしてはならない。そこで、このこ
とを検出できるようにするため、ステップSC7および
8において、各発音チャンネル毎に、ノートコードNC
およびMIDIチャンネル番号をレジスタSTNC〔A
CH〕およびAMC〔ACH〕にそれぞれ格納している
のである。そして、CPU1は、ステップSC13へ進
む。
On the other hand, if the result of the determination in step SC1 is "NO", that is, if the content of the register EV does not correspond to the note-on event NON but corresponds to the note-off event NOFF, then the step Proceed to SC12. In step SC12, information of each sound generation channel is searched. Where the same MIDI
If there is a sounding channel that is sounding the same note code NC on a channel, note-off processing for that sounding channel is performed as described later, but the same note code NC is used.
However, if it is a different MIDI channel, that sounding channel should not be note-off. Therefore, in order to detect this, in steps SC7 and SC8, the note code NC is set for each sound generation channel.
And the MIDI channel number in the register STNC [A
CH] and AMC [ACH] respectively. Then, the CPU 1 proceeds to step SC13.

【0040】ステップSC13では、対応する発音チャ
ンネルがあるか否かを判断する。この判断結果が「N
O」の場合、すなわち、対応する発音チャンネルの楽音
がもう発音されていない場合、たとえば、押鍵が持続さ
れて発音が完全に減衰してしまった状態や、トランケー
ト処理により押鍵中にもかかわらず発音が強制終了させ
られた場合などには、なにもせず、図4のMIDI処理
ルーチンを経て図3のメインルーチンへ戻り、ステップ
SA3へ進む。
In step SC13, it is determined whether or not there is a corresponding tone generation channel. This judgment result is "N
In the case of "O", that is, when the musical tone of the corresponding sounding channel is no longer being pronounced, for example, the state where the key depression is continued and the sound is completely attenuated, or the truncate process causes the key tone to be depressed. If the sound generation is forcibly terminated without doing anything, nothing is done and the procedure returns to the main routine of FIG. 3 through the MIDI processing routine of FIG. 4 and proceeds to step SA3.

【0041】いっぽう、ステップSC13の判断結果が
「YES」の場合、すなわち、対応する発音チャンネル
が現在発音中である場合には、ステップSC14へ進
む。ステップSC14では、サーチされた発音チャンネ
ル番号をレジスタCHへ格納した後、ステップSC15
へ進む。ステップSC15では、上述した各発音チャン
ネル毎の状態が記憶されるレジスタST〔CH〕に離鍵
されているが発音中である発音チャンネル、すなわち、
リリース波形発音状態であることを表す「2」を格納し
た後、ステップSC16へ進む。ステップSC16で
は、レジスタCHに格納された発音チャンネルの番号に
対応する楽音合成回路11の発音チャンネルに対してノ
ートオフ情報を出力した後、図4のMIDI処理ルーチ
ンを経て図3のメインルーチンへ戻り、ステップSA3
へ進む。
On the other hand, if the result of the determination in step SC13 is "YES", that is, if the corresponding sounding channel is currently sounding, the operation proceeds to step SC14. In step SC14, the searched tone generation channel number is stored in the register CH, and then step SC15.
Go to. In step SC15, the tone generation channel which is released, but is in the tone generation state, in the register ST [CH] that stores the above-mentioned state of each tone generation channel, that is,
After storing "2" indicating that the release waveform is being sounded, the process proceeds to step SC16. In step SC16, note-off information is output to the tone generation channel of the tone synthesis circuit 11 corresponding to the tone generation channel number stored in the register CH, and then the MIDI processing routine of FIG. 4 is performed to return to the main routine of FIG. , Step SA3
Go to.

【0042】次に、CPU1のトランケート処理につい
て図6のフローチャートに基づいて説明する。CPU1
の処理が図5のステップSC4へ進むと、図6に示すト
ランケート処理ルーチンが起動される。CPU1は、ま
ず、ステップSD1の処理へ進み、各発音チャンネルの
状態をスキャンする、すなわち、レジスタST〔CH〕
をスキャンした後、ステップSD2へ進む。
Next, the truncate processing of the CPU 1 will be described with reference to the flowchart of FIG. CPU1
When the processing in step S4 proceeds to step SC4 in FIG. 5, the truncate processing routine shown in FIG. 6 is started. First, the CPU 1 proceeds to the processing of step SD1 and scans the state of each tone generation channel, that is, the register ST [CH].
After scanning, proceed to step SD2.

【0043】ステップSD2では、ノートオフ中の発音
チャンネルがあるか否か、すなわち、レジスタST〔C
H〕の値が「2」である発音チャンネルがあるか否かを
判断する。この判断結果が「YES」の場合には、ステ
ップSD3へ進む。ステップSD3では、ノートオフ中
の発音チャンネルの中でエンベロープレベルENVが最
も小さい発音チャンネル、すなわち、最も減衰が進んで
いる発音チャンネルの番号をトランケート候補の発音チ
ャンネルの番号が格納されるレジスタTCHに格納した
後、ステップSD5へ進む。
In step SD2, it is determined whether or not there is a tone-off channel during note-off, that is, the register ST [C
It is determined whether or not there is a sound generation channel whose value of [H] is "2". If the result of this determination is "YES", then the operation proceeds to step SD3. In step SD3, the tone generation channel having the smallest envelope level ENV among the tone generation channels during note-off, that is, the tone generation channel number that is most attenuated is stored in the register TCH in which the number of the tone generation candidate truncation channel is stored. After that, the process proceeds to step SD5.

【0044】いっぽう、ステップSD2の判断結果が
「NO」の場合、すなわち、ノートオフ中の発音チャン
ネルがない場合には、ステップSD4へ進む。ステップ
SD4では、発音中の発音チャンネルの中で最も古く押
鍵された発音チャンネル、すなわち、ノートオンカウン
タNONC〔ACH〕の値が最大の発音チャンネルの番
号をレジスタTCHに格納する。これにより、ストリン
グスやパイプオルガン等のスローアタックの楽音の音色
でも、押鍵中であれば、トランケート処理されることが
ない。そして、CPU1は、ステップSD5へ進む。
On the other hand, if the result of the determination in step SD2 is "NO", that is, if there is no tone-off channel during note-off, the process proceeds to step SD4. In step SD4, the number of the tone generation channel that is the oldest key-depressed tone generation channel, that is, the tone generation channel for which the value of the note-on counter NONC [ACH] is maximum, is stored in the register TCH. As a result, even a tone of a slow attack musical tone such as strings or a pipe organ will not be truncated if the key is being pressed. Then, the CPU 1 proceeds to step SD5.

【0045】ステップSD5では、レジスタTCHに格
納された発音チャンネルの番号に対応する楽音合成回路
11の発音チャンネルに対してダンプ要求信号を送出す
る。これにより、楽音合成回路11の発音チャンネル
は、ダンプ要求信号に応じて所定の速度でエンベロープ
をダンプするが、完全にダンプされるまでにある程度時
間がかかる。したがって、この発音チャンネルにすぐに
ノートオン情報が入力された場合には、不都合が生じる
可能性があるが、楽音合成回路11は、このような状態
の場合、該当する発音チャンネルのエンベロープが完全
にダンプされるまでノートオン情報を遅延させておき、
ダンプが終了した時点でノートオン情報に基づき、直ち
に発音を立ち上げる機能を有しているので、問題はな
い。そして、CPU1は、ステップSD6へ進む。ステ
ップSD6では、レジスタTCHの値をレジスタACH
に格納した後、図5のノートイベント処理ルーチンへ戻
り、ステップSC6へ進む。
At step SD5, a dump request signal is sent to the tone generation channel of the tone synthesis circuit 11 corresponding to the tone generation channel number stored in the register TCH. As a result, the tone generation channel of the tone synthesis circuit 11 dumps the envelope at a predetermined speed in response to the dump request signal, but it takes some time to completely dump the envelope. Therefore, if note-on information is immediately input to this tone generation channel, inconvenience may occur. However, in such a state, the tone synthesis circuit 11 causes the envelope of the corresponding tone generation channel to be completely erased. Delay note-on information until dumped,
There is no problem because it has a function to immediately start the sound generation based on the note-on information when the dump is completed. Then, the CPU 1 proceeds to step SD6. At step SD6, the value of the register TCH is set to the register ACH.
Then, the process returns to the note event processing routine of FIG. 5 and proceeds to step SC6.

【0046】次に、CPU1のリズムノートイベント処
理について図7のフローチャートに基づいて説明する。
CPU1の処理が図4のステップSB7へ進むと、図7
に示すリズムノートイベント処理ルーチンが起動され
る。CPU1は、まず、ステップSE1の処理へ進み、
レジスタEVの内容がリズムのノートオンイベントNO
Nに対応するものであるか否かを判断する。この判断結
果が「YES」の場合には、ステップSE2へ進む。
Next, the rhythm note event processing of the CPU 1 will be described with reference to the flowchart of FIG.
When the processing of the CPU 1 proceeds to step SB7 of FIG.
The rhythm note event processing routine shown in is started. The CPU 1 first proceeds to the process of step SE1,
The content of the register EV is the note-on event NO of the rhythm
It is determined whether or not it corresponds to N. If the result of this determination is "YES", the flow proceeds to step SE2.

【0047】ステップSE2では、割当可能であるリズ
ムチャンネルを検出するための空きリズムチャンネルの
サーチをした後、ステップSE3へ進む。ここで、空き
リズムチャンネルとは、リズム発音まで待機している状
態を意味している。ステップSE3では、ステップSE
2の空きリズムチャンネルのサーチ処理において検出さ
れたリズムチャンネルの状態から現在空きリズムチャン
ネルがあるか否かを判断する。この判断結果が「NO」
の場合、すなわち、全てのリズムチャンネルが何らかの
形で発音中である場合には、ステップSE4へ進む。
At step SE2, a free rhythm channel is searched for detecting allocable rhythm channels, and then the process proceeds to step SE3. Here, the empty rhythm channel means a state of waiting for a rhythm sound. In Step SE3, Step SE
It is determined from the state of the rhythm channel detected in the search processing of the vacant rhythm channel 2 of FIG. This judgment result is "NO"
If, that is, if all rhythm channels are sounding in some way, the process proceeds to step SE4.

【0048】ステップSE4では、リズム発音中のリズ
ムチャンネルの中でエンベロープレベルが最も小さいリ
ズムチャンネル、すなわち、最も減衰が進んでいるリズ
ムチャンネルを検出し、これを強制的に発音停止させて
「空きリズムチャンネル」とするリズムトランケート処
理を行う。なお、このリズムトランケート処理の詳細に
ついては、後述する。そして、このリズムトランケート
処理が終了すると、CPU1は、ステップSE6へ進
む。
At step SE4, the rhythm channel having the lowest envelope level, that is, the most attenuated rhythm channel is detected from among the rhythm channels which are producing rhythm, and the rhythm channel is forcibly stopped to generate an "empty rhythm". Performs rhythm truncation processing for "channel". The details of the rhythm truncation process will be described later. Then, when this rhythm truncate processing ends, the CPU 1 proceeds to step SE6.

【0049】いっぽう、ステップSE3の判断結果が
「YES」の場合、すなわち、現在空きリズムチャンネ
ルがある場合には、ステップSE5へ進む。ステップS
E5では、レジスタACHに得られた空きリズムチャン
ネルの番号を格納した後、ステップSE6へ進む。ステ
ップSE6では、レジスタACHに格納されたリズムチ
ャンネルの番号に対応したリズムチャンネルの状態をリ
ズム発音持続状態として表すため、レジスタRST〔A
CH〕の値を「1」とした後、ステップSE7へ進む。
ここで、このレジスタRST〔ACH〕と各リズムチャ
ンネルの状態との対応は、レジスタST〔ACH〕と各
発音チャンネルの状態との対応と同様、RST〔AC
H〕=「0」は空きリズムチャンネル、すなわち、リズ
ムチャンネル待機状態を表し、「1」はリズムノートオ
ンによるリズム発音持続状態を表し、「2」はリリース
波形発音状態を表している。
On the other hand, if the result of the decision made at step SE3 is "YES", that is, if there is a currently empty rhythm channel, then the processing advances to step SE5. Step S
At E5, the obtained free rhythm channel number is stored in the register ACH, and then the process proceeds to step SE6. At step SE6, the state of the rhythm channel corresponding to the number of the rhythm channel stored in the register ACH is expressed as the rhythm sounding continuation state.
After the value of CH] is set to "1", the process proceeds to step SE7.
The correspondence between the register RST [ACH] and the status of each rhythm channel is the same as the correspondence between the register ST [ACH] and the status of each sounding channel.
H] = “0” represents an empty rhythm channel, that is, a rhythm channel standby state, “1” represents a rhythm sounding continuation state by rhythm note-on, and “2” represents a release waveform sounding state.

【0050】ステップSE7では、リズム発音すべきリ
ズムのノートコードNCをMIDIイベントから取り出
して、各リズムチャンネルでリズム発音中のリズムのノ
ートコードNCが格納されるレジスタRSTNC〔AC
H〕に格納する。1つのリズムのノートオンのMIDI
メッセージには、MIDIチャンネル番号と、リズムの
ノートコードNCと、ベロシティNV等の情報が納めら
れている。そして、CPU1は、ステップSE8へ進
む。
At step SE7, the note code NC of the rhythm which should be sounded is taken out from the MIDI event, and the register code RSTNC [AC which stores the note code NC of the rhythm being sounded in each rhythm channel is stored.
H]. One-rhythm MIDI note-on
The message contains information such as MIDI channel number, rhythm note code NC, and velocity NV. Then, the CPU 1 proceeds to step SE8.

【0051】ステップSE8では、アサインされている
MIDIチャンネルの番号が格納されるレジスタRAM
C〔ACH〕に、レジスタMCHに格納されているMI
DIチャンネル番号を格納した後、ステップSE9へ進
む。ステップSE9では、レジスタACHに格納された
リズムチャンネルの番号に対応する楽音合成回路11の
空きリズムチャンネルに対してMIDIチャンネル番号
MCH、リズムのノートコードNC、ベロシティNV、
ノートオン情報をMIDI・バス10を介して出力す
る。これらは、実際には、MIDI規格に則ったMID
Iイベントの形で送出される。これにより、楽音合成回
路11は、これらの情報に基づいたリズム楽音信号を発
生する。そして、CPU1は、図4のMIDI処理ルー
チンを経て図3のメインルーチンへ戻り、ステップSA
3へ進む。
In step SE8, the register RAM in which the number of the assigned MIDI channel is stored
MI stored in the register MCH in C [ACH]
After storing the DI channel number, the process proceeds to step SE9. In step SE9, the MIDI channel number MCH, the rhythm note code NC, the velocity NV, and the empty rhythm channel of the tone synthesis circuit 11 corresponding to the rhythm channel number stored in the register ACH are stored.
The note-on information is output via the MIDI bus 10. These are actually MIDs according to the MIDI standard.
It is sent in the form of an I event. As a result, the tone synthesis circuit 11 generates a rhythm tone signal based on these pieces of information. Then, the CPU 1 returns to the main routine of FIG. 3 through the MIDI processing routine of FIG.
Go to 3.

【0052】いっぽう、ステップSE1の判断結果が
「NO」の場合、すなわち、レジスタEVの内容がリズ
ムのノートオンイベントNONに対応するものでなく、
リズムのノートオフイベントNOFFに対応するもので
ある場合には、ステップSE10へ進む。ステップSE
10では、各リズムチャンネルの情報をサーチする。こ
こで、同じMIDIチャンネルで同じリズムのノートコ
ードNCを発音しているリズムチャンネルがあれば、後
述するように、そのリズムチャンネルのリズムノートオ
フ処理を行うが、同じリズムのノートコードNCでも、
異なるMIDIチャンネルであれば、そのリズムチャン
ネルはリズムノートオフしてはならない。そこで、この
ことを検出できるようにするため、ステップSE7およ
び8において、各リズムチャンネル毎に、リズムのノー
トコードNCおよびMIDIチャンネル番号をレジスタ
RSTNC〔ACH〕およびRAMC〔ACH〕にそれ
ぞれ格納しているのである。そして、CPU1は、ステ
ップSE11へ進む。
On the other hand, when the result of the determination in step SE1 is "NO", that is, the content of the register EV does not correspond to the note-on event NON of the rhythm,
If it corresponds to the note-off event NOFF of the rhythm, the process proceeds to step SE10. Step SE
At 10, the information of each rhythm channel is searched. Here, if there is a rhythm channel that produces the same rhythm note code NC on the same MIDI channel, the rhythm note-off process of that rhythm channel is performed as described later, but even with the same rhythm note code NC,
If it is a different MIDI channel, that rhythm channel must not be rhythm note off. Therefore, in order to be able to detect this, in steps SE7 and SE8, the rhythm note code NC and the MIDI channel number are stored in the registers RSTNC [ACH] and RAMC [ACH] for each rhythm channel. Of. Then, the CPU 1 proceeds to step SE11.

【0053】ステップSE11では、対応するリズムチ
ャンネルがあるか否かを判断する。この判断結果が「N
O」の場合、すなわち、対応するリズムチャンネルの楽
音がもうリズム発音されていない場合、たとえば、リズ
ムトランケート処理によりリズム発音が強制終了させら
れた場合などには、なにもせず、図4のMIDI処理ル
ーチンを経て図3のメインルーチンへ戻り、ステップS
A3へ進む。
In step SE11, it is determined whether or not there is a corresponding rhythm channel. This judgment result is "N
In the case of “O”, that is, when the musical sound of the corresponding rhythm channel is no longer rhythmically pronounced, for example, when the rhythm pronunciation is forcibly terminated by the rhythm truncation processing, nothing is done and the MIDI of FIG. 4 is performed. After the processing routine, the process returns to the main routine of FIG.
Go to A3.

【0054】いっぽう、ステップSE11の判断結果が
「YES」の場合、すなわち、対応するリズムチャンネ
ルが現在リズム発音中である場合には、ステップSE1
2へ進む。ステップSE12では、サーチされたリズム
チャンネル番号をレジスタCHへ格納した後、ステップ
SE13へ進む。ステップSE13では、上述した各リ
ズムチャンネル毎の状態が記憶されるレジスタRST
〔CH〕にリリース波形発音状態であることを表す
「2」を格納した後、ステップSE14へ進む。ステッ
プSE14では、レジスタCHに格納されたリズムチャ
ンネルの番号に対応する楽音合成回路11のリズムチャ
ンネルに対してノートオフ情報を出力した後、図4のM
IDI処理ルーチンを経て図3のメインルーチンへ戻
り、ステップSA3へ進む。
On the other hand, if the determination result of step SE11 is "YES", that is, if the corresponding rhythm channel is currently producing a rhythm, step SE1 is performed.
Go to 2. In step SE12, the searched rhythm channel number is stored in the register CH, and then the process proceeds to step SE13. At step SE13, the register RST for storing the above-mentioned state of each rhythm channel is stored.
After "2" indicating that the release waveform is being sounded is stored in [CH], the process proceeds to step SE14. In step SE14, note-off information is output to the rhythm channel of the tone synthesis circuit 11 corresponding to the rhythm channel number stored in the register CH, and then M in FIG.
After the IDI processing routine, the process returns to the main routine of FIG. 3 and proceeds to step SA3.

【0055】次に、この発明の特徴であるCPU1のリ
ズムトランケート処理について図8のフローチャートに
基づいて説明する。CPU1の処理が図7のステップS
E4へ進むと、図8に示すリズムトランケート処理ルー
チンが起動される。CPU1は、まず、ステップSF1
の処理へ進み、リズムチャンネルの中で楽音合成回路1
1から供給されるエンベロープレベルENVが最も小さ
いリズムチャンネル、すなわち、最も減衰が進んでいる
リズムチャンネルの番号をトランケート候補としてレジ
スタTCHに格納する。
Next, the rhythm truncate processing of the CPU 1, which is a feature of the present invention, will be described with reference to the flowchart of FIG. The processing of the CPU 1 is step S in FIG.
When proceeding to E4, the rhythm truncate processing routine shown in FIG. 8 is started. First, the CPU 1 executes step SF1.
The process proceeds to the process of No. 1 and the tone synthesis circuit 1 in the rhythm channel.
The number of the rhythm channel having the lowest envelope level ENV supplied from 1, that is, the number of the most attenuated rhythm channel is stored in the register TCH as a truncation candidate.

【0056】ただし、「発明が解決しようとする課題」
のところで説明したように、打楽器音には、ハイハット
やホイッスルなどのように、キーオンとキーオフとがあ
るイベント駆動型の音色と、ドラムなどのように、キー
オンしかないトリガ駆動型の音色とがあるので、これら
の音色のエンベロープレベルENVを一様に比較してし
まうと、すでに述べたような不都合が生じてしまう。
However, "problems to be solved by the invention"
As described above, percussion instrument sounds include event-driven sounds that have key-on and key-off, such as hi-hats and whistles, and trigger-driven sounds that have only key-on, such as drums. Therefore, if the envelope levels ENV of these timbres are compared uniformly, the inconvenience as described above will occur.

【0057】そこで、イベント駆動型の音色とトリガ駆
動型の音色とを区別するために、フラグEDを設け、イ
ベント駆動型の音色である場合には、フラグEDを1に
セットしておき、このステップSF1において、フラグ
EDが1にセットされている場合には、エンベロープレ
ベルENVに、図12(a)に示すように、オフセット
OFTを加えた後、トリガ駆動型の音色のエンベロープ
レベルENVと比較して評価することにする。これによ
り、イベント駆動型の音色がトランケートされにくくな
り、キーオフが処理されるので、自然であり、イベント
駆動型の打楽器音の音色を正確に発生させることができ
る。そして、CPU1は、ステップSF2へ進む。
Therefore, in order to distinguish the event-driven tone color from the trigger-driven tone color, a flag ED is provided, and in the case of the event-driven tone color, the flag ED is set to 1. In step SF1, when the flag ED is set to 1, after the offset OFT is added to the envelope level ENV as shown in FIG. 12 (a), it is compared with the envelope level ENV of the trigger-driven tone color. I will evaluate it. As a result, the event-driven timbre is less likely to be truncated, and the key-off is processed, so that the timbre of the event-driven percussion instrument sound can be accurately generated. Then, the CPU 1 proceeds to step SF2.

【0058】ステップSF2では、レジスタTCHに格
納されたリズムチャンネルの番号に対応する楽音合成回
路11のリズムチャンネルに対してダンプ要求信号を送
出する。これにより、楽音合成回路11のリズムチャン
ネルは、ダンプ要求信号に応じて所定の速度でエンベロ
ープをダンプする。そして、CPU1は、ステップSF
3へ進む。ステップSF3では、レジスタTCHの値を
レジスタACHに格納した後、図7のリズムノートイベ
ント処理ルーチンへ戻り、ステップEC6へ進む。
At step SF2, a dump request signal is sent to the rhythm channel of the musical sound synthesizing circuit 11 corresponding to the rhythm channel number stored in the register TCH. As a result, the rhythm channel of the tone synthesis circuit 11 dumps the envelope at a predetermined speed in response to the dump request signal. Then, the CPU 1 executes step SF
Go to 3. In step SF3, the value of the register TCH is stored in the register ACH, then the process returns to the rhythm note event processing routine of FIG. 7, and proceeds to step EC6.

【0059】次に、CPU1の鍵処理について図9のフ
ローチャートに基づいて説明する。CPU1の処理が図
3のステップSA4へ進むと、図9に示す鍵処理ルーチ
ンが起動される。CPU1は、まず、ステップSG1の
処理へ進み、鍵盤4をスキャンして鍵盤4の押離鍵状態
を検出した後、ステップSG2へ進む。ステップSG2
では、ステップSG1の鍵スキャン処理において検出さ
れた鍵盤4の押離鍵状態から鍵イベントの有無を判断す
る。この判断結果が「NO」の場合、すなわち、鍵イベ
ントが検出されない場合には、何もせず、図3のメイン
ルーチンへ戻り、ステップSA5へ進む。
Next, the key processing of the CPU 1 will be described with reference to the flowchart of FIG. When the processing of the CPU 1 proceeds to step SA4 of FIG. 3, the key processing routine shown in FIG. 9 is started. First, the CPU 1 proceeds to the processing of step SG1, scans the keyboard 4 to detect the pressed / released state of the keyboard 4, and then proceeds to step SG2. Step SG2
Then, the presence / absence of a key event is determined from the key release state of the keyboard 4 detected in the key scanning process of step SG1. When the result of this determination is "NO", that is, when no key event is detected, nothing is done, the process returns to the main routine of FIG. 3, and proceeds to step SA5.

【0060】いっぽう、ステップSG2の判断結果が
「YES」の場合、すなわち、鍵イベントが検出された
場合には、ステップSG3へ進む。ステップSG3で
は、あらかじめ設定されているモードMODEに応じて
対応するMIDIチャンネルの情報として該当するイベ
ントをRAM3のMIDIバッファにアドレス/データ
・バス6を介して格納した後、ステップSG4へ進む。
On the other hand, if the result of the decision made at step SG2 is "YES", that is, if a key event is detected, then the processing advances to step SG3. In step SG3, a corresponding event is stored in the MIDI buffer of the RAM 3 via the address / data bus 6 as the information of the MIDI channel corresponding to the preset mode MODE, and then the process proceeds to step SG4.

【0061】ここで、モードMODEについて説明す
る。 モードMODE=0:通常発音モード 鍵盤4の全てのイベントをチャンネル番号0のMIDI
チャンネルの情報としてRAM3のMIDIバッファに
アドレス/データ・バス6を介して格納する。 モードMODE=1:スプリットモード 鍵盤4のある点(KSP:キースプリットポイント)よ
り上の鍵域のイベントは、チャンネル番号0のMIDI
チャンネルの情報とし、キースプリットポイントKSP
より下の鍵域のイベントは、チャンネル番号1のMID
Iチャンネルの情報としてRAM3のMIDIバッファ
にアドレス/データ・バス6を介して格納する。これに
より、鍵域に応じて各MIDIチャンネルに割当てられ
た音色が発音される。なお、キースプリットポイントK
SPは、固定でも、演奏者によって設定可能でもよい。
Here, the mode MODE will be described. Mode MODE = 0: Normal sound generation mode All events on keyboard 4 are MIDI with channel number 0
The channel information is stored in the MIDI buffer of the RAM 3 via the address / data bus 6. Mode MODE = 1: Split mode Events in the key range above a certain point on the keyboard 4 (KSP: key split point) are MIDI of channel number 0.
Key split point KSP as channel information
Events in the lower key range are channel number 1 MIDs
The information of the I channel is stored in the MIDI buffer of the RAM 3 via the address / data bus 6. As a result, the tone color assigned to each MIDI channel according to the key range is sounded. The key split point K
The SP may be fixed or may be set by the performer.

【0062】モードMODE=2:自動伴奏モード 鍵盤4のある点(ASP:自動伴奏スプリットポイン
ト)より上の鍵域は、通常の押鍵域とし、そのイベント
は、チャンネル番号0のMIDIチャンネルの情報とし
てRAM3のMIDIバッファにアドレス/データ・バ
ス6を介して格納する。また、自動伴奏スプリットポイ
ントASPより下の鍵域は、自動伴奏用の調検出領域と
して用い、その音は発音しない、すなわち、MIDIイ
ベントとしてRAM3のMIDIバッファにアドレス/
データ・バス6を介して格納せず、検出された情報は、
コードの根音(ルート)ROOTとタイプTYPEの形
で、たとえば、演奏者が「ドミソ」と押鍵していれば、
後述するステップSG5の処理において、ルートROO
Tとして「ド」が、タイプTYPEとして「メジャー」
がRAM3に格納され、後述する自動処理で利用され
る。なお、自動伴奏スプリットポイントASPは、キー
スプリットポイントKSPと同じにしてもよい。
Mode MODE = 2: Automatic accompaniment mode The key range above a certain point on the keyboard 4 (ASP: automatic accompaniment split point) is the normal key press range, and the event is the MIDI channel information of channel number 0. Is stored in the MIDI buffer of the RAM 3 via the address / data bus 6. The key range below the automatic accompaniment split point ASP is used as a key detection area for automatic accompaniment, and the note is not sounded, that is, as a MIDI event, it is addressed to the MIDI buffer of the RAM 3 as
The information detected without being stored via the data bus 6 is
In the form of chord root (root) and type TYPE, for example, if the performer is pressing "domiso",
In the process of step SG5 described later, the root ROO
"Do" as T, "Major" as type TYPE
Is stored in the RAM 3 and is used in automatic processing described later. The automatic accompaniment split point ASP may be the same as the key split point KSP.

【0063】ステップSG4では、モードMODEが
「2」であるか否かを判断する。この判断結果が「N
O」の場合には、何もせず、図3のメインルーチンへ戻
り、ステップSA5へ進む。いっぽう、ステップSG4
の判断結果が「YES」の場合、すなわち、モードMO
DEが「2」である場合には、ステップSG5へ進む。
ステップSG5では、鍵盤4の下鍵域で押鍵されている
キーのノートナンバの組み合わせからコードのルートR
OOTとタイプTYPEとを図示せぬテーブルを参照し
て決定し、RAM3に格納した後、図3のメインルーチ
ンへ戻り、ステップSA5へ進む。
In step SG4, it is determined whether or not the mode MODE is "2". This judgment result is "N
If "O", nothing is done and the process returns to the main routine of FIG. 3 and proceeds to step SA5. On the other hand, step SG4
If the result of the determination is “YES”, that is, the mode MO
If DE is "2", the process proceeds to step SG5.
In step SG5, the chord root R is calculated from the combination of the note numbers of the keys pressed in the lower key range of the keyboard 4.
After determining the OOT and the type TYPE by referring to a table (not shown) and storing them in the RAM 3, the process returns to the main routine of FIG. 3 and proceeds to step SA5.

【0064】次に、CPU1の自動処理について図10
のフローチャートに基づいて説明する。CPU1の処理
が図3のステップSA5へ進むと、図10に示す自動処
理ルーチンが起動される。CPU1は、まず、ステップ
SH1の処理へ進み、モードMODEが「2」であるか
否かを判断する。この判断結果が「YES」の場合に
は、ステップSH2へ進む。
Next, the automatic processing of the CPU 1 is shown in FIG.
It will be described based on the flowchart of FIG. When the processing of the CPU 1 proceeds to step SA5 of FIG. 3, the automatic processing routine shown in FIG. 10 is started. First, the CPU 1 proceeds to the processing of step SH1 and determines whether or not the mode MODE is “2”. If the result of this determination is "YES", then the operation proceeds to step SH2.

【0065】ステップSH2では、ROM2やRAM3
等の自動伴奏データエリアにあらかじめ7thの形で記
憶された自動伴奏データを、演奏者によって設定された
スタイルSTYLEおよびテンポTEMPO並びに上述
した鍵処理によって検出されてRAM3に格納されたタ
イプTYPEおよびルートROOTに応じて読み出し、
タイプTYPEに応じてメジャーやマイナー等に変更
し、ルートROOTによってシフトする。以上説明した
処理を、図2に示すチャンネル番号25〜31のMID
Iチャンネル、すなわち、自動伴奏コードトラック1〜
6および自動伴奏ベーストラックについて行い、それら
のMIDIチャンネルの情報として各イベントをRAM
3のMIDIデータバッファに順次格納した後、ステッ
プSH3へ進む。いっぽう、ステップSH1の判断結果
が「NO」の場合、すなわち、モードMODEが「2」
でない場合にも、ステップSH3へ進む。
In step SH2, ROM2 and RAM3
The automatic accompaniment data stored in advance in the automatic accompaniment data area such as 7th form is stored in the RAM 3 by detecting the style STYLE and tempo TEMPO set by the performer and the type TYPE and the root ROOT stored in the RAM 3. Read according to
Change to major, minor, etc. according to type TYPE, and shift by root ROOT. The processing described above is performed by the MID of channel numbers 25 to 31 shown in FIG.
I channel, that is, automatic accompaniment chord tracks 1 to
6 and automatic accompaniment bass track, and each event is stored in RAM as MIDI channel information.
After sequentially storing the data in the MIDI data buffer No. 3, the process proceeds to step SH3. On the other hand, when the determination result of step SH1 is "NO", that is, the mode MODE is "2".
If not, the process proceeds to step SH3.

【0066】ステップSH3では、演奏者が自動リズム
演奏を選択した場合に1にセットされる自動リズムフラ
グRHYTHMが1にセットされているか否かを判断す
る。この判断結果が「NO」の場合には、何もせず、図
3のメインルーチンへ戻り、ステップSA6へ進む。い
っぽう、ステップSH3の判断結果が「YES」の場
合、すなわち、自動リズムフラグRHYTHMが1にセ
ットされている場合には、ステップSH4へ進む。ステ
ップSH4では、ROM2やRAM3等の自動リズムデ
ータエリアにあらかじめ記憶された自動リズムデータを
演奏者によって設定されたスタイルSTYLEおよびテ
ンポTEMPOに応じて読み出す処理を、図2に示すチ
ャンネル番号32〜39のMIDIチャンネル、すなわ
ち、自動伴奏リズムトラックについて行い、それらのM
IDIチャンネルの情報として各イベントをRAM3の
MIDIデータバッファに順次格納した後、図3のメイ
ンルーチンへ戻り、ステップSA6へ進む。
In step SH3, it is determined whether or not the automatic rhythm flag RHYTHM, which is set to 1 when the performer selects the automatic rhythm performance, is set to 1. If the result of this determination is "NO", nothing is done and the process returns to the main routine of FIG. 3 and proceeds to step SA6. On the other hand, if the determination result of step SH3 is "YES", that is, if the automatic rhythm flag RHYTHM is set to 1, the process proceeds to step SH4. In step SH4, a process of reading out the automatic rhythm data stored in advance in the automatic rhythm data area of the ROM 2 or the RAM 3 in accordance with the style STYLE and the tempo TEMPO set by the performer is performed for channel numbers 32 to 39 shown in FIG. MIDI channel, that is, automatic accompaniment rhythm track
After each event is sequentially stored in the MIDI data buffer of the RAM 3 as the information of the IDI channel, the process returns to the main routine of FIG. 3 and proceeds to step SA6.

【0067】次に、CPU1の発音チャンネル処理につ
いて図11のフローチャートに基づいて説明する。CP
U1の処理が図3のステップSA6へ進むと、図11に
示す発音チャンネル処理ルーチンが起動される。CPU
1は、まず、ステップSI1の処理へ進み、全発音チャ
ンネルの状態を検索するため、レジスタCHの値を
「0」に設定した後、ステップSI2へ進む。
Next, the tone generation channel processing of the CPU 1 will be described with reference to the flowchart of FIG. CP
When the processing of U1 proceeds to step SA6 of FIG. 3, the tone generation channel processing routine shown in FIG. 11 is started. CPU
For No. 1, first, the process proceeds to step SI1 to set the value of the register CH to "0" in order to search the states of all tone generation channels, and then proceeds to step SI2.

【0068】ステップSI2では、各発音チャンネル毎
のエンベロープレベルが記憶されるレジスタENV〔C
H〕に楽音合成回路11から供給される各発音チャンネ
ルのエンベロープレベルを格納した後、ステップSI3
へ進む。ステップSI3では、各発音チャンネル毎の状
態を表すレジスタST〔CH〕が「2」、すなわち、離
鍵されているが発音状態であるか否かを判断する。この
判断結果が「YES」の場合には、ステップSI4へ進
み、いっぽう、ステップSI3の判断結果が「NO」の
場合、すなわち、空き発音チャンネルである場合には、
当該チャンネルが発音待機状態にあるから、後述するス
テップSI7へ進む。
At step SI2, the register ENV [C which stores the envelope level for each tone generation channel is used.
H] stores the envelope level of each tone generation channel supplied from the tone synthesis circuit 11, and then step SI3
Go to. In step SI3, it is determined whether or not the register ST [CH] representing the state of each tone generation channel is "2", that is, whether the key is released but is in the tone generation state. If the determination result is "YES", the process proceeds to step SI4. On the other hand, if the determination result in step SI3 is "NO", that is, if the channel is an empty tone generation channel,
Since the channel is in the tone generation standby state, the process proceeds to step SI7 described later.

【0069】ステップSI4では、レジスタENV〔C
H〕に格納された、レジスタCHに設定された発音チャ
ンネルの番号に対応した楽音合成回路11の発音チャン
ネルのエンベロープレベルが各音色毎にあらかじめ設定
されたスレッショルドTH(たとえば、0にかなり近い
値)より小さいか否かを判断する。この判断結果が「Y
ES」の場合には、ステップSI5へ進み、いっぽう、
ステップSI4の判断結果が「NO」の場合、すなわ
ち、レジスタENV〔CH〕に格納されたエンベロープ
レベルがスレッショルドTH以上である場合には、後述
するステップSI7へ進む。
At step SI4, the register ENV [C
H], the envelope level of the tone generation channel of the tone synthesis circuit 11 corresponding to the tone generation channel number set in the register CH is preset to a threshold TH (for example, a value very close to 0) for each tone color. Determine if less than. This judgment result is "Y
In the case of "ES", proceed to step SI5, on the other hand,
If the determination result in step SI4 is "NO", that is, if the envelope level stored in the register ENV [CH] is equal to or higher than the threshold TH, the process proceeds to step SI7 described later.

【0070】ステップSI5では、発音チャンネルCH
は減衰しきっているため、レジスタST〔CH〕の値を
「0」に設定して発音待機状態であることを示した後、
ステップSI6へ進む。ステップSI6では、各発音チ
ャンネル毎に設けられ、ノートオンされる度に1インク
リメントされるノートオンカウンタNONC〔CH〕の
値を0にリセットした後、ステップSI7へ進む。
In step SI5, the tone generation channel CH
Is completely attenuated, so after setting the value of the register ST [CH] to "0" to indicate that the tone generation is in standby,
Go to step SI6. In step SI6, the value of the note-on counter NONC [CH], which is provided for each tone generation channel and is incremented by 1 each time a note-on is performed, is reset to 0, and then the process proceeds to step SI7.

【0071】ステップSI7では、次の発音チャンネル
を検索するために、レジスタCHの値を1インクリメン
トした後、ステップSI7へ進む。ステップSI8で
は、このインクリメントされたレジスタCHの値が32
であるか否か、すなわち、通常音のMIDIチャンネル
に対応した発音チャンネルすべてについて上述したステ
ップSI3〜SI6の処理が終了したか否かを判断す
る。この判断結果が「NO」の場合には、ステップSI
2へ戻り、上述した処理を通常音のMIDIチャンネル
に対応した発音チャンネルすべてについて繰返す。
In step SI7, the value of the register CH is incremented by 1 in order to search for the next tone generation channel, and then the process proceeds to step SI7. In step SI8, the value of the incremented register CH is 32.
Or not, that is, whether or not the processing of steps SI3 to SI6 has been completed for all sound generation channels corresponding to the normal sound MIDI channel. If the result of this determination is "NO", then step SI
Returning to step 2, the above-described processing is repeated for all sound generation channels corresponding to the normal sound MIDI channel.

【0072】いっぽう、ステップSI8の判断結果が
「YES」の場合には、ステップSI9へ進む。ステッ
プSI9では、レジスタENV〔CH〕に各リズムチャ
ンネルのエンベロープレベルを格納した後、ステップS
I10へ進む。ステップSI10では、各リズムチャン
ネル毎の状態を表すレジスタRST〔CH〕が「0」で
ない、すなわち、空きリズムチャンネルでない否かを判
断する。この判断を行うのは、トリガ駆動型の音色の場
合、キーオフがないので、レジスタRST〔CH〕が
「0」か「1」にしかならないからである。ステップS
I10の判断結果が「YES」の場合には、ステップS
I11へ進み、いっぽう、ステップSI10の判断結果
が「NO」の場合、すなわち、空きリズムチャンネルで
ある場合には、当該リズムチャンネルがリズム発音待機
状態にあるから、後述するステップSI13へ進む。
On the other hand, if the result of the determination in step SI8 is "YES", then the operation proceeds to step SI9. In step SI9, the envelope level of each rhythm channel is stored in the register ENV [CH], and then step S9.
Go to I10. In step SI10, it is determined whether or not the register RST [CH] representing the state of each rhythm channel is not "0", that is, it is not an empty rhythm channel. This determination is made because, in the case of a trigger-driven tone color, there is no key-off, and therefore the register RST [CH] is only "0" or "1". Step S
If the determination result of I10 is "YES", step S
On the other hand, if the determination result of step SI10 is "NO", that is, if the rhythm channel is an empty rhythm channel, the rhythm channel is in the rhythm sound generation standby state, and the process proceeds to step SI13 described later.

【0073】ステップSI11では、レジスタENV
〔CH〕に格納された、レジスタCHに設定されたリズ
ムチャンネルの番号に対応する楽音合成回路11のリズ
ムチャンネルのエンベロープレベルが各音色毎にあらか
じめ設定されたスレッショルドTH(たとえば、0にか
なり近い値)より小さく、かつ、フラグEDが0にリセ
ットされている(トリガ駆動型の音色である)か否かを
判断する。この判断結果が「YES」の場合には、ステ
ップSI12へ進み、いっぽう、ステップSI11の判
断結果が「NO」の場合、すなわち、レジスタENV
〔CH〕に格納されたエンベロープレベルがスレッショ
ルドTH以上であるか、または、フラグEDが1にセッ
トされている(イベント駆動型の音色である)場合に
は、後述するステップSI13へ進む。
At step SI11, the register ENV
The envelope level of the rhythm channel of the tone synthesis circuit 11 corresponding to the rhythm channel number set in the register CH, which is stored in [CH], has a preset threshold TH (for example, a value very close to 0) for each tone color. ) Is smaller and the flag ED is reset to 0 (trigger-driven tone color). If the result of this determination is "YES", the flow proceeds to step SI12, while if the result of determination in step SI11 is "NO", that is, register ENV.
If the envelope level stored in [CH] is equal to or higher than the threshold TH or the flag ED is set to 1 (event-driven tone color), the process proceeds to step SI13 described later.

【0074】ステップSI12では、リズムチャンネル
CHは減衰しきっているため、レジスタRST〔CH〕
の値を「0」に設定してリズム発音待機状態であること
を示した後、ステップSI13へ進む。ステップSI1
3では、次のリズムチャンネルを検索するために、レジ
スタCHの値を1インクリメントした後、ステップSI
14へ進む。
At step SI12, since the rhythm channel CH is completely attenuated, the register RST [CH]
Is set to "0" to indicate that it is in the rhythm sound generation standby state, and the process proceeds to step SI13. Step SI1
In step 3, in order to search for the next rhythm channel, the value of the register CH is incremented by 1 and then step SI
Proceed to 14.

【0075】ステップSI14では、このインクリメン
トされたレジスタCHの値が40であるか否か、すなわ
ち、リズム音のMIDIチャンネルに対応したリズムチ
ャンネルすべてについて上述したステップSI9〜SI
13の処理が終了したか否かを判断する。この判断結果
が「NO」の場合には、ステップSI9へ戻り、上述し
た処理をリズム音のMIDIチャンネルに対応したリズ
ムチャンネルすべてについて繰返す。いっぽう、ステッ
プSI14の判断結果が「YES」の場合、すなわち、
レジスタCHの値が40である場合には、図3のメイン
ルーチンへ戻り、ステップSA7へ進む。
In step SI14, it is determined whether or not the value of the incremented register CH is 40, that is, steps SI9 to SI described above for all the rhythm channels corresponding to the MIDI channel of the rhythm sound.
It is determined whether or not the process of 13 is completed. If the result of this determination is "NO", the flow returns to step SI9, and the above-described processing is repeated for all rhythm channels corresponding to the MIDI channel of the rhythm sound. On the other hand, if the result of the determination in step SI14 is "YES", that is,
When the value of the register CH is 40, the process returns to the main routine of FIG. 3 and proceeds to step SA7.

【0076】なお、上述した一実施例においては、リズ
ム音についてのみこの発明に関するトランケート処理を
行うようにして、通常音の発音チャンネルとリズム音の
リズムチャンネルとを完全に独立した発音チャンネルと
した例を示したが、浮動的にアサインできるようにして
もよい。その際には、リズム音と同様に通常音にもこの
発明に関するトランケート処理を行うようにして、ノー
トイベント処理とトランケート処理の大部分を共用する
ことができる。また、上述した一実施例においては、通
常鍵域のトランケート時に、キーオン中の発音チャンネ
ルのうち、最も古くキーオンされた発音チャンネルをト
ランケートする例を示したが、これに限定されず、たと
えば、キーオフ中の発音チャンネルのうち、最も古くキ
ーオフされた発音チャンネルをトランケートするように
してもよい。
In the above-described embodiment, the truncation processing according to the present invention is performed only on the rhythm sound, so that the sound channel of the normal sound and the rhythm channel of the rhythm sound are completely independent sound channels. However, it may be assigned in a floating manner. At this time, the note event processing and the truncate processing can be shared in most cases by performing the truncate processing relating to the present invention on the normal sound as well as the rhythm sound. Further, in the above-described embodiment, an example in which the oldest keyed-on tone generation channel among the tone generation channels being keyed on is truncated when the normal key range is truncated is shown, but the present invention is not limited to this, and for example, key off The oldest keyed-off tone generation channel among the middle tone generation channels may be truncated.

【0077】さらに、上述した一実施例においては、リ
ズムトランケート処理において、イベント駆動型のリズ
ム音のエンベロープレベルにオフセットOFTを加え
て、トリガ駆動型のリズム音のエンベロープレベルと比
較したので、イベント駆動型のリズム音がトランケート
されてしまう虞もあるが、トリガ駆動型のリズム音があ
る場合、イベント駆動型のリズム音がトランケートされ
ないようにしてもよい。尤も、イベント駆動型のリズム
音しかない場合には、当然、それらのうちのいずれかを
トランケートする必要がある。
Further, in the above-described embodiment, in the rhythm truncate processing, the offset OFT is added to the envelope level of the event-driven rhythm sound to compare with the envelope level of the trigger-driven rhythm sound. Although there is a possibility that the pattern-type rhythm sound is truncated, if there is a trigger-driven rhythm sound, the event-driven rhythm sound may not be truncated. However, if there are only event-driven rhythm sounds, it is naturally necessary to truncate any of them.

【0078】ところで、自然楽器のドラムの奏法には、
ドラムヘッドを叩いた後、手でドラムヘッドを抑えてミ
ュートする奏法があるが、その奏法をシミュレートする
と、その楽音信号は、イベント駆動型のリズム音と同様
なエンベロープとなる。したがって、上述した一実施例
によれば、そのような楽音信号が発生された場合でも、
リズムトランケート処理において、イベント駆動型のリ
ズム音と同様、トランケートされにくくなる。
By the way, the playing method of the drum of the natural musical instrument is as follows.
There is a rendition style in which the drumhead is pressed by hand and muted after hitting the drumhead. When the rendition style is simulated, the musical tone signal becomes an envelope similar to an event-driven rhythm sound. Therefore, according to the above-described embodiment, even when such a tone signal is generated,
In the rhythm truncation process, it becomes difficult to be truncated as in the event-driven rhythm sound.

【0079】[0079]

【発明の効果】以上説明したように、この発明によれ
ば、イベント駆動型の楽音の音色を正確に発生でき、発
音割当処理を正確に行うことができるという効果があ
る。
As described above, according to the present invention, the tone color of the event-driven tone can be accurately generated, and the tone-assignment processing can be accurately performed.

【図面の簡単な説明】[Brief description of drawings]

【図1】 この発明の一実施例による電子楽器の構成を
示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an electronic musical instrument according to an embodiment of the present invention.

【図2】 MIDIチャンネルのそれぞれの機能の一例
を示す図である。
FIG. 2 is a diagram showing an example of respective functions of a MIDI channel.

【図3】 この発明の一実施例におけるCPU1のメイ
ンルーチンの動作を示すフローチャートである。
FIG. 3 is a flowchart showing an operation of a main routine of CPU 1 in the embodiment of the present invention.

【図4】 この発明の一実施例におけるCPU1のMI
DI処理ルーチンの動作を示すフローチャートである。
FIG. 4 is an MI of the CPU 1 according to the embodiment of the present invention.
It is a flowchart which shows operation | movement of DI processing routine.

【図5】 この発明の一実施例におけるCPU1のノー
トイベント処理ルーチンの動作を示すフローチャートで
ある。
FIG. 5 is a flowchart showing an operation of a note event processing routine of the CPU 1 in the embodiment of the present invention.

【図6】 この発明の一実施例におけるCPU1のトラ
ンケート処理ルーチンの動作を示すフローチャートであ
る。
FIG. 6 is a flowchart showing an operation of a truncate processing routine of CPU 1 in an embodiment of the present invention.

【図7】 この発明の一実施例におけるCPU1のリズ
ムイベント処理ルーチンの動作を示すフローチャートで
ある。
FIG. 7 is a flow chart showing an operation of a rhythm event processing routine of the CPU 1 in the embodiment of the present invention.

【図8】 この発明の一実施例におけるCPU1のリズ
ムトランケート処理ルーチンの動作を示すフローチャー
トである。
FIG. 8 is a flow chart showing an operation of a rhythm truncate processing routine of the CPU 1 in the embodiment of the present invention.

【図9】 この発明の一実施例におけるCPU1の鍵処
理ルーチンの動作を示すフローチャートである。
FIG. 9 is a flowchart showing an operation of a key processing routine of the CPU 1 in the embodiment of the present invention.

【図10】 この発明の一実施例におけるCPU1の自
動処理ルーチンの動作を示すフローチャートである。
FIG. 10 is a flowchart showing an operation of an automatic processing routine of CPU 1 in the embodiment of the present invention.

【図11】 この発明の一実施例におけるCPU1の発
音チャンネル処理ルーチンの動作を示すフローチャート
である。
FIG. 11 is a flowchart showing an operation of a tone generation channel processing routine of the CPU 1 in the embodiment of the present invention.

【図12】 従来の技術の不都合点を説明するための図
である。
FIG. 12 is a diagram for explaining inconveniences of the conventional technique.

【符号の説明】[Explanation of symbols]

1……CPU、2……ROM、3……RAM、4……鍵
盤、5……鍵盤インターフェイス、6……アドレス/デ
ータ・バス、7……操作パネル、8……操作パネルイン
ターフェイス、9……MIDIインターフェイス、10
……MIDI・バス、11……楽音合成回路、12……
サウンドシステム、13……スピーカ。
1 ... CPU, 2 ... ROM, 3 ... RAM, 4 ... keyboard, 5 ... keyboard interface, 6 ... address / data bus, 7 ... operation panel, 8 ... operation panel interface, 9 ... … MIDI interface, 10
...... MIDI / bus, 11 ... Music synthesis circuit, 12 ...
Sound system, 13 ... Speaker.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 鍵操作情報を発生する鍵操作情報発生手
段と、 複数の楽音信号発生用の発音チャンネルを有し、各発音
チャンネル毎に、少なくとも、イベント駆動型の楽音の
楽音信号と、トリガ駆動型の楽音の楽音信号とをそれぞ
れ出力する楽音発生手段と、 前記複数の発音チャンネルが全て発音中であるか否かを
検出する発音チャンネル検出手段と、 該発音チャンネル検出手段の検出結果に基づいて、前記
複数の発音チャンネルのいずれかにおいて発音中のトリ
ガ駆動型の楽音の楽音信号を優先的にトランケートする
トランケート手段と、 該トランケート手段のトランケート結果および前記鍵操
作情報発生手段から出力される新たな鍵操作情報に基づ
いて、新たな楽音の発生を前記楽音発生手段の前記複数
の発音チャンネルのいずれかに割当てる割当手段とを具
備することを特徴とする電子楽器。
1. A key operation information generating means for generating key operation information, and a plurality of tone generation channels for tone signal generation, wherein at least tone signal of an event-driven tone and a trigger are provided for each tone generation channel. A musical tone generating means for respectively outputting a musical tone signal of a driving type musical tone, a sounding channel detecting means for detecting whether or not all of the plurality of sounding channels are sounding, and a sounding channel detecting means based on the detection result of the sounding channel detecting means. A truncating means for preferentially truncating a musical tone signal of a trigger-driven musical tone being sounded in any of the plurality of sounding channels, a truncate result of the truncate means, and a new output from the key operation information generating means. The generation of a new musical sound to any one of the plurality of sound generation channels of the musical sound generating means based on the key operation information. Electronic musical instrument characterized by comprising a assigning means for applying.
JP4064214A 1992-03-19 1992-03-19 Electronic musical instrument Expired - Fee Related JP2943492B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4064214A JP2943492B2 (en) 1992-03-19 1992-03-19 Electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4064214A JP2943492B2 (en) 1992-03-19 1992-03-19 Electronic musical instrument

Publications (2)

Publication Number Publication Date
JPH05265457A true JPH05265457A (en) 1993-10-15
JP2943492B2 JP2943492B2 (en) 1999-08-30

Family

ID=13251618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4064214A Expired - Fee Related JP2943492B2 (en) 1992-03-19 1992-03-19 Electronic musical instrument

Country Status (1)

Country Link
JP (1) JP2943492B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55140893A (en) * 1979-04-21 1980-11-04 Kawai Musical Instr Mfg Co System for allocating keyboard switch information
JPS57136698A (en) * 1981-02-19 1982-08-23 Nippon Musical Instruments Mfg Electronic musical instrument
JPS6189898U (en) * 1984-11-16 1986-06-11
JPS6290697A (en) * 1985-10-17 1987-04-25 ヤマハ株式会社 Keying allotter for electronic musical apparatus
JPS6365496A (en) * 1986-09-06 1988-03-24 株式会社河合楽器製作所 Key assigner system
JPS6427437A (en) * 1987-07-21 1989-01-30 Sadami Ito Food material
JPH02216196A (en) * 1989-02-17 1990-08-29 Matsushita Electric Ind Co Ltd Output channel determining device for electronic musical instrument
JPH04362997A (en) * 1990-08-06 1992-12-15 Roland Corp Assigner of electronic musical instrument
JPH056179A (en) * 1991-06-27 1993-01-14 Kawai Musical Instr Mfg Co Ltd Musical note channel allocating device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2687810B2 (en) 1992-03-19 1997-12-08 ヤマハ株式会社 Electronic musical instrument

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55140893A (en) * 1979-04-21 1980-11-04 Kawai Musical Instr Mfg Co System for allocating keyboard switch information
JPS57136698A (en) * 1981-02-19 1982-08-23 Nippon Musical Instruments Mfg Electronic musical instrument
JPS6189898U (en) * 1984-11-16 1986-06-11
JPS6290697A (en) * 1985-10-17 1987-04-25 ヤマハ株式会社 Keying allotter for electronic musical apparatus
JPS6365496A (en) * 1986-09-06 1988-03-24 株式会社河合楽器製作所 Key assigner system
JPS6427437A (en) * 1987-07-21 1989-01-30 Sadami Ito Food material
JPH02216196A (en) * 1989-02-17 1990-08-29 Matsushita Electric Ind Co Ltd Output channel determining device for electronic musical instrument
JPH04362997A (en) * 1990-08-06 1992-12-15 Roland Corp Assigner of electronic musical instrument
JPH056179A (en) * 1991-06-27 1993-01-14 Kawai Musical Instr Mfg Co Ltd Musical note channel allocating device

Also Published As

Publication number Publication date
JP2943492B2 (en) 1999-08-30

Similar Documents

Publication Publication Date Title
KR100306032B1 (en) Sound generating device
JP3177374B2 (en) Automatic accompaniment information generator
US6066795A (en) Techniques of using computer keyboard as musical instrument keyboard
JP2705395B2 (en) Electronic musical instrument
US7790977B2 (en) Component tone synthetic apparatus and method a computer program for synthesizing component tone
JP2541063B2 (en) Electronic musical instrument
JP2687810B2 (en) Electronic musical instrument
JP3223756B2 (en) Music systems and electronic musical instruments
JP2629891B2 (en) Music signal generator
JP2943492B2 (en) Electronic musical instrument
JP3567293B2 (en) Pronunciation channel assignment device
JP2698942B2 (en) Tone generator
US6313388B1 (en) Device for adding fluctuation and method for adding fluctuation to an electronic sound apparatus
JPH0638192B2 (en) Musical sound generator
JP3667387B2 (en) Electronic musical instruments
JP2701177B2 (en) Tone generator
JP3554770B2 (en) Tone generator
JP2738217B2 (en) Electronic musical instrument
JPH05204297A (en) Syllable name generator
JP2953217B2 (en) Electronic musical instrument
JP2694788B2 (en) Electronic musical instrument
JP3493856B2 (en) Performance information converter
JP2555060Y2 (en) Electronic musical instrument
JP2001051681A (en) Automatic accompaniment information generator
JP3386826B2 (en) Electronic musical instrument

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990525

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080625

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090625

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100625

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100625

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110625

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees