JPH03120592A - Musical sound signal generator - Google Patents

Musical sound signal generator

Info

Publication number
JPH03120592A
JPH03120592A JP1259415A JP25941589A JPH03120592A JP H03120592 A JPH03120592 A JP H03120592A JP 1259415 A JP1259415 A JP 1259415A JP 25941589 A JP25941589 A JP 25941589A JP H03120592 A JPH03120592 A JP H03120592A
Authority
JP
Japan
Prior art keywords
sound source
voice
data
sound
edit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1259415A
Other languages
Japanese (ja)
Other versions
JP2580793B2 (en
Inventor
Hiroyuki Toda
裕行 戸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP1259415A priority Critical patent/JP2580793B2/en
Priority to US07/591,840 priority patent/US5354948A/en
Publication of JPH03120592A publication Critical patent/JPH03120592A/en
Application granted granted Critical
Publication of JP2580793B2 publication Critical patent/JP2580793B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To attach a broad stretch on sound generation and to attain more complicated nd diverse sound generation by performing control to emit the output musical sound signal of a first sound source means and the modulation signal of a second sound source means simultaneously by introducing the former to the latter. CONSTITUTION:Control to introduce the output musical sound signal of the first sound source means to the modulation signal input of the second sound source means is performed with a modulation signal introduction control means. Also, such control that the output musical sound signal of the first and second sound source means are emitted simultaneously is performed. By performing such control, the output musical sound signal of the first sound source means can be used at the second sound source means as the modulation signal at need, which widens the extent of the sound generation by a modulating opera tion. Also, it is possible to perform the diverse and extensive sound generation in which the output of both sound source means are combined appropriately extending from a proper tone color by the first sound source means to the proper tone color by the second sound source by emitting the output musical sound signals of the first and second sound source means simultaneously.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、電子楽器や音源モジュール等において利用
される楽音信号発生装置に関し、特に。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a musical tone signal generating device used in electronic musical instruments, sound source modules, etc.

複数の音源を具備すると共に変調演算による音源方式か
らなる音源を少なくとも1つ含み、他の音源の出力を変
調演算による音源における変調信号として利用できるよ
うにすると共に楽音としても発音することができるよう
にしたものに関する。
It is equipped with a plurality of sound sources and includes at least one sound source using a sound source method based on modulation calculation, so that the output of the other sound source can be used as a modulation signal in the sound source using modulation calculation, and can also be produced as a musical tone. Concerning what has been done.

(従来の技術〕 特開昭61−29895号においては、自然楽器音等か
らサンプリングした複数周期波形を記憶したメモリを有
し、所望の音高周波数に対応する位相アドレス信号によ
り該メモリから波形信号を読み出すと共に、このメモリ
読み出し出力をアドレス入力側にフィードバックして所
望の音高周波数に対応する位相アドレス信号を変調し、
このメモリ読み出し出力を楽音信号として出力するよう
にしたセルフフィードバック方式の変調演算を用いた楽
音発生装置が示されている。
(Prior Art) Japanese Patent Application Laid-Open No. 61-29895 has a memory that stores a plurality of periodic waveforms sampled from natural musical instrument sounds, etc., and a waveform signal is extracted from the memory by a phase address signal corresponding to a desired pitch frequency. At the same time, this memory readout output is fed back to the address input side to modulate the phase address signal corresponding to the desired pitch frequency,
A musical tone generating device using self-feedback modulation calculation is shown in which the memory readout output is output as a musical tone signal.

また、特開昭61−39097号においては、自然楽器
音等からサンプリングした複数周期波形を記憶したメモ
リ(いbばPCM音源)を有し、このメモリの読み出し
出力を変調波信号として使用するか若しくはこのメモリ
を搬送波信号発生用のメモリとして使用するようにした
周波数変調(以下FMという)演算方式の楽音発生装置
が示されている。
Furthermore, in Japanese Patent Application Laid-Open No. 61-39097, a memory (in other words, a PCM sound source) that stores a plurality of periodic waveforms sampled from natural musical instrument sounds, etc. is provided, and the readout output of this memory is used as a modulated wave signal. Alternatively, a frequency modulation (hereinafter referred to as FM) calculation method musical tone generating device is disclosed in which this memory is used as a memory for generating a carrier wave signal.

このような従来の楽音発生装置は、PCM音源とFM音
源という2つの音源を具備し、PCM音源で発生した波
形信号をFM音源の変調信号として使用している。とい
うことができる。
Such a conventional musical tone generator includes two sound sources, a PCM sound source and an FM sound source, and uses a waveform signal generated by the PCM sound source as a modulation signal for the FM sound source. It can be said that.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかし、上述のような従来の楽音発生装置においては、
PCM音源はFM音源の中に取り込まれてしまい、独立
の音源として有効に活用することができなかった。つま
り、せつか<PCM音源を持っていても、FM音源の変
調信号または搬送信号としてしか使用できなかった。そ
のため、合成可能な楽音の音色は、FM音源の特色を強
く持つものしかなく、音作りに制限があった。
However, in the conventional musical tone generator as mentioned above,
The PCM sound source was incorporated into the FM sound source and could not be effectively used as an independent sound source. In other words, even if you had a PCM sound source, you could only use it as a modulation signal or carrier signal for an FM sound source. Therefore, the only musical tones that can be synthesized are those that have strong characteristics of FM sound sources, which limits the sound creation.

この発明は上述の点に鑑みてなされたもので、複数の音
源を具備すると共に変調演算による音源方式からなる音
源を少なくとも1つ含み、他の音源の出力を変調演算に
よる音源における変調信号として利用できるようにする
と共に楽音としても発音することができるようにするこ
とにより、変調演算音源による特有の複雑な音作りを、
他の・音源の出力を変調信号として導入することにより
The present invention has been made in view of the above-mentioned points, and includes a plurality of sound sources, at least one sound source using a sound source method using modulation calculation, and uses the output of another sound source as a modulation signal in the sound source using modulation calculation. By making it possible to produce both musical and musical tones, it is possible to create complex sounds unique to modulation calculation sound sources.
By introducing the output of another sound source as a modulating signal.

より一層複雑化及び多様化することができるようにする
一方で、他の音源に特有の音作りも可能にし、こうして
装置全体としての音作りに幅広い広がりをもたせ、より
複雑かつ多様な音作りを可能にした楽音信号発生装置を
提供しようとするものである。
While making it even more complex and diversified, it also makes it possible to create sounds specific to other sound sources, giving the device a wide range of sound creation as a whole, and making it possible to create more complex and diverse sounds. The object of the present invention is to provide a musical tone signal generating device that makes it possible to generate musical tone signals.

〔課題を解決するための手段〕[Means to solve the problem]

この発明に係る楽音信号発生装置は1発音指示情報に基
づき楽音信号を発生する第1の音源手段と1発音指示情
報に基づき所定の変調演算を実行することにより楽音信
号を発生する第2の音源手段と、前記第1の音源手段の
出力楽音信号を前記第2の音源手段の変調信号入力に導
入する制御を行う変調信号導入制御手段と、前記第1及
び第2の音源手段の出力楽音信号を同時に発音させる制
御を行う発音制御手段とを具えたものである。これを図
により示すと第1図のようである。
A musical tone signal generating device according to the present invention includes a first sound source means that generates a musical tone signal based on one sound generation instruction information, and a second sound source that generates a musical tone signal by executing a predetermined modulation operation based on one sound generation instruction information. means, modulation signal introduction control means for controlling the introduction of the output musical tone signal of the first tone generator means into the modulation signal input of the second tone generator means, and output musical tone signals of the first and second tone generator means. and a sound generation control means for controlling the sounds to be sounded at the same time. This is illustrated in FIG. 1.

〔作 用〕[For production]

変調信号導入制御手段により、第1の音源手段の出力楽
音信号を前記第2の音源手段の変調信号入力に導入する
制御を行うことができる。この制御により、第2の音源
手段で第1の音源手段の出力楽音信号を変調信号として
随時必要に応じて使用することができ、変調演算による
音作りの幅を広げることができる。
The modulation signal introduction control means can control the introduction of the output musical tone signal of the first sound source means into the modulation signal input of the second sound source means. This control allows the second sound source means to use the musical tone signal output from the first sound source means as a modulation signal at any time as required, and it is possible to widen the range of sound creation by modulation calculations.

また、発音制御手段により、第1及び第2の音源手段の
出力楽音信号を同時に発音させる制御を行うことができ
る。これにより、第1の音源手段による特有の音色から
第2の音源手段による特有の音色まで、面音源手段の出
力を適宜組合せた多様で幅広い音作りが行えるようにな
る。
Further, the sound generation control means can control the output musical tone signals of the first and second sound source means to simultaneously sound. This makes it possible to create a wide variety of sounds by appropriately combining the outputs of the surface sound source means, from the unique timbre of the first sound source means to the unique timbre of the second sound source means.

【実施例〕【Example〕

以下、添付図面を参照してこの発明の一実施例を詳細に
説明しよう。
Hereinafter, one embodiment of the present invention will be described in detail with reference to the accompanying drawings.

塗−生員裁11 第2図はこの発明に係る楽音信号発生装置を適用した電
子楽器の一例を示すハード構成ブロック図であり、この
例では、中央処理ユニット(CPU)10.プログラム
及びデータROMII、データ及びワーキングRAM1
2を含むマイクロコンピュータの制御の下で各種処理が
実行される。
FIG. 2 is a block diagram showing an example of the hardware configuration of an electronic musical instrument to which the musical tone signal generating device according to the present invention is applied. In this example, a central processing unit (CPU) 10. Program and data ROMII, data and working RAM1
Various processes are executed under the control of microcomputers including 2.

データ及びアドレスバス13を介して鍵盤回路14、操
作パネル15等その他各種回路がマイクロコンピュータ
に接続されている。
A keyboard circuit 14, an operation panel 15, and other various circuits are connected to the microcomputer via a data and address bus 13.

鍵盤回路14は1発生すべき楽音の音高を指定するため
の複数の鍵を具えた鍵盤に対応して設けられており、該
鍵盤の各軸に対応するキースイッチを含む回路である。
The keyboard circuit 14 is provided corresponding to a keyboard having a plurality of keys for specifying the pitch of a musical tone to be generated, and is a circuit including key switches corresponding to each axis of the keyboard.

この鍵盤回路14は各キースイッチのオン・オフを検出
するキースキャン回路を含んでいてもよいし、若しくは
、キースキャンはマイクロコンピュータによって行なう
ようになっていてもよい。
The keyboard circuit 14 may include a key scan circuit for detecting whether each key switch is on or off, or the key scan may be performed by a microcomputer.

操作パネル15は、音色、音量、音高、効果等を選択・
設定・制御するための各種操作子を含むものである。各
種の選択・設定処理を行なうために表示部DPY及びフ
ァンクションスイッチ部FSWが設けられている。
The operation panel 15 allows you to select and select tone, volume, pitch, effect, etc.
It includes various operators for setting and controlling. A display section DPY and a function switch section FSW are provided to perform various selection and setting processes.

演奏コントローラ16は、演奏中において楽音の音色、
音量、音高等を制御するための操作子であり1例えば制
御ホイールや制御ペダルあるいはプレスコント、ローラ
などを含む。
The performance controller 16 controls the tone of the musical tone during the performance.
It is an operator for controlling volume and pitch, and includes, for example, a control wheel, a control pedal, a press control, a roller, etc.

トーンジェネレータ部TGは、2つの異なる音源回路1
例えばPCM音源17とFM音源18を含んでおり、鍵
盤で押圧された鍵に対応する音高の楽音信号を面音源1
7.18で夫々同時に発生することが可能である。各音
源17.18はそれぞ才bN個及びM個の楽音発生チャ
ンネルを有している。以下、この実施例では、N=M=
16であるとし、各音源17.18ではそれぞれ16チ
ヤンネル時分割で楽音信号の発生が可能であるとする。
The tone generator section TG has two different sound source circuits 1
For example, it includes a PCM sound source 17 and an FM sound source 18, and the surface sound source 1 outputs a musical tone signal of a pitch corresponding to a key pressed on the keyboard.
7.18 each can occur simultaneously. Each sound source 17, 18 has N and M tone generation channels, respectively. Hereinafter, in this example, N=M=
16, and each sound source 17, 18 is capable of generating musical tone signals in 16 channels time-divisionally.

鍵盤回路14におけるキーオン・キーオフの検出、操作
パネル15における各種操作子の操作状態の検出、演奏
コントローラ16の農作状態の検出、及び押圧鍵に対応
する楽音の発音割当て処理等の各種処理がマイクロコン
ピュータの制御のもとで行なわれ、必要なデータがバス
13を介してトーンジェネレータ部TOに与えられる。
The microcomputer performs various processes such as detecting key-on and key-off in the keyboard circuit 14, detecting the operating states of various operators on the operation panel 15, detecting the farming state of the performance controller 16, and assigning musical tones corresponding to pressed keys. The necessary data is provided to the tone generator section TO via the bus 13.

トーンジェネレータ部TOでは与えら九たデータに基づ
き楽音信号を発生し、この楽音信号はサウンドシステム
19を経由して空間的に発音される。
The tone generator section TO generates a musical tone signal based on the supplied data, and this musical tone signal is spatially produced via the sound system 19.

トーンジェネレータ TOの− 第3図を参照してトーンジェネレータ部TOの一例につ
き説明すると、PCM音源17は各種の音色に対応する
楽音波形をそれぞれ予め記憶した波形メモリ20を含ん
でおり、基本的には1発生すべき楽音の音高に対応して
変化するアドレスデータに応じて該波形メモリ20から
楽音波形・サンプル値データを順次読み出すことにより
楽音信号を発生する「波形メモリ読み出し方式」からな
る音源方式を採用するものである。この場合、波形メモ
リ20に記憶する楽音波形は1周期波形のみであっても
よいが、複数周期波形である方が音質の向上が図れるの
で好ましい、複数周期波形を波形メモリに記憶しこれを
読み出す方式は1例えば特開昭52−121313号に
示されたように発音開始から終了までの全波形を記憶し
これを1回読み出す方式、あるいは特開昭58−142
C396号に示されたようにアタック部の複数周期波形
と持続部の1又は複数周期波形を記憶し、アタック部の
波形を1回読み出した後持続部の波形を繰返し読み出す
方式、あるいは特開昭60−147793号に示された
ように離散的にサンプリングした複数の波形を記憶し、
読み出すべき波形を時間的に順次切換えて指定し、指定
された波形を縁返し読み出す方式、など種々の方式が公
知であり。
Tone Generator TO - An example of the tone generator section TO will be explained with reference to FIG. 1. A sound source that uses a "waveform memory read method" that generates a musical tone signal by sequentially reading musical waveforms and sample value data from the waveform memory 20 in accordance with address data that changes in accordance with the pitch of the musical tone to be generated. This method is adopted. In this case, the musical sound waveform stored in the waveform memory 20 may be a single-period waveform, but it is preferable to use a multi-period waveform because the sound quality can be improved. A multi-period waveform is stored in the waveform memory and read out. There are two methods: 1, for example, as shown in JP-A-52-121313, the entire waveform from the start to the end of the sound is stored and read out once, or JP-A-58-142.
C396, a method in which a multi-cycle waveform of an attack part and one or more cycle waveforms of a sustaining part is stored, and the waveform of the sustaining part is read out repeatedly after reading the waveform of the attack part once, or 60-147793, stores a plurality of discretely sampled waveforms,
Various methods are known, such as a method in which the waveforms to be read are sequentially switched and specified over time, and the specified waveforms are read out in reverse.

これらを適宜採用してよい、この実施例では1例えばア
タック部の複数周期波形を1回読み出した後持続部の波
形を繰返し読み出す方式を採用しているものと仮定する
These methods may be adopted as appropriate. In this embodiment, for example, it is assumed that a method is adopted in which a multi-cycle waveform of an attack portion is read out once and then a waveform of a continuation portion is repeatedly read out.

FM音源18は、楽音の音高に対応する所望の周波数で
変化する位相角パラメータデータとして所定の周波数変
調演算を実行して楽音波形サンプル値データを求める、
いわゆるFM音源方式を採用するものである。
The FM sound source 18 performs a predetermined frequency modulation calculation on the phase angle parameter data that changes at a desired frequency corresponding to the pitch of the musical tone to obtain musical waveform sample value data.
This uses a so-called FM sound source method.

各音源17.18は、前述のように、それぞれ16チヤ
ンネル時分割で最大16個の楽音信号を発生することが
可能であり、また、発生楽音信号に対して振幅エンベロ
ープを付与する周知の機能も具備しているものとする。
As mentioned above, each sound source 17, 18 is capable of generating up to 16 musical tone signals in a 16-channel time-sharing manner, and also has the well-known function of imparting an amplitude envelope to the generated musical tone signal. It shall be equipped.

PCM音源17の各チャンネルに割当てられた鍵のキー
コードKCと該軸の押鍵又は離鍵を示すキーオン信号K
ON、及び音色、音量、音高等を設定・制御するための
各種の制御データが、マイクロコンピュータからバス1
3を介してPCM音源制御レジスタ21に与えられる。
A key code KC of a key assigned to each channel of the PCM sound source 17 and a key-on signal K indicating a key press or release of the corresponding axis.
ON, and various control data for setting and controlling tone, volume, and pitch, are transmitted from the microcomputer to bus 1.
3 to the PCM sound source control register 21.

PCM音源17では、レジスタ21に記憶されたこれら
のデータに基づき、各チャンネルに割当てられた音の楽
音信号をそれぞれ発生する。
Based on these data stored in the register 21, the PCM sound source 17 generates musical tone signals of the tones assigned to each channel.

同様に、FM音源18の各チャンネルに割当てられた鍵
のキーコードKCと該軸の押鍵又は離鍵を示すキーオン
信号KON、及び音色、音量、音高等を設定・制御する
ための各種の制御データが。
Similarly, the key code KC of the key assigned to each channel of the FM sound source 18, the key-on signal KON indicating the key press or release of the corresponding axis, and various controls for setting and controlling the tone, volume, and pitch. The data is.

マイクロコンピュータからバス13を介してFM音源制
御レジスタ22に与えられる。FM音源18では、レジ
スタ22に記憶されたこれらのデータに基づき、各チャ
ンネルに割当てられた音の楽音信号・をそれぞれ発生す
る。
The signal is applied from the microcomputer to the FM sound source control register 22 via the bus 13. Based on these data stored in the register 22, the FM sound source 18 generates musical tone signals of the sounds assigned to each channel.

周知のように、FM音源方式においては、基本的には、
搬送波信号と変調波信号をそれぞれ発生し、搬送波信号
を変調波信号によって変調することにより、所望のスペ
クトル構成を持つ楽音信号を合成する。従って、FM音
源18においては。
As is well known, in the FM sound source system, basically,
A carrier wave signal and a modulated wave signal are respectively generated, and the carrier wave signal is modulated by the modulated wave signal, thereby synthesizing a musical tone signal having a desired spectral configuration. Therefore, in the FM sound source 18.

搬送波関数と変調波関数を内部で発生することができる
ようになっている。
The carrier wave function and modulation wave function can be generated internally.

この実施例においては、FM音源18において変調波関
数を内部で発生することができるのみならず、モジュレ
ータ入力端子MDTを介して外部から変調波信号を導入
できるようにもなっており。
In this embodiment, not only can a modulated wave function be generated internally in the FM sound source 18, but also a modulated wave signal can be introduced from the outside via the modulator input terminal MDT.

PCM音源17で発生した楽音信号をこのFM音源18
のモジュレータ入力端子MDTに入力する構成となって
いる。モジュレータ入力端子MDTに入力されたPCM
音源17の出力楽音信号は。
The musical tone signal generated by the PCM sound source 17 is transferred to this FM sound source 18.
The configuration is such that the signal is input to the modulator input terminal MDT of. PCM input to modulator input terminal MDT
The output musical tone signal of the sound source 17 is as follows.

FM音源18に内部において適宜レベル制御され、また
、該PCM音源出力楽音信号を変調波信号として使用す
るか否かが制御される。
The level is appropriately controlled within the FM sound source 18, and whether or not the musical sound signal output from the PCM sound source is used as a modulated wave signal is controlled.

混合回路23はPCM音源17で発生した楽音信号とF
M音源18で発生した楽音信号とを混合するためのもの
であり、その混合の制御は混合制御レジスタ24から与
えられる制御データによって行なわれる。この混合制御
データは、選択された音色等に応じて、マイクロコンピ
ュータからバス13を介して与えられる。なお、この混
合演算は加算に限らず、減算であってもよい、なお、P
CM音源17とFM音源18における16チヤンネルの
時分割タイミングは同期しており、同じ押圧鍵に対応す
る楽音信号をPCM音源17とFM音[18において同
時に発生する場合は、PCM音源17とFM音源18に
おいて同じタイミングのチャンネルに該押圧鍵に対応す
る楽音信号を割り当てるようにする。
The mixing circuit 23 mixes the musical tone signal generated by the PCM sound source 17 and the F
It is used to mix the musical tone signal generated by the M sound source 18, and the mixing is controlled by control data given from the mixing control register 24. This mixing control data is given from the microcomputer via the bus 13 in accordance with the selected timbre, etc. Note that this mixed operation is not limited to addition, but may also be subtraction.
The time division timings of the 16 channels in the CM sound source 17 and the FM sound source 18 are synchronized, and if the musical sound signals corresponding to the same pressed key are generated simultaneously in the PCM sound source 17 and FM sound source 18, the PCM sound source 17 and the FM sound source At step 18, musical tone signals corresponding to the pressed keys are assigned to channels at the same timing.

混合回路23の出力は効果付与回路25に与えられ、リ
バーブ効果やパン(PAN)効果など各種効果が必要に
応じて付与される。効果付与を制御する制御データは、
マイクロコンピュータからバス13を介して効果制御レ
ジスタ26に与えられ、これが効果付与回路25に与え
られる。
The output of the mixing circuit 23 is applied to an effect applying circuit 25, and various effects such as a reverb effect and a panning (PAN) effect are applied as necessary. The control data that controls the effect addition is
The signal is applied from the microcomputer to the effect control register 26 via the bus 13, and this is applied to the effect applying circuit 25.

効果付与回路25から出力された楽音信号は、ディジタ
ル/アナログ変換器27に与えられ、アナログ信号に変
換された後、サウンドシステム19に向けて送出される
。なお、チャンネル時分割状態を解除するために各チャ
ンネルの楽音信号をアキュムレートするアキュムレータ
が適宜設けられるが、特に図示しない、このアキュムレ
ータはディジタル/アナログ変換量27の前段、例えば
混合回路23の内部等、に設けるとよい。
The musical tone signal output from the effect imparting circuit 25 is applied to a digital/analog converter 27, converted into an analog signal, and then sent to the sound system 19. Incidentally, in order to cancel the channel time division state, an accumulator for accumulating musical tone signals of each channel is provided as appropriate, but this accumulator is not particularly shown in the figure, but is installed at a stage before the digital/analog conversion amount 27, for example, inside the mixing circuit 23, etc. It is recommended to set it in .

−り秋責漸漫11貞倒−睨朋一 次に第4図を参照してFM音源18の内部構成の一例に
つき説明すると、こめ例のFM音源18においては1音
につき6個の演算ユニットOPI〜OP6を使用してF
M演算を行ない、楽音信号を合成する。各演算ユニット
OPI〜OPe間の接続態様を選択的に切り換えること
により、 FM演算のアルゴリズムを選択し、所望の音
色の楽音合成を行なう、第4図の例では、ハード的には
1個の演算ユニットOPを具備し、これを6タイムスロ
ツトで時分割使用することにより6個の演算ユニットO
PI〜OP6として機能させている。
- Riaki Zaku Reimman 11 Sadatoshi - Kazuki Tomo I will explain an example of the internal configuration of the FM sound source 18 with reference to FIG. ~F using OP6
M calculations are performed to synthesize musical tone signals. By selectively switching the connection mode between each calculation unit OPI to OPe, the FM calculation algorithm is selected and musical tone synthesis of a desired tone is performed.In the example shown in FIG. It is equipped with a unit OP, and by using it time-divisionally in 6 time slots, 6 arithmetic units O
It is functioning as PI to OP6.

位相データ発生回路28は、各チャンネルに割当てられ
た鍵のキーコードKCとキーオン信号KONを入力し、
該キーコードKCに対応する位相データP1〜P6を各
演算ユニットOPI〜OP6に対応して1チヤンネルに
つき6タイムスロツト時分割でかつ16チヤンネル時分
割で発生する。
The phase data generation circuit 28 inputs the key code KC of the key assigned to each channel and the key-on signal KON,
Phase data P1 to P6 corresponding to the key code KC is generated in time division for 6 time slots per channel and time division for 16 channels in correspondence to each arithmetic unit OPI to OP6.

エンベロープ発生回路29はキーオン信号KONに基づ
き各演算ユニットOPI〜OP6に対応するエンベロー
プレベルデータELL NEL6を1チヤンネルにつき
6タイムスロツト時分割でかつ16チヤンネル時分割で
発生する。
The envelope generating circuit 29 generates envelope level data ELLNEL6 corresponding to each arithmetic unit OPI to OP6 based on the key-on signal KON in a time-division manner of 6 time slots per channel and in a time-division manner of 16 channels.

°選択された音色等に応じた種々のパラメータデータ若
しくは制御データは、バス13を介して制御レジスJi
22(第3図)に与えられ、該制御レジスタ22からF
MM源18内の各回路(位相データ発生回路28、エン
ベロープ発生回路29゜演算ユニットOP、その他の回
路)に対して、各演算ユニットOPI〜OP6のタイム
スロットに対応して時分割的に(及び必要に応じて各チ
ャンネル毎に時分割的に)、供給される。これらのパラ
メータにより1位相データPL−P6の係数を制御した
り、エンベロープレベルデータELL〜EL6の発生態
様(つまりエンベロープ波形)を制御したり、FM演算
の態様を制御する0例えば。
° Various parameter data or control data corresponding to the selected tone etc. are sent to the control register Ji via the bus 13.
22 (FIG. 3), and from said control register 22 F
For each circuit in the MM source 18 (phase data generation circuit 28, envelope generation circuit 29, operation unit OP, and other circuits), time-sharing (and time-divisionally) for each channel as necessary. These parameters control the coefficients of the 1-phase data PL-P6, the generation mode of the envelope level data ELL to EL6 (that is, the envelope waveform), and the mode of FM calculation, for example.

演算ユニットOPI〜OP6を複数系列に分けて並列的
に配列し、各系列の出力を加算するようにした接続態様
が選択可能であるとすると、その加算系列数に応じて音
量レベルを補正するためのレベル補正データLCがその
ようなFM演演算制御パラメータ1つに含まれる。また
、自己の演算ユニットの出力信号を変調波信号としてセ
ルフフィードバックする際のフィードバックレベルを設
定するフィードバックレベルデータFL1〜FL6もそ
のようなFMM算制御パラメータに含まれる。
If it is possible to select a connection mode in which the arithmetic units OPI to OP6 are divided into multiple series and arranged in parallel and the outputs of each series are added, the volume level is corrected according to the number of series to be added. level correction data LC is included in one such FM operation control parameter. Also included in such FMM calculation control parameters are feedback level data FL1 to FL6 that set the feedback level when self-feeding back the output signal of the own arithmetic unit as a modulated wave signal.

また、各演算ユニットOPI〜OP6の接続態様を設定
する制御信号もそのようなFMM算制御パラメータに含
まれる。更に、PCM音源17の楽音信号を変調信号と
して各オペレータOP1〜OP6で使用する際にそのレ
ベルを制御する外部入力レベル制御データEXTLI〜
EXTL6もそのようなFMM算制御パラメータに含ま
れる。
Also included in such FMM calculation control parameters are control signals that set the connection mode of each of the arithmetic units OPI to OP6. Further, external input level control data EXTLI~ controls the level of the musical tone signal of the PCM sound source 17 when used as a modulation signal by each operator OP1~OP6.
EXTL6 is also included in such FMM calculation control parameters.

演算ユニットOPは、入力された位相データP1〜P6
を変調するための加算器31と、正弦波のサンプル値を
対数表現データ形式で記憶した正弦波テーブル32と、
振幅レベル制御用の加算器33と、対数/リニア変換回
路34と、変調信号を加算するための加算器35を含ん
でいる。加算器31は、各演算ユニットOP1〜OP6
のタイムスロットに対応して時分割的に与えられる位相
データP1〜P6と加算器35から与えられる波形信号
(すなわち変調信号)とを加算し1位相変調を行うもの
である。加算器33は、加算器31の出力に応じて正弦
波テーブル32から読み出さ才した対数表現の正弦波サ
ンプル値データにエンベロープレベルデータELL〜E
L6及びレベル補正データLCを加算するものである。
The arithmetic unit OP receives input phase data P1 to P6.
an adder 31 for modulating the sine wave; a sine wave table 32 storing sample values of the sine wave in logarithmic representation data format;
It includes an adder 33 for amplitude level control, a logarithmic/linear conversion circuit 34, and an adder 35 for adding modulation signals. The adder 31 includes each operation unit OP1 to OP6.
1-phase modulation is performed by adding the phase data P1 to P6 provided in a time-division manner corresponding to the time slots and the waveform signal (ie, modulation signal) provided from the adder 35. The adder 33 adds envelope level data ELL to E to the logarithmically expressed sine wave sample value data read out from the sine wave table 32 in accordance with the output of the adder 31.
This is to add L6 and level correction data LC.

データEL1〜EL6.LCも対数表現形式で与えるも
のとし、加算器33における対数同士の加算により実質
的に振幅係数の乗算を行う、対数/リニア変換回路34
は、対数表現の加算器33の出力をリニア表現のデータ
に変換する。
Data EL1 to EL6. LC is also given in a logarithmic expression format, and the logarithm/linear conversion circuit 34 substantially multiplies the amplitude coefficient by adding logarithms in the adder 33.
converts the output of the adder 33 in logarithmic representation into data in linear representation.

演算ユニット接続態様設定回路36は、演算ユニットo
Pの出力を夫々入力したフィードバックレジスタFR,
1ステージシフトレジスタSR、メモリMl、M2、ア
キュムレータARと、レジスタSR及びメモリMl、M
2及びアキュムレータARの出力を入力したセレクタ3
7と、フィードバックレジスタFRの出力にフィードバ
ックレベルデータFL (FLI〜FL6)を乗算する
ための乗算器あるいはシフト回路38と、アキュムレー
タARの出力をラッチするレジスタ39とを具えている
。レジスタ39の出力がこのFMM源18で合成された
楽音信号として出力される。
The arithmetic unit connection mode setting circuit 36 connects the arithmetic unit o
Feedback registers FR each input the output of P,
1-stage shift register SR, memories Ml, M2, accumulator AR, register SR and memories Ml, M
2 and selector 3 which inputs the output of accumulator AR.
7, a multiplier or shift circuit 38 for multiplying the output of the feedback register FR by feedback level data FL (FLI to FL6), and a register 39 for latching the output of the accumulator AR. The output of the register 39 is output as a musical tone signal synthesized by the FMM source 18.

各レジスタFR39,メモリMl、M2、アキュムレー
タARは16チヤンネル分の記憶容量を持ち、チャンネ
ルクロックパルスφChに従って16チヤンネル時分割
処理される。ただし、シフトレジスタSRはクロックパ
ルスφに従って各タイムスロット毎にシフト制御される
Each register FR39, memories M1, M2, and accumulator AR have a storage capacity for 16 channels, and time-division processing of the 16 channels is performed according to the channel clock pulse φCh. However, the shift register SR is shifted and controlled for each time slot according to the clock pulse φ.

フィードバックレジスタFR,メモリMl、M2、レジ
スタ39には、ロード人力りとリセット人力Rが有り、
制御信号がこれらの入力り、Hに加わり、データのロー
ド及びリセットを制御する。
Feedback register FR, memories Ml, M2, and register 39 have load force and reset force R,
Control signals are applied to these inputs to control data loading and resetting.

また、アキュムレータARにはキュムレ−トイネーブル
入力ACとリセット入力Rが有り、上記制御信号がこれ
らの入力AC,Hに加えられ、データのアキュムレート
及びリセットを制御する。上記制御信号はセレクタ37
の選択制御入力にも加えられ、との入力からのデータを
選択すべき力1を制御する。セレクタ37及びシフト回
路38の出力が演算ユニットOPの変調信号入力用加算
器35に加わり、そこで加算される。
The accumulator AR also has an accumulation enable input AC and a reset input R, and the control signal is applied to these inputs AC and H to control data accumulation and reset. The above control signal is the selector 37
is also applied to the selection control input of , which controls the force 1 that should select data from the input of . The outputs of the selector 37 and shift circuit 38 are applied to the modulation signal input adder 35 of the arithmetic unit OP and are added there.

フィードバックレジスタFRは、自己の演算ユニット又
は前段の演算ユニットに帰還させるべき所定の演算ユニ
ットの演算結果たる波形信号データをストアするもので
ある。この所定の演算ユニットの演算結果が演算ユニッ
トOPから出力されるタイムスロットにおいてロード入
力りに信号“1”が与えられる。帰還路が形成されるべ
き演算ユニットのタイムスロットでフィードバックレベ
ルデータFLI〜FL6が適当な値を示し、レジスタF
Rの出力信号をその値に応じてシフトしたものを加算器
35に与える。帰還路が設けられない演算ユニットのタ
イムスロットではフィードバックレベルデータFLI〜
FL6はレベル0に対応する内容となり、シフト回路3
8を遮断し。
The feedback register FR stores waveform signal data that is the calculation result of a predetermined calculation unit that is to be fed back to its own calculation unit or to the preceding calculation unit. A signal "1" is applied to the load input in a time slot in which the calculation result of this predetermined calculation unit is output from the calculation unit OP. In the time slot of the arithmetic unit where the feedback path is to be formed, the feedback level data FLI to FL6 indicate an appropriate value, and the register F
The output signal of R is shifted according to its value and is applied to the adder 35. In the time slot of the arithmetic unit where a feedback path is not provided, the feedback level data FLI~
FL6 has contents corresponding to level 0, and shift circuit 3
Block out 8.

その出力を0にする。Set its output to 0.

シフトレジスタSRはクロックパルスφに従ってシフト
するもので、成るタイムスロットにおける演算結果を次
のタイムスロットにおいて出力する。メモリMl、M2
は、任意のタイムスロットにおける演算結果を保持する
ためのものである。
The shift register SR shifts according to the clock pulse φ, and outputs the operation result in one time slot in the next time slot. Memory Ml, M2
is used to hold the calculation result in an arbitrary time slot.

アキュムレータARは、各演算ユニットOPI〜OP6
のうち任意の1又は複数のユニットの出力信号を加算す
るものであり、加算すべきユニットに対応するタイムス
ロットでアキュムレートイネーブル入力ACに信号1′
1”が与えられる。セレクタ37は、各演算ユニットO
PI〜OP6に対応する各タイムスロットにおいて演算
ユニットOPの入力Wintに与えるべき波形信号(変
調信号)として、レジスタSR,メモリMl、、M2゜
アキュムレータARのうち適宜の出力信号を選択するこ
とにより、所定の接続態様に従う各演算ユニットOPI
〜OP6の相互接続を実現する。出力レジスタ39では
、全演算ユニットOPI〜OP6のタイムスロットが1
巡する1演算サイクルの最後でロード入力りに信号“1
”が与えられ。
The accumulator AR is connected to each arithmetic unit OPI to OP6.
The output signals of any one or more of the units are added, and the signal 1' is input to the accumulation enable input AC in the time slot corresponding to the unit to be added.
1'' is given.The selector 37 selects each arithmetic unit O
By selecting an appropriate output signal from among the register SR, memory Ml, and M2° accumulator AR as the waveform signal (modulation signal) to be applied to the input Wint of the arithmetic unit OP in each time slot corresponding to PI to OP6, Each arithmetic unit OPI according to a predetermined connection pattern
~Achieve OP6 interconnection. In the output register 39, all arithmetic units OPI to OP6 have 1 time slot.
At the end of one calculation cycle, the signal “1” is output to the load input.
” is given.

これに基づきアキュムレータARの出力をラッチする。Based on this, the output of accumulator AR is latched.

こうして、各演算ユニットOP1〜OP6を所定の接続
態様で接続して演算を行った結果得られた楽音信号の1
サンプル値データがレジXり39にラッチされる。
In this way, one of the musical tone signals obtained as a result of performing calculations by connecting each calculation unit OP1 to OP6 in a predetermined connection manner.
The sample value data is latched into the register 39.

モジュレータ入力端子MDTを介して各チャンネルごと
に時分割で入力されるPCM音源17の出力信号は、外
部データ入力インタフェイス40に取り込まれ、各チャ
ンネルごとの時分割タイミングで出力され、シフト回路
41に入力される。
The output signal of the PCM sound source 17, which is input in a time-division manner for each channel via the modulator input terminal MDT, is taken into the external data input interface 40, outputted at the time-division timing for each channel, and sent to the shift circuit 41. is input.

シフト回路41に与えられる外部入力レベル制御データ
EXTLI〜EXTL6は、各演算オペレータOPI〜
OP6のタイムスロットでそれぞれ適当な値を示し、変
調波信号として使用するpcM音源出力信号のレベルを
それぞれ制御する。PCM音源出力信号を変調波信号と
して使用しない演算ユニットのタイムスロットでは外部
入力レベル制御データEXTLI〜EXTL6はレベル
0に対応する内容となり、シフト回路41を遮断し、そ
の出力を0にする。シフト回路41の出力は加算器35
に加わり、該加算器35から加算器31に変調波信号と
して与えられる。
External input level control data EXTLI to EXTL6 given to the shift circuit 41 are input to each operation operator OPI to
Appropriate values are shown in the time slot of OP6, respectively, and the levels of the pcM sound source output signals used as modulated wave signals are controlled. In the time slot of the arithmetic unit that does not use the PCM sound source output signal as a modulated wave signal, the external input level control data EXTLI to EXTL6 have contents corresponding to level 0, and the shift circuit 41 is shut off and its output is set to 0. The output of the shift circuit 41 is sent to the adder 35
from the adder 35 to the adder 31 as a modulated wave signal.

一例として、6つの演算ユニットOPI〜OP6を第5
図のように接続する場合につき説明する。
As an example, six arithmetic units OPI to OP6 are connected to the fifth
The case of connecting as shown in the figure will be explained.

この接続態様では、自己又は他の演算ユニットに出力信
号を帰還させるべき所定の演算ユニットとしてOF2が
選ばれており、この演算ユニットOP4の出力信号をフ
ィードバックレジスタFRにストアし、このレジスタF
Rの出力信号を自己のユニットOP4及び前段のユニッ
トOP5.OP6の入力側に帰還させることは勿論のこ
と、自己のユニットOP4に並列に設けられた別系列の
ユニットOPI、OP2にも入力し、更には自己の後段
のユニットOP3にも入力するようにしている。レジス
タFRの出力を各ユニットOP1〜OP6の変調信号入
力に導く経路に設けられた乗算器(シフト回路38に対
応)に乗数として入力されるデータFLl〜FL6は各
演算ユニットOP1〜OP6に対応するフィードバック
レベルデータである。なお、演算ユニットOPI〜OP
3に加えられるレジスタFRの出力信号はこれらのユニ
ットOPI〜OP3にとってはフィードバック信号では
ないが、このように自己又は前段の演算ユニットにフィ
ードバックする信号を別系列あるいは後段の演算ユニッ
トにも加えるようにする接続態様も実施可能である。
In this connection mode, OF2 is selected as the predetermined arithmetic unit whose output signal should be fed back to itself or another arithmetic unit, and the output signal of this arithmetic unit OP4 is stored in the feedback register FR, and this register F
R's output signal to its own unit OP4 and the preceding unit OP5. It goes without saying that it is fed back to the input side of OP6, but also inputted to units OPI and OP2 of other series installed in parallel with own unit OP4, and furthermore inputted to unit OP3 of its own subsequent stage. There is. Data FLl to FL6, which are input as multipliers to multipliers (corresponding to the shift circuit 38) provided in the path leading the output of the register FR to the modulation signal input of each unit OP1 to OP6, correspond to each arithmetic unit OP1 to OP6. This is feedback level data. In addition, the calculation units OPI to OP
The output signal of register FR added to 3 is not a feedback signal for these units OPI to OP3, but in this way, a signal that is fed back to the self or previous stage arithmetic unit can also be applied to another series or a subsequent stage arithmetic unit. It is also possible to implement such a connection mode.

また、外部データ入力インタフ−イス40の出力を各ユ
ニットOPl〜OP6の変調信号入力に導く経路に設け
られた乗算器(シフト回路41に対応)に乗数として入
力されるデータEXTLI〜EXTL6は各演算ユニッ
トOPI〜OPe↓こ対応する外部入力レベル制御デー
タである。
Furthermore, data EXTLI to EXTL6, which are input as multipliers to multipliers (corresponding to the shift circuit 41) provided in the path leading the output of the external data input interface 40 to the modulation signal input of each unit OPl to OP6, are used for each calculation. This is external input level control data corresponding to units OPI to OPe↓.

各演算ユニットOPI〜OP6に対応する時分割タイム
スロットを示すと第6図(a、)のようであり、1チャ
ンネル分の1サンプリング時間に対応する1演算サイク
ルにおける6つのタイムスロット1〜6は時間の早い順
に演算ユニットOP6〜OPIに対応している。従って
、各タイムスロット1〜6において、各演算ユニットO
P6〜OP1に対応する位相データP6〜P1.エンベ
ロープレベルデータEL6〜ELL、フィードバックレ
ベルデータFL6〜FLIが第6図(a)に示すように
供給される。
The time-division time slots corresponding to each arithmetic unit OPI to OP6 are shown in FIG. They correspond to the arithmetic units OP6 to OPI in order of time. Therefore, in each time slot 1 to 6, each arithmetic unit O
Phase data P6-P1.corresponding to P6-OP1. Envelope level data EL6-ELL and feedback level data FL6-FLI are supplied as shown in FIG. 6(a).

第5図の接続を実現する場合、各タイムスロット1〜6
における演算ユニットOPの出力信号・の取込み先は第
6図(b)のようにし、セレクタ37での選択は第6図
(c)のようにする。
When realizing the connection shown in Figure 5, each time slot 1 to 6
The output signal of the arithmetic unit OP is taken in as shown in FIG. 6(b), and the selection by the selector 37 is as shown in FIG. 6(c).

また、各演算ユニットOP1〜OP6に対応する外部入
力レベル制御データEXTLI〜EXTL6の供給タイ
ミング及び外部データ入力インタフェイス40から出力
される1チャンネル分の楽音信号の1サンプルデータW
D (t)のタイミングは第6図(d)のようである。
In addition, the supply timing of external input level control data EXTLI to EXTL6 corresponding to each arithmetic unit OP1 to OP6 and one sample data W of one channel of musical tone signal output from the external data input interface 40 are also provided.
The timing of D (t) is as shown in FIG. 6(d).

なお、前述のように、PCM音源17とFM音源18に
おける16チヤンネルの時分割タイミングは同期してお
り、同じ押圧鍵に対応する楽音信号をPCM音源17と
FM音源18において同時に発生する場合は、PCM音
源17とFM音源18において同じタイミングのチャン
ネルに該押圧鍵に対応する楽音信号を割り当てるように
しているので、同じ押圧鍵に対応するPCM音源17の
出力楽音信号をFM音源18における変調波信号として
利用することが容易に行なえる。
As mentioned above, the time division timings of the 16 channels in the PCM sound source 17 and the FM sound source 18 are synchronized, and when musical tone signals corresponding to the same pressed key are generated simultaneously in the PCM sound source 17 and the FM sound source 18, Since the musical sound signal corresponding to the pressed key is assigned to the channel at the same timing in the PCM sound source 17 and the FM sound source 18, the output musical sound signal of the PCM sound source 17 corresponding to the same pressed key is used as the modulated wave signal in the FM sound source 18. It can be easily used as

1也11:」町l唯 次に、操作パネル15における操作子や表示部の一例に
つき第7図により説明する0表示部DPYは、例えば液
晶ディスプ・レイからなり、音色、音量、音高、効果等
を選択・設定・変更するための複数の画面のうちいずれ
かを選択的に表示することができる。以下では、1つの
画面をページという、ファンクシ五ンスイッチ部FSW
は1表示部DPYの下側に配列された複数のファンクシ
ョンスイッチF1〜F8を具備している。各ファンクシ
ョンスイッチFl−F8の機能は表示部DPYの画面状
態つまりページ内容によって切り替わる0表示部DPY
の画面では、各ファンクションスイッチF1〜F8に対
応する位置に、該各ファンクションスイッチF1〜F8
に現在割当てられている機能を示す表示がなされる。フ
ァンクションスイッチF1〜F8の隣のシフトキー5H
IFTは1表示部DPYの画面における各ファンクショ
ンスイッチF1〜F8の機能表示をシフトするものであ
る。このシフトキー5HIFTは、1画面(1ページ)
において各ファンクションスイッチFl−F8に2重の
機能が割当てられているとき使用する。
1 and 11: Next, the 0 display section DPY, which will be explained with reference to FIG. 7 as an example of the controls and display section on the operation panel 15, is composed of, for example, a liquid crystal display, and displays timbre, volume, pitch, etc. Any one of a plurality of screens for selecting, setting, and changing effects etc. can be selectively displayed. In the following, one screen is referred to as a page, and one screen is referred to as a page.
is equipped with a plurality of function switches F1 to F8 arranged below one display section DPY. The function of each function switch Fl-F8 changes depending on the screen state of the display DPY, that is, the page content.
On the screen, each function switch F1 to F8 is placed in a position corresponding to each function switch F1 to F8.
A display showing the functions currently assigned to the Shift key 5H next to function switches F1 to F8
IFT is for shifting the function display of each function switch F1 to F8 on the screen of one display section DPY. This shift key 5HIFT is for 1 screen (1 page)
This is used when dual functions are assigned to each function switch Fl-F8.

データ入力部42は、数値データを入力するためのスラ
イド式操作子である。
The data input section 42 is a sliding type operator for inputting numerical data.

ボイスキーVOICEは1表示部DPYにおいてボイス
選択ページを呼び出すために操作するキースイッチであ
る。ボイス選択ページとは、所望のボイスつまり音色(
詳しくは複合音色)を選択するときの表示画面である。
The voice key VOICE is a key switch operated in order to call up the voice selection page on the 1 display section DPY. The voice selection page is where you can select the desired voice or tone (
This is the display screen when selecting a composite tone.

エデイツトキーEDITは、所望のボイスの内容を変更
・修正する編集作業を開始するときに操作するキースイ
ッチである。
The edit key EDIT is a key switch that is operated when starting editing work to change or modify the content of a desired voice.

ストアキー5TOREは1編集作業が終了したときに1
編集済みのボイスデータを保存するために操作するキー
スイッチである。
Store key 5TORE is 1 when 1 editing work is completed.
This is a key switch operated to save edited voice data.

エンターキーENTERは、データ等の入力を確定する
ために操作するキースイッチである。
The enter key ENTER is a key switch operated to confirm input of data or the like.

カーソルキーC5Rは1表示部DPYにおけるカーソル
表示を左右または上下に動かしたり、数値データの増減
を指示する際に操作するキースイッチである。
The cursor key C5R is a key switch operated to move the cursor display on the 1-display section DPY left and right or up and down, or to instruct numerical data to increase or decrease.

操作パネル15においてはその他のスイッチや操作子等
があるが、それらについては説明を省略する。
Although there are other switches and operators on the operation panel 15, explanations of these will be omitted.

紅穆3tz五貝 電子楽器において利用可能な音色には、ピアノやバイオ
リン等の既存楽器の音色を模倣するいわば楽器音色と、
演奏者によって任意に設定したり変更することの可能な
音色など1種々の音色がある。この実施例では、後者の
ような音色をボイスということにする。ただし、ボイス
において画材のような楽器音色のような音色を排除する
意味合いは全くない、すなわち、成るボイスはピアノな
らピアノのような楽器音色を模倣するものであってもよ
い、また、この実施例において、音色とはボイスのこと
を指すものとして以下説明を行なうが、電子楽器全体と
しては、そのようなボイスのほかに楽器音色や何らかの
プリセット音色などが更に選択可能な仕様であっても一
向に差し支えない、なお、この実施例では、複数の系列
で発生した楽音信号を合成して1つのボイスに対応する
楽音信号を発生するようになっており、その場合。
The tones that can be used with the Kobo 3tz Gogai electronic musical instrument include instrumental tones that imitate the tones of existing instruments such as pianos and violins,
There are various tones that can be set or changed arbitrarily by the performer. In this embodiment, the latter type of tone is called a voice. However, there is no meaning in excluding tones such as the tones of musical instruments such as art materials in the voice. In other words, the voice composed of a piano may imitate the tones of an instrument such as a piano. In the following explanation, timbre refers to voice, but for the electronic musical instrument as a whole, there is no problem even if the specification allows selection of instrument tones or some preset tones in addition to such voices. In this embodiment, musical tone signals generated in a plurality of series are synthesized to generate a musical tone signal corresponding to one voice.

1つのボイスの構成要素である各々の系列の楽音信号ま
たはその音色をエレメントまたはエレメント音色という
ことにする。その意味で、この実施例におけるボイスと
は、複数のエレメント音色を複合した「複合音色」であ
るといってもよい。
Each series of musical tone signals or timbres thereof that are constituent elements of one voice will be referred to as elements or element timbres. In that sense, the voice in this embodiment can be said to be a "composite tone" that is a combination of a plurality of element tones.

次に、ボイスデータメモリVDMとボイスエデイツトバ
ッファメモリVERのメモリフォーマットの一例につき
第8図を参照して説明する。
Next, an example of the memory format of the voice data memory VDM and voice edit buffer memory VER will be explained with reference to FIG.

ボイスデータメモリVDMは、各ボイス毎に。Voice data memory VDM is for each voice.

当該ボイスを実現するボイスデータをそれぞれ記憶する
ものである。ボイスエデイツトバッファメモリVERは
、編集作業中のボイスのボイスデータを記憶するバッフ
ァである。これらのボイスデータメモリVDMとボイス
エデイツトバッファメモリVEBは、読み書き可能なメ
モリからなり。
Each voice data that realizes the voice is stored. The voice edit buffer memory VER is a buffer that stores voice data of the voice being edited. These voice data memory VDM and voice edit buffer memory VEB consist of readable and writable memories.

例えばデータ及びワーキングRAM12(第2図)の一
部が利用される。
For example, a portion of the data and working RAM 12 (FIG. 2) is utilized.

ボイスデータメモリVDMは、ボイスナンバ0乃至nで
区別される各ボイス毎にそのボイスデータを記憶するボ
イスデータエリアを有する。各ボイスデータエリアの先
頭アドレスはボイスポインタVOI CE Pによって
指示される。
The voice data memory VDM has a voice data area that stores voice data for each voice distinguished by voice numbers 0 to n. The starting address of each voice data area is indicated by the voice pointer VOI CE P.

1つのボイスデータエリアは、「ボイス名」を記憶する
エリアと、「ボイスモード」を記憶するエリアと、「コ
モンデータ」を記憶するエリアと。
One voice data area includes an area for storing "voice name", an area for storing "voice mode", and an area for storing "common data".

4つの個別のエレメントに対応するパラメータデータを
それぞれ記憶する4つの「エレメントパラメータデータ
」エリアとからなる。
It consists of four "element parameter data" areas each storing parameter data corresponding to four individual elements.

この実施例では、1つのボイスは最大で4つのエレメン
トを使用して合成することができる。1つのエレメント
は、PCM音源17またはFM音′g18で1つのチャ
ンネルを使用して発生される1つの系列の楽音信号に対
応している。所望の音色(エレメント音色)を実現する
ためのパラメータデータの種類は、PCM音源17とF
M音源18とでは異なっており、また、そのデータ内容
も各エレメント音色毎に異なる。その一方で、どのエレ
メント音色にも共通するパラメータデータもある。この
ように、当該ボイスにおいてどのエレメントにも共通す
るパラメータデータを「コモンデータ」ということにし
、これを「コモンデータ」エリアに記憶する。一方、各
エレメント毎に異なるパラメータデータを「エレメント
パラメータデータ」ということにし、これをそれぞれの
エレメントに対応する「エレメントパラメータデータ」
エリアに記憶する。各「エレメントパラメータデータ」
エリアの先頭アドレスはエレメントスタートポインタE
SP(1)〜E S P (4)によって指示される。
In this embodiment, one voice can be synthesized using up to four elements. One element corresponds to one series of musical tone signals generated using one channel of the PCM sound source 17 or FM sound 'g18. The types of parameter data to achieve the desired tone (element tone) are the PCM sound source 17 and F.
It is different from the M tone source 18, and the data content is also different for each element tone. On the other hand, there is also parameter data that is common to all element tones. In this way, parameter data that is common to all elements in the voice is called "common data" and is stored in the "common data" area. On the other hand, the parameter data that differs for each element is called "element parameter data", and this is the "element parameter data" corresponding to each element.
Store in area. Each “element parameter data”
The start address of the area is element start pointer E.
It is indicated by SP(1) to ESP(4).

各エレメントスタートポインタE S P (1)〜E
 S P (4)によってそれぞれ指示されるエレメン
トを、エレメント1乃至4として区別する。
Each element start pointer E S P (1) to E
The elements respectively indicated by S P (4) are distinguished as elements 1 to 4.

「ボイスモード」とは、そのボイスを実現するために使
用する音源の種類と系列数の組合せを主に指示するもの
である。予め定められた複数のボイスモードのうちどの
モードであるかを指示するrボイスモードデータ」をこ
の「ボイスモード」エリアに記憶する。後述するように
、「ボイスモード」が何であるかによって、4つのエレ
メントの各々が、PCM音源とFM音源のどちらを使用
するか、あるいはどちらも使用しないか、が判明する。
The "voice mode" mainly indicates the combination of the type of sound source and the number of sequences used to realize the voice. ``rVoice mode data'' indicating which mode is selected among a plurality of predetermined voice modes is stored in this ``Voice mode'' area. As will be described later, depending on the "voice mode", it is determined whether each of the four elements uses a PCM sound source, an FM sound source, or neither.

ボイスエデイツトバッファメモリVEBは、1つのボイ
スのボイスデータ1式を記憶できる容量を持ち、詳しく
は、コモンデータバッファCDBと、FMエデイツトバ
ッフ7FMEBと、PCMエデイツトバッファPCME
Bとを有する。コモンデータバッファCDBにおいては
、「ボイス名」を記憶するエリアと、「ボイスモード」
を記憶するエリアと、「コモンデータ」を記憶するエリ
アとを有する。FMエデイツトバッフ7FMEBは。
The voice edit buffer memory VEB has a capacity that can store one set of voice data for one voice, and in detail, it has a common data buffer CDB, an FM edit buffer 7FMEB, and a PCM edit buffer PCME.
It has B. Common data buffer CDB has an area for storing "voice name" and "voice mode".
It has an area for storing "common data" and an area for storing "common data". FM Edit Buff 7FMEB.

4つのエレメントのパラメータデータをそれぞれ記憶で
きるFMエレメントエデイツトバッファ1乃至4を有す
る。PCMエデイツトバッファPCMEBも、4つのエ
レメントのパラメータデータをそれぞれ記憶できるPC
Mエレメントエデイツトバッファ1乃至4を有する。
It has FM element edit buffers 1 to 4 which can each store parameter data of four elements. The PCM edit buffer PCMEB is also a PC that can store parameter data for each of the four elements.
It has M element edit buffers 1 to 4.

このように、異なる音源に対応するエデイツトバッファ
FMEB、PCMEBをそれぞれエレメントの最大数分
だけ設けた理由は、編集中にボイスモードを変更した場
合でも即座に対応できるようにするためである0例えば
、2つのエレメントでFM音源を使用し、別の2つのエ
レメントでPCM音源を使用するボイスモードのボイス
の編集作業する場合、まず、そのボイスのボイスデータ
がボ゛イスデータメモリVDMからボイスエデイツトバ
ッファメモリVERにコピーされる。その場合のコピー
の仕方は、「ボイス名」、「ボイスモード」及び「コモ
ンデータ」はコモンデータバッファCDBにコピーL、
、FM音源に対応する2つのエレメントのパラメータデ
ータはFMエデイツトバッファFMEBにおける2つの
FMエレメントエデイツトバッファ1及び2にコピーL
1. PCM音源に対応する2つのエレメントのパラメ
ータデータはPCMエデイツトバッファPCMEBにお
ける2つのPCMエレメントエデイツトバッファ1及び
2にコピーする。そして、コピーされなかった残りの2
つのFMエレメントエデイツトバッファ3及び4には、
FMiJ源用のrエレメントパラメータデータ」の所定
の初期値(若しくは基準値)をそれぞれ記憶しておく、
コピーされなかった残りの2つのPCMエレメントエデ
イツトバッファ3及び4にも同様に、PCM音源用の「
エレメントパラメータデータ」の所定の初期値(若しく
は基準値)をそれぞれ記憶しておく、このようにしてお
けば1編集作業中にコモンデータバッファCDBに記憶
したボイスモードデータを変更することにより1例えば
、4つのエレメントすべてをFM音源(またはPCM音
源)とするボイスモードに変わった場合、4つのFMエ
レメントエデイツトバッファ1乃至4(またはPCMエ
レメントエデイツトバッファ1乃至4)の内容を即座に
有効に使用することができる。つまり、エレメントエデ
イツトバッファの総数をエレメントの最大数4のみにす
ると、上記のような例の場合、エレメントエデイツトバ
ッファのデータ内容をPCM用からFM用に(またはそ
の逆に)変更しなければならず、面倒である。ところが
、この実施例のようにすれば、そのような面倒はない。
In this way, the reason why edit buffers FMEB and PCMEB corresponding to different sound sources are provided for the maximum number of elements is to be able to respond immediately even if the voice mode is changed during editing. When editing a voice in a voice mode where two elements use an FM sound source and two other elements use a PCM sound source, first the voice data for that voice is imported from the voice data memory VDM to Voice Editor. Copied to buffer memory VER. In that case, copy the "Voice name", "Voice mode" and "Common data" to the common data buffer CDB.
, the parameter data of the two elements corresponding to the FM sound source are copied to the two FM element edit buffers 1 and 2 in the FM edit buffer FMEB.
1. The parameter data of the two elements corresponding to the PCM sound source are copied to two PCM element edit buffers 1 and 2 in the PCM edit buffer PCMEB. And the remaining 2 that were not copied
The two FM element edit buffers 3 and 4 contain
storing predetermined initial values (or reference values) of "r element parameter data for FMiJ source";
Similarly, for the remaining two PCM element edit buffers 3 and 4 that were not copied,
By storing predetermined initial values (or reference values) of each element parameter data, for example, by changing the voice mode data stored in the common data buffer CDB during one editing operation. When changing to a voice mode in which all four elements are used as FM sound sources (or PCM sound sources), the contents of the four FM element edit buffers 1 to 4 (or PCM element edit buffers 1 to 4) are immediately used effectively. can do. In other words, if the total number of element edit buffers is set to 4, the maximum number of elements, in the example above, the data content of the element edit buffer must be changed from PCM to FM (or vice versa). It is troublesome. However, if this embodiment is used, such trouble is not required.

なお1合計8個のエレメントエデイツトバッファのうち
使用中の最大4個のエレメントエデイツトバッファのそ
れぞれの先頭アドレスはエデイツトスタートポインタE
 D S (1)〜E D S (4)によって指示さ
れる。
Note that the start address of each of the maximum 4 element edit buffers in use out of a total of 8 element edit buffers is the edit start pointer E.
It is indicated by D S (1) to E D S (4).

f」璽(i:」痕矢睨朋− 次に「ボイスモード」について説明すると、この実施例
において、ボイスモードは10有る。ボイスモードは、
使用する音源の種類と系列数の組合せを主に定義し、更
に単音/複音の区別及び複音の場合は同時発音数を定義
する。使用する音源の種類と系列数の組合せは、4つの
エレメント1〜4で使用する音源がPCMまたはFMの
どちらであるか、あるいはこのエレメントを使用しない
か、を明かにすることにより定義することができる。こ
れは「エレメントタイプ」と称するデータによって定義
される。「エレメントタイプ」には、0、l、2の3タ
イプがあり、それぞれの内容は次の通りである。
f"璽(i:" 綿目朋) Next, to explain the "voice mode", in this embodiment, there are 10 voice modes.The voice modes are as follows:
The combination of the type of sound source to be used and the number of sequences is mainly defined, and furthermore, the distinction between single notes and multiple notes and the number of simultaneous pronunciations in the case of multiple notes are defined. The combination of the type of sound source to be used and the number of sequences can be defined by clarifying whether the sound source used in four elements 1 to 4 is PCM or FM, or whether this element is not used. can. This is defined by data called "element type". There are three types of "element types": 0, 1, and 2, and the contents of each are as follows.

エレメントタイプO・・・不使用 エレメントタイブト・・FM音源を使用するエレメント
タイプ2・・・PCM音源を使用する各ボイスモードに
おける4つの各エレメント1〜4のエレメントタイプは
、第9図に示すような内容のエレメントタイプテーブル
ETTに予め記憶されている。このエレメントタイプテ
ーブルETTには、実質的な同時可能発音数を示すデー
タも記憶されている。実質的な同時可能発音数とは、別
の言い方をすれば、異なる押圧鍵の楽音信号を同時に発
音できる最大値である。
Element type O: Element type not used: Element type 2: Uses an FM sound source Element type 2: Uses a PCM sound source The element types of each of the four elements 1 to 4 in each voice mode are shown in Figure 9. The contents are stored in advance in the element type table ETT. This element type table ETT also stores data indicating the actual number of simultaneous pronunciations. In other words, the actual number of simultaneous pronunciations is the maximum value at which musical tone signals of different pressed keys can be produced simultaneously.

ボイスモード1〜3は、単音発音モードのボイスであり
、同時可能発音数は1である。
Voice modes 1 to 3 are voices in single note production mode, and the number of simultaneous pronunciations is one.

ボイスモード1では、エレメント1がエレメントタイプ
1つまりFM音源であり、他のエレメント2〜4はエレ
メントタイプ0つまり不使用である。従って、FM音源
のエレメント音色からなる単音1系列のボイスである。
In voice mode 1, element 1 is element type 1, that is, an FM sound source, and the other elements 2 to 4 are element type 0, that is, not used. Therefore, it is a single series of voices consisting of element tones of an FM sound source.

ボイスモード2では、エレメント1と2がエレメントタ
イプ1つまりFM音源であり、他のエレメント3,4は
エレメントタイプ0つまり不使用である。従って、FM
音源のエレメント音色からなる単音2系列(2系列とは
同じ押圧鍵に係る楽音が2チヤンネルで発生されること
)のボイスである。
In voice mode 2, elements 1 and 2 are element type 1, that is, FM sound source, and the other elements 3 and 4 are element type 0, that is, not used. Therefore, F.M.
The voice consists of two single-note series (two series means that musical tones related to the same pressed key are generated in two channels) consisting of element tones of the sound source.

ボイスモード3では、全エレメント1〜4がエレメント
タイプ1つまりFM音源である。従って。
In voice mode 3, all elements 1 to 4 are element type 1, that is, FM sound sources. Therefore.

FM音源のエレメント音色からなる単音4系列(4系列
とは同じ押圧鍵に係る楽音が4チヤンネルで発生される
こと)のボイスである。
The voices are four series of single notes (four series means that musical tones related to the same pressed key are generated in four channels) consisting of element tones of an FM sound source.

ボイスモード4〜10は、複音発音モードのボイスであ
り、同時発音可能数はそれぞれテーブルに記された通り
である。
Voice modes 4 to 10 are voices in multitone mode, and the number of voices that can be produced simultaneously is as shown in the table.

ボイスモード4では、エレメント1がエレメントタイプ
1つまりFM音源であり、他のエレメント2〜4はエレ
メントタイプ0つまり不使用である。従って、FM音源
のエレメント音色からなる複音1系列のボイスであり、
同時発音可能数は16音である。
In voice mode 4, element 1 is element type 1, that is, an FM sound source, and the other elements 2 to 4 are element types 0, that is, not used. Therefore, it is a series of multiple-tone voices consisting of element tones of an FM sound source,
The number of sounds that can be produced simultaneously is 16.

ボイスモード5では、エレメント1と2がエレメントタ
イプ1つまりFM音源であり、他のエレメント3,4は
エレメントタイプ0つまり不使用である。従って、FM
音源のエレメント音色からなる複音2系列のボイスであ
り、同時発音可能数は8音である。
In voice mode 5, elements 1 and 2 are element type 1, that is, FM sound source, and the other elements 3 and 4 are element type 0, that is, not used. Therefore, F.M.
It is a two-series voice consisting of the element tones of the sound source, and the number of sounds that can be produced simultaneously is eight.

ボイスモード6では、エレメントlがエレメントタイプ
2つまりPCM音源であり、他のエレメント2〜4はエ
レメントタイプ0つまり不使用である。従って、PCM
音源のエレメント音色からなる複音1系列のボイスであ
り、同時発音可能数は16音である。
In voice mode 6, element 1 is element type 2, ie, a PCM sound source, and the other elements 2 to 4 are element type 0, ie, not used. Therefore, PCM
This is a single series of multiple-tone voices made up of the element tones of the sound source, and the number of sounds that can be produced simultaneously is 16.

ボイスモード7では、エレメント1と2がエレメントタ
イプ2つまりPCM音源であり、他のエレメント3,4
はエレメントタイプOつまり不使用である。従って、P
CM音源のエレメント音色からなる複音2系列のボイス
であり、同時発音可能数は8音である。
In voice mode 7, elements 1 and 2 are element type 2, that is, PCM sound sources, and other elements 3 and 4
is element type O, that is, it is not used. Therefore, P
This is a two-series voice consisting of the elemental tones of a commercial sound source, and the number of sounds that can be produced simultaneously is eight.

ボイスモード8では、全エレメント1〜4がエレメント
タイプ2つまりPCM音源である。従って、PCM音源
のエレメント音色からな、る複音4系列のボイスであり
、1時発音可能数は4音である。
In voice mode 8, all elements 1 to 4 are element type 2, that is, PCM sound sources. Therefore, the voices are four series of complex tones consisting of the element tones of the PCM sound source, and the number of sounds that can be produced at one time is four.

ボイスモード9では、エレメント1がエレメントタイプ
1つまりFM音源、エレメント2がエレメントタイプ2
つまりPCM音源であり、他のエレメント3,4はエレ
メントタイプ0つまり不使用である。従って、PCM音
源のエレメント音色とFM音源のエレメント音色の組合
せからなる複音2系列のボイスであり、同時発音可能数
は16音である。
In voice mode 9, element 1 is element type 1, or FM sound source, and element 2 is element type 2.
That is, it is a PCM sound source, and the other elements 3 and 4 are element type 0, that is, they are not used. Therefore, it is a two-series voice consisting of a combination of element tones of the PCM sound source and element tones of the FM sound source, and the number of sounds that can be produced simultaneously is 16.

ボイスモード10では、エレメント1と2がエレメント
タイプ1つまりFM音源、エレメント3と4がエレメン
トタイプ2つまりPCM音源である。従って、PCM音
源2系列とFM音源2系列の組合せからなる複音−4系
列のボイスであり、同時発音可能数は8音である。
In voice mode 10, elements 1 and 2 are element type 1, that is, FM sound source, and elements 3 and 4 are element type 2, that is, PCM sound source. Therefore, it is a complex-four series of voices consisting of a combination of two PCM sound source series and two FM sound source series, and the number of simultaneous sounds that can be produced is eight.

マイクロコンピュータによる 理に ′する第10図は
データ及びワーキングRAML2内のレジスタにおいて
ストアされる主要なデータを例示したものであり、それ
ぞれの役割はフローチャートの説明に従い、追って明か
にされる。
Figure 10 shows an example of the main data stored in the data and registers in the working RAML2, and the role of each will be clarified later in accordance with the explanation of the flowchart.

第11図はエントリポイントテーブルEPTの内容の一
例を示す、エントリポイントテーブルEPTは1表示部
DPYにおける表示画面(ページ)と操作パネル15に
おけるオンスイッチとの対応に応じて、該スイッチのオ
ンイベントに応じて次に実行すべきルーチンを指示する
テーブルである。
FIG. 11 shows an example of the contents of the entry point table EPT. The entry point table EPT responds to the on event of the switch according to the correspondence between the display screen (page) on one display unit DPY and the on switch on the operation panel 15. This is a table that indicates the next routine to be executed according to the selected routine.

次に、マイクロコンピュータによって実行される処理の
一例につき第12図以降のフローチャートを参照して説
明する。
Next, an example of the process executed by the microcomputer will be described with reference to the flowcharts from FIG. 12 onwards.

第12図はメインルーチンの一例を示しており。FIG. 12 shows an example of the main routine.

まず、電源投入時に所定の初期化処理を行ない。First, when the power is turned on, a predetermined initialization process is performed.

各レジスタやメモリの内容を初期設定する1次に。Primary level that initializes the contents of each register and memory.

「キースキャン及び割当処理」では、鍵盤回路14にお
ける各キースイッチをスキャンしてそのオン・オフを検
出し、押圧鍵を複数の発音チャンネルのうち何れかに割
当てる処理を行う、この「キースキャン及び割当処理」
において実行される処理の一つに「キーオンイベント処
理」があり、その−例は第25図及び第26図に示され
ており、詳細は追って説明する。この「キーオンイベン
ト処理」では、鍵が新たに押圧されたとき、その鍵に対
応する楽音信号の発生をPCM音源17及び/またはF
M音源18のチャンネルに割当てる処理を行なう。
The "key scan and assignment process" scans each key switch in the keyboard circuit 14 to detect whether it is on or off, and then assigns the pressed key to one of a plurality of sound generation channels. "Assignment processing"
One of the processes executed in the process is "key-on event processing", examples of which are shown in FIGS. 25 and 26, and the details will be explained later. In this "key-on event processing", when a key is newly pressed, the PCM sound source 17 and/or F
Processing for assigning to the channel of the M sound source 18 is performed.

「演奏コントローラ処理」では、演奏コントローラ16
の操作を検出し、操作状態が変化したとき所定の処理を
行なう。
In "performance controller processing", the performance controller 16
detects the operation, and performs predetermined processing when the operation state changes.

「ファンクションスイッチ処理」では、ファンクション
スイッチ部FSWのオンイベント(オフからオンに変化
したこと)を検出し、オンイベントが検出されたなら、
第13図に示すようなファンクションスイッチオンイベ
ントルーチンを行なう。
In "function switch processing", an on event (change from off to on) of the function switch unit FSW is detected, and if the on event is detected,
A function switch-on event routine as shown in FIG. 13 is performed.

「その他パネルスキャン処理」では、操作パネル15に
おけるその他の操作子やキースイッチをスキャンしてそ
のオン・オフを検出し、その検出に基づき各種処理を行
う、その−例としては、オンされたキースイッチと表示
部DPYの現在のページに応じて第11図のエントリポ
イントテーブルEPTを参照し、第14図乃至第24図
に示すようなスイッチオンイベントサブルーチンを呼び
出す。
"Other panel scan processing" scans other controls and key switches on the operation panel 15 to detect whether they are on or off, and performs various processes based on the detection. The entry point table EPT shown in FIG. 11 is referred to in accordance with the switch and the current page of the display unit DPY, and the switch-on event subroutines shown in FIGS. 14 to 24 are called.

エントリポイントテーブルEPTの 第11図のエントリポイントテーブルEPTは、たて欄
が各キー若しくはスイッチのオンイベントを示し、横欄
がそのスイッチオンイベント時点での表示部DPYのペ
ージを示す、たて欄と横欄の交点に記された記号が、呼
び出されるべきサブルーチン(つまり該サブルーチンの
エントリポイント)を示す、各サブルーチンの説明は追
って行なう、なお、ここで、記号rNoEPJは「ノー
・エントリポイント」を意味し、呼び出されるべきサブ
ルーチン(つまりエントリポイント)がないことを示す
The entry point table EPT shown in FIG. 11 has a vertical column in which the vertical column indicates the on event of each key or switch, and the horizontal column indicates the page of the display unit DPY at the time of the switch on event. The symbol written at the intersection of the horizontal column indicates the subroutine to be called (that is, the entry point of the subroutine). Each subroutine will be explained later. Note that here, the symbol rNoEPJ indicates "no entry point". This means that there is no subroutine (or entry point) to be called.

ファンクシ膳ンスイッチ  時の 理 何らかのファンクションスイッチF1〜F8がオンされ
たとき第13図のファンクションスイッチオンイベント
ルーチンが行なわれる。ここで番りまず、オンされたフ
ァンクションスイッチの番号をファンクションスイッチ
バッファFSWBUFに記憶し1次に、このファンクシ
ョンスイッチバッファFSWBUFと現在ページPAG
Eとにより第11図のエントリポイントテーブルEPT
を参照し、該ページにおいて該ファンクシ1ンスイツチ
に割当てられている所定のイベント処理サブルーチンの
エントリポイントデータを得て、これをエントリポイン
トバッファEPBUFに記憶する。そして、このエント
リポイントバッファEPBUFの内容がノー・エントリ
ポイントNoEPではないことを確認した後、このエン
トリポイントバッファEPBUFの内容に対応するイベ
ント処理サブルーチンをコールする。なお、現在ページ
PAGEとは、表示部DPYの現在の表示ページを示す
ものである。
Function Switch On When any of the function switches F1 to F8 is turned on, the function switch on event routine shown in FIG. 13 is executed. First, the number of the turned-on function switch is stored in the function switch buffer FSWBUF, and then this function switch buffer FSWBUF and the current page PAG are stored.
E to create the entry point table EPT in Figure 11.
, obtains the entry point data of a predetermined event processing subroutine assigned to the function switch in the page, and stores this in the entry point buffer EPBUF. After confirming that the contents of this entry point buffer EPBUF are not No/Entry Point NoEP, the event processing subroutine corresponding to the contents of this entry point buffer EPBUF is called. Note that the current page PAGE indicates the current display page of the display unit DPY.

ボイスの週UλUニー この電子楽器において1発音のために、若しくは編集作
業のために、現在選択されている1つのボイスを示すボ
イスナンバは、所定のレジスタつまりボイスナンバレジ
スタに記憶される。このボイスナンバレジスタに記憶さ
れているボイスナンバをVNで示す、このボイスナンバ
VNを参照することにより現在どのボイスが選択されて
いるかがわかる。
Voice number UλU knee A voice number indicating one voice currently selected for one sound generation or for editing work in this electronic musical instrument is stored in a predetermined register, that is, a voice number register. The voice number stored in this voice number register is indicated by VN. By referring to this voice number VN, it is possible to know which voice is currently selected.

所望のボイスの選択は1表示部DPYに第27図に例示
するような「ボイス選択」ページを呼び出すことにより
行なう0表示部DPYの表示画面が「ボイス選択」以外
のページのとき、ボイスキーVOICE (第7図)を
押すことにより、エントリポイントテーブルEPT(第
11図)では「ボイス選択サブルーチンJ EPVを呼
び出し、ボイスの選択が可能になる。
The desired voice can be selected by calling the "Voice Selection" page as shown in FIG. 7), the entry point table EPT (FIG. 11) calls the "Voice Selection Subroutine JEPV" and enables voice selection.

ボイス選択サブルーチンEPVにつき第14図を参照し
て説明すると、まず、表示部DPYのページを指示する
現在ページPAGEの内容を、「ボイス選択」ページを
指示するrlJにセットする(ステップ50)。
The voice selection subroutine EPV will be explained with reference to FIG. 14. First, the contents of the current page PAGE indicating the page on the display section DPY are set to rlJ indicating the "voice selection" page (step 50).

次に、表示部DPYの画面表示を第27回に例示するよ
うな「ボイス選択」ページにし1選択可能な各ボイスの
ボイス名をボイスナンバと共に表示すると共に、カーソ
ルをボイスナンバVNによって指示される特定のボイス
の位置に置く(ステップ51)。
Next, the screen display of the display unit DPY is changed to the "Voice Selection" page as exemplified in the 27th episode, and the voice name of each selectable voice is displayed together with the voice number, and the cursor is moved to the voice number VN. It is placed at a specific voice position (step 51).

次に、ボイスデータメモリVDM (第8図)を読み出
すためのボイスデータポインタVOI CEPを、現在
のボイスナンバVNに対応する値に設定する(ステップ
52)。
Next, the voice data pointer VOI CEP for reading out the voice data memory VDM (FIG. 8) is set to a value corresponding to the current voice number VN (step 52).

次に、ボイスデータポインタVOI CE Pによって
指示されたボイスデータエリアからボイスモードデータ
を読み出し、これをボイスモードレジスタVMODEに
セットする。つまりVMODEは現在選択されているボ
イスのボイスモードを示す、また、エレメントスタート
ポインタE S P (1)〜ESP(4)を、ボイス
データポインタVOICEPによって指示されたボイス
データエリアにおける4つの「エレメントパラメータデ
ータ」エリアに対応する値にそれぞれ設定する(ステッ
プ53)。
Next, voice mode data is read from the voice data area indicated by the voice data pointer VOI CE P and set in the voice mode register VMODE. In other words, VMODE indicates the voice mode of the currently selected voice, and element start pointers ESP (1) to ESP (4) are used to indicate the four "element parameters" in the voice data area indicated by the voice data pointer VOICEP. The data area is set to the corresponding value (step 53).

次に、ボイスモードレジスタVMODEの内容に応じて
エレメントタイプテーブルETT (第9図)を参照し
、そのボイスモードにおける同時発音可能数(エレメン
トタイプテーブルETTの同時発音可能数の欄の値)を
決定し、これを同時発音可能数レジスタN5C)(にス
トアする(ステップ54)。
Next, depending on the contents of the voice mode register VMODE, refer to the element type table ETT (Fig. 9) and determine the number of simultaneous sounds (the value in the column of the number of simultaneous sounds in the element type table ETT) in that voice mode. This is then stored in the register N5C for the number of simultaneous sounds (step 54).

このようにして表示部DPYで第27図に例示するよう
な「ボイス選択」ページを表示した状態において、次に
、データ入力部42またはカーソルキーC8R(第7図
)を操作すると、これに応じてボイスナンバVNが変更
され、所望のボイスを選択することができる。
With the "voice selection" page shown in FIG. 27 displayed on the display DPY in this way, next time you operate the data input section 42 or the cursor key C8R (FIG. 7), the The voice number VN is changed and the desired voice can be selected.

この点について説明すると、「ボイス選択」ページを表
示した状態において、データ入力部42が操作されると
、エントリポイントテーブルEPT(第11図)では「
ボイス選択数値入力サブルーチンJEPDS(1)を呼
び出す、また、「ボイス選択」ページを表示した状態に
おいて、カーソルキーC8R□が操作されると、エント
リポイントテーブルEPT(第11図)では「ボイス選
択カーソルキーオンイベントサブルーチンJ EPCD
(1)を呼び出す、なお、カーソルキーC5Rには。
To explain this point, when the data input section 42 is operated while the "Voice Selection" page is displayed, the entry point table EPT (FIG. 11) displays "
When the voice selection numeric input subroutine JEPDS (1) is called and the cursor key C8R□ is operated with the "Voice selection" page displayed, the "Voice selection cursor key on" is displayed in the entry point table EPT (Figure 11). Event subroutine J EPCD
Call (1), and press cursor key C5R.

上下方向カーソルと左右方向カーソルの2種類があり、
それぞれの処理内容は幾分異なるが、説明の便宜上、カ
ーソルキーC5Rが1つであるとして説明する。
There are two types of cursors: up and down cursors and left and right cursors.
Although the respective processing contents are somewhat different, for convenience of explanation, the description will be made assuming that there is only one cursor key C5R.

ボイス選択数値入力サブルーチンE P D S (1
)とボイス選択カーソルキーオンイベントサブルーチン
EPCD(1)につき第15図を参照して説明すると、
まず、データ入力部42が機作された場合は、このデー
タ入力部42によって入力された数値に応じてボイスナ
ンバVNを変更する(ステップ55)。
Voice selection numerical value input subroutine E P D S (1
) and the voice selection cursor key-on event subroutine EPCD (1) will be explained with reference to FIG.
First, when the data input section 42 is operated, the voice number VN is changed according to the numerical value inputted by the data input section 42 (step 55).

次に1表示部DPYにおけるカーソルの位置を新しいボ
イスナンバVNによって指示される特定のボイスの位置
に移す(ステップ56)。
Next, the position of the cursor in one display section DPY is moved to the position of a specific voice indicated by the new voice number VN (step 56).

次に行なうステップ57,58.59の処理は第14図
のステップ52,53.54の処理と同じものであり、
新しいボイスナンバVNに対応してボイスデータポイン
タVOICEP及びエレメントスタートポインタE S
 P (1)〜E S P (4)の設定と、ボイスモ
ードVMODEのセットと、そのボイスモードに応じた
同時発音可能数レジスタN5CHの設定を行なう。
The processes of steps 57, 58, and 59 to be performed next are the same as the processes of steps 52, 53, and 54 in FIG.
The voice data pointer VOICEP and element start pointer E S correspond to the new voice number VN.
The settings of P (1) to E S P (4), the voice mode VMODE, and the simultaneous sound generation register N5CH corresponding to the voice mode are performed.

カーソルキーC8Rが押された場合は、ボイスナンバV
Nの値を1増加する(ステップ60)。
If cursor key C8R is pressed, voice number V
The value of N is increased by 1 (step 60).

この増加はモジュロ16で行なう、モジュロ16とした
理由は、選択可能なボイス数を16としたためである。
This increase is done by modulo 16. The reason for modulo 16 is that the number of selectable voices is 16.

その後、上述のステップ56〜59の処理を行なう。Thereafter, the processes of steps 56 to 59 described above are performed.

上記から明らかなように、データ入力部42の操作によ
れば所望のボイスナンバを一度で入力することができ、
カーソルキーC8Rでは1回の抑圧毎にボイスナンバV
Nを1つづつずらすことにより最終的に所望のボイスナ
ンバを入力する。
As is clear from the above, a desired voice number can be input at once by operating the data input section 42.
With cursor key C8R, voice number V is pressed every time it is suppressed.
By shifting N by one, the desired voice number is finally input.

三ヨ理への導2、 所望のボイスのボイスデータを変更・修正する編集作業
を行なう場合、まず、上述のように表示部DPYに「ボ
イス選択」ページを呼び出して所望のボイスの選択を行
ない、各レジスタの内容VN、VOIC:EP、VMO
DE、N5CH,ESP (1)〜E S P (4)
を該所望のボイスに対応する内容に設定する0次に、エ
デイツトキーEDIT(第7図)を押すことにより、エ
デイツト処理に入ることができる。
Guide to Sanyori 2. When performing editing work to change or modify the voice data of a desired voice, first call up the "Voice Selection" page on the display DPY as described above and select the desired voice. , contents of each register VN, VOIC:EP, VMO
DE, N5CH, ESP (1) ~ ESP (4)
Next, by pressing the edit key EDIT (FIG. 7), editing processing can be entered.

表示部DPYの表示画面が「ボイス選択」ページのとき
、エデイツトキーEDITを押すことにより、エントリ
ポイントテーブルEPT (第11図)では「エデイツ
ト導入ルーチンJ EPEDを呼び出す、このエデイツ
ト導入ルーチンEPEDの詳細例は第16図に示されて
いる。
When the display screen of the display unit DPY is the "Voice selection" page, by pressing the edit key EDIT, the entry point table EPT (Figure 11) will display "Calling edit introduction routine J EPED." A detailed example of this edit introduction routine EPED is shown below. It is shown in FIG.

エデイツト導入ルーチンEPEDでは、まず。In the editor introduction routine EPED, first.

ボイスナンバVNに応じたボイスデータエリアからボイ
スデータ1式を読み出して、ボイスエデイツトバッファ
VER(第8図)にコピーする(ステップ61)、以後
1種々の編集機作は、ボイスエデイツトバッファメモリ
VEBに記憶さ建1ているボイスデータに対して施され
る。いわば、ボイスエデイツトバッファメモリVERは
、ボイスデータを編集するための専用のバッファである
A set of voice data is read from the voice data area corresponding to the voice number VN and copied to the voice edit buffer VER (Fig. 8) (step 61). From now on, various editing mechanisms are performed in the voice edit buffer memory. This is applied to the voice data stored in the VEB. In other words, the voice edit buffer memory VER is a dedicated buffer for editing voice data.

ボイスエデイツトバッフアメそりVEBに対するボイス
データ1式のコピーの仕方は、前述した通りである。す
なわち、「ボイス名」、「ボイスモード」及び「コモン
データ」はコモンデータバッファCDBにコピーする。
The method of copying a set of voice data to the voice edit buffer VEB is as described above. That is, the "voice name", "voice mode" and "common data" are copied to the common data buffer CDB.

また、最大で4つのエレメントに対応する各パラメータ
データは、そのエレメントタイプに応じて、FM音源に
対応するものはFMエデイツトバッファFMEBにおけ
る4つのFMエレメントエデイツトバッファ1乃至4の
うち番号の若いものに対して順にコピーし、PCM音源
に対応するものはPCMエデイツトバッファPCMEB
における4つのPCMエレメントエデイツトバッファ1
乃至4のうち番号の若いものに対して順にコピーする。
Also, each parameter data corresponding to up to four elements is stored in the FM edit buffer FMEB, depending on the element type, and the one corresponding to the FM sound source is stored in the lowest number of the four FM element edit buffers 1 to 4 in the FM edit buffer FMEB. The items corresponding to the PCM sound source are copied to the PCM edit buffer PCMEB.
4 PCM element edit buffer 1 in
4 to 4, copies are made in order of the smallest number.

そして、データがコピーされなかった残りのFMエレメ
ントエディットバッファには、FM音源用の「エレメン
トパラメータデータ」の所定の初期値(若しくは基準値
)をそれぞれ記憶し、同様に、データがコピーされなか
った残りのPCMエレメントエデイツトバッファには、
PCM音源用の「エレメントパラメータデータ」の所定
の初期値(若しくは基準値)をそれぞれ記憶する。
Then, predetermined initial values (or reference values) of "element parameter data" for the FM sound source are stored in the remaining FM element edit buffers to which data has not been copied, and similarly, if data has not been copied, The remaining PCM element edit buffers contain
Each predetermined initial value (or reference value) of "element parameter data" for the PCM sound source is stored.

次に、ボイスデータポインタVOI CE Pの値をエ
デイツトバッファメモリVERの先頭アドレスにセット
し、かつ、エデイツトスタートポインタE D S (
1)〜E D S (4)の値を、FMエデイツトバッ
ファFMEBにおける4つのFMエレメントエデイツト
バッファ1乃至4とPCMエデイツトバッファPCME
Bにおける4つのPCMエレメントエデイツトバッファ
1乃至4のうち、4つの各エレメントに対応するパラメ
ータデータをコピーしたエレメントエデイツトバッファ
の先頭アドレスにそれぞれセットする。従って、FMエ
デイツトバッファFMEB及びPCMエデイツトバッフ
ァPCMEHにおける合計8個のエレメントエデイツト
バッファのうち、現在編集作業中のボイスに関する各エ
レメント1乃至4に対応するパラメータデータを記憶し
ているものが、エデイツトスタートポインタE D S
 (1)〜E D S (4)によってそれぞれ指示さ
れる。
Next, the value of the voice data pointer VOI CE P is set to the start address of the edit buffer memory VER, and the value of the edit start pointer ED S (
1) to ED S (4) to the four FM element edit buffers 1 to 4 in the FM edit buffer FMEB and the PCM edit buffer PCME.
Of the four PCM element edit buffers 1 to 4 in B, parameter data corresponding to each of the four elements is set at the start address of the copied element edit buffer. Therefore, among a total of eight element edit buffers in the FM edit buffer FMEB and the PCM edit buffer PCMEH, the one that stores parameter data corresponding to each element 1 to 4 regarding the voice currently being edited is Edit start pointer EDS
(1) to E D S (4), respectively.

次に、コモンデータバッファCDBからボイスモードデ
ータを読み出して、これをVMODEにセットし、この
ボイスモードVM(>DEが10個のボイスモード1〜
10(第9図参照)のうちとれとれであるかを調べる(
ステップ63)。
Next, read the voice mode data from the common data buffer CDB, set it to VMODE, and set this voice mode data to the voice mode VM (>DE is 10 voice modes 1 to 10).
10 (see Figure 9).
Step 63).

ボイスモードVMODEの内容がエレメント1のみを使
用するボイスモード1,4または6を示す場合は、ステ
ップ64に行き、エデイツトモードEMODEが2より
も大であるかを調べる。
If the contents of voice mode VMODE indicate voice mode 1, 4, or 6 using only element 1, the process goes to step 64 to see if edit mode EMODE is greater than 2.

エデイツトモードEMODEとは、現時点でのg集作業
の内容を示すもので、0乃至5のいずれかの値をとり、
その値と編集内容との関係は次の通りである。
Edit mode EMODE indicates the content of the g collection work at the present time, and takes a value from 0 to 5.
The relationship between the value and the editing content is as follows.

EMODE=O:ボイスモードの選択 EMODE=1 :コモンデータの編集EMODE=2
 :エレメント1のデータ編集EMODE=3 :エレ
メント2のデータ編集EMODE=4 :エレメント3
のデータ編集EMODE=5 :エレメント4のデータ
編集従って、エデイツトモードEMODEが2よりも大
とは、エレメント2または3,4のデータ編集を行なう
モードであることを意味し、エレメント1のみを使用す
るボイスモード1,4または6においては不要のもので
ある。従って、ステップ64がYESの場合は、ステッ
プ65に行き、エデイツトモードEMODEを0にリセ
ットする。
EMODE=O: Voice mode selection EMODE=1: Common data editing EMODE=2
:Element 1 data editing EMODE=3 :Element 2 data editing EMODE=4 :Element 3
EMODE = 5: Data editing of element 4 Therefore, if the edit mode EMODE is greater than 2, it means that the mode is for editing data of element 2, 3, or 4, and only element 1 is used. This is unnecessary in voice modes 1, 4, or 6. Therefore, if step 64 is YES, the process goes to step 65 and the edit mode EMODE is reset to 0.

ボイスモードVMODEの内容がエレメント1と2のみ
を使用するボイスモード2,5.7または9を示す場合
は、ステップ66に行き、エデイツトモードEMODE
が3よりも大であるかを調べる。エデイツトモードEM
ODEが3よりも大とは、エレメント3または4のデー
タ編集を行なうモードであることを意味し、エレメント
1と2のみを使用するボイスモード2,5,7または9
においては不要のものである。従って、ステップ66が
YESの場合は、ステップ67に行き、エデイツトモー
ドEMODEを0にリセットする。
If the contents of voice mode VMODE indicate voice mode 2, 5.7, or 9, which uses only elements 1 and 2, go to step 66 and enter edit mode EMODE.
Check whether is greater than 3. Edit mode EM
ODE greater than 3 means that the mode is for data editing of element 3 or 4, voice mode 2, 5, 7 or 9 that uses only elements 1 and 2.
It is unnecessary in this case. Therefore, if step 66 is YES, the process goes to step 67 and the edit mode EMODE is reset to 0.

ボイスモードVMODEの内容が全エレメント1〜4を
使用するボイスモード3,8または1゜を示す場合は、
エデイツトモードEMODEの判断は行なわずに、ステ
ップ68に行く。
If the contents of voice mode VMODE indicate voice mode 3, 8 or 1° which uses all elements 1 to 4,
The process goes to step 68 without making a determination as to whether the edit mode is EMODE.

ステップ68では、エデイツトモードEMODEの値が
O〜5のいずれであるかを調べ、それに応じたエデイツ
ト導入サブルーチン(ステップ69〜74)を実行する
In step 68, it is determined which value of the edit mode EMODE is from 0 to 5, and the corresponding edit introduction subroutine (steps 69 to 74) is executed.

ボイスj二五産灰 エデイツトモードEMODEの値が0であれば。voice j 25 ash If the value of edit mode EMODE is 0.

ボイスモード選択導入サブルーチンVMSSUBを行な
う、このサブルーチンVMSSUBの一例は第17図に
示されている。
An example of the voice mode selection introduction subroutine VMSSUB is shown in FIG.

まず、ステップ75では、表示部DPYのページを指示
する現在ページPAGEの内容を、[ボイスモード選択
」ページを指示する所定の値nEにセットする。
First, in step 75, the contents of the current page PAGE indicating the page on the display section DPY are set to a predetermined value nE indicating the "Voice Mode Selection" page.

次のステップ76では、表示部DPYの画面表示を第2
8図に例示するような「ボイスモード選択」ページにし
、各ボイスモード1〜10における音源と系列数の組合
せ情報及び単音/複音の区別を示す情報を表示し、現在
のボイスモードVMODEによって指示される特定のボ
イスモード(つまり現在選択されているボイスモード)
の位置にカーソルを置くと共に、現在選択されている該
ボイスモードにおける各エレメント1〜4の音源タイプ
を右上に表示する(これをエレメント構成表示という)
、また、各ファンクションスイッチF1〜F5に対応す
る表示としてrMODEJ。
In the next step 76, the screen display of the display unit DPY is changed to the second
The "Voice Mode Selection" page as illustrated in Figure 8 is displayed, and the combination information of the sound source and number of sequences in each voice mode 1 to 10 and information indicating the distinction between single notes and double notes are displayed, and the page is displayed as indicated by the current voice mode VMODE. specific voice mode (i.e. the currently selected voice mode)
Place the cursor at the position, and display the sound source type of each element 1 to 4 in the currently selected voice mode in the upper right corner (this is called element configuration display).
, and rMODEJ as a display corresponding to each function switch F1 to F5.

rcOMJ、rE 1」、rE2J、rE 3J、rE
4Jを表示し、各ファンクションスイッチF1〜F5の
機能がエデイツトモード選択機能となっていることを示
す、rMODEJはボイスモード選択を示し、rcOM
Jはコモンデータエデイツトを示し、「El」〜「E4
」はそれぞれエレメント1〜4のデータ編集を行なうエ
デイツトモードを示す、このファンクションスイッチ表
示においては、現在のエデイツトモード(この例ではボ
イスモード選択MODE)を通常に表示し、他のエデイ
ツトモードを白抜きで表示してそれらのエデイツトモー
ドがファンクションスイッチ操作によって選択可能であ
ることを示す。
rcOMJ, rE 1'', rE2J, rE 3J, rE
4J is displayed, indicating that the function of each function switch F1 to F5 is the edit mode selection function, rMODEJ indicates voice mode selection, and rcOM
J indicates common data edit, and "El" to "E4"
” indicates the edit mode for editing data for elements 1 to 4. In this function switch display, the current edit mode (voice mode selection MODE in this example) is normally displayed, and other edit modes are are displayed in white to indicate that these edit modes can be selected by operating the function switch.

なお1表示部DPYの画面表示を第28図に例示するよ
うな「ボイスモード選択」ページにする処理は、上述の
ようなボイスモード選択導入サブルーチンVMSSUB
によらずに、ボイスモード選択サブルーチンEPVMに
よってもよい、つまり、ボイスモード選択ページ以外の
エデイツトモードのページにおいては、上述のように、
ファンクションスイッチFlにボイスモード選択が割当
てられるようになっており1表示部DPYにおいてこれ
らのエデイツトモードのページが表示されているときフ
ァンクションスイッチF1がオンされると、エントリポ
イントテーブルEPT(第11図)では「ボイスモード
選択サブルーチン」EPVMを呼び出す。
Note that the process of changing the screen display of the first display unit DPY to the "voice mode selection" page as illustrated in FIG. 28 is performed by the voice mode selection introduction subroutine VMSSUB as described above.
In other words, in edit mode pages other than the voice mode selection page, as described above,
Voice mode selection is assigned to the function switch Fl, and when the function switch F1 is turned on while these edit mode pages are being displayed on the display unit DPY, the entry point table EPT (Fig. 11) is displayed. ) calls the "voice mode selection subroutine" EPVM.

このボイスモード選択サブルーチンEPVMは第17図
においてボイスモード選択導入サブルーチンVMSSU
Bと一緒に示されている。まず。
This voice mode selection subroutine EPVM is the voice mode selection introduction subroutine VMSSU in FIG.
Shown together with B. first.

ステップ77において、エデイツトモードEMODEを
「ボイスモード選択」を示す「0」にセットし、次に前
記ステップ75.76の処理を行なう。
In step 77, the edit mode EMODE is set to "0" indicating "voice mode selection", and then steps 75 and 76 are performed.

このようにして表示部DPYで第28図に例示するよう
な「ボイスモード選択」ページを表示した状態において
、次に、データ入力部42またはカーソルキーC8Rを
操作すると、これに応じてボイスモードVMODEの値
が変更され、所望のボイスモードを選択することができ
る。
With the "Voice Mode Selection" page shown in FIG. 28 displayed on the display section DPY in this manner, when the data input section 42 or the cursor key C8R is operated, the voice mode VMODE is selected accordingly. The desired voice mode can be selected.

この点について説明すると、「ボイスモード選択」ペー
ジを表示した状態において、データ入力部42が操作さ
れると、エントリポイントテーブルEPT(第11図)
では「ボイスモード選択数値入力サブルーチンJ EP
DS(nE)を呼び出す、また、「ボイスモード選択」
ページを表示した状態において、カーソルキーC8Rが
操作されると、エントリポイントテーブルEPT(第1
1図)では「ボイスモード選択カーソルキーオンイベン
トサブルーチンJ EPCD(nE)を呼び出す。
To explain this point, when the data input section 42 is operated while the "voice mode selection" page is displayed, the entry point table EPT (Fig. 11)
``Voice mode selection numeric input subroutine J EP
Call DS (nE), also select "Voice mode selection"
When the cursor key C8R is operated while the page is displayed, entry point table EPT (first
1) calls the voice mode selection cursor key-on event subroutine JEPCD(nE).

ボイスモード選択数値入力サブルーチンEPDS(nE
)とボイスモード選択カーソルキーオンイベントサブル
ーチンEPCD(nE)につき第18図を参照して説明
すると、まず、データ入力部42が繰作された場合は、
このデータ入力部42によって入力された数値に応じて
ボイスモードVMODEを変更すル(ステップ78)。
Voice mode selection numerical value input subroutine EPDS (nE
) and voice mode selection cursor key-on event subroutine EPCD(nE) will be explained with reference to FIG. 18. First, when the data input section 42 is operated,
The voice mode VMODE is changed according to the numerical value input by the data input section 42 (step 78).

次に、表示部DPYにおけるカーソルの位置を新しいボ
イスモードVMODEによって指示される特定のボイス
モードの位置に移す(ステップ79)。
Next, the position of the cursor on the display section DPY is moved to the position of the specific voice mode indicated by the new voice mode VMODE (step 79).

新しいボイスモードVMODEに応じてエレメントタイ
プテーブルETT (第9図)から該ボイスモードにお
ける各エレメント1〜4の音源タイプを読み出し、これ
に応じたエレメント構成表示を表示部DPYの画面右上
にて行なう(ステップ80)。
In accordance with the new voice mode VMODE, the sound source type of each element 1 to 4 in the voice mode is read from the element type table ETT (Fig. 9), and the element configuration corresponding to this is displayed at the upper right of the screen of the display unit DPY ( Step 80).

次に、新しいボイスモードVMODEに応じてエデイツ
トバッファメモリVEBにおける各エレメント1〜4の
エデイツトスタートポインタEDS (1)〜E D 
S (4)の値を再設定する(ステップ81)、これは
、各エデイツトスタートポインタED S (1) 〜
E D S (4)を、新しいボイX(−−ドVMOD
Eに合わせるためである。
Next, the edit start pointers EDS (1) to E D of each element 1 to 4 in the edit buffer memory VEB are set according to the new voice mode VMODE.
The value of S (4) is reset (step 81), which corresponds to each edit start point EDS (1) ~
E D S (4), new VOI X (--DO VMOD
This is to match E.

次に、新しいボイスモードVMODEの内容に応じてエ
レメントタイプテーブルETTを参照し、そのボイスモ
ードにおける同時発音可能数(エレメントタイプテーブ
ルETTの同時発音可能数の欄の値)を決定し、これを
同時発音可能数レジスタN5CHにストアする(ステッ
プ82)。
Next, according to the contents of the new voice mode VMODE, refer to the element type table ETT, determine the number of simultaneous sounds in that voice mode (the value in the column for the number of simultaneous sounds in the element type table ETT), and It is stored in the register N5CH for the number of sounds that can be produced (step 82).

カーソルキーC8Rが押された場合は、ボイスモードV
MODEの値を1増加する(ステップ83)、ボイスモ
ードの値が1から10の範囲で変化するようにするため
に、1増加したVMODEの値が10よりも大となった
ら、このVMODEの値を「1」にリセットする(ステ
ップ84,85)、その後、上述のステップ79〜82
の処理を行なう。
If cursor key C8R is pressed, voice mode V
The value of MODE is increased by 1 (step 83). If the value of VMODE increased by 1 is greater than 10, the value of this VMODE is is reset to "1" (steps 84, 85), then steps 79 to 82 described above
Process.

上記から明らかなように、データ入力部42の操作によ
れば所望のボイスモードを一度で選択することができ、
カーソルキーC8Rでは1回の抑圧毎にボイスモードV
MODEの値を1つづつずらすことにより最終的に所望
のボイスモードを選択する。
As is clear from the above, a desired voice mode can be selected at once by operating the data input section 42,
With cursor key C8R, voice mode V is set for each suppression.
By shifting the value of MODE one by one, the desired voice mode is finally selected.

ご−V−>データのU− 第16図のステップ68でエデイツトモードEMODE
の値が1であると判断されると、コモンデータエデイツ
ト導入サブルーチンC0M5UBを行なう、このサブル
ーチンC0M5UBの一例は第19図に示されている。
Go-V->Data U- At step 68 in Figure 16, edit mode EMODE is selected.
When it is determined that the value of is 1, the common data edit introduction subroutine C0M5UB is executed. An example of this subroutine C0M5UB is shown in FIG.

まず、ステップ86では1表示部DPYのページを指示
する現在ページPAGEの内容を、「コモンデータエデ
イツト」ページを指示する所定の値nE+1にセットす
る。
First, in step 86, the content of the current page PAGE indicating the page of one display section DPY is set to a predetermined value nE+1 indicating the "common data edit" page.

次のステップ87では、表示部DPYの画面表示を第2
9図に例示するような「コモンデータエデイツト」メニ
ューのページにし、各種コモンデータ名を表示し、現在
渇択されているコモンデータ名にカーソルを置くと共に
、@在選択されているボイスモードVMODEにおける
各エレメント1〜4の音源タイプを右上に表示する。ま
た、前述と同様に各ファンクションスイッチF1〜F5
に対応する表示を行う、なお、ここで、現在選択されて
いるボイスモードVMODEにおけるエレメント構成に
おいて使用しな゛いエレメントに対応するファンクショ
ンスイッチ表示はなされない。
In the next step 87, the screen display of the display unit DPY is changed to the second
Display the "Common Data Edit" menu page as shown in Figure 9, display various common data names, place the cursor on the currently selected common data name, and select the currently selected voice mode VMODE. The sound source type of each element 1 to 4 is displayed in the upper right corner. In addition, as described above, each function switch F1 to F5
Note that here, function switches corresponding to elements that are not used in the element configuration in the currently selected voice mode VMODE are not displayed.

第29図の例ではrE3J、rElが表示されていない
In the example of FIG. 29, rE3J and rEl are not displayed.

なお1表示部DPYの画面表示を第29図に例示するよ
うな「コモンデータエデイツト」メニューのページにす
る処理は、上述のようなコモンデータエデイツト導入サ
ブルーチンC0M5UBによらずに、コモンデータエデ
イツトサブルーチンEPCOMによってもよい、つまり
、「コモンデータエデイツト」メニューのページ以外の
エデイツトモードのページにおいては、前述のように、
ファンクションスイッチF2にコモンデータの編集を選
択する機能が割当てられるようになっており。
Note that the process of changing the screen display of the first display unit DPY to the "Common Data Edit" menu page as shown in FIG. In other words, in edit mode pages other than the "common data edit" menu page, as described above,
The function of selecting common data editing is now assigned to function switch F2.

表示部DPYにおいてこれらのエデイツトモードのペー
ジが表示されているときファンクションスイッチF2が
オンされると、エントリポイントテーブルEPT(第1
1図)では「コモンデータエデイツトサブルーチンJ 
EPCOMを呼び出す。
When function switch F2 is turned on while these edit mode pages are displayed on display unit DPY, entry point table EPT (first
1), the “common data edit subroutine J
Call EPCOM.

このコモンデータエデイツトサブルーチンEPCOMは
第19図においてコモンデータエデイツト導入サブルー
チンC0M5UBと一緒に示されている。ここでは、ス
テップ88において、エデイツトモードEMODEを[
コモンデータエデイツト」を示すrlJにセットし1次
に前記ステップ86.87の処理を行なう。
This common data edit subroutine EPCOM is shown together with the common data edit introduction subroutine C0M5UB in FIG. Here, in step 88, the edit mode EMODE is set to [
"Common Data Edit" is set to rlJ, and the processing of steps 86 and 87 is performed first.

このようにして表示部DPYで第29図に例示するよう
な「コモンデータエデイツト」メニューのページを表示
した状態において1次に、データ入力部42またはカー
ソルキーC8Rを操作すると、これに応じてカーソルが
動き、所望のコモンデータを選択することができる。所
望のコモンデータを選択した後、エンターキーENTE
R(第7図)を押すと、エントリポイントテーブルEP
T(第11図)を参照して「コモンデータエデイツト」
の下位のサブルーチンEPET (nE+1)が呼び出
され、これに従い1表示部DPYのページが下位ページ
に切り替わり、所望のコモンデータの詳細内容の変更・
修正を行なうことができる。
In this way, when the data input section 42 or the cursor key C8R is operated while the "Common Data Edit" menu page as shown in FIG. 29 is displayed on the display section DPY, the The cursor moves and desired common data can be selected. After selecting the desired common data, press the enter key ENTE.
Press R (Figure 7) to display the entry point table EP.
"Common Data Edit" with reference to T (Figure 11)
The lower subroutine EPET (nE+1) is called, and accordingly the page of 1 display section DPY is switched to the lower page, and the detailed contents of the desired common data can be changed and
Corrections can be made.

この下位のサブルーチンEPET (nE+1)につい
ては説明を省略する。
Description of this lower subroutine EPET (nE+1) will be omitted.

炙も乞メントのデータ綴萼− ここではエレメント1に関するデータ編集についてその
詳細を説明し、他のエレメント2〜4に関するデータ編
集はこれとほぼ同様の処理であるため詳細説明を省略す
る。
Data collection of Roasted Menu - Here, the details of data editing regarding element 1 will be explained, and the detailed explanation of data editing regarding other elements 2 to 4 will be omitted because the processing is almost the same as this.

第16図のステップ68でエデイツトモードEMODE
の値が2であると判断されると、エレメント1のエデイ
ツト導入サブルーチンEISUBを行なう、このサブル
ーチンEISUBの一例は第20図に示されている。
In step 68 of Fig. 16, edit mode EMODE is selected.
When it is determined that the value of is 2, the edit introduction subroutine EISUB of element 1 is executed. An example of this subroutine EISUB is shown in FIG.

まず、ステップ89では、ボイスモードVMODEに応
じてエレメントタイプテーブルETTを参照し、エレメ
ント1の音源タイプを読み出し、これをエレメントタイ
プバッファETBUFにストアする。
First, in step 89, the element type table ETT is referred to in accordance with the voice mode VMODE, the sound source type of element 1 is read out, and this is stored in the element type buffer ETBUF.

次に、ステップ90では、エレメントタイプバッファE
TBUFの値を調べる。「O」つまりこのエレメントが
不使用であればこのサブルーチンを終了するが、「1」
つまりFMタイプであれば、ステップ91に行き1表示
部DPYのページを指示する現在ページPAGEの内容
を、rFMデータエデイツト」ページを指示する所定の
値nE+2にセットする。
Next, in step 90, element type buffer E
Check the value of TBUF. "O", that is, if this element is not used, this subroutine ends, but "1"
That is, if it is the FM type, the process goes to step 91 and sets the contents of the current page PAGE, which indicates the page of 1 display section DPY, to a predetermined value nE+2, which indicates the "rFM data edit" page.

次のステップ92では、表示部DPYの画面表示を第3
0図に例示するようなrFMデータエデイツト」メニュ
ーのページにし、各種のFMパラメータデータ名を表示
し、現在選択されているFMパラメータデータ名にカー
ソルを置くと共に。
In the next step 92, the screen display of the display unit DPY is changed to the third
0), display various FM parameter data names, and place the cursor on the currently selected FM parameter data name.

現在選択されているボイスモードVMODEにおける各
エレメント1〜4の音源タイプを右上に表示する。また
、前述と同様に各ファンクションスイッチF1〜F5に
対応する表示を行う。
The sound source type of each element 1 to 4 in the currently selected voice mode VMODE is displayed in the upper right corner. Further, similar to the above, displays corresponding to each of the function switches F1 to F5 are performed.

FMパラメータの一例につき説明すると、AlgoはF
M演算ユニットOPI〜OP6の接続組合せを設定する
アルゴリズムパラメータである。0PEGは各演算ユニ
ット0PI−OPe毎のエンベロープ波形を設定するパ
ラメータである。また。
To explain an example of the FM parameter, Algo
This is an algorithm parameter for setting connection combinations of M calculation units OPI to OP6. 0PEG is a parameter that sets the envelope waveform for each calculation unit 0PI-OPe. Also.

FB PCLは各演算ユニットOPI〜OPe毎のフィ
ードバックレベルデータFLI〜FL6及び外部入力レ
ベル制御データEXTLI−EXTL6(第4図参照)
を設定するパラメータである。
FB PCL is feedback level data FLI to FL6 for each arithmetic unit OPI to OPe and external input level control data EXTLI to EXTL6 (see Figure 4).
This is a parameter to set.

一方、エレメントタイプバッファETBUFの値が「2
」つまりPCMタイプであれば、ステップ93に行き、
表示部DPYのページを指示する現在ページPAGEの
内容を、rPCMデータエデイツト」ページを指示する
所定の値nE+3にセットする。
On the other hand, the value of element type buffer ETBUF is "2".
"In other words, if it is a PCM type, go to step 93,
The contents of the current page PAGE, which indicates the page of the display section DPY, are set to a predetermined value nE+3, which indicates the "rPCM Data Edit" page.

次のステップ94では1表示部DPYの画面表示を第3
1図に例示するようなrPCMデータエデイツト」メニ
ューのページにし、各種のPCMパラメータデータ名を
表示し、現在選択されているPCMパラメータデータ名
にカーソルを置くと共に、現在選択されているボイスモ
ードVMODEにおける各エレメント1〜4の音源タイ
プを右上に表示する。また、前述と同様に各ファンクシ
ョンスイッチFl−F5に対応する表示を行う。
In the next step 94, the screen display of the 1 display section DPY is changed to the 3rd screen.
1, display the various PCM parameter data names, place the cursor on the currently selected PCM parameter data name, and select the currently selected voice mode VMODE. The sound source type of each element 1 to 4 is displayed in the upper right corner. Further, in the same manner as described above, the display corresponding to each function switch Fl-F5 is performed.

ステップ95では、エデイツトモードEMODEをエレ
メントlのデータ編集を指示する「2」にセットする。
In step 95, the edit mode EMODE is set to "2", which instructs data editing of element l.

このステップ95による「2」のセットは、エデイツト
モードEMODEの値がまだ「2」以外のとき有効であ
る。
The setting of "2" in step 95 is valid when the value of the edit mode EMODE is still other than "2".

なお、表示部DPYの画面表示を第30図または第31
図に例示するようなrFMデータエデイツト」メニュー
またはrPCMデータエデイツト」メニューのページに
する処理は、上述のようなエレメント1の導入サブルー
チンEISUBによらずに、エレメント1のエデイツト
サブルーチンEPEAによってもよい、つまり、各種エ
デイツトモードのページにおいては、前述のように、フ
ァンクションスイッチF3にエレメントlのデータ編集
を選択する機能が割当てられるようになっており、表示
部DPYにおいてこれらのエデイツトモードのページが
表示されているときファンクシ1ンスイツチF3がオン
されると、エントリポイントテーブルEPT (第11
図)では「エレメント1のエデイツトサブルーチンJ 
EPEIを呼び出す。
In addition, the screen display of the display unit DPY is shown in FIG. 30 or 31.
The process of creating a page for the ``rFM Data Edit'' menu or the ``rPCM Data Edit'' menu as illustrated in the figure can be performed not by the introduction subroutine EISUB of element 1 as described above, but also by the edit subroutine EPEA of element 1. In other words, on the pages of various edit modes, the function to select the data edit of element l is assigned to the function switch F3 as described above, and these edit modes are displayed on the display DPY. If function switch F3 is turned on while the page is being displayed, entry point table EPT (11th
), "Edit subroutine J of element 1"
Call EPEI.

このエレメント1のエデイツトサブルーチンEPElは
第20図においてエレメント1の導入サブルーチンEI
SUBと一緒に示されている。ここでは、ステップ96
において、エデイツトモードEMODEが「エレメント
1のエデイツト」を示す「2」に既にセットされている
かを調べ、YESならばこのサブルーチンを更に行なう
ことなく、リターンするが、NOならば別のエデイツト
モードからエレメント1のエデイツトモードに切り替え
られたことを意味するので、このサブルーチンを続行し
、前述のステップ89〜95の処理を行なう。
The edit subroutine EPEl of element 1 is the introduction subroutine EI of element 1 in FIG.
Shown with SUB. Here, step 96
, check whether the edit mode EMODE has already been set to ``2'' indicating ``edit element 1'', and if YES, return without executing this subroutine further, but if NO, change to another edit mode. Since this means that the mode has been switched to the edit mode of element 1, this subroutine is continued and the processes of steps 89 to 95 described above are performed.

このようにして表示部DPYで第30図または第31因
に例示するようなrFMデータエデイツト」メニューま
たはrPCMデータエデイツト」メニューのページを表
示した状態において1次に。
In this way, with the display section DPY displaying the page of the "rFM Data Edit" menu or the "rPCM Data Edit" menu as illustrated in FIG.

データ入力部42またはカーソルキーC8Rを操作する
と、これに応じてカーソルが動き、所望のパラメータデ
ータを選択することができる。所望のパラメータデータ
を選択した後、エンターキーENTER(第7図)を押
すと、エントリポイントテーブルEPT (第11図)
を参照してrFMデータエデイツト」メニューまたはr
PCMデータエデイツト」メニューの下位のサブルーチ
ンEPET(nE+2)またはE P E T(n E
 + 3)が呼び出され、これに従い、表示部DPYの
ページが下位ページに切り替わり、所望のFMまたはP
CMパラメータデータの詳細内容の変更・修正を行なう
ことができる。この下位のサブルーチンEPE T(n
 E + 2)またはEPET(nE+3)にライては
説明を省略する。
When the data input section 42 or the cursor key C8R is operated, the cursor moves accordingly, allowing desired parameter data to be selected. After selecting the desired parameter data, press the ENTER key (Figure 7) to display the entry point table EPT (Figure 11).
Refer to the ``FM Data Edit'' menu or r
Subroutine EPET(nE+2) or EPET(nE
+ 3) is called, and accordingly, the page on the display section DPY switches to the lower page, and the desired FM or P
The detailed contents of CM parameter data can be changed or modified. This lower subroutine EPE T(n
Explanation regarding E + 2) or EPET (nE+3) will be omitted.

FMパラメータデータの詳細内容の変更・修正の一例を
説明すると、第30図のrFMデータエデイツト」メニ
ューのページにおいて1番号9のパラメータFB PC
Lのエデイツトを選択すると(つまりカーソルを番号9
に合わせてエンターキーENTERを押すと)1表示部
DPYは第32図のようなフィードバック及びPCMレ
ベルエデイツトのページに切り替わる。このページ画面
において、カーソルキーC8Rとデータ入力部42を適
宜操作して、FM音源18の各演算ユニットOPI〜O
P6毎にフィードバックレベルとPCMレベルをそれぞ
れ所望の値に設定する。フィードバックレベルとは、前
述のように、自己の演算ユニット出力を自己の変調波信
号として帰還する比率を設定するレベルデータであり、
これが第4図におけるフィードバックレベルデータFL
I〜FL6に対応する。PCMレベルとは、PCM音源
17の出力楽音信号をFM音源18の各演算ユニットO
Pl〜OP6に変調波信号として入力する比率を設定す
るレベルデータであり、これが第4図における外部入力
レベル制御データEXTL1〜EXTL6に対応する。
To explain an example of changing/correcting the detailed contents of FM parameter data, on the "rFM Data Edit" menu page in Figure 30, the parameter 1 number 9 FB PC
Select L edit (that is, move the cursor to number 9)
When the enter key ENTER is pressed at the same time, the display section DPY1 changes to the feedback and PCM level edit page as shown in FIG. On this page screen, operate the cursor key C8R and data input section 42 as appropriate to
The feedback level and PCM level are each set to desired values for each P6. As mentioned above, the feedback level is level data that sets the ratio at which the output of the own arithmetic unit is fed back as the own modulated wave signal.
This is the feedback level data FL in Figure 4.
Corresponds to I to FL6. The PCM level refers to the output musical tone signal of the PCM sound source 17 at each calculation unit O of the FM sound source 18.
This is level data for setting the ratio to be input as a modulated wave signal to Pl to OP6, and this corresponds to external input level control data EXTL1 to EXTL6 in FIG. 4.

前述のように、フィードバックやPCMの変調波信号を
使用しない場合はこれらのレベルデータの値を0に設定
する。
As described above, when feedback and PCM modulated wave signals are not used, the values of these level data are set to 0.

以上はエレメント1に関するデータ編集についての説明
であるが、他のエレメント2〜4に関するデータ編集に
ついてもはこれとほぼ同様の手順で行なうことができる
The above is a description of data editing regarding element 1, but data editing regarding other elements 2 to 4 can be performed using substantially the same procedure.

すなわち、第16図のステップ68でエデイツトモード
EMODEの値が3であると判断された場合はエレメン
ト2のエデイツト導入サブルーチンE2SUBを行ない
(ステップ72)、EMODE=4の場合はエレメント
3のエデイツト導入サブルーチンE3SUBを行ない(
ステップ73)、EMODE=5の場合はエレメント4
のエデイツト導入サブルーチンE4SUBを行なう(ス
テップ74)、また1表示部DPYにおいてエデイツト
モードのページが表示されているときファンクションス
イッチF4乃至F6をオンすることにより、エントリポ
イントテーブルEPT (第11図)ではエレメント2
乃至4の「エデイツトサブルーチン」を呼び出し、これ
を実行する。
That is, if it is determined in step 68 of FIG. 16 that the value of the edit mode EMODE is 3, the edit introduction subroutine E2SUB of element 2 is executed (step 72), and if EMODE=4, the edit introduction of element 3 is executed. Executes subroutine E3SUB (
step 73), element 4 if EMODE=5
By executing the edit introduction subroutine E4SUB (step 74) and turning on the function switches F4 to F6 when the edit mode page is displayed on the 1 display DPY, the entry point table EPT (Fig. 11) is element 2
The ``edit subroutine'' from 4 to 4 is called and executed.

Xh7り1塁 所望のエデイツトが終了したときストアキー5TORE
 (第7図)を押して、エデイツト終了済みのボイスデ
ータをボイスエデイツトバッファメモリVEBからボイ
スデータメモリVDMに戻すモードとする。
Xh7 When the desired edit for 1st base is completed, store key 5TORE
(FIG. 7) is pressed to set the mode in which edited voice data is returned from the voice edit buffer memory VEB to the voice data memory VDM.

表示部DPYの表示画面が何らかのエデイツトモードの
ページのとき、ストアキー5TOREが押されると、エ
ントリポイントテーブルEPT(第11図)ではrスト
アサブルーチンJ EPSTを呼び出す、このストアサ
ブルーチンEPSTの詳細例は第21図に示されている
When the display screen of the display unit DPY is in some edit mode page, when the store key 5TORE is pressed, the r store subroutine J EPST is called in the entry point table EPT (Fig. 11).A detailed example of this store subroutine EPST is as follows. It is shown in FIG.

ストアサブルーチンEPSTでは、まず、ページバッフ
ァPAGEBUFに現在ページPAGEのページデータ
を移し、現在ページPAGEの内容を、「ストア」ペー
ジを指示する所定の値nSにセットする。ページバッフ
ァPAGEBUFはストア処理途中で若しくはストア処
理終了後に画面を元のページに戻−すために設けられて
いる0次に。
In the store subroutine EPST, first, the page data of the current page PAGE is transferred to the page buffer PAGEBUF, and the contents of the current page PAGE are set to a predetermined value nS indicating a "store" page. The page buffer PAGEBUF is the 0th order provided to return the screen to the original page during the store process or after the store process is completed.

表示部DPYの画面表示を第33図に例示するような「
ストア」ページにし、現在のボイスナンバ及びボイス名
を表示すると共に、各ボイスナンバに対応するボイス名
をそれぞれ表示し、ストアボイスナンバ5TVNによっ
て指示されるボイスナンバの位置にカーソルを置く、ま
た、ファンクションスイッチF1に対応してクイツトキ
ーQUITの表示を行ない、ファンクションスイッチF
8に対応してスタートキー5TRTの表示を行な“う。
The screen display of the display unit DPY is as shown in FIG.
Store" page, display the current voice number and voice name, display the voice name corresponding to each voice number, and place the cursor at the position of the voice number specified by Store Voice Number 5TVN. The QUIT key is displayed corresponding to switch F1, and function switch F1 is displayed.
8, the start key 5TRT is displayed.

このようにして表示部DPYで第33図に例示するよう
な「ストアノページを表示した状態において1次に、デ
ータ入力部42またはカーソルキーC8Rを操作すると
、これに応じてストアボイスナンバ5TVNの値が変更
され、II集済みのボイスデータをストアしようとする
所望のボイスナンバを選択することができる。
In this way, when the data input section 42 or the cursor key C8R is operated while the "Store page" is displayed on the display section DPY as shown in FIG. The desired voice number can be selected in which the value is changed and the collected voice data is to be stored.

この点について説明すると、[ストア」ページを表示し
た状態において、データ入力部42が操作されると、エ
ントリポイントテーブルEPT(第11図)では「スト
アボイスナンバ数値入力サブルーチンJ EPDS(n
s)を呼び出す、また、「ストア」ページを表示した状
態において。
To explain this point, when the data input section 42 is operated while the [Store] page is displayed, in the entry point table EPT (Fig. 11), the "Store Voice Number Numerical Input Subroutine J EPDS (n
s) and with the "Store" page displayed.

カーソルキーC8Rが操作されると、エントリポイント
テーブルEPT (第11図)ではストアボイスナンバ
選択用の「カーソルキーオンイベントサブルーチンJ 
Epco(nS)を呼び出す。
When the cursor key C8R is operated, the entry point table EPT (Fig. 11) displays the "cursor key on event subroutine J" for selecting a store voice number.
Call Epco (nS).

ストアボイスナンバ数値入力サブルーチンEPDS(n
s)とカーソルキーオンイベントサブルーチンEPCD
(nS)につき第22図を参照して説明すると、まず、
データ入力部42が操作された場合は、このデータ入力
部42によって入力された数値に応じてストアボイスナ
ンバ5TVNの値を変更する0次に、表示部DPYにお
けるカーソルの位置を新しいストアボイスナンバ5TV
Nによって指示される特定のボイスナンバの位置に移す
、また、カーソルキーC5Rが押された場合は、ストア
ボイスナンバ5TVNの値をモジュロ16で1増加し、
その後、表示部DPYにおけるカーソルの位置を新しい
ストアボイスナンバ5TVNによって指示される特定の
ボイスナンバの位置に移す。
Store voice number numerical input subroutine EPDS (n
s) and cursor key-on event subroutine EPCD
To explain (nS) with reference to FIG. 22, first,
When the data input section 42 is operated, the value of the store voice number 5TVN is changed according to the numerical value inputted by the data input section 42.Next, the cursor position on the display section DPY is changed to the new store voice number 5TVN.
Move to the specific voice number position indicated by N. Also, if cursor key C5R is pressed, increase the value of store voice number 5TVN by 1 modulo 16,
Thereafter, the position of the cursor on the display section DPY is moved to the position of the specific voice number indicated by the new store voice number 5TVN.

こうして、編集済みのボイスデータをストアしようとす
る所望のボイスナンバをストアボイスナンバ5TVNに
登録した後、スタートキー5TRT(つまりファンクシ
ョンスイッチF8)をオンする。そうすると、エントリ
ポイントテーブルEPTにより第23図の「ストア実行
サブルーチン」が呼び出される。ここでは、まず、「ス
トアノページの画面の下の方にrNov Storin
gJというよなストア実行中であることを示す表示を行
なう。
After registering the desired voice number in which the edited voice data is to be stored in the store voice number 5TVN, the start key 5TRT (that is, the function switch F8) is turned on. Then, the "store execution subroutine" shown in FIG. 23 is called by the entry point table EPT. Here, first, click "rNov Storin" at the bottom of the Storeno page screen.
A display such as gJ is displayed to indicate that the store is being executed.

そして、ストアボイスナンバ5TVNに応じてストアボ
イスポインタ5TVPを設定する。このストアボイスポ
インタ5TVPは、5TVNのボイスナンバに対応する
ボイスデータメモリVDMにおけるボイスデータエリア
の先頭アドレスを指示するものである。
Then, a store voice pointer 5TVP is set according to the store voice number 5TVN. This store voice pointer 5TVP indicates the start address of the voice data area in the voice data memory VDM corresponding to the voice number 5TVN.

そして、ストアボイスポインタ5TVPによって指示さ
れたボイスメモリVDMにおけるボイスデータエリアに
ボイスエデイツトバッファメモリVERの・データを転
送する。その場合、ボイスエデイツトバッファメモリV
EBのデータを全部転送するのではなく、ボイスモード
VMODEの内容に応じて必要なものを転送する。まず
、コモンデータバッファCDBの「ボイス名」、「ボイ
スモード」及び「コモンデータ」は、ボイスメモリVD
Mにおけるボイスデータエリアの対応するエリアに転送
される0次に、FMエデイツトバッファFMEBにおけ
る4つのFMエレメントエデイツトバッファ1乃至4と
PCMエデイツトバッファPCMEBにおける4つのP
CMエレメント王ディットバッファl乃至4のうち、ボ
イスモードVMODEの内容に応じて必要なもののみ、
ボイスメモリVDMにおけるボイスデータエリアの対応
するエレメントパラメータデータエリアに転送される。
Then, the data in the voice edit buffer memory VER is transferred to the voice data area in the voice memory VDM indicated by the store voice pointer 5TVP. In that case, the voice edit buffer memory V
Rather than transferring all EB data, necessary data is transferred according to the contents of the voice mode VMODE. First, the "voice name", "voice mode" and "common data" of the common data buffer CDB are stored in the voice memory VD.
Next, the four FM element edit buffers 1 to 4 in the FM edit buffer FMEB and the four P in the PCM edit buffer PCMEB are transferred to the corresponding areas of the voice data area in M.
Among the CM element king edit buffers 1 to 4, only those necessary according to the contents of the voice mode VMODE,
It is transferred to the corresponding element parameter data area of the voice data area in the voice memory VDM.

その後、現在ページPAGEの内容を次ページn S 
+ 1に変更し、所定のストアエンド表示(例えば画面
の下部にrcompletal Jと表示する)を行な
う。
Then, move the contents of the current page PAGE to the next page n S
+1, and a predetermined store end display (for example, rcomplete J is displayed at the bottom of the screen).

ページ番号nsの「ストア」ページ若しくはnS+1の
「ストアエンド」ページにおいて、ファンクションスイ
ッチF1はクイツトキーQUITとして機能し、これが
オンされると、第24図のクイツトキーオンイベントサ
ブルーチンが実行される。ここでは、ページバッファP
AGEBUFのページデータを現在ページPAGEに移
し、この現在ページPAGEで指示されるページに入る
ためのルーチンをコールする。これにより、ストア処理
途中で若しくはストア処理終了後に、クイツトキーQU
1.Tがオンされると、表示部DPYの画面はストア処
理に入る直前の処理のページ両面に戻される。これによ
り、エデイツトのやり直等が行なえる。
On the "store" page with page number ns or the "store end" page with page number nS+1, the function switch F1 functions as a quick key QUIT, and when this is turned on, the quick key on event subroutine shown in FIG. 24 is executed. Here, page buffer P
A routine is called to move the page data of AGEBUF to the current page PAGE and enter the page indicated by this current page PAGE. As a result, the quick key QU during the store process or after the store process is completed.
1. When T is turned on, the screen of the display unit DPY is returned to both sides of the page that was processed immediately before starting the store process. This allows editing to be done again.

月111r((阻 鍵が新たな押圧されると、第25図のキーオンイベント
処理を行ない、該押圧鍵の発音をいずれか1又は複数の
チャンネルに割当てる。
Month 111r ((When the blocking key is pressed anew, the key-on event process shown in FIG. 25 is performed, and the sound produced by the pressed key is assigned to one or more channels.

まず、キーオンイベントに係る押圧鍵のキーコードをキ
ーコードレジスタKCODEにストアし、そ−れに対応
するタッチデータをタッチデータレジスタTDATAに
ストアする(ステップ100)。
First, the key code of the pressed key related to the key-on event is stored in the key code register KCODE, and the corresponding touch data is stored in the touch data register TDATA (step 100).

次に、同時発音可能数レジスタN5CHに登録した同時
発音可能数に応じて1次割当てチャンネルASCHを決
定し、この1次割当てチャンネルASCHに新押圧鍵を
仮りに割当てる(ステップ101)。
Next, a primary allocation channel ASCH is determined according to the number of simultaneous sounds registered in the simultaneous sound generation register N5CH, and a new pressed key is provisionally allocated to this primary allocation channel ASCH (step 101).

1次割当てチャンネルASCHとは、実際の発音チャン
ネルではなく、実際の発音チャンネルに割当てる前段階
で使用されるものである。1次割当てチャンネルASC
Hの数は同時発音可能数に対応している。同一鍵の多系
列発音の場合は、実際の発音チャンネルにおいては同一
鍵が複数チャンネルに発音割当てされるが、1次割当て
チャンネルASCHには同一鍵は1チヤンネルにしか割
当てられない、同時発音可能数N5CH1全部で16チ
ヤンネルある実際の発音チャンネル、及び1次割当てチ
ャンネルASCHの関係の一例を示すと次のようである
。なお、全部で16チヤンネルある実際の発音チャンネ
ルの各々をO乃至15の番号で表わし、1次割当てチャ
ンネルASCHの各々をO乃至15の番号で表わす。
The primary allocation channel ASCH is not an actual sound generation channel, but is used at a stage prior to allocation to an actual sound generation channel. Primary allocation channel ASC
The number of H corresponds to the number of sounds that can be produced simultaneously. In the case of multi-sequence pronunciation of the same key, the same key is assigned to multiple channels in the actual pronunciation channel, but the same key can only be assigned to one channel in the primary assignment channel ASCH, which is the number of simultaneous pronunciations possible. An example of the relationship between the actual sound generation channels, of which there are 16 in total on N5CH1, and the primary assigned channel ASCH is as follows. Note that each of the actual sound generation channels, which are 16 in total, is represented by a number from O to 15, and each of the primary assigned channels ASCH is represented by a number from O to 15.

同時発音可能数N5CH=1のとき: 1次割当てチャンネルASCHは「0」のみ。When the number of simultaneous sounds N5CH=1: The primary assigned channel ASCH is only “0”.

実際の発音チャンネルは、系列数(使用するエレメント
の数)に応じて、rOJ乃至「3」を使用する。ただし
、各発音チャンネルには同一鍵が割当てられる。
As actual sound generation channels, rOJ to "3" are used depending on the number of sequences (number of elements used). However, the same key is assigned to each sound generation channel.

同時発音可能数N5CH=4のとき: 1次割当てチャンネルASC,Hは「0」乃至「3」の
合計4個。
When the number of simultaneous sounds N5CH=4: The primary assigned channels ASC and H are "0" to "3", a total of 4.

実際の発音チャンネルは、rO」乃至「3」のグループ
、「4」乃至「7」のグループ、「8」乃至「11」の
グループ、r12J乃至「15jのグループ、の合計4
グループを使用する。各グループには異なる鍵が割当て
られる。同一グループ内のチャンネルには、系列数(使
用するエレメントの数)に応じて、同一鍵が割当てられ
る0例えば、使用するエレメントが1個だけなら同一グ
ループ内の1チヤンネルにだけ押圧鍵が割当てられ、使
用するエレメントが2個なら同一グループ内の2チヤン
ネルに同じ押圧鍵が割当てられる。
The actual pronunciation channels are 4 in total: groups rO" to "3", groups "4" to "7", groups "8" to "11", and groups r12J to "15j".
Use groups. Each group is assigned a different key. The same key is assigned to channels within the same group depending on the number of sequences (number of elements used).For example, if only one element is used, the press key is assigned to only one channel within the same group. , if two elements are used, the same press key is assigned to two channels within the same group.

同時発音可能数N5CH=8のとき: 1次割当てチャンネルASCHはrOJ乃至「7」の合
計8個。
When the number of simultaneous sounds N5CH=8: There are a total of 8 primary assigned channels ASCH from rOJ to "7".

実際の発音チャンネルは、「0」及び「1」のグループ
、「2」及び「3」のグループ、「4」及び「5」のグ
ループ、「6」及び「7」のグループ、「8」及び「9
」のグループ、rlOJ及び「11」のグループ、「1
2」及び「13」のグループ、r14J及び「15」の
グループ、の合計8グループを使用する。各グループに
は異なる鍵が割当てられる。同一グループ内のチャンネ
ルには、系列数(使用するエレメントの数)に応じて、
同一鍵が割当てられる。
The actual pronunciation channels are "0" and "1" groups, "2" and "3" groups, "4" and "5" groups, "6" and "7" groups, "8" and "9
' group, rlOJ and '11' group, '1
A total of 8 groups are used: groups of ``2'' and ``13,'' and groups of r14J and ``15.'' Each group is assigned a different key. For channels within the same group, depending on the number of series (number of elements used),
The same key is assigned.

同時発音可能数N5CH=16のとき:1次割当てチャ
ンネルASCHは「0」乃至「15」の合計16個。
When the number of simultaneous sounds N5CH=16: There are a total of 16 primary assigned channels ASCH from "0" to "15".

実際の発音チャンネルは、「O」乃至「15」を個別に
使用する。各発音チャンネルには異なる鍵が割当てられ
る。系列数(使用するエレメントの数)は1である。
For actual sound generation channels, "O" to "15" are used individually. A different key is assigned to each sound channel. The number of sequences (the number of elements used) is one.

ステップ101においては、N5CHの同時発音可能数
に応じて上述のように決定される1次割当てチャンネル
ASCHのいずれかに新押圧鍵を仮割当てする。なお、
以下では、記号ASCHはこのステップlotで仮割当
て決定された1つの1次割当てチャンネルの番号を特定
しているデータとして説明する。
In step 101, a new pressed key is provisionally assigned to one of the primary assignment channels ASCH determined as described above according to the number of N5CHs that can be sounded simultaneously. In addition,
In the following, the symbol ASCH will be explained as data specifying the number of one primary allocation channel whose provisional allocation was determined in this step lot.

次のステップ102では前ステップ101で仮割当て決
定がなされたかを調べる0例えば、同時発音可能数より
も多い鍵が同時に押圧された場合は、ステップ101で
仮割当て決定がなされないことがあり、その場合はステ
ップ102はNOとなる。仮割当て決定がなされたなら
ばステップ102はYESであり、ステップ103に行
く。
In the next step 102, it is checked whether the provisional assignment was determined in the previous step 101. For example, if more keys than the number of keys that can be played simultaneously are pressed at the same time, the provisional assignment may not be determined in step 101. In this case, step 102 becomes NO. If the provisional allocation decision has been made, step 102 is YES, and the process proceeds to step 103.

ステップ103ではエレメント番号iを「1」にセット
する。
In step 103, element number i is set to "1".

ステップ104では、現在選択されているボイスに関す
るi番目のエレメントの音源タイプをエレメントタイプ
テーブルETTから引出し、これをエレメントタイプバ
ッファETBUFに登録する。
In step 104, the sound source type of the i-th element regarding the currently selected voice is extracted from the element type table ETT and registered in the element type buffer ETBUF.

次のステップ105では、i番目のエレメントに関する
楽音信号の発生を割当てる実際のチャンネルを決定し、
決定したチャンネルの番号をチャンネルバッファCHB
UFに登録する。この割当てチャンネルは、現在選択さ
れているボイスのボイスモードVMODEとステップ1
01で仮割当てした1次割当てチャンネルASCHとに
基づき、第26図のような実割当てルーチンにより決定
する。この詳細については後述する。
In the next step 105, the actual channel to which the musical tone signal generation for the i-th element is assigned is determined;
Store the determined channel number in the channel buffer CHB.
Register with UF. This assigned channel is assigned to the voice mode VMODE and step 1 of the currently selected voice.
Based on the primary allocation channel ASCH tentatively allocated in step 01, the actual allocation routine as shown in FIG. 26 is used to decide. The details will be described later.

次のステップ106では、エレメントタイプバッファE
TBUFに記憶したi番目のエレメントのタイプがO,
l、2のいずれであるかを調べる。
In the next step 106, the element type buffer E
The type of the i-th element stored in TBUF is O,
Check whether it is 1 or 2.

FM音源であることを示す「1」ならば、ステップ10
7に行き、FM音源18におけるチャンネルバッファC
HBUFによって指示されるチャンネルに対して、i番
目のエレメントのパラメータデータとコモンデータ、及
びKCODEとTDATA内のキーコードとタッチデー
タ、及びキーオンを示すキーオン信号KONを送出する
If it is “1” indicating that it is an FM sound source, step 10
7 and channel buffer C in FM sound source 18
The parameter data and common data of the i-th element, the key code and touch data in KCODE and TDATA, and a key-on signal KON indicating key-on are sent to the channel specified by HBUF.

エレメントタイプがPCM音源であることを示す「2」
ならば、ステップ108に行き、PCM音源17におけ
るチャンネルバッファCHBUFによって指示されるチ
ャンネルに対して、i番目のエレメントのパラメータデ
ータとコモンデータ。
"2" indicates that the element type is a PCM sound source
If so, the process goes to step 108, and the parameter data and common data of the i-th element are sent to the channel indicated by the channel buffer CHBUF in the PCM sound source 17.

及びKC;ODEとTDATA内のキーコードとタッチ
データ、及びキーオンを示すキーオン信号KONを送出
する。
and KC; sends the key code and touch data in ODE and TDATA, and a key-on signal KON indicating key-on.

ステップ107または108の後、ステップ109に行
く、一方、i番目のエレメントのタイプが不使用を示す
「0」ならば、ステップ107または108のようなト
ーンジェネレータのチャンネルに対するデータ送出は行
なわずに、ステップ109に行く。
After step 107 or 108, go to step 109. On the other hand, if the type of the i-th element is "0" indicating non-use, data is not sent to the tone generator channel as in step 107 or 108, and Go to step 109.

ステップ109ではiが4以上であるかを調べ、Noな
らばステップ110に行き、iを1増加してからステッ
プ104に戻り、ステップ104〜109のルーチンを
繰り返す、つまり別のエレメントに関する楽音信号の発
音割当てチャンネルを決定する処理を行なう、iが4以
上になると、このキーオンイベント処理を終了する。
In step 109, it is checked whether i is 4 or more, and if no, the process goes to step 110, increments i by 1, returns to step 104, and repeats the routine of steps 104 to 109. Processing for determining the sound generation allocation channel is performed. When i becomes 4 or more, this key-on event processing is terminated.

第26図の実割当てルーチンについて説明すると、まず
ステップ111では、ボイスモードVMODEが1乃至
lOのいずれであるかを調べる。
To explain the actual allocation routine of FIG. 26, first, in step 111, it is checked whether the voice mode VMODE is between 1 and 10.

同時発音可能数N5CHが1であるボイスモード1,2
,3の場合は、ステップ112に行き、i−1の値に対
応するチャンネルを実割当てチャンネルとして決定し、
チャンネルバッファCHBUFに登録する。従って、i
=1のときはi−1;0のチャンネルに割当て、i=2
のときはi −1=1のチャンネルに割当てる、という
ように。
Voice modes 1 and 2 where the number of simultaneous sounds N5CH is 1
, 3, go to step 112 and determine the channel corresponding to the value of i-1 as the actual allocated channel,
Register in channel buffer CHBUF. Therefore, i
When =1, assign to channel i-1;0, i=2
When , it is assigned to channel i −1=1, and so on.

[)J乃至r3Jのチャンネルに順次同一鍵を割当てる
。なお、使用しないエレメントに関してはステップ10
7または108のようなデータ送出処理が行なわれない
ため、実質的に割当てがなされていないのと同じである
[) The same key is sequentially assigned to channels J to r3J. For elements that are not used, step 10
Since data transmission processing such as 7 or 108 is not performed, it is essentially the same as no allocation being made.

同時発音可能数N5CHが8であり、かつ一種類の音源
のみが使用されるボイスモード5または7の場合は、ス
テップ113に行き、2XASCH+i−1の演算結果
に対応するチャンネルを実割当てチャンネルとして決定
し、チャンネルバッファCHBUFに登録する。従って
、成る鍵をASCH=Oに仮割当てした場合、i=1の
ときは演算結果「0」に対応するチャンネルに割当て、
i=2のときは演算結果「1」に対応するチャンネルに
割当てる。というように、「0」及び「1」のチャンネ
ルに同一鍵を割当てる。また、別の鍵をASCH=1に
仮割当てした場合、i=1のときは演算結果r2」に対
応するチャンネルに割当て、i=2のときは「3」のチ
ャンネルに割当てる。というように、「2」及び「3」
のチャンネルに同一鍵を割当てる。
If the number of simultaneous sounds N5CH is 8 and the voice mode is 5 or 7 in which only one type of sound source is used, the process goes to step 113, and the channel corresponding to the calculation result of 2XASCH+i-1 is determined as the actual assigned channel. and register it in the channel buffer CHBUF. Therefore, if a key consisting of
When i=2, the channel corresponding to the calculation result "1" is assigned. As such, the same key is assigned to channels "0" and "1". Further, when another key is temporarily assigned to ASCH=1, when i=1, it is assigned to the channel corresponding to the calculation result "r2", and when i=2, it is assigned to the channel "3". and so on, "2" and "3"
Assign the same key to each channel.

同時発音可能数N5CHが4であるボイスモード8の場
合は、ステップ114に行き、4 XASCH+i−1
の演算結果に対応するチャンネルを実割当てチャンネル
として決定し、チャンネルバッファCHBUFに登録す
る。従って、成る鍵をASCH=Oに仮割当てした場合
、i=1のときは演算結果「0」に対応するチャンネル
に割当て、i=2のときは「1」のチャンネルに割当て
、i=3のときは「2」のチャンネルに割当てる、i=
4のときは「3」のチャンネルに割当てる、というよう
に、「0」乃至「3」のチャンネルに同一鍵を順次割当
てる。また、別の鍵をASCf(=1に仮割当てした場
合、i=1のときは演算結果「4」に対応するチャンネ
ルに割当て、i=2のときは「5」のチャンネルに割当
てる。というように、「4」乃至「7」のチャンネルに
同一鍵を順次割当てる。
In the case of voice mode 8 where the number of simultaneous sounds N5CH is 4, go to step 114 and perform 4 XASCH+i-1
The channel corresponding to the calculation result is determined as the actual allocated channel and registered in the channel buffer CHBUF. Therefore, when a key consisting of When, assign to channel “2”, i=
When the number is 4, the same key is assigned to channel ``3'', and so on, and so on. In addition, if another key is temporarily assigned to ASCf (=1), when i=1, it is assigned to the channel corresponding to the calculation result "4", and when i=2, it is assigned to the channel "5". Then, the same key is sequentially assigned to channels "4" to "7".

同時発音可能数N5CHが16であるボイスモード4,
6.または9の場合は、ステップ115に行き、1次割
当てチャンネルASCHの値をそのまま実割当てチャン
ネルとし、チャンネルバッファCHBUFに登録する。
Voice mode 4 where the number of simultaneous sounds N5CH is 16,
6. Or, in the case of 9, the process goes to step 115, where the value of the primary allocated channel ASCH is used as the actual allocated channel and is registered in the channel buffer CHBUF.

従って、例えば成る鍵をASCH=Oに仮割当てした場
合、iの値に無関係に、実割当てチャンネルの「0」に
該軸が割当てられる。従って、2種類の音源が使用され
るボイスモード9の場合は1例えば成る鍵をASCH=
Oに仮割当てした場合、FM音源に対応するエレメント
1の楽音信号はFM音源のチャンネル「0」に割当てら
れ、PCM音源に対応するエレメント2の楽音信号はP
CM音源の同じチャンネルrOJに割当てられる。こう
して、同一鍵が異音源の同一チャンネルに割当てられる
Therefore, if a key consisting of, for example, is provisionally assigned to ASCH=O, the axis will be assigned to "0" of the actual assigned channel, regardless of the value of i. Therefore, in the case of voice mode 9 where two types of sound sources are used, for example, the key consisting of 1 is ASCH=
If the musical tone signal of element 1 corresponding to the FM sound source is temporarily assigned to channel "0" of the FM sound source, the musical tone signal of element 2 corresponding to the PCM sound source is assigned to channel "0" of the FM sound source.
It is assigned to the same channel rOJ of the CM sound source. In this way, the same key is assigned to the same channel of different sound sources.

同時発音可能数N5CHが8であり、かつ2種類の音源
が使用されるボイスモード10の場合は、ステップ11
6に行き、2XASCH+鵬od((i−1)/2)の
演算結果に対応するチャンネルを実割当てチャンネルと
して決定し、チャンネルバッファCHBUFに登録する
。従って、成る鍵をASCH=Oに仮割当てした場合、
i=1のときは鳳od((i −1)/ 2) =Oで
あるから演算結果「0」に対応するチャンネルに割当て
る。i=2のときはnod((i −1)/ 2) =
 1であるから演算結果rlJに対応するチャンネルに
割当てる。i=3のときは5od((i −1)/ 2
) =Oであるから演算結果「0」に対応するチャンネ
ルに割当てる、i=4のときはnod((i −1);
/ 2) = 1であるから演算結果rlJに対応する
チャンネルに割当てる。というように、FM音源に対応
するエレメント1.2の楽音信号はFM音源のチャンネ
ル「0」及び「1」に割当て、PCM音源に対応するエ
レメント3,4の楽音信号はPCM音源の同じチャンネ
ル「0」及び「1」にそれぞれ割当てる。また、別の鍵
をASCH=1に仮割当てした場合は。
In the case of voice mode 10 where the number of simultaneous sounds N5CH is 8 and two types of sound sources are used, step 11
6, the channel corresponding to the calculation result of 2XASCH+Peng od ((i-1)/2) is determined as the actual allocated channel, and is registered in the channel buffer CHBUF. Therefore, if we temporarily assign the key to ASCH=O,
When i=1, since od((i-1)/2)=O, it is assigned to the channel corresponding to the calculation result "0". When i=2, nod((i −1)/2) =
Since it is 1, it is assigned to the channel corresponding to the calculation result rlJ. When i=3, 5od((i −1)/2
) = O, so it is assigned to the channel corresponding to the calculation result "0". When i = 4, nod((i - 1);
/2) = 1, so it is assigned to the channel corresponding to the calculation result rlJ. As such, the musical sound signals of elements 1 and 2 corresponding to the FM sound source are assigned to channels "0" and "1" of the FM sound source, and the musical sound signals of elements 3 and 4 corresponding to the PCM sound source are assigned to the same channel "0" and "1" of the PCM sound source. 0" and "1" respectively. Also, if another key is provisionally assigned to ASCH=1.

FM音源に対応するエレメント1.2の楽音信号はFM
音源のチャンネル「2」及び「3」に割当て、PCM音
源に対応するエレメント3,4の楽音信号はPCM音源
の同じチャンネル「2」及び「3」にそれぞれ割当てる
The musical sound signals of elements 1 and 2 corresponding to the FM sound source are FM.
The musical sound signals of elements 3 and 4 corresponding to the PCM sound source are assigned to the same channels "2" and "3" of the PCM sound source, respectively.

支更纒 音源の種類はPCMとFMに限らず、他のものを使用し
てもよい6例えば、変調演算型の音源としては、FMに
限らず、振幅変調演算(AM)や窓関数演算によるもの
などが知られており、それらを第2の音源手段として使
用してもよい、また、第1の音源手段については、PC
M音源に代えて。
The types of sound sources are not limited to PCM and FM, but other types may also be used6.For example, modulation calculation type sound sources are not limited to FM, but may also be based on amplitude modulation calculations (AM) or window function calculations. There are known devices such as those that can be used as the second sound source means.Also, as for the first sound source means,
Instead of M sound source.

高調波合成方式による音源や、フィルタを使用した減算
方式音源などを使用してもよく、また、FM、AM等の
変調演算を行うものであってもよい。
A harmonic synthesis method sound source, a subtraction method sound source using a filter, or the like may be used, or a modulation calculation such as FM or AM may be used.

第1及び第2の音源手段の音源方式は異なっていること
が好ましいが、同じ場合は品本原理は同じであってもそ
れぞれに特有の音作りができる構成であることが望まし
い、また、第1及び第2の音源手段の一方がFM音源、
他方がAM音源というような組合せも可能である。
It is preferable that the sound source systems of the first and second sound source means are different, but if they are the same, it is desirable that the sound source systems of the first and second sound source means be configured so that they can each produce their own unique sound even if the product principle is the same. one of the first and second sound source means is an FM sound source;
A combination in which the other is an AM sound source is also possible.

上記実施例では、各音源における系列数(つまりエレメ
ント数)が、選択されたボイスのボイスモードによって
自動的に決まるようになっている。
In the above embodiment, the number of sequences (that is, the number of elements) in each sound source is automatically determined depending on the voice mode of the selected voice.

例えば、第9図を参照すると、ボイスモード5では、F
M音源の系列数=2.P−CM音源の系列数=0である
。また、ボイスモード7では、FM音源の系列数=O,
PCM音源の系列数;2である。
For example, referring to FIG. 9, in voice mode 5, F
Number of sequences of M sound sources = 2. The number of sequences of P-CM sound sources=0. In addition, in voice mode 7, the number of FM sound source series = O,
The number of PCM sound source sequences is 2.

また、ボイスモード10では、FM音源の系列数=2.
PCM音源の系列数=2である。しかし、このようにモ
ードによって各音源の系列数を自動的に決定せずに、を
演奏者によって個別に任意に設定できるようにしてもよ
い、その場合の一実施例としては、第9図のエレメント
タイプテーブルETTに類似したテーブルを、任意に作
成できるような構成とすればよい。
In addition, in voice mode 10, the number of FM sound source sequences = 2.
The number of PCM sound source sequences is 2. However, instead of automatically determining the number of sequences for each sound source depending on the mode, it may be possible to allow the performer to set the number of sequences individually and arbitrarily. The configuration may be such that a table similar to the element type table ETT can be created arbitrarily.

各音源内のチャンネルは時分割型に限らず、並列型であ
ってもよい。
The channels within each sound source are not limited to the time division type, but may be of the parallel type.

同時に発生可能なボイスは1つに限らず、複数としても
よい、その場合は、チャンネル割当てをDVA (ダイ
ナミック・ボイス・アロケージJン)の手法を用いて行
なうとよい。
The number of voices that can be generated simultaneously is not limited to one, but may be multiple. In that case, it is preferable to allocate channels using a DVA (dynamic voice allocation) technique.

一方の音源しか使用しないボイスモードにおいては、使
用しない他方の音源を適宜の目的のために活用してよい
1例えば、使用しない一音源で、シーケンサや外部から
与えられる演奏情報に対応する楽音を発生するようにし
てもよい。また、使用する音源のチ″ヤンネルがオール
ビジィのときは、あふれた音を本来使用しない方の音源
で便宜的に発生するように゛してもよい。
In a voice mode that uses only one sound source, the other unused sound source may be used for appropriate purposes. For example, one unused sound source can generate musical sounds that correspond to performance information given from a sequencer or external source. You may also do so. Furthermore, when the channel of the sound source to be used is all busy, the overflowing sound may be conveniently generated by the sound source that is not originally used.

2つの音源の出力楽音信号−を同時に発音制御する発音
制御手段として、上記実施例では混合回路23を設け、
電気回路上にて両音源の出力楽音信号を加算(または減
算)合成するようにしているが、これに限らず、両音源
の出力楽音信号を、それぞれ発音レベル制御した上で、
別々のスピーカから発音し、空間的に加算合成するよう
にしてもよい。
In the above embodiment, the mixing circuit 23 is provided as a sound generation control means for simultaneously controlling the sound generation of the output musical tone signals of the two sound sources.
Although the output musical sound signals of both sound sources are synthesized by addition (or subtraction) on an electric circuit, the present invention is not limited to this, and the output musical sound signals of both sound sources can be synthesized by controlling the respective sound levels.
Sound may be generated from separate speakers and spatially added and synthesized.

(発明の効果〕 以上の通り、この発明によれば、第2の音源手段で第1
の音源手段の出力楽音信号を変調信号として随時必要に
応じて使用することができ、第2の音源手段における変
調演算による音作りの幅を広げることができる、という
効果を奏する一方で、第1及び第2の音源手段の出力楽
音信号を同時に発音させる制御を行うことにより、第゛
1の音源手段による特有の音色から第2の音源手段によ
る特有の音色まで1両音源手段の出力を適宜組合せた、
多様で幅広い音作りが行えるようになる。という優れた
効果を奏する。
(Effects of the Invention) As described above, according to the present invention, the second sound source means
The output musical tone signal of the sound source means can be used as a modulation signal whenever necessary, and the range of sound creation by modulation calculation in the second sound source means can be expanded. By controlling the output musical tone signals of the second sound source means to be generated simultaneously, the outputs of the two sound source means are appropriately combined from the unique tone of the first sound source means to the unique tone of the second sound source means. Ta,
You will be able to create a wide variety of sounds. It has this excellent effect.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の概要を示す機能ブロック図、第2図
はこの発明に係る楽音信号発生装置の一実施例を適用し
た電子楽器の全体構成を軸承するブロック図、 第3図は第2図におけるトーンジェネレータ部の一例を
示すブロック図。 第4図は第3図におけるFM音源の一例を示すブロック
図、 第5図は第4図におけるFM演算ユニットの接続組合せ
の一例を示す機能ブロック図。 第6図は第4図において第5図の接続組合せを実現する
ための各種信号のタイミングチャート。 第7図は第2図の操作パネルにおける表示部及びスイッ
チ等の一例を示す図。 第8図はボイスデータメモリとボイスエデイツトバッフ
ァメモリのメモリマツプを例示する図、第9wIはエレ
メントタイプテーブルの内容を示す図。 第1O図は各種レジスタを一覧する図、第11図はエン
トリポイントテーブルの内容を示す図。 第12図は第2図においてコンピュータによって実行さ
れるメインルーチンを軸承するフローチャート。 第13図乃至第26図は第12図のメインルーチンの過
程で実行される各種のサブルーチンやスイッチオンイベ
ントルーチンの一例を示すフローチャート、 第27図乃至第33図は第2図及び第7図に示した表示
部における各種の表示画面の内容を例示する図、である
。 14・・・鍵盤回路、15・・・操作パネル、、TO・
・・トーンジェネレータ部、17・・・PCM音源、1
8・・・FM音源、DPY・・・表示部、FSW・・・
ファンクションスイッチ部。
FIG. 1 is a functional block diagram showing an overview of the present invention, FIG. 2 is a block diagram illustrating the overall structure of an electronic musical instrument to which an embodiment of the musical tone signal generating device according to the present invention is applied, and FIG. FIG. 2 is a block diagram showing an example of a tone generator section in the figure. 4 is a block diagram showing an example of the FM sound source in FIG. 3, and FIG. 5 is a functional block diagram showing an example of a connection combination of the FM processing units in FIG. 4. 6 is a timing chart of various signals for realizing the connection combination of FIG. 5 in FIG. 4; FIG. FIG. 7 is a diagram showing an example of a display section, switches, etc. on the operation panel of FIG. 2. FIG. 8 is a diagram illustrating a memory map of a voice data memory and a voice edit buffer memory, and 9th wI is a diagram showing the contents of an element type table. FIG. 1O is a diagram listing various registers, and FIG. 11 is a diagram showing the contents of an entry point table. FIG. 12 is a flowchart illustrating the main routine executed by the computer in FIG. 2; 13 to 26 are flowcharts showing examples of various subroutines and switch-on event routines executed in the course of the main routine in FIG. FIG. 3 is a diagram illustrating the contents of various display screens on the illustrated display unit. 14...Keyboard circuit, 15...Operation panel, TO.
...Tone generator section, 17...PCM sound source, 1
8...FM sound source, DPY...display section, FSW...
Function switch section.

Claims (5)

【特許請求の範囲】[Claims] (1)発音指示情報に基づき楽音信号を発生する第1の
音源手段と、 発音指示情報に基づき所定の変調演算を実行することに
より楽音信号を発生する第2の音源手段と、 前記第1の音源手段の出力楽音信号を前記第2の音源手
段の変調信号入力に導入する制御を行う変調信号導入制
御手段と、 前記第1及び第2の音源手段の出力楽音信号を同時に発
音させる制御を行う発音制御手段とを具えた楽音信号発
生装置。
(1) a first sound source means that generates a musical tone signal based on the pronunciation instruction information; a second sound source means that generates the musical tone signal by executing a predetermined modulation operation based on the pronunciation instruction information; a modulation signal introduction control means for controlling the introduction of the output musical tone signal of the tone generator means into the modulation signal input of the second tone generator means; and controlling for simultaneously generating the output musical tone signals of the first and second tone generator means. A musical tone signal generator comprising a sound generation control means.
(2)前記変調信号導入制御手段は、前記第2の音源手
段の変調信号入力に導入しようとする前記第1の音源手
段の出力楽音信号のレベルを設定・制御することが可能
なものである請求項1に記載の楽音信号発生装置。
(2) The modulation signal introduction control means is capable of setting and controlling the level of the output musical tone signal of the first sound source means to be introduced into the modulation signal input of the second sound source means. The musical tone signal generating device according to claim 1.
(3)前記第2の音源手段は、複数の変調演算項を含む
所定の変調演算により楽音信号を合成するものであり、 前記変調信号導入制御手段は、前記第2の音源手段の変
調信号入力に導入しようとする前記第1の音源手段の出
力楽音信号のレベルを各変調演算項毎に個別に設定・制
御することが可能なものである請求項2に記載の楽音信
号発生装置。
(3) The second sound source means synthesizes a musical tone signal by a predetermined modulation calculation including a plurality of modulation calculation terms, and the modulation signal introduction control means controls the modulation signal input of the second sound source means. 3. The musical tone signal generating device according to claim 2, wherein the level of the output musical tone signal of the first tone source means to be introduced into the sound source means can be individually set and controlled for each modulation calculation term.
(4)前記発音制御手段は、前記第1及び第2の音源手
段の出力楽音信号のレベルをそれぞれ設定・制御するこ
とができ、これにより第1及び第2の音源手段の出力楽
音信号を同時に発音させる際の両者の混合比率が設定・
制御される請求項1に記載の楽音信号発生装置。
(4) The sound generation control means can set and control the levels of the musical tone signals output from the first and second sound source means, respectively, thereby simultaneously controlling the output musical sound signals from the first and second sound source means. You can set the mixing ratio of both when producing sounds.
The musical tone signal generating device according to claim 1, wherein the musical tone signal generating device is controlled.
(5)前記第1の音源手段の音源方式が第2の音源手段
の音源方式とは異なっている請求項1に記載の楽音信号
発生装置。
(5) The musical tone signal generating device according to claim 1, wherein the sound source system of the first sound source means is different from the sound source system of the second sound source means.
JP1259415A 1989-10-04 1989-10-04 Music signal generator Expired - Fee Related JP2580793B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP1259415A JP2580793B2 (en) 1989-10-04 1989-10-04 Music signal generator
US07/591,840 US5354948A (en) 1989-10-04 1990-10-02 Tone signal generation device for generating complex tones by combining different tone sources

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1259415A JP2580793B2 (en) 1989-10-04 1989-10-04 Music signal generator

Publications (2)

Publication Number Publication Date
JPH03120592A true JPH03120592A (en) 1991-05-22
JP2580793B2 JP2580793B2 (en) 1997-02-12

Family

ID=17333792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1259415A Expired - Fee Related JP2580793B2 (en) 1989-10-04 1989-10-04 Music signal generator

Country Status (1)

Country Link
JP (1) JP2580793B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS557734A (en) * 1978-06-30 1980-01-19 Nippon Musical Instruments Mfg Synthesizing musical sound
JPS5865492A (en) * 1981-10-15 1983-04-19 ヤマハ株式会社 Electronic musical instrument
JPS58102296A (en) * 1981-12-15 1983-06-17 ヤマハ株式会社 Electronic musical instrument
JPS59105694A (en) * 1982-12-09 1984-06-19 ヤマハ株式会社 Electronic musical instrument
JPS59168493A (en) * 1983-03-16 1984-09-22 ヤマハ株式会社 Musical tone waveform generator
JPS6093491A (en) * 1983-10-27 1985-05-25 ヤマハ株式会社 Musical sound formation apparatus
JPS61204697A (en) * 1985-03-07 1986-09-10 ヤマハ株式会社 Tone signal generator
JPS62212698A (en) * 1986-03-14 1987-09-18 カシオ計算機株式会社 Musical sound generator for electronic musical apparatus
JPS6315915U (en) * 1986-07-17 1988-02-02
JPS6342276A (en) * 1986-08-07 1988-02-23 Fujitsu Ltd Facsimile equipment

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS557734A (en) * 1978-06-30 1980-01-19 Nippon Musical Instruments Mfg Synthesizing musical sound
JPS5865492A (en) * 1981-10-15 1983-04-19 ヤマハ株式会社 Electronic musical instrument
JPS58102296A (en) * 1981-12-15 1983-06-17 ヤマハ株式会社 Electronic musical instrument
JPS59105694A (en) * 1982-12-09 1984-06-19 ヤマハ株式会社 Electronic musical instrument
JPS59168493A (en) * 1983-03-16 1984-09-22 ヤマハ株式会社 Musical tone waveform generator
JPS6093491A (en) * 1983-10-27 1985-05-25 ヤマハ株式会社 Musical sound formation apparatus
JPS61204697A (en) * 1985-03-07 1986-09-10 ヤマハ株式会社 Tone signal generator
JPS62212698A (en) * 1986-03-14 1987-09-18 カシオ計算機株式会社 Musical sound generator for electronic musical apparatus
JPS6315915U (en) * 1986-07-17 1988-02-02
JPS6342276A (en) * 1986-08-07 1988-02-23 Fujitsu Ltd Facsimile equipment

Also Published As

Publication number Publication date
JP2580793B2 (en) 1997-02-12

Similar Documents

Publication Publication Date Title
US4628789A (en) Tone effect imparting device
JPH0370236B2 (en)
US5354948A (en) Tone signal generation device for generating complex tones by combining different tone sources
US5136916A (en) Electronic musical instrument
US5596645A (en) Sound image localization control device for controlling sound image localization of plural sounds independently of each other
US5406022A (en) Method and system for producing stereophonic sound by varying the sound image in accordance with tone waveform data
JPH096350A (en) Effect adding device and electronic musical instrument using the same
JPH08234731A (en) Electronic musical instrument
JP2580794B2 (en) Electronic musical instrument
JPH03120592A (en) Musical sound signal generator
JP2513041B2 (en) Music signal generator
JP2538809B2 (en) Musical sound generator
JPH02165196A (en) Electronic musical instrument
JPH0638192B2 (en) Musical sound generator
JP2580794C (en)
JP2701177B2 (en) Tone generator
JPH0584919B2 (en)
JPH0313994A (en) Electronic musical instrument
JPH0792665B2 (en) Parameter setting device for electronic musical instruments
JP2933186B2 (en) Music synthesizer
JPH10124053A (en) Musical information inputting device
JPS62186293A (en) Electronic musical apparatus
JP3022170B2 (en) Control device
JP2549443Y2 (en) Electronic musical instrument with touch response function
JP3094759B2 (en) Music signal distribution processor

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071121

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081121

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees