JPH02293795A - Effect sound controller - Google Patents

Effect sound controller

Info

Publication number
JPH02293795A
JPH02293795A JP1114378A JP11437889A JPH02293795A JP H02293795 A JPH02293795 A JP H02293795A JP 1114378 A JP1114378 A JP 1114378A JP 11437889 A JP11437889 A JP 11437889A JP H02293795 A JPH02293795 A JP H02293795A
Authority
JP
Japan
Prior art keywords
effect
sound
signal
parameter
sound effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1114378A
Other languages
Japanese (ja)
Inventor
Goro Sakata
吾朗 坂田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP1114378A priority Critical patent/JPH02293795A/en
Publication of JPH02293795A publication Critical patent/JPH02293795A/en
Pending legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PURPOSE:To allow the dynamic control of the effect characteristics of musical tones by generating an effect sound signal from an effect sound generating means according to performance parameters. CONSTITUTION:Direct digital musical tones are outputted from a sound source 14 via a CPU 11 in accordance with the performance parameters, such as note number PT indicating the pitch from an external controller and velocity VL indicating performance touch, the information in the set change of the performance parameters via an operation panel 19, etc., and are mixed by a 1st mixer 15 of a reverberation effect generating means SE of an effect sound generating means, from which the overall performance parameters are supplied to a reverberation sound generating section 16. The effect sound information from the generating section 16 and the direct sound information from the sound source 14 are mixed by a mixer 17 from which the mixture is outputted. The dynamic control of the effect characteristics of the musical tones corresponding to the set change as well is executed by this constitution.

Description

【発明の詳細な説明】 [発明の技術分野] この発明は楽器演奏における効果音制御装置に関し、特
に実時間的に効果のかかり方を制御する技術に関する。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field of the Invention] The present invention relates to a sound effect control device for musical instrument performance, and more particularly to a technique for controlling how effects are applied in real time.

[従来技術とその問題] 電子楽器の分野においてサウンドエフェクタのデジタル
化が進みつつある。例えば、デジタル化された残響付加
装置(リバーブエフェクタ)は、現実または仮想の音場
空間(ホール、クラブ等々)をモデル化して、ダイレク
ト音に対する反射音の関係(音場空間のサイズ、形状、
反射係数などで決まる。例えば、最初の反射音は音源か
ら周囲壁を経て聴者に至る径路のうちの最短径路の長さ
とダイレクト音の伝書径路の長さとの差により、ダイレ
クト音からの遅れ時間が決まり、その径路上の壁の反射
特性、空気(あるいはその他の音伝搬媒体)の伝搬特性
等により、そのスペクトル特性が決まる。)を定め、そ
の関係をデジタル回路やデジタル信号処理装置上で実現
したものである。デジタル電子楽器の残響付加装置の場
合、ダイレクト音は電子的な音源の出力信号(デジタル
の楽音信号)によって与えられる。残響付加装置はこの
デジタルの楽音信号を受け、デジタル演算を施すことに
より、初期や多重の反射音を表わす効果音成分信号を生
成する。このようにして生成された効果音成分信号と音
源の出力信号とをサウンドシステムを通じて放音させて
やれば、残響を伴う楽音が聴こえることとなる。
[Prior art and its problems] Digitalization of sound effectors is progressing in the field of electronic musical instruments. For example, a digitized reverberation adding device (reverb effector) models a real or virtual sound field space (hall, club, etc.) to determine the relationship between the reflected sound and the direct sound (size, shape of the sound field space, etc.).
Determined by reflection coefficient etc. For example, the delay time of the first reflected sound from the direct sound is determined by the difference between the length of the shortest path from the sound source to the listener via the surrounding walls and the length of the messenger path of the direct sound. Its spectral characteristics are determined by the reflection characteristics of walls, the propagation characteristics of air (or other sound propagation media), etc. ), and the relationship is realized using digital circuits and digital signal processing equipment. In the case of a reverberation adding device for a digital electronic musical instrument, the direct sound is provided by an output signal (digital tone signal) of an electronic sound source. The reverberation adding device receives this digital musical sound signal and performs digital calculation to generate a sound effect component signal representing initial and multiple reflected sounds. If the sound effect component signal generated in this way and the output signal of the sound source are emitted through a sound system, a musical sound with reverberation will be heard.

ところで、この種の残響付加装置に関しては、設定パネ
ル上で、残響特性のパラメータを設定することにより(
各音色番号に対応して、各サウンドの特性設定の一環と
して行われるものが多い)、残響付加装置に所望の残響
特性をもたせることができる。また、多くの機種では残
響音(効果音成分)とダイレクト音との音量バランスに
ついても設定パネル上で可変に設定できるようになって
いる。極端な場合、残響音の相対音量をゼロに設定すれ
ば、ダイレクト音のみが放音される。
By the way, regarding this type of reverberation adding device, by setting the parameters of the reverberation characteristics on the setting panel (
This is often done as part of setting the characteristics of each sound corresponding to each timbre number), allowing the reverberation adding device to have desired reverberation characteristics. Additionally, in many models, the volume balance between reverberation sound (sound effect component) and direct sound can also be set variably on the settings panel. In extreme cases, if the relative volume of the reverberant sound is set to zero, only the direct sound will be emitted.

しかしながら、現状の残響付加装置にあっては、いった
ん設定パネル上で残響特性パラメータを設定した以降は
、その状態は変化せず、演奏中は固定されたままになる
。この結果、演奏中における残響のかかり方が単調とな
り音楽表現に限界が生じていた。
However, in current reverberation adding devices, once the reverberation characteristic parameters are set on the setting panel, their status does not change and remains fixed during the performance. As a result, the reverberation during performance becomes monotonous, which limits musical expression.

以上、残響付加装置を例にとって従来技術の問題点を示
したが、その他の効果発生装置にも同様の問題がある。
The problems of the prior art have been shown above by taking the reverberation adding device as an example, but similar problems exist with other effect generating devices.

[発明の目的1 したがって、この発明の目的は演奏に応じて楽音の効果
の特性(例えば、音源から出力されるダイレクト音とし
ての楽音信号に付加される効果音成分信号の度合)をダ
イナミックに制御可能な効果音制御装置を提供すること
である。
[Objective of the Invention 1 Therefore, the object of the present invention is to dynamically control the characteristics of the musical sound effect (for example, the degree of the effect sound component signal added to the musical sound signal as the direct sound output from the sound source) according to the performance. It is an object of the present invention to provide a possible sound effect control device.

[発明の構成、作用、展開] この発明によれば、上記の目的を達成するため、演奏操
作に基づき生成された楽音信号の入力(デジタルデータ
で与えられる)を内部の効果パラメータに従ってデジタ
ル処理することにより、効果音信号を発生する効果音発
生手段を有する装置において、上記効果音発生手段の使
用する少なくとも1つの効果パラメータを、演奏操作を
特徴づける演奏パラメータ(演奏情報)に従って発生し
、上記効果音発生手段に供給する効果パラメータ制御手
段を設けたことを特徴とする効果音制御装置が提供され
る。
[Structure, operation, and development of the invention] According to the present invention, in order to achieve the above object, input musical tone signals (given as digital data) generated based on performance operations are digitally processed according to internal effect parameters. By this, in a device having a sound effect generating means for generating a sound effect signal, at least one effect parameter used by the sound effect generating means is generated according to a performance parameter (performance information) characterizing a performance operation, A sound effect control device is provided, characterized in that it includes an effect parameter control means for supplying sound to a sound generation means.

この構成によれば、演奏制御入力装置(例えば、鍵盤、
管楽器コントローラ、弦楽器コントローラ、MIDI等
の外部演奏コントローラ、外部シーケンサあるいは楽器
本体のシーケンサ等)から与えられる演奏操作を特徴づ
ける情報、即ち演奏パラメータに従って、効果音の特性
が動的に変化することになるので、従来における演奏中
での効果音の単調さを克服することができ、音楽表現の
自由度が高められる。
According to this configuration, a performance control input device (for example, a keyboard,
The characteristics of the sound effect dynamically change according to the information that characterizes the performance operation, that is, the performance parameters, provided from a wind instrument controller, a string instrument controller, an external performance controller such as MIDI, an external sequencer, or the sequencer of the instrument itself. Therefore, it is possible to overcome the conventional monotony of sound effects during performances, and the degree of freedom in musical expression is increased.

一構成,例では、効果音制御のための演奏パラメータと
して演奏タッチ(鍵盤の場合には押鍵の強さあるいは速
度、管楽器の場合はプレスの強さあるいはタンギングの
強さ、弦楽器の場合は撥弦の強さ等々)やピッチ(代表
的にはノートナンバー、例えば鍵盤の場合には押された
鍵を示すピッチ情報、管楽器の場合には一連の音高スイ
ッチに対する運指の形態で定まるピッチ情報等々)が使
用される。
In one configuration, for example, performance parameters for sound effect control include performance touch (press strength or speed for keyboards, press strength or tonguing strength for wind instruments, pluckedness for stringed instruments). String strength, etc.) and pitch (typically note numbers, for example, in the case of a keyboard, pitch information indicating the key pressed, and in the case of a wind instrument, pitch information determined by the form of fingering for a series of pitch switches) etc.) are used.

また、効果音発生手段としては、リバーブ、エコー、デ
ィレイ、コーラス等のエフェクト単位の構成(シングル
エフェクト構成)、あるいはこれらのエフェクト単位を
複合可能なように複数の効果発生モジュールを縦続接続
した構成、あるいは、同じエフェクト単位であっても(
異なってもよいが)、1つまたは複数の楽音信号入力を
、複数に分け、それぞれの信号を独立に処理して複数の
系統の効果音信号を発生、出力する並列的な構成(1人
力2出力、2人力2出力型等)、あるいは縦続構成と並
列的な構成とを組み合わせたマトリクス的な構成あるい
はモジュール.の出力数が末広がりとなる構成等が使用
できる。
In addition, as a sound effect generation means, a configuration of effect units such as reverb, echo, delay, chorus, etc. (single effect configuration), or a configuration in which multiple effect generation modules are connected in cascade so that these effect units can be combined, Or even if it is the same effect unit (
), one or more musical sound signal inputs are divided into multiple parts, each signal is processed independently, and multiple systems of sound effect signals are generated and output. output, two-man power, two-output type, etc.), or a matrix configuration or module that combines a cascade configuration and a parallel configuration. It is possible to use a configuration in which the number of outputs increases toward the end.

もっとも、出力される音のなかにダイレクト音(音源の
発生した楽音信号)が全く含まれていないような信号し
か出力できない効果音発生手段は望ましくない。このた
め、効果音発生手段を、効果音成分信号発生手段と、こ
の手段の出力である効果音成分信号とともにダイレクト
音としての音源出力信号とを出力する出力手段とで構成
することがある。このような構成の効果音発生手段もこ
の発明において使用可能である。
However, it is not desirable to have a sound effect generating means that can only output a signal that does not include any direct sound (musical sound signal generated by a sound source) in the output sound. For this reason, the sound effect generating means may be comprised of a sound effect component signal generating means and an output means for outputting a sound source output signal as a direct sound together with the sound effect component signal which is the output of this means. A sound effect generating means having such a configuration can also be used in the present invention.

一構成例において、上記効果音発生手段(または、上記
効果成分発生手段)は、処理に係る信号に」二記効果パ
ラメータを係数として乗算する複数の係数乗算手段を有
し、上記効果パラメータ制御手段は少なくとも1つの上
記係数乗算手段で使用する係数を上述した演奏パラメー
タに従って制御する。
In one configuration example, the sound effect generation means (or the effect component generation means) includes a plurality of coefficient multiplication means for multiplying the signal related to processing by the effect parameter described in "2" as a coefficient, and the effect parameter control means controls the coefficients used by at least one of the coefficient multiplication means in accordance with the performance parameters described above.

効果音の特性制御を実行する係数乗算手段は、代表的に
は、デジタルの乗算器で構成される。
The coefficient multiplication means for controlling the characteristics of the sound effects is typically composed of a digital multiplier.

もっとも、ダイレクト音信号と効果成分信号との音量バ
ランス(振幅比)を調整する係数乗算手段はこの限りで
はなく、アナログの乗算器(例えば電圧制御形増幅器V
CA)を使用してもよい。例えば、デジタルの効果成分
発生手段のデジタル出力信号とデジタル音源のデジタル
出力信号とをアナログ信号に変換し、VCAで、アナロ
グ効果成分信号とアナログ音源出力信号との間の振幅比
を調整してもよい。
However, the coefficient multiplier that adjusts the volume balance (amplitude ratio) between the direct sound signal and the effect component signal is not limited to this, and can be an analog multiplier (for example, a voltage-controlled amplifier V
CA) may also be used. For example, the digital output signal of the digital effect component generation means and the digital output signal of the digital sound source may be converted into analog signals, and the amplitude ratio between the analog effect component signal and the analog sound source output signal may be adjusted using a VCA. good.

また、音源としてデジタル音源を使用した場合に、デジ
タル音源の出力をそのままデジタルの効果音発生手段(
または効果成分発生手段)に入力するのが都合がよいが
、状況によっては、いったんD/A (デジタル/アナ
ログ)変換した後、再度A/D変換して効果音発生手段
に入力するよラにしてもよい。
In addition, when a digital sound source is used as a sound source, the output of the digital sound source can be directly transmitted to the digital sound effect generating means (
However, depending on the situation, it may be convenient to first perform D/A (digital/analog) conversion and then A/D conversion again before inputting it to the sound effect generation means. It's okay.

演奏パラメータによる効果音の制御対象(効果パラメー
タ)としてダイレクト音と効果音成分信号との音量比を
採用する場合には、既に述べたように、アナログ出力側
での振幅比調整で行ってもよいし、あるいはデジタルの
効果成分発生手段(または効果音発生手段)の出力側に
設けたデジタルの乗算器で行ってもよいし、あるいは効
果成分発生手段(または効果音発生手段)の入力側(デ
ジタルまたはアナログ)で行ってもよい。ただし、効果
音発生手段または効果成分発生手段が、固定小数点のデ
ジタルデータを扱う場合には、数値精度(デジタル演算
の精度)の面等から、出力側で行うのが望ましい。
When employing the volume ratio between the direct sound and the sound effect component signal as a control target (effect parameter) for sound effects using performance parameters, this may be done by adjusting the amplitude ratio on the analog output side, as already described. Alternatively, it may be performed by a digital multiplier provided on the output side of the digital effect component generation means (or sound effect generation means), or by a digital multiplier provided on the input side of the effect component generation means (or sound effect generation means). or analog). However, when the sound effect generation means or the effect component generation means handles fixed-point digital data, it is desirable to perform it on the output side from the viewpoint of numerical precision (accuracy of digital calculation).

演奏パラメータによる制御対象が効果音成分の深さ(割
合)以外の場合であって、音源がポリフォニック音源(
ポリフォニック楽器の楽音を生成する音源、あるいは複
数のモノフォニック楽器の楽音を同時的に生成する音源
)の場合には、効果音発生手段(または効果音成分発生
手段)の構l2 成如何によっては制御が困難な場合がある。例えば、ポ
リフォニック音源からの演奏源の異なるボリフォニック
な楽音信号をミキサーでミキシングして1つのトータル
楽音信号を形成し、これを効果音発生手段または効果成
分発生手段に入力する構成の場合、効果音発生手段や効
果成分発生手段の内部において、処理できるのはトータ
ルな信号に対してであるので、演奏源別の効果音特性制
御は不可能である。もっとも、この場合においても、効
果音成分の深さ、あるいは効果音成分とダイレクト音成
分との音量バランスについては、個々の演奏パラメータ
に固有の態様で制御可能である。即ち、上記ミキサーに
おいて、音源チャンネル別の信号に重み付けをする部分
(乗算手段)に対し、その重み係数を、対応する演奏パ
ラメータ、即ち、その音源チャンネルを鳴らした演奏源
のパラメータに従って、演算し、供給すればよいからで
ある。
When the performance parameter controls something other than the depth (ratio) of the sound effect component, and the sound source is a polyphonic sound source (
In the case of a sound source that generates the musical tones of a polyphonic instrument or a sound source that simultaneously generates the musical tones of multiple monophonic instruments, control may be performed depending on the configuration of the sound effect generating means (or sound effect component generating means). It can be difficult. For example, in the case of a configuration in which polyphonic musical sound signals of different performance sources from polyphonic sound sources are mixed by a mixer to form one total musical sound signal, and this is input to sound effect generation means or effect component generation means, the sound effect Since only the total signal can be processed within the generating means and the effect component generating means, it is impossible to control sound effect characteristics for each performance source. However, even in this case, the depth of the sound effect component or the volume balance between the sound effect component and the direct sound component can be controlled in a manner specific to each performance parameter. That is, in the mixer, the weighting coefficient of the part (multiplying means) that weights the signal for each sound source channel is calculated according to the corresponding performance parameter, that is, the parameter of the performance source that played the sound source channel, This is because it only needs to be supplied.

l3 [実施例] 以下、図面を参照してこの発明の実施例を説明する。l3 [Example] Embodiments of the present invention will be described below with reference to the drawings.

く第1実施例〉 第1図に本発明の特徴を組み込んだ電子楽器10(第1
実施例)を示す。この電子楽器10は外部の演奏コント
ローラ(図示せず)から与えられるピッチ情報FTや演
奏タッチVLにより、残響音発生部l6で生成される残
響音信号と音源14で生成されるダイレクトな楽音信号
との音量バランスを制御することができる。
First Embodiment> FIG. 1 shows an electronic musical instrument 10 (first embodiment) incorporating the features of the present invention.
Examples) are shown below. This electronic musical instrument 10 generates a reverberant sound signal generated by the reverberant sound generator 16 and a direct musical sound signal generated by the sound source 14 based on pitch information FT and performance touch VL given from an external performance controller (not shown). You can control the volume balance.

詳細に述べると、11はシステムプログラムROM12
に従って動作するCPUであり、RAM13はワーキン
グメモリ及び音色、効果パラメータ用のメモリとして使
用する。このCPU1lには外部の演奏コントローラ、
ここではMID I (MIJSIGAL INSTR
UMENT IIIGITAL INTERFACE)
コントローラから送信される演奏情報PERが入力され
る。周知のように、MIDIの演奏情報1  A PERにはピッチを示すノ゛−ニトナンバーFT、演奏
タッチを示すベロシティVL等のデータが含まれる。以
下の説明の便宜上、ポリフォニックモードを想定すると
、演奏情報PERはポリフォニックで与えられ、受信側
の電子楽器lOのCPU11において、受信した発音メ
ッセージ(ノートオン/オフ)に対する独自のヴオイン
アサインが行われ、所要のデータ(音色パラメータ)が
生成されポリフォニックのデジタル音源4のアサインし
たチャンネルに転送される。更に、この実施例の場合、
CPUIIはデジタルの残響効果発生装置SEを構成す
る第1のミキサー15(MIXl)、残響音発生部16
、第2のミキサーl7(MIX2)にも、残響音を制御
するために所要のデータ(効果パラメータ)を転送する
。特に、残響音の割合は演奏情報PEHのうちノートオ
ンメッセージに含まれるノートナンバーFTとベロシテ
ィVLのうち少なくとも1つに従って演算している。
In detail, 11 is a system program ROM 12
The RAM 13 is used as a working memory and a memory for tone and effect parameters. This CPU1l includes an external performance controller,
Here, MID I (MIJSIGAL INSTR
UMENTIIIGITAL INTERFACE)
Performance information PER transmitted from the controller is input. As is well known, the MIDI performance information 1APER includes data such as a note number FT indicating pitch and velocity VL indicating a performance touch. For the convenience of the following explanation, assuming a polyphonic mode, the performance information PER is given polyphonically, and the CPU 11 of the receiving electronic musical instrument 10 performs a unique voice assignment for the received sound generation message (note on/off), and performs a unique voice assignment as required. data (timbre parameters) is generated and transferred to the assigned channel of the polyphonic digital sound source 4. Furthermore, in this example,
The CPU II includes a first mixer 15 (MIXl) and a reverberation sound generation section 16 that constitute the digital reverberation effect generation device SE.
, data (effect parameters) necessary for controlling reverberation sound are also transferred to the second mixer l7 (MIX2). In particular, the proportion of reverberant sound is calculated according to at least one of the note number FT and velocity VL included in the note-on message of the performance information PEH.

上記RAM13上の音色、効果パラメータ(音l 5 源l4、残響効果発生装置SEでそのまま、あるいは変
形して使用されるパラメータ)は表示装置l8と操作パ
ネルl9を通じてユーザーが設定できるようになってい
る。設定されたパラメータは例えば、サウンドの音色番
号ごとにまとめられており、外部MIDIコントローラ
から音色変更のメッセージが与えられた場合、あるいは
本体での操作パネルl9上での音色選択操作に応答して
、必要な部分をCPUIIより音源14や残響効果発生
装置SHに送出することができる。
The tone and effect parameters (sound l5 source l4, parameters used as they are or modified in the reverberation effect generator SE) on the RAM 13 can be set by the user through the display device l8 and the operation panel l9. . For example, the set parameters are grouped by sound tone number, and when a tone change message is given from an external MIDI controller, or in response to a tone selection operation on the operation panel 19 of the main unit, A necessary portion can be sent from the CPU II to the sound source 14 or the reverberation effect generating device SH.

上記残響効果発生装置SHにはポリフォニック音源l4
からの複数のデジタル楽音信号D(0)〜D (n)入
力される。詳細には、音源l4の出力はダイレクト音と
しての意味をもっており、これらのデジタル楽音信号は
第1と第2のミキサーl5、17に入力される。第1の
ミキサーl5は残響音発生部l6の入力信号を形成する
ものであり、入力された複数のチャンネル別楽音信号D
(0)〜D (n)をミックスして1つのトータル楽音
信号DMとし、これを残響音発生部l6に供l 6 給する。残響音発生部l6ではダイレクト音に対する反
射音を示す信号(残響成分信号RV)をデジタル処理に
よって形成し、それを第2のミキサー17に供給する。
The reverberation effect generator SH has a polyphonic sound source l4.
A plurality of digital musical tone signals D(0) to D(n) are inputted. Specifically, the output of the sound source l4 has the meaning of direct sound, and these digital musical sound signals are input to the first and second mixers l5 and 17. The first mixer l5 forms an input signal for the reverberant sound generator l6, and is configured to form input signals for the plurality of channel-specific musical sound signals D.
(0) to D(n) are mixed to form one total musical tone signal DM, which is supplied to the reverberation sound generating section l6. The reverberation sound generating section l6 forms a signal (reverberation component signal RV) indicating the reflected sound with respect to the direct sound by digital processing, and supplies it to the second mixer 17.

第2のミキサーl7では音源l4からダイレクトに与え
られる複数チャンネルのデジタル楽音信号D(0)〜D
 (n)と残響音発生部l6を介して与えられる残響成
分信号RVとをミキシングし、1つのデジタル信号出力
OUTとして外部に出力する。
In the second mixer l7, multiple channels of digital musical sound signals D(0) to D are directly provided from the sound source l4.
(n) and the reverberation component signal RV given via the reverberation sound generating section l6 are mixed and outputted to the outside as one digital signal output OUT.

ここで、第1と第2のミキサーl5、17について説明
する。第1のミキサーl5の構成を第2図に示す。図示
のように、音源l4からの複数のチャンネル別楽音信号
D(0)〜D(n)は、各々、重み調整用の係数乗算器
15−WO−15−Wnにおいて重み付けされ、その後
、加算器1 5−Sにおいて加算されて第1図に示す残
響音発生部16に入力される。ここにおいて、各係数乗
算器15−WO〜15−Wnには信号に重みを付けるた
めに、独立の係数(深さパラメータ)V E L ( 
0 ) 〜V E L ( n )が入力されるように
なっており、後述するようにこれらの係aVEL( 0
 ) 〜V E L ( n )がCPUIIにおいて
ピッチ情報FT、ベロシティVLからチャンネル別に生
成され、これらの乗算器1 5−WO−1 5−Wnに
供給されるようになっている。
Here, the first and second mixers 15 and 17 will be explained. The configuration of the first mixer l5 is shown in FIG. As shown in the figure, the plurality of channel-specific musical tone signals D(0) to D(n) from the sound source 14 are each weighted in a coefficient multiplier 15-WO-15-Wn for weight adjustment, and then added to an adder. 15-S and input to the reverberation sound generating section 16 shown in FIG. Here, each coefficient multiplier 15-WO to 15-Wn has an independent coefficient (depth parameter) V E L (
0) to VEL(n) are input, and as described later, these coefficients aVEL(0
) to VEL(n) are generated for each channel from the pitch information FT and the velocity VL in the CPU II, and are supplied to these multipliers 15-WO-15-Wn.

第3図は第2のミキサーl7の構成例を示し、ここで、
音源14からのダイレクト音としての複数のチャンネル
別楽音信号D (0)〜D (n)と、残響音発生部l
6からの残響音成分信号RV(第1のミキサーl5でチ
ャンネル別に重み付けられた楽音信号のトータル信号を
デジタル処理することにより形成した信号)を係数乗算
器17−Wにて係数RVLで重み付けした信号RV’と
が加算器1 7−Sで加算され、外部に出力される。
FIG. 3 shows an example of the configuration of the second mixer l7, where:
A plurality of channel-specific musical sound signals D (0) to D (n) as direct sounds from the sound source 14 and a reverberation sound generating section l
A signal obtained by weighting the reverberant sound component signal RV from 6 (a signal formed by digitally processing the total signal of musical tone signals weighted by channel in the first mixer 15) with a coefficient RVL in a coefficient multiplier 17-W. RV' is added by the adder 17-S and output to the outside.

第2図と第3図からわかるように、チャンネル別の重み
係数V E L ( 0 ) 〜V E L ( n 
)を制御すれば、外部に出力されるダイレクト音の信号
Dと残響音成分信号RVの音量バランスを変化させるこ
とができる。この実施例は、この音量バランスを演奏源
からの演奏パラメータ、特に、ピッチFT、ベロシティ
VL(演奏タッチ)によってダイナミックに実時間制御
できるようにしたものである。
As can be seen from FIGS. 2 and 3, the weighting coefficients for each channel VEL(0) to VEL(n
), it is possible to change the volume balance between the direct sound signal D and the reverberant sound component signal RV that are output to the outside. In this embodiment, this volume balance can be dynamically controlled in real time using performance parameters from the performance source, particularly pitch FT and velocity VL (performance touch).

以下、演奏パラメータによるダイレクト音対残響音成分
の音量バランスの実時間制御について第4図、第5図を
参照して説明する。
Hereinafter, real-time control of the volume balance between direct sound and reverberant sound components using performance parameters will be explained with reference to FIGS. 4 and 5.

第4図は外部の演奏コントローラから発音メッセージ(
ノ゛一トオンメッセージ)が与えられたときに、実行さ
れるCPUIIの動作のフローを示すものである。
Figure 4 shows the pronunciation message (
This shows the flow of operations of the CPU II executed when a note-on message is given.

ノートオンメッセージ(ピッチ情報FTとベロシティV
Lを含んでいる)が与えられると(4−1),CPUI
 lは、そのノートオンメッセージを割り当てるべき楽
音チャンネルmを決定する(4−2)。決定した割当て
チャンネルmが発音中のときにはそのチャンネルmを消
音させる(4−3、4−4)。既に空きチャンネルにな
っているときはなにもしない。いずれにしても、音1i
14の割当てチャンネルmは消音状態となる。
Note on message (pitch information FT and velocity V
containing L) is given (4-1), CPUI
l determines the tone channel m to which the note-on message should be assigned (4-2). When the determined assigned channel m is producing sound, that channel m is muted (4-3, 4-4). Does nothing if the channel is already empty. In any case, sound 1i
The 14 assigned channels m are muted.

続いてCPUIIはノートオンメッセージに含まれるピ
ッチ情報FT、ベロシティVLに従って、係数VEL(
m)を算出する゛(4−5).即ち、ダイレクト音の信
号D (m)に対する残響音成分の信号RV(m)の割
合を決定する。次にCPU11はこの算出係数VEL(
m)を第1のミキサーl5の係数乗算器15−Wm(残
響音発生部l6に入力させるために、第mチャンネルの
音源出力D(m)を重み付けする乗算器)にセットする
(4−6)。以上で、残響発生装置SEでのチャンネル
mに対する準備は整った。最後にCPU11は音源l4
のチャンネルmに対し、FT、VLに応じた発音制御信
号を転送することにより、音源チャンネルmを発音させ
る(4−7)。
Next, the CPU II calculates the coefficient VEL(
Calculate m) (4-5). That is, the ratio of the reverberant sound component signal RV(m) to the direct sound signal D(m) is determined. Next, the CPU 11 calculates this calculation coefficient VEL(
m) in the coefficient multiplier 15-Wm of the first mixer l5 (a multiplier that weights the sound source output D(m) of the m-th channel in order to input it to the reverberation sound generator l6) (4-6 ). With the above steps, preparations for channel m in the reverberation generator SE are complete. Finally, CPU11 uses sound source l4
By transferring a sound generation control signal according to FT and VL to channel m, sound source channel m is caused to generate sound (4-7).

この結果、音源チャンネルmからデジタルの楽音信号D
(m)が立ち上がり、それが第1のミキサーl5におい
て、係数乗算器15−Wmで係数VEL(m)で振幅制
御された後(残響音発生部l6のトータル入力信号DM
の一部DM(m)として)残響音発生部l6に入力され
、デジタル処理され、残響音成分信号RV(m)として
第2のミキサー17に入力され、ここでダイレクトの楽
音信号D(m)と加算されて出力される。したがって、
発音メッセージに応じて残響音成分の割合が変化する音
が出力されることになる。
As a result, digital musical tone signal D from sound source channel m
(m) rises, and in the first mixer l5, the amplitude is controlled by the coefficient VEL(m) in the coefficient multiplier 15-Wm (total input signal DM of the reverberant sound generating unit l6).
DM(m)) is inputted to the reverberant sound generating section l6, digitally processed, and inputted as the reverberant sound component signal RV(m) to the second mixer 17, where the direct musical sound signal D(m) is added and output. therefore,
A sound whose proportion of reverberant sound components changes according to the pronunciation message will be output.

第4図のステップ4−5における演算の形態は任意の適
当なものであり得る。直接的な計算によってVEL(m
)を生成してもよいし、テーブルを使ってFT,VLを
VEL(m)に変換してもよい。また、FT.VLの変
化に対するVEL(m)の変化の態様、即ち変換関数も
任意の適当な関数が選択できる。
The form of the operation in steps 4-5 of FIG. 4 may be any suitable. VEL(m
) may be generated, or FT and VL may be converted to VEL(m) using a table. Also, F.T. Any suitable function can be selected for the manner in which VEL(m) changes with respect to the change in VL, that is, the conversion function.

いくつかの例を下記に示す。Some examples are shown below.

関数として、 VEL=l−VL      (第5図(a))を選ぶ
。この場合、残響音成分の大きさはベロシティVL(演
奏タッチ)のみによって決まり、弱いタッチのときは(
VL大)、残響が小さくなり、強いタッチのときは残響
が大きくなる。
As a function, choose VEL=l-VL (Figure 5(a)). In this case, the magnitude of the reverberant sound component is determined only by the velocity VL (playing touch), and when the touch is weak (
(VL large), the reverberation becomes small, and when the touch is strong, the reverberation becomes large.

2l VEL=FT        (第5図(b))この場
合には、残響の大きさはピッチのみで決まり、ピッチが
高いとき(FT大)は、残響が大きくなり、低いピッチ
のときは残響が浅くなる。
2l VEL=FT (Figure 5(b)) In this case, the size of the reverberation is determined only by the pitch; when the pitch is high (FT large), the reverberation is large, and when the pitch is low, the reverberation is shallow. Become.

作l VEL= (1一男+”−   (第5図(C))この
例のように、VELをVLとFTの両方の関数としたと
きには、残響の大きさをピッチと演奏タッチの両方に依
存させることができる。例示の関数の場合,タッチが強
く、ピッチが高いときに最も残響が深くなる。
VEL= (11+"- (Figure 5 (C)) As in this example, when VEL is a function of both VL and FT, the magnitude of reverberation depends on both pitch and playing touch. For the example function, the reverberation is deepest when the touch is strong and the pitch is high.

以上で第1実施例の説明を終えるが、種々の変形、変更
が容易に行える。
Although the description of the first embodiment has been completed above, various modifications and changes can be easily made.

例えばミキサーl5、l7の構成に関して、第2図、第
3図に示す以外の構成が採用できる。一例を挙げると、
第2のミキサー17において、ダイレクト音の信号D 
(0)〜D (n)をチャンネル別に重み付けする係数
乗算器(17−WO〜17−Wn)を設け、これらの係
数乗算器の係数と、残響音発生部16への入力信号を形
成する第1のミキサーl5の乗算器係数VEL (0)
〜VEL(n)とを相対的(代表的には、α対(l一α
)の比のように相補的)に制御するようにしてもよい。
For example, regarding the configuration of mixers 15 and 17, configurations other than those shown in FIGS. 2 and 3 can be adopted. For example,
In the second mixer 17, the direct sound signal D
Coefficient multipliers (17-WO to 17-Wn) that weight (0) to D (n) for each channel are provided, and the coefficients of these coefficient multipliers and the coefficient multipliers that form the input signal to the reverberant sound generating section 16 are provided. Multiplier coefficient VEL of mixer l5 of 1 (0)
〜VEL(n) (typically, α pair (l − α
) may be controlled in a complementary manner, such as the ratio of

また第3図の第2のミキサーl7ではダイレクト音の信
号D (0)〜D (n)と残響成分の信号RVを加算
して、1つのトータル信号OUTとして外部に出力して
いるが、この代りに、ダイレクト音の信号と残響成分信
号RVとをミックスすることなく出力するようにしても
よい(例えば、右スビーカからダイレクト音を出力させ
、左スピーカから残響音成分を出力させるような場合)
。また、第1ミキサーl5、第2ミキサーl7はアナロ
グ回路で構成してもよい。この場合、アナログの第1ミ
キサーの入力側にD/A変換器が付き、出力側にA/D
変換器が付き、デジタルの残響音発生部l6とアナログ
の第2ミキサーとの間にD/A変換器が設けられること
になる。また、第1実施例では残響音発生部l6は1つ
のデジタル信号しか取り扱わないため、ミキサー15を
その入力段に必要としているが、音源l4のチャンネル
数と等しい数の残響音発生部を用いて、各々の各残響音
発生チャンネルで対応する音源チャンネル信号をデジタ
ル処理するようにしてもよい。この場合、各残響音発生
チャンネルの出力段に第2図に示すようなチャンネル残
響音成分調整用の係数乗算器(デジタルまたはアナログ
)を設けてもよい。
Furthermore, in the second mixer l7 in Fig. 3, the direct sound signals D (0) to D (n) and the reverberation component signal RV are added together and outputted to the outside as one total signal OUT. Alternatively, the direct sound signal and the reverberant component signal RV may be output without being mixed (for example, in a case where the direct sound is output from the right speaker and the reverberant sound component is output from the left speaker).
. Furthermore, the first mixer l5 and the second mixer l7 may be constructed from analog circuits. In this case, a D/A converter is attached to the input side of the first analog mixer, and an A/D converter is attached to the output side.
A D/A converter is provided between the digital reverberation sound generator l6 and the analog second mixer. Furthermore, in the first embodiment, since the reverberant sound generator l6 handles only one digital signal, the mixer 15 is required at its input stage. , the corresponding sound source channel signal may be digitally processed in each reverberation sound generation channel. In this case, a coefficient multiplier (digital or analog) for adjusting channel reverberation sound components as shown in FIG. 2 may be provided at the output stage of each reverberation sound generation channel.

また、演奏コントローラは外部の演奏コントローラに限
らず、楽器本体の演奏コントローラでもよく、あるいは
演奏者によるその場での演奏操作を示す情報を与える実
時間演奏コントローラに限らず、演奏情報を記録した媒
体から演奏情報を読み出す手段(シーケンサ)であって
もよい。
Furthermore, the performance controller is not limited to an external performance controller, but may also be a performance controller built into the instrument itself, or is not limited to a real-time performance controller that provides information indicating the performer's on-the-spot performance operations, but is also a medium on which performance information is recorded. It may also be a means (sequencer) for reading performance information from.

く第2実施例〉 次に、この発明の第2実施例を説明する。第6図は第2
実施例に係る電子楽器10Mの全体構成である。第2実
施例では効果発生装置SEPがポリフォニック音源14
0に対応して楽音チャンネル別に用意されており、チャ
ンネル独立で効果が付加できるようになっている。効果
発生装置SEPの各効果発生ユニッ}SEiはハード的
には第7図のようになっており、機能的には第lθ図の
ようになっており、第1実施例とは異なり、リバーブだ
けでなく、コーラスやディレイの効果も選択に応じて複
合的に付加可能である。第6図において、CPUIIO
はシステムプログラムROMとデータRAMを内蔵して
おり、外部の演奏MIDIコントローラからの発音メッ
セージに応答して、ヴオイスアサインを行うとともに、
そのメッセージに含まれる情報(この場合、MIDIな
のでピッチ情報FTとべロシティVT)から、効果発生
装置SEP上のアサインした効果発生ユニットSE(m
)において使用される効果パラメータを算出し、そのユ
ニットSEに転送する。しかる後、CPULIOは音源
140上の7サインした音源チャンネルTG (m)に
対し、所要データを含む発音コマンドを与えて、発音を
開始させる。この結果、その音源チャンネルTG( m
 )で楽音信号が生成され、それが対応する効果発生ユ
ニットSE(m)に入力され、ここでリバーブ、コーラ
スおよび/またはディレイの効果が、CP.U110に
より発音時に更新された内部の効果パラメータに従って
付加される。
Second Embodiment Next, a second embodiment of the present invention will be described. Figure 6 is the second
This is the overall configuration of an electronic musical instrument 10M according to an embodiment. In the second embodiment, the effect generating device SEP is a polyphonic sound source 14.
0 is prepared for each musical tone channel, and effects can be added independently to each channel. Each effect generation unit of the effect generation device SEP SEi has a hardware structure as shown in Fig. 7, and a functional structure as shown in Fig. lθ. Unlike the first embodiment, only reverb is used. In addition, chorus and delay effects can be added in combination according to selection. In FIG. 6, CPUIO
has a built-in system program ROM and data RAM, and responds to sound messages from an external performance MIDI controller to perform voice assignments.
From the information included in that message (in this case, since it is MIDI, pitch information FT and velocity VT), the assigned effect generation unit SE (m
) is calculated and transferred to that unit SE. Thereafter, the CPU LIO gives a sound generation command including required data to the 7-signed sound source channel TG (m) on the sound source 140 to start sound generation. As a result, the sound source channel TG ( m
), a musical tone signal is generated and inputted to the corresponding effect generating unit SE(m), where the effects of reverb, chorus and/or delay are applied to the CP. It is added according to the internal effect parameters updated by U110 at the time of sound generation.

各効果発生ユニッ}SEiは内部的には2つ、即ち右ス
テレオ用のサブユニットと左ステレオ用のサブユニット
とに分かれており(第lθ図参照)、各サブユニットは
独立または相互に依存する形式で効果を付加できるよう
になっている。各効果発生ユニッ}SEO〜SEnの出
力のうち右サブユニットの出力は加算器L 1 1 1
’で加算されてから、左ステレオのサウンドシステム(
図示せず)に送られ、全出力のうち左サブユニットの出
力は加算器R112で加算されてから右ステレオサウン
ドシステムに入力される。
Each effect generating unit SEi is internally divided into two subunits: a right stereo subunit and a left stereo subunit (see Figure lθ), and each subunit is independent or mutually dependent. It is now possible to add effects depending on the format. Among the outputs of each effect generating unit} SEO to SEn, the output of the right subunit is added to the adder L 1 1 1
' and then the left stereo sound system (
(not shown), and the outputs of the left subunit among all the outputs are summed by an adder R112 and then input to the right stereo sound system.

効果発生装置SEPを構成する複数の効果発生ユニット
は、処理速度が十分高ければ、共通のハードウェアによ
る時分割多重処理(TDM)により多重化できるが,こ
こではディスクリートな9 G ユニットで構成している。
The multiple effect generation units that make up the effect generation device SEP can be multiplexed using time division multiplexing (TDM) using common hardware if the processing speed is high enough, but here they are configured with discrete 9G units. There is.

効果発生ユニッ}SEiのハードゥーア構成を第7図に
示す。
The hardware configuration of the effect generating unit SEi is shown in FIG.

同図において、プログラムメモリ2lは、所定のプログ
ラムを格納するメモリであり、図示しないクロック発生
部より供給される高速のクロック信号CK2によりイン
クリメントするプログラムカウンタ22の出力をアドレ
スとして受けて、コ→ンドを制御回路23に供給する。
In the figure, a program memory 2l is a memory that stores a predetermined program, and receives as an address the output of a program counter 22 that is incremented by a high-speed clock signal CK2 supplied from a clock generator (not shown), and executes commands. is supplied to the control circuit 23.

この制御回路23は、プログラムメモリ2lの出力を解
読し、後述する各レジスタ、メモリ間のデータ転送及び
演算、フリップフロップ24によりプログラムヵウンタ
22へのデータの供給の各タイミングと実行を制御する
。上記フリップフロップ24は、外部サンプリングクロ
ックCKIによりセットされ、セット信号Fを制御回路
23へ供給し、また制御回路23からはリセット信号が
フリップフロップ24へ与えられる。なお、プログラム
カウンタ22へ供給されるクロック信号CK2は、フリ
ップフロップ24へ供給される外部サンプリングクロッ
クCKIに比べ充分速いクロックが与えられている。
This control circuit 23 decodes the output of the program memory 2l, and controls the timing and execution of data transfer and calculation between each register and memory, which will be described later, and the supply of data to the program counter 22 by the flip-flop 24. The flip-flop 24 is set by an external sampling clock CKI and supplies a set signal F to the control circuit 23, and a reset signal is supplied from the control circuit 23 to the flip-flop 24. Note that the clock signal CK2 supplied to the program counter 22 is given a sufficiently faster clock than the external sampling clock CKI supplied to the flip-flop 24.

効果パラメータメモリ25、26には、後に詳細に説明
するようにディレイ、コーラス、リバーブ効果付加のた
めのパラメータ、演算に使用する定数及び波形データの
一部が格納される。
The effect parameter memories 25 and 26 store parameters for adding delay, chorus, and reverb effects, constants used in calculations, and part of waveform data, as will be described in detail later.

レジスタA27及びレジスタB28は、効果パラメータ
メモリ25、26あるいは後述する各レジスタから与え
られ、加減算を行う演算回路29及び乗算回路30に供
給するデータを格納する。
Register A 27 and register B 28 store data given from effect parameter memories 25 and 26 or each register described later, and supplied to an arithmetic circuit 29 and a multiplication circuit 30 that perform addition and subtraction.

上記演算回路29及び乗算回路30の演算結果はレ抄ス
タC31へ与えられ、該レジスタC31の出力は演算回
路29あるいは内部バス32を介して各部へ供給される
The calculation results of the calculation circuit 29 and the multiplication circuit 30 are applied to the register C31, and the output of the register C31 is supplied to each section via the calculation circuit 29 or the internal bus 32.

波形データメモリ33は、楽音の波形データを一時記憶
するメモリ(遅延要素)であり、アドレスレジスタ34
により書き込み及び読み出しアドレスが供給され、デー
タレジスタ35に書き込み及び読み出しデータが格納さ
れる。なお、この波形データメモリ33はRAM等から
成り、後述する第10図のディレイ効果付加回路l、コ
ーラス効果付加回路2、リバーブ効果付加回路3内の遅
延回路として第11〜第13図に示すシフトレジスタに
機能的には対応する。上記データレジスタ35は双方向
になっており、内部バス32を通じてデータ転送が行わ
れる。入力レジスタ36は、対応する音源チャンネルT
G(i)からのデジタル楽音信号のバッファとして用い
られている。また右出力レジスタ38及び左出力レジス
タ39は、それぞれ右効果出力及び左効果出力に用いら
れる。
The waveform data memory 33 is a memory (delay element) that temporarily stores waveform data of musical tones, and the address register 34
Write and read addresses are supplied by the data register 35, and the write and read data are stored in the data register 35. The waveform data memory 33 is composed of a RAM, etc., and includes shift circuits shown in FIGS. 11 to 13 as delay circuits in the delay effect adding circuit 1, chorus effect adding circuit 2, and reverb effect adding circuit 3 shown in FIG. 10, which will be described later. Functionally corresponds to a register. The data register 35 is bidirectional, and data is transferred via the internal bus 32. The input register 36 has a corresponding sound source channel T.
It is used as a buffer for digital tone signals from G(i). Further, the right output register 38 and the left output register 39 are used for right effect output and left effect output, respectively.

37はCPUIIO(第1図)と効果発生ユニットSE
iとのインターフェースであり、CPU110はこのイ
ンターフェースを介することにより、効果パラメータメ
モリ25、26内のデータを変更することができる。詳
細には、CPU110は、データ変更の際に、データ及
びそのデータが書き込まれるべき効果パラメータメモリ
25、26上のアドレスを含むコマンドをインターフェ
ース37に転送する。これに対し、インク一フェース3
7はそのコマンドを解読し、制御回路23が内部バス2
3を使用していないタイミングで、効果パラメータメモ
リ25、26にデータを書き込む。
37 is the CPUIO (Figure 1) and the effect generation unit SE
i, and the CPU 110 can change the data in the effect parameter memories 25 and 26 via this interface. Specifically, when changing data, the CPU 110 transfers to the interface 37 a command that includes the data and the address on the effect parameter memories 25, 26 where the data is to be written. On the other hand, ink 1 face 3
7 decodes the command, and the control circuit 23 transfers it to the internal bus 2.
Data is written into the effect parameter memories 25 and 26 at a timing when 3 is not in use.

次に、前述した音色パラメータメモリ2526の内部構
成を第8図及び第9図を参照しながら説明する。
Next, the internal configuration of the aforementioned timbre parameter memory 2526 will be explained with reference to FIGS. 8 and 9.

第8図は、第7図の音色パラメータメモリ25の内部構
成を示しており、アドレス0〜3nに時間情報、角度情
報、角度の変化量情報等の低周波発振用パラメータの内
容に対応するLFOの使用領域、アドレス3n+1及び
3n+2にそれぞれ右チャンネル及び左チャンネル用デ
ィレイメモリノ入力ポインタDPo工NTR及びD P
O I NTL、アドレス3n+3及び3n+4にそれ
ぞれ右チャンネル及び左チャンネル用ディレイメモリ使
用領域の大きさDERIAAR及びDERIAAL、ア
ドレス3n+5、3n+6に右チャンネル及び左チャン
ネル用ディレイメモリ使用領域の先頭アドレ,(DER
IAOR及びDERIAOL、アドレス3n+7にコー
ラスメモリの入力ポインタCPOINT、アドレス3n
+8にコーラスメモリ使用領域の大きさCERIAA、
アドレス3n+9にコーラスメモリ使用領域の先頭アド
レスCERIAO、アドレス3n+IOにリバーブメモ
リの入力ポインタRPOINT、アドレス3n+11に
リバーブメモリ使用領域の大きさRERIAA、アドレ
ス3n+12にリバーブメモリ使用領域の先頭アドレス
RERIAO、アドレス3n+13及び3n+14にそ
れぞれ右チャンネル及び左チャンネル用のディレイの帰
還波形データDRDATAR及びDRDATAL、アド
レス3n+15及び3n+16にそれぞれ右チャンネル
及び左チャンネル用処理波形データWAVER及びWA
VEL、アドレス3n+17及び3n+18にそれぞれ
右と左の効果出力波形データEWAVER及びEWAV
ELを記憶する。
FIG. 8 shows the internal configuration of the tone parameter memory 25 in FIG. The delay memory input pointers for the right channel and left channel are placed in the used area of address 3n+1 and 3n+2, respectively.
O I NTL, addresses 3n+3 and 3n+4 are the size of the delay memory used area for the right channel and left channel, DERIAAR and DERIAAL, addresses 3n+5 and 3n+6 are the start address of the delay memory used area for the right channel and left channel, (DER
IAOR and DERIAOL, chorus memory input pointer CPOINT at address 3n+7, address 3n
+8 is the chorus memory usage area CERIA,
Address 3n+9 is the start address CERIAO of the chorus memory use area, address 3n+IO is the reverb memory input pointer RPOINT, address 3n+11 is the size of the reverb memory use area RERIAA, address 3n+12 is the start address RERIAO of the reverb memory use area, addresses 3n+13 and 3n+14. Delay feedback waveform data DRDATAR and DRDATAL for the right channel and left channel, respectively, and processed waveform data WAVER and WA for the right channel and left channel, respectively, at addresses 3n+15 and 3n+16.
VEL, right and left effect output waveform data EWAVER and EWAV at addresses 3n+17 and 3n+18, respectively.
Memorize EL.

第9図は、第7図の音色パラメータメモリ26の内容構
成を示しており、アドレス0〜l1に低周波発振用の任
意波形の内容に対応するLFO使3l 用領域、アドレス12及び13にそれぞれ右チャンネル
及び左チャンネル用ディレイすなわち、後述する第11
図のシフトレジスタla,lbに相当する遅延時間の内
容に対応するDTIMER及びDTIMEL、アドレス
l4及び15にそれぞれ右チャンネル及び左チャンネル
用ディレイの帰還量すなわち、後述するディレイ効果付
加回路としての機能ブロックを示す第11図の減衰回路
le,Ifに相当する帰還量DRPEATR及びDRP
EATL、アドレス16及びl7にそれぞれ右チャンネ
ル及び左チャンネル用ディレイの効果の深さDDEPT
HR及びDDEPTHL、アドレス18及びl9にそれ
ぞれコーラス効果の深さCDEPTH及びコーラスの遅
延時間すなわち、後述するコーラス効果付加回路として
の機能ブロックを示す第12図のシフトレジスタ2a.
2bに相当する遅延時間CDTIME、アドレス20〜
20+mに右チャンネル用リバーブの各遅延時間すなわ
ち、後述するリバーブ効果付加回路としての機能ブロッ
クを示す第13図のシフトレジスタ3aの中間タップに
相当する各遅延時間DTIR NDTmR、アドレス2
1+m 〜21+2mに左チャンネル用リバーブの各遅
延時間DTIL−DTmL、アドレス22+2mにリバ
ーブ効果の深さRDEPTHをそれぞれ記憶する。ここ
で実際の遅延時間のデータDTIMEは、第11図乃至
第13図のシフトレジスタ等による遅延時間とは異なり
波形データメモリ33上のアドレスの差つまり、現在波
形を書き込むアドレスと過去に書き込んだ波形を読み出
す読出アドレスとの差を示し、1つのループ使用される
メモリ(例えばディレイメモリ)の大きさ(DERIA
A)から本来の遅延時間を引いた値をもっている。
FIG. 9 shows the content structure of the timbre parameter memory 26 shown in FIG. 7. Addresses 0 to l1 correspond to the contents of the arbitrary waveform for low frequency oscillation, and LFO use areas 31 and addresses 12 and 13 respectively. The delay for the right channel and the left channel, that is, the 11th delay described later.
DTIMER and DTIMEL corresponding to the contents of the delay time corresponding to the shift registers la and lb in the figure, and addresses l4 and 15, respectively, are filled with delay feedback amounts for the right channel and left channel, that is, a functional block as a delay effect adding circuit described later. The feedback amounts DRPEATR and DRP correspond to the attenuation circuits le and If of FIG.
EATL, address 16 and l7 are the delay effect depth DDEPT for the right channel and left channel, respectively.
HR and DDEPTHL, addresses 18 and 19 respectively indicate the depth of the chorus effect CDEPTH and the delay time of the chorus, that is, the shift register 2a.
Delay time CDTIME corresponding to 2b, address 20 ~
20+m indicates each delay time of the right channel reverb, that is, each delay time corresponding to the intermediate tap of the shift register 3a in FIG. 13, which shows a functional block as a reverb effect adding circuit to be described later.
Each delay time DTIL-DTmL of the left channel reverb is stored in 1+m to 21+2m, and the depth of the reverb effect RDEPTH is stored in address 22+2m, respectively. Here, the actual delay time data DTIME differs from the delay time by the shift register etc. in FIGS. 11 to 13, and is the difference between the addresses on the waveform data memory 33, that is, the address where the current waveform is written and the waveform written in the past. The size of the memory (for example, delay memory) used in one loop (DERIA)
It has the value obtained by subtracting the original delay time from A).

第10図は、効果発生ユニットSEiの機能ブロック図
である。つまり効果発生ユニッ}SEiは第7図に示し
た構成によって、この第lO図に示す機能を、時分割的
に1サンプリング毎に実行するのである。即ち、同図に
おいて、効果発生ユニットは、縦続接続された2人力/
2出力型のディレイ効果付加回路1と、コーラス効果付
加回路2と、リバーブ効果付加回路3とを有するが、こ
れは第7図の構成により、lサンプリング時間毎にディ
レ仁コーラス、リバーブについての効果付加処理を、そ
れぞれ右と左の2つの系統について時分割的に行うこと
を意味するのである。第10図に従うと、対応する音源
チャンネルTG(i)からのデジタル楽音信号を分配す
ることによって得られる右及び左の入力信号は、まず、
ディレイ効果付加回路lの右及び左入力端子に入力され
(第1 1図参照)、2人力/2出力のディレイ効果モ
ジュールIMにおいてそれぞれディレイ効果が付加され
、右と左のディレイ効果成分信号となり、しかる後、各
々のディレイ効果選択スイッチ4(実際には深さ調整用
の乗算器となっている。他の選択スイッチも同じ。)を
介して、それぞれ加算器5、6へ与えられ、ここでダイ
レクトのデジタル楽音信号に加算され、コーラス効果付
加回路2に対する左右の入力信号となる。これらの信号
は加算器7で加算され、この加算出力が1人力/2出力
型のコーラス効果モジュール2Mに入力され、コーラス
効果が付加され、その右及び左出力は、各々のコーラス
効果選択スイッチ8を介して、それぞれ加算器9、lO
へ与えられ、ここで上流の効果付加回路であるディレイ
効果付加回路lからの信号に加算されて、次段のリバー
ブ効果発生回路3の左右の入力信号となる。更に、これ
らの信号は、加算器11で加算され、この加算出力が1
入力/2出力型のリバーブ効果モジュール3Mに入力さ
れ、リバーブ効果が付加されその右及び左出力は、各々
のリバーブ効果選択スイッチl2を介して、それぞれ加
算器l3、l4へ与えられ、ここでコーラス効果付加回
路2からの信号に加算され、効果出力信号として、それ
ぞれ右及び左出力端子より出力する。なお、ディレイと
コーラスとレバーブの効果付加回路1、2、3の接続順
序は図示のものには限られず、プログラムメモリ21(
第7図)のプログラムを変更することにより、順序の入
れ換えが可能である。その場合、第10図からわかるよ
うに、接続の順序によって効果発生ユニットSE (i
)全体の伝達特性が変化するという利点があり、実現可
能なエフェクト空間が一層広くなるという特徴をもって
いる。
FIG. 10 is a functional block diagram of the effect generation unit SEi. In other words, the effect generating unit SEi has the configuration shown in FIG. 7 and executes the function shown in FIG. 10 in a time-division manner for each sampling. That is, in the same figure, the effect generating unit is a two-man power unit connected in cascade.
It has a two-output type delay effect adding circuit 1, chorus effect adding circuit 2, and reverb effect adding circuit 3, which has the configuration shown in FIG. This means that the additional processing is performed in a time-sharing manner for the two right and left systems, respectively. According to FIG. 10, the right and left input signals obtained by distributing the digital musical tone signals from the corresponding sound source channel TG(i) are firstly
The signals are input to the right and left input terminals of the delay effect adding circuit l (see Figure 11), and a delay effect is added to each in the two-manufacturer/two-output delay effect module IM, resulting in right and left delay effect component signals. Thereafter, it is applied to adders 5 and 6 via each delay effect selection switch 4 (actually serves as a multiplier for depth adjustment. The same applies to other selection switches). It is added to the direct digital musical tone signal and becomes the left and right input signals to the chorus effect adding circuit 2. These signals are added by an adder 7, and the output of this addition is input to a one-manufacturer/two-output type chorus effect module 2M to add a chorus effect, and its right and left outputs are sent to each chorus effect selection switch 8. through adders 9 and lO, respectively.
Here, it is added to the signal from the delay effect adding circuit 1, which is an upstream effect adding circuit, and becomes the left and right input signals of the reverb effect generating circuit 3 at the next stage. Furthermore, these signals are added by an adder 11, and the output of this addition is 1
The input is input to an input/two-output type reverb effect module 3M, a reverb effect is added, and its right and left outputs are given to adders l3 and l4, respectively, via each reverb effect selection switch l2, where chorus is added. It is added to the signal from the effect addition circuit 2, and output as an effect output signal from the right and left output terminals, respectively. Note that the connection order of the delay, chorus, and reverb effect adding circuits 1, 2, and 3 is not limited to that shown in the diagram;
The order can be changed by changing the program shown in FIG. 7). In that case, as can be seen from FIG. 10, the effect generating unit SE (i
) It has the advantage of changing the overall transfer characteristics, and has the characteristic that the achievable effect space becomes wider.

第11図は、第lθ図のデイレイ効果付加回路の詳細な
機能をブロック図で例示したものである。同図において
,デイレイ効果成分発生手段としてのディレイ効果モジ
ュールIMは、右及び左ディレイ効果付加用に独立に2
組設けられており、2つの遅延回路を構成するシフトレ
ジスタla,lbと、これらシフトレジスタla、1b
をそれぞれシフトするクロックジェネレータ(CLK)
lc、1dと、シフトレジスタla,lbの出力をそれ
ぞれ減衰させ、入力側へ帰還する減衰器1e,ifと、
シフトレジスタla、1bのそれぞれの入力側に設けら
れ、入力信号と減衰器le,Ifの出力とをそれぞれ加
算する加算器Ig,lhとから構成されている。そして
、シフトレジスタla.1bの出力側にそれぞれデイレ
イ効果の出力端子を有する。すなわち、入力信号はフィ
ードバックループを有するシフトレジスタla,lbで
遅延され所定のディレイ効果が付加されてステレオで出
力される。ここでシフトレジスタla,lbのシフト時
間がディレイ効果の遅延時間を意味し、減衰器1e.1
fの減衰量がディレイ効果の帰還量を意味する。なお、
第11図に示すように、ここでは選択スイッチ4の代り
に係数乗算器4−R、4−Lを描いてある。これらの係
数乗算器4−R、4−Lはディレイ効果成分信号の振幅
を調整する要素であり、係数DDEPTHR.DDEP
THL (第9図の効果パラメータメモリ26参照)が
ゼロのときには、当然ゼロを出力し、オフ状態の選択ス
イッチ4として機能する。これを達成するため、第6図
の操作パネル19等により、特定の効果(例えばディレ
イ効果)を禁止する入力があったとき、CPUIIOは
内部のRAM上に禁止フラグを立て、効果発生装置SE
Pの全ユニットに対し、DDEPTHR=DDEPTH
L=0のデータを送るようになっている。
FIG. 11 is a block diagram illustrating the detailed functions of the delay effect adding circuit shown in FIG. 1θ. In the same figure, the delay effect module IM as a delay effect component generating means has two independent delay effect modules for adding right and left delay effects.
Shift registers la and lb forming two delay circuits and shift registers la and 1b are provided.
A clock generator (CLK) that shifts each
attenuators 1e and if that attenuate the outputs of lc and 1d and shift registers la and lb, respectively, and feed them back to the input side;
The adders Ig and lh are provided on the input sides of the shift registers la and 1b, respectively, and add the input signal and the outputs of the attenuators le and If, respectively. and shift register la. Each of the output terminals 1b has an output terminal for a delay effect. That is, the input signal is delayed by shift registers la and lb having a feedback loop, a predetermined delay effect is added, and the signal is output in stereo. Here, the shift time of the shift registers la and lb means the delay time of the delay effect, and the attenuator 1e. 1
The amount of attenuation of f means the amount of feedback of the delay effect. In addition,
As shown in FIG. 11, coefficient multipliers 4-R and 4-L are shown here instead of the selection switch 4. These coefficient multipliers 4-R and 4-L are elements that adjust the amplitude of the delay effect component signal, and the coefficients DDEPTHR. DDEP
When THL (see effect parameter memory 26 in FIG. 9) is zero, it naturally outputs zero and functions as the selection switch 4 in the OFF state. To achieve this, when there is an input from the operation panel 19 or the like in FIG. 6 to inhibit a specific effect (for example, a delay effect), the CPUIO sets a prohibition flag on the internal RAM, and
For all units of P, DDEPTHR=DDEPTH
Data with L=0 is sent.

第12図は、第lθ図のコーラス効果付加回路2の一例
を示す機能ブロック図である。同図において、コーラス
効果成分発生手段であるコーラス効果モジュール2Mは
、入力を共通とする右及び左出力用の2つの遅延回路を
構成するシフトレジスタ2a、2bと、これらシフトレ
ジスタ2a、2bにそれぞれ変調周波数を供給する電圧
制御発振器(VCO)2c、2dと、この一方の電圧制
御発振器2Cに位相反転回路2eを通し,他方の電圧制
御発振器2dに直接に、低周波出力を変調深さを決める
ボリューム2fを介して供給する低周波発振器(LFO
)2gとから構成されている。そして、シフトレジスタ
2a、2bの出力側にそれぞれコーラス効果の出力端子
を有する。すなわち、低周波発振器(LFO)2gによ
り発生した低周波出力を一方は反転回路2eを、他方は
直接に電圧制御発振器2C、2dを介してそれぞれシフ
トレジスタz&、2bに与え、電圧制御発振器(VCO
)2c、2dの発振周波数を変え、周波数変調効果が付
加されてステレオで出力される。もちろん,第12図は
j−ラス効果付加の機’2Q 能図であり、上述した回路要素(例えば電圧制御発振器
)はデジタル的に実現されている。
FIG. 12 is a functional block diagram showing an example of the chorus effect adding circuit 2 shown in FIG. 1θ. In the figure, a chorus effect module 2M, which is a chorus effect component generating means, has shift registers 2a and 2b forming two delay circuits for right and left outputs having a common input, and shift registers 2a and 2b, respectively. Voltage controlled oscillators (VCO) 2c and 2d supply the modulation frequency, and one voltage controlled oscillator 2C is passed through a phase inversion circuit 2e, and a low frequency output is sent directly to the other voltage controlled oscillator 2d to determine the modulation depth. Low frequency oscillator (LFO) supplied via volume 2f
)2g. The output terminals of the shift registers 2a and 2b each have a chorus effect output terminal. That is, the low frequency output generated by the low frequency oscillator (LFO) 2g is applied to the inversion circuit 2e on one side, and directly to the shift registers z & 2b via the voltage controlled oscillators 2C and 2d on the other side.
) The oscillation frequencies of 2c and 2d are changed, a frequency modulation effect is added, and the signal is output in stereo. Of course, FIG. 12 is a functional diagram for adding the j-las effect, and the circuit elements described above (eg, voltage controlled oscillator) are realized digitally.

第13図は、第10図のリバーブ効果付加回路の一例を
示す機能ブロック図である。同図において、リバーブ効
果成分発生手段としてのリバーブ効果モジュール3Mは
、1つのシフトレジスタ3aと、このシフトレジスタ3
aをシフトするクロックジェネレータ(CLK)3bと
、シフトレジスタ3aの複数の中間のタップの出力をそ
れぞれ右及び左出力用として加算して出力する加算器3
C、3dとから構成されている。そして、これら加算器
3C、3dの出力側にそれぞれリバーブ効果の出力端子
を有する。すなわち、入力信号はシフトレジスタ3aの
中間タップから種々に遅延された出力がそれぞれ加算器
3C、3dで加算され所定のリバーブ効果が付加されて
ステレオで出力される。
FIG. 13 is a functional block diagram showing an example of the reverb effect adding circuit shown in FIG. 10. In the figure, a reverb effect module 3M as a reverb effect component generating means includes one shift register 3a and this shift register 3a.
a clock generator (CLK) 3b for shifting a, and an adder 3 for adding and outputting the outputs of a plurality of intermediate taps of the shift register 3a for right and left outputs, respectively.
It is composed of C and 3d. The output sides of these adders 3C and 3d each have an output terminal for a reverb effect. That is, the input signals are variously delayed outputs from the intermediate taps of the shift register 3a and are added by adders 3C and 3d, respectively, and a predetermined reverb effect is added thereto, and output in stereo.

次に、第lθ図〜第13図に関連して述べた諸機能が第
7図の効果発生ユニッ}SEiにおいて、どのようにし
て実現されているかについて、フローチャート(第14
〜第19図)を参照して詳細に説明する。
Next, a flowchart (see Fig. 14) explains how the various functions described in relation to Figs.
This will be explained in detail with reference to FIGS.

第14図に効果発生ユニッ}SEiのパラメータ受信処
理すなわち、上述した〇 P S/S Eインターフェ
ース37の動作を示し、一方、第15図に効果発生ユニ
ッ}SEiの効果付加処理、即ち、制御回路23の制御
の下で行われる楽音信号に対するデジタル処理の全体を
示す。
FIG. 14 shows the parameter reception process of the effect generating unit SEi, that is, the operation of the above-mentioned P S/S E interface 37, while FIG. 15 shows the effect adding process of the effect generating unit SEi, that is, the control circuit. 23 shows the overall digital processing performed on musical tone signals under the control of 23.

上述したように、CPUIIOからコマンドが送られて
くると(TIでYES).そのデコードがインターフェ
ース37で行われ(T2).制御回路23が内部バス3
2を使用していないタイミングで、コマンドに含まれる
データ(効果パラメータ)が効果パラメータメモリ25
、26上の指示された記憶場所に記憶される(T3)。
As mentioned above, when a command is sent from CPUIO (YES at TI). The decoding is performed at the interface 37 (T2). The control circuit 23 is connected to the internal bus 3
2 is not in use, the data (effect parameters) included in the command is stored in the effect parameter memory 25.
, 26 (T3).

CPU110にとってはこのコマンド転送処理は、効果
発生装置SEPに対する効果パラメータの更新処理に外
ならない。これに関連し、第6図のCPU110は外部
の演奏コントローラから発音メッセージが与えられたと
きに、ヴオイスアサインを行い、発音メッセージに含ま
れるピッチ情報FTとタッチ情報VLのインスタンスに
対し、ピッチ情報FT及び/またはタッチ情報VLに対
して操作パネルl9での機能割当に基づき割り当てられ
ている効果制御機能に従い、変換関数の演算を行い、目
的の効果パラメータ(DTIMER.DTIMEL.D
RPEATR.DRPEATL.DDEPTHR,DD
EPTHL,CDEPTH.CDTIME,RTIR−
DTmR.DTIL 〜DTmL.RDEPTH.LF
Oパラメータ等のうち少なくとも1つの効果パラメータ
)を生成し,ヴオイスアサインした効果発生二二ッ}S
E(m)のインターフェース37に対し、生成したデー
タを転送する。以下、説明する効果発生ユニッ}SE 
(i)の効果付加処理の記述から一層明らかになるが、
効果発生二二ッ}SE (i)は演奏時に更新された効
果パラメータに従って対応音源チャンネルTG(i)か
らのデジタル楽音信号をデジタル処理して効果音の信号
を形成する。結果として、演奏のピッチやタッチに応じ
た実時間4l での効果音制御麻’ti−議されることとなる。
For the CPU 110, this command transfer process is nothing but an effect parameter update process for the effect generating device SEP. In this regard, the CPU 110 in FIG. 6 performs voice assignment when a pronunciation message is given from an external performance controller, and assigns pitch information FT and touch information VL to instances of pitch information FT and touch information VL included in the pronunciation message. /or A conversion function is calculated according to the effect control function assigned to the touch information VL based on the function assignment on the operation panel 19, and the target effect parameter (DTIMER.DTIMEL.D
RPEATR. DRPEATL. DDEPTHR, DD
EPTHL, CDEPTH. CDTIME, RTIR-
DTmR. DTIL ~DTmL. RDEPTH. LF
At least one effect parameter among O parameters, etc.) is generated and the effect is assigned.
The generated data is transferred to the interface 37 of E(m). Below, the effect generating unit will be explained.
It becomes clearer from the description of the effect addition process in (i),
Effect generation 22} SE (i) digitally processes the digital musical tone signal from the corresponding sound source channel TG (i) according to the effect parameters updated at the time of performance to form a sound effect signal. As a result, sound effects can be controlled in real time according to the pitch and touch of the performance.

効果発生ユニッ}SEiの効果付加処理のフロー(第1
5図)に示すように、外部からサンプリングクロックC
KIが与えられるとF/F24(第7図)がセットされ
、その状態FがF=1になったことが制御回路23によ
り検出される(ステップSl)。これにより制御回路2
3からプログラムカウンタ22八カウントの開始信号が
供給される。この結果プログラムカウンタ22はクロッ
ク信号CK2に同期してカウントの増加を始め、アドレ
スをプログラムメモリ2lに供給し、プログラムメモリ
21からプログラムが制御回路23に供給され、これに
より各部の制御が行われることになる。即ち、ステップ
S2において、制御回路23からリセット信号がブリッ
プフロップ24に供給され、フリップフロップ24がリ
セッ} CF=0)される。次に、ステップS3におい
て、入力レジスタ36に入っている対応音源チャンネル
TGiからのデジタル楽音信号がそれぞれWAVER及
びWAVELに書き込まれる。次に、ステップS4〜ス
テップS6において、後述するディレイ効果付加の処理
(DELAY).コーラス効果付加の処理(CHORU
S). リバーブ効果付加の処理(REVERB)が順
次行われ、ソノ結果がEWAVER.EWAVELに置
かれ、最後に、ステップS7において、EWAVER及
びEWVALがそれぞれ右出力レジスタ38及び左出力
レジスタ39に転送される。これは、第lθ図において
、ディレイ効果付加回路l、コーラス効果付加回路2、
リバ・−ブ効果付加回路3でそれぞれの効果を付加し、
出力端子よりステレオ出力したことに対応する。
Effect generation unit} SEi effect addition processing flow (first
As shown in Figure 5), the sampling clock C is input externally.
When KI is applied, the F/F 24 (FIG. 7) is set, and the control circuit 23 detects that the state F becomes F=1 (step Sl). As a result, the control circuit 2
3, the program counter 228 is supplied with an eight count start signal. As a result, the program counter 22 starts counting in synchronization with the clock signal CK2, supplies the address to the program memory 2l, and the program is supplied from the program memory 21 to the control circuit 23, thereby controlling each part. become. That is, in step S2, a reset signal is supplied from the control circuit 23 to the flip-flop 24, and the flip-flop 24 is reset (CF=0). Next, in step S3, the digital musical tone signals from the corresponding tone source channel TGi stored in the input register 36 are written to WAVER and WAVEL, respectively. Next, in steps S4 to S6, delay effect addition processing (DELAY), which will be described later. Processing of adding chorus effect (CHORU
S). Processing for adding reverb effects (REVERB) is performed sequentially, and the sono result is converted to EWAVER. Finally, in step S7, EWAVER and EWVAL are transferred to the right output register 38 and left output register 39, respectively. This is shown in Figure lθ, delay effect adding circuit l, chorus effect adding circuit 2,
Add each effect with the reverb effect addition circuit 3,
Corresponds to stereo output from the output terminal.

第16図に示すフローチャートは、第15図のステップ
S4に示すディレイ効果付加処理の詳細を示すものであ
る。同図のステップSllにおいて、DPOINTRを
インクリメントした値とDERIAARとのアンドをと
り、その値とDERIAORとのオアをとった値をDP
OINTRに格納し(DPOI NTR←(DPOIN
TR+1)nDERIAARuDERIAOR).また
DPOINTRの内容をアドレスレジスタ34にセット
する(アドレスレジスタ←DPOINTR)。即ち、こ
のステップSllの論理演算において、DPOINTR
をインクリメントした値がディレイ効果のメモリ使用領
域内にあるときには、そのインクリメントした値が新し
いDPOINTR即ち、ディレイメモリ(アドレスDE
RIAORから始まるサイズDERIAARのメモリ)
に対する現ポインタ(現波形データを格納するアドレス
)となり、そのメモリの最終アドレスを越えたときには
先頭アドレスに戻った値が新しいDPOINTRとなる
ことを示す(結果として、ポインタDPOINTRは右
ディレイメモリ上をサンプリングタイムごとに1アドレ
スだけ進み、エンドアドレスに達すると次に先頭アドレ
スに戻るという、ループアクセスを右ディレイメモリに
対して行う。他のポインタも対応するメモリに対して同
様のループアクセスを行うようになっている。)。次に
、ステップS12において、WAVERとDRDATA
Rとを加算した値をデータレジスタ35にセットする。
The flowchart shown in FIG. 16 shows details of the delay effect adding process shown in step S4 in FIG. 15. In step Sll in the same figure, the incremented value of DPOINTR is ANDed with DERIAAR, and the value obtained by ORing that value with DERIAOR is set as DP.
Store in OINTR (DPOI NTR←(DPOIN
TR+1)nDERIAARuDERIAOR). Also, the contents of DPOINTR are set in the address register 34 (address register←DPOINTR). That is, in the logical operation of this step Sll, DPOINTR
When the incremented value is within the memory usage area of the delay effect, the incremented value is added to the new DPOINTR, that is, the delay memory (address DE
memory of size DERIAAR starting from RIAOR)
The pointer DPOINTR becomes the current pointer (the address that stores the current waveform data) for the current waveform data, and when it exceeds the final address of the memory, the value returned to the first address becomes the new DPOINTR (as a result, the pointer DPOINTR samples the data on the right delay memory). Performs loop access to the right delay memory, advancing by one address at each time, and returning to the start address when the end address is reached.Similar loop access is performed for other pointers to the corresponding memory. ). Next, in step S12, WAVER and DRDATA
The value obtained by adding R is set in the data register 35.

そして、アドレスレジスタ34 (DPOINTER)
で指示される波形データメモリ33(ディレイメモリ)
のアドレスにレジスタ35の値を書き込む。これは、第
1 11Nにおいて、シフトレジスタlaの出カの減衰
器1eによる減衰量と入力データの値とを加算器1gで
加算し、再びシフトレジスタ1aに入力することに対応
する。次に、第16図のステップS13において、DP
OINTRにI)TIMERを加算した値とDERIA
Rとのアンドをとり、その値とDERIAORとのオア
をとった値をアドレスレジスタ34にセットする(アド
レスレジスタ←(DPOINTR+DTIMER)nD
ERIAARUDERIAOR).このステップSl3
の論理演算は、ステップSllの処理と似ているが、D
TIMEHに相当する値だけアドレスをジャンプさせる
ことにより、ディレイメモリの過去の波形データ(シフ
トレジスタ1aの出力データに相当する遅延された波形
データ)を読み出すためのアドレス計算を行っているも
のである。なお、本例においてはI)ERIAAR−D
TIMERの値が本来の遅延時間に相当する。これは、
DTIMER後のアドレスに入っている波形は実はDE
RIAAR−DTIMERだけ過去の波形であることか
ら理解される。そして、ステップS14において、デー
タレジスタ35の値(右ディレイ効果モジュールIMの
出力に相当するディレイ効果音成分信号)に深さDDE
PTHRを乗算した値にWAVER (ダイレクトなデ
ジタル楽音信号)を加算した値(右ディレイ効果音信号
)をWAVEHに、またデータレジスタ35の値に帰還
減衰率DRPEATRを乗算した値をDRDATAHに
格納する(WAVER +WAVER+データレジスタ
XDDEPTHR.DRDATAR←データレジスタx
DRPEATT)。即ち、上記ステップS13において
アドレスレジスタ34で指示される波形データメモリ3
3の波形データを読み出し、右チャンネル用のディレイ
効果音を得る。
And address register 34 (DPOINTER)
Waveform data memory 33 (delay memory) instructed by
Write the value of register 35 to the address. This corresponds to adding the attenuation amount of the output of the shift register la by the attenuator 1e and the value of the input data in the adder 1g in the first 11N, and inputting the result to the shift register 1a again. Next, in step S13 of FIG.
The value obtained by adding I) TIMER to OINTR and DERIA
AND with R, OR the value with DERIAOR, and set the value in the address register 34 (address register ← (DPOINTR + DTIMER) nD
ERIAARUDERIAOR). This step Sl3
The logical operation of is similar to the processing of step Sll, but D
By jumping the address by a value corresponding to TIMEH, an address is calculated for reading past waveform data from the delay memory (delayed waveform data corresponding to the output data of the shift register 1a). In this example, I) ERIAAR-D
The value of TIMER corresponds to the original delay time. this is,
The waveform contained in the address after DTIMER is actually DE
This is understood from the fact that only RIAAR-DTIMER is a past waveform. Then, in step S14, the value of the data register 35 (delay sound effect component signal corresponding to the output of the right delay effect module IM) is set to the depth DDE.
The value obtained by multiplying the value multiplied by PTHR and adding WAVER (direct digital musical tone signal) (right delay sound effect signal) is stored in WAVEH, and the value obtained by multiplying the value of the data register 35 by the feedback attenuation rate DRPEATR is stored in DRDATAH ( WAVER +WAVER+Data register XDDEPTHR.DRDATAR←Data register x
DRPEATT). That is, the waveform data memory 3 specified by the address register 34 in step S13 above
Read the waveform data of 3 and obtain the delay sound effect for the right channel.

次に、上記ステップSll〜ステップS14とAR 同様の処理を左チャンネルに対しても行い、左チャンネ
ル用のディレイ効果音を得る。
Next, processing similar to steps Sll to S14 and AR described above is performed for the left channel to obtain a delay sound effect for the left channel.

第17図に示すフローチャートは、第15図のステップ
S5に示すコーラス効果付加処理の詳細を示すものであ
る。同図のステップS21において、低周波発振のため
の波形データを得る低周波発振器(LFO)の処理が行
われる。このステップ321における処理の概要は、発
生すべき波形を時間情報、角度情報、角度の変化量情報
として記憶し、計数手段と累算手段により読み出し速度
を変化させ、波形の整数部出力(LFOH)と小数部出
力(LFOL)とを出力するもので、周波数に応じてひ
ずみの少ない波形を発生させることができ、かつ変化量
を一定にした小数部出力(LFOL)を得ることが容易
なものである。即ち、このステップS21の処理後には
コーラスメモリに対してアクセスすべき波形データのア
ドレスを計算するのに必要な(基準遅延位置からの)相
対アドレスの整数部出力(LFOH)と波形の補開演算
に必要な小数部出力(LFOL)が得られる。
The flowchart shown in FIG. 17 shows details of the chorus effect adding process shown in step S5 of FIG. 15. In step S21 in the figure, processing is performed for a low frequency oscillator (LFO) to obtain waveform data for low frequency oscillation. The outline of the processing in step 321 is to store the waveform to be generated as time information, angle information, and angle change amount information, change the readout speed by the counting means and the accumulating means, and output the integer part of the waveform (LFOH). It outputs a fractional part output (LFOL) and can generate a waveform with little distortion depending on the frequency, and it is easy to obtain a fractional part output (LFOL) with a constant amount of change. be. That is, after the processing in step S21, the integer part output (LFOH) of the relative address (from the reference delay position) necessary to calculate the address of the waveform data to be accessed in the chorus memory and the waveform compensation calculation are performed. The necessary fractional part output (LFOL) can be obtained.

次に、ステップS22において、CPOINTをインク
リメントした値とCERIAAとのアンドをとり、その
値とCERIAOとのオアをとった値をCPOINTに
書き込む(cPoINT←(CPOINT+1) nC
ERIAAUCERIAO)、またCPOINTの内容
をアドレスレジスタ34にセットする(アドレスレジス
タ←CPOINT).即ち、CPOINTをインクリメ
ントした値がコーラス効果のメモリ使用領域(コーラス
メモリ)内にあるときには、そのインクリメントした値
をCPOINTとし、コーラスメモリの最終アドレスを
越えたときには先頭アドレスをC PO I NTの内
容として入力ポインタを更新する。次に、ステップS2
3において、WAVERとWAVERL (ディレイ効
果付加回路lからの効果音信号に相当する)を加算した
値をデータレジスタ35にセットする。そして、アドレ
スレジスタ34 (CPOINT)で指示される波形デ
ータメモリ33(コーラスメモリ)のアドレスにデ一タ
レジスタ35の値を書き込む。これは、第10図におい
て、加算器5、6の出力を加算器7で加算し、コーラス
効果モジュール2Mに入方スル処理に対応する。次に、
ステップS24において、CPOINTとLFOHとC
DTIMEとを加算した値とCERIAAとのアンドを
とり、その値とCERIAOとのオアをとった値をアド
レスレジスタ34に格納し(アドレスレジスタ←(CP
OINT+LFOH+CDTIME)rlcERIAA
UCERIAO).またデータレジスタ35の値に1.
0からLFOLを減算した値を乗算し、その乗算値をE
WAVEHに格納する(EWAVER+データレジスタ
X ( 1.0−LFOL)。
Next, in step S22, the incremented value of CPOINT is ANDed with CERIAA, and the ORed value of that value and CERIAO is written into CPOINT (cPoINT←(CPOINT+1) nC
ERIAAUCERIAO), and sets the contents of CPOINT in the address register 34 (address register←CPOINT). That is, when the value obtained by incrementing CPOINT is within the memory use area of the chorus effect (chorus memory), the incremented value is set as CPOINT, and when the value exceeds the final address of chorus memory, the first address is set as the contents of CPOINT. Update input pointer. Next, step S2
3, a value obtained by adding WAVER and WAVERL (corresponding to the sound effect signal from the delay effect adding circuit 1) is set in the data register 35. Then, the value of the data register 35 is written to the address of the waveform data memory 33 (chorus memory) specified by the address register 34 (CPOINT). This corresponds to the input skip processing of the chorus effect module 2M in which the outputs of adders 5 and 6 are added by adder 7 in FIG. next,
In step S24, CPOINT, LFOH and C
The value obtained by adding DTIME and CERIAA is ANDed, and the value obtained by ORing that value and CERIAO is stored in the address register 34 (address register ← (CP
OINT+LFOH+CDTIME)rlcERIAA
UCERIAO). Also, the value of the data register 35 is 1.
Multiply the value obtained by subtracting LFOL from 0, and convert the multiplied value to E
Store in WAVEH (EWAVER+data register X (1.0-LFOL).

次に、ステップS25において、CPOINTとLFO
Hと1とCl:jTIMEとを加算した値とCERIA
Aとのアンドをとり、その値とCERIAOとのオアを
とった値をアドレスレジスタ34にセットし(アドレス
レジスタ←(CPOINT+LFOH+1+CDTIM
E)rl (CERIAAUCERIAO).またデー
タレジスタ35の値にLFOLを乗算した値にEWAV
ERを加算Lた値IEWAVERに格納tる(EWAV
ER4−データレジスタXLFOL+EWAVER)。
Next, in step S25, CPOINT and LFO
The value obtained by adding H, 1, and Cl:jTIME and CERIA
Take an AND with A, and set the value obtained by ORing that value and CERIAO in the address register 34 (address register ← (CPOINT + LFOH + 1 + CDTIM
E) rl (CERIAAUCERIAO). Also, the value obtained by multiplying the value of the data register 35 by LFOL is
Add ER and store it in the value IEWAVER (EWAV
ER4-data register XLFOL+EWAVER).

このように、ステップS24及びステップS25cy)
論理演算では、CPOINTにLFOHとCDTIME
 (中心遅れ時間)とを加算したアドレスおよびその値
に1を加えたアドレス、即ち、コーラス効果メモリ上の
2つの隣り合う波形データを読み出すために2つのアド
レスを計算し、その2つの波形データを読み出し、更に
第12図に示す如く、この2つの波形データとアドレス
小数値(LFOL)とを用いて目的の波形データ(コー
ラス効果成分信号)を直線補間している。
In this way, step S24 and step S25cy)
For logical operations, LFOH and CDTIME are added to CPOINT.
(center delay time) and an address that adds 1 to that value. In other words, two addresses are calculated to read two adjacent waveform data on the chorus effect memory, and the two waveform data are Further, as shown in FIG. 12, the target waveform data (chorus effect component signal) is linearly interpolated using these two waveform data and the address decimal value (LFOL).

次に、ステップS26において、右コーラス効果成分信
号EWAVEHに深さCDPTHを乗算した値に上流の
効果付加回路の出力WAVERを加算し、その加算値を
WAVEHに格納する(右コーラス効果音成分)。この
ように、ステップS24〜ステップ526において、低
周波波形に対応して読み出しアドレスを変化させ、遅延
時間を変化させて波形データを出力する右チャンネル用
のコーラス効果付加音を得ている。
Next, in step S26, the output WAVER of the upstream effect addition circuit is added to the value obtained by multiplying the right chorus effect component signal EWAVEH by the depth CDPTH, and the added value is stored in WAVEH (right chorus effect sound component). In this manner, in steps S24 to 526, the read address is changed in accordance with the low frequency waveform, and the delay time is changed to obtain the chorus effect added sound for the right channel which outputs waveform data.

次に、ステップS27及びステップ328において、上
記ステップS24及びステップS25と同様にマイナス
LFOHとCDTIMEとを現在のC PO I NT
に加算したアドレス及びその値から1を引いたアドレス
を計算し、この2つの隣り合うアドレス(コーラスメモ
リ上)にあるデータを読み出し、この2つの波形データ
と、波形アドレス小数値(LFOL)とを用いて目的の
左コーラス効果成分信号を直線補閲する演算を行う。即
ち、ステップS27及びステップ328においては、上
記ステップS24及びステップS25の右チャンネル用
に対し低周波発振器(LFO)の出力を反転した値に相
当するアドレスを指定して読み出しを行い、しかる後に
上記と同様に補開演算も行っている。これは、第12図
において低周波発振器2gの出力を一方は反転回路2e
、他方は5l 直接に電圧制御発振器2c、2dを介してそれぞれシフ
トレジスタ2a、2bに与え、遅延時間を変えて読み出
すことに相当する。次に、ステップS29において、E
WAVELにCDEPTHを乗算した値にWAVELを
加算し、その加算値をWAVELに格納する。従って、
ステップ327〜ステップS29においてLFOの低周
波波形に対応して読み出しアドレスを変化させ、遅延時
間を変化させて波形データを出力する左チャンネル用の
コーラス効果音を得る。
Next, in steps S27 and 328, as in steps S24 and S25 above, minus LFOH and CDTIME are set to the current C PO I NT
Calculate the address added to and the address subtracted by 1 from that value, read the data at these two adjacent addresses (on the chorus memory), and combine these two waveform data and the waveform address decimal value (LFOL). Then, the desired left chorus effect component signal is linearly corrected. That is, in steps S27 and 328, reading is performed by specifying an address corresponding to the inverted value of the output of the low frequency oscillator (LFO) for the right channel in steps S24 and S25, and then the above Compensation calculations are also performed in the same way. This means that in FIG. 12, the output of the low frequency oscillator 2g is connected to the inverter 2e.
, the other corresponds to applying the signal 5l directly to the shift registers 2a and 2b via the voltage controlled oscillators 2c and 2d, respectively, and reading it out while changing the delay time. Next, in step S29, E
WAVEL is added to the value obtained by multiplying WAVEL by CDEPTH, and the added value is stored in WAVEL. Therefore,
In steps 327 to S29, the read address is changed in accordance with the low frequency waveform of the LFO, and the delay time is changed to obtain a chorus sound effect for the left channel that outputs waveform data.

第18図に示すフローチャートは、第15図のステップ
S6に示すリバーブ効果付加処理の詳細を示すものであ
る。同図のステップS31において、RPOINTをイ
ンクリメントした値とRERIAAとのアンドをとり、
その値とRERIAOとのオアをとった値をRPOIN
Tに格納し(RPOINT ←(RPOINT+l)n
RERIAALIRERIAO).またはRPOINT
の内容をアドレスレジスタ34に格納する(アドレスレ
ジスタ←RPOINT),このように、RP0INTを
インクリメントした値がリバーブ効果のメモリ使用領域
内にあるときには、そのインクリメントした値をRPO
INTとし、そのメモリの最終アドレスを越えたときに
は先頭アドレスをRPOINTとしてリバーブメモリに
対するポインタRPOINTを更新している。次に、ス
テップ832′において、「0」をEWAVERに格納
し、WAVER.!=WAVEL (:1−ラス効果の
処理結果である右と左の楽音信号)との加算値をデータ
レジスタ3に転送する。これは、第10図において、加
算値9、lOの出力を加算器11で加算し、リバーブ効
果モジュール3Mに入力する処理に対応する。そして、
アドレスレジスタ34(RPOINT)で指示される波
形データメモリ33(リバーブメモリ)のアドレスにデ
ータレジスタ35の値を書き込む。次に、ステップS3
3において、RPOINT(現在位置を示す)とDTI
R(第1の中間タップに相当する遅延時間データ)とを
加算した値とRERIAAとのアンドをとり、その値と
RERIAOとのオアをとった値をアドレスレジスタ3
4に格納し(アドレスレジスタ= (RPOI NT+
DTIR)11RERIAAURERIAO) て第1
の中間タップに対するアドレスを得、データレジスタ3
5に取り込んだ中間タップの波形データにEWAVER
を加算した値をEWAVEHに格納する(EWAVER
4−EWAVER+データレジスタ).即ち、ステップ
S33の論理演算では、遅延時間DTIRに相当するア
ドレスだけ加算された領域のリバーブ効果メモリの波形
データを読み出すためのアドレス指定が行われ、その指
定されたアドレスの波形データメモリ33が読み出しデ
ータレジスタ35に格納され、EWAVEHに加算され
る。次に、ステップS33と同様にして遅延時間DT2
 R ” D T n Rに相当するアドレスだけ加算
された領域のリバーブ効果の波形データを順次読み出す
とともに加算する。以上は、第13図において,シフト
レジスタ3aの中間タップからの各遅延出力を加算器3
Cで加算することにより、右リバーブ効果成分信号を形
成することに対応する。
The flowchart shown in FIG. 18 shows details of the reverb effect adding process shown in step S6 of FIG. 15. In step S31 in the same figure, the value obtained by incrementing RPOINT and RERIAA are ANDed,
RPOIN is the value obtained by ORing that value with RERIAO.
Store it in T (RPOINT ←(RPOINT+l)n
RERIAALIRERIAO). or RPOINT
Store the contents of RP0INT in the address register 34 (address register ← RPOINT). In this way, when the value obtained by incrementing RP0INT is within the memory usage area of the reverb effect, the incremented value is stored in the address register 34.
When the last address of the memory is exceeded, the pointer RPOINT to the reverb memory is updated with the start address as RPOINT. Next, in step 832', "0" is stored in EWAVER and WAVER. ! =WAVEL (: 1 - right and left musical tone signals which are the processing results of the rath effect) and the added value is transferred to the data register 3. This corresponds to the process of adding the outputs of addition values 9 and 10 in the adder 11 in FIG. 10 and inputting the result to the reverb effect module 3M. and,
The value of the data register 35 is written to the address of the waveform data memory 33 (reverb memory) indicated by the address register 34 (RPOINT). Next, step S3
3, RPOINT (indicating current position) and DTI
The value obtained by adding R (delay time data corresponding to the first intermediate tap) and RERIAA is taken, and the value obtained by ORing that value and RERIAO is set to the address register 3.
4 (address register = (RPOI NT+
DTIR) 11RERIAAURERIAO)
Get the address for the intermediate tap of data register 3
Apply EWAVER to the intermediate tap waveform data imported in 5.
Store the added value in EWAVEH (EWAVER
4-EWAVER+data register). That is, in the logical operation in step S33, an address is specified for reading out the waveform data of the reverb effect memory in the area to which an address corresponding to the delay time DTIR has been added, and the waveform data memory 33 at the specified address is read out. It is stored in the data register 35 and added to EWAVEH. Next, in the same manner as step S33, the delay time DT2 is
The waveform data of the reverb effect in the area to which the address corresponding to R''D T n R has been added is sequentially read out and added. In the above, in FIG. 13, each delay output from the intermediate tap of the shift register 3a is 3
The addition at C corresponds to forming a right reverb effect component signal.

次に、ステップS34において、右リバーブ効果成分信
号EWAVERに深さRDEPTHを乗算したものにW
AVERを加算してEWAVEHに格納する。これによ
り、右チャンネル用リバーブ効果出力を得る。次に上記
ステップ532〜ステップ334と同様の処理を行い左
チャンネルについて左チャンネル用リバーブ効果出力を
得る。実際には、コノ時点でのEWAVER.EWAV
ELの内容は、第10図に示す機能に従い、デイレイ効
果、コーラス効果、リバーブ効果が複合的に多重化され
て付加されている楽音信号であり、このことは第lθ〜
第13図の機能図と対応づけて説明した第15図及び第
16〜第18図のフローチャートの記載から明白である
。この左右の複合的効果信号EWAVER,EWAVE
Lt*第15図に示すようにステップS7で左右の出力
レジスタ38、39(第7図)に転送され、外部に出力
されることになる。
Next, in step S34, the right reverb effect component signal EWAVER multiplied by the depth RDEPTH is
Add AVER and store in EWAVEH. As a result, a reverb effect output for the right channel is obtained. Next, processing similar to steps 532 to 334 described above is performed to obtain a left channel reverb effect output for the left channel. Actually, EWAVER at this time. EWAV
The content of EL is a musical tone signal to which delay effects, chorus effects, and reverb effects are compositely multiplexed and added according to the functions shown in FIG.
This is clear from the description of the flowcharts in FIGS. 15 and 16 to 18, which are explained in association with the functional diagram in FIG. 13. These left and right composite effect signals EWAVER and EWAVE
Lt* As shown in FIG. 15, the signal is transferred to the left and right output registers 38 and 39 (FIG. 7) in step S7, and is output to the outside.

以上の説明から、第2実施例の構成、作用、効果は明白
である。例えば、ピッチ情報および/または演奏タッチ
に対して、ディレイ効果の帰還量パラメータDRPEA
TR.DRPEATLを制御する機能が割り当てられて
いるとすれば、CPUIIOは演奏コントローラから発
音メッセージを受信した際、機能割当フラグの内容に従
い,第4図の4−5、4−6に対応するようなパラメー
タ更新処理を行って、,帰還量パラメータを受信したピ
ッチ情報Piおよび/または演奏タッチVLから生成し
、ヴオイスアサインした効果発生装置SEPの効果発生
ユニッ}SE(m)に転送する。この結果、その効果発
生ユニッ}SE(m)の効果パラメータメモリ26のア
ドレス14(DREATR)とアドレス1 5 (DR
EATL)に、CPUIIOで生成され、CPUIIO
から転送されてきた帰還量パラメータがセットされる(
第7図,第14図参照)。発音指示の後、ヴオイスアサ
インした音源140のチャンネルTG(m)からはダイ
レクト音としてのデジタル楽音信号がサンプリングタイ
ムごとに出力され、対応する効果発生ユニッ}SE(m
)の入力レジスタ36にセットされる。そして、効果発
生ユニットSE(m)はサンプリングタイムごとに第1
5図(及び第16図〜第19図)に示すフローに従い、
入力レジスタ36に転送されているデジタル楽音信号を
処理して、左右のデジタル効果音信号を生成し、左右の
出力レジス名38、39にセットする。その後、これら
の信号は第6図の左右の加算器111.112を通じて
ステレオサウンドシステム(図示せず)の左右のチャン
ネルに供給される。ここにおいて、効果発生ユニッ}S
E(m)は、ディレイ効果の付加処理54(第15図)
の実行中には、第16図のステップSL4に片方を示す
ように、帰還量DRPEATR,DRPEATLをディ
レイメモリ上から取り出した過去のディジタル楽音信号
に乗じることにより正味の遅延されたフィードバック信
号DRDATAR,DRDATALを得、これを次のサ
ンプリングタイムのときに、ステップS12にて、ダイ
レクトなデジタル楽音信号WAVEHに加えてディレイ
メモリに入力している.上記の帰還量DRPEATR,
DRPEATLはCPUIIOが発音メッセージの指示
するピッチ情報FT、タッチ情報VTから算出した大き
さをもっている。従って、ピッチ情報および/またはタ
ッチ情報のそのときそのときの値に応じたディレイ効果
がかかることとなり、非常に変化に富む演奏表現が可能
となる。ピッチ情報、タッチ情報に割り当てた制御機能
がその他の効果パラメータの場合には、その効果パラメ
ータの計算値に従う効果付加が行われる。このことは明
らかである。従って、これ以上の説明は省略する。
From the above description, the structure, operation, and effects of the second embodiment are clear. For example, for pitch information and/or performance touch, the delay effect feedback amount parameter DRPEA
T.R. If the function to control DRPEATL is assigned, when the CPUIIO receives the sound generation message from the performance controller, it will set the parameters corresponding to 4-5 and 4-6 in Figure 4 according to the contents of the function assignment flag. An update process is performed, and a feedback amount parameter is generated from the received pitch information Pi and/or performance touch VL, and is transferred to the effect generating unit }SE(m) of the effect generating device SEP to which the voice is assigned. As a result, address 14 (DREATR) and address 15 (DR
EATL), generated in CPUIIO,
The feedback amount parameter transferred from is set (
(See Figures 7 and 14). After the sound generation instruction, a digital musical tone signal as a direct sound is output at each sampling time from channel TG(m) of the voice-assigned sound source 140, and the corresponding effect generating unit }SE(m)
) is set in the input register 36. Then, the effect generation unit SE(m) is
Following the flow shown in Figure 5 (and Figures 16 to 19),
The digital musical tone signal transferred to the input register 36 is processed to generate left and right digital sound effect signals, and set in the left and right output register names 38 and 39. These signals are then provided to the left and right channels of a stereo sound system (not shown) through left and right adders 111, 112 in FIG. Here, the effect generating unit}S
E(m) is the delay effect addition processing 54 (Fig. 15)
During execution, as shown in step SL4 in FIG. 16, the feedback amounts DRPEATR and DRPEATL are multiplied by the past digital musical tone signals retrieved from the delay memory to obtain the net delayed feedback signals DRDATAR and DRDATAL. This is input into the delay memory in addition to the direct digital tone signal WAVEH at step S12 at the next sampling time. The above feedback amount DRPEATR,
DRPEATL has a size calculated by the CPUIIO from the pitch information FT and touch information VT specified by the pronunciation message. Therefore, a delay effect is applied depending on the value of the pitch information and/or touch information at that time, making it possible to express a performance with a wide variety of variations. If the control function assigned to the pitch information or touch information is another effect parameter, the effect is added according to the calculated value of the effect parameter. This is clear. Therefore, further explanation will be omitted.

以上で第2実施例の説明を終えるが、第2実施例の場合
、効果発生装置SEPがポリフォニツク音源140の各
々のチャンネルに対応してポリフォニックに構成されて
おり、従って、CPU110がヴオイスアサインした発
音メッセージ別に、効果発生装置SEP内の所望の効果
パラメータ(個々の効果発生ユニッ}SEiの効果パラ
メータメモリ25、26の内部データ)をダイナミック
に更新できるという利点がある。
This concludes the explanation of the second embodiment. In the case of the second embodiment, the effect generating device SEP is configured polyphonically corresponding to each channel of the polyphonic sound source 140, and therefore the sound generation message to which the CPU 110 has voice assigned Another advantage is that desired effect parameters in the effect generation device SEP (internal data in the effect parameter memories 25 and 26 of the individual effect generation units SEi) can be updated dynamically.

く変形列〉 しかしながら、この発明は以上の実施例には限定されず
、[特許請求の範囲]及び[発明の構成、作用、展開]
に示すように種々の変形、変更が可能である。更に付け
加えると、効果発生装置SE,SEPの構成は図示した
ものには限られず、他の任意の適当なDSP等の楽音信
号効果発生装置が使用できる。例えば、第2実施例では
、ディレイ、コーラス、リバーブのすべての効果を第7
図に示す1つのハードウェアで実現しているが、1つの
効果に付き1つのハードウェアあるいは1つのデジタル
処理セクションを1つのハードウェアというようにして
、これらのハードウェアの信号を縦続接続して、パイプ
ライン構造にしてもよい。逆に、1つのヴオイス(1音
源チャンネル出力の単位)を1つのハードウェアで効果
付加するデジタル処理を行う代りに、時分割ポリフオニ
ック音源からの時分割多重化されたポリフオニックなヴ
オイスを共通のハードウェアでヴオイス別に時分割処理
するようにしてもよい(データ処理量が比較的少なけれ
ば今日のLSIまたはVLSIチップに実装するDSP
で実現可能である)。
However, the present invention is not limited to the above-described embodiments, and includes the [claims] and [structure, operation, and development of the invention].
Various modifications and changes are possible as shown in . Furthermore, the configurations of the effect generating devices SE and SEP are not limited to those shown in the drawings, and any other appropriate musical sound signal effect generating device such as a DSP can be used. For example, in the second embodiment, all effects of delay, chorus, and reverb are applied to the seventh
Although this is achieved with one piece of hardware as shown in the figure, it is possible to use one piece of hardware for each effect or one piece of digital processing section, and connect the signals of these pieces of hardware in cascade. , a pipeline structure may be used. Conversely, instead of performing digital processing to add effects to one voice (a unit of output from one sound source channel) using one piece of hardware, time-division multiplexed polyphonic voices from a time-division polyphonic sound source can be processed using a common hardware. (If the amount of data processing is relatively small, DSP implemented on today's LSI or VLSI chips may be used.)
).

また、第2実施例の効果発生装置SEPの出力側にある
加算器itt、112は2チャンネルステレオを考慮し
て、全ての効果発生ユニッ}SEO − S E nの
左出力の加算と、右出力の加算を行っているが、必ずし
も必要ではない。あるいは、楽音の系統(音色)別に加
算を行う加算器を使用し、サウンドシステムにパンニン
グ効果発生部を設け、そこで系統的にパンニング効果が
付加できるようにしてもよい。また、効果発生装置SE
Pが楽音の系統別に異なる効果を付加するようなもので
あってもよい。このことは、CPUIIOからいえば、
各々の効果発生ユニッ}SEO〜SEmの内部パラメー
タを、システム全体で選択している複数の音色のいずれ
であるかという個々のユニットの使用音色に依存するパ
ラメータとピッチ情報/タッチ情報に依存するパラメー
タ、あるいは両者に依存するパラメータとで規定するこ
とになる。
In addition, the adder itt, 112 on the output side of the effect generation device SEP of the second embodiment adds the left outputs of all the effect generation units }SEO-SEn and the right output, considering two-channel stereo. is added, but it is not necessarily necessary. Alternatively, an adder that performs addition for each musical tone system (timbre) may be used, and a panning effect generating section may be provided in the sound system, so that the panning effect can be added systematically there. In addition, the effect generator SE
P may be one that adds different effects to different musical tones. From the CPUIIO point of view, this means that
The internal parameters of each effect generating unit (SEO to SEm) are parameters that depend on the tone used by each unit, which is which of the multiple tones selected for the entire system, and parameters that depend on pitch information/touch information. , or parameters that depend on both.

[発明の効果] 以上詳細な説明から明らかなように、請求項lではデジ
タルの効果音発生手段の使用する少なくとも1つの効果
パラメータを、演奏操作の特徴的な演奏パラメータに従
って生成して、効果音発生手段に供給しているので、演
奏に応じて楽音の効果の特性をダイナミックに制御する
ことができ、演奏者による演奏表現の可能性を広げ、従
来にない非常に自由度の高い、変化に富む音楽空間を表
現可能にする。
[Effects of the Invention] As is clear from the above detailed description, in claim 1, at least one effect parameter used by the digital sound effect generation means is generated according to a characteristic performance parameter of a performance operation, and the sound effect is generated. Since it is supplied to the generating means, it is possible to dynamically control the characteristics of the musical sound effect according to the performance, expanding the possibilities of performance expression by the performer, and allowing for a very high degree of freedom of change never seen before. Making it possible to express a rich musical space.

また、請求項2では効果音成分発生手段が使用する少な
くとも1つの効果パラメータを演奏パラメータに従って
制御し、効果音成分発生手段から出力される特性の制御
された効果音成分信号をダイレクト音としての楽音信号
とともに出力しているのでダイレクト音に加味される効
果音の成分をそのときそのときの演奏意図に従って変化
させることができる。
Further, in claim 2, at least one effect parameter used by the sound effect component generating means is controlled according to a performance parameter, and the sound effect component signal whose characteristics are controlled and output from the sound effect component generating means is used as a musical sound as a direct sound. Since it is output together with the signal, the component of the sound effect added to the direct sound can be changed according to the intention of the performance at that time.

6l また、請求項3では上記演奏パラメータとして演奏タッ
チあるいはピッチ、またはその両方を採用しているので
、楽器演奏の基本であるタッチ、ピッチでサウンド効果
のかかり方を制御することができる。
Furthermore, in claim 3, since the playing touch and/or pitch are employed as the performance parameters, it is possible to control how the sound effect is applied based on touch and pitch, which are the basics of musical instrument performance.

また、請求項4ではダイレクト音としての楽音信号と効
果音成分信号とを加算して出力しているので、出力ライ
ン数が減少する利点があるとともに、サウンドシステム
を通じて外部に出力させた場合に、1つのスピーカから
ダイレクト音と効果音成分とを合わせて放音させること
ができる。
Further, in claim 4, since the musical sound signal as the direct sound and the sound effect component signal are added and output, there is an advantage that the number of output lines is reduced, and when outputting to the outside through the sound system, A combination of direct sound and sound effect components can be emitted from one speaker.

また、請求項5では効果音発生手段の構成要素である計
数乗算手段に対する係数を上記演奏パラメータに従って
設定するようにしているので効果の深さ、内部信号の帰
還量、効果の周期性等々の伝達特性要素を演奏に応じて
自由に制御できる。
Further, in claim 5, the coefficients for the counting multiplication means, which is a component of the sound effect generation means, are set according to the performance parameters, so that the depth of the effect, the amount of feedback of the internal signal, the periodicity of the effect, etc. are transmitted. Characteristic elements can be freely controlled according to the performance.

また、請求項6では効果音発生手段を複数の縦続継続さ
れた効果発生モジュール手段(効果音成分モジュール)
で構成し、かつ隣り合うモジュール手段間に上流モジュ
ール手段の出力を深さ調整し、深さ調整された上流モジ
ュール手段出力と上流モジュール手段の入力とを加算し
て下流のモジュール手段の入力信号を形成する手段を設
け、調整される深さを演奏パラメータで制御するように
したので、モジュール別に効果のかかる深さを変えるこ
とができる。
Further, in claim 6, the sound effect generating means is a plurality of effect generating module means (sound effect component modules) which are continued in cascade.
The output of the upstream module means is adjusted in depth between adjacent module means, and the input signal of the downstream module means is obtained by adding the depth-adjusted output of the upstream module means and the input of the upstream module means. Since a means for forming the effect is provided and the depth to be adjusted is controlled by the performance parameter, the depth at which the effect is applied can be changed for each module.

また、請求項7では効果成分手段の出力である効果音成
分信号とダイレクト音としての楽音信号との間の相対的
な大きさを演奏パラメータに従って制御しているので、
ダイレクト音と効果音の音量バランスを演奏に合わせて
変えることができる。この場合、信号の振幅を変えるた
めの最終的な回路素子はデジタルのみならずアナログ回
路でも実現できる。
Further, in claim 7, the relative magnitude between the effect sound component signal which is the output of the effect component means and the musical tone signal as the direct sound is controlled according to the performance parameter.
You can change the volume balance between direct sound and sound effects to suit your performance. In this case, the final circuit element for changing the amplitude of the signal can be realized not only by digital circuits but also by analog circuits.

また、請求項8では効果成分発生手段の入力側において
楽音信号に係数を乗じる係数乗算手段を設け、この係数
を演奏パラメータで制御するようにしたので、効果成分
発生手段が、ポリフォニックの音源からの複数の楽音信
号を1つのトータルな楽音信号として処理するような構
成をとる場合にも、個々の演奏パラメータに従って個々
の効果音成分信号の大きさを制御することができる。
Further, in claim 8, a coefficient multiplication means for multiplying the musical sound signal by a coefficient is provided on the input side of the effect component generation means, and this coefficient is controlled by performance parameters, so that the effect component generation means can generate a signal from a polyphonic sound source. Even when a plurality of musical tone signals are processed as one total musical tone signal, the magnitude of each sound effect component signal can be controlled according to individual performance parameters.

また、請求項9では効果成分発生手段の出力側に設けた
係数乗算手段に対し、その係数を演奏パラメータで制御
するようにしたものである。この場合、効果成分発生手
段がポリフォニック音源のチャンネルに対応して構成さ
れていれば、個々の効果音成分信号の大きさを個々の演
奏パラメータに従って制御できる。また、効果成分発生
手段が固定小数点でデジタル演算を行うタイプの場合に
は、入力側で信号をスケーリングするのに比べ、数値精
度が高くなる利点がある。
Further, in a ninth aspect of the present invention, the coefficients of the coefficient multiplication means provided on the output side of the effect component generation means are controlled by performance parameters. In this case, if the effect component generating means is configured to correspond to the channels of the polyphonic sound source, the magnitude of each effect sound component signal can be controlled according to each performance parameter. Furthermore, when the effect component generating means is of a type that performs digital calculations using a fixed point, there is an advantage that the numerical accuracy is higher than when the signal is scaled on the input side.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の特徴を組み込んだ第1実施例の電子
楽器の全体構成図、 第2図は第1図のミキサー15の構成図、第3図は第1
図のミキサーl7の構成図、第4図は演奏タッチVL、
ピッチFTに従って残響音の相対振幅比VELを制御す
るためのCPUllの処理動作のフローチャート、 第5図は演奏タッチ、ピッチを相対振幅比VELに変換
する場合の変換関数を例示した図、第6図はこの発明の
第2実施例に係る電子楽器の全体構成図、 第7図は第6図の効果発生ユニッ}SEiのハードウェ
アのブロック図、 第8図は第7図の効果パラメータメモリ25の内部構成
を示す図、 第9図は第7図の効果パラメータメモリ26の内部構成
を示す図、 第lθ図は第7図の効果発生ユニットの機能ブロック図
、 第11図は第10図のディレイ効果付加回路の一例を示
す機能ブロック図、 第12図は第10図のコーラス効果付加回路の一例を示
す機能ブロック図、 第13図は第10図のリバーブ効果付加回路の一例を示
す機能ブロック図、 第14図は第7図のCPU/SEインターフェースの動
作を示すフローチャート、 第15図は第7図の制御回路の制御の下に行われる効果
付加の処理動作を示すフローチャート、第16図は第1
5図のディレイ効果付加処理の詳細を示すフローチャー
ト、 第17図は第15図のコーラス効果付加処理の詳細を示
すフローチャート、 第18図は第15図のリバーブ効果付加処理の詳細を示
すフローチャート、 第19図はコーラス効果の演算処理を説明する図である
。 l l・・・・・・CPU,  12・・・・・・I’
lOM、 1 3・・・・・・RAM,SE・・・・・
・残響効果発生装置、l5・・・・・・第1のミキサー
、16−・・・・・残響音発生部、17・・・・・・第
2のミキサー、FT・・・・・・演奏ピッチ、VL・・
・・・・演奏タッチ、1.10・・・・・・CPU,S
EP・・・・・・効果発生装置、SEO’−SE n・
・・・・・効果発生ユニット、25、26・・・・・・
効果パラメータメモリ、IM・・・・・・ディレイ効果
発生モジュール、2M・・・・・・コー ラス効果発生モジュール、 3M・・・・・・リバーブ効果 発生モジュール。 特 許 出 願 人 カシオ計算機株式会社 VEL(n) 第 図 RVL 第 図 第 図 4シターフェース37ケ動作 第14図 SEi6)’?汐果イ寸1口勧夕F 第15因
FIG. 1 is an overall configuration diagram of an electronic musical instrument according to a first embodiment incorporating the features of the present invention, FIG. 2 is a configuration diagram of the mixer 15 shown in FIG. 1, and FIG.
The configuration diagram of the mixer l7 shown in the figure, Fig. 4 is the performance touch VL,
A flowchart of the processing operation of the CPUll for controlling the relative amplitude ratio VEL of the reverberant sound according to the pitch FT, FIG. 5 is a diagram illustrating a conversion function when converting the playing touch and pitch into the relative amplitude ratio VEL, and FIG. 6 7 is a block diagram of the hardware of the effect generation unit SEi shown in FIG. 6, and FIG. 8 is a block diagram of the effect parameter memory 25 of FIG. 7. 9 is a diagram showing the internal configuration of the effect parameter memory 26 in FIG. 7, FIG. 1θ is a functional block diagram of the effect generation unit in FIG. 7, and FIG. 11 is a delay diagram in FIG. FIG. 12 is a functional block diagram showing an example of the chorus effect adding circuit in FIG. 10; FIG. 13 is a functional block diagram showing an example of the reverb effect adding circuit in FIG. 10. , FIG. 14 is a flowchart showing the operation of the CPU/SE interface in FIG. 7, FIG. 15 is a flowchart showing the effect addition processing operation performed under the control of the control circuit in FIG. 7, and FIG. 1
5. FIG. 17 is a flowchart showing details of the chorus effect addition process in FIG. 15. FIG. 18 is a flowchart showing details of the reverb effect addition process in FIG. 15. FIG. 19 is a diagram illustrating the calculation process of the chorus effect. l l...CPU, 12...I'
lOM, 1 3...RAM, SE...
- Reverberation effect generator, l5...first mixer, 16-...reverberant sound generator, 17...second mixer, FT...performance Pitch, VL...
...Performance touch, 1.10...CPU, S
EP・・・Effect generating device, SEO'-SE n・
...Effect generating unit, 25, 26...
Effect parameter memory, IM...Delay effect generation module, 2M...Chorus effect generation module, 3M...Reverb effect generation module. Patent applicant Casio Computer Co., Ltd. VEL(n) Fig. RVL Fig. Fig. 4 Sitter face 37 operations Fig. 14 SEi6)'? Shiokai size 1 bite Kansyu F 15th cause

Claims (9)

【特許請求の範囲】[Claims] (1)演奏操作に基づいて生成された楽音信号がデジタ
ルデータの形式で入力され、この入力された楽音信号を
内部の効果パラメータに従ってデジタル処理することに
より効果音信号を発生する効果音発生手段と、 上記効果音発生手段の使用する少なくとも1つの上記効
果パラメータを、上記演奏操作を特徴づける演奏パラメ
ータに従って発生し、上記効果音発生手段に供給する効
果パラメータ制御手段と、を有することを特徴とする効
果音制御装置。
(1) A sound effect generating means that receives a musical sound signal generated based on a performance operation in the form of digital data, and generates a sound effect signal by digitally processing the input musical sound signal according to internal effect parameters. , an effect parameter control means for generating at least one of the effect parameters used by the sound effect generation means in accordance with a performance parameter characterizing the performance operation and supplying the effect parameter to the sound effect generation means. Sound effect control device.
(2)演奏操作に基づいて生成された楽音信号がデジタ
ルデータの形式で入力され、この入力された楽音信号を
内部の効果パラメータに従ってデジタル処理することに
より効果音成分信号を発生する効果成分発生手段と、 上記効果音成分信号を上記楽音信号成分とともに出力す
る出力手段と、 上記効果成分発生手段の使用する少なくとも1つの上記
効果パラメータを上記演奏操作を特徴づける演奏パラメ
ータに従って発生し、上記効果成分発生手段に供給する
効果パラメータ制御手段と、 を有することを特徴とする効果音制御装置。
(2) A musical sound signal generated based on a performance operation is input in the form of digital data, and an effect component generating means generates a sound effect component signal by digitally processing the input musical sound signal according to internal effect parameters. and output means for outputting the sound effect component signal together with the musical sound signal component; generating at least one of the effect parameters used by the effect component generation means in accordance with a performance parameter characterizing the performance operation; A sound effect control device comprising: an effect parameter control means for supplying the effect parameter to the means;
(3)請求項1または2に記載の効果音制御装置におい
て、上記演奏パラメータは演奏タッチとピッチのうち少
なくとも一方であることを特徴とする効果音制御装置。
(3) The sound effect control device according to claim 1 or 2, wherein the performance parameter is at least one of performance touch and pitch.
(4)請求項2記載の効果音制御装置において、上記出
力手段は上記楽音信号と上記効果音成分信号とを加算す
る加算手段を有することを特徴とする効果音制御装置。
(4) The sound effect control device according to claim 2, wherein the output means includes addition means for adding the musical tone signal and the sound effect component signal.
(5)請求項1記載の効果音制御装置において、上記効
果音発生手段は、処理中の信号に係数としての上記効果
パラメータを乗算する複数の係数乗算手段を有し、上記
効果パラメータ制御手段は少なくとも1つの上記係数乗
算手段において使用する係数を上記演奏パラメータに従
って発生することを特徴とする効果音制御装置。
(5) In the sound effect control device according to claim 1, the sound effect generation means includes a plurality of coefficient multiplication means for multiplying the signal being processed by the effect parameter as a coefficient, and the effect parameter control means A sound effect control device characterized in that a coefficient used in at least one of the coefficient multiplication means is generated according to the performance parameter.
(6)請求項1記載の効果音制御装置において、上記効
果音発生手段は、相異なる効果を複合的に付加可能な複
数の縦続接続された効果発生モジュール手段と、隣り合
う上記効果発生モジュール手段間に設けられ上流側の効
果発生モジュール手段のモジュール出力信号に上記効果
パラメータとしての深さパラメータを乗算する深さ調整
用乗算手段と、該深さ調整用乗算手段により深さが調整
されたモジュール出力信号と上流側の効果発生モジュー
ル手段の入力信号とを加算して、下流側の効果発生モジ
ュール手段の入力信号を形成する加算手段とを有し、 上記効果パラメータ制御手段は、上記深さ調整用乗算手
段が使用する上記深さパラメータを上記演奏パラメータ
に従って生成する深さパラメータ生成手段を有する ことを特徴とする効果音制御装置。
(6) In the sound effect control device according to claim 1, the sound effect generation means includes a plurality of cascade-connected effect generation module means capable of adding different effects in a composite manner, and the adjacent effect generation module means. A depth adjustment multiplication means provided between and multiplying the module output signal of the upstream effect generation module means by a depth parameter as the effect parameter, and a module whose depth is adjusted by the depth adjustment multiplication means. addition means for adding the output signal and the input signal of the effect generation module means on the upstream side to form an input signal for the effect generation module means on the downstream side; A sound effect control device comprising: depth parameter generation means for generating the depth parameter used by the multiplication means in accordance with the performance parameter.
(7)演奏操作に基づいて生成された楽音信号がデジタ
ルデータの形式で入力され、この入力された楽音信号を
デジタル処理することにより、効果音成分信号を発生す
る効果成分発生手段と、 上記楽音信号と上記効果音成分信号とを出力する出力手
段と、 上記楽音信号に対する上記効果音成分信号の相対的な大
きさを上記演奏操作を特徴づける演奏パラメータに従っ
て制御する効果深さ制御手段と、を有することを特徴と
する効果音制御装置。
(7) an effect component generating means for generating a sound effect component signal by receiving a musical sound signal generated based on a performance operation in the form of digital data and digitally processing the input musical sound signal; output means for outputting the signal and the sound effect component signal; and effect depth control means for controlling the relative magnitude of the sound effect component signal with respect to the musical tone signal according to a performance parameter characterizing the performance operation. A sound effect control device comprising:
(8)請求項7記載の効果音制御装置において、上記効
果深さ制御手段は、 上記効果成分発生手段に入力される上記楽音信号に係数
を乗じる係数乗算手段と、 上記係数乗算手段に与える上記係数を上記演奏パラメー
タに従って発生する係数発生手段と、から成ることを特
徴とする効果音制御装置。
(8) In the sound effect control device according to claim 7, the effect depth control means includes: a coefficient multiplication means for multiplying the musical sound signal input to the effect component generation means by a coefficient; A sound effect control device comprising: coefficient generating means for generating coefficients in accordance with the performance parameters.
(9)請求項7記載の効果音制御装置において、上記効
果深さ制御手段は、 上記効果成分発生手段から出力される上記効果音成分信
号に係数を乗じる係数乗算手段と、上記係数手段に与え
る上記係数を上記演奏パラメータに従って発生する係数
発生手段と、 から成ることを特徴とする効果音制御装置。
(9) In the sound effect control device according to claim 7, the effect depth control means comprises: a coefficient multiplier for multiplying the sound effect component signal outputted from the effect component generation means by a coefficient; A sound effect control device comprising: coefficient generating means for generating the coefficient according to the performance parameter.
JP1114378A 1989-05-08 1989-05-08 Effect sound controller Pending JPH02293795A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1114378A JPH02293795A (en) 1989-05-08 1989-05-08 Effect sound controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1114378A JPH02293795A (en) 1989-05-08 1989-05-08 Effect sound controller

Publications (1)

Publication Number Publication Date
JPH02293795A true JPH02293795A (en) 1990-12-04

Family

ID=14636187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1114378A Pending JPH02293795A (en) 1989-05-08 1989-05-08 Effect sound controller

Country Status (1)

Country Link
JP (1) JPH02293795A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06130941A (en) * 1992-10-19 1994-05-13 Yamaha Corp Effect giving device
JP2007128602A (en) * 2005-11-04 2007-05-24 D & M Holdings Inc Optical disk player

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6052895A (en) * 1983-09-02 1985-03-26 ヤマハ株式会社 Electronic musical instrument
JPS61110199A (en) * 1984-11-05 1986-05-28 ヤマハ株式会社 Musical sound signal generator

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6052895A (en) * 1983-09-02 1985-03-26 ヤマハ株式会社 Electronic musical instrument
JPS61110199A (en) * 1984-11-05 1986-05-28 ヤマハ株式会社 Musical sound signal generator

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06130941A (en) * 1992-10-19 1994-05-13 Yamaha Corp Effect giving device
JP2007128602A (en) * 2005-11-04 2007-05-24 D & M Holdings Inc Optical disk player

Similar Documents

Publication Publication Date Title
KR100386918B1 (en) Digital signal processing device for sound signal processing and voice and tone synthesis device
EP0734018B1 (en) Audio data processing apparatus
KR100366721B1 (en) Electronic Music Devices and Effectors
JP2751617B2 (en) Music synthesizer
JPH027078B2 (en)
US5519167A (en) Musical tone synthesizing apparatus
JPH0778679B2 (en) Musical tone signal generator
US5272274A (en) Electronic musical instrument with reverberation effect
JPS6140119B2 (en)
JP2591198B2 (en) Electronic musical instrument
JPH02293795A (en) Effect sound controller
US5444180A (en) Sound effect-creating device
JP2797142B2 (en) Processing equipment for electronic musical instruments
JP2858120B2 (en) Electronic musical instrument
JP2534636B2 (en) Music synthesizer
JP2814699B2 (en) Music synthesizer
JP2504185B2 (en) Music synthesizer
JP3405170B2 (en) Music synthesizer
JPH01269995A (en) Signal interpolator for musical sound signal generating device
JP3782150B2 (en) Stereo sound control device
JP2841847B2 (en) Music synthesizer
JP3085801B2 (en) Modulation signal generator
JPH1185155A (en) Mixing device and integrated circuit for musical instrument
JP2836116B2 (en) Sound processing device
JP3104873B2 (en) Sound source device