JPH0460697A - Musical sound waveform generator - Google Patents

Musical sound waveform generator

Info

Publication number
JPH0460697A
JPH0460697A JP2172199A JP17219990A JPH0460697A JP H0460697 A JPH0460697 A JP H0460697A JP 2172199 A JP2172199 A JP 2172199A JP 17219990 A JP17219990 A JP 17219990A JP H0460697 A JPH0460697 A JP H0460697A
Authority
JP
Japan
Prior art keywords
output
sound
data
musical
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2172199A
Other languages
Japanese (ja)
Other versions
JP3027832B2 (en
Inventor
Ryuji Usami
隆二 宇佐美
Kosuke Shiba
斯波 康祐
Koichiro Oki
広一郎 太期
Kazuo Ogura
和夫 小倉
Jun Hosoda
潤 細田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2172199A priority Critical patent/JP3027832B2/en
Publication of JPH0460697A publication Critical patent/JPH0460697A/en
Application granted granted Critical
Publication of JP3027832B2 publication Critical patent/JP3027832B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To miniaturize a circuit by performing a time division processing based on musical sound production data with respect to each sound production channel to generate a musical sound signal at the time of executing a sound source processing program and mixing musical sound signals in each of plural output groups. CONSTITUTION:A program executing means 207 normally executes a playing information processing program to control corresponding musical sound production data on a data storage means 206 and performs the time division processing based on musical sound production data on the data storage means 206 with respect to each sound production channel at the time of executing a sound source processing program to generate a musical sound signal corresponding to the sound production channel. Each sound production channel is allowed to correspond to one of plural output groups, and musical sound signals generated in sound production channels included in each output group are mixed to generate a musical sound signal output of the output group. Consequently, a general-purpose processor constitution is realized without requiring a private sound source circuit. Thus, the circuit scale is miniaturized.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、楽音波形発生装置における音源処理方式に関
し、更に詳しくは、ステレオチャネル等に対応する出力
グループ別に楽音信号を出力させることができる楽音波
形発生装置に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a sound source processing method in a musical waveform generator, and more specifically, to a musical sound source processing method that can output musical sound signals separately for each output group corresponding to a stereo channel or the like. This invention relates to a waveform generator.

〔従来の技術〕[Conventional technology]

ディジタル信号処理技術とLSI処理技術の発達により
性能の良い様々な電子楽器が実現されている。
With the development of digital signal processing technology and LSI processing technology, various electronic musical instruments with high performance have been realized.

電子楽器の楽音波形発生装置は、大量かつ高速のディジ
タル演算が必要なため、従来は、必要とする音源方式に
基づく楽音発生アルゴリズムと等化なアーキテクチャを
ハードウェアで実現した専用の音源回路によって構成さ
れている。このような音源回路により、PCM変調又は
変調方式に基づく音源方式が実現される。
Musical sound waveform generators for electronic musical instruments require a large amount of high-speed digital calculations, so conventionally they were constructed using a dedicated sound source circuit that realized a musical sound generation algorithm based on the required sound source method and an equalization architecture in hardware. has been done. With such a sound source circuit, a sound source method based on PCM modulation or a modulation method is realized.

上述のような音源回路は、いずれの音源方式のものもそ
の回路規模が大きい。LSI化した場合、PCM波形デ
ータ又は変調用の波形データ等を記憶するメモリ部分を
除いても、汎用のデータ処理用のマイクロプロセッサの
2倍程度の規模になる。
The above-mentioned sound source circuits are large in scale regardless of the sound source type. When implemented as an LSI, the scale will be about twice that of a general-purpose data processing microprocessor, even excluding the memory portion that stores PCM waveform data or modulation waveform data.

その理由は、音源回路においては、各種演奏情報に基づ
いて波形データをアクセスするための複雑なアトルス制
御が必要になるからである。また、音源生成処理の過程
で得られる中間的なデータを一時的に保持するためのレ
ジスタ等が、音源方式に対応したアーキテクチャで随所
に配置される必要があるためである。更に、複数の楽音
を並列して発音可能なポリフォニック構成を実現すべく
、音源処理を時分割でハードウェア的に行うためのシフ
トレジスタ等も随所に必要となるためである。
The reason for this is that the tone generator circuit requires complex atlus control to access waveform data based on various performance information. Another reason is that registers and the like for temporarily holding intermediate data obtained in the process of sound source generation processing need to be placed at various locations in an architecture compatible with the sound source method. Furthermore, in order to realize a polyphonic configuration that can generate a plurality of musical tones in parallel, shift registers and the like for performing time-sharing hardware processing of the sound source are also required at various locations.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

以上のように、従来の楽音波形発生装置は、音源方式に
対応した専用の音源回路によって構成されているため、
ハードウェア規模が大きくなってしまい、LSIで実現
した場合におけるLSIチップ製造時の歩留り等の点に
おいて、製造段階でのコストアップを招き、楽音波形発
生装置の大型化を招いてしまうという問題点を有してい
る。
As mentioned above, conventional musical waveform generators are configured with dedicated sound source circuits that are compatible with the sound source method.
The problem is that the hardware scale increases, and if it is realized by LSI, the cost increases at the manufacturing stage in terms of yield during LSI chip manufacturing, and the musical waveform generator becomes larger. have.

また、音源方式を変更したい場合、ポリフォニック数を
変更した場合等において、音源回路の大幅な変更を余儀
なくされ、開発段階でのコストアップを招いてしまうと
いう問題点を有している。
Furthermore, when it is desired to change the sound source system, the number of polyphonics, etc., a significant change in the sound source circuit is forced, resulting in an increase in cost at the development stage.

更番こ、従来の楽音波形発生装置を電子楽器として実現
するような場合には、演奏操作に対応する演奏情報から
音源回路で処理可能なデータを生成したり、他の楽器と
の演奏情報の通信を行ったりするための、マイクロプロ
セッサ等により構成される制御回路が必要となる。そし
て、このような制御回路においては、演奏情報を処理す
るための演奏情報処理プログラムのほかに、音源回路に
演奏情報に対応したデータを供給するための音源回路に
対応した音源制御プログラムが必要となり、しかも、そ
の両方のプログラムを同期させて動作させる必要がある
。このようなプログラムの複雑性から、その開発におい
て多大なコストアップを招いてしまうという問題点を有
している。
When realizing a conventional musical sound waveform generator as an electronic musical instrument, it is necessary to generate data that can be processed by a sound source circuit from performance information corresponding to performance operations, or to generate performance information that can be used with other musical instruments. A control circuit composed of a microprocessor or the like is required for communication. In such a control circuit, in addition to a performance information processing program for processing performance information, a sound source control program corresponding to the sound source circuit is required for supplying data corresponding to the performance information to the sound source circuit. , Moreover, it is necessary to operate both programs in synchronization. Due to the complexity of such a program, there is a problem in that the development cost increases significantly.

その一方、近年においては、汎用のデータ処理を行うた
めの高性能なマイクロプロセ・ンサが多く実現されてお
り、このようなマイクロプロセ・ンサを使用して音源処
理をソフト的に行う楽音波形発生装置を実現させること
も゛考えられる。しかし、演奏情報を処理するための演
奏情報処理プログラムと、その演奏情報に基づいて音源
処理を実行するための音源処理プログラムとを同期して
動作させるための技術が知られていない。特に、音源方
式により音源処理プログラムにおける処理時間が変化す
るため、生成された楽音データをD/A変換器へ出力す
るための複雑なタイミング制御プログラムが必要となっ
てしまう。このように、音源処理を単純にソフト的に行
うだけでは、処理プログラムが非常に複雑になり、処理
速度及びプログラム容量の面から高度な音源方式の処理
ができない。特に、聴衆に臨場感を与えたり、ステージ
演奏やスタジオ録音等において複数ラインへの出力を可
能としたりするために、各発音チャネルで生成された楽
音信号を任意に混合して、ステレオの左右チャネルや複
数ライン等の複数の出力グループに楽音信号出力として
出力する、といったような高度な音源処理を行えない。
On the other hand, in recent years, many high-performance microprocessors for general-purpose data processing have been realized. It is also conceivable to realize a device. However, there is no known technique for synchronizing and operating a performance information processing program for processing performance information and a sound source processing program for executing sound source processing based on the performance information. In particular, since the processing time in the sound source processing program changes depending on the sound source method, a complicated timing control program is required to output the generated musical tone data to the D/A converter. As described above, if sound source processing is simply performed using software, the processing program becomes extremely complicated, and sophisticated sound source processing cannot be performed in terms of processing speed and program capacity. In particular, in order to give the audience a sense of presence and to enable output to multiple lines during stage performances and studio recordings, the musical sound signals generated by each sound generation channel are arbitrarily mixed to produce stereo left and right channels. It is not possible to perform advanced sound source processing such as outputting musical sound signals to multiple output groups such as multiple lines or multiple lines.

本発明は、専用の音源回路を必要とすることなく、マイ
クロプロセッサのフ“ログラム制御卸によって、各発音
チャネルの楽音信号を発音チャネル間で任意に混合して
、複数の出力グループ別に出力可能とすることを目的と
する。
The present invention makes it possible to arbitrarily mix the musical tone signals of each sound generation channel between the sound generation channels and output them to multiple output groups using a microprocessor's program control, without requiring a dedicated sound source circuit. The purpose is to

[課題を解決するための手段〕 本発明は、まず、演奏情報を処理するための演奏情報処
理プログラムと、楽音信号を得るための音源処理プログ
ラムを記憶するROM等のプログラム記憶手段を有する
。この場合の音源方式は、例えばPCM方式、位相変調
方式又は周波数変調方式等である。
[Means for Solving the Problems] First, the present invention includes a program storage means such as a ROM that stores a performance information processing program for processing performance information and a sound source processing program for obtaining musical tone signals. The sound source method in this case is, for example, a PCM method, a phase modulation method, a frequency modulation method, or the like.

次に、プログラム記憶手段のアドレスを制御するアドレ
ス制御手段を有する。
Next, it has address control means for controlling the address of the program storage means.

また、発音チャネル毎に楽音信号を生成するために必要
な楽音生成データを記憶するデータ記憶手段を有する。
It also includes data storage means for storing musical tone generation data necessary for generating musical tone signals for each sound generation channel.

更に、四則演算処理を実行する乗算器等を含む・演算処
理手段を有する。
Furthermore, it has an arithmetic processing means including a multiplier that executes four arithmetic operations.

そして、上述のアドレス制御手段、データ記憶手段及び
演算処理手段を制御しながら、プログラム記憶手段に記
憶された演奏情報処理プログラム又は音源処理プログラ
ムを実行するプログラム実行手段を有する。同手段は、
通常時は前記演奏情報処理プログラムを実行してデータ
記憶手段上の対応する楽音生成データを制御し、所定時
間間隔で音源処理プログラムに制御を移してそれを実行
し、その終了後に再び演奏情報処理プログラムを実行す
る。また、プログラム実行手段は、音源処理プログラム
の実行時に、各発音チャネル毎に、データ記憶手段上の
楽音生成データに基づいて時分割処理を行って該各発音
チャネルに対応する楽音信号を生成する。そして、該各
発音チャネルを複数の出力グループのうちのいずれかに
対応させ、該各出力グループ毎に、それに含まれる発音
チャネルで生成された楽音信号同士を混合して、該各出
力グループの楽音信号出力を生成する。この場合の複数
の出力グループは、例えば2チヤネル又は4チヤネルの
ステレオの各出力チャネルに対応する。そのほか、単純
なライン出力に対応させてもよい。この場合、プログラ
ム実行手段は、例えば上記所定時間間隔で割り込み信号
を発生する割り込み制御手段を有する。これにより、プ
ログラム実行手段は、演奏情報処理プログラムを実行中
に、割り込み制御手段から割り込み信号が発生したタイ
ミングで演奏情報処理プログラムを中断し、音源処理プ
ログラムに制御を移してそれを実行し、その終了後に割
り込みを解除して演奏情報処理プログラムの実行を再開
する。
The program execution means executes the performance information processing program or the sound source processing program stored in the program storage means while controlling the address control means, data storage means, and arithmetic processing means described above. The same means is
Normally, the performance information processing program is executed to control the corresponding musical tone generation data on the data storage means, control is transferred to the sound source processing program at predetermined time intervals, and executed, and after the performance information processing program is finished, the performance information processing is resumed. Run the program. Furthermore, when executing the sound source processing program, the program execution means performs time-sharing processing for each sound generation channel based on the musical tone generation data on the data storage means to generate a musical tone signal corresponding to each sound generation channel. Then, each of the sound generation channels is made to correspond to one of a plurality of output groups, and for each of the output groups, the musical tone signals generated by the sound generation channels included in the sound generation channels are mixed together, and the musical tone signals of the respective output groups are mixed. Generate signal output. The plurality of output groups in this case correspond to, for example, two-channel or four-channel stereo output channels. In addition, simple line output may be supported. In this case, the program execution means includes, for example, interrupt control means for generating an interrupt signal at the predetermined time intervals. As a result, the program execution means interrupts the performance information processing program at the timing when an interrupt signal is generated from the interrupt control means while executing the performance information processing program, transfers control to the sound source processing program, executes it, and executes the performance information processing program. After completion, the interrupt is canceled and execution of the performance information processing program is resumed.

上記構成に加えて、プログラム実行手段が音源処理プロ
グラムを実行して得られた各出力グループ毎の楽音信号
を保持し、該保持された各楽音信号を一定の出力時間間
隔で例えば2チヤネル又は4チヤネルのD/A変換器に
出力する楽音信号出力手段を有する。この場合の一定の
出力時間間隔は、通常はD/A変換器等のサンプリング
周期に等しいが、この時間間隔は前述の所定時間間隔と
同じ間隔か、或いは、音源処理プログラムを複数回実行
してlサンプル分の楽音信号を生成するようにした場合
には、所定時間間隔の複数回分の1の時間間隔とするこ
とができる。
In addition to the above configuration, the program execution means holds musical tone signals for each output group obtained by executing the sound source processing program, and outputs each held musical tone signal at fixed output time intervals, for example, through 2 channels or 4 channels. It has musical tone signal output means for outputting to the D/A converter of the channel. In this case, the fixed output time interval is usually equal to the sampling period of the D/A converter, etc., but this time interval may be the same as the above-mentioned predetermined time interval, or the sound source processing program may be executed multiple times. When the musical tone signal for l samples is generated, the time interval can be set to one time interval corresponding to a plurality of predetermined time intervals.

上述の構成において、プログラム実行手段は、各出力グ
ループの各楽音信号出力間の出力比率を、演奏情報に基
づいて制御するように構成できる。
In the above configuration, the program execution means can be configured to control the output ratio between the musical tone signal outputs of each output group based on the performance information.

この場合の演奏情報は、例えば演奏操作時のタッチを示
すイニシャルタッチのベロシティ又はアフタータッチの
ベロシティ等の情報である。
The performance information in this case is, for example, information such as the velocity of an initial touch or the velocity of an aftertouch indicating a touch during a performance operation.

〔作  用〕[For production]

本発明においては、プログラム記憶手段、アドレス制御
手段、データ記憶手段、演算処理手段及びプログラム実
行手段は、汎用のマイクロプロセッサ(マイクロコンピ
ュータ)と同様の構成であり、専用の音源回路は全く必
要としない。また、楽音信号出力手段は、汎用のマイク
ロプロセッサとは異なる構成であるが、楽音波形発生装
置という範晴では汎用的である。
In the present invention, the program storage means, address control means, data storage means, arithmetic processing means, and program execution means have the same configuration as a general-purpose microprocessor (microcomputer), and no dedicated sound source circuit is required. . Further, the musical tone signal output means has a configuration different from that of a general-purpose microprocessor, but is general-purpose in the scope of a musical waveform generator.

これにより、楽音波形発生装置全体の回路規模を大幅に
小型化することができ、LSI化した場合等においても
通常のマイクロプロセッサの製造技術と同じでよく、チ
ップの歩留りも向上するため、製造コストを大幅に低減
させることができる。
As a result, the circuit scale of the entire musical waveform generator can be significantly reduced, and even when integrated into an LSI, the manufacturing technology can be the same as that of ordinary microprocessors, and the yield of chips is improved, resulting in lower manufacturing costs. can be significantly reduced.

なお、楽音信号出力手段は簡単なラッチ回路で構成でき
るため、この部分を付加したことによる製造コストの増
加はほとんどない。
Note that since the musical tone signal output means can be constructed from a simple latch circuit, there is almost no increase in manufacturing costs due to the addition of this part.

また、音源方式を変更したい場合、ポリフォニック数を
変更したい場合等において、プログラム記憶手段に記憶
させる音源処理プログラムを変更するだけで対処でき、
新たな楽音波形発生装置の開発コストを大幅G4減少さ
せることが可能となり、ユーザに対しても例えばROM
カード等によって新たな音源方式を提供することが可能
となる。
In addition, when you want to change the sound source method, the polyphonic number, etc., you can simply change the sound source processing program stored in the program storage means.
It is possible to significantly reduce the development cost of a new musical waveform generator, and it is also possible for users to
It becomes possible to provide a new sound source method by using a card or the like.

以上のような作用を可能とするのは、本発明が次のよう
なプログラムアーキテクチャ及びデータアーキテクチャ
を実現したからである。
The above effects are made possible because the present invention realizes the following program architecture and data architecture.

すなわち、本発明では、データ記憶手段上に楽音生成に
必要な楽音生成データを記憶させるデータアーキテクチ
ャを実現している。そして、演奏情報処理プログラムが
実行される場合は、データ記憶手段上の対応する楽音生
成データが制御され、音源処理プログラムが実行される
場合は、データ記憶手段上の対応する楽音生成データに
基づいて楽音信号が生成される。このように演奏情報処
理プログラムと音源処理プログラムとの間のデータの通
信は、データ記憶手段上の楽音生成データを介して行わ
れ、各プログラムにおけるデータ記憶手段に対するアク
セスは、相手のプログラムの実行状態に一切関わりなく
行わえばよいため、実質的ニ両プログラムを独立したモ
ジュール構成とすることができ、簡単かつ効率的なプロ
グラム構造とすることができる。
That is, the present invention realizes a data architecture in which musical tone generation data necessary for musical tone generation is stored on the data storage means. When the performance information processing program is executed, the corresponding musical tone generation data on the data storage means is controlled, and when the sound source processing program is executed, the corresponding musical tone generation data on the data storage means is controlled. A musical tone signal is generated. In this way, data communication between the performance information processing program and the sound source processing program is performed via musical tone generation data on the data storage means, and each program can access the data storage means based on the execution state of the other program. Since it is possible to perform the program without any involvement in the program, the two programs can essentially be configured as independent modules, resulting in a simple and efficient program structure.

上記データアーキテクチャに加えて、本発明では、通常
時は演奏情報処理プログラムを実行して、例えば鍵盤キ
ーや各種設定スイッチの操作、デモ演奏制御等を行い、
それに対して所定時間間隔で音源処理プログラムを実行
させ、その処理が終わったら再び演奏情報処理プログラ
ムに戻るというプログラムアーキテクチャを実現してい
る。これにより、音源処理プログラムは、例えば割り込
み制御手段からの所定時間間隔で発生する割り込み信号
に基づいて強制的に演奏情報処理プログラムに割り込め
ばよいため、演奏情報処理プログラムと音源処理プログ
ラムとの間の同期をとる必要はない。
In addition to the data architecture described above, the present invention normally executes a performance information processing program to operate keyboard keys and various setting switches, control demo performances, etc.
In contrast, a program architecture is realized in which a sound source processing program is executed at predetermined time intervals, and when the processing is completed, the program returns to the performance information processing program. As a result, the sound source processing program only has to forcibly interrupt the performance information processing program based on an interrupt signal generated at a predetermined time interval from the interrupt control means. There is no need to synchronize.

更に、プログラム実行手段が音源処理プログラムを実行
する場合には、処理条件によって処理時間が変化するが
、この変化は、楽音信号出力手段によって全て吸収する
ことができる。従って、楽音信号をD/A変換器等へ出
力するための複雑なタイミング制御プログラムが必要な
くなる。
Furthermore, when the program execution means executes the sound source processing program, the processing time changes depending on the processing conditions, but this change can be completely absorbed by the musical tone signal output means. Therefore, a complicated timing control program for outputting musical tone signals to a D/A converter or the like is not required.

以上のように、演奏情報処理プログラムと音源処理プロ
グラムとの間のデータのリンクをデータ記憶手段上の楽
音生成データを介して行うというデータアーキテクチャ
と、演奏情報処理プログラムに対して所定時間間隔で音
源処理プログラムを実行するというプログラムアーキテ
クチャを実現し、更に、楽音信号出力手段を設けたこと
により、汎用プロセッサとほとんど同し構成で、効率的
なプログラム制御に基づく音源処理が実現される。
As described above, there is a data architecture in which the data is linked between the performance information processing program and the sound source processing program via musical sound generation data on the data storage means, and a sound source By realizing a program architecture for executing a processing program and further providing musical tone signal output means, sound source processing based on efficient program control can be realized with almost the same configuration as a general-purpose processor.

更に、プログラム実行手段は、各発音チャネル毎に対応
した時分割処理により、演奏情報処理プログラム及び音
源処理プログラムを実行する構成をとっている。従って
、プログラム実行手段は、各時分割タイミング毎に、デ
ータ記憶手段上の対応する楽音生成データをアクセスし
てそれを処理するだけで、発音チャネル毎に楽音信号を
生成することができる。そして、各発音チャネルを例え
ばステレオの左右チャネル等の複数の出力グループのい
ずれかに対応させ、各出力グループ毎に、そこに含まれ
る発音チャネルで生成された楽音信号同士を混合して、
各出力グループ対応の楽音信号出力を生成することによ
り、各発音チャネルの楽音信号を各出力グループに簡単
に振り分けて出力することができる。
Further, the program execution means is configured to execute the performance information processing program and the sound source processing program by time-sharing processing corresponding to each sound generation channel. Therefore, the program execution means can generate musical tone signals for each sound generation channel by simply accessing and processing the corresponding musical tone generation data on the data storage means at each time division timing. Then, each sound generation channel is made to correspond to one of a plurality of output groups, such as stereo left and right channels, and for each output group, the musical tone signals generated by the sound generation channels included therein are mixed,
By generating musical tone signal outputs corresponding to each output group, the musical tone signals of each sound generation channel can be easily distributed and outputted to each output group.

更に、各出力グループの各楽音信号出力間の出力比率を
、演奏情報に基づいて制御するようにすれば、例えばキ
ーコード又はベロシティの値等により左右チャネル間で
定位を移動させる等の楽音効果を付加させることもでき
る。
Furthermore, if the output ratio between each musical sound signal output of each output group is controlled based on the performance information, it is possible to create musical sound effects such as moving the localization between the left and right channels by, for example, the key code or velocity value. It can also be added.

〔実  施  例〕〔Example〕

以下、図面を参照しながら本発明の詳細な説明する。 Hereinafter, the present invention will be described in detail with reference to the drawings.

本災隻■皇盪威 第1図は、本発明の実施例の全体構成図である。This disaster ship ■Emperor FIG. 1 is an overall configuration diagram of an embodiment of the present invention.

同図において、まず、装置全体はマイクロコンピュータ
101により制御される。特に、楽器の制御入力の処理
のみならず、楽音を生成する処理もマイクロコンピュー
タ101で実行され、楽音生成用の音源回路は必要とし
ない。
In the figure, first, the entire apparatus is controlled by a microcomputer 101. In particular, the microcomputer 101 executes not only the processing of control inputs for the musical instrument but also the processing of generating musical tones, and a tone generator circuit for generating musical tones is not required.

鍵盤102と機賊キー103とからなるスイッチ部10
4は楽器の操作入力部分であり、スイッチ部104から
入力された演奏情報はマイクロコンピュータ101で処
理される。なお、機能キー103の詳細については後述
する。
Switch section 10 consisting of a keyboard 102 and a pirate key 103
Reference numeral 4 denotes an operation input section of the musical instrument, and performance information input from the switch section 104 is processed by the microcomputer 101. Note that the details of the function key 103 will be described later.

マイクロコンピュータ101が生成したアナログ変換後
の楽音信号はローパスフィルタ105で平滑化され、ア
ンプ106で増幅された後、スピーカ107を介して放
音される。電源回路108は、マイクロコンピュータ1
01、ローパスフィルタ105及びアンプ106に必要
な電源を供給する。
The analog-converted musical tone signal generated by the microcomputer 101 is smoothed by a low-pass filter 105, amplified by an amplifier 106, and then emitted through a speaker 107. The power supply circuit 108 is connected to the microcomputer 1
01, supplies the necessary power to the low-pass filter 105 and amplifier 106.

ツキに、第2図はマイクロコンピュータ101の内部構
成を示すブロック図である。
For convenience, FIG. 2 is a block diagram showing the internal configuration of the microcomputer 101.

制御データ兼波形用ROM212には、後述するエンベ
ロープ値の目標値等の楽音制御パラメータ、各音源方式
における楽音波形データ、楽音差分データ、変調波形デ
ータ等が記憶されている。
The control data/waveform ROM 212 stores tone control parameters such as a target value of an envelope value to be described later, tone waveform data for each sound source method, tone difference data, modulation waveform data, and the like.

そして、コマンド解析部207は、制御用ROM201
のプログラムの内容を順次解析しながら、制御データ兼
波形用ROM212上の上記各データをアクセスして、
ソフトウェアによる音源処理を行う。
Then, the command analysis unit 207 uses the control ROM 201
While sequentially analyzing the contents of the program, accessing each of the above data on the control data/waveform ROM 212,
Performs sound source processing using software.

制御用ROM201には、後述する楽音制御用のプログ
ラムが記憶されており、ROMアドレス制御部205か
らROMアドレスデコーダ202を介して指定されたア
ドレスのプログラム語(命令)を順次出力する。具体的
には、各プログラム語の語長は例えば28ビツトであり
、プログラム語の一部が次に読み出されるべきアドレス
の下位部(ページ内アドレス)としてROMアドレス制
御部205に入力されるネタストアドレス方式となって
いる。なお、当然、通常のプログラムカウンタ方式のC
PUで構成してもよい。
A control ROM 201 stores a tone control program, which will be described later, and sequentially outputs program words (commands) at designated addresses from a ROM address control section 205 via a ROM address decoder 202. Specifically, the word length of each program word is, for example, 28 bits, and a part of the program word is input to the ROM address control unit 205 as the lower part (intra-page address) of the address to be read next. It is an address system. Of course, the normal program counter type C
It may be configured with PU.

コマンド解析部207は、制御用ROM201から出力
される命令のオペコードを解析し、指定されたオペレー
ションを実行するために、回路の各部に制御信号を送る
The command analysis unit 207 analyzes the operation code of the command output from the control ROM 201, and sends control signals to each part of the circuit in order to execute the specified operation.

RAMアドレス制御部204は、制御用ROM201か
らの命令のオペランドがレジスタを指定している場合に
、RAM206内の対応するレジスタのアドレスを指定
する。RAM206には、第6図及び第7図等として後
述する各種楽音制御データが8発音チャネル分記憶され
るほか、後述する各種バッファ等が記憶され、後述する
音源処理に使用される。
The RAM address control unit 204 specifies the address of a corresponding register in the RAM 206 when an operand of an instruction from the control ROM 201 specifies a register. The RAM 206 stores various musical tone control data for eight sound generation channels, which will be described later in FIGS. 6 and 7, as well as various buffers, which will be described later, and are used for sound source processing, which will be described later.

ALU部208及び乗算器209は、制御jROM31
からの命令が演算命令の場合に、コマンド解析部207
からの指示に基づいて、前者は加減算と論理演算、後者
は乗算を実行する。
The ALU unit 208 and the multiplier 209 are controlled by the control jROM 31
If the instruction from is an arithmetic instruction, the command analysis unit 207
Based on instructions from , the former performs addition, subtraction and logical operations, and the latter performs multiplication.

インタラブド制御部203は、内部の特には図示しない
ハードタイマに基づいて、一定時間毎に、ROMアドレ
ス制御部205及びD/A変換器部213.214にイ
ンクラブド信号を供給する。
The interwoven control section 203 supplies included signals to the ROM address control section 205 and the D/A converter sections 213 and 214 at fixed time intervals based on an internal hard timer (not particularly shown).

入力ポート210及び出力ポート211には、第1図の
スイッチ部104が接続される。
The switch unit 104 shown in FIG. 1 is connected to the input port 210 and the output port 211.

制御用ROM201又はRAM206から読み出される
各種データは、バスを介してROMアナログ制御部20
5、ALU部208、乗算器209、制御データ兼波形
用ROM212、Left  D/A変換器部213、
Right D/A変換器部214、入力ポート210
及び出カポ−)211に供給される。また、ALU部2
08、乗算器209及び制御データ兼波形用ROM21
2の各出力は、バスを介してRAM206に供給される
Various data read from the control ROM 201 or RAM 206 are sent to the ROM analog control unit 20 via the bus.
5, ALU section 208, multiplier 209, control data/waveform ROM 212, Left D/A converter section 213,
Right D/A converter section 214, input port 210
and output capo) 211. In addition, ALU section 2
08, Multiplier 209 and control data/waveform ROM 21
Each output of 2 is supplied to RAM 206 via a bus.

音源処理が施され、RAM206内の左バッファBL及
び右バッファBR(後述する)に得られた左チャネル及
び右チャネルの楽音信号は、LeftD/A変換器部2
13及びRight D/A変換器部214でそれぞれ
D/A変換され、左チャネルのアナログ楽音信号りと右
チャネルのアナログ楽音信号Rが、第1図のローパスフ
ィルタ105、アンプ106を介して、スピーカ107
から放音される。なお、これらは共にステレオ構成であ
る。
The left channel and right channel musical tone signals that have been subjected to sound source processing and obtained in the left buffer BL and right buffer BR (described later) in the RAM 206 are sent to the Left D/A converter section 2.
13 and Right D/A converter section 214, and the left channel analog musical tone signal R and the right channel analog musical tone signal R are sent to the speaker via the low-pass filter 105 and amplifier 106 shown in FIG. 107
The sound is emitted from. Note that both of these are stereo configurations.

次に、第3図(b)は、第1図のLeft  D/A変
換器部213及びRight D/A変換器部214の
内部構成を示すもので(両者とも同一の構成を有する)
、データバスを介して、音源処理により作成された楽音
の1サンプルデータが、ラッチ301に入力される。そ
して、ラッチ301のクロック入力に第2図のコマンド
解析部207から音源処理終了信号が入力されると、デ
ータバス上の1サンプル分の楽音データが、第4図に示
すようにラッチ301にラッチされる。
Next, FIG. 3(b) shows the internal configuration of the Left D/A converter section 213 and the Right D/A converter section 214 in FIG. 1 (both have the same configuration).
, one sample data of a musical tone created by sound source processing is input to the latch 301 via the data bus. When a sound source processing end signal is input from the command analysis section 207 in FIG. 2 to the clock input of the latch 301, one sample of musical tone data on the data bus is latched into the latch 301 as shown in FIG. be done.

ここで、前述の音源処理に要する時間は、音源処理用の
ソフトウェアの実行条件により変化するため、音源処理
が終了し、ラッチ301に楽音データがラッチされるタ
イミングは一定でない。そのため、第3図(a)のよう
に、ラッチ301の出力をそのままD/A変換器303
に人力させることはできない。
Here, since the time required for the sound source processing described above varies depending on the execution conditions of the software for sound source processing, the timing at which the sound source processing ends and the musical sound data is latched into the latch 301 is not constant. Therefore, as shown in FIG. 3(a), the output of the latch 301 is directly transferred to the D/A converter 303.
cannot be done manually.

そこで、本実施例では第3図(b)の如く、ラッチ30
1の出力をさらにラッチ302でランチし、第2図のイ
ンタラブド制御部203から出力されるサンプリングク
ロック間隔に等しいインクラブド信号により、楽音信号
をラッチ302にラッチさせ、一定間隔でD/A変換器
303に出力させるようにしている。
Therefore, in this embodiment, as shown in FIG. 3(b), the latch 30
1 is further launched in the latch 302, and the musical tone signal is latched in the latch 302 by an included signal equal to the sampling clock interval outputted from the interlaced control unit 203 in FIG. I am trying to have it output to .

このようにラッチを2つ用いて、音源方式における処理
時間の変化を吸収したので、楽音データをD/A変換器
へ出力させるための複雑なタイミング制御プログラムが
不用になった。
In this way, two latches are used to absorb changes in processing time in the sound source method, so a complicated timing control program for outputting musical tone data to the D/A converter is no longer necessary.

の つぎに、本実施例の全体動作を説明する。of Next, the overall operation of this embodiment will be explained.

本実施例では、マイクロコンピュータ101が、第5図
(a)のメインフローチャートに示すように、35(1
2〜5510の一連の処理を繰り返し行っている。そし
て実際の音源処理は割り込み(インタラブド)処理で行
っている。具体的には、ある一定時間毎に、第5図(a
)のメインフローチャートとして実行されているプログ
ラムに割り込みが掛かり、それに基づいて8チヤンネル
の楽音信号を作る音源処理のプログラムが実行される。
In this embodiment, the microcomputer 101 operates 35 (1
A series of processes from 2 to 5510 are repeatedly performed. Actual sound source processing is performed using interrupt processing. Specifically, at certain fixed time intervals, the data shown in Figure 5 (a
) is interrupted by the program being executed as the main flowchart, and based on the interrupt, a sound source processing program for creating 8-channel musical tone signals is executed.

その処理が終わると、8チャネル分の楽音波形が加算さ
れ、マイクロコンピュータ101内のLeft  D/
A変換器部213及びRightD/A変換器部214
から出力される。その後、割り込み状態からメインフロ
ーに戻る。なお、上述の割り込みは、第2図のインクラ
ブド制御部203内のハードタイマに基づき、周期的に
行われる。この周期は、楽音出力時のサンプリング周期
に等しい。
When the processing is finished, the musical sound waveforms for 8 channels are added, and the left D/D in the microcomputer 101 is
A converter section 213 and Right D/A converter section 214
is output from. Thereafter, the interrupt state returns to the main flow. Note that the above-mentioned interrupt is periodically performed based on a hard timer in the included control unit 203 shown in FIG. This period is equal to the sampling period at the time of musical tone output.

以上が、本実施例の概略動作で、つぎに、第5図を用い
て詳細に本実施例の全体動作を説明する。
The above is the general operation of this embodiment. Next, the overall operation of this embodiment will be explained in detail using FIG. 5.

第5図(a)のメインフローチャートは、インタラブド
制御部203から割り込みが掛からない状態においてマ
イクロコンピュータ101で実行される、音源処理以外
の処理の流れを示している。
The main flowchart in FIG. 5(a) shows the flow of processes other than sound source processing that are executed by the microcomputer 101 in a state where no interrupt is received from the interwoven control unit 203.

まず、電源がONされ、マイクロコンピュータ101内
のRAM206(第2図参照)の内容等の初期設定が行
われる(Sso+)。
First, the power is turned on and the contents of the RAM 206 (see FIG. 2) in the microcomputer 101 are initialized (Sso+).

つぎに、マイクロコンピュータ101の外部に接続され
る機能キー103(第1図参照)の各スイッチが走査さ
れ(S5D2 ) 、各スイッチの状態が入力ポート2
10からRAM206内のキーバッファエリアに取り込
まれる。その走査の結果、状態の変化した機能キーが識
別され、対応する機能の処理がなされる(8503 )
。例えば、楽音番号のセット、エンベロープ番号のセッ
ト、また、付加機能にリズム演奏がついていれば、リズ
ム番号のセット等が行われる。
Next, each switch of the function key 103 (see FIG. 1) connected to the outside of the microcomputer 101 is scanned (S5D2), and the state of each switch is determined from the input port 2.
10 to the key buffer area in the RAM 206. As a result of the scanning, the function key whose state has changed is identified, and the corresponding function is processed (8503).
. For example, musical tone numbers are set, envelope numbers are set, and if rhythm performance is included as an additional function, rhythm numbers are set.

その後、第1図の鍵盤102において押鍵されている鍵
盤キーが上記機能キーの場合と同様に取り込まれ(SS
。4)、変化した鍵が識別されることによりキーアサイ
ン処理が行われる(S505 )。
Thereafter, the keyboard keys being pressed on the keyboard 102 in FIG.
. 4) Key assignment processing is performed by identifying the changed key (S505).

この鍵盤キー処理は、本発明に特に関連する部分である
が、これについては後述する。
This keyboard key processing is particularly relevant to the present invention, and will be described later.

つぎに、機能キー103(第1図)で特には図示しない
デモ演奏キーが押されたときは、第2図の制御データ兼
波形用ROM212からデモ演奏データ(シーケンサデ
ータ)が順次読み出されて、キーアサイン処理などが行
われる(SS。6)。また、リズムスタートキーが押さ
れたときは、リズムデータが制御データ兼波形用ROM
212から順次読み出され、キーアサイン処理などが行
われる(SS。、)。
Next, when a demo performance key (not shown) is pressed using the function key 103 (FIG. 1), demo performance data (sequencer data) is sequentially read out from the control data/waveform ROM 212 shown in FIG. , key assignment processing, etc. are performed (SS.6). Also, when the rhythm start key is pressed, the rhythm data is stored in the control data and waveform ROM.
212, and key assignment processing and the like are performed (SS.,).

その後に、以下に述べるタイマー処理が行われる(Ss
og )。すなわち、後述するインタラブドタイマー処
理(Ss+z )でインクリメントされている時間デー
タの時間値が判別され、デモ演奏制御用に順次読み出さ
れる時間制御用のシーケンサデータまたはリズム演奏制
御用に読み出される時間制御用のリズムデータと比較さ
れることにより、S、。6のデモ演奏又はS 507の
リズム演奏を行う場合の時間制御が行われる。
After that, the timer process described below is performed (Ss
og). That is, the time value of the time data that is incremented by the interwoven timer processing (Ss+z) described later is determined, and the time value is determined as sequencer data for time control that is sequentially read out for demo performance control or time control sequencer data that is read out for rhythm performance control. By being compared with the rhythm data of S,. Time control is performed when performing the demo performance in step S 6 or the rhythm performance in step S 507.

さら番こ、発音処理S 509では、発音処理されるべ
き楽音のピッチにエンベロープを付加し、対応する発音
チャネルにピッチデータを設定するというピッチエンベ
ロープ処理等が行われる。
In the sound generation process S509, pitch envelope processing is performed in which an envelope is added to the pitch of the musical tone to be generated, and pitch data is set in the corresponding sound generation channel.

更に、フロー1周準備処理が実行される(Ss+o)。Furthermore, one flow round preparation process is executed (Ss+o).

この処理においては、S 5osの鍵盤キー処理におい
て押鍵開始となったノート番号の発音チャネルの状態を
押鍵中に変えたり、離鍵となったノート番号の発音チャ
ネルの状態を消音中に変える等の処理が行われる。
In this process, in the keyboard key processing of S5os, the state of the sound generation channel of the note number that started the key press is changed to "key pressed", or the state of the sound generation channel of the note number that started the key release is changed to "muted". etc. are performed.

つぎに、第5図(b)のインタラブド処理につき説明す
る。
Next, the interwoven process shown in FIG. 5(b) will be explained.

第2図のインクラブド制御部203により、第5図(a
)ツメインフローに対応するプログラムに割り込みが掛
かると、同プログラムの処理が中断され、第5図(b)
のインクラブド処理プログラムの実行が開始される。こ
の場合、インタラブド処理のプログラムにおいて、第5
図(a)のメインフローのプログラムで書き込みが行わ
れるレジスタ等については、内容の書き換えが行われな
いように制御される。従って、通常のインクラブド処理
の開始時と終了時に行われるレジス・夕の退避と復帰の
処理は不要となる。これにより、第5図(a)のメイン
フローチャートの処理とインクラブド処理との間の移行
が迅速に行われる。
The included control unit 203 in FIG.
) When a program corresponding to the main flow is interrupted, the processing of the program is interrupted, and the process shown in Figure 5(b) occurs.
Execution of the included processing program is started. In this case, in the interwoven processing program, the fifth
The registers and the like to which writing is performed in the program of the main flow in FIG. Therefore, the process of saving and restoring the register and data, which is normally performed at the start and end of included processing, becomes unnecessary. As a result, the transition between the processing in the main flowchart of FIG. 5(a) and the included processing is quickly performed.

続いて、インタラブド処理において音源処理が開始され
る(Ssz )。この音源処理は第5図(C)に示され
る。この結果、8発音チャネル分が累算された楽音波形
データが、第2図のRAM206内の後述するバッファ
Bに得られる。
Subsequently, sound source processing is started in interwoven processing (Ssz). This sound source processing is shown in FIG. 5(C). As a result, musical waveform data accumulated for eight sound generation channels is obtained in buffer B, which will be described later, in RAM 206 in FIG.

つぎに、5512ではインタラブドタイマー処理が行わ
れる。ここでは、第5図(b)のインクラブド処理が一
定のサンプリング周期毎に実行されることを利用して、
RAM206(第2図)上の特には図示しない時間デー
タの値がインクリメントされる。すなわち、この時間デ
ータの値を見れば時間経過がわかる。このようにして得
られる時間データは、前述したように、第5図(a)の
メインフローのタイマー処理S5゜8における時間制御
に用いられる。
Next, in 5512, interwoven timer processing is performed. Here, by taking advantage of the fact that the included processing in FIG. 5(b) is executed at a fixed sampling period,
The value of time data (not shown) on the RAM 206 (FIG. 2) is incremented. That is, by looking at the value of this time data, it is possible to know the passage of time. The time data thus obtained is used for time control in timer processing S5.8 of the main flow of FIG. 5(a), as described above.

そして、5513’において、上記バッファ領域の内容
がLeft  D/A変換器部213及びRight 
D/A変換器部214のラッチ301(第3図参照)に
ラッチされる。
Then, in 5513', the contents of the buffer area are transferred to the Left D/A converter section 213 and the Right D/A converter section 213.
It is latched by the latch 301 (see FIG. 3) of the D/A converter section 214.

つぎに、第5図(C)のフローチャートを用いて、イン
タラブド処理のステップSS++で実行される音源処理
の動作を説明する。
Next, the operation of the sound source processing executed in step SS++ of the interwoven processing will be explained using the flowchart of FIG. 5(C).

まず、RAM206の波形データ加算用の左バッファB
L、右バッファBR及びフラグFの各領域がクリアされ
る(Ss+3)。つぎに、発音チャネルの1チヤネル毎
に音源処理が行われ(S 、ea〜5521)、最後に
8チヤネル目の音源処理が終了した時点で左バッファB
L及び右バッファBRのそれぞれに8チャネル分が加算
された波形データが得られる。これらの詳細な処理につ
いては後述する。
First, left buffer B for waveform data addition in RAM 206
The areas L, right buffer BR, and flag F are cleared (Ss+3). Next, sound source processing is performed for each sound generation channel (S, ea~5521), and finally, when the sound source processing for the 8th channel is completed, the left buffer B
Waveform data obtained by adding eight channels to each of the L and right buffers BR is obtained. These detailed processes will be described later.

つぎに第6図は、前述の第5図(a)、(b)のフロー
チャートの処理の関係を概念的に示した流れ図である。
Next, FIG. 6 is a flowchart conceptually showing the relationship between the processes in the flowcharts of FIGS. 5(a) and 5(b) described above.

まず、ある処理A(以下、B、C1・・・Fも同じ)が
行われる(5601 )。この「処理」は、第5図(a
)のメインフローチャートの、例えば「機能キー処理j
、や「鍵盤キー処理」などに対応する。その後、インタ
ラブド処理に入り、音源処理が開始される(S6(+2
)。これにより、左チャネルと右チャネルのそれぞれに
おいて、■サンプル分の8発音チャネルをまとめた楽音
信号が得られ、各々Left  D/A変換器部213
及びR3ght D/A変換器部214に出力される。
First, a certain process A (hereinafter the same applies to B, C1, . . . F) is performed (5601). This “processing” is shown in Figure 5 (a
), for example, "Function key processing j
, and "keyboard key processing". After that, interactive processing is entered, and sound source processing is started (S6 (+2
). As a result, in each of the left channel and the right channel, musical tone signals are obtained that are a collection of 8 sounding channels corresponding to ■ samples, and each of the left D/A converter sections 213
and R3ght is output to the D/A converter section 214.

その後、メインフローの何らかの処理Bに戻る(S60
3)。
After that, the process returns to some process B of the main flow (S60
3).

以上のような動作が、8つの全ての発音チャネルに対す
る音源処理が行われながら繰り返される(Sboa〜5
611 )。そして、この繰り返し処理は、楽音の発音
中続けられる。
The above operations are repeated while sound source processing is performed for all eight sound generation channels (Sboa~5
611). This repeating process is continued while the musical tone is being generated.

′ 几 におけるデータ つぎに、第5図(ト))の3511で実行される音源処
理の具体例について説明する。
Next, a specific example of the sound source processing executed at 3511 in FIG. 5(G) will be described.

本実施例では、マイクロコンピュータlO1が、8発音
チャネル分の音源処理を分担することは前。
In this embodiment, the microcomputer IO1 is responsible for the sound source processing for eight sound generation channels.

述した。この8チャネル分の音源処理用のデータは、第
7図に示すように、第2図のRAM206内の発音チャ
ネル毎の領域に設定される。
mentioned. The sound source processing data for eight channels is set in an area for each sound generation channel in the RAM 206 in FIG. 2, as shown in FIG.

また、このRA、M2O6に、第7図[有])に示すよ
うな左チャネル及び右チャネルの波形累算用の各バッフ
ァBL及びBRと、奇数発音チャネル及び偶数発音チャ
ネルを左チヤネル処理と右チヤネル処理に振り分けるた
めの1ビツトのフラグFの各領域が確保されている。
In addition, the RA and M2O6 are provided with buffers BL and BR for waveform accumulation of the left channel and right channel as shown in FIG. Each area of a 1-bit flag F is reserved for allocation to channel processing.

この場合、第7図の各発音チャネル領域には、後に詳述
するような操作によって、第8図に概念的に示すように
、それぞれの音源方式が設定され、その音源方式が設定
されたら、第9図に示すような各音源方式のデータフォ
ーマットで、制御データ兼波形用ROM212から各制
御データが設定される。制御データ兼波形用ROM21
2でのデータフォーマットについては第16図で後述す
る。
In this case, each sound source method is set in each sound generation channel area in FIG. 7 as conceptually shown in FIG. 8 by operations described in detail later, and once the sound source method is set, Each control data is set from the control data/waveform ROM 212 in the data format of each sound source method as shown in FIG. Control data/waveform ROM21
The data format in No. 2 will be described later with reference to FIG.

なお、本実施例では、後述するように、各発音チャネル
に異なる音源方式が割り当てられる。
Note that in this embodiment, different sound source systems are assigned to each sound generation channel, as will be described later.

第9図の各音源方式のデータフォーマットを°示すテー
ブル1において、Sは音源方式を識別する番号である音
源方式Noである。つぎのAは、音源処理時に波形デー
タが読み出される場合に指定されるアドレスを表し、A
I、AI及びA2が現在アドレスの整数部で、制御デー
タ兼波形用ROM212(第2図)の波形データが格納
されているアドレスに直接対応する。また、AFは現在
アドレスの小数部で、制御データ兼波形用ROM212
から読み出された波形データの補間に用いられる。つぎ
のAEはエンドアドレス、A、はループアドレスをそれ
ぞれ表す。また、つぎのP、 、P。
In Table 1 showing the data format of each sound source method shown in FIG. 9, S is the sound source method No. which is a number for identifying the sound source method. The next A represents the address specified when waveform data is read out during sound source processing.
I, AI, and A2 are the integer part of the current address, and directly correspond to the address where the waveform data of the control data/waveform ROM 212 (FIG. 2) is stored. In addition, AF is the decimal part of the current address, and the control data and waveform ROM 212
It is used for interpolation of waveform data read from. The next AE represents an end address, and A represents a loop address. Also, the following P, ,P.

及びP2はピッチデータの整数部、PFはピッチデータ
の小数部を表す。例を示すと、P+=I、PF=0は原
音のピッチを、P、−2、PF=0は1オクターブ上の
ピッチを、また、P+=0、PF=0.5は、■オクタ
ーブ下のピンチをそれぞれ表す。つぎのXpは前回のサ
ンプルデータを、XNは次回のサンプルデータの格納を
表す。また、Dは隣接する2つのサンプルデータ間の大
きさの差分値を表し、Eはエンベロープ値である。さら
に、0は出力値である。また、特に本発明に関連するデ
ータとして、L/RレベルLevlとp/f レベルL
ev2がある。その他の種々の制御データについては、
後述の各音源方式の説明の際に説明する。
and P2 represents the integer part of the pitch data, and PF represents the decimal part of the pitch data. For example, P+=I, PF=0 indicates the pitch of the original sound, P, -2, PF=0 indicates the pitch one octave higher, and P+=0, PF=0.5 indicates the pitch below the ■octave. Each represents a pinch. The next Xp represents the previous sample data, and XN represents the storage of the next sample data. Further, D represents a difference value in size between two adjacent sample data, and E is an envelope value. Furthermore, 0 is an output value. In addition, as data particularly related to the present invention, L/R level Levl and p/f level L
There is ev2. For other various control data,
This will be explained later when explaining each sound source method.

本実施例では、第5図(a)のメインフローが実行され
る場合に、音源方式の決定及びその音源方式による音源
処理に必要な制御データ、例えばピッチデータ、エンベ
ロープデータ等が、対応する発音チャネル領域に設定さ
れる。そして、第5図(ハ)のインクラブド処理での音
源処理として実行される第5図(C)の各チャネル対応
の音源処理において、上記発音チャネルN域に設定され
ている各種制御データが使用されながら、楽音の生成処
理が実行される。このように、メインフローのプログラ
ムと音源処理プログラムとの間のデータの通信は、RA
M206上の発音チャネル領域の制御データ(楽音生成
データ)を介して行われ、各プログラムにおける発音チ
ャネル領域に対するアクセスは、相手のプログラムの実
行状態に一切関わりなく行わえばよいため、実質的に両
プログラムを独立したモジュール構成とすることができ
、簡単かつ効率的なプログラム構造とすることができる
In the present embodiment, when the main flow shown in FIG. Set in the channel area. Then, in the sound source processing for each channel in FIG. 5(C), which is executed as the sound source processing in the included processing in FIG. 5(C), the various control data set in the sound generation channel N area are used. Meanwhile, musical tone generation processing is executed. In this way, data communication between the main flow program and the sound source processing program is performed by the RA.
This is done via the control data (musical tone generation data) of the sound generation channel area on the M206, and access to the sound generation channel area in each program can be performed without regard to the execution status of the other program, so in reality both programs can be configured as independent modules, resulting in a simple and efficient program structure.

以下、このようなデータ構成を用いて実行される各音源
方式の音源処理について順次説明する。
Hereinafter, sound source processing for each sound source method executed using such a data structure will be sequentially explained.

ナオ、これらの音源処理は、マイクロコンピュータ10
1のコマンド解析部207が、制御用ROM201に格
納されている音源処理用のプログラムを解釈・実行する
ことにより実現される。以下、特ζこ言及しないかぎり
、この前提のもとて処理が行われるとする。
Nao, these sound source processing is done by microcomputer 10.
This is realized by the command analysis unit 207 of No. 1 interpreting and executing a sound source processing program stored in the control ROM 201. In the following, it is assumed that processing will be performed based on this premise unless otherwise specified.

まず、第5図(C)のフローチャートにおいて、1チヤ
ネル毎の各音源処理(3517〜5524のいずれか)
に入ると、RAM206の対応する発音チャネルに記憶
されている第9図に示すデータフォーマット(テーブル
1)のデータのうちの音源方式Noが判別され、これに
より以下に説明するどの音源方式の音源処理が実行され
るがが決定される。
First, in the flowchart of FIG. 5(C), each sound source process for each channel (any one of 3517 to 5524)
When entering the sound source, the sound source method number of the data in the data format (Table 1) shown in FIG. is determined to be executed.

PCM  工゛による 2 几 上記音源方式No、がPCM方式を指示している場合、
以下の第10図の動作フローチャートで示されるPCM
方式による音源処理が実行される。フロー中の各変数は
、RAM206(第2図)上の第7図(a)のいずれか
の発音チャネル領域に記憶される第9図のテーブル1の
PCMフォーマットの各データである。
Depends on PCM engineering 2. If the above sound source method No. indicates PCM method,
The PCM shown in the operation flowchart in Figure 10 below.
Sound source processing is performed according to the method. Each variable in the flow is each data in the PCM format of Table 1 in FIG. 9, which is stored in one of the sound generation channel areas in FIG. 7(a) on the RAM 206 (FIG. 2).

制御データ兼波形用ROM212(第2図)上のPCM
波形データが記憶されているアドレスのうち、現在の処
理の対象とされる波形データが記憶されているアドレス
を第12図(a)に示す(AIAF)とする。
PCM on control data/waveform ROM 212 (Figure 2)
Among the addresses where waveform data is stored, the address where the waveform data to be processed currently is stored is indicated as (AIAF) shown in FIG. 12(a).

まず、現在のアドレスにピッチデータ(P+、PF)が
加算される(S+。01)。このピッチデータは、第1
図の鍵盤102等において押鍵操作された鍵ノ種類に対
応している。
First, pitch data (P+, PF) is added to the current address (S+.01). This pitch data is the first
This corresponds to the type of key pressed on the keyboard 102 or the like in the figure.

そして、加算されたアドレスの整数部AIが変わったか
否かが判定される(S+。02)。判定がNOならば、
第12図(a)のアドレス(AI+1)およびA1にお
けるそれぞれのサンプルデータXNとXPとの差である
差分値りを用いて、DXA。
Then, it is determined whether the integer part AI of the added address has changed (S+.02). If the judgment is NO,
DXA using the difference value which is the difference between the respective sample data XN and XP at address (AI+1) and A1 in FIG. 12(a).

なる演算処理により、アドレスの小数部AFに対応する
補間データ値0が計算される( S 1007)。
The interpolation data value 0 corresponding to the decimal part AF of the address is calculated by the following calculation process (S1007).

なお、差分値りは、今回以前のインタラブドタイミング
における音源処理により求まっている(後述するS 1
006参照)。
Note that the difference value has been determined by sound source processing at interleaved timings before this time (see S 1 below).
006).

そして、上記補間データ値0にアドレスの整数部A、に
対応するサンプルデータXPが加算され、現在のアドレ
ス(AI、AF)に対応する新しいサンプルデータ0(
第12図(a)のXoに相当する)が得られる(Spo
o8)。
Then, sample data XP corresponding to the integer part A of the address is added to the interpolated data value 0, and new sample data 0 (
(corresponding to Xo in FIG. 12(a)) is obtained (Spo
o8).

この後、このサンプルデータにエンヘローブ値Eが乗算
され(Sl2O3) 、新たなサンプルデータ0とされ
る。
Thereafter, this sample data is multiplied by the enherobe value E (Sl2O3) and is set as new sample data 0.

さらに、サンプルデータOに、L/Rレヘレベevlが
乗算され、続けてp/fレヘノ叶ev2が乗算されて、
その発音チャーネルにおける最終的な出力0の値とされ
る( S 110.311111)。これらについては
後述する。
Furthermore, the sample data O is multiplied by L/R leheleve evl, and then multiplied by p/f leheleve ev2,
This is the final output value of 0 in that sounding channel (S 110.311111). These will be described later.

そして、RAM206(第2図)上に確保されている1
ビツトのフラグF(第7図(b)参照)が0であるか1
であるかによって(S +o+z) 、出力0が左バッ
ファBL又は右バッファBRのいずれかに累算される(
Stom3.5IOI、l) oその後、フラグFがイ
ンクリメントされる。今、フラグFは第5図(C)の5
51:lで初期値Oに設定される。従って、第5図(C
) S s + aの第1発音チャネルでの第10図の
音源処理においては、フラグFはOでS I(+1□の
判定はNOとなり、出力0は左バッファBLに累算され
、S 1015でフラグFは工に変化する。これにより
、第5図(c) S 5□5の第2発音チャネルでの第
10図の音源処理においては、フラグFは1でS+o+
zの判定はYESとなり、出力Oは右バッファBRに累
算され、31015でフラグFは再び0に戻る。以上が
繰り返される結果、第1、第3、第5及び第7の奇数発
音チャネルの各出力0は左ハンファBLに累算され、第
2、第4、第6及び第8の偶数発音チャネルの各出力O
は右バッファBRに累算される。すなわち、奇数発音チ
ャネルは左チャネル用の発音チャネルであり、偶数発音
チャネルは右チヤネル用の発音チャネルということにな
る。これについては、後に詳述する。
1 secured on the RAM 206 (Fig. 2)
Bit flag F (see Figure 7(b)) is 0 or 1
Depending on whether (S + o + z), the output 0 is accumulated in either the left buffer BL or the right buffer BR (
Stom3.5IOI, l) o Then flag F is incremented. Now, flag F is 5 in Figure 5 (C).
51:l is set to the initial value O. Therefore, Fig. 5 (C
) In the sound source processing of FIG. 10 in the first sound generation channel of S s + a, the flag F is O and the judgment of S I (+1□ is NO, the output 0 is accumulated in the left buffer BL, and S 1015 As a result, in the sound source processing in Figure 10 in the second sound generation channel of Figure 5(c) S5□5, flag F is 1 and S+o+
The determination of z is YES, the output O is accumulated in the right buffer BR, and the flag F returns to 0 again at 31015. As a result of repeating the above, each output 0 of the first, third, fifth, and seventh odd-numbered sounding channels is accumulated in the left Hanwha BL, and the outputs of the second, fourth, sixth, and eighth even-numbered sounding channels are accumulated. Each output O
is accumulated in the right buffer BR. That is, the odd-numbered sounding channels are the sounding channels for the left channel, and the even-numbered sounding channels are the sounding channels for the right channel. This will be detailed later.

上述の振り分は処理の後に、第5図(a)のメインフロ
ーに戻り、つぎのサンプリング周期でインクラブドが掛
かって、第10図の音源処理の動作フローチャートがふ
たたび実行され、現在アドレス(AI、AF)にピッチ
データ(PI、PF)が加算される(S+oo+) 。
After the above distribution is processed, the process returns to the main flow shown in FIG. Pitch data (PI, PF) is added to (AF) (S+oo+).

以上の動作が、アドレスの整数部AIが変わる(Sl2
O3)まで繰り返される。
The above operation changes the integer part AI of the address (Sl2
It is repeated until O3).

この間、サンプルデータXpおよび差分値りは更新され
ず、補間データOのみがアドレスAFに応じて更新され
、その都度サンプルデータXoが得られる。
During this time, the sample data Xp and the difference value are not updated, and only the interpolated data O is updated according to the address AF, and sample data Xo is obtained each time.

つぎに、S 1001で現在アドレス(A1.AF)に
ピッチデータ(PI、PF)が加算された結果、現在ア
ドレスの整数部AIが変化したら(S+ooz)、アド
レスAIがエンドアドレスAEに達しているかまたは越
えているか否かが判定される(SIOf13)。
Next, when the integer part AI of the current address changes (S+ooz) as a result of adding the pitch data (PI, PF) to the current address (A1.AF) in S1001, it is determined whether the address AI has reached the end address AE. Or it is determined whether or not it exceeds (SIOf13).

判定がYESならば、つぎのループ処理が行われる。す
なわち、エンドアドレスAEを越えた分のアドレス(A
t   AE)がループアドレスALに加算され、得ら
れた新しい現在アドレスの整数部A1からループ再生が
開始される(S+oo4)。
If the determination is YES, the next loop process is performed. In other words, the address beyond the end address AE (A
tAE) is added to the loop address AL, and loop playback is started from the integer part A1 of the new current address obtained (S+oo4).

エンドアドレスA、とは、PCM波形データの最後の波
形サンプルデータが記憶されている制御データ兼波形用
ROM212(第2図)上のアドレスである。また、ル
ープアドレスAtとは、演奏者が波形の出力を繰り返し
たい位置のアドレスであり、上記動作により、PCM方
式で周知のループ処理が実現される。
The end address A is the address on the control data/waveform ROM 212 (FIG. 2) where the last waveform sample data of the PCM waveform data is stored. Further, the loop address At is the address of the position at which the performer wants to repeat the output of the waveform, and the above-mentioned operation realizes the well-known loop processing in the PCM system.

S 1003の判定がNOならば、上記51004の処
理は実行されない。
If the determination in S 1003 is NO, the process in 51004 is not executed.

つぎに、サンプルデータの更新が行われる。ここでは、
制御データ兼波形用ROM212(第2図)から、新し
く更新された現在アドレスA+ と1つ手前のアドレス
(AI−1)に対応する各サンプルデータが、それぞれ
XN、XPとして読み出される(Szoo5)。
Next, the sample data is updated. here,
From the control data/waveform ROM 212 (FIG. 2), sample data corresponding to the newly updated current address A+ and the previous address (AI-1) are read out as XN and XP, respectively (Szoo5).

さらに、今までの差分値が、更新した上記XNとXpと
の差分値りに更新される(Sl2O3)。
Furthermore, the previous difference value is updated to the updated difference value between XN and Xp (Sl2O3).

これ以後の動作は前述した通りである。The subsequent operations are as described above.

以上のようにして、1発音チャネル分のPCM方式によ
る波形データが生成される。
In the manner described above, waveform data for one sound generation channel using the PCM method is generated.

DPCM   による つぎに、D P C’M方式による音源処理について説
明する。
Next, sound source processing using the DPCM method will be explained.

まず、第12図(b)を用いて、DPCM方式の動作原
理の概略を説明する。
First, the operating principle of the DPCM system will be outlined using FIG. 12(b).

同図において、制御データ兼波形用ROM212(第2
図)のアドレスA、に対応するサンプルデータXpは、
アドレスA、の1つ前の、特には図示しないアドレス(
AI−1)に対応するサンプルデータとの差分値から求
めた値である。
In the figure, a control data/waveform ROM 212 (second
The sample data Xp corresponding to address A in the figure) is
The address (not shown) immediately before address A (
This value is calculated from the difference value from the sample data corresponding to AI-1).

制御データ兼波形用ROM212のアドレスA+には、
つぎのサンプルデータとの差分値りが書き込まれている
ので、つぎのアドレスのサンプルデータはXP+Dで求
まり、これが新たなサンプルデータxPとしておきかわ
る。
At address A+ of the control data/waveform ROM 212,
Since the difference value from the next sample data has been written, the sample data at the next address is determined by XP+D, and this is replaced as new sample data xP.

この場合、現在アドレスを同図に示すように、AF と
すれば、現在アドレスAFに対応するサンプルデータは
、X P + D X A Fで求まる。
In this case, if the current address is AF as shown in the figure, the sample data corresponding to the current address AF can be found by X P + D X AF.

このように、DPCM方式では、現在のアドレスと、つ
ぎのアドレスに対応するサンプルデータ間の差分値りが
制御データ兼波形用ROM212から読み出され、現在
のサンプルデータに加算されて、つぎのサンプルデータ
が求められることにより、順次波形データが作成される
In this way, in the DPCM method, the difference value between the sample data corresponding to the current address and the next address is read from the control data/waveform ROM 212, added to the current sample data, and then read out from the control data/waveform ROM 212. By obtaining the data, waveform data is sequentially created.

このようなりPCM方式を採用すると、隣接する標本間
の差分値が一般に小さい音声や楽音等のような波形を量
子化する場合、通常のPCM方式に比較して、はるかに
少ないビット数で量子化を行えることは明らかである。
When adopting this PCM method, when quantizing waveforms such as voices and musical tones where the difference value between adjacent samples is generally small, it can be quantized using a much smaller number of bits than the normal PCM method. It is clear that this can be done.

以上のDPCM方式の動作を、第11図の動作フローチ
ャートを用いて説明する。フロー中の各変数は、RAM
206(第2図)上の第7図(a)のいずれかの発音チ
ャネル領域に記憶される第9図のテーブル1のDPCM
フォーマットの各データである。
The operation of the above DPCM system will be explained using the operation flowchart of FIG. Each variable in the flow is stored in RAM
DPCM of Table 1 of FIG. 9 stored in any sound generation channel area of FIG. 7(a) on 206 (FIG. 2)
This is each data in the format.

制御データ兼波形用ROM212上のDPCM差分波形
データが記憶されているアドレスのうち、現在の処理の
対象とされるデータが記憶されているアドレスを第12
図ら)の(A +、 A F )とする。
Among the addresses where the DPCM difference waveform data on the control data/waveform ROM 212 is stored, the address where the data to be processed currently is stored is selected as the 12th address.
Let it be (A +, AF ) of (Fig. et al.).

まず、現在アドレス(AI、AF)にピッチデータ(P
I、PF)が加算される(S++o+)。
First, pitch data (P
I, PF) are added (S++o+).

そして、加算されたアドレスの整数部A+に変化がある
か否かが判定される(S1102)。判定がNOならば
、第12図(b)のアドレスAIにおける差分(iDを
用いて、D X A Fなる演算処理により、アドレス
の小数部AFに対応する補間データ値Oが演算される(
 S 1114)。なお、差分値りは、今回以前のイン
タラブドタイミングにおける音源処理により求まってい
る(後述する51106とS11□。
Then, it is determined whether there is a change in the integer part A+ of the added address (S1102). If the determination is NO, the interpolated data value O corresponding to the decimal part AF of the address is calculated using the difference (iD) at the address AI in FIG.
S 1114). Note that the difference value has been determined by the sound source processing at the interlaced timing before this time (51106 and S11□, which will be described later).

参照)。reference).

つぎに、上記補間データ値Oにアドレスの整数部A1に
対応するサンプルデータXpが加算され、現在アドレス
(AI、AF)に対応する新しいサンプルデータO(第
12図(b)のχQに対応)が得られる (S+++s
)。
Next, sample data Xp corresponding to the integer part A1 of the address is added to the interpolated data value O, and new sample data O corresponding to the current address (AI, AF) (corresponding to χQ in FIG. 12(b)) is obtained (S+++s
).

この後、このサンプルデータにエンベロープ値Eが乗算
され(SII、6)、新たなサンプルデータ0とされる
Thereafter, this sample data is multiplied by the envelope value E (SII, 6), and new sample data 0 is obtained.

それに続く、サンプルデータOへのL/Rレベレベev
 1、p/f レベルLev2の乗算(SII+7、S
 z+g)、それにより得られたその発音チャネルの最
終出力0の、フラグFの内容に基づく左バッファBL又
は右バッファBRへの累算動作(Sl119〜S 11
2□)は、第10図のPCM方式での3101゜〜S 
1015の処理動作と全く同様である。
Subsequently, L/R level level ev to sample data O
1, p/f Level Lev2 multiplication (SII+7, S
z+g), and the resulting final output 0 of the sound generation channel is accumulated into the left buffer BL or right buffer BR based on the contents of the flag F (Sl119 to S11
2□) is 3101°~S in the PCM method in Figure 10.
The processing operation is exactly the same as that of 1015.

上述の振り分は処理の後に、第5図(a)のメインフロ
ーに戻り、つぎのサンプリング周期でインクラブドが掛
かって、第11図の音源処理の動作フローチャートがふ
たたび実行され、現在アドレス(AI、AF)にピッチ
データ(PI、PF)が加算される(SII。1)。
After the above distribution is processed, the process returns to the main flow shown in FIG. Pitch data (PI, PF) is added to AF) (SII.1).

以上の動作が、アドレスの整数部AIに変化が生ずるま
で繰り返される。
The above operations are repeated until a change occurs in the integer part AI of the address.

この間、サンプルデータXpおよび差分値りは更新され
ず、補間データOのみがアドレスAFに応じて更新され
、その都度新たなサンプルデータXoが得られる。
During this time, the sample data Xp and the difference value are not updated, and only the interpolated data O is updated according to the address AF, and new sample data Xo is obtained each time.

つぎに、S目01で現在アドレス(AI、AF)にピッ
チデータ(Pr、PF)が加算された結果、現在アドレ
スの整数部A1が変化したら(SIIoz)、アドレス
AIがエンドアドレスA、に達しているかまたは越えて
いるか否かが判定される(SIIoa)判定がNOの場
合、以下の5IIO4〜3目07のループ処理により、
現在アドレスの整数部A1に対応するサンプルデータが
計算される。すなわち、まず、旧A1という変数(第9
図のテーブル1のDPCMの欄参照)には、現在アドレ
スの整数部A1が変化する前の値が格納されている。こ
れは、後述するSI+06または311□3の処理の繰
り返しにより実現される。この旧A、の値が、SI+0
6で順次インクリメントされながら、S、。7で旧A、
により指示される制御データ兼波形用ROM212(第
2図)上の差分波形データがDとして読み出され、5i
lo!iにおいて順次サンプルデータXPに累算される
。そして、旧A1の値が変化後の現在アドレスの整数部
A+に等しくなった時点で、サンプルデータX、のJ直
は変化後の現在アドレスの整数部AIに対応する値とな
る。
Next, as a result of adding the pitch data (Pr, PF) to the current address (AI, AF) at Sth 01, when the integer part A1 of the current address changes (SIIoz), the address AI reaches the end address A. (SIIoa) If the determination is NO, the following loop processing from 5IIO4 to 3rd item 07 will
Sample data corresponding to the integer part A1 of the current address is calculated. That is, first, the variable old A1 (the 9th
The value before the integer part A1 of the current address changes is stored in the DPCM column of Table 1 in the figure. This is realized by repeating the processing of SI+06 or 311□3, which will be described later. The value of this old A is SI+0
S, while being sequentially incremented by 6. Old A at 7,
The differential waveform data on the control data/waveform ROM 212 (FIG. 2) instructed by is read out as D, and 5i
Lo! i is sequentially accumulated into sample data XP. Then, when the value of the old A1 becomes equal to the integer part A+ of the current address after the change, the J value of the sample data X becomes the value corresponding to the integer part AI of the current address after the change.

このようにして、現在アドレスの整数部AIに対応する
サンプルデータXpが求まると、SI+04の判定がY
ESとなり、前述の補間値の演算処理(SI114)に
移る。
In this way, when the sample data Xp corresponding to the integer part AI of the current address is found, the determination of SI+04 is Y.
ES, and the process moves to the aforementioned interpolation value calculation process (SI114).

上述の音源処理が各インタラブドタイミング毎に繰り返
され、51103の判定がYESに変化したら、つぎの
ループ処理に入る。
The above-described sound source processing is repeated for each interwoven timing, and when the determination in 51103 changes to YES, the next loop processing begins.

まず、エンドアドレスAEを越えた分のアドレス(At
  AE)がループアドレスALに加算され、得られた
アドレスが新たな現在アドレスの整数部A1とされる(
S目08)。
First, the address beyond the end address AE (At
AE) is added to the loop address AL, and the obtained address is set as the integer part A1 of the new current address (
Sth 08).

以下、ループアドレスA、からどれだけアドレスが進ん
だかによって、何回か差分値りを累算する操作が繰り返
されることにより、新たな現在アドレスの整数部A1に
対応するサンプルデータXpが計算される。すなわち、
まず、初期設定としてサンプルデータχPが予め設定さ
れているループアドレスALにおけるサンプルデータX
PL(第9図のテーブル1のDPCMの欄参照)の値と
され、また、旧AIがループアドレスA、の値とされる
(S目ov) 、そして・以下の31110””’SI
I+3の処理が繰り返される。即ち、旧A1の値が31
11:?で順次インクリメントされながら、5IIIO
で旧AIにより指示される制御データ兼波形用ROM2
12上の差分波形データがDとして読み出されて、SI
I+2において順次サンプルデータXpに累算される。
Thereafter, depending on how far the address has progressed from the loop address A, the operation of accumulating the difference value is repeated several times to calculate the sample data Xp corresponding to the integer part A1 of the new current address. . That is,
First, sample data X at the loop address AL where sample data
PL (see the DPCM column of Table 1 in Figure 9), and the old AI is the value of the loop address A (Sth ov), and the following 31110""'SI
The process of I+3 is repeated. That is, the value of old A1 is 31
11:? 5IIIO while being sequentially incremented by
ROM2 for control data and waveforms instructed by the old AI
The differential waveform data on 12 is read out as D, and the SI
At I+2, it is sequentially accumulated into sample data Xp.

そして、旧A1の値が新たな現在アドレスの整数部A1
に等しくなった時点で、サンプルデータXpO)値はル
ープ処理後の新たな現在アドレスの整数部A+に対応す
る値となる。
Then, the value of old A1 is the integer part A1 of the new current address.
When it becomes equal to , the sample data XpO) value becomes a value corresponding to the integer part A+ of the new current address after the loop processing.

このようにして、新たな現在アドレスの整数部A1に対
応するサンプルデータX、が求まると、S++++の判
定がYESとなり、前述の補間値の演算処理(St目4
)に移る。
In this way, when sample data
).

以上のようにして、1発音チャネル分のDPCM方式に
よる波形データが生成される。
In the manner described above, waveform data for one sound generation channel using the DPCM method is generated.

FM     による つぎに、FM変調方式による音源処理について説明する
FM Next, sound source processing using the FM modulation method will be explained.

FM変調方式では、通常、オペレータと称する同一内容
のハードウェアまたはソフトウェアが用いられ、それら
がアルゴリズムと呼ばれる一定の接続規則で相互に接続
されることにより、楽音の生成が行われる。本実施例で
は、ソフトウェアでFM変調方式を実現するものである
In the FM modulation method, hardware or software with the same content called operators is usually used, and musical tones are generated by interconnecting them according to certain connection rules called algorithms. In this embodiment, the FM modulation method is implemented using software.

つぎに、第13図(a)の動作フローチャートを用いて
、2オペレータで音源処理を行う場合の、1実施例の動
作を説明する。処理のアルゴリズムは同図(ロ)で示さ
れる。また、フロー中の各変数は、RAM206(第2
図)上の第7図(a)のいずれかの発音チャネル領域に
記憶される第9図のテーブル1のFMフォーマットの各
データである。
Next, the operation of one embodiment when sound source processing is performed by two operators will be described using the operation flowchart of FIG. 13(a). The processing algorithm is shown in the same figure (b). In addition, each variable in the flow is stored in the RAM 206 (second
This is each data in the FM format of Table 1 in FIG. 9, which is stored in any of the sound generation channel areas in FIG. 7(a) above.

最初に、モジュレータであるオペレータ2 (OF2)
の処理が行われる。ピッチ処理については、PCM方式
のように補間が行われないので、整数アドレスA2のみ
である。すなわち、制御データ兼波形用ROM212(
第2図)には変調用の波形データが十分に細め中歩進間
隔で記憶されているものとする。
First, the modulator Operator 2 (OF2)
processing is performed. Regarding pitch processing, unlike the PCM method, interpolation is not performed, so only the integer address A2 is used. That is, the control data/waveform ROM 212 (
In FIG. 2), it is assumed that waveform data for modulation is stored at sufficiently narrow intermediate step intervals.

まず、現在アドレスA2にピッチデータP2が加算され
る(51301)。
First, pitch data P2 is added to current address A2 (51301).

つぎに、このアドレスA2にフィードバック出力FO2
が変調入力とじて加算され、新たなアドレスAMZが得
られる(513゜2)。フィードバック出力Fo2は、
前回のインタラブドタイミングにおいて後述する5c3
05の処理が実行されることにより得られている。
Next, feedback output FO2 is sent to this address A2.
is added as a modulation input to obtain a new address AMZ (513°2). The feedback output Fo2 is
5c3, which will be described later in the previous interwoven timing
This is obtained by executing the process in step 05.

さらに、アドレスAM2(位相)に対応する正弦波の値
が計算される。実際には、制御データ兼波形用ROM2
12に正弦波データが記憶されており、上記アドレスA
 H2でその正弦波データをチーフル引きすることによ
り得られる( S 1303)。
Furthermore, the value of the sine wave corresponding to address AM2 (phase) is calculated. Actually, control data and waveform ROM2
The sine wave data is stored at 12, and the above address A
It is obtained by subtracting the sine wave data with H2 (S1303).

続いて、上記正弦波データにエンベロープ値E2が乗算
され出力02が得られる(S13゜4)。
Subsequently, the sine wave data is multiplied by the envelope value E2 to obtain an output 02 (S13°4).

この後、この出力02にフィードバック・レベルFL2
が乗算されフィードハック出力FO2が得られる( S
 1305)。この出力FO2は、本実施例の場合、次
回のインタラブドタイミングにおけるオペレータ2(O
F2)への入力とされる。
After this, the feedback level FL2 is applied to this output 02.
is multiplied and the feed hack output FO2 is obtained (S
1305). In this embodiment, this output FO2 is the operator 2 (O
F2).

また、02にモジュレーション・レベルML2が乗算さ
れてモジュレーション出力M O2が得うれる(S13
゜6)。このモジュレーション出力Mo2は、オペレー
タ1(OPI)への変調入力になる。
Furthermore, modulation output M O2 is obtained by multiplying 02 by modulation level ML2 (S13
゜6). This modulation output Mo2 becomes a modulation input to operator 1 (OPI).

つぎに、オペレータ1(OPI)の処理に移る。この処
理は、フィードバック出力による変調入力が無い他は、
殆ど上述のオペレータ2の場合と同しである。
Next, the process moves to operator 1 (OPI). This process has the following features, except that there is no modulation input due to feedback output.
This is almost the same as the case of Operator 2 described above.

まず、オペレータIの現在アドレスAIにピッチデータ
P1が加算され(S13o7)、この値に上述のモジュ
レーション出力Mo2が加算されて新たなアドレスA旧
が得られる(S13011)。
First, pitch data P1 is added to the current address AI of operator I (S13o7), and the above-mentioned modulation output Mo2 is added to this value to obtain a new address A old (S13011).

つぎに、このアドレスAイ、(位相)に対応する正弦波
の値が制御データ兼波形用ROM212から読み出され
て(SI3o9)、これにエンベロープ値E+が乗算さ
れ(SI310)、出力Oとされる。
Next, the value of the sine wave corresponding to this address A, (phase) is read from the control data/waveform ROM 212 (SI3o9), multiplied by the envelope value E+ (SI310), and output O. Ru.

それに続く、出力OへのL/RレベルLev1、 p/
fレベレベev2の乗算(S1311.31312)、
それにより得られたその発音チャネルの最終出力0の、
フラグFの内容に基づく左バッファBL又は右バッファ
BRへの累算動作(31313〜S 1316)は、第
10図のPCM方式でのS +o+o〜S 1015の
処理動作と全く同様である。
Subsequently, the L/R level Lev1 to the output O, p/
Multiplication of f level level ev2 (S1311.31312),
The resulting final output 0 of that sound channel,
The accumulation operation (31313 to S1316) to the left buffer BL or right buffer BR based on the contents of the flag F is exactly the same as the processing operation of S+o+o to S1015 in the PCM system in FIG.

以上で1発音チャネル分のFM変調処理を終了する。This completes the FM modulation process for one sound generation channel.

TM     による     その1つぎに、TM変
調方式による音源処理について説明する。
By TM Next, sound source processing using the TM modulation method will be explained.

まず、TM変調方式の原理について説明する。First, the principle of the TM modulation method will be explained.

前述のFM変調方式は、 e−A−sin (ωct+I(t)−sinω1It
)なる演算式を基本する。ただし、ここで、ωc1は搬
送波位相角(搬送信号) 、sinω、Lは変調波位相
角(変調信号)、およびI(t)は変調指数である。
The above FM modulation method is e-A-sin (ωct+I(t)-sinω1It
) is the basic calculation formula. However, here, ωc1 is the carrier wave phase angle (carrier signal), sinω, L is the modulated wave phase angle (modulated signal), and I(t) is the modulation index.

これに対し、本実施例でTM変調方式と呼ぶ位相変調方
式は、 e =A−fr (fc(t)+I(t) ・sinω
m+、)なる演算式を基本とする。ここで、h(t)は
三角波関数であり、各位相角の領域毎につぎのような関
数で定義される(ただし、ωは入力)。
On the other hand, in the phase modulation method called TM modulation method in this embodiment, e = A-fr (fc(t)+I(t) ・sinω
The basic calculation formula is m+, ). Here, h(t) is a triangular wave function, and is defined by the following function for each phase angle region (however, ω is an input).

1丁(ω)−2/π ・ ω ・・(領域二〇≦ω≦π/2) f□(ω)=−1+2/π(3π/2−ω)・・(領域
:π/2≦ω≦3π/2) b(ω)=−1+2/π(ω−3π/2)・・(領域=
3π/2≦ω≦2π) また、feは変形サイン波と呼ばれ、各位相角の領域毎
に、異なるサイン波形データの記憶されている制御デー
タ兼波形用ROM212(第2図)を、搬送位相角ωc
t  でアクセスして得られる搬送信号生成関数である
。各位相角の領域毎のfcは、つぎのように定義される
1 block (ω)-2/π ・ω ・・(Area 2〇≦ω≦π/2) f□(ω)=−1+2/π(3π/2−ω)・・(Area: π/2≦ ω≦3π/2) b(ω)=-1+2/π(ω-3π/2)...(Area=
3π/2≦ω≦2π) In addition, fe is called a modified sine wave, and a control data/waveform ROM 212 (Fig. 2) storing different sine waveform data is carried for each phase angle region. phase angle ωc
This is the carrier signal generation function obtained by accessing at t. fc for each region of each phase angle is defined as follows.

fc(t) = π/2 sinωct・・ (領域:
0≦ωL≦π/2) fc(t)−π−π/2  si口ω、t・・ (領域
:π≦ωt≦3π/2) fc(t)−2π+ W/2 sinωCt・・ (領
域: 3π/2≦ωct≦2π)(ただしnは整数) TM変調方式では、上述の如き関数fc(t)で生成さ
れる搬送信号に、変調信号sinω社を変調指数1 (
t)で示される割合で加算して得た加算信号により、前
述の三角波関数が変調される。これにより、変調指数I
 (t)の値がOであれば正弦波を生成することができ
、I (t)の値を大きくしてゆけば非常に深く変調さ
れた波形を生成することができる。
fc(t) = π/2 sinωct・・(area:
0≦ωL≦π/2) fc(t)−π−π/2 sinω, t・・ (area: π≦ωt≦3π/2) fc(t)−2π+ W/2 sinωCt・・ (area : 3π/2≦ωct≦2π) (where n is an integer) In the TM modulation method, the modulation signal sinω is added to the carrier signal generated by the function fc(t) as described above with a modulation index of 1 (
The above-mentioned triangular wave function is modulated by the addition signal obtained by adding at the rate shown by t). This allows the modulation index I
If the value of (t) is O, a sine wave can be generated, and if the value of I (t) is increased, a very deeply modulated waveform can be generated.

ここで、変調信号sinω訝の代わりに様々な信号を用
いることができ、以下に述べるように、前回演算時の自
分のオペレータ出力を一定のフィードバックレヘルでフ
ィードバックさせたり、他のオペレータの出力を入力さ
せたりすることができる。
Here, various signals can be used instead of the modulation signal sinω, and as described below, the operator's output from the previous calculation can be fed back at a certain feedback level, or the output of another operator can be input. You can also do so.

このような原理のTM変調方式による音源処理を、第1
4図(a)の動作フローチャートを用いて説明する。こ
の場合も、第13回のFM変調方式の場合と同様、2オ
ペレータで音源処理を行う場合の例であり、処理のアル
ゴリズムは第14図ら)で示される。また、フロー中の
各変数は、RAM206(第2図)上の第7図(a)の
いずれかの発音チャネル領域に記憶される第9図のテー
ブルlの1Mフォーマットの各データである。
The sound source processing using the TM modulation method based on this principle is
This will be explained using the operation flowchart shown in FIG. 4(a). In this case, as in the case of the 13th FM modulation method, this is an example in which sound source processing is performed by two operators, and the processing algorithm is shown in FIG. 14 et al.). Further, each variable in the flow is each data in the 1M format of table 1 in FIG. 9, which is stored in one of the sound generation channel areas in FIG. 7(a) on the RAM 206 (FIG. 2).

最初に、モジュレータであるオペレータ2 (OF2)
の処理が行われる。ピッチ処理については、PCM方式
のように補間が行われないので、整数アドレスA2のみ
である。
First, the modulator Operator 2 (OF2)
processing is performed. Regarding pitch processing, unlike the PCM method, interpolation is not performed, so only the integer address A2 is used.

まず、現在アドレスA2にピッチデータP2が加算され
る(Sz。1)。
First, pitch data P2 is added to current address A2 (Sz.1).

つぎに、変形サイン変換fcにより、上記アドレスA2
(位相)に対応する変形サイン波が外部メモIJ 11
6 (第1図)から読み出され、搬送信号が0□として
生成される( S +aoz)。
Next, by the modified sine conversion fc, the above address A2
The modified sine wave corresponding to (phase) is the external memo IJ 11
6 (FIG. 1), and a carrier signal is generated as 0□ (S + aoz).

続いて、搬送信号である上述の02に、変調信号として
フィードバック出力FO2(31406)が加算され、
新たなアドレスが得られて02とされる(S+4o3)
。フィードバック出力F。2は、前回のインクラブドタ
イミングにおいて後述するS Idolsの処理が実行
されることにより得られている。
Next, the feedback output FO2 (31406) is added as a modulation signal to the above-mentioned carrier signal 02,
A new address is obtained and set to 02 (S+4o3)
. Feedback output F. 2 is obtained by executing S Idols processing, which will be described later, at the previous included timing.

そして、上述の加算アドレス02に対応する三角波の値
が計算される。実際には、制御データ兼波形用ROM2
12(第2図)に前述した三角波データが記憶されてお
り、上記ア)パレス02でその三角波データをテーブル
引きすることにより得られる(Sxaoa)。
Then, the value of the triangular wave corresponding to the above-mentioned addition address 02 is calculated. Actually, control data and waveform ROM2
12 (FIG. 2) stores the above-mentioned triangular wave data, and can be obtained by looking up the triangular wave data in a table in the a) palace 02 (Sxaoa).

続いて、上記三角波データにエンベロープ値E2が乗算
され出力02が得られる( S 1405)。
Subsequently, the triangular wave data is multiplied by the envelope value E2 to obtain an output 02 (S1405).

この後、この出力02にフィードバンク・レベルFL2
が乗算されフィードバック出力FO2が得られる( S
 1407)。この出力FO2は、本実施例の場合、次
回のインタラブドタイミングにおけるオペレータ2(O
F2)への入力とされる。
After this, feed bank level FL2 is applied to this output 02.
is multiplied and the feedback output FO2 is obtained (S
1407). In this embodiment, this output FO2 is the operator 2 (O
F2).

また、02にモジュレーション・レベルM L 2 カ
乗算されてモジュレーション出力Mo2が得られる(S
e4゜7)。このモジュレーション出力Mo2は、オペ
レータ1(DPI)への変調入力になる。
Furthermore, 02 is multiplied by the modulation level M L 2 to obtain the modulation output Mo2 (S
e4゜7). This modulation output Mo2 becomes a modulation input to operator 1 (DPI).

つぎに、オペレータ1(OPI)の処理に移る。この処
理は、フィードバック出力による変調入力が無い他は、
殆ど上述のオペレータ2の場合と同しである。
Next, the process moves to operator 1 (OPI). This process has the following features, except that there is no modulation input due to feedback output.
This is almost the same as the case of Operator 2 described above.

まず、オペレータlの現在アドレスA、にビシチデータ
P1が加入され(S1408)、得られた値に対して前
述の変形サイン変換が行われて搬送信号が0.として得
られる( S +4ov)。
First, the bit data P1 is added to the current address A of operator l (S1408), and the above-mentioned modified sine conversion is performed on the obtained value, so that the carrier signal becomes 0. (S +4ov).

つぎに、このO+ に上述のモジュレーション出力M。Next, the above-mentioned modulation output M is added to this O+.

2が加算されて新たな01とされ(S141゜)、この
値0.が三角波変換され(SI411) 、さらにエン
ベロープ値E、が乗算されて出力OIが得られる(SI
J+2)。
2 is added to create a new 01 (S141°), and this value 0. is converted into a triangular wave (SI411), and further multiplied by the envelope value E to obtain the output OI (SI411).
J+2).

Eが乗算され(SI116) 、新たなサンプルデータ
それに続く、出力0へのL/RレベルLev1、p/f
レヘレベeν2の乗算(S□、3、S□、4)、それに
より得られたその発音チャネルの最終出力0の、フラグ
Fの内容に基づく左ハンファBL又は右バッファBRへ
の累算動作(Se4ts〜31418)は、第10回の
PCM方式でのS +o+o−S 1ot5の処理動作
と全く同様である。
E is multiplied (SI116) and the new sample data is then output to output 0 at L/R level Lev1, p/f.
Multiplication of level level eν2 (S□, 3, S□, 4), and accumulation operation (Se4ts ~31418) is exactly the same as the processing operation of S+o+o-S 1ot5 in the 10th PCM method.

以上で1発音チャネル分のTM変調処理を終了する。This completes the TM modulation process for one sound generation channel.

ここまでの説明により、PCM、DPCM、FM、TM
という4つの方式による音源処理を説明した。この中で
FMとTMの2方式は変調方式で、上述の例では第13
図(b)、第14図(b)に示すアルゴリズムに基づく
2オペレータによる処理につき説明したが、実際に演奏
時の音源処理では、オペレータの数がより多くアルゴリ
ズムがより複雑であってもよい。
With the explanation so far, PCM, DPCM, FM, TM
We have explained sound source processing using four methods. Among these, FM and TM are two modulation methods, and in the above example, the 13th
Although the processing by two operators based on the algorithm shown in FIG. 14(b) and FIG. 14(b) has been described, in actual sound source processing during performance, the number of operators may be larger and the algorithm may be more complex.

キー  ・  キー つぎムこ、実際の電子楽器を演奏する場合において、各
発音チャネルに音色が割り当てられ、それに基づいて生
成された楽音信号が、ステレオの左チャネル及び右チャ
ネルに振り分けられて発音される処理の具体的動作につ
き説明する。この処理は、第5図(a)のメイン動作フ
ローチャートの機能キー処理(S5゜3)、鍵盤キー処
理S 505及び発音処理3509の処理動作として実
現される。
When playing an actual electronic musical instrument, a tone is assigned to each sound channel, and the musical tone signal generated based on that tone is distributed to the stereo left channel and right channel to be sounded. The specific operation of the process will be explained. This processing is realized as the processing operations of function key processing (S5.3), keyboard key processing S505, and sound generation processing 3509 in the main operation flowchart of FIG. 5(a).

前述の発音チャネル毎に行われる音源処理に先だって、
マイクロコンピュータ101の入力ボート210(第2
回参照)を介して例えば電子楽器の操作パネル上に接続
される第1図の機能キー103又は鍵盤102での操作
に基づき、RAM206(第2図参照λ上の各発音チャ
矛ル領域(第7図(a)参照)に、制御データ兼波形用
ROM212(第2図参照)から読み出された音色パラ
メータが、前述した各種音源方式のデータフォーマット
(第9図参照)で設定される。そして、鍵盤102での
操作状態に基づいて、各発音チャネルで生成された楽音
信号がステレオの左チャネル及び右チャネルに振り分け
られ、発音される。
Prior to the sound source processing that is performed for each sound channel as described above,
Input boat 210 (second
Based on the operation on the function keys 103 or the keyboard 102 shown in FIG. 1, which are connected to the operation panel of the electronic musical instrument via the 7(a)), the timbre parameters read from the control data/waveform ROM 212 (see FIG. 2) are set in the data formats of the various sound source systems described above (see FIG. 9). Based on the operating state of the keyboard 102, musical tone signals generated in each sound generation channel are distributed to a stereo left channel and a right channel, and are sounded.

まず、第15図(a)は、機能キー103の一部の配置
例を示した図である。同図では、機能キー103の一部
が音色指定スイッチとして実現され、演奏者はAグルー
プの「ピアノJ、[ギクーJ、・・・  「琴」の音色
、Bグループの「チューμ」「クラリネット」、・・・
  「チエ口」の音色、Cグループの「バイオリン」、
「バンジョー」、・・・  「ハーモニカ」の音色を選
択することができる。そして、Aグループの音色が選択
された場合は前述したDPCM方式又はTM方式により
第5図(C)の音源処理が行われ、Bグループの音色が
選択された場合は前述したPCM方式により音源処理が
行われ、Cグループの音色が選択された場合は前述した
FM方式により音源処理が行われる。
First, FIG. 15(a) is a diagram showing an example of the arrangement of part of the function keys 103. As shown in FIG. In the figure, a part of the function keys 103 is realized as a tone specifying switch, and the performer selects the tones of ``Piano J, [Giku J, ... ``Koto'' of group A, ``Chu μ'' and ``clarinet'' of group B. ",...
The tone of "Chieguchi", the "violin" of Group C,
You can select the tone of "banjo", ... "harmonica". If a tone from group A is selected, the sound source processing shown in FIG. is performed, and if a C group tone color is selected, sound source processing is performed using the above-mentioned FM method.

上述の機能を実現するために、制御データ兼波形用RO
M212(第2図参照)には、第16図に示されるよう
なデータ構成で各種音色パラメータが記憶されている。
In order to realize the above functions, RO for control data and waveform
M212 (see FIG. 2) stores various timbre parameters in a data structure as shown in FIG. 16.

すなわち、第15図(a)の各音色指定スイッチに対応
する楽器毎に、Aグループでは、DPCM方式とTM方
式の両方の音源方式による音色パラメータが記憶され、
ている。なお、各々はさらにpL、fL、pR,fRの
4&11の音色パラメータに分割されているが、これら
については後述する。また、Bグループでは、各楽器毎
に、PCM方式による音色パラメータが記憶されている
。更に、Cグループでは、各楽器毎に、FM方式による
音色パラメータが記憶されている。
That is, for each instrument corresponding to each timbre designation switch in FIG. 15(a), in group A, timbre parameters based on both the DPCM system and the TM system are stored,
ing. Each of these parameters is further divided into 4 & 11 timbre parameters of pL, fL, pR, and fR, which will be described later. Furthermore, in group B, tone parameters based on the PCM method are stored for each musical instrument. Furthermore, in group C, tone parameters based on the FM method are stored for each musical instrument.

ここで、それぞれの音色パラメータの組は、第9図の各
種音源方式のデータフォーマットで記憶されている。
Here, each timbre parameter set is stored in the data format of the various sound source systems shown in FIG.

更に、本実施例では、ステレオの左チャネルと右チャネ
ルとで異々る音色で楽音を発音でき、同時に、鍵盤10
2での鍵の押鍵速度に対応する強弱を表すピアノ記号p
とフォルテ記号fとで異なる音色で楽音を発音でき、そ
れぞれの中間的な音色の出力も可能となっている。
Furthermore, in this embodiment, musical tones can be produced with different tones in the stereo left channel and right channel, and at the same time, the keyboard 10
Piano symbol p representing the strength corresponding to the key pressing speed in 2.
It is possible to produce musical tones with different tones between the forte symbol f and the forte symbol f, and it is also possible to output tones intermediate between the two.

この機能を実現するために、制御データ兼波形用ROM
21.2(第2図参照)に記憶される第16図の音色パ
ラメータのデータ構成においでは、各音源方式毎に、p
L、fL、pR,fRの4Miの音色パラメータが記憶
されている。pLは、ピアノ記号p用で、かつ、左チャ
ネル用の音色パラメータである。fLは、フォルテ記号
f用で、がっ、左チャネル用の音色パラメータである。
In order to realize this function, a ROM for control data and waveform
In the data structure of the timbre parameters in Figure 16 stored in 21.2 (see Figure 2), p
4Mi timbre parameters of L, fL, pR, and fR are stored. pL is a tone parameter for the piano symbol p and for the left channel. fL is for the forte symbol f, and is a timbre parameter for the left channel.

PRは、ピアノ記号p用で、かつ、右チヤネル用の音色
パラメータである。fRは、フォルテ記号f用で、かつ
、右チヤネル用の音色パラメータである。
PR is a tone parameter for the piano symbol p and for the right channel. fR is a timbre parameter for the forte symbol f and for the right channel.

第16図の音色パラメータを使用して、各発音チャネル
に音色が割り当てられ、それ番こ基づいで生成された楽
音信号が、ステレオの左チャネル及び右チャネルに振り
分けられて発音される処理の具体的動作につき順次説明
してゆく。
A specific example of the process in which a tone is assigned to each sound generation channel using the tone parameters in Figure 16, and the musical tone signal generated based on that number is distributed to the stereo left channel and right channel and generated. The operations will be explained step by step.

まず、第17図は、第5図(a)のメイン動作フローチ
中−トにおけるs 5o30機能キー処理の動作フロー
チャートの一部であり、第15図(a)の音色指定スイ
ッチ群に対する処理の動作フローチャートである。
First, FIG. 17 is a part of the operation flowchart of the s5o30 function key processing in the middle of the main operation flow chart of FIG. It is a flowchart.

始めに、第15図(a)の音色指定スイッチに変化が生
じたか否かが判定される(S1701)。変化が生じず
判定がNOなら特別な処理は行わない。
First, it is determined whether or not there has been a change in the tone color designation switch shown in FIG. 15(a) (S1701). If no change occurs and the determination is NO, no special processing is performed.

音色指定スイッチに変化が生じ317゜1の判定がY、
ESとなった場合、次に、Cグループの音色が指定され
たか否かが判定される( S 1702)。
There is a change in the tone designation switch and the judgment of 317°1 is Y.
If it is ES, then it is determined whether a C group tone has been designated (S1702).

Cグループの音色が指定された場合には、制御データ兼
波形用ROM212(第2図)に、第16図の如く記憶
されているCグループの指定された楽器に対応するFM
方式による音色パラメータが、RAM206(第2図)
上の各発音チャネル領域(第7図(a)参N)に設定さ
れる(S+□。3)。
When the C group tone is specified, the FM corresponding to the specified instrument of the C group stored in the control data/waveform ROM 212 (FIG. 2) as shown in FIG.
The tone parameters according to the method are stored in the RAM 206 (Figure 2).
It is set (S+□.3) in each of the upper sound generation channel areas (see N in FIG. 7(a)).

すなわち、まず、各発音チャネル領域の先頭領域S(第
9図参照)にFM方式を示す音源方式Noが設定される
。つづいて、各発音チャネル領域の第2番目以降の領域
に現在指定されている音色に対応する各種パラメータが
それぞれセットされる。
That is, first, a sound source system number indicating the FM system is set in the leading area S (see FIG. 9) of each sound generation channel area. Subsequently, various parameters corresponding to the currently designated timbre are set in the second and subsequent areas of each sound generation channel area.

ここで、第1発音チャネル領域(c h 1 )には、
ピアノ記号p用で、かつ、左チャネル用の音色パラメー
タpLが記憶され、第2発音チャネル領域(ch2)に
は、ピアノ記号p用で、かつ、右チヤネル用の音色パラ
メータpRが記憶され、第3発音チャネル領域(ch3
)には、フォルテ記号f用で、かつ、左チャネル用の音
色パラメータfLが記憶され、第4発音チャネル領域(
ch4)には、フォルテ記号f用で、かつ、右チヤネル
用の音色パラメータfRが記憶される。更に、第5〜第
8発音チャネル領域(ch5〜ch8)には、各々、第
1〜第4発音チャネル領域の各々と同し音色パラメータ
が記憶される。
Here, in the first sound channel area (ch 1 ),
A timbre parameter pL for the piano symbol p and for the left channel is stored, and a timbre parameter pR for the piano symbol p and for the right channel is stored in the second sound generation channel area (ch2). 3 sound channel area (ch3
) stores the timbre parameter fL for the forte symbol f and for the left channel, and the fourth sounding channel area (
ch4) stores a tone parameter fR for the forte symbol f and for the right channel. Further, the fifth to eighth sound generation channel areas (ch5 to ch8) respectively store the same tone parameters as those of the first to fourth sound generation channel areas.

このような音色パラメータの割り当てが行われた各発音
チャネルを使用することにより、本実施例では後述する
ように、1つの押鍵操作に対して、第1〜第4発音チャ
ネルの4チヤネル、又は、第5〜第8発音チャネルの4
チヤネルのいずれか4チヤネルに同時に発音指示がなさ
れ、4チヤネルで1つの楽音信号が生成される。すなわ
ち、同時発音可能な発音数は2音ということになる。
By using each sound generation channel to which timbre parameters have been assigned in this way, in this embodiment, as will be described later, one key press operation can be performed using four channels, the first to fourth sound generation channels, or , 4 of the 5th to 8th pronunciation channels
A sound generation instruction is given to any four channels simultaneously, and one musical tone signal is generated by the four channels. In other words, the number of notes that can be produced simultaneously is two.

一方、Cグループの音色が指定されず、5I702の判
定がNoとなった場合は、Bグループの音色が指定され
たか否かが判定される(S+)o4)。
On the other hand, if the timbre of the C group is not designated and the determination in 5I702 is No, it is determined whether the timbre of the B group is designated (S+)o4).

Bグループの音色が指定された場合には、制御データ兼
波形用ROM212に第16図の如く記憶されているB
グループの指定された楽器に対応するPCM方式による
音色パラメータが、RAM206上の各発音チャネル領
域(第7図(a)参照)に設定される(S+□。5)。
When the B group tone is specified, the B group stored in the control data/waveform ROM 212 as shown in FIG.
Tone parameters based on the PCM method corresponding to the designated instruments of the group are set in each sound generation channel area (see FIG. 7(a)) on the RAM 206 (S+□.5).

すなわち、まず、各発音チャネル領域の先頭領域S(第
9図参照)にPCM方式を示す音源方式No、が設定さ
れる。つづいて、各発音チャネル領域の第2番目以降の
領域に現在指定されている音色に対応する各種パラメー
タがそれぞれセットされる。この場合において、第1〜
第4発音チャネル領域及び第5〜第8発音チャネル領域
には、Cグループの音色が指定された場合(S 170
3)と同様に、pL、pR,fL、fRの各音色パラメ
ータが記憶される。
That is, first, the sound source system number indicating the PCM system is set in the leading area S (see FIG. 9) of each sound generation channel area. Subsequently, various parameters corresponding to the currently designated timbre are set in the second and subsequent areas of each sound generation channel area. In this case, the first to
When C group tones are specified in the fourth sound channel area and the fifth to eighth sound channel areas (S170
Similarly to 3), the tone parameters pL, pR, fL, and fR are stored.

Bグループの音色も指定されず、S 1704の判定が
NOとなった場合、すなわちAグループの音色が指定さ
れた場合には、Aグループの音色パラメータのRAM2
06上の各発音チャネル領域への設定は機能キー処理で
は行われず、そのまま第17図のフロ一部分を終了する
。Aグループの音色パラメータのRAM206上の各発
音チャネル領域への設定は、次に説明する鍵盤キー処理
において行われる。
If the tone of group B is not specified and the determination in S1704 is NO, that is, if the tone of group A is specified, the tone parameters of group A are stored in RAM2.
The settings for each sound generation channel area above 06 are not performed by function key processing, and the flow part of FIG. 17 is ended as it is. Setting of the tone color parameters of the A group to each sound generation channel area on the RAM 206 is performed in the keyboard key processing described below.

続いて、実際の電子楽器を演奏する場合における第5図
(a)のメイン動作フローチャートの鍵盤キー処理(3
505)の具体的動作につき説明する。
Next, the keyboard key processing (3) of the main operation flowchart in FIG. 5(a) when playing an actual electronic musical instrument
505) will be explained.

ます、押鍵時の鍵盤キー処理の第1の実施例につき説明
する。
First, a first embodiment of keyboard key processing when a key is pressed will be described.

押鍵時の鍵盤キー処理の第1の実施例においては、始め
に、現在Aグループの音色が指定されているか否かが判
別される(31so+)。
In the first embodiment of the keyboard key processing when a key is pressed, first, it is determined whether or not a tone of group A is currently designated (31so+).

Aグループの音色が指定されている場合、前述したよう
に、Aグループの音色パラメータの各発音チャネルへの
割り当てはまだ行われていないため、その処理が行われ
る。この場合、鍵盤102の鍵が押鍵された場合の押鍵
速度すなわちベロシティにより、各発音チャネルへ設定
される音源方式が自動的番こ切り換えられる。この場合
、ベロシティの値として、M I D I  (Mus
ical InstrumentDidital In
terface)規格の最大値の127の1/2の64
を境にして、押鍵された鍵のベロシティの値が64以上
の速い押鍵操作の場合にDPCM方式が、また、ベロシ
ティの値が64以下の遅い押鍵操作の場合にTM方弐が
割り当てられる。
If the timbre of the A group is specified, as described above, the timbre parameters of the A group have not yet been assigned to each sound generation channel, so that processing is performed. In this case, the sound source system set for each sound generation channel is automatically switched depending on the speed at which keys on the keyboard 102 are pressed, that is, the velocity. In this case, M I D I (Mus
ical Instrument Digital In
64, which is 1/2 of the maximum value of the standard (127)
The DPCM method is used for fast key presses with a velocity value of 64 or more, and the TM method is assigned for slow key presses with a velocity value of 64 or less. It will be done.

すなわち、S 11102において、第5図(a)のメ
イン動作フ・ローチャートにおける3 504の鍵盤キ
ー取り込み処理において「押鍵」と判別された鍵のへロ
シティが、64以上であるか否かが判定される。
That is, in S11102, it is determined whether or not the herocity of the key determined to be a "pressed key" in the keyboard key import process of 3504 in the main operation flowchart of FIG. 5(a) is 64 or more. It will be judged.

なお、このベロシティの値64はMIDI規格のmp(
メゾピアノ)に相当する。
Note that this velocity value of 64 is based on the MIDI standard mp (
equivalent to a mezzo piano).

ベロシティの値が64以上でSIB。2の判定がYES
の場合は、制御データ兼波形用ROM212(第2図)
に第16図の如く記憶されているAグループの指定され
た楽器に対応する音色パラメータのうちDPCM方式に
よる音色パラメータが、RAM206(第2図)上の各
発音チャネル領域(第7図(a)参照)に設定される(
S18゜3)。すなわち、まず各発音チャネル領域の先
頭領域S(第9図参照)にDPCM方式を示す音源方式
Noが設定される。つづいて、各発音チャネル領域の第
2番目以降の領域に現在指定されている音色に対応する
各種パラメータがそれぞれセットされる。この場合にお
いて、第1〜第4発音チャネル領域及び第5〜第8発音
チャネル領域には、Cグループの音色が指定された場合
(第17図517oz)と同様に、pL、PR’、fL
、fRの各音色パラメータが記憶される。
SIB if the velocity value is 64 or higher. Decision 2 is YES
In this case, control data and waveform ROM 212 (Figure 2)
Among the tone parameters corresponding to the designated instruments of the A group stored as shown in FIG. reference) is set to (
S18°3). That is, first, a sound source system number indicating the DPCM system is set in the leading area S (see FIG. 9) of each sound generation channel area. Subsequently, various parameters corresponding to the currently designated timbre are set in the second and subsequent areas of each sound generation channel area. In this case, the 1st to 4th sound channel areas and the 5th to 8th sound channel areas have pL, PR', fL, as in the case where C group tones are specified (517oz in Figure 17).
, fR are stored.

ヘロシティの値が64より小さく5IliO2の判定が
NOの場合は、制御データ兼波形用ROM212に第1
6図の如く記憶されているAグループの指定された楽器
に対応する音色パラメータのうちTM方式による音色パ
ラメータが、RAM206上の各発音チャネル領域に設
定される(S+5o4)。
If the herocity value is less than 64 and the determination of 5IliO2 is NO, the first
Among the tone color parameters corresponding to the designated instruments of group A stored as shown in FIG. 6, the tone parameters according to the TM method are set in each sound generation channel area on the RAM 206 (S+5o4).

すなわち、まず各発音チャネル領域の先頭領域S(第9
図参照)にTM方式を示す音源方式No、が設定される
。つづいて、各発音チャネル領域の第2番目以降の領域
に現在指定されている音色に対応する各種パラメータが
それぞれセットされる。この場合も、第1〜第4発音チ
ャネル領域及び第5〜第8発音チャネル領域には、pL
、pR,fL、fRの各音色パラメータが記憶される。
That is, first, the first area S (9th
(see figure), the sound source method number indicating the TM method is set. Subsequently, various parameters corresponding to the currently designated timbre are set in the second and subsequent areas of each sound generation channel area. In this case as well, pL
, pR, fL, and fR are stored.

ここまでの処理により、音色パラメータの各発音チャネ
ルへの設定が完了する。続いて、第5図(C)の第1〜
第4発音チャネルの処理(S513 )又は第5〜第8
発音チャネルの処理で得られる、各4チャネル分の楽音
出力を混合して1つの楽音出力を得る場合の処理に移る
。これは、第18図の31[105〜311108によ
って示される。
Through the processing up to this point, setting of tone parameters to each sound generation channel is completed. Next, the steps 1 to 1 in FIG. 5(C)
Processing of the fourth sound generation channel (S513) or the fifth to eighth sound generation channels
Next, we move on to processing for mixing the musical tone outputs of four channels obtained by processing the sound generation channels to obtain one musical tone output. This is indicated by 31[105-311108 in FIG.

今、第5図(a)の鍵盤キー処理3505の一部の処理
として、例えば第1〜第4発音チャネルに発音指示がな
されたとする。前述した如く、第1発音チャネル領域に
は、ピアノ記号p用で、かつ、左チャネル用の音色パラ
メータpLが記憶され、第2発音チャネル領域には、ピ
アノ記号p用で、かつ、右チヤネル用の音色パラメータ
pRが記憶され、第3発音チャネル領域には、フォルテ
記号f用で、かつ、左チャネル用の音色パラメータfL
が記憶され、第4発音チャネル領域には、フォルテ記号
f用で、かつ、右チヤネル用の音色パラメータfRが記
憶されている。
Now, suppose that, as part of the keyboard key processing 3505 in FIG. 5A, a sound generation instruction is given to, for example, the first to fourth sound generation channels. As mentioned above, the first sounding channel area stores the tone parameters pL for the piano symbol p and for the left channel, and the second sounding channel area stores the tone parameters pL for the piano symbol p and for the right channel. The timbre parameter pR for the forte symbol f and the left channel timbre parameter fL is stored in the third sound channel area.
is stored, and the timbre parameter fR for the forte symbol f and for the right channel is stored in the fourth sound generation channel area.

本実施例では、まず、鍵盤102の鍵が押鍵された場合
の鍵盤上のポジションすなわち楽音の音域により、左チ
ャネルの音色の出力を大きくするか右チャネルの音色の
出力を大きくするかを、以下のようにして制御できる。
In this embodiment, first, depending on the position on the keyboard when a key on the keyboard 102 is pressed, that is, the range of the musical tone, whether to increase the output of the left channel tone or the right channel tone is determined. It can be controlled as follows.

今、SIl+05において、各発音チャネル毎に出力レ
ベルというものが、RAM206内の特には図示しない
レジスタに設定される。そして、例えば低い音域の鍵が
押鍵された場合には、左チャネル用の音色パラメータが
設定されている第1及び第3発音チャネルの出力レベル
を大きくし、右チヤネル用の音色パラメータが設定され
ている第2及び第4発音チャネルの出力レベルを小さく
し、がっ、両者は足して1になるような値になるように
設定が行われる。この場合のレベル設定は、第19図(
a)の特性に従って行われる。同図で、「Ljで示され
る特性は左チャネルの出力レベル直線、rR,で示され
る特性は右チャネルの出力レベル直線である。
Now, in SI1+05, the output level for each sound generation channel is set in a register (not shown) in the RAM 206. For example, when a key in a low range is pressed, the output level of the first and third sound generation channels, to which the tone parameters for the left channel are set, is increased, and the tone parameters for the right channel are set. The output levels of the second and fourth sound generation channels are reduced, and settings are made so that the two add up to a value of 1. The level settings in this case are shown in Figure 19 (
It is done according to the characteristics of a). In the figure, the characteristic indicated by "Lj" is the output level straight line for the left channel, and the characteristic indicated by "rR" is the output level straight line for the right channel.

続いて、51806において、以上のようにして設定さ
れた各発音チャネル対応の出力レベルが、RAM206
(第2図)上の各発音チャネル領域のL/Rレヘレベe
vl (第9図参照)に設定される。
Next, at 51806, the output level corresponding to each sound generation channel set as above is stored in the RAM 206.
(Figure 2) L/R level of each sound channel area above
vl (see Figure 9).

このように設定されたL/RレベルLevlが、前述の
各音源処理の第10図31010、第11図51117
、第13図31311又↓よ第14図31413におい
て、各発音チャネルの出力0に乗算されることにより、
押鍵された鍵の音域に応じた左チャネル寄り又は右チャ
ネル寄りの音色及び定位が得られる。
The L/R level Levl set in this way is 31010 in FIG. 10 and 51117 in FIG. 11 for each sound source process described above.
, 31311 in Fig. 13 and 31413 in Fig. 14, by multiplying the output 0 of each sound generation channel,
It is possible to obtain a tone and localization closer to the left channel or the right channel depending on the range of the pressed key.

上述の左右チャネルの定位に加えて、本実施例では、鍵
盤102の鍵が押鍵された場合の押鍵速度すなわちヘロ
シティにより、ピアノ記号p用の音色の出力を大きくす
るかフォルテ記号f用の音色の出力を大きくするか、以
下のようにして制御できる。
In addition to the above-mentioned localization of the left and right channels, in this embodiment, the output of the tone for the piano symbol p is increased or the output of the tone for the forte symbol You can increase the tone output or control it as follows.

例えば押鍵速度が速い場合には、S Il+(+7にお
いで、ピアノ記号p用の音色パラメータが設定されてい
る第1及び第2発音チャネルの出力レベルを大きくし、
フォルテ記号f用の音色パラメータが設定されている第
3及び第4発音チャネルの出力レベルを小さくし、かつ
、両者は足して1になるような値になるように設定が行
われる。この場合のレベル設定は、第19図(b)の特
性に従って行われる。同図で、’PJで示される特性は
ピアノ記号p用の音色の出力レベル直線、「f」で示さ
れる特性はフォルテ記号f用の音色の出力レベル直線で
ある。
For example, if the key pressing speed is fast, increase the output level of the first and second sound generation channels in which the tone parameters for the piano symbol p are set at S Il+(+7,
Settings are made such that the output levels of the third and fourth sound generation channels, in which the tone color parameters for the forte symbol f are set, are made small, and the sum of the two becomes 1. Level setting in this case is performed according to the characteristics shown in FIG. 19(b). In the figure, the characteristic indicated by 'PJ' is the output level straight line of the tone for the piano symbol p, and the characteristic indicated by "f" is the output level straight line of the tone for the forte symbol f.

続いて、311108において、以上のようにして設定
された各発音チャネル対応の出力レベルが、RAM20
6(第2回)上の各発音チャネル領域のp/fレベレベ
ev2 (第9図参照)に設定される。
Next, at 311108, the output level corresponding to each sound generation channel set as above is stored in the RAM 20.
6 (second time) The p/f level of each sound generation channel area is set to level ev2 (see FIG. 9).

このように設定されたp/f レベルLev2が、前述
の各音源処理の第1O図S +o++、第11図311
111、第13図3131□又は第14図Sxxにおい
て、各発音チャネルの出力Oに乗算されることにより、
押鍵速度に応じたピアノ記号p寄り又はフォルテ記号f
寄りの音色が得られる。
The p/f level Lev2 set in this way is shown in FIG. 1O S +o++ and FIG.
111, 3131□ in Fig. 13 or Sxx in Fig. 14, by multiplying the output O of each sound generation channel,
Piano symbol p or forte symbol f depending on key pressing speed
You can get a closer tone.

ここまでの処理動作は、第5〜第8発音チャネル領域に
対しても全く同様に行われる。
The processing operations up to this point are performed in exactly the same manner for the fifth to eighth sound generation channel areas.

以上の押鍵キー処理の第1の実施例による音色設定とレ
ベル設定の具体例を、第24図(a)に示す。
A specific example of tone color setting and level setting according to the first embodiment of the above key press key processing is shown in FIG. 24(a).

同図の例では、第15図(a)のAグループのPIAN
O音色指定キーが押された場合である。そして、第1〜
第4発音チャネルへ同時にアサインが行われた鍵の押鍵
状態は、ベロシティが64以下(値20)のためTM方
式が割り当てられ、かつ、第19図(b)の特性に基づ
いて、ピアノ記号P用の音色パラメータが設定されてい
る第1及び第2発音チャネルのp/f レベルLev2
が0.8426というように大きな値となり、フォルテ
記号f用の音色パラメータが設定されている第3及び第
4発音チャオルのp/fレベレベev2が0.1574
というように小さな値となり、かつ、両者の和はlであ
る。そして、キーコードの示す音階はG3(キーコード
番号19、第15図(a)参照)で低域寄りのため、第
19図(a)の特性に基づいて、左チャネル用の音色パ
ラメータが設定されている第1及び第3発音チャネルの
L/Rレベレベevlが0.6985というように大き
な値となり、右チヤネル用の音色パラメータが設定され
ている第2及び第4発音チャネルのL/Rレベノ叶ev
lが0.3015といように小さな値となり、かつ、両
者の和は1である。
In the example in the same figure, the PIAN of group A in FIG. 15(a)
This is the case when the O tone color designation key is pressed. And the first ~
Since the keys simultaneously assigned to the fourth sound channel have a velocity of 64 or less (value 20), the TM method is assigned, and based on the characteristics shown in FIG. 19(b), the piano symbol p/f level Lev2 of the first and second sound generation channels where tone parameters for P are set
becomes a large value such as 0.8426, and the p/f level ev2 of the 3rd and 4th pronunciation chaor, where the tone parameter for the forte symbol f is set, is 0.1574.
, and the sum of both is l. Since the scale indicated by the key code is G3 (key code number 19, see Figure 15 (a)) and is closer to the low range, the tone parameters for the left channel are set based on the characteristics shown in Figure 19 (a). The L/R level level evl of the 1st and 3rd sounding channel that is set is a large value such as 0.6985, and the L/R level level of the 2nd and 4th sounding channel where the tone parameter for the right channel is set. Kanae ev
l is a small value such as 0.3015, and the sum of both is 1.

これに対して、第5〜第8発音チャネルへ同時にアサイ
ンが行われた鍵の押鍵状態は、第1〜第4発音チャネル
へのアサインが行われた鍵の押鍵状態とは正反対で、ベ
ロシティは大きく (値100)、音階は高い(C7、
キーコード番号60、第15図(b)参照)。従って、
第24図(a)のように、第5〜第8発音チャネルには
大きいベロシティに対応するDPCM方式が割り当てら
れ、かつ、第19図(ト))の特性に基づいて、ピアノ
記号p用の音色パラメータが設定されている第1及び第
2発音チャネルのp/f レベルLev2が0.212
6というように小さな値となり、フォルテ記号f用の音
色パラメータが設定されている第3及び第4発音チャネ
ルのp/fレベノ叶e■2が0.7874というように
大きな値となり、一方、第19図(a)の特性に基づい
て、左チャネル用の音色パラメータが設定されている第
1及び第3発音チャネルのL/RレベルLevlが0.
0477というように小さな値となり、右チヤネル用の
音色パラメータが設定されている第2及び第4発音チャ
ネルのL/RレベルLevlが0.9523といように
小さな値となる。
On the other hand, the pressed state of the keys that are simultaneously assigned to the 5th to 8th sound generation channels is the exact opposite of the pressed state of the keys that are assigned to the 1st to 4th sound generation channels. The velocity is high (value 100) and the scale is high (C7,
Key code number 60 (see FIG. 15(b)). Therefore,
As shown in FIG. 24(a), the DPCM method corresponding to large velocity is assigned to the fifth to eighth sounding channels, and based on the characteristics shown in FIG. The p/f level Lev2 of the first and second sound generation channels for which tone parameters are set is 0.212
6, and the p/f level e■2 of the 3rd and 4th pronunciation channels, where the tone parameters for the forte symbol f are set, have a large value of 0.7874. Based on the characteristics shown in FIG. 19(a), the L/R level Levl of the first and third sound generation channels for which the timbre parameters for the left channel are set is 0.
The L/R level Levl of the second and fourth sound generation channels to which the tone parameters for the right channel are set becomes a small value such as 0.9523.

続いて、押鍵時の鍵盤キー処理の第2の実施例につき説
明する。
Next, a second embodiment of keyboard key processing when a key is pressed will be described.

押鍵時の鍵盤キー処理の第2の実施例では、上述の第1
の実施例の場合とは逆に、現在Aグループの音色が指定
されていると判別(SZ□。1)され、Aグループの音
色パラメータの各発音チャネルへの割り当てが行われる
場合に、鍵盤102上で押鍵された鍵の音域により、各
発音チャネルへ設定される音源方式が自動的に切り換え
られる。
In the second embodiment of keyboard key processing when a key is pressed, the above-mentioned first
Contrary to the case of the above embodiment, when it is determined that the tone of group A is currently specified (SZ□.1) and the tone parameters of group A are assigned to each sound generation channel, the keyboard 102 The sound source system set for each sound generation channel is automatically switched depending on the range of the key pressed above.

すなわち、32202において、第5[D(a)のメイ
ン動作フローチャートにおける3 504の鍵盤キー取
り込み処理において「押鍵」と判別された鍵のキーコー
ドの値が、31以下であるか否か(第15図[有])参
照)が判定される。
That is, in 32202, whether or not the value of the key code of the key that was determined to be a "pressed key" in the keyboard key import process of 3504 in the main operation flowchart of 5th [D(a)] is 31 or less. (See Figure 15) is determined.

キーコードの値が31以下で82□。2の判定がYES
の場合は、制御データ兼波形用ROM212(第2図)
に第16図の如く記憶されているAグループの指定され
た楽器に対応する音色パラメータのうちDPCM方式に
よる音色パラメータが、RAM206(第2図)上の各
発音チャネル領域(第7図(a)参照)に設定される(
 32203)。これは、第18図の第1の実施例にお
ける3 180:lの処理と同しである。
82□ if the key code value is 31 or less. Decision 2 is YES
In this case, control data and waveform ROM 212 (Figure 2)
Among the tone parameters corresponding to the designated instruments of the A group stored as shown in FIG. reference) is set to (
32203). This is the same as the 3 180:l processing in the first embodiment shown in FIG.

キーコードの値が31より太き(32202の判定がN
Oの場合は、制御データ兼波形用ROM212に第16
図の如く記憶されているAグループの指定された楽器に
対応する音色パラメータのうちTM方式による音色パラ
メータが、RAM206上の各発音チャネル領域に設定
される( 32204 )。
The value of the key code is thicker than 31 (determination of 32202 is N
In the case of O, the 16th
Among the tone color parameters corresponding to the designated instruments of the A group stored as shown in the figure, the tone color parameters according to the TM method are set in each sound generation channel area on the RAM 206 (32204).

これは、第18図の第1の実施例における3 1804
の処理と同じである。
This is 3 1804 in the first embodiment of FIG.
The process is the same as that of .

続いて、第5図(C)の第1〜第4発音チャネルの処理
(3513)又は第5〜第8発音チャネルの処理で得ら
れる、各4チャネル分の楽音出力を混合して1つの楽音
出力を得る場合の処理に移る。これは、第20図のS2
□。5〜s zzogによって示される。ここでは、第
18図の第1の実施例とは逆ムこ、鍵盤102での鍵の
押鍵速度すなわちベロシティにより、左チャネルの音色
の出力を大きくするか右チャネルの音色の出力を大きく
するかを制御し、押鍵された鍵のキーコードにより、ピ
アノ記号Pの音色の出力を大きくするかフォルテ記号f
の音色の出力を大きくするかを制御する。
Next, the musical tone outputs of each of the four channels obtained by the processing of the first to fourth sound generation channels (3513) or the processing of the fifth to eighth sound generation channels in FIG. 5(C) are mixed to produce one musical tone. Let's move on to the process for obtaining output. This is S2 in Figure 20.
□. 5 to indicated by szzog. Here, contrary to the first embodiment shown in FIG. 18, the output of the left channel tone is increased or the right channel tone output is increased depending on the pressing speed of the keys on the keyboard 102, that is, the velocity. The output of the tone of the piano symbol P is increased or the forte symbol f is controlled by the key code of the pressed key.
Controls whether to increase the tone output.

例えば、ベロシティの値が小さい(押鍵速度が遅い)場
合には、S 2205において、左チャネル用の音色パ
ラメータが設定されている第1及び第3発音チャふルの
出力レベルを大きくし、右チヤネル用の音色パラメータ
が設定されている第2及び第4発音チャネルの出力レベ
ルを小さくし、かつ、両者は足して1になるような値に
なるように設定が行われる。この場合のレベル設定は、
第23図(a)の特性に従って行われる。同図で、「L
」で示される特性は左チャネルの出力レベル直綿、rR
」で示される特性は右チャネルの出力レベル直線である
For example, if the velocity value is small (key pressing speed is slow), in S2205, the output level of the first and third sounding chaffle, to which the tone parameters for the left channel are set, is increased, and the right Settings are made such that the output levels of the second and fourth sound generation channels for which channel tone parameters are set are reduced, and that the sum of the two becomes 1. In this case, the level setting is
This is done according to the characteristics shown in FIG. 23(a). In the same figure, “L
” is the output level of the left channel, rR
The characteristic indicated by `` is a straight line in the output level of the right channel.

続いて、3220&において、以上のようにして設定さ
れた各発音チャネル対応の出力レベルが、RAM206
(第2図)上の各発音チャネル領域のL/Rレヘレベe
vl (第9図参照)に設定される。
Next, in the 3220&, the output level corresponding to each sound generation channel set as above is stored in the RAM 206.
(Figure 2) L/R level of each sound channel area above
vl (see Figure 9).

このように設定されたL/Rレヘレベevlが、前述の
各音源処理の第10図31010、第11図SII+7
、第13図5I311又は第14図31413において
、各発音チャネルの出力0に乗算されることにより、押
鍵速度すなわちベロシティの値に応した左チャネル寄り
又は右チャネル寄りの音色及び定位が得られる。
The L/R level level evl set in this way is 31010 in Fig. 10 and SII+7 in Fig. 11 of each sound source processing described above.
, 5I311 in FIG. 13 or 31413 in FIG. 14, by multiplying the output 0 of each sound generation channel, a timbre and localization closer to the left channel or right channel depending on the key depression speed, that is, the velocity value can be obtained.

一方、例えば押鍵された鍵の音域が低いすなわちキーコ
ードの値が小さい場合には、S2□o7において、ピア
ノ記号p用の音色パラメータが設定されている第1及び
第2発音チャネルの出力レベルヲ大きくし、フォルテ記
号f用の音色パラメータが設定されている第3及び第4
発音チャネルの出力レベルを小さくし、かつ、両者は足
して1になるような値になるように設定が行われる。こ
の場合のレベル設定は、第23図(b)の特性に従って
行われる。同図で、’PJで示される特性はピアノ記号
p用の音色の出力レベル直線、rfJで示される特性は
フォルテ記号f用の音色の出力レベル直線である。
On the other hand, for example, if the pitch range of the pressed key is low, that is, the value of the key code is small, in S2□o7 the output levels of the first and second sound generation channels to which the tone parameters for the piano symbol p are set are changed. and the third and fourth, where the timbre parameters for the forte symbol f are set.
Settings are made such that the output level of the sound generation channel is reduced and the two add up to a value of 1. Level setting in this case is performed according to the characteristics shown in FIG. 23(b). In the same figure, the characteristic indicated by 'PJ is the output level straight line of the tone for the piano symbol p, and the characteristic indicated by rfJ is the output level straight line of the tone for the forte symbol f.

続いて、S 22011において、以上のようにして設
定された各発音チャネル対応の出力レベルが、RAM2
06(第2図)上の各発音チャネル領域のp/fレヘレ
ベev2 (第9図参照)に設定される。
Next, in S22011, the output level corresponding to each sound generation channel set as above is stored in RAM2.
The p/f level level ev2 (see FIG. 9) of each sound generation channel area on 06 (FIG. 2) is set.

このように設定されたp/f レベルLev2が、前述
の各音源処理の第10図S 1o++、第11図311
18、第13図SI:I+2又は第14図5I414に
おいて、各発音チャネルの出力Oに乗算されることによ
り、押鍵された鍵の音域に応したピアノ記号p寄り又は
フォルテ記号f寄りの音色が得られる。
The p/f level Lev2 set in this way corresponds to S 1o++ in FIG. 10 and 311 in FIG. 11 for each sound source process described above.
18. In Fig. 13 SI:I+2 or Fig. 14 5I414, by multiplying the output O of each sound generation channel, the tone closer to the piano symbol p or the forte symbol f according to the range of the pressed key is created. can get.

ここまでの処理動作は、第5〜第8発音チャネル領域に
対しても全く同様に行われる。
The processing operations up to this point are performed in exactly the same manner for the fifth to eighth sound generation channel areas.

以上の押鍵キー処理の第2の実施例による音色設定とレ
ベル設定の具体例を、第24図(b)に示す。
A specific example of tone color setting and level setting according to the second embodiment of the above key press key processing is shown in FIG. 24(b).

同図の例では、第15図(a)のAグループのPIAN
O音色指定キーが押された場合である。そして、第1〜
第4発音チャネルへ同時にアサインが行われた鍵の押鍵
状態は、音階が03(キーコード番号19)と低いため
DPCM方式が割り当てられ、かつ、第23図(b)の
特性に基づいて、ピアノ記号p用の音色パラメータが設
定されている第1及び第2発音チャネルのp/f レベ
ルLev2が0.6985というように大きな値となり
、フォルテ記号f用の音色パラメータが設定されている
第3及び第4発音チャネルのp/f レベルLev2が
0.3015というように小さな価となり、かつ、両者
の和は1である。そして、ベロシティの値は100で大
きい故、第23図(a)の特性に基づき、左チャネル用
の音色パラメータが設定されている第1及び第3発音チ
ャネルのL/Rレヘレベevlが0.2126というよ
うに小さな値となり、右チヤネル用の音色パラメータが
設定されている第2及び第4発音チャネルのL/Rレヘ
レベevlが0゜7874といように小さな値となり、
がっ、両者の和は1である。
In the example in the same figure, the PIAN of group A in FIG. 15(a)
This is the case when the O tone color designation key is pressed. And the first ~
The pressed state of the keys simultaneously assigned to the fourth sound generation channel is assigned the DPCM method because the scale is as low as 03 (key code number 19), and based on the characteristics shown in FIG. 23(b), The p/f level Lev2 of the first and second pronunciation channels has a large value such as 0.6985, and the timbre parameter for the forte symbol f has been set. and the p/f level Lev2 of the fourth sound generation channel has a small value of 0.3015, and the sum of both is 1. Since the velocity value is 100, which is large, the L/R level evl of the first and third sound generation channels, in which the timbre parameters for the left channel are set, is 0.2126 based on the characteristics shown in FIG. 23(a). The L/R level evl of the second and fourth sound generation channels to which the tone parameters for the right channel are set becomes a small value such as 0°7874,
Well, the sum of both is 1.

これに対して、第5〜第8発音チャネルへ同時にアサイ
ンが行われた鍵の押鍵状態は、第1〜第4発音チャネル
へのアサインが行われた鍵の押鍵状態とは正反対で、音
域は高<(C7、キーコード番号60、第15図(b)
参照)、ベロシティは小さい((!100)。従って、
第24図(b)のように、第5〜第8発音チャネルには
高い音域に対応するTM方式が割り当てられ、かつ、第
23図(b)の特性に基づいて、ピアノ記号P用の音色
パラメータが設定されている第1及び第2発音チャネル
のρ/fレベレベev2が0.0477というように小
さな値となり、フォルテ記号f用の音色パラメータが設
定されている第3及び第4発音チャネルのp/f レベ
ルLev2が0.9523というように大きな値となり
、一方、第23図(a)の特性に基づいて、左チャネル
用の音色パラメータが設定されている第1及び第3発音
チャネルのL/Rレベレベev 1が0.8426とい
うように大きな値となり、右チヤネル用の音色パラメー
タが設定されている第2及び第4発音チャネルのL/R
レヘレベevlが0.1574といように小さな値とな
る。
On the other hand, the pressed state of the keys that are simultaneously assigned to the 5th to 8th sound generation channels is the exact opposite of the pressed state of the keys that are assigned to the 1st to 4th sound generation channels. The range is high < (C7, key code number 60, Figure 15 (b)
), the velocity is small ((!100). Therefore,
As shown in FIG. 24(b), the TM method corresponding to the high range is assigned to the fifth to eighth sound generation channels, and the tone for piano symbol P is assigned based on the characteristics shown in FIG. 23(b). The ρ/f level ev2 of the first and second sound generation channels where the parameters are set becomes a small value such as 0.0477, and the ρ/f level ev2 of the third and fourth sound generation channels where the tone parameters for forte symbol f are set. The p/f level Lev2 becomes a large value such as 0.9523, and on the other hand, the L of the first and third sound generation channels where the tone parameters for the left channel are set based on the characteristics shown in FIG. 23(a). /R level Level ev 1 is a large value such as 0.8426, and the L/R of the second and fourth sound generation channels where the tone parameters for the right channel are set.
The level level evl becomes a small value such as 0.1574.

以上、第1又は第2の実施例として示される押鍵時の鍵
盤キー処理によって、各発音チャネル毎にレベル制御が
行われた後に、前述した第10図31012〜S 10
15、第11図31119〜51122、第13図31
313〜S 1316又は第14図S +aI5〜31
18の各処理動作により、奇数番号の発音チャネルの出
力0は左ハソファBLに、偶数番号の発音チャネルの出
力Oは右バッファBRに累算される。
As described above, after the level control is performed for each sound generation channel by the keyboard key processing at the time of key depression shown in the first or second embodiment, the above-mentioned steps 31012 to S10 in FIG. 10 are performed.
15, Figure 11 31119-51122, Figure 13 31
313~S 1316 or Figure 14 S +aI5~31
18, the output 0 of the odd-numbered sounding channels is accumulated in the left buffer BL, and the output O of the even-numbered sounding channels is accumulated in the right buffer BR.

そして、第5図(C) S 5ea 〜S 521 の
8発音チャネル分の音源処理が終了し、第5図(1))
のインクラブド処理から第5図(a)のメインフローの
処理に戻った後、第5図(a)35f+9の発音処理に
おいて、第2図のLeft  D/A変換器部213及
びRight D/A変換器部214への出力処理が行
われる。この処理の一部を第20図に示す。すなわち、
左ハソファBL及び右バッファBRのそれぞれに対して
、特には図示しない各種エフェクト処理(例えばLFO
エフェクトの処理等)が施された後、左/N7フyBL
の値がLeft  D/A変換器部213(第2図)内
のラッチ3o1(第3図)にラッチされる( S 21
1111 )。また、右バッファBRの値がRight
 D/A変換器部214(第2図)内のラッチ301(
第3図)にラッチされる(Szooz)。
Then, the sound source processing for 8 sound generation channels of S 5ea to S 521 is completed (FIG. 5 (1)) in FIG. 5(C).
After returning from the included processing to the processing of the main flow of FIG. 5(a), in the sound generation processing of 35f+9 of FIG. Output processing to the device section 214 is performed. A part of this process is shown in FIG. That is,
Various effect processing (for example, LFO
After processing (effect processing, etc.), left/N7FyBL
The value of is latched in the latch 3o1 (Fig. 3) in the Left D/A converter section 213 (Fig. 2) (S21
1111). Also, the value of the right buffer BR is
The latch 301 (in the D/A converter section 214 (Fig. 2)
(Fig. 3) is latched (Szooz).

これ以後は、第2図のインクラブド制御部203からイ
ンタラブド信号が出力されるタイミングで、ラッチ30
1にラッチされた楽音信号がラッチ302を介してD/
A変換器303に出力され、ここでアナログ楽音信号に
変換されて、第1図のローパスフィルタ105及びアン
プ106を介してスピーカ107(ともにステレオ構成
を有する)から放音される。
After this, the latch 30
The musical tone signal latched at 1 is passed through the latch 302 to D/
The signal is output to the A converter 303, where it is converted into an analog tone signal, and the sound is emitted from the speaker 107 (both having a stereo configuration) via the low-pass filter 105 and amplifier 106 shown in FIG.

つぎに、鍵盤102の押鍵されていた鍵が離鍵された場
合は、第5図(a)のメイン動作フローチャートにおけ
るs sosの鍵盤キー処理の一部の動作処理として、
第21図の動作フローチャートが実行される。すなわち
、第5図(a)の鍵盤キー取り込み処理S 504で「
離鍵」と判別された鍵がアサインされていた第1〜第4
発音チャネル又は第5〜第8発音チャネルの4発音チャ
ネルに対応するRAM206(第2図)上の発音チャネ
ル領域(第7図(a)参照)の必要な音色パラメータが
初期化される。但し、音色パラメータの各データ自体は
消去されずにそのまま各発音チャネル領域に残っている
。以後、それら4発音チャネルに対して、再び押鍵によ
るアサインが行われたときに、前述した第18図の押鍵
時の鍵盤キー処理が実行されることになる。
Next, when the pressed key of the keyboard 102 is released, as part of the operation process of the keyboard key process of s sos in the main operation flowchart of FIG. 5(a),
The operation flowchart of FIG. 21 is executed. That is, in the keyboard key import processing S504 of FIG. 5(a), "
1st to 4th keys to which keys determined to be released are assigned.
Necessary tone parameters in the sound generation channel area (see FIG. 7(a)) on the RAM 206 (FIG. 2) corresponding to the sound generation channels or the four sound generation channels of the fifth to eighth sound generation channels are initialized. However, the timbre parameter data itself remains in each sound generation channel area without being erased. Thereafter, when the four sound generation channels are assigned again by pressing a key, the above-described keyboard key processing at the time of key pressing shown in FIG. 18 will be executed.

皿■尖施班■唐且 以上説明した本発明の実施例では、各発音チャネルに設
定される音色パラメータは、強弱記号のピアノ記号p及
びフォルテ記号fに対応するものであったが、これに限
られるものではなく、−i的な意味の第1の音色、第2
の音色といったものでもよい。また、2種類には限られ
ず、ピアニッシモ記号pp、ピアノ記号p、フォルテ記
号f、フォルテッシモ記号ff、或いは、第1〜第4の
音色というように、複数であればよい。
In the embodiment of the present invention described above, the timbre parameters set for each sound channel correspond to the piano symbol p and forte symbol f of the dynamic symbol. It is not limited to the first tone, the second tone in the -i sense.
It could also be something like the tone of. Further, the number is not limited to two types, but may be a plurality of types, such as pianissimo symbol pp, piano symbol p, forte symbol f, fortissimo symbol ff, or the first to fourth tones.

また、このような音色の混合レベルを、ベロシティ及び
音域情報によって制御するようにしているが、そのほか
にもアフタータッチを始めとする様々な演奏情報により
制御するようにしてもよい。
Further, although the timbre mixing level is controlled using velocity and range information, it may also be controlled using various performance information such as aftertouch.

また、D/A変換出力は、2チヤネルのステレオ出力と
したが、それ以外の、例えば4チヤネルのステレオ出力
としてもよい。
Further, although the D/A conversion output is a two-channel stereo output, it may be other than that, for example, a four-channel stereo output.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、専用の音源回路は全く必要とせずに、
汎用のプロセッサ構成とすることが可能となる。このた
め、楽音波形発生製置全体の回路規模を大幅に小型化す
ることができ、LSI化した場合等においても通常のマ
イクロプロセッサの製造技術と同じでよく、チップの歩
留りも向上するため、製造コストを大幅ムこ低減させる
ことが可能となる。なお、楽音信号出力手段は簡単なう
・ノチ回路で構成できるため、この部分を付加したこと
による製造コストの増加はほとんどない。
According to the present invention, there is no need for a dedicated sound source circuit;
It becomes possible to have a general-purpose processor configuration. As a result, the overall circuit scale of the musical waveform generator and equipment can be significantly reduced, and even when integrated into an LSI, the manufacturing technology is the same as that used for ordinary microprocessors, and the chip yield is improved. It becomes possible to significantly reduce costs. Note that since the musical tone signal output means can be constructed from a simple round-circuit circuit, there is almost no increase in manufacturing costs due to the addition of this part.

また、音源方式を変更したい場合、ポリフォニック数を
変更したい場合等において、プログラム記憶手段に記憶
させる音源処理プログラムを変更するだけで対処でき、
新たな楽音波形全体装置の開発コストを大幅に減少させ
ることが可能となり、ユーザに対しても例えばROMカ
ード等によって新たな音源方式を捷供することが可能と
なる。
In addition, when you want to change the sound source method, the polyphonic number, etc., you can simply change the sound source processing program stored in the program storage means.
It becomes possible to significantly reduce the development cost of a new overall musical waveform device, and it also becomes possible to provide users with a new sound source system using, for example, a ROM card.

この場合、演奏情操処理プログラムと音源処理プログラ
ムとの間のデータのリンクをデータ記憶手段上の楽音生
成データを介して行うというデータアーキテクチャと、
演奏情報処理プログラムに対して所定時間間隔で音源処
理プログラムを実行するというプログラムアーキテクチ
ャを実現したことにより、両プロセッサ間の同期をとる
ための処理が必要なくなり、プログラムを大幅に簡略化
することが可能となる。
In this case, a data architecture that links data between the performance emotion processing program and the sound source processing program via musical sound generation data on the data storage means;
By realizing a program architecture in which the sound source processing program is executed at predetermined time intervals in relation to the performance information processing program, there is no need for processing to synchronize both processors, making it possible to greatly simplify the program. becomes.

更に、音源方式による音源処理の処理時間の変化を楽音
信号出方手段によって全て吸収することができるため、
楽音信号をD/A変換器等へ出力するための複雑なタイ
ミング制御プログラムが必要なくなるという効果も生ま
れる。
Furthermore, since any changes in the processing time of sound source processing depending on the sound source method can be absorbed by the musical sound signal output means,
Another effect is that a complicated timing control program for outputting musical tone signals to a D/A converter or the like is not required.

また、特に本発明では、出力グループ別にそこに含まれ
る発音チャネルで生成された楽音信号を混合して、各出
力グループ対応の楽音信号出方を生成することにより、
各発音チャネルの楽音信号を各出力グループに簡単に振
り分けて出方することが可能となる。
In particular, in the present invention, musical tone signals generated by sound generation channels included in each output group are mixed to generate a musical tone signal output corresponding to each output group.
It becomes possible to easily distribute and output musical tone signals of each sound generation channel to each output group.

加えて、各出力グループの各楽音信号出力間の出力比率
を、演奏情報に基づいて制御するようにすれば、例えば
キーコード又はベロシティの値等の演奏情報により、各
出力グループ間で定位を移動させる等の楽音効果を付加
させることも、容易に可能となる。
In addition, if the output ratio between musical tone signal outputs of each output group is controlled based on performance information, the stereo location can be moved between each output group based on performance information such as key chord or velocity values. It is also possible to easily add musical sound effects such as

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明による実施例の全体構成図、第2図は
、マイクロコンピュータの内部構成図、第3図(a)は
、従来のD/A変換器部の構成図、第3図[有])は、
本実施例によるD/A変換器部の構成図、 第4図は、D/A変換におけるタイミングチャート、 第5図(a)〜(C)は19本実施例の全体動作フロー
チャート、 第6図は、メイン動作フローチャートとインクラブド処
理との関係を示す概念図、 第7図(a)、(b)は、RAMのデータ構成を示した
図、 第8図は、各発音チャネルの音源処理方式を選択すると
きの概念図、 第9図は、RAM上の音源方式別のデータフォーマット
の構成図、 第10図は、PCM方式による音源処理の動作フローチ
ャート、 第」1図は、DPCM方式による音源処理の動作フロー
チャート、 第12図(a)、(b)は、差分値りと現在アドレスA
vを用いて補間値Xoを求める場合の原理説明図、第1
3図(a)は、FM方式による音源処理の動作フローチ
ャート、 第13図(ハ)は、FM方式による音源処理のアルゴリ
ズムを示す図、 第14図(a)は、TM方式による音源処理の動作フロ
ーチャート、 第14図0))は、TM方式による音源処理のアルゴリ
ズムを示す図、 第15図は、スイッチ部の構成例を示した図、第16図
は、音色パラメータのデータ構成を示した図、 第17図は、機能キー処理の動作フローチャート、 第18図は、押鍵時の鍵盤キー処理の第1の実施例の動
作フローチャート、 第19図は、押鍵時の鍵盤キー処理の第1の実施例にお
ける音階・ヘロシティとレベルとの関係を示した図、 第20図は、発音処理の動作フローチャート、第21図
は、離鍵時の鍵盤キー処理の実施例の動作フローチャー
ト、 第22図は、押鍵時の鍵盤キー処理の第2の実施例の動
作フローチャート、 第23図(a)、(b)、押鍵時の鍵盤キー処理の第2
の実施例におけるヘワシティ・音階とレベルとの関係を
示した図、 第24図(a)、(b)は、押鍵時の鍵盤キー処理の具
体的動作例を示した図である。 101・・・マイクロコンピュータ、 102・・・鍵盤、 103・・・機能キー、 104・・・スイッチ部、 105・・・ローパスフィルタ、 106・・・アンプ、 301. 303 ・ ・スピーカ、 ・電源回路、 ・制御卸用ROM、 ・ROMアドレスデコーダ、 ・インクラブド制御部、 ・RAMアドレス制御部、 ・ROMアドレス制御部、 ・RAM。 ・コマンド解析部、 ・ALU部、 ・乗算器、 ・入力ポート、 ・出力ボート、 ・制御データ兼波形用ROM、 −Left  D/A変換器部、 ・Right D/A変換器部、 02・・・ラッチ、 ・D/A変換器。 C戸D
FIG. 1 is an overall configuration diagram of an embodiment according to the present invention, FIG. 2 is an internal configuration diagram of a microcomputer, and FIG. 3(a) is a configuration diagram of a conventional D/A converter section. [Yes]) is
A configuration diagram of the D/A converter section according to the present embodiment. Fig. 4 is a timing chart in D/A conversion. Fig. 5 (a) to (C) are overall operation flowcharts of this embodiment. Fig. 6 is a conceptual diagram showing the relationship between the main operation flowchart and included processing, Figures 7(a) and (b) are diagrams showing the data structure of the RAM, and Figure 8 is a diagram showing the sound source processing method for each sound channel. Conceptual diagram for selection. Figure 9 is a configuration diagram of data formats for each sound source method on the RAM. Figure 10 is an operation flowchart of sound source processing using the PCM method. Figure 1 is a sound source processing using the DPCM method. The operation flowchart of FIG. 12 (a) and (b) shows the difference value and the current address A.
Principle explanatory diagram when calculating the interpolated value Xo using v, 1st
Figure 3 (a) is an operation flowchart of sound source processing using the FM method, Figure 13 (c) is a diagram showing an algorithm for sound source processing using the FM method, and Figure 14 (a) is an operation flowchart of sound source processing using the TM method. Flowchart, Fig. 14 0)) is a diagram showing the algorithm of sound source processing using the TM method, Fig. 15 is a diagram showing an example of the configuration of the switch section, and Fig. 16 is a diagram showing the data configuration of timbre parameters. , FIG. 17 is an operational flowchart of function key processing, FIG. 18 is an operational flowchart of the first embodiment of keyboard key processing when a key is pressed, and FIG. 19 is a first example of keyboard key processing when a key is pressed. FIG. 20 is an operation flowchart of the sound production process, FIG. 21 is an operation flowchart of the keyboard key processing example when a key is released, and FIG. 23(a) and 23(b) are operation flowcharts of the second embodiment of keyboard key processing when a key is pressed. FIGS.
FIGS. 24(a) and 24(b) are diagrams illustrating the relationship between heaviness, musical scale, and level in the embodiment of FIG. 101...Microcomputer, 102...Keyboard, 103...Function key, 104...Switch section, 105...Low pass filter, 106...Amplifier, 301. 303 - Speaker, - Power supply circuit, - Control wholesale ROM, - ROM address decoder, - Included control section, - RAM address control section, - ROM address control section, - RAM.・Command analysis section, ・ALU section, ・Multiplier, ・Input port, ・Output port, ・Control data/waveform ROM, -Left D/A converter section, ・Right D/A converter section, 02...・Latch, ・D/A converter. C door D

Claims (1)

【特許請求の範囲】 1)演奏情報を処理するための演奏情報処理プログラム
と、楽音信号を得るための音源処理プログラムを記憶す
るプログラム記憶手段と、 前記プログラム記憶手段のアドレスを制御するアドレス
制御手段と、 発音チャネル毎に楽音信号を生成するために必要な楽音
生成データを記憶するデータ記憶手段と、演算処理手段
と、 前記アドレス制御手段、前記データ記憶手段及び前記演
算処理手段を制御しながら、前記プログラム記憶手段に
記憶された前記演奏情報処理プログラム又は前記音源処
理プログラムを実行する手段であり、通常時は前記演奏
情報処理プログラムを実行して前記データ記憶手段上の
対応する楽音生成データを制御し、所定時間間隔で前記
音源処理プログラムに制御を移してそれを実行し、その
終了後に再び前記演奏情報処理プログラムを実行する手
段であり、前記音源処理プログラムの実行時に、前記各
発音チャネル毎に、前記データ記憶手段上の楽音生成デ
ータに基づいて時分割処理を行って該各発音チャネルに
対応する楽音信号を生成し、該各発音チャネルを複数の
出力グループのうちのいずれかに対応させ、該各出力グ
ループ毎に、それに含まれる発音チャネルで生成された
楽音信号同士を混合して、該各出力グループの楽音信号
出力を生成するプログラム実行手段と、前記プログラム
実行手段が前記音源処理プログラムを実行して得られた
前記各出力グループ毎の楽音信号を保持し、該保持され
た各楽音信号を一定の出力時間間隔で出力する楽音信号
出力手段と、を有することを特徴とする楽音波形発生装
置。 2)前記プログラム実行手段は、前記所定時間間隔で割
り込み信号を発生する割り込み制御手段を含み、 該プログラム実行手段は、前記演奏情報処理プログラム
を実行中に、前記割り込み制御手段から前記割り込み信
号が発生したタイミングで前記演奏情報処理プログラム
を中断し、前記音源処理プログラムに制御を移してそれ
を実行し、その終了後に割り込みを解除して前記演奏情
報処理プログラムの実行を再開する、 ことを特徴とする請求項1記載の楽音波形発生装置。 3)前記複数の出力グループは、ステレオの各出力チャ
ネルに対応することを特徴とする請求項1又は2記載の
楽音波形発生装置。 4)前記プログラム実行手段は、前記各出力グループの
各楽音信号出力間の出力比率を、前記演奏情報に基づい
て制御することを特徴とする請求項1、2又は3記載の
楽音波形発生装置。 5)前記出力比率の制御に用いられる演奏情報は、音高
の範囲を示す情報であることを特徴とする請求項4記載
の楽音波形発生装置。 6)前記出力比率の制御に用いられる演奏情報は、演奏
操作時のタッチを示す情報であることを特徴とする請求
項4記載の楽音波形発生装置。
[Scope of Claims] 1) Program storage means for storing a performance information processing program for processing performance information and a sound source processing program for obtaining musical tone signals, and address control means for controlling the address of the program storage means. and a data storage means for storing musical tone generation data necessary for generating a musical tone signal for each sound generation channel; and an arithmetic processing means; while controlling the address control means, the data storage means, and the arithmetic processing means, A means for executing the performance information processing program or the sound source processing program stored in the program storage means, and normally executes the performance information processing program to control the corresponding musical sound generation data on the data storage means. The means transfers control to the sound source processing program at predetermined time intervals to execute it, and executes the performance information processing program again after the program is finished, and when the sound source processing program is executed, the control is executed for each of the sound generation channels. , performing time division processing based on the musical tone generation data on the data storage means to generate a musical tone signal corresponding to each of the sound generation channels, and making each sound generation channel correspond to one of a plurality of output groups; program execution means for generating a musical tone signal output for each output group by mixing musical tone signals generated by sound generation channels included in each output group; and a program execution means for generating a musical tone signal output for each output group; Musical sound waveform generation characterized by having a musical sound signal output means for holding musical sound signals for each of the output groups obtained by the execution and outputting each of the held musical sound signals at fixed output time intervals. Device. 2) The program execution means includes an interrupt control means that generates an interrupt signal at the predetermined time interval, and the program execution means is configured to generate the interrupt signal from the interrupt control means while executing the performance information processing program. The performance information processing program is interrupted at the timing when the performance information processing program is interrupted, control is transferred to and executed by the sound source processing program, and after the termination, the interruption is canceled and execution of the performance information processing program is resumed. The musical sound waveform generator according to claim 1. 3) The musical sound waveform generator according to claim 1 or 2, wherein the plurality of output groups correspond to each stereo output channel. 4) The musical sound waveform generator according to claim 1, wherein the program execution means controls an output ratio between musical tone signal outputs of each output group based on the performance information. 5) The musical sound waveform generator according to claim 4, wherein the performance information used for controlling the output ratio is information indicating a pitch range. 6) The musical sound waveform generating device according to claim 4, wherein the performance information used to control the output ratio is information indicating a touch during a performance operation.
JP2172199A 1990-06-29 1990-06-29 Musical sound wave generator Expired - Fee Related JP3027832B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2172199A JP3027832B2 (en) 1990-06-29 1990-06-29 Musical sound wave generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2172199A JP3027832B2 (en) 1990-06-29 1990-06-29 Musical sound wave generator

Publications (2)

Publication Number Publication Date
JPH0460697A true JPH0460697A (en) 1992-02-26
JP3027832B2 JP3027832B2 (en) 2000-04-04

Family

ID=15937422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2172199A Expired - Fee Related JP3027832B2 (en) 1990-06-29 1990-06-29 Musical sound wave generator

Country Status (1)

Country Link
JP (1) JP3027832B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5283386A (en) * 1991-08-30 1994-02-01 Casio Computer Co., Ltd. Musical-tone signal generating apparatus and musical-tone controlling apparatus including delay means and automatic reset means

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5283386A (en) * 1991-08-30 1994-02-01 Casio Computer Co., Ltd. Musical-tone signal generating apparatus and musical-tone controlling apparatus including delay means and automatic reset means

Also Published As

Publication number Publication date
JP3027832B2 (en) 2000-04-04

Similar Documents

Publication Publication Date Title
US5319151A (en) Data processing apparatus outputting waveform data in a certain interval
USRE30736E (en) Tone wave generator in electronic musical instrument
KR940005988B1 (en) Musical sound waveform generator
US4681007A (en) Sound generator for electronic musical instrument
JP2869573B2 (en) Musical sound wave generator
JPH0460697A (en) Musical sound waveform generator
JP3027831B2 (en) Musical sound wave generator
JP2869574B2 (en) Musical sound wave generator
Yun et al. Designing virtual instruments for computer music
Roads A conversation with james a. moorer
JPH0638192B2 (en) Musical sound generator
JP2797139B2 (en) Musical sound wave generator
KR100734772B1 (en) Implementation of multi-poly function Sound Generation Method including MIDI wave and Autolooping wave and time variance wave and original wave, which use block crossfading and phase modulation of memory address in Non-memory semiconductor
JP2529227Y2 (en) Electronic musical instrument
JP3035991B2 (en) Musical sound wave generator
Da Research on the trend and innovation of electronic music production
JP3010693B2 (en) Musical sound wave generator
JP2797363B2 (en) Electronic musical instrument
JP2972364B2 (en) Musical information processing apparatus and musical information processing method
Dashow The Dyad System (Parts Two and Three)
JPH04152393A (en) Musical tone generating device
Moorer C. Roads A Conversation with
JPH0462594B2 (en)
Riordan LANIAKEA FOR PIPA, HORN IN F, DOUBLE BASS, PIANO, AND LAPTOP: SOME CONSIDERATIONS AND ANALYSIS
JPH02188795A (en) Electronic musical instrument

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090204

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100204

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees