JP2580794C - - Google Patents

Info

Publication number
JP2580794C
JP2580794C JP2580794C JP 2580794 C JP2580794 C JP 2580794C JP 2580794 C JP2580794 C JP 2580794C
Authority
JP
Japan
Prior art keywords
tone
data
voice
sound source
edit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
Other languages
Japanese (ja)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Publication date

Links

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、単体の電子楽器や音源モジュール等として他の装置と組み合わせ
て使用される電子楽器に関し、特に、音源方式が異なる複数の音源を具備し、複
数のエレメント音色により1つの複合音色を構成し、各エレメント音色毎にそれ
に対応する部分楽音信号を前記各音源に適宜割り当てて発生するようにしたもの
に関する。 〔従来の技術〕 音源方式が異なる複数の音源回路を具えた楽音信号発生装置の従来例としては
特開昭59−168493号に示されたものがある。そこにおいては、自然楽器
音等からサンプリングした複数周期波形を記憶したメモリを使用し、このメモリ
から波形を読み出すことにより楽音信号を発生するいわばPCM音源と、周波数
変調演算等の波形演算を実行することにより楽音信号を発生するいわば波形演算
系音源とを具備し、押鍵に応じて両音源から発生した波形信号を加算することに
より最終的な楽音信号を合成するようにした電子楽器が開示されている。 〔発明が解決しようとする課題〕 しかし、上述のような従来の電子楽器は、異なる2つの音源で発生した2つの
楽音波形信号を単に加算合成するだけのものであったため、音作りに制限があっ
た。 この発明は、音源方式が異なる複数の音源を具備するものにおいて、複数のエ
レメント音色により1つの複合音色を構成し、各エレメント音色毎にそれに対応
する部分楽音信号を前記各音源に適宜割り当てて発生するようにすることにより
、異なる複数の音源を様々な組合せで活用し、音作りに広がりをもたせ、より複
雑かつ多様な音作りを可能にした楽音信号発生装置を提供しようとするものであ
る。また、そのような楽音信号発生装置において、音色データの変更若しくは設
定等 の編集作業に便ならしめるようにしようとするものである。 〔課題を解決するための手段〕 この発明に係る電子楽器は、互いに異なる音源方式で楽音信号を形成する複数
の音源手段であって、各音源手段が夫々複数の楽音発生チャンネルを有するもの
と、音色を選択する音色選択手段と、複数のエレメント音色により1つの複合音
色を構成し、各エレメント音色毎にそれに対応する部分楽音信号を前記どの音源
手段で発生すべきかを指示するエレメントタイプ情報及び各エレメント音色毎の
パラメータ情報を少なくとも発生するものであって、複数の前記複合音色に関し
て前記パラメータ情報及びエレメントタイプ情報を含む音色データをそれぞれ記
憶したデータメモリを含み、前記音色選択手段で選択された音色に対応して該デ
ータメモリの読出しに基づき前記エレメントタイプ情報及びパラメータ情報を発
生する音色パラメータ発生手段と、各エレメント音色毎の前記エレメントタイプ
情報に応じてそのエレメント音色に対応する前記パラメータ情報を、該エレメン
トタイプ情報が指示する前記音源手段に分配する分配手段と、複数の前記複合音
色のうち1つを選択して、その音色データの内容の変更若しくは設定を指示する
エディット指示手段と、このエディット指示手段で指示された複合音色に関する
前記音色データを前記データメモリから読み出して記憶するものであって、1つ
の複合音色を構成するエレメント音色の最大数よりも多くのエレメント音色に関
するパラメータ情報を記憶できる容量を持つエディット用記憶手段と、このエデ
ィット用記憶手段に記憶した音色データに対して変更若しくは設定を施すエディ
ット実行手段とを具備し、各音源手段では、分配されたパラメータ情報に対応す
るエレメント音色を持つ部分楽音信号をそれぞれの楽音発生チャンネルに割り当
てて発生し、これら各音源手段の各チャンネルで発生した部分楽音信号の組合せ
により前記選択された音色に相当する前記複合音色を持つ楽音信号を発生するよ
うにしたものである。 〔作 用〕 複数のエレメント音色により1つの複合音色を構成し、各エレメント音色毎に
それに対応する部分楽音信号をどの音源手段で発生すべきかをエレメントタイプ
情報により個別に指示することができる。従って、異なる音源方式からなる音源 手段を様々な組合せで活用して1つの複合音色を形成することができ、音作りに
広がりをもたせ、より複雑かつ多様な音作りが可能になる。 また、各音源手段がそれぞれ複数の楽音発生チャンネルを具備し、各チャンネ
ルで独立に楽音信号を発生するようになっているので、1つの音源手段の複数チ
ャンネルを利用して異なる複数のエレメント音色に対応する部分楽音信号を夫々
発生することができ、多様な形態で音作りを行うことができる。すなわち、複数
のエレメント音色のうちのいくつかを或る音源手段を用いて発生し、他のいくつ
かを別の音源手段を用いて発生することができるので、選択可能な各音色に対応
して最適かつ多様な組み合わせで楽音音色形成を行うことができると共に、各エ
レメント音色毎に最適な音源方式の音源手段を組み合わせて使用して、高品位な
複合音色を持つ楽音を発生することができる、という優れた効果を奏する。特に
、選択された1つの音色に対応して最適なエレメントタイプ情報とパラメータ情
報が発生されることにより、該選択音色に対応して最適な組み合わせて各音源手
段の各チャンネルを使い分けて使用することにより、これらの組合せに基づき選
択音色に最適な複合音色を持つ楽音を発生させることができる。 また、前記1つの複合音色における前記エレメント音色の1つに関して、その
パラメータ情報の内容の変更若しくは設定を指示することができ、指示されたエ
レメント音色に関する前記エレメントタイプ情報に応じて、前記各音源手段の音
源方式に適したパラメータ情報の内容の変更若しくは設定が行われるよう自動的
に制御される。従って、音色データの編集作業の際に、どのエレメント音色がど
の音源方式によるかを、いちいち指示する必要がなく、編集作業の操作性がよく
なる。 また、音色データの編集作業を行おうとする所望の複合音色の音色データをデ
ータメモリからエディット用記憶手段に記憶し、ここに記憶されている音色デー
タに対して変更、設定等のデータ編集を施すようにし、このエディット用記憶手
段の記憶容量を、1つの複合音色を構成するエレメント音色の最大数よりも多く
のエレメント音色に関するパラメータ情報を記憶できる容量として、余分に確保
しておくようにしたので、データ量の拡張等に備えることができ、編集作業の自
由度が向上する。 〔実施例〕 以下、添付図面を参照してこの発明の一実施例を詳細に説明しよう。 全体構成説明 第1図(a),(b),(c)はこの発明の一実施例に係る電子楽器の基本的
構成を機能ブロック図で示すものである。同図(a)は、互いに異なる音源方式
で楽音信号を形成する複数の音源手段1,2であって、各音源手段が夫々複数の
楽音発生チャンネルを有するものと、複数のエレメント音色により1つの複合音
色を構成し、各エレメント音色毎にそれに対応する部分楽音信号を前記どの音源
手段で発生すべきかを指示するエレメントタイプ情報及び各エレメント音色毎の
パラメータ情報を少なくとも発生する音色パラメータ発生手段3と、各エレメン
ト音色毎の前記エレメントタイプ情報に応じてそのエレメント音色に対応する前
記パラメータ情報を、該エレメントタイプ情報が指示する前記音源手段に分配す
る分配手段4とを具備し、各音源手段1,2では、分配されたパラメータ情報に
対応するエレメント音色を持つ部分楽音信号をそれぞれの楽音発生チャンネルに
割り当てて発生し、これら各音源手段の各チャンネルで発生した部分楽音信号の
組合せにより前記複合音色に対応する楽音信号を発生するようにした電子楽器の
基本構成例を示す。 同図(b)は、前記1つの複合音色における前記エレメント音色の1つに関し
て、そのパラメータ情報の内容の変更若しくは設定を指示するエディット指示手
段5と、このエディット指示手段により指示されたエレメント音色に関する前記
エレメントタイプ情報に応じて、前記各音源手段の音源方式に適したパラメータ
情報の内容の変更若しくは設定が行われるよう制御するエディット制御手段6と
を更に具えた電子楽器の基本構成例を示す。 同図(c)は、前記音色パラメータ発生手段3が、複数の前記複合音色に関し
て前記パラメータ情報及びエレメントタイプ情報を含む音色データをそれぞれ記
憶したデータメモリを含み、複数の前記複合音色のうち1つを選択して、その音
色データの内容の変更若しくは設定を指示するエディット指示手段5と、このエ
ディット指示手段で指示された複合音色に関する前記音色データを前記データメ
モリから読み出して記憶するエディット用記憶手段7と、このエディット用記憶 手段に記憶した音色データに対して変更若しくは設定を施すエディット実行手段
8とを更に具えた電子楽器の基本構成例を示す。 更に具体的な実施例は、以下、第2図以降の図を参照して説明される。 第2図はこの発明に係る電子楽器の一例を示すハード構成ブロック図であり、
この例では、中央処理ユニット(CPU)10、プログラム及びデータROM1
1、データ及びワーキングRAM12を含むマイクロコンピュータの制御の下で
各種処理が実行される。データ及びアドレスバス13を介して鍵盤回路14,操
作パネル15等その他各種回路がマイクロコンピュータに接続されている。 鍵盤回路14は、発生すべき楽音の音高を指定するための複数の鍵を具えた鍵
盤に対応して設けられており、該鍵盤の各鍵に対応するキースイッチを含む回路
である。この鍵盤回路14は各キースイッチのオン・オフを検出するキースキャ
ン回路を含んでいてもよいし、若しくは、キースキャンはマイクロコンピュータ
によって行なうようになっていてもよい。 操作パネル15は、音色、音量、音高、効果等を選択・設定・制御するための
各種操作子を含むものである。各種の選択・設定処理を行なうために表示部DP
Y及びファンクションスイッチ部FSWが設けられている。 演奏コントローラ16は、演奏中において楽音の音色、音量、音高等を制御す
るための操作子であり、例えば制御ホイールや制御ペダルあるいはブレスコント
ローラなどを含む。 トーンジェネレータ部TGは、2つの異なる音源回路、例えばPCM音源17
とFM音源18を含んでおり、鍵盤で押圧された鍵に対応する音高の楽音信号を
両音源17,18で夫々同時に発生することが可能である。各音源17,18は
それぞれN個及びM個の楽音発生チャンネルを有している。以下、この実施例で
は、N=M=16であるとし、各音源17,18ではそれぞれ16チャンネル時
分割で楽音信号の発生が可能であるとする。 鍵盤回路14におけるキーオン・キーオフの検出、操作パネル15における各
種操作子の操作状態の検出、演奏コントローラ16の操作状態の検出、及び押圧
鍵に対応する楽音の発音割当て処理等の各種処理がマイクロコンピュータの制御
のもとで行なわれ、必要なデータがバス13を介してトーンジェネレータ部TG に与えられる。トーンジェネレータ部TGでは与えられたデータに基づき楽音信
号を発生し、この楽音信号はサウンドシステム19を経由して空間的に発音され
る。 トーンジェネレータ部TGの一例説明 第3図を参照してトーンジェネレータ部TGの一例につき説明すると、PCM
音源17は各種の音色に対応する楽音波形をそれぞれ予め記憶した波形メモリ2
0を含んでおり、基本的には、発生すべき楽音の音高に対応して変化するアドレ
スデータに応じて該波形メモリ20から楽音波形サンプル値データを順次読み出
すことにより楽音信号を発生する「波形メモリ読み出し方式」からなる音源方式
を採用するものである。この場合、波形メモリ20に記憶する楽音波形は1周期
波形のみであってもよいが、複数周期波形である方が音質の向上が図れるので好
ましい。複数周期波形を波形メモリに記憶しこれを読み出す方式は、例えば特開
昭52ー121313号に示されたように発音開始から終了までの全波形を記憶
しこれを1回読み出す方式、あるいは特開昭58ー142396号に示されたよ
うにアタック部の複数周期波形と持続部の1又は複数周期波形を記憶し、アタッ
ク部の波形を1回読み出した後持続部の波形を繰返し読み出す方式、あるいは特
開昭60ー147793号に示されたように離散的にサンプリングした複数の波
形を記憶し、読み出すべき波形を時間的に順次切換えて指定し、指定された波形
を繰返し読み出す方式、など種々の方式が公知であり、これらを適宜採用してよ
い。この実施例では、例えばアタック部の複数周期波形を1回読み出した後持続
部の波形を繰返し読み出す方式を採用しているものと仮定する。 FM音源18は、楽音の音高に対応する所望の周波数で変化する位相角パラメ
ータデータとして所定の周波数変調演算を実行して楽音波形サンプル値データを
求める、いわゆるFM音源方式を採用するものである。 各音源17,18は、前述のように、それぞれ16チャンネル時分割で最大1
6個の楽音信号を発生することが可能であり、また、発生楽音信号に対して振幅
エンベロープを付与する周知の機能も具備しているものとする。 PCM音源17の各チャンネルに割当てられた鍵のキーコードKCと該鍵の押
鍵又は離鍵を示すキーオン信号KON、及び音色、音量、音高等を設定・制御す るための各種の制御データが、マイクロコンピュータからバス13を介してPC
M音源制御レジスタ21に与えられる。PCM音源17では、レジスタ21に記
憶されたこれらのデータに基づき、各チャンネルに割当てられた音の楽音信号を
それぞれ発生する。 同様に、FM音源18の各チャンネルに割当てられた鍵のキーコードKCと該
鍵の押鍵又は離鍵を示すキーオン信号KON、及び音色、音量、音高等を設定・
制御するための各種の制御データが、マイクロコンピュータからバス13を介し
てFM音源制御レジスタ22に与えられる。FM音源18では、レジスタ22に
記憶されたこれらのデータに基づき、各チャンネルに割当てられた音の楽音信号
をそれぞれ発生する。 周知のように、FM音源方式においては、基本的には、搬送波信号と変調波信
号をそれぞれ発生し、搬送波信号を変調波信号によって変調することにより、所
望のスペクトル構成を持つ楽音信号を合成する。従って、FM音源18において
は、搬送波関数と変調波関数を内部で発生することができるようになっている。 この実施例においては、FM音源18において変調波関数を内部で発生するこ
とができるのみならず、モジュレータ入力端子MDTを介して外部から変調波信
号を導入できるようにもなっており、PCM音源17で発生した楽音信号をこの
FM音源18のモジュレータ入力端子MDTに入力する構成となっている。モジ
ュレータ入力端子MDTに入力されたPCM音源17の出力楽音信号は、FM音
源18に内部において適宜レベル制御され、また、該PCM音源出力楽音信号を
変調波信号として使用するか否かが制御される。 混合回路23はPCM音源17で発生した楽音信号とFM音源18で発生した
楽音信号とを混合するためのものであり、その混合の制御は混合制御レジスタ2
4から与えられる制御データによって行なわれる。この混合制御データは、選択
された音色等に応じて、マイクロコンピュータからバス13を介して与えられる
。なお、この混合演算は加算に限らず、減算であってもよい。なお、PCM音源
17とFM音源18における16チャンネルの時分割タイミングは同期しており
、同じ押圧鍵に対応する楽音信号をPCM音源17とFM音源18において同時
に発生する場合は、PCM音源17とFM音源18において同じタイミングのチ
ャ ンネルに該押圧鍵に対応する楽音信号を割り当てるようにする。 混合回路23の出力は効果付与回路25に与えられ、リバーブ効果やパン(P
AN)効果など各種効果が必要に応じて付与される。効果付与を制御する制御デ
ータは、マイクロコンピュータからバス13を介して効果制御レジスタ26に与
えられ、これが効果付与回路25に与えられる。 効果付与回路25から出力された楽音信号は、ディジタル/アナログ変換器2
7に与えられ、アナログ信号に変換された後、サウンドシステム19に向けて送
出される。なお、チャンネル時分割状態を解除するために各チャンネルの楽音信
号をアキュムレートするアキュムレータが適宜設けられるが、特に図示しない。
このアキュムレータはディジタル/アナログ変換器27の前段、例えば混合回路
23の内部等、に設けるとよい。 FM音源の内部構成例説明 次に第4図を参照してFM音源18の内部構成の一例につき説明すると、この
例のFM音源18においては1音につき6個の演算ユニットOP1〜OP6を使
用してFM演算を行ない、楽音信号を合成する。各演算ユニットOP1〜OP6
間の接続態様を選択的に切り換えることにより、FM演算のアルゴリズムを選択
し、所望の音色の楽音合成を行なう。第4図の例では、ハード的には1個の演算
ユニットOPを具備し、これを6タイムスロットで時分割使用することにより6
個の演算ユニットOP1〜OP6として機能させている。 位相データ発生回路28は、各チャンネルに割当てられた鍵のキーコードKC
とキーオン信号KONを入力し、該キーコードKCに対応する位相データP1〜
P6を各演算ユニットOP1〜OP6に対応して1チャンネルにつき6タイムス
ロット時分割でかつ16チャンネル時分割で発生する。エンベロープ発生回路2
9はキーオン信号KONに基づき各演算ユニットOP1〜OP6に対応するエン
ベロープレベルデータEL1〜EL6を1チャンネルにつき6タイムスロット時
分割でかつ16チャンネル時分割で発生する。 選択された音色等に応じた種々のパラメータデータ若しくは制御データは、バ
ス13を介して制御レジスタ22(第3図)に与えられ、該制御レジスタ22か
らFM音源18内の各回路(位相データ発生回路28、エンベロープ発生回路2 9、演算ユニットOP、その他の回路)に対して、各演算ユニットOP1〜OP
6のタイムスロットに対応して時分割的に(及び必要に応じて各チャンネル毎に
時分割的に)、供給される。これらのパラメータにより、位相データP1〜P6
の係数を制御したり、エンベロープレベルデータEL1〜EL6の発生態様(つ
まりエンベロープ波形)を制御したり、FM演算の態様を制御する。例えば、演
算ユニットOP1〜OP6を複数系列に分けて並列的に配列し、各系列の出力を
加算するようにした接続態様が選択可能であるとすると、その加算系列数に応じ
て音量レベルを補正するためのレベル補正データLCがそのようなFM演算制御
パレメータの1つに含まれる。また、自己の演算ユニットの出力信号を変調波信
号としてセルフフィードバックする際のフィードバックレベルを設定するフィー
ドバックレベルデータFL1〜FL6もそのようなFM演算制御パラメータに含
まれる。また、各演算ユニットOP1〜OP6の接続態様を設定する制御信号も
そのようなFM演算制御パラメータに含まれる。更に、PCM音源17の楽音信
号を変調信号として各オペレータOP1〜OP6で使用する際にそのレベルを制
御する外部入力レベル制御データEXTLI〜EXTL6もそのようなFM演算
制御パラメータに含まれる。 演算ユニットOPは、入力された位相データP1〜P6を変調するための加算
器31と、正弦波のサンプル値を対数表現データ形式で記憶した正弦波テーブル
32と、振幅レベル制御用の加算器33と、対数/リニア変換回路34と、変調
信号を加算するための加算器35を含んでいる。加算器31は、各演算ユニット
OP1〜OP6のタイムスロットに対応して時分割的に与えられる位相データP
1〜P6と加算器35から与えられる波形信号(すなわち変調信号)とを加算し
、位相変調を行うものである。加算器33は、加算器31の出力に応じて正弦波
テーブル32から読み出された対数表現の正弦波サンプル値データにエンベロー
プレベルデータEL1〜EL6及びレベル補正データLCを加算するものである
。データEL1〜EL6,LCも対数表現形式で与えるものとし、加算器33に
おける対数同士の加算により実質的に振幅係数の乗算を行う。対数/リニア変換
回路34は、対数表現の加算器33の出力をリニア表現のデータに変換する。 演算ユニット接続態様設定回路36は、演算ユニットOPの出力を夫々入力し たフィードバックレジスタFR、1ステージシフトレジスタSR、メモリM1,
M2、アキュムレータARと、レジスタSR及びメモリM1,M2及びアキュム
レータARの出力を入力したセレクタ37と、フィードバックレジスタFRの出
力にフィードバックレベルデータFL(FL1〜FL6)を乗算するための乗算
器あるいはシフト回路38と、アキュムレータARの出力をラッチするレジスタ
39とを具えている。レジスタ39の出力がこのFM音源18で合成された楽音
信号として出力される。 各レジスタFR39、メモリM1,M2、アキュムレータARは16チャンネ
ル分の記憶容量を持ち、チャンネルクロックパルスφchに従って16チャンネル
時分割処理される。ただし、シフトレジスタSRはクロックパルスφに従って各
タイムスロット毎にシフト制御される。 フィードバックレジスタFR、メモリM1,M2、レジスタ39には、ロード
入力Lとリセット入力Rが有り、制御信号がこれらの入力L,Rに加わり、デー
タのロード及びリセットを制御する。また、アキュムレータARにはキュムレー
トイネーブル入力ACとリセット入力Rが有り、上記制御信号がこれらの入力A
C,Rに加えられ、データのアキュムレート及びリセットを制御する。上記制御
信号はセレクタ37の選択制御入力にも加えられ、との入力からのデータを選択
すべきかを制御する。セレクタ37及びシフト回路38の出力が演算ユニットO
Pの変調信号入力用加算器35に加わり、そこで加算される。 フィードバックレジスタFRは、自己の演算ユニット又は前段の演算ユニット
に帰還させるべき所定の演算ユニットの演算結果たる波形信号データをストアす
るものである。この所定の演算ユニットの演算結果が演算ユニットOPから出力
されるタイムスロットにおいてロード入力Lに信号“1”が与えられる。帰還路
が形成されるべき演算ユニットのタイムスロットでフィードバックレベルデータ
FL1〜FL6が適当な値を示し、レジスタFRの出力信号をその値に応じてシ
フトしたものを加算器35に与える。帰還路が設けられない演算ユニットのタイ
ムスロットではフィードバックレベルデータFL1〜FL6はレベル0に対応す
る内容となり、シフト回路38を遮断し、その出力を0にする。 シフトレジスタSRはクロックパルスφに従ってシフトするもので、或るタイ ムスロットにおける演算結果を次のタイムスロットにおいて出力する。メモリM
1,M2は、任意のタイムスロットにおける演算結果を保持するためのものであ
る。アキュムレータARは、各演算ユニットOP1〜OP6のうち任意の1又は
複数のユニットの出力信号を加算するものであり、加算すべきユニットに対応す
るタイムスロットでアキュムレートイネーブル入力ACに信号“1”が与えられ
る。セレクタ37は、各演算ユニットOP1〜OP6に対応する各タイムスロッ
トにおいて演算ユニットOPの入力Win=に与えるべき波形信号(変調信号)
として、レジスタSR、メモリM1,M2、アキュムレータARのうち適宜の出
力信号を選択することにより、所定の接続態様に従う各演算ユニットOP1〜O
P6の相互接続を実現する。出力レジスタ39では、全演算ユニットOP1〜O
P6のタイムスロットが1巡する1演算サイクルの最後でロード入力Lに信号“
1”が与えられ、これに基づきアキュムレータARの出力をラッチする。こうし
て、各演算ユニットOP1〜OP6を所定の接続態様で接続して演算を行った結
果得られた楽音信号の1サンプル値データがレジスタ39にラッチされる。 モジュレータ入力端子MDTを介して各チャンネルごとに時分割で入力される
PCM音源17の出力信号は、外部データ入力インタフェイス40に取り込まれ
、各チャンネルごとの時分割タイミングで出力され、シフト回路41に入力され
る。シフト回路41に与えられる外部入力レベル制御データEXTL1〜EXT
L6は、各演算オペレータOP1〜OP6のタイムスロットでそれぞれ適当な値
を示し、変調波信号として使用するPCM音源出力信号のレベルをそれぞれ制御
する。PCM音源出力信号を変調波信号として使用しない演算ユニットのタイム
スロットでは外部入力レベル制御データEXTL1〜EXTL6はレベル0に対
応する内容となり、シフト回路41を遮断し、その出力を0にする。ソフト回路
41の出力は加算器35に加わり、該加算器35から加算器31に変調波信号と
して与えられる。 一例として、6つの演算ユニットOP1〜OP6を第5図のように接続する場
合につき説明する。この接続態様では、自己又は他の演算ユニットに出力信号を
帰還させるべき所定の演算ユニットとしてOP4が選ばれており、この演算ユニ
ットOP4の出力信号をフィートバックレジスタFRにストアし、このレジスタ FRの出力信号を自己のユニットOP4及び前段のユニットOP5,OP6の入
力側に帰還させることは勿論のこと、自己のユニットOP4に並列に設けられた
別系列のユニットOP1,OP2にも入力し、更には自己の後段のユニットOP
3にも入力するようにしている。レジスタFRの出力を各ユニットOP1〜OP
6の変調信号入力に導く経路に設けられた乗算器(シフト回路38に対応)に乗
数として入力されるデータFL1〜FL6は各演算ユニットOP1〜OP6に対
応するフィードバックレベルデータである。なお、演算ユニットOP1〜OP3
に加えられるレジスタFRの出力信号はこれらのユニットOP1〜OP3にとっ
てはフィードバック信号ではないが、このように自己又は前段の演算ユニットに
フィードバックする信号を別系列あるいは後段の演算ユニットにも加えるように
する接続態様も実施可能である。 また、外部データ入力インタフェィス40の出力を各ユニットOP1〜OP6
の変調信号入力に導く経路に設けられた乗算器(シフト回路41に対応)に乗数
として入力されるデータEXTL1〜EXTL6は各演算ユニットOP1〜OP
6に対応する外部入力レベル制御データである。 各演算ユニットOP1〜OP6に対応する時分割タイムスロットを示すと第6
図(a)のようであり、1チャンネル分の1サンプリング時間に対応する1演算
サイクルにおける6つのタイムスロット1〜6は時間の早い順に演算ユニットO
P6〜OP1に対応している。従って、各タイムスロット1〜6において、各演
算ユニットOP6〜OP1に対応する位相データP6〜P1、エンベロープレベ
ルデータEL6〜EL1、フィードバックレベルデータFL6〜FL1が第6図
(a)に示すように供給される。 第5図の接続を実現する場合、各タイムスロット1〜6における演算ユニット
OPの出力信号の取込み先は第6図(b)のようにし、セレクタ37での選択は
第6図(c)のようにする。 また、各演算ユニットOP1〜OP6に対応する外部入力レベル制御データE
XTL1〜EXTL6の供給タイミング及び外部データ入力インタフェイス40
から出力される1チャンネル分の楽音信号の1サンプルデータWD(t)のタイ
ミングは第6図(d)のようである。 なお、前述のように、PCM音源17とFM音源18における16チャンネル
の時分割タイミングは同期しており、同じ押圧鍵に対応する楽音信号をPCM音
源17とFM音源18において同時に発生する場合は、PCM音源17とFM音
源18において同じタイミングのチャンネルに該押圧鍵に対応する楽音信号を割
り当てるようにしているので、同じ押圧鍵に対応するPCM音源17の出力楽音
信号をFM音源18における変調波信号として利用することが容易に行なえる。 操作子の一例説明 次に、操作パネル15における操作子や表示部の一例につき第7図により説明
する。表示部DPYは、例えば液晶ディスプレイからなり、音色、音量、音高、
効果等を選択・設定・変更するための複数の画面のうちいずれかを選択的に表示
することができる。以下では、1つの画面をページという。ファンクションスイ
ッチ部FSWは、表示部DPYの下側に配列された複数のファンクションスイッ
チF1〜F8を具備している。各ファンクションスイッチF1〜F8の機能は表
示部DPYの画面状態つまりページ内容によって切り替わる。表示部DPYの画
面では、各ファンクションスイッチF1〜F8に対応する位置に、該各ファンク
ションスイッチF1〜F8に現在割当てられている機能を示す表示がなされる。
ファンクションスイッチF1〜F8の隣のシフトキーSHIFTは、表示部DP
Yの画面における各ファンクションスイッチF1〜F8の機能表示をシフトする
ものである。このシフトキーSHIFTは、1画面(1ページ)において各ファ
ンクションスイッチF1〜F8に2重の機能が割当てられているとき使用する。 データ入力部42は、数値データを入力するためのスライド式操作子である。 ボイスキーVOICEは、表示部DPYにおいてボイス選択ページを呼び出す
ために操作するキースイッチである。ボイス選択ページとは、所望のボイスつま
り音色(詳しくは複合音色)を選択するときの表示画面である。 エディットキーEDITは、所望のボイスの内容を変更・修正する編集作業を
開始するときに操作するキースイッチである。 ストアキーSTOREは、編集作業が終了したときに、編集済みのボイスデー
タを保存するために操作するキースイッチである。 エンターキーENTERは、データ等の入力を確定するために操作するキース イッチである。 カーソルキーCSRは、表示部DPYにおけるカーソル表示を左右または上下
に動かしたり、数値データの増減を指示する際に操作するキースイッチである。 操作パネル15においてはその他のスイッチや操作子等があるが、それらにつ
いては説明を省略する。 ボイスに関連する説明 電子楽器において利用可能な音色には、ピアノやバイオリン等の既存楽器の音
色を模倣するいわば楽器音色と、演奏者によって任意に設定したり変更すること
の可能な音色など、種々の音色がある。この実施例では、後者のような音色をボ
イスということにする。ただし、ボイスにおいて前者のような楽器音色のような
音色を排除する意味合いは全くない。すなわち、或るボイスはピアノならピアノ
のような楽器音色を模倣するものであってもよい。また、この実施例において、
音色とはボイスのことを指すものとして以下説明を行なうが、電子楽器全体とし
ては、そのようなボイスのほかに楽器音色や何らかのプリセット音色などが更に
選択可能な仕様であっても一向に差し支えない。なお、この実施例では、複数の
系列で発生した楽音信号を合成して1つのボイスに対応する楽音信号を発生する
ようになっており、その場合、1つのボイスの構成要素である各々の系列の楽音
信号またはその音色をエレメントまたはエレメント音色ということにする。その
意味で、この実施例におけるボイスとは、複数のエレメント音色を複合した「複
合音色」であるといってもよい。 次に、ボイスデータメモリVDMとボイスエディットバッファメモリVEBの
メモリフォーマットの一例につき第8図を参照して説明する。 ボイスデータメモリVDMは、各ボイス毎に、当該ボイスを実現するボイスデ
ータをそれぞれ記憶するものである。ボイスエディットバッファメモリVEBは
、編集作業中のボイスのボイスデータを記憶するバッファである。これらのボイ
スデータメモリVDMとボイスエディットバッファメモリVEBは、読み書き可
能なメモリからなり、例えばデータ及びワーキングRAM12(第2図)の一部
が利用される。 ボイスデータメモリVDMは、ボイスナンバ0乃至nで区別される各ボイス毎 にそのボイスデータを記憶するボイスデータエリアを有する。各ボイスデータエ
リアの先頭アドレスはボイスポインタVOICEPによって指示される。 1つのボイスデータエリアは、「ボイス名」を記憶するエリアと、「ボイスモ
ード」を記憶するエリアと、「コモンデータ」を記憶するエリアと、4つの個別
のエレメントに対応するパラメータデータをそれぞれ記憶する4つの「エレメン
トパラメータデータ」エリアとからなる。 この実施例では、1つのボイスは最大で4つのエレメントを使用して合成する
ことができる。1つのエレメントは、PCM音源17またはFM音源18で1つ
のチャンネルを使用して発生される1つの系列の楽音信号に対応している。所望
の音色(エレメント音色)を実現するためのパラメータデータの種類は、PCM
音源17とFM音源18とでは異なっており、また、そのデータ内容も各エレメ
ント音色毎に異なる。その一方で、どのエレメント音色にも共通するパラメータ
データもある。このように、当該ボイスにおいてどのエレメントにも共通するパ
ラメータデータを「コモンデータ」ということにし、これを「コモンデータ」エ
リアに記憶する。一方、各エレメント毎に異なるパラメータデータを「エレメン
トパラメータデータ」ということにし、これをそれぞれのエレメントに対応する
「エレメントパラメータデータ」エリアに記憶する。各「エレメントパラメータ
データ」エリアの先頭アドレスはエレメントスタートポインタESP(1)〜ES
P(4)によって指示される。各エレメントスタートポインタESP(1)〜ESP(4
)によってそれぞれ指示されるエレメントを、エレメント1乃至4として区別す
る。 「ボイスモード」とは、そのボイスを実現するために使用する音源の種類と系
列数の組合せを主に指示するものである。予め定められた複数のボイスモードの
うちどのモードであるかを指示する「ボイスモードデータ」をこの「ボイスモー
ド」エリアに記憶する。後述するように、「ボイスモード」が何であるかによっ
て、4つのエレメントの各々が、PCM音源とFM音源のどちらを使用するか、
あるいはどちらも使用しないか、が判明する。 ボイスエディットバッファメモリVEBは、1つのボイスのボイスデータ1式
を記憶できる容量を持ち、詳しくは、コモンデータバッファCDBと、FMエデ ィットバッファFMEBと、PCMエディットバッファPCMEBとを有する。
コモンデータバッファCDBにおいては、「ボイス名」を記憶するエリアと、「
ボイスモード」を記憶するエリアと、「コモンデータ」を記憶するエリアとを有
する。FMエディットバッファFMEBは、4つのエレメントのパラメータデー
タをそれぞれ記憶できるFMエレメントエディットバッファ1乃至4を有する。
PCMエディットバッファPCMEBも、4つのエレメントのパラメータデータ
をそれぞれ記憶できるPCMエレメントエディットバッファ1乃至4を有する。 このように、異なる音源に対応するエディットバッファFMEB,PCMEB
をそれぞれエレメントの最大数分だけ設けた理由は、編集中にボイスモードを変
更した場合でも即座に対応できるようにするためである。例えば、2つのエレメ
ントでFM音源を使用し、別の2つのエレメントでPCM音源を使用するボイス
モードのボイスの編集作業する場合、まず、そのボイスのボイスデータがボイス
データメモリVDMからボイスエディットバッファメモリVEBにコピーされる
。その場合のコピーの仕方は、「ボイス名」、「ボイスモード」及び「コモンデータ
」はコモンデータバッファCDBにコピーし、FM音源に対応する2つのエレメ
ントのパラメータデータはFMエディットバッファFMEBにおける2つのFM
エレメントエディットバッファ1及び2にコピーし、PCM音源に対応する2つ
のエレメントのパラメータデータはPCMエディットバッファPCMEBにおけ
る2つのPCMエレメントエディットバッファ1及び2にコピーする。そして、
コピーされなかった残りの2つのFMエレメントエディットバッファ3及び4に
は、FM音源用の「エレメントパラメータデータ」の所定の初期値(若しくは基
準値)をそれぞれ記憶しておく。コピーされなかった残りの2つのPCMエレメ
ントエディットバッファ3及び4にも同様に、PCM音源用の「エレメントパラ
メータデータ」の所定の初期値(若しくは基準値)をそれぞれ記憶しておく。こ
のようにしておけば、編集作業中にコモンデータバッファCDBに記憶したボイ
スモードデータを変更することにより、例えば、4つのエレメントすべてをFM
音源(またはPCM音源)とするボイスモードに変わった場合、4つのFMエレ
メントエディットバッファ1乃至4(またはPCMエレメントエディットバッフ
ァ1乃至4)の内容を即座に有効に使用することができる。つまり、エレメント
エディ ットバッファの総数をエレメントの最大数4のみにすると、上記のような例の場
合、エレメントエディットバッファのデータ内容をPCM用からFM用に(また
はその逆に)変更しなければならず、面倒である。ところが、この実施例のよう
にすれば、そのような面倒はない。 なお、合計8個のエレメントエディットバッファのうち使用中の最大4個のエ
レメントエディットバッファのそれぞれの先頭アドレスはエディットスタートポ
インタEDS(1)〜EDS(4)によって指示される。 ボイスモードの説明 次に「ボイスモード」について説明すると、この実施例において、ボイスモー
ドは10有る。ボイスモードは、使用する音源の種類と系列数の組合せを主に定
義し、更に単音/複音の区別及び複音の場合は同時発音数を定義する。使用する
音源の種類と系列数の組合せは、4つのエレメント1〜4で使用する音源がPC
MまたはFMのどちらであるか、あるいはこのエレメントを使用しないか、を明
かにすることにより定義することができる。これは「エレメントタイプ」と称す
るデータによって定義される。「エレメントタイプ」には、0,1,2の3タイ
プがあり、それぞれの内容は次の通りである。 エレメントタイプ0…不使用 エレメントタイプ1…FM音源を使用する エレメントタイプ2…PCM音源を使用する 各ボイスモードにおける4つの各エレメント1〜4のエレメントタイプは、第
9図に示すような内容のエレメントタイプテーブルETTに予め記憶されている
。このエレメントタイプテーブルETTには、実質的な同時可能発音数を示すデ
ータも記憶されている。実質的な同時可能発音数とは、別の言い方をすれば、異
なる押圧鍵の楽音信号を同時に発音できる最大値である。 ボイスモード1〜3は、単音発音モードのボイスであり、同時可能発音数は1
である。 ボイスモード1では、エレメント1がエレメントタイプ1つまりFM音源であ
り、他のエレメント2〜4はエレメントタイプ0つまり不使用である。従って、
FM音源のエレメント音色からなる単音1系列のボイスである。 ボイスモード2では、エレメント1と2がエレメントタイプ1つまりFM音源
であり、他のエレメント3,4はエレメントタイプ0つまり不使用である。従っ
て、FM音源のエレメント音色からなる単音2系列(2系列とは同じ押圧鍵に係
る楽音が2チャンネルで発生されること)のボイスである。 ボイスモード3では、全エレメント1〜4がエレメントタイプ1つまりFM音
源である。従って、FM音源のエレメント音色からなる単音4系列(4系列とは
同じ押圧鍵に係る楽音が4チャンネルで発生されること)のボイスである。 ボイスモード4〜10は、複音発音モードのボイスであり、同時発音可能数は
それぞれテーブルに記された通りである。 ボイスモード4では、エレメント1がエレメントタイプ1つまりFM音源であ
り、他のエレメント2〜4はエレメントタイプ0つまり不使用である。従って、
FM音源のエレメント音色からなる複音1系列のボイスであり、同時発音可能数
は16音である。 ボイスモード5では、エレメント1と2がエレメントタイプ1つまりFM音源
であり、他のエレメント3,4はエレメントタイプ0つまり不使用である。従っ
て、FM音源のエレメント音色からなる複音2系列のボイスであり、同時発音可
能数は8音である。 ボイスモード6では、エレメント1がエレメントタイプ2つまりPCM音源で
あり、他のエレメント2〜4はエレメントタイプ0つまり不使用である。従って
、PCM音源のエレメント音色からなる複音1系列のボイスであり、同時発音可
能数は16音である。 ボイスモード7では、エレメント1と2がエレメントタイプ2つまりPCM音
源であり、他のエレメント3,4はエレメントタイプ0つまり不使用である。従
って、PCM音源のエレメント音色からなる複音2系列のボイスであり、同時発
音可能数は8音である。 ボイスモード8では、全エレメント1〜4がエレメントタイプ2つまりPCM
音源である。従って、PCM音源のエレメント音色からなる複音4系列のボイス
であり、同時発音可能数は4音である。 ボイスモード9では、エレメント1がエレメントタイプ1つまりFM音源、エ レメント2がエレメントタイプ2つまりPCM音源であり、他のエレメント3,
4はエレメントタイプ0つまり不使用である。従って、PCM音源のエレメント
音色とFM音源のエレメント音色の組合せからなる複音2系列のボイスであり、
同時発音可能数は16音である。 ボイスモード10では、エレメント1と2がエレメントタイプ1つまりFM音
源、エレメント3と4がエレメントタイプ2つまりPCM音源である。従って、
PCM音源2系列とFM音源2系列の組合せからなる複音4系列のボイスであり
、同時発音可能数は8音である。 マイクロコンピュータによる処理に関連する説明 第10図はデータ及びワーキングRAM12内のレジスタにおいてストアされ
る主要なデータを例示したものであり、それぞれの役割はフローチャートの説明
に従い、追って明かにされる。 第11図はエントリポイントテーブルEPTの内容の一例を示す。エントリポ
イントテーブルEPTは、表示部DPYにおける表示画面(ページ)と操作パネ
ル15におけるオンスイッチとの対応に応じて、該スイッチのオンイベントに応
じて次に実行すべきルーチンを指示するテーブルである。 次に、マイクロコンピュータによって実行される処理の一例につき第12図以
降のフローチャートを参照して説明する。 第12図はメインルーチンの一例を示しており、まず、電源投入時に所定の初
期化処理を行ない、各レジスタやメモリの内容を初期設定する。次に、「キース
キャン及び割当処理」では、鍵盤回路14における各キースイッチをスキャンし
てそのオン・オフを検出し、押圧鍵を複数の発音チャンネルのうち何れかに割当
てる処理を行う。この「キースキャン及び割当処理」において実行される処理の
一つに「キーオンイベント処理」があり、その一例は第25図及び第26図に示
されており、詳細は追って説明する。この「キーオンイベント処理」では、鍵が
新たに押圧されたとき、その鍵に対応する楽音信号の発生をPCM音源17及び
/またはFM音源18のチャンネルに割当てる処理を行なう。 「演奏コントローラ処理」では、演奏コントローラ16の操作を検出し、操作
状態が変化したとき所定の処理を行なう。 「ファンクションスイッチ処理」では、ファンクションスイッチ部FSWのオ
ンイベント(オフからオンに変化したこと)を検出し、オンイベントが検出され
たなら、第13図に示すようなファンクションスイッチオンイベントルーチンを
行なう。 「その他パネルスキャン処理」では、操作パネル15におけるその他の操作子
やキースイッチをスキャンしてそのオン・オフを検出し、その検出に基づき各種
処理を行う。その一例としては、オンされたキースイッチと表示部DPYの現在
のページに応じて第11図のエントリポイントテーブルEPTを参照し、第14
図乃至第24図に示すようなスイッチオンイベントサブルーチンを呼び出す。 エントリポイントテーブルEPTの見方 第11図のエントリポイントテーブルEPTは、たて欄が各キー若しくはスイ
ッチのオンイベントを示し、横欄がそのスイッチオンイベント時点での表示部D
PYのページを示す。たて欄と横欄の交点に記された記号が、呼び出されるべき
サブルーチン(つまり該サブルーチンのエントリポイント)を示す。各サブルー
チンの説明は追って行なう。なお、ここで、記号「NoEP」は「ノー・エント
リポイント」を意味し、呼び出されるべきサブルーチン(つまりエントリポイン
ト)がないことを示す。 ファンクションスイッチ操作時の処理 何らかのファンクションスイッチF1〜F8がオンされたとき第13図のファ
ンクションスイッチオンイベントルーチンが行なわれる。ここでは、まず、オン
されたファンクションスイッチの番号をファンクションスイッチバッファFSW
BUFに記憶し、次に、このファンクションスイッチバッファFSWBUFと現
在ページPAGEとにより第11図のエントリポイントテーブルEPTを参照し
、該ページにおいて該ファンクションスイッチに割当てられている所定のイベン
ト処理サブルーチンのエントリポイントデータを得て、これをエントリポイント
バッファEPBUFに記憶する。そして、このエントリポイントバッファEPB
UFの内容がノー・エントリポイントNoEPではないことを確認した後、この
エントリポイントバッファEPBUFの内容に対応するイベント処理サブルーチ
ンをコールする。なお、現在ページPAGEとは、表示部DPYの現在の表示ペ
ー ジを示すものである。 ボイスの選択について この電子楽器において、発音のために、若しくは編集作業のために、現在選択
されている1つのボイスを示すボイスナンバは、所定のレジスタつまりボイスナ
ンバレジスタに記憶される。このボイスナンバレジスタに記憶されているボイス
ナンバをVNで示す。このボイスナンバVNを参照することにより現在どのボイ
スが選択されているかがわかる。 所望のボイスの選択は、表示部DPYに第27図に例示するような「ボイス選
択」ページを呼び出すことにより行なう。表示部DPYの表示画面が「ボイス選
択」以外のページのとき、ボイスキーVOICE(第7図)を押すことにより、
エントリポイントテーブルEPT(第11図)では「ボイス選択サブルーチン」
EPVを呼び出し、ボイスの選択が可能になる。 ボイス選択サブルーチンEPVにつき第14図を参照して説明すると、まず、
表示部DPYのページを指示する現在ページPAGEの内容を、「ボイス選択」
ページを指示する「1」にセットする(ステップ50)。 次に、表示部DPYの画面表示を第27図に例示するような「ボイス選択」ペ
ージにし、選択可能な各ボイスのボイス名をボイスナンバと共に表示すると共に
、カーソルをボイスナンバVNによって指示される特定のボイスの位置に置く(
ステップ51)。 次に、ボイスデータメモリVDM(第8図)を読み出すためのボイスデータポ
インタVOICEPを、現在のボイスナンバVNに対応する値に設定する(ステ
ップ52)。 次に、ボイスデータポインタVOICEPによって指示されたボイスデータエ
リアからボイスモードデータを読み出し、これをボイスモードレジスタVMOD
Eにセットする。つまりVMODEは現在選択されているボイスのボイスモード
を示す。また、エレメントスタートポインタESP(1)〜ESP(4)を、ボイスデ
ータポインタVOICEPによって指示されたボイスデータエリアにおける4つ
の「エレメントパラメータデータ」エリアに対応する値にそれぞれ設定する(ス
テップ53)。 次に、ボイスモードレジスタVMODEの内容に応じてエレメントタイプテー
ブルETT(第9図)を参照し、そのボイスモードにおける同時発音可能数(エ
レメントタイプテーブルETTの同時発音可能数の欄の値)を決定し、これを同
時発音可能数レジスタNSCHにストアする(ステップ54)。 このようにして表示部DPYで第27図に例示するような「ボイス選択」ペー
ジを表示した状態において、次に、データ入力部42またはカーソルキーCSR
(第7図)を操作すると、これに応じてボイスナンバVNが変更され、所望のボ
イスを選択することができる。 この点について説明すると、「ボイス選択」ページを表示した状態において、
データ入力部42が操作されると、エントリポイントテーブルEPT(第11図
)では「ボイス選択数値入力サブルーチン」EPDS(1)を呼び出す。また、「
ボイス選択」ページを表示した状態において、カーソルキーCSRが操作される
と、エントリポイントテーブルEPT(第11図)では「ボイス選択カーソルキ
ーオンイベントサブルーチン」EPCD(1)を呼び出す。なお、カーソルキーC
SRには、上下方向カーソルと左右方向カーソルの2種類があり、それぞれの処
理内容は幾分異なるが、説明の便宜上、カーソルキーCSRが1つであるとして
説明する。 ボイス選択数値入力サブルーチンEPDS(1)とボイス選択カーソルキーオン
イベントサブルーチンEPCD(1)につき第15図を参照して説明すると、まず
、データ入力部42が操作された場合は、このデータ入力部42によって入力さ
れた数値に応じてボイスナンバVNを変更する(ステップ55)。 次に、表示部DPYにおけるカーソルの位置を新しいボイスナンバVNによっ
て指示される特定のボイスの位置に移す(ステップ56)。 次に行なうステップ57,58,59の処理は第14図のステップ52,53
,54の処理と同じものであり、新しいボイスナンバVNに対応してボイスデー
タポインタVOICEP及びエレメントスタートポインタESP(1)〜ESP(4)
の設定と、ボイスモードVMODEのセットと、そのボイスモードに応じた同時
発音可能数レジスタNSCHの設定を行なう。 カーソルキーCSRが押された場合は、ボイスナンバVNの値を1増加する( ステップ60)。この増加はモジュロ16で行なう。モジュロ16とした理由は
、選択可能なボイス数を16としたためである。その後、上述のステップ56〜
59の処理を行なう。 上記から明らかなように、データ入力部42の操作によれば所望のボイスナン
バを一度で入力することができ、カーソルキーCSRでは1回の押圧毎にボイス
ナンバVNを1つづつずらすことにより最終的に所望のボイスナンバを入力する
。 エディット処理への導入 所望のボイスのボイスデータを変更・修正する編集作業を行なう場合、まず、
上述のように表示部DPYに「ボイス選択」ページを呼び出して所望のボイスの
選択を行ない、各レジスタの内容VN,VOICEP,VMODE,NSCH,
ESP(1)〜ESP(4)を該所望のボイスに対応する内容に設定する。次に、エデ
ィットキーEDIT(第7図)を押すことにより、エディット処理に入ることが
できる。 表示部DPYの表示画面が「ボイス選択」ページのとき、エディットキーED
ITを押すことにより、エントリポイントテーブルEPT(第11図)では「エ
ディット導入ルーチン」EPEDを呼び出す。このエディット導入ルーチンEP
EDの詳細例は第16図に示されている。 エディット導入ルーチンEPEDでは、まず、ボイスナンバVNに応じたボイ
スデータエリアからボイスデータ1式を読み出して、ボイスエディットバッファ
VEB(第8図)にコピーする(ステップ61)。以後、種々の編集操作は、ボ
イスエディットバッファメモリVEBに記憶されているボイスデータに対して施
される。いわば、ボイスエディットバッファメモリVEBは、ボイスデータを編
集するための専用のバッファである。 ボイスエディットバッファメモリVEBに対するボイスデータ1式のコピーの
仕方は、前述した通りである。すなわち、「ボイス名」、「ボイスモード」及び
「コモンデータ」はコモンデータバッファCDBにコピーする。また、最大で4
つのエレメントに対応する各パラメータデータは、そのエレメントタイプに応じ
て、FM音源に対応するものはFMエディットバッファFMEBにおける4つの
FM エレメントエディットバッファ1乃至4のうち番号の若いものに対して順にコピ
ーし、PCM音源に対応するものはPCMエディットバッファPCMEBにおけ
る4つのPCMエレメントエディットバッファ1乃至4のうち番号の若いものに
対して順にコピーする。そして、データがコピーされなかった残りのFMエレメ
ントエディットバッファには、FM音源用の「エレメントパラメータデータ」の
所定の初期値(若しくは基準値)をそれぞれ記憶し、同様に、データがコピーさ
れなかった残りのPCMエレメントエディットバッファには、PCM音源用の「
エレメントパラメータデータ」の所定の初期値(若しくは基準値)をそれぞれ記
憶する。 次に、ボイスデータポインタVOICEPの値をエディットバッファメモリV
EBの先頭アドレスにセットし、かつ、エディットスタートポインタEDS(1)
〜EDS(4)の値を、FMエディットバッファFMEBにおける4つのFMエレ
メントエディットバッファ1乃至4とPCMエディットバッファPCMEBにお
ける4つのPCMエレメントエディットバッファ1乃至4のうち、4つの各エレ
メントに対応するパラメータデータをコピーしたエレメントエディットバッファ
の先頭アドレスにそれぞれセットする。従って、FMエディットバッファFME
B及びPCMエディットバッファPCMEBにおける合計8個のエレメントエデ
ィットバッファのうち、現在編集作業中のボイスに関する各エレメント1乃至4
に対応するパラメータデータを記憶しているものが、エディットスタートポイン
タEDS(1)〜EDS(4)によってそれぞれ指示される。 次に、コモンデータバッファCDBからボイスモードデータを読み出して、こ
れをVMODEにセットし、このボイスモードVMODEが10個のボイスモー
ド1〜10(第9図参照)のうちどれどれであるかを調べる(ステップ63)。 ボイスモードVMODEの内容がエレメント1のみを使用するボイスモード1
,4または6を示す場合は、ステップ64に行き、エディットモードEMODE
が2よりも大であるかを調べる。 エディットモードEMODEとは、現時点での編集作業の内容を示すもので、
0乃至5のいずれかの値をとり、その値と編集内容との関係は次の通りである。 EMODE=0:ボイスモードの選択 EMODE=1:コモンデータの編集 EMODE=2:エレメント1のデータ編集 EMODE=3:エレメント2のデータ編集 EMODE=4:エレメント3のデータ編集 EMODE=5:エレメント4のデータ編集 従って、エディットモードEMODEが2よりも大とは、エレメント2または
3,4のデータ編集を行なうモードであることを意味し、エレメント1のみを使
用するボイスモード1,4または6においては不要のものである。従って、ステ
ップ64がYESの場合は、ステップ65に行き、エディットモードEMODE
を0にリセットする。 ボイスモードVMODEの内容がエレメント1と2のみを使用するボイスモー
ド2,5,7または9を示す場合は、ステップ66に行き、エディットモードE
MODEが3よりも大であるかを調べる。エディットモードEMODEが3より
も大とは、エレメント3または4のデータ編集を行なうモードであることを意味
し、エレメント1と2のみを使用するボイスモード2,5,7または9において
は不要のものである。従って、ステップ66がYESの場合は、ステップ67に
行き、エディットモードEMODEを0にリセットする。 ボイスモードVMODEの内容が全エレメント1〜4を使用するボイスモード
3,8または10を示す場合は、エディットモードEMODEの判断は行なわず
に、ステップ68に行く。 ステップ68では、エディットモードEMODEの値が0〜5のいずれである
かを調べ、それに応じたエディット導入サブルーチン(ステップ69〜74)を
実行する。 ボイスモード選択 エディットモードEMODEの値が0であれば、ボイスモード選択導入サブル
ーチンVMSSUBを行なう。このサブルーチンVMSSUBの一例は第17図
に示されている。 まず、ステップ75では、表示部DPYのページを指示する現在ページPAG
Eの内容を、「ボイスモード選択」ページを指示する所定の値nEにセットする
。 次のステップ76では、表示部DPYの画面表示を第28図に例示するような
「ボイスモード選択」ページにし、各ボイスモード1〜10における音源と系列
数の組合せ情報及び単音/複音の区別を示す情報を表示し、現在のボイスモード
VMODEによって指示される特定のボイスモード(つまり現在選択されている
ボイスモード)の位置にカーソルを置くと共に、現在選択されている該ボイスモ
ードにおける各エレメント1〜4の音源タイプを右上に表示する(これをエレメ
ント構成表示という)。また、各ファンクションスイッチF1〜F5に対応する
表示として「MODE」,「COM」,「E1」,「E2」,「E3」,「E4」を表示し、
各ファンクションスイッチF1〜F5の機能がエディットモード選択機能となっ
ていることを示す。「MODE」はボイスモード選択を示し、「COM」はコモンデ
ータエディットを示し、「E1」〜「E4」はそれぞれエレメント1〜4のデータ編
集を行なうエディットモードを示す。このファンクションスイッチ表示において
は、現在のエディットモード(この例ではボイスモード選択MODE)を通常に
表示し、他のエディットモードを白抜きで表示してそれらのエディットモードが
ファンクションスイッチ操作によって選択可能であることを示す。 なお、表示部DPYの画面表示を第28図に例示するような「ボイスモード選
択」ページにする処理は、上述のようなボイスモード選択導入サブルーチンVM
SSUBによらずに、ボイスモード選択サブルーチンEPVMによってもよい。
つまり、ボイスモード選択ページ以外のエディットモードのページにおいては、
上述のように、ファンクションスイッチF1にボイスモード選択が割当てられる
ようになっており、表示部DPYにおいてこれらのエディットモードのページが
表示されているときファンクションスイッチF1がオンされると、エントリポイ
ントテーブルEPT(第11図)では「ボイスモード選択サブルーチン」EPV
Mを呼び出す。 このボイスモード選択サブルーチンEPVMは第17図においてボイスモード
選択導入サブルーチンVMSSUBと一緒に示されている。まず、ステップ77
において、エディットモードEMODEを「ボイスモード選択」を示す「0」に
セットし、次に前記ステップ75,76の処理を行なう。 このようにして表示部DPYで第28図に例示するような「ボイスモード選択
」 ページを表示した状態において、次に、データ入力部42またはカーソルキーC
SRを操作すると、これに応じてボイスモードVMODEの値が変更され、所望
のボイスモードを選択することができる。 この点について説明すると、「ボイスモード選択」ページを表示した状態にお
いて、データ入力部42が操作されると、エントリポイントテーブルEPT(第
11図)では「ボイスモード選択数値入力サブルーチン」EPDS(nE)を呼
び出す。また、「ボイスモード選択」ページを表示した状態において、カーソル
キーCSRが操作されると、エントリポイントテーブルEPT(第11図)では
「ボイスモード選択カーソルキーオンイベントサブルーチン」EPCD(nE)
を呼び出す。 ボイスモード選択数値入力サブルーチンEPDS(nE)とボイスモード選択
カーソルキーオンイベントサブルーチンEPCD(nE)につき第18図を参照
して説明すると、まず、データ入力部42が操作された場合は、このデータ入力
部42によって入力された数値に応じてボイスモードVMODEを変更する(ス
テップ78)。 次に、表示部DPYにおけるカーソルの位置を新しいボイスモードVMODE
によって指示される特定のボイスモードの位置に移す(ステップ79)。 新しいボイスモードVMODEに応じてエレメントタイプテーブルETT(第
9図)から該ボイスモードにおける各エレメント1〜4の音源タイプを読み出し
、これに応じたエレメント構成表示を表示部DPYの画面右上にて行なう(ステ
ップ80)。 次に、新しいボイスモードVMODEに応じてエディットバッファメモリVE
Bにおける各エレメント1〜4のエディットスタートポインタEDS(1)〜ED
S(4)の値を再設定する(ステップ81)。これは、各エディットスタートポイ
ンタEDS(1)〜EDS(4)を、新しいボイスモードVMODEに合わせるためで
ある。 次に、新しいボイスモードVMODEの内容に応じてエレメントタイプテーブ
ルETTを参照し、そのボイスモードにおける同時発音可能数(エレメントタイ
プテーブルETTの同時発音可能数の欄の値)を決定し、これを同時発音可能数 レジスタNSCHにストアする(ステップ82)。 カーソルキーCSRが押された場合は、ボイスモードVMODEの値を1増加
する(ステップ83)。ボイスモードの値が1から10の範囲で変化するように
するために、1増加したVMODEの値が10よりも大となったら、このVMO
DEの値を「1」にリセットする(ステップ84,85)。その後、上述のステ
ップ79〜82の処理を行なう。 上記から明らかなように、データ入力部42の操作によれば所望のボイスモー
ドを一度で選択することができ、カーソルキーCSRでは1回の押圧毎にボイス
モードVMODEの値を1つづつずらすことにより最終的に所望のボイスモード
を選択する。 コモンデータの編集 第16図のステップ68でエディットモードEMODEの値が1であると判断
されると、コモンデータエディット導入サブルーチンCOMSUBを行なう。こ
のサブルーチンCOMSUBの一例は第19図に示されている。 まず、ステップ86では、表示部DPYのページを指示する現在ページPAG
Eの内容を、「コモンデータエディット」ページを指示する所定の値nE+1に
セットする。 次のステップ87では、表示部DPYの画面表示を第29図に例示するような
「コモンデータエディット」メニューのページにし、各種コモンデータ名を表示
し、現在選択されているコモンデータ名にカーソルを置くと共に、現在選択され
ているボイスモードVMODEにおける各エレメントl〜4の音源タイプを右上
に表示する。また、前述と同様に各ファンクションスイッチF1〜F5に対応す
る表示を行う。なお、ここで、現在選択されているボイスモードVMODEにお
けるエレメント構成において使用しないエレメントに対応するファンクションス
イッチ表示はなされない。第29図の例では「E3」,「E4」が表示されていない
。 なお、表示部DPYの画面表示を第29図に例示するような「コモンデータエ
ディット」メニューのページにする処理は、上述のようなコモンデータエディッ
ト導入サブルーチンCOMSUBによらずに、コモンデータエディットサブルー
チンEPCOMによってもよい。つまり、「コモンデータエディット」メニュー のページ以外のエディットモードのページにおいては、前述のように、ファンク
ションスイッチF2にコモンデータの編集を選択する機能が割当てられるように
なっており、表示部DPYにおいてこれらのエディットモードのページが表示さ
れているときファンクションスイッチF2がオンされると、エントリポイントテ
ーブルEPT(第11図)では「コモンデータエディットサブルーチン」EPCO
Mを呼び出す。 このコモンデータエディットサブルーチンEPCOMは第19図においてコモ
ンデータエディット導入サブルーチンCOMSUBと一緒に示されている。ここ
では、ステップ88において、エディットモードEMODEを「コモンデータエ
ディット」を示す「1」にセットし、次に前記ステップ86,87の処理を行な
う。 このようにして表示部DPYで第29図に例示するような「コモンデータエデ
ィット」メニューのページを表示した状態において、次に、データ入力部42ま
たはカーソルキーCSRを操作すると、これに応じてカーソルが動き、所望のコ
モンデータを選択することができる。所望のコモンデータを選択した後、エンタ
ーキーENTER(第7図)を押すと、エントリポイントテーブルEPT(第1
1図)を参照して「コモンデータエディット」の下位のサブルーチンEPET(
nE+1)が呼び出され、これに従い、表示部DPYのページが下位ページに切
り替わり、所望のコモンデータの詳細内容の変更・修正を行なうことができる。
この下位のサブルーチンEPET(nE+1)については説明を省略する。 各エレメントのデータ編集 ここではエレメント1に関するデータ編集についてその詳細を説明し、他のエ
レメント2〜4に関するデータ編集はこれとほぼ同様の処理であるため詳細説明
を省略する。 第16図のステップ68でエディットモードEMODEの値が2であると判断
されると、エレメント1のエディット導入サブルーチンE1SUBを行なう。こ
のサブルーチンE1SUBの一例は第20図に示されている。 まず、ステップ89では、ボイスモードVMODEに応じてエレメントタイプ
テーブルETTを参照し、エレメント1の音源タイプを読み出し、これをエレメ ントタイプバッファETBUFにストアする。 次に、ステップ90では、エレメントタイプバッファETBUFの値を調べる
。「0」つまりこのエレメントが不使用であればこのサブルーチンを終了するが
、「1」つまりFMタイプであれば、ステップ91に行き、表示部DPYのペー
ジを指示する現在ページPAGEの内容を、「FMデータエディット」ページを
指示する所定の値nE+2にセットする。 次のステップ92では、表示部DPYの画面表示を第30図に例示するような
「FMデータエディット」メニューのページにし、各種のFMパラメータデータ
名を表示し、現在選択されているFMパラメータデータ名にカーソルを置くと共
に、現在選択されているボイスモードVMODEにおける各エレメント1〜4の
音源タイプを右上に表示する。また、前述と同様に各ファンクションスイッチF
1〜F5に対応する表示を行う。 FMパラメータの一例につき説明すると、AlgoはFM演算ユニットOP1〜
OP6の接続組合せを設定するアルゴリズムパラメータである。Op EGは各演
算ユニットOP1〜OP6毎のエンベロープ波形を設定するパラメータである。
また、FBPCLは各演算ユニットOP1〜OP6毎のフィードバックレベルデ
ータFL1〜FL6及び外部入力レベル制御データEXTL1〜EXTL6(第
4図参照)を設定するパラメータである。 一方、エレメントタイプバッファETBUFの値が「2」つまりPCMタイプ
であれば、ステップ93に行き、表示部DPYのページを指示する現在ページP
AGEの内容を、「PCMデータエディット」ページを指示する所定の値nE+
3にセットする。 次のステップ94では、表示部DPYの画面表示を第31図に例示するような
「PCMデータエディット」メニューのページにし、各種のPCMパラメータデ
ータ名を表示し、現在選択されているPCMパラメータデータ名にカーソルを置
くと共に、現在選択されているボイスモードVMODEにおける各エレメント1
〜4の音源タイプを右上に表示する。また、前述と同様に各ファンクションスイ
ッチF1〜F5に対応する表示を行う。 ステップ95では、エディットモードEMODEをエレメント1のデータ編集 を指示する「2」にセットする。このステップ95による「2」のセットは、エ
ディットモードEMODEの値がまだ「2」以外のとき有効である。 なお、表示部DPYの画面表示を第30図または第31図に例示するような「
FMデータエディット」メニューまたは「PCMデータエディット」メニューの
ページにする処理は、上述のようなエレメント1の導入サブルーチンE1SUB
によらずに、エレメント1のエディットサブルーチンEPE1によってもよい。
つまり、各種エディットモードのページにおいては、前述のように、ファンクシ
ョンスイッチF3にエレメント1のデータ編集を選択する機能が割当てられるよ
うになっており、表示部DPYにおいてこれらのエディットモードのページが表
示されているときファンクションスイッチF3がオンされると、エントリポイン
トテーブルEPT(第11図)では「エレメント1のエディットサブルーチン」
EPE1を呼び出す。 このエレメント1のエディットサブルーチンEPE1は第20図においてエレ
メント1の導入サブルーチンE1SUBと一緒に示されている。ここでは、ステ
ップ96において、エディットモードEMODEが「エレメント1のエディット
」を示す「2」に既にセットされているかを調べ、YESならばこのサブルーチ
ンを更に行なうことなく、リターンするが、NOならば別のエディットモードか
らエレメント1のエディットモードに切り替えられたことを意味するので、この
サブルーチンを続行し、前述のステップ89〜95の処理を行なう。 このようにして表示部DPYで第30図または第31図に例示するような「F
Mデータエディット」メニューまたは「PCMデータエディット」メニューのペ
ージを表示した状態において、次に、データ入力部42またはカーソルキーCS
Rを操作すると、これに応じてカーソルが動き、所望のパラメータデータを選択
することができる。所望のパラメータデータを選択した後、エンターキーENT
ER(第7図)を押すと、エントリポイントテーブルEPT(第11図)を参照
して「FMデータエディット」メニューまたは「PCMデータエディット」メニ
ューの下位のサブルーチンEPET(nE+2)またはEPET(nE+3)が呼び
出され、これに従い、表示部DPYのページが下位ページに切り替わり、所望の
FMまたはPCMパラメータデータの詳細内容の変更・修正を行なうことができ る。この下位のサブルーチンEPET(nE+2)またはEPET(nE+3)につ
いては説明を省略する。 FMパラメータデータの詳細内容の変更・修正の一例を説明すると、第30図
の「FMデータエディット」メニューのページにおいて、番号9のパラメータF
B PC Lのエディットを選択すると(つまりカーソルを番号9に合わせてエンタ
ーキーENTERを押すと)、表示部DPYは第32図のようなフィードバック
及びPCMレベルエディットのページに切り替わる。このページ画面において、
カーソルキーCSRとデータ入力部42を適宜操作して、FM音源18の各演算
ユニットOP1〜OP6毎にフィードバックレベルとPCMレベルをそれぞれ所
望の値に設定する。フィードバックレベルとは、前述のように、自己の演算ユニ
ット出力を自己の変調波信号として帰還する比率を設定するレベルデータであり
、これが第4図におけるフィードバックレベルデータFL1〜FL6に対応する
。PCMレベルとは、PCM音源17の出力楽音信号をFM音源18の各演算ユ
ニットOP1〜OP6に変調波信号として入力する比率を設定するレベルデータ
であり、これが第4図における外部入力レベル制御データEXTL1〜EXTL
6に対応する。前述のように、フィードバックやPCMの変調波信号を使用しな
い場合はこれらのレベルデータの値を0に設定する。 以上はエレメント1に関するデータ編集についての説明であるが、他のエレメ
ント2〜4に関するデータ編集についてもはこれとほぼ同様の手順で行なうこと
ができる。 すなわち、第16図のステップ68でエディットモードEMODEの値が3で
あると判断された場合はエレメント2のエディット導入サブルーチンE2SUB
を行ない(ステップ72)、EMODE=4の場合はエレメント3のエディット導
入サブルーチンE3SUBを行ない(ステップ73)、EMODE=5の場合はエ
レメント4のエディット導入サブルーチンE4SUBを行なう(ステップ74)。
また、表示部DPYにおいてエディットモードのページが表示されているときフ
ァンクションスイッチF4乃至F6をオンすることにより、エントリポイントテ
ーブルEPT(第11図)ではエレメント2乃至4の「エディットサブルーチン
」を呼び出し、これを実行する。 ストア処理 所望のエディットが終了したときストアキーSTORE(第7図)を押して、
エディット終了済みのボイスデータをボイスエディットバッファメモリVEBか
らボイスデータメモリVDMに戻すモードとする。 表示部DPYの表示画面が何らかのエディットモードのページのとき、ストア
キーSTOREが押されると、エントリポイントテーブルEPT(第11図)で
は「ストアサブルーチン」EPSTを呼び出す。このストアサブルーチンEPS
Tの詳細例は第21図に示されている。 ストアサブルーチンEPSTでは、まず、ページバッファPAGEBUFに現
在ページPAGEのページデータを移し、現在ページPAGEの内容を、「スト
ア」ページを指示する所定の値nSにセットする。ページバッファPAGEBU
Fはストア処理途中で若しくはストア処理終了後に画面を元のページに戻すため
に設けられている。次に、表示部DPYの画面表示を第33図に例示するような
「ストア」ページにし、現在のボイスナンバ及びボイス名を表示すると共に、各ボ
イスナンバに対応するボイス名をそれぞれ表示し、ストアボイスナンバSTVN
によって指示されるボイスナンバの位置にカーソルを置く。また、ファンクショ
ンスイッチF1に対応してクイットキーQUITの表示を行ない、ファンクショ
ンスイッチF8に対応してスタートキーSTRTの表示を行なう。 このようにして表示部DPYで第33図に例示するような「ストア」ページを
表示した状態において、次に、データ入力部42またはカーソルキーCSRを操
作すると、これに応じてストアボイスナンバSTVNの値が変更され、編集済み
のボイスデータをストアしようとする所望のボイスナンバを選択することができ
る。 この点について説明すると、「ストア」ページを表示した状態において、デー
タ入力部42が操作されると、エントリポイントテーブルEPT(第11図)で
は「ストアボイスナンバ数値入力サブルーチン」EPDS(nS)を呼び出す。
また、「ストア」ページを表示した状態において、カーソルキーCSRが操作さ
れると、エントリポイントテーブルEPT(第11図)ではストアボイスナンバ
選択用の「カーソルキーオンイベントサブルーチン」EPCD(nS)を呼び出 す。 ストアボイスナンバ数値入力サブルーチンEPDS(nS)とカーソルキーオン
イベントサブルーチンEPCD(nS)につき第22図を参照して説明すると、ま
ず、データ入力部42が操作された場合は、このデータ入力部42によって入力
された数値に応じてストアボイスナンバSTVNの値を変更する。次に、表示部
DPYにおけるカーソルの位置を新しいストアボイスナンバSTVNによって指
示される特定のボイスナンバの位置に移す。また、カーソルキーCSRが押され
た場合は、ストアボイスナンバSTVNの値をモジュロ16で1増加し、その後
、表示部DPYにおけるカーソルの位置を新しいストアボイスナンバSTVNに
よって指示される特定のボイスナンバの位置に移す。 こうして、編集済みのボイスデータをストアしようとする所望のボイスナンバ
をストアボイスナンバSTVNに登録した後、スタートキーSTRT(つまりフ
ァンクションスイッチF8)をオンする。そうすると、エントリポイントテーブ
ルEPTにより第23図の「ストア実行サブルーチン」が呼び出される。ここで
は、まず、「ストア」ページの画面の下の方に「Now Storing」というよなスト
ア実行中であることを示す表示を行なう。そして、ストアボイスナンバSTVN
に応じてストアボイスポインタSTVPを設定する。このストアボイスポインタ
STVPは、STVNのボイスナンバに対応するボイスデータメモリVDMにお
けるボイスデータエリアの先頭アドレスを指示するものである。 そして、ストアボイスポインタSTVPによって指示されたボイスメモリVD
MにおけるボイスデータエリアにボイスエディットバッファメモリVEBのデー
タを転送する。その場合、ボイスエディットバッファメモリVEBのデータを全
部転送するのではなく、ボイスモードVMODEの内容に応じて必要なものを転
送する。まず、コモンデータバッファCDBの「ボイス名」、「ボイスモード」及
び「コモンデータ」は、ボイスメモリVDMにおけるボイスデータエリアの対応
するエリアに転送される。次に、FMエディットバッファFMEBにおける4つ
のFMエレメントエディットバッファ1乃至4とPCMエディットバッファPC
MEBにおける4つのPCMエレメントエディットバッファ1乃至4のうち、ボ
イスモードVMODEの内容に応じて必要なもののみ、ボイスメモリVDMにお けるボイスデータエリアの対応するエレメントパラメータデータエリアに転送さ
れる。 その後、現在ページPAGEの内容を次ページnS+1に変更し、所定のスト
アエンド表示(例えば画面の下部に「Complete!」と表示する)を行なう。 ページ番号nSの「ストア」ページ若しくはnS+1の「ストアエンド」ペー
ジにおいて、ファンクションスイッチF1はクイットキーQUITとして機能し
、これがオンされると、第24図のクイットキーオンイベントサブルーチンが実
行される。ここでは、ページバッファPAGEBUFのページデータを現在ペー
ジPAGEに移し、この現在ページPAGEで指示されるページに入るためのル
ーチンをコールする。これにより、ストア処理途中で若しくはストア処理終了後
に、クイットキーQUITがオンされると、表示部DPYの画面はストア処理に
入る直前の処理のページ画面に戻される。これにより、エディットのやり直等が
行なえる。 発音割当て処理 鍵が新たな押圧されると、第25図のキーオンイベント処理を行ない、該押圧
鍵の発音をいずれか1又は複数のチャンネルに割当てる。 まず、キーオンイベントに係る押圧鍵のキーコードをキーコードレジスタKC
ODEにストアし、それに対応するタッチデータをタッチデータレジスタTDA
TAにストアする(ステップ100)。 次に、同時発音可能数レジスタNSCHに登録した同時発音可能数に応じて1
次割当てチャンネルASCHを決定し、この1次割当てチャンネルASCHに新
押圧鍵を仮りに割当てる(ステップ101)。 1次割当てチャンネルASCHとは、実際の発音チャンネルではなく、実際の
発音チャンネルに割当てる前段階で使用されるものである。1次割当てチャンネ
ルASCHの数は同時発音可能数に対応している。同一鍵の多系列発音の場合は
、実際の発音チャンネルにおいては同一鍵が複数チャンネルに発音割当てされる
が、1次割当てチャンネルASCHには同一鍵は1チャンネルにしか割当てられ
ない。同時発音可能数NSCH、全部で16チャンネルある実際の発音チャンネ
ル、及び1次割当てチャンネルASCHの関係の一例を示すと次のようである。
なお、 全部で16チャンネルある実際の発音チャンネルの各々を0乃至15の番号で表
わし、1次割当てチャンネルASCHの各々を0乃至15の番号で表わす。 同時発音可能数NSCH=1のとき: 1次割当てチャンネルASCHは「0」のみ。 実際の発音チャンネルは、系列数(使用するエレメントの数)に応じて、「0
」乃至「3」を使用する。ただし、各発音チャンネルには同一鍵が割当てられる
。 同時発音可能数NSCH=4のとき: 1次割当てチャンネルASCHは「0」乃至「3」の合計4個。 実際の発音チャンネルは、「0」乃至「3」のグループ、「4」乃至「7」の
グループ、「8」乃至「11」のグループ、「12」乃至「15」のグループ、
の合計4グループを使用する。各グループには異なる鍵が割当てられる。同一グ
ループ内のチャンネルには、系列数(使用するエレメントの数)に応じて、同一
鍵が割当てられる。例えば、使用するエレメントが1個だけなら同一グループ内
の1チャンネルにだけ押圧鍵が割当てられ、使用するエレメントが2個なら同一
グループ内の2チャンネルに同じ押圧鍵が割当てられる。 同時発音可能数NSCH=8のとき: 1次割当てチャンネルASCHは「0」乃至「7」の合計8個。 実際の発音チャンネルは、「0」及び「1」のグループ、「2」及び「3」の
グループ、「4」及び「5」のグループ、「6」及び「7」のグループ、「8」
及び「9」のグループ、「10」及び「11」のグループ、「12」及び「13
」のグループ、「14」及び「15」のグループ、の合計8グループを使用する
。各グループには異なる鍵が割当てられる。同一グループ内のチャンネルには、
系列数(使用するエレメントの数)に応じて、同一鍵が割当てられる。 同時発音可能数NSCH=16のとき: 1次割当てチャンネルASCHは「0」乃至「15」の合計16個。 実際の発音チャンネルは、「0」乃至「15」を個別に使用する。各発音チャ
ンネルには異なる鍵が割当てられる。系列数(使用するエレメントの数)は1で
ある。 ステップ101においては、NSCHの同時発音可能数に応じて上述のように 決定される1次割当てチャンネルASCHのいずれかに新押圧鍵を仮割当てする
。なお、以下では、記号ASCHはこのステップ101で仮割当て決定された1
つの1次割当てチャンネルの番号を特定しているデータとして説明する。 次のステップ102では前ステップ101で仮割当て決定がなされたかを調べ
る。例えば、同時発音可能数よりも多い鍵が同時に押圧された場合は、ステップ
101で仮割当て決定がなされないことがあり、その場合はステップ102はN
Oとなる。仮割当て決定がなされたならばステップ102はYESであり、ステ
ップ103に行く。 ステップ103ではエレメント番号iを「1」にセットする。 ステップ104では、現在選択されているボイスに関するi番目のエレメント
の音源タイプをエレメントタイプテーブルETTから引出し、これをエレメント
タイプバッファETBUFに登録する。 次のステップ105では、i番目のエレメントに関する楽音信号の発生を割当
てる実際のチャンネルを決定し、決定したチャンネルの番号をチャンネルバッフ
ァCHBUFに登録する。この割当てチャンネルは、現在選択されているボイス
のボイスモードVMODEとステップ101で仮割当てした1次割当てチャンネ
ルASCHとに基づき、第26図のような実割当てルーチンにより決定する。こ
の詳細については後述する。 次のステップ106では、エレメントタイプバッファETBUFに記憶したi
番目のエレメントのタイプが0,1,2のいずれであるかを調べる。FM音源で
あることを示す「1」ならば、ステップ107に行き、FM音源18におけるチ
ャンネルバッファCHBUFによって指示されるチャンネルに対して、i番目の
エレメントのパラメータデータとコモンデータ、及びKCODEとTDATA内
のキーコードとタッチデータ、及びキーオンを示すキーオン信号KONを送出す
る。 エレメントタイプがPCM音源であることを示す「2」ならば、ステップ10
8に行き、PCM音源17におけるチャンネルバッファCHBUFによって指示
されるチャンネルに対して、i番目のエレメントのパラメータデータとコモンデ
ータ、及びKCODEとTDATA内のキーコードとタッチデータ、及びキーオ ンを示すキーオン信号KONを送出する。 ステップ107または108の後、ステップ109に行く。一方、1番目のエ
レメントのタイプが不使用を示す「0」ならば、ステップ107または108の
ようなトーンジェネレータのチャンネルに対するデータ送出は行なわずに、ステ
ップ109に行く。 ステップ109ではiが4以上であるかを調べ、NOならばステップ110に
行き、iを1増加してからステップ104に戻り、ステップ104〜109のル
ーチンを繰り返す。つまり別のエレメントに関する楽音信号の発音割当てチャン
ネルを決定する処理を行なう。iが4以上になると、このキーオンイベント処理
を終了する。 第26図の実割当てルーチンについて説明すると、まずステップ111では、
ボイスモードVMODEが1乃至10のいずれであるかを調べる。 同時発音可能数NSCHが1であるボイスモード1,2,3の場合は、ステッ
プ112に行き、i−1の値に対応するチャンネルを実割当てチャンネルとして
決定し、チャンネルバッファCHBUFに登録する。従って、1−1のときはi
−1=0のチャンネルに割当て、i=2のときはi−1=1のチャンネルに割当
てる、というように、「0」乃至「3」のチャンネルに順次同一鍵を割当てる。
なお、使用しないエレメントに関してはステップ107または108のようなデ
ータ送出処理が行なわれないため、実質的に割当てがなされていないのと同じで
ある。 同時発音可能数NSCHが8であり、かつ一種類の音源のみが使用されるボイ
スモード5または7の場合は、ステップ113に行き、2×ASCH+i−1の
演算結果に対応するチャンネルを実割当てチャンネルとして決定し、チャンネル
バッファCHBUFに登録する。従って、或る鍵をASCH=0に仮割当てした
場合、i=1のときは演算結果「0」に対応するチャンネルに割当て、i−2の
ときは演算結果「1」に対応するチャンネルに割当てる、というように、「0」
及び「1」のチャンネルに同一鍵を割当てる。また、別の鍵をASCH=1に仮
割当てした場合、i=1のときは演算結果「2」に対応するチャンネルに割当て
、i=2のときは「3」のチャンネルに割当てる、というように、「2」及び「
3」 のチャンネルに同一鍵を割当てる。 同時発音可能数NSCHが4であるボイスモード8の場合は、ステップ114
に行き、4×ASCH+i−1の演算結果に対応するチャンネルを実割当てチャ
ンネルとして決定し、チャンネルバッファCHBUFに登録する。従って、或る
鍵をASCH=0に仮割当てした場合、i=1のときは演算結果「0」に対応する
チャンネルに割当て、i=2のときは「1」のチャンネルに割当て、i=3のとき
は「2」のチャンネルに割当てる、i=4のときは「3」のチャンネルに割当てる、
というように、「0」乃至「3」のチャンネルに同一鍵を順次割当てる。また、別の
鍵をASCH=1に仮割当てした場合、i=1のときは演算結果「4」に対応する
チャンネルに割当て、i=2のときは「5」のチャンネルに割当てる、というよう
に、「4」乃至「7」のチャンネルに同一鍵を順次割当てる。 同時発音可能数NSCHが16であるボイスモード4,6,または9の場合は
、ステップ115に行き、1次割当てチャンネルASCHの値をそのまま実割当
てチャンネルとし、チャンネルバッファCHBUFに登録する。従って、例えば
或る鍵をASCH=0に仮割当てした場合、iの値に無関係に、実割当てチャン
ネルの「0」に該鍵が割当てられる。従って、2種類の音源が使用されるボイス
モード9の場合は、例えば或る鍵をASCH=0に仮割当てした場合、FM音源
に対応するエレメント1の楽音信号はFM音源のチャンネル「0」に割当てられ
、PCM音源に対応するエレメント2の楽音信号はPCM音源の同じチャンネル
「0」に割当てられる。こうして、同一鍵が異音源の同一チャンネルに割当てら
れる。 同時発音可能数NSCHが8であり、かつ2種類の音源が使用されるボイスモ
ード10の場合は、ステップ116に行き、2×ASCH+mod〔(i−1)/2
〕の演算結果に対応するチャンネルを実割当てチャンネルとして決定し、チャン
ネルバッファCHBUFに登録する。従って、或る鍵をASCH=0に仮割当て
した場合、i=1のときはmod〔(i−1)/2〕=0であるから演算結果「0」
に対応するチャンネルに割当てる、i=2のときはmod〔(i−1)/2〕=1で
あるから演算結果「1」に対応するチャンネルに割当てる、i=3のときはmod
〔(i−1)/2〕=0であるから演算結果「0」に対応するチャンネルに割当て
る、 i=4のときはmod〔(i−1)/2〕=1であるから演算結果「1」に対応する
チャンネルに割当てる、というように、FM音源に対応するエレメント1,2の
楽音信号はFM音源のチャンネル「0」及び「1」に割当て、PCM音源に対応
するエレメント3,4の楽音信号はPCM音源の同じチャンネル「0」及び「1
」にそれぞれ割当てる。また、別の鍵をASCH=1に仮割当てした場合は、F
M音源に対応するエレメント1,2の楽音信号はFM音源のチャンネル「2」及
び「3」に割当て、PCM音源に対応するエレメント3,4の楽音信号はPCM
音源の同じチャンネル「2」及び「3」にそれぞれ割当てる。 変更例 音源の種類はPCMとFMに限らず、他のものを使用してもよい。例えば、変
調演算型の音源としては、FMに限らず、振幅変調演算(AM)や窓関数演算に
よるものなどが知られており、それらを適宜使用してよい。また、高稠波合成方
式による音源や、フィルタを使用した減算方式音源などを使用してもよい。また
、第1及び第2の音源手段の音源方式は異なっているべきであるが、基本原理は
同じであってもそれぞれに特有の音作りができる構成であればよい。また、第1
及び第2の音源手段の一方がFM音源、他方がAM音源というような組合せも可
能である。 上記実施例では、各音源における系列数(つまりエレメント数)が、選択され
たボイスのボイスモードによって自動的に決まるようになっている。例えば、第
9図を参照すると、ボイスモード5では、FM音源の系列数=2,PCM音源の
系列数=0である。また、ボイスモード7では、FM音源の系列数=0,PCM
音源の系列数=2である。また、ボイスモード10では、FM音源の系列数=2
,PCM音源の系列数=2である。しかし、このようにモードによって各音源の
系列数を自動的に決定せずに、を演奏者によって個別に任意に設定できるように
してもよい。その場合の一実施例としては、第9図のエレメントタイプテーブル
ETTに類似したテーブルを、任意に作成できるような構成とすればよい。 各音源内のチャンネルは時分割型に限らず、並列型であってもよい。 同時に発生可能なボイスは1つに限らず、複数としてもよい。その場合は、チ
ャンネル割当てをDVA(ダイナミック・ボイス・アロケーション)の手法を用 いて行なうとよい。 一方の音源しか使用しないボイスモードにおいては、使用しない他方の音源を
適宜の目的のために活用してよい。例えば、使用しない音源で、シーケンサや外
部から与えられる演奏情報に対応する楽音を発生するようにしてもよい。また、
使用する音源のチャンネルがオールビジィのときは、あふれた音を本来使用しな
い方の音源で便宜的に発生するようにしてもよい。 2つの音源の出力楽音信号を同時に発音制御するために、上記実施例では混合
回路23を設け、電気回路上にて両音源の出力楽音信号を加算(または減算)合
成するようにしているが、これに限らず、両音源の出力楽音信号を、それぞれ発
音レベル制御した上で、別々のスピーカから発音し、空間的に加算合成するよう
にしてもよい。 〔発明の効果〕 以上の通り、この発明によれば、複数のエレメント音色により1つの複合音色
を構成し、各エレメント音色毎にそれに対応する部分楽音信号をどの音源手段で
発生すべきかをエレメントタイプ情報により個別に指示することができるように
したので、異なる音源方式からなる音源手段を様々な組合せで活用して1つの複
合音色を形成することができ、音作りに広がりをもたせ、より複雑かつ多様な音
作りが可能になる、という優れた効果を奏する。 また、各音源手段がそれぞれ複数の楽音発生チャンネルを具備し、各チャンネ
ルで独立に楽音信号を発生するようになっているので、1つの音源手段の複数チ
ャンネルを利用して異なる複数のエレメント音色に対応する部分楽音信号を夫々
発生することができ、多様な形態で音作りを行うことができる。すなわち、複数
のエレメント音色のうちのいくつかを或る音源手段を用いて発生し、他のいくつ
かを別の音源手段を用いて発生することができるので、選択可能な各音色に対応
して最適かつ多様な組み合わせで楽音音色形成を行うことができると共に、各エ
レメント音色毎に最適な音源方式の音源手段を組み合わせて使用して、高品位な
複合音色を持つ楽音を発生することができる、という優れた効果を奏する。特に
、選択された1つの音色に対応して最適なエレメントタイプ情報とパラメータ情
報が発生されることにより、該選択音色に対応して最適な組み合わせて各音源手
段 の各チャンネルを使い分けて使用することにより、これらの組合せに基づき選択
音色に最適な複合音色を持つ楽音を発生させることができる。 また、前記1つの複合音色における前記エレメント音色の1つに関して、その
パラメータ情報の内容の変更若しくは設定を指示することができ、指示されたエ
レメント音色に関する前記エレメントタイプ情報に応じて、前記各音源手段の音
源方式に適したパラメータ情報の内容の変更若しくは設定が行われるよう自動的
に制御されるので、音色データの編集作業の際に、どのエレメント音色がどの音
源方式によるかを、いちいち指示する必要がなく、編集作業の操作性がよくなる
、という優れた効果を奏する。 また、音色データの編集作業を行おうとする所望の複合音色の音色データをデ
ータメモリからエディット用記憶手段に記憶し、ここに記憶されている音色デー
タに対して変更、設定等のデータ編集を施すようにし、このエディット用記憶手
段の記憶容量を、1つの複合音色を構成するエレメント音色の最大数よりも多く
のエレメント音色に関するパラメータ情報を記憶できる容量として、余分に確保
しておくようにしたので、編集によってデータ量を拡張したり、エレメントの音
源方式を変更したりする場合等に備えることができ、編集作業の自由度が向上す
る、という優れた効果を奏する。
DETAILED DESCRIPTION OF THE INVENTION [Industrial applications]   This invention can be combined with other devices as a single electronic musical instrument or sound module.
In particular, electronic musical instruments that are used in multiple
One complex tone is composed of a number of element tones, and each
The partial tone signal corresponding to the above is generated by appropriately allocating to each of the sound sources.
About. [Conventional technology]   As a conventional example of a tone signal generator equipped with a plurality of tone generator circuits having different tone generator systems,
There is one disclosed in JP-A-59-168493. There is a natural instrument
Use a memory that stores multiple-period waveforms sampled from sounds, etc.
PCM sound source that generates a tone signal by reading the waveform from the
Generates tone signals by performing waveform calculations such as modulation calculations.
System sound source, and adds the waveform signals generated from both sound sources in response to key depression.
An electronic musical instrument that synthesizes a more final tone signal has been disclosed. [Problems to be solved by the invention]   However, the conventional electronic musical instrument as described above has two different sound sources generated by two different sound sources.
Since the tone waveform signal was merely added and synthesized, there were no restrictions on sound creation.
Was.   The present invention includes a plurality of sound sources provided with a plurality of sound sources having different sound source systems.
One complex tone is composed of element tones, and it corresponds to each element tone
By assigning the partial tone signal to
Use multiple different sound sources in various combinations to give a wider range of sound
The purpose of the present invention is to provide a musical tone signal generator capable of producing various and diverse sounds.
You. Further, in such a tone signal generating apparatus, a change or setting of timbre data is performed.
Regular It is intended to make it convenient for editing work. [Means for solving the problem]   An electronic musical instrument according to the present invention includes a plurality of tone generators that form musical tone signals using different tone source systems.
Sound source means, wherein each sound source means has a plurality of tone generation channels respectively.
Timbre selection means for selecting a timbre, and one composite timbre using a plurality of element timbres
And a partial tone signal corresponding to each element tone color.
Element type information that indicates whether the tone should be generated by the
Generating at least parameter information,A plurality of said complex tones
The timbre data including the parameter information and the element type information respectively.
Including the data memoryCorresponding to the tone selected by the tone selecting meansThe de
Data memoryEmit element type information and parameter information
Tone parameter generating means to be generated and the element type for each element tone
The parameter information corresponding to the element tone in response to the
Distribution means for distributing to the sound source means indicated by the type information;, A plurality of said complex sounds
Select one of the colors and instruct to change or set the contents of the tone data
Edit instruction means, and the composite tone designated by the edit instruction means
Reading and storing the timbre data from the data memory;
For more element tones than the maximum number of element tones that make up the
Edit storage means having a capacity to store parameter information to be edited,
Edit or change the tone data stored in the
Means for executingEach sound source means has a function corresponding to the distributed parameter information.
Partial tone signals with different element tones are assigned to each tone generation channel.
The combination of the partial tone signals generated in each channel of these tone generators
Generates a tone signal having the composite tone corresponding to the selected tone.
With a sea urchinis there. (Operation)   A single composite tone is composed of a plurality of element tones, and each
Element type to determine which sound source means to generate the corresponding partial tone signal
It can be individually instructed by information. Therefore, sound sources with different sound source systems The means can be used in various combinations to form one composite tone,
This gives you more space and makes it possible to create more complex and diverse sounds.   Also, each sound source means has a plurality of tone generation channels, and
Since the tone signal is generated independently by the
Using the channel to generate partial tone signals corresponding to multiple different element tones
It can be generated and can make sounds in various forms. That is, multiple
Some of the element tones are generated using some sound source means, while others are generated.
Can be generated using different sound source means, so that each selectable tone is supported
Tones can be formed in optimal and diverse combinations by
High quality sound by using a combination of sound source
This provides an excellent effect that a tone having a complex tone can be generated. Especially
Optimum element type information and parameter information corresponding to one selected tone
Information is generated, and each sound source hand is optimally combined in accordance with the selected tone.
By selecting and using each channel of the column, selection based on these combinations
It is possible to generate a musical tone having a complex tone optimal for the selected tone.   Further, regarding one of the element timbres in the one composite timbre,
A change or setting of the parameter information can be instructed, and the designated
A sound of each of the sound source means according to the element type information on the element tone.
Automatically changes or sets the content of parameter information suitable for the source system
Is controlled. Therefore, when editing the tone data,
It is not necessary to indicate each time whether or not to use the sound source method
Become.   The timbre data of the desired composite timbre for which timbre data editing is to be performed is decompressed.
From the data memory to the editing storage means, and the tone color data stored there.
Data, such as changes and settings,,thisMemory for editing
Storage capacityMore than the maximum number of element tones that make up one composite tone
As a capacity that can store parameter information related to the element tone ofExtra secure
PleaseI triedData volume expansion, etc.
The degree of freedom is improved. 〔Example〕   Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. Description of overall configuration   FIGS. 1 (a), 1 (b) and 1 (c) show the basic structure of an electronic musical instrument according to an embodiment of the present invention.
The configuration is shown in a functional block diagram. FIG. 3A shows different sound source systems.
A plurality of sound source means 1 and 2 for forming a musical tone signal.
One having a tone generation channel and one composite tone composed of a plurality of element tones
And a partial tone signal corresponding to each element tone color.
Element type information that indicates whether the tone should be generated by the
Timbre parameter generating means 3 for generating at least parameter information;
Before corresponding to the element tone according to the element type information for each tone
The parameter information is distributed to the sound source means indicated by the element type information.
And each of the sound source means 1 and 2 has
A partial tone signal with the corresponding element tone is assigned to each tone generation channel.
Allocated partial tone signal generated by each channel of each sound source means
An electronic musical instrument which generates a tone signal corresponding to the composite tone by combination.
An example of a basic configuration is shown.   FIG. 2B shows one of the element timbres in the one composite timbre.
Edit instruction to change or set the content of the parameter information.
Step 5 and the element tone color specified by the edit instruction means.
Parameters suitable for the sound source system of each sound source means according to the element type information
Edit control means 6 for controlling change or setting of information content;
2 shows an example of a basic configuration of an electronic musical instrument further provided with.   FIG. 4C shows that the timbre parameter generating means 3 performs the processing for a plurality of the complex timbres.
The timbre data including the parameter information and the element type information respectively.
Including one of the plurality of complex tones, and selecting one of the plurality of complex tones.
Edit instructing means 5 for instructing change or setting of the content of color data;
The tone data relating to the complex tone designated by the
An editing storage means 7 for reading and storing the data from the memory; Edit executing means for changing or setting the tone data stored in the means
8 shows an example of a basic configuration of an electronic musical instrument further provided with No. 8.   A more specific embodiment will be described below with reference to FIGS.   FIG. 2 is a hardware block diagram showing an example of an electronic musical instrument according to the present invention.
In this example, a central processing unit (CPU) 10, a program and a data ROM 1
1. Under control of microcomputer including data and working RAM 12
Various processes are executed. A keyboard circuit 14 is operated via a data and address bus 13.
Various circuits such as the operation panel 15 are connected to the microcomputer.   The keyboard circuit 14 includes a key having a plurality of keys for designating a pitch of a musical tone to be generated.
A circuit provided corresponding to the keyboard and including a key switch corresponding to each key of the keyboard
It is. This keyboard circuit 14 is a key scan for detecting on / off of each key switch.
Or a key scan may be performed by a microcomputer.
It may be made to perform by.   The operation panel 15 is used to select, set, and control timbre, volume, pitch, effects, and the like.
It includes various controls. Display unit DP for performing various selection / setting processing
Y and a function switch unit FSW are provided.   The performance controller 16 controls the tone color, volume, pitch, etc. of the musical tone during the performance.
Controls such as a control wheel, control pedal, or breath control
Including rollers.   The tone generator section TG includes two different tone generator circuits, for example, a PCM tone generator 17.
And an FM sound source 18, and generates a tone signal having a pitch corresponding to a key pressed on the keyboard.
Both of the sound sources 17 and 18 can be generated simultaneously. Each sound source 17, 18
Each has N and M tone generation channels. Hereinafter, in this embodiment,
Is N = M = 16, and each of the sound sources 17 and 18 has 16 channels
It is assumed that a tone signal can be generated by division.   Key-on / key-off detection in the keyboard circuit 14,
Detection of operation state of seed operator, detection of operation state of performance controller 16, and pressing
Various processing such as tone assignment processing of musical tones corresponding to keys are controlled by microcomputer
And the necessary data is transmitted via the bus 13 to the tone generator TG. Given to. The tone generator section TG generates a tone signal based on the given data.
And the tone signal is spatially generated via the sound system 19.
You. Description of an example of the tone generator section TG   An example of the tone generator section TG will be described with reference to FIG.
The sound source 17 is a waveform memory 2 in which tone waveforms corresponding to various timbres are stored in advance.
0, which basically changes according to the pitch of the musical tone to be generated.
Music waveform sample value data is sequentially read from the waveform memory 20 in accordance with the waveform data.
Sound source system consisting of a "waveform memory readout system" that generates musical tone signals
Is adopted. In this case, the tone waveform stored in the waveform memory 20 is one cycle.
Although only a waveform may be used, a multi-period waveform is preferable since sound quality can be improved.
Good. A method of storing a plurality of periodic waveforms in a waveform memory and reading out the waveforms is disclosed in, for example,
All waveforms from the start to the end of sound generation are stored as shown in No. 52-121313
This is read once, or disclosed in Japanese Patent Application Laid-Open No. 58-142396.
In this manner, the multi-period waveform of the attack part and the one or more-period waveform of the sustain part are stored,
The method of reading the waveform of the sustained part repeatedly after reading the waveform of the
A plurality of discretely sampled waves as shown in Kaisho 60-147793
Shapes are memorized and the waveforms to be read out are sequentially switched in time and specified.
Various methods are known, such as a method of repeatedly reading out, and these may be appropriately adopted.
No. In this embodiment, for example, after reading a plurality of cycles of the attack portion once,
It is assumed that a method of repeatedly reading the waveform of the section is employed.   The FM sound source 18 has a phase angle parameter that changes at a desired frequency corresponding to the pitch of a musical tone.
Performs a predetermined frequency modulation operation as the data
That is, a so-called FM sound source method is adopted.   As described above, each of the sound sources 17 and 18 has a maximum of 1 in 16-channel time division.
It is possible to generate six tone signals, and to generate an amplitude
It also has a well-known function of providing an envelope.   The key code KC of the key assigned to each channel of the PCM sound source 17 and the pressing of the key
Sets and controls a key-on signal KON indicating a key or key release, and tone, volume, pitch, etc. Control data from the microcomputer via the bus 13 to the PC
It is provided to the M tone generator control register 21. In the PCM tone generator 17, the
Based on these stored data, the tone signal of the sound assigned to each channel is
Each occurs.   Similarly, the key code KC of the key assigned to each channel of the FM sound source 18 and
Set key-on signal KON indicating key press or key release, and tone, volume, pitch, etc.
Various kinds of control data for controlling are transmitted from the microcomputer via the bus 13.
To the FM tone generator control register 22. In the FM sound source 18, the register 22
Based on these stored data, the tone signal of the sound assigned to each channel
Respectively occur.   As is well known, in the FM sound source system, basically, a carrier wave signal and a modulated wave signal are used.
Signal by modulating the carrier signal with the modulating signal,
A tone signal having a desired spectrum configuration is synthesized. Therefore, in the FM sound source 18,
Can internally generate a carrier wave function and a modulation wave function.   In this embodiment, the modulation wave function is generated internally in the FM sound source 18.
Not only can be performed, but also a modulated wave signal can be input from outside through the modulator input terminal MDT.
Signal can be introduced, and the tone signal generated by the PCM sound source 17 is
The input is provided to the modulator input terminal MDT of the FM sound source 18. Mogi
The tone signal output from the PCM tone generator 17 input to the comparator input terminal MDT is an FM tone.
The level is appropriately controlled inside the source 18, and the PCM tone generator output tone signal is
Whether or not to use as a modulated wave signal is controlled.   The mixing circuit 23 generates a tone signal generated by the PCM tone generator 17 and a tone signal generated by the FM tone generator 18.
The tone signal is mixed with the tone signal.
4 is performed by the control data given from This mixed control data is
Provided from the microcomputer via the bus 13 in accordance with the tone and the like
. Note that this mixed operation is not limited to addition, but may be subtraction. In addition, PCM sound source
The time division timing of 16 channels in 17 and FM sound source 18 is synchronized.
, A tone signal corresponding to the same depressed key is simultaneously output to the PCM sound source 17 and the FM sound source 18.
Occurs at the same timing in the PCM sound source 17 and the FM sound source 18.
The A tone signal corresponding to the pressed key is assigned to the channel.   The output of the mixing circuit 23 is given to the effect applying circuit 25, and the reverb effect and the pan (P
Various effects such as the AN) effect are provided as necessary. Control data to control the effect
Data from the microcomputer to the effect control register 26 via the bus 13.
This is given to the effect giving circuit 25.   The tone signal output from the effect imparting circuit 25 is converted by the digital / analog converter 2
7 and converted to an analog signal, and then sent to the sound system 19.
Will be issued. To cancel the channel time division status,
An accumulator for accumulating the signal is provided as appropriate, but is not particularly shown.
This accumulator is a stage preceding the digital / analog converter 27, for example, a mixing circuit.
23 or the like. Explanation of internal configuration example of FM sound source   Next, an example of the internal configuration of the FM sound source 18 will be described with reference to FIG.
In the example FM sound source 18, six operation units OP1 to OP6 are used for one sound.
And perform FM calculation to synthesize a tone signal. Each operation unit OP1 to OP6
Select the FM operation algorithm by selectively switching the connection mode between
Then, the desired tone color is synthesized. In the example of FIG. 4, in terms of hardware, one operation
A unit OP is provided, which is used in a time-division manner with six time slots to obtain 6 units.
It functions as the arithmetic units OP1 to OP6.   The phase data generation circuit 28 determines the key code KC of the key assigned to each channel.
And the key-on signal KON, and input the phase data P1 to P1 corresponding to the key code KC.
P6 is 6 times per channel for each of the operation units OP1 to OP6.
Occurs in lot time division and 16 channel time division. Envelope generation circuit 2
Reference numeral 9 denotes an entry corresponding to each of the operation units OP1 to OP6 based on the key-on signal KON.
Velocity level data EL1 to EL6 at 6 time slots per channel
It occurs in division and 16-channel time division.   Various parameter data or control data corresponding to the selected tone, etc.
3 to the control register 22 (FIG. 3).
From the FM sound source 18 (the phase data generation circuit 28, the envelope generation circuit 2). 9, operation units OP and other circuits), each operation unit OP1 to OP
6 time slots (and, if necessary,
Time division). With these parameters, the phase data P1 to P6
Of the envelope level data EL1 to EL6.
(Envelope waveform) or the mode of FM calculation. For example,
The operation units OP1 to OP6 are divided into a plurality of series and arranged in parallel, and the output of each series is
Assuming that the connection mode in which addition is possible can be selected,
Level correction data LC for correcting the sound volume level by such FM operation control
Included in one of the parameters. In addition, the output signal of its own arithmetic unit is
To set the feedback level for self-feedback
The feedback level data FL1 to FL6 are also included in such FM operation control parameters.
I will. Further, a control signal for setting the connection mode of each of the arithmetic units OP1 to OP6 is also provided.
It is included in such FM operation control parameters. Furthermore, the tone signal of the PCM sound source 17
When the signal is used as a modulation signal by each of the operators OP1 to OP6, the level is controlled.
The external input level control data EXTLI to EXTL6 to be controlled also have such an FM operation.
Included in control parameters.   The arithmetic unit OP performs addition for modulating the input phase data P1 to P6.
Wave table which stores sampler 31 and sample value of sine wave in logarithmic expression data format
32, an adder 33 for controlling the amplitude level, a logarithmic / linear conversion circuit 34,
It includes an adder 35 for adding the signals. The adder 31 is provided for each arithmetic unit.
Phase data P given in a time division manner corresponding to the time slots of OP1 to OP6
1 to P6 and a waveform signal (ie, a modulation signal) provided from the adder 35.
Performs phase modulation. The adder 33 generates a sine wave according to the output of the adder 31.
Envelope to logarithmic sine wave sample value data read from table 32
The level data EL1 to EL6 and the level correction data LC are added.
. The data EL1 to EL6 and LC are also given in a logarithmic expression format.
The multiplication of the amplitude coefficients is performed substantially by the addition of logarithms. Logarithmic / linear conversion
The circuit 34 converts the output of the adder 33 in logarithmic expression into data in linear expression.   The operation unit connection mode setting circuit 36 inputs the outputs of the operation units OP respectively. Feedback register FR, one-stage shift register SR, memory M1,
M2, accumulator AR, register SR, memories M1, M2 and accumulator
The selector 37 to which the output of the accelerator AR is input and the output of the feedback register FR
Multiplication for multiplying force by feedback level data FL (FL1 to FL6)
Or shift circuit 38 and a register for latching the output of accumulator AR
39. The output of the register 39 is a tone synthesized by the FM tone generator 18.
Output as a signal.   Each register FR39, memories M1 and M2, and accumulator AR have 16 channels.
16 channels in accordance with the channel clock pulse φch
Time division processing is performed. Note that the shift register SR
Shift control is performed for each time slot.   Load the feedback register FR, memories M1 and M2, and register 39
There is an input L and a reset input R, and a control signal is applied to these inputs L and R,
Control the loading and resetting of data. The accumulator AR has cumule
There is a reset enable input AC and a reset input R, and the control signal is
In addition to C and R, it controls accumulation and reset of data. Above control
The signal is also applied to the selection control input of the selector 37 to select the data from the input
Control what to do. The output of the selector 37 and the shift circuit 38 is the arithmetic unit O
The signal P is added to a P modulation signal input adder 35, where it is added.   The feedback register FR is either its own arithmetic unit or a previous arithmetic unit.
The waveform signal data, which is the operation result of a predetermined operation unit to be fed back to
Things. The operation result of the predetermined operation unit is output from the operation unit OP.
The signal "1" is applied to the load input L in the time slot to be executed. Return path
Is the feedback level data in the time slot of the arithmetic unit to be formed
FL1 to FL6 indicate appropriate values, and the output signal of the register FR is switched according to the value.
The shifted data is given to the adder 35. Arithmetic unit tie without return path
In the time slot, the feedback level data FL1 to FL6 correspond to level 0.
The shift circuit 38 is cut off and its output is set to 0.   The shift register SR shifts according to a clock pulse φ, and The calculation result in the time slot is output in the next time slot. Memory M
1, M2 is for holding the operation result in an arbitrary time slot.
You. The accumulator AR is an arbitrary one or one of the operation units OP1 to OP6.
This is to add the output signals of a plurality of units.
Signal "1" is applied to the accumulate enable input AC
You. The selector 37 is provided for each time slot corresponding to each of the arithmetic units OP1 to OP6.
Signal (modulation signal) to be given to the input Win = of the arithmetic unit OP
Out of the register SR, the memories M1 and M2, and the accumulator AR
By selecting a force signal, each of the operation units OP1 to OP according to a predetermined connection mode
Implement the interconnection of P6. In the output register 39, all the operation units OP1 to OP
At the end of one operation cycle in which the time slot of P6 makes one round, a signal "
1 ", and the output of the accumulator AR is latched based on this.
Then, the arithmetic units OP1 to OP6 are connected in a predetermined connection mode to perform the arithmetic operation.
One sample value data of the obtained tone signal is latched in the register 39.   Time-division input for each channel via modulator input terminal MDT
The output signal of the PCM tone generator 17 is taken into the external data input interface 40.
Are output at time-division timing for each channel and input to the shift circuit 41.
You. External input level control data EXTL1 to EXT applied to shift circuit 41
L6 is a time slot of each of the operation operators OP1 to OP6 and has an appropriate value.
And controls the level of the PCM sound source output signal used as the modulated wave signal.
I do. Operation unit time when PCM sound source output signal is not used as modulated wave signal
In the slot, the external input level control data EXTL1 to EXTL6 correspond to level 0.
Accordingly, the shift circuit 41 is shut off and its output is set to 0. Soft circuit
The output of 41 is added to the adder 35, and the adder 35 sends the modulated wave signal to the adder 31.
Given.   As an example, when six operation units OP1 to OP6 are connected as shown in FIG.
I will explain it together. In this connection mode, an output signal is sent to itself or another arithmetic unit.
OP4 is selected as a predetermined operation unit to be fed back, and this operation unit is selected.
The output signal of the unit OP4 is stored in the footback register FR. The output signal of FR is input to the own unit OP4 and the preceding units OP5 and OP6.
It is provided in parallel with its own unit OP4 as well as returning to the power side.
The data is also input to the units OP1 and OP2 of the different series, and further, the unit OP at the subsequent stage of its own.
3 is also entered. The output of the register FR is output to each unit OP1 to OP
6 multiplied by a multiplier (corresponding to the shift circuit 38) provided on the path leading to the modulation signal input.
The data FL1 to FL6 input as numbers correspond to the respective operation units OP1 to OP6.
The corresponding feedback level data. The operation units OP1 to OP3
The output signal of the register FR is applied to these units OP1 to OP3.
Signal is not a feedback signal, but it is
Add feedback signal to another series or to the subsequent operation unit
It is also possible to implement a connection mode in which connection is made.   The output of the external data input interface 40 is connected to each of the units OP1 to OP6.
The multiplier (corresponding to the shift circuit 41) provided on the path leading to the modulation signal
Are input as data EXTL1 to EXTL6.
6 is external input level control data corresponding to No. 6.   A time division time slot corresponding to each of the operation units OP1 to OP6 is the sixth time slot.
One operation corresponding to one sampling time for one channel as shown in FIG.
The six time slots 1 to 6 in the cycle correspond to the arithmetic unit O
It corresponds to P6 to OP1. Therefore, in each time slot 1-6, each performance
Phase data P6 to P1 corresponding to the arithmetic units OP6 to OP1,
Data EL6 to EL1 and feedback level data FL6 to FL1 are shown in FIG.
It is supplied as shown in FIG.   In the case of realizing the connection shown in FIG.
The destination of the OP output signal is set as shown in FIG. 6 (b).
As shown in FIG. 6 (c).   Further, external input level control data E corresponding to each of the arithmetic units OP1 to OP6.
XTL1 to EXTL6 supply timing and external data input interface 40
Of one sample data WD (t) of a tone signal for one channel output from
The mining is as shown in FIG. 6 (d).   As described above, 16 channels in the PCM sound source 17 and the FM sound source 18 are used.
Are synchronized, and the tone signal corresponding to the same pressed key is
When the sound is generated simultaneously in the source 17 and the FM sound source 18, the PCM sound source 17 and the FM sound
The source 18 assigns a tone signal corresponding to the pressed key to a channel of the same timing.
Output tone of the PCM sound source 17 corresponding to the same pressed key.
The signal can be easily used as a modulated wave signal in the FM sound source 18. Explanation of an example of an operator   Next, an example of an operator and a display unit on the operation panel 15 will be described with reference to FIG.
I do. The display unit DPY includes, for example, a liquid crystal display, and has a tone color, a volume, a pitch,
Selectively display one of multiple screens for selecting, setting, and changing effects, etc.
can do. Hereinafter, one screen is referred to as a page. Function Sui
The switch unit FSW includes a plurality of function switches arranged below the display unit DPY.
H are provided. The function of each function switch F1 to F8
The display is switched according to the screen state of the indicating unit DPY, that is, the page content. Image of display unit DPY
On the surface, the respective func- tions are located at positions corresponding to the respective function switches F1 to F8.
A display indicating the function currently assigned to the function switches F1 to F8 is made.
The shift key SHIFT next to the function switches F1 to F8 is connected to the display unit DP.
Shift the function display of each function switch F1 to F8 on the screen of Y
Things. This shift key SHIFT is used for each file on one screen (one page).
Used when dual functions are assigned to the action switches F1 to F8.   The data input unit 42 is a slide-type operator for inputting numerical data.   The voice key VOICE calls a voice selection page on the display unit DPY.
Key switch to operate for The voice selection page is the desired voice
9 is a display screen for selecting a tone (specifically, a complex tone).   The edit key EDIT is used to edit and change the contents of the desired voice.
A key switch operated when starting.   When the editing operation is completed, the store key STORE is used to edit the edited voice data.
Key switch to save the data.   Enter key ENTER is a key operated to confirm input of data and the like. It is a switch.   The cursor key CSR is used to move the cursor display on the display unit DPY left and right or up and down.
The key switch is operated when the user moves the button or instructs the numerical data to increase or decrease.   There are other switches and controls on the operation panel 15.
The description is omitted. Description related to the voice   Available tones for electronic musical instruments include those of existing musical instruments such as pianos and violins.
Musical instrument sounds that imitate colors, and can be arbitrarily set or changed by the performer
There are various tones such as possible tones. In this embodiment, the latter type of tone is
I'll call it a chair. However, in the voice, like the instrument tone like the former
There is no point in eliminating the tone. That is, if a voice is a piano, it is a piano
May be used to imitate a musical instrument tone. Also, in this embodiment,
In the following explanation, timbres refer to voices.
In addition to such voices, instrument sounds and some preset sounds
There is no problem with selectable specifications. In this embodiment, a plurality of
A tone signal corresponding to one voice is generated by synthesizing tone signals generated in a sequence.
In that case, each series of musical tones that are components of one voice
A signal or its timbre is called an element or an element timbre. That
In this sense, the voice in this embodiment is a “multiple sound”
It may be said that it is a "sound tone".   Next, the voice data memory VDM and the voice edit buffer memory VEB
An example of the memory format will be described with reference to FIG.   The voice data memory VDM stores, for each voice, a voice data for realizing the voice.
Data is stored. The voice edit buffer memory VEB is
, A buffer for storing voice data of a voice being edited. These boys
The data memory VDM and the voice edit buffer memory VEB are readable and writable.
And a part of the working RAM 12 (FIG. 2).
Is used.   The voice data memory VDM is provided for each voice identified by voice numbers 0 to n. Has a voice data area for storing the voice data. Each voice data
The rear start address is indicated by the voice pointer VOICEP.   One voice data area includes an area for storing "voice name" and a "voice mode".
Memory area, an area for storing common data, and four
The four “elements” that respectively store the parameter data corresponding to the elements
Parameter data area.   In this embodiment, one voice is synthesized using up to four elements.
be able to. One element is one PCM sound source 17 or one FM sound source 18.
And one sequence of tone signals generated using the channel No. Desired
The type of parameter data for realizing the tone (element tone) is PCM
The sound source 17 and the FM sound source 18 are different, and the data content is also different for each element.
It differs for each tone. On the other hand, parameters common to all element tones
There is data. In this way, the pattern common to all elements in the voice
The parameter data is called “common data” and this is called “common data”
Remember in the rear. On the other hand, different parameter data for each element
Parameter data ", which corresponds to each element.
It is stored in the "element parameter data" area. Each "element parameter
The start address of the “data” area is the element start pointer ESP (1) to ES
Indicated by P (4). Each element start pointer ESP (1) to ESP (4
) Are distinguished as elements 1 to 4.
You.   "Voice mode" is the type and system of the sound source used to realize the voice.
It mainly indicates the combination of the number of columns. Preset voice modes
`` Voice mode data '' that indicates which mode
C "area. As described later, depending on what the “voice mode” is,
Whether each of the four elements uses a PCM sound source or an FM sound source,
Alternatively, it is determined whether neither is used.   The voice edit buffer memory VEB stores one set of voice data of one voice.
It has the capacity to store the data. For details, the common data buffer CDB and FM It has an edit buffer FMEB and a PCM edit buffer PCMEB.
In the common data buffer CDB, an area for storing “voice name” and “
There is an area for storing `` voice mode '' and an area for storing `` common data ''.
I do. The FM edit buffer FMEB stores the parameter data of the four elements.
Element edit buffers 1 to 4 which can store data respectively.
The PCM edit buffer PCMEB also has parameter data of four elements.
Are respectively stored in the PCM element edit buffers 1 to 4.   Thus, the edit buffers FMEB and PCMEB corresponding to different sound sources
The reason for providing the maximum number of elements for each element is that the voice mode is changed during editing.
This is because even if it is changed, it can be dealt with immediately. For example, two elements
Voice using an FM sound source in the sound source and a PCM sound source in the other two elements
When editing a voice in mode, the voice data of that voice
Copied from data memory VDM to voice edit buffer memory VEB
. In that case, the method of copying is "voice name", "voice mode" and "common data".
] Is copied to the common data buffer CDB, and two elements corresponding to the FM sound source are copied.
Parameter data of two FM in the FM edit buffer FMEB
Copy to element edit buffers 1 and 2
The parameter data of the element is stored in the PCM edit buffer PCMEB.
To the two PCM element edit buffers 1 and 2. And
In the remaining two FM element edit buffers 3 and 4 that were not copied
Is a predetermined initial value (or base value) of "element parameter data" for FM sound source.
(Standard values) are respectively stored. The remaining two PCM elements that were not copied
Similarly, the "edit parameter" for the PCM sound source is
A predetermined initial value (or reference value) of “meter data” is stored. This
In this case, the voice stored in the common data buffer CDB during editing work
By changing the mode data, for example, all four elements can be
When the voice mode is changed to the sound source (or PCM sound source), four FM
Ment edit buffers 1-4 (or PCM element edit buffers)
1) to 4) can be used immediately and effectively. That is, the element
Eddie If the total number of data buffers is limited to a maximum of 4 elements,
When the data content of the element edit buffer is changed from PCM to FM
Must be changed), which is cumbersome. However, as in this embodiment,
If you do, there is no such trouble.   A maximum of four of the eight element edit buffers in use are used.
The start address of each of the element edit buffers is the edit start point.
Instructed by the inter EDS (1) to EDS (4). Explanation of voice mode   Next, the “voice mode” will be described.
There are ten do. Voice mode mainly determines the combination of the type of sound source used and the number of streams.
In addition, a distinction between a single tone and a multiple tone and, in the case of a multiple tone, the number of simultaneous sounds are defined. use
The combination of the type of sound source and the number of streams is such that the sound source used by the four elements 1-4 is PC
M or FM, or not use this element
Can be defined by This is called the "element type"
Defined by the data. "Element type" includes 3 types of 0, 1, 2
The contents of each are as follows.   Element type 0: Not used   Element type 1: Use FM sound source   Element type 2: Use PCM sound source   The element type of each of the four elements 1 to 4 in each voice mode is
It is stored in advance in an element type table ETT having contents as shown in FIG.
. The element type table ETT contains a data indicating the number of simultaneous possible sounds.
Data is also stored. In other words, the number of simultaneous possible pronunciations is different.
This is the maximum value at which the tone signal of the pressed key can be generated simultaneously.   The voice modes 1 to 3 are voices in the monophonic sound mode, and the number of simultaneous sounds is one.
It is.   In voice mode 1, element 1 is element type 1, that is, an FM sound source.
The other elements 2 to 4 are element type 0, that is, unused. Therefore,
This is a single tone voice series composed of element tone colors of the FM sound source.   In voice mode 2, elements 1 and 2 are element type 1, that is, FM sound source
And the other elements 3 and 4 are element type 0, that is, unused. Follow
Therefore, two single-tone sequences composed of element tones of the FM sound source (two sequences are related to the same pressed key)
Is generated on two channels).   In voice mode 3, all elements 1-4 are element type 1, that is, FM sound
Source. Therefore, four single-tone sequences composed of element tones of the FM sound source (the four
(Tones related to the same pressed key are generated in four channels).   Voice modes 4 to 10 are voices in the multiple tone generation mode.
Each is as described on the table.   In voice mode 4, element 1 is element type 1, that is, an FM sound source.
The other elements 2 to 4 are element type 0, that is, unused. Therefore,
This is a series of multiple tone voices composed of element tones of the FM sound source.
Is 16 sounds.   In voice mode 5, elements 1 and 2 are element type 1, that is, FM sound source
And the other elements 3 and 4 are element type 0, that is, unused. Follow
This is a two-tone double tone voice composed of element tones of the FM sound source.
Noh has eight sounds.   In voice mode 6, element 1 is element type 2, that is, a PCM sound source.
Yes, the other elements 2 to 4 are element type 0, that is, unused. Therefore
, A series of multi-tone voices composed of element tones of PCM sound sources.
Noh is 16 sounds.   In voice mode 7, elements 1 and 2 are element type 2, that is, PCM sound.
The other elements 3, 4 are element type 0, that is, unused. Obedience
Therefore, it is a two tone series voice composed of element tones of PCM sound source.
The number of possible sounds is eight.   In voice mode 8, all elements 1-4 are element type 2, ie, PCM
Sound source. Therefore, four series of double tone voices composed of element tones of PCM sound source
, And the number of simultaneous sounds is four.   In voice mode 9, element 1 is element type 1, that is, FM sound source, Element 2 is element type 2, that is, a PCM sound source.
4 is element type 0, that is, unused. Therefore, the elements of the PCM sound source
It is a two-tone double tone voice composed of a combination of tone colors and element tone colors of FM sound sources.
The number of simultaneous sounds is 16 sounds.   In voice mode 10, elements 1 and 2 are of element type 1, that is, FM sound
Sources, Elements 3 and 4, are Element Type 2, a PCM sound source. Therefore,
It is a four-voice compound sound composed of a combination of two PCM sound sources and two FM sound sources.
The number of simultaneous sounds is eight. Explanation related to processing by microcomputer   FIG. 10 shows data and data stored in registers in the working RAM 12.
This is an example of the main data, and their roles are explained in the flowchart.
And will be revealed later.   FIG. 11 shows an example of the contents of the entry point table EPT. Entry point
The int table EPT is composed of a display screen (page) on the display unit DPY and an operation panel.
In response to the ON event of the switch,
This is a table indicating the routine to be executed next.   Next, an example of processing executed by the microcomputer will be described with reference to FIGS.
A description will be given with reference to a descending flowchart.   FIG. 12 shows an example of a main routine.
The initialization process is performed to initialize the contents of each register and memory. Next, "Keith
In the “can and assign process”, each key switch in the keyboard circuit 14 is scanned.
To detect the on / off status and assign the pressed key to any of the sound channels.
Perform the process. The processing performed in this “key scan and assignment processing”
One example is “key-on event processing”, an example of which is shown in FIGS. 25 and 26.
The details will be described later. In this "key-on event process", the key is
When newly pressed, the tone signal corresponding to the key is generated by the PCM sound source 17 and
And / or perform processing for assigning to the channel of the FM sound source 18.   In the “performance controller process”, the operation of the performance controller 16 is detected and the operation is performed.
A predetermined process is performed when the state changes.   In the “function switch processing”, the function switch unit FSW
Event (change from off to on) and an on event is detected.
Then, a function switch on event routine as shown in FIG.
Do.   In the “other panel scan process”, the other operators on the operation panel 15
And key switches are scanned to detect their on / off status, and various
Perform processing. One example is the key switch that is turned on and the current state of the display unit DPY.
Referring to the entry point table EPT of FIG. 11 according to the page of FIG.
A switch-on event subroutine as shown in FIGS. How to read the entry point table EPT   In the entry point table EPT of FIG. 11, the vertical column has each key or switch.
Switch on event, and the horizontal column indicates the display section D at the time of the switch on event.
2 shows a PY page. The symbol at the intersection of the vertical and horizontal columns should be called
Indicates a subroutine (that is, an entry point of the subroutine). Each subroutine
I will explain Chin later. Here, the symbol “NoEP” is replaced with “No ent.
Subpoint, which means the subroutine to be called (ie, the entry point
G) does not exist. Processing when operating the function switch   When any of the function switches F1 to F8 is turned on, the file shown in FIG.
An action switch on event routine is performed. Here, first, on
Function switch buffer FSW
BUF, and then the function switch buffer FSWBUF and the current
Referring to the entry point table EPT in FIG.
A predetermined event assigned to the function switch on the page.
Get the entry point data of the subroutine
The data is stored in the buffer EPBUF. And this entry point buffer EPB
After confirming that the contents of the UF are not the no entry point NoEP,
Event processing subroutine corresponding to the contents of the entry point buffer EPBUF
Call. The current page PAGE is the current display page of the display unit DPY.
ー It shows the page. About voice selection   In this electronic musical instrument, currently selected for pronunciation or editing work
The voice number indicating one voice being recorded is stored in a predetermined register or voice number.
Is stored in the member register. Voice stored in this voice number register
The number is indicated by VN. By referring to this voice number VN,
Is selected.   The selection of a desired voice is displayed on the display section DPY as shown in FIG.
Select "page. When the display screen of the display unit DPY
By pressing the voice key VOICE (Fig. 7) on a page other than
In the entry point table EPT (FIG. 11), the "voice selection subroutine"
The EPV is called, and the voice can be selected.   The voice selection subroutine EPV will be described with reference to FIG.
The content of the current page PAGE indicating the page of the display unit DPY is changed to “voice selection”.
The page is set to "1" (step 50).   Next, the screen display of the display unit DPY is displayed in a "voice selection" page as illustrated in FIG.
And displays the voice name of each selectable voice along with the voice number.
, Place the cursor at the position of the specific voice indicated by the voice number VN (
Step 51).   Next, a voice data port for reading the voice data memory VDM (FIG. 8) is used.
The inter VOICEP is set to a value corresponding to the current voice number VN (step
52).   Next, the voice data pointer designated by the voice data pointer VOICEP
The voice mode data is read from the rear, and is read out from the voice mode register VMOD.
Set to E. In other words, VMODE is the voice mode of the currently selected voice
Is shown. Also, the element start pointers ESP (1) to ESP (4) are
4 in the voice data area indicated by the data pointer VOICEP
Set the value corresponding to the “Element parameter data” area of
Step 53).   Next, the element type table is set according to the contents of the voice mode register VMODE.
With reference to the Bull ETT (FIG. 9),
Value in the column of the number of simultaneous sounds in the element type table ETT).
It is stored in the hour soundable number register NSCH (step 54).   In this way, the “voice selection” page as illustrated in FIG.
Then, in the state where the page is displayed, next, the data input unit 42 or the cursor key CSR
(FIG. 7), the voice number VN is changed accordingly, and the desired button is changed.
You can choose a chair.   To explain this point, with the "Voice Selection" page displayed,
When the data input unit 42 is operated, the entry point table EPT (FIG. 11)
) Calls a "voice selection numerical value input subroutine" EPDS (1). Also,"
The cursor key CSR is operated while the "voice selection" page is displayed
In the entry point table EPT (FIG. 11), "voice selection cursor key
-Call on-event subroutine "EPCD (1)". The cursor key C
There are two types of SR, a vertical cursor and a horizontal cursor.
Although the details are slightly different, for convenience of explanation, it is assumed that there is one cursor key CSR.
explain.   Voice selection numerical input subroutine EPDS (1) and voice selection cursor key on
The event subroutine EPCD (1) will be described with reference to FIG.
When the data input unit 42 is operated, the data input by the data input unit 42 is performed.
The voice number VN is changed in accordance with the entered numerical value (step 55).   Next, the position of the cursor on the display section DPY is changed by a new voice number VN.
Is moved to the position of the specific voice designated by the user (step 56).   The processing in steps 57, 58, and 59 to be performed next is performed in steps 52, 53 in FIG.
, 54, the voice data corresponding to the new voice number VN.
Pointer VOICEP and element start pointers ESP (1) to ESP (4)
Setting, voice mode VMODE setting, and simultaneous
The possible number register NSCH is set.   When the cursor key CSR is pressed, the value of the voice number VN is increased by 1 ( Step 60). This increase is performed modulo 16. The reason for using Modulo 16 is
This is because the number of selectable voices is set to 16. After that, the above steps 56 to
The processing of 59 is performed.   As is apparent from the above, according to the operation of the data input unit 42, the desired voice number
Key can be entered at once, and the cursor key CSR
A desired voice number is finally input by shifting the number VN one by one.
. Introduction to edit processing   When performing an editing operation to change or modify the voice data of a desired voice, first,
As described above, the "voice selection" page is called on the display unit DPY, and the desired voice is selected.
Selection is made and the contents of each register VN, VOICEP, VMODE, NSCH,
ESP (1) to ESP (4) are set to contents corresponding to the desired voice. Next,
Press the edit key EDIT (Fig. 7) to enter the edit process.
it can.   When the display screen of the display unit DPY is on the “voice selection” page, the edit key ED
By pressing IT, “E” is displayed in the entry point table EPT (FIG. 11).
Call the digit introduction routine "EPED". This edit introduction routine EP
A detailed example of the ED is shown in FIG.   In the editing introduction routine EPED, first, the voice corresponding to the voice number VN
Reads one set of voice data from the voice data area and sends it to the voice edit buffer.
Copy to VEB (FIG. 8) (step 61). After that, various editing operations
Apply to voice data stored in the issue edit buffer memory VEB.
Is done. In other words, the voice edit buffer memory VEB stores the voice data.
This is a dedicated buffer for gathering.   Copy of one set of voice data to voice edit buffer memory VEB
The method is as described above. That is, "voice name", "voice mode" and
"Common data" is copied to the common data buffer CDB. Also, at most 4
Each parameter data corresponding to one element depends on its element type.
The one corresponding to the FM sound source is the four in the FM edit buffer FMEB.
FM Copy the element edit buffers 1 to 4 in ascending order of number.
The one corresponding to the PCM sound source is stored in the PCM edit buffer PCMEB.
Of the four PCM element edit buffers 1 to 4
Copy in order. Then, the remaining FM elements whose data was not copied
In the edit buffer, the “element parameter data” for the FM sound source is stored.
Each of the predetermined initial values (or reference values) is stored, and similarly, the data is copied.
The remaining unedited PCM element edit buffers have "PCM sound source"
Prescribe predetermined initial values (or reference values) of "element parameter data".
Remember   Next, the value of the voice data pointer VOICEP is stored in the edit buffer memory V
Set to the start address of EB, and edit start pointer EDS (1)
EDEDS (4) are changed to four FM elements in the FM edit buffer FMEB.
Ment edit buffers 1 to 4 and PCM edit buffer PCMEB
Out of the four PCM element edit buffers 1 to 4
Element edit buffer that copies the parameter data corresponding to the element
Set to the start address of each. Therefore, the FM edit buffer FME
B and a total of eight element edits in the PCM edit buffer PCMEB
Elements 1 to 4 related to the voice currently being edited in the
The one that stores the parameter data corresponding to the edit start point
Are designated by EDS (1) to EDS (4).   Next, the voice mode data is read from the common data buffer CDB, and
This is set to VMODE, and this voice mode VMODE has 10 voice modes.
It is checked which one of the commands 1 to 10 (refer to FIG. 9) (step 63).   Voice mode 1 where the content of voice mode VMODE uses only element 1
, 4 or 6, go to step 64 and edit mode EMODE
Is greater than two.   The edit mode EMODE indicates the content of the editing work at the moment,
The value takes any one of 0 to 5, and the relationship between the value and the edited content is as follows. EMODE = 0: Voice mode selection EMODE = 1: Editing common data EMODE = 2: Edit data of element 1 EMODE = 3: Data editing of element 2 EMODE = 4: Data editing of element 3 EMODE = 5: Data editing of element 4   Therefore, if the edit mode EMODE is greater than 2, the element 2 or
This is the mode to edit data of 3 and 4, and only element 1 is used.
It is unnecessary in the voice mode 1, 4 or 6 to be used. Therefore,
If the answer to the question in the step 64 is YES, the process goes to a step 65 and the edit mode EMODE is set.
Is reset to 0.   Voice mode The content of VMODE is a voice mode using only elements 1 and 2.
If the command indicates the mode 2, 5, 7 or 9, the process goes to step 66 and the edit mode E
Check if MODE is greater than 3. Edit mode EMODE from 3
Large means that the mode is for editing data of element 3 or 4
And in voice mode 2, 5, 7 or 9 using only elements 1 and 2
Is unnecessary. Therefore, if step 66 is YES, step 67
Go and reset the edit mode EMODE to zero.   Voice mode Voice mode in which the contents of VMODE use all elements 1 to 4
When 3, 8 or 10 is indicated, the judgment of the edit mode EMODE is not performed.
Then, go to step 68.   In step 68, the value of the edit mode EMODE is any one of 0 to 5
Is checked, and a corresponding edit introduction subroutine (steps 69 to 74) is executed.
Execute. Voice mode selection   If the value of the edit mode EMODE is 0, the voice mode selection introduction
Perform a routine VMMSSUB. FIG. 17 shows an example of this subroutine VMSSUB.
Is shown in   First, in step 75, the current page PAG indicating the page of the display unit DPY
The content of E is set to a predetermined value nE indicating a “voice mode selection” page
.   In the next step 76, the screen display of the display unit DPY is as shown in FIG.
Go to the "Voice Mode Selection" page, and select the sound source and series for each of Voice Modes 1 to 10.
Displays the combination information of numbers and information indicating the distinction between single and double tones, and the current voice mode
The specific voice mode indicated by VMODE (ie, the currently selected voice mode)
Place the cursor at the position of the voice mode
The sound source type of each of the elements 1 to 4 in the mode is displayed in the upper right
Component display). Also, each of the function switches F1 to F5
"MODE", "COM", "E1", "E2", "E3", "E4" are displayed as display,
The function of each function switch F1 to F5 becomes the edit mode selection function
To indicate that “MODE” indicates voice mode selection, and “COM” indicates common mode.
"E1" to "E4" are data editions of elements 1 to 4, respectively.
This shows the edit mode for performing collection. In this function switch display
Changes the current edit mode (voice mode selection MODE in this example) to normal
Are displayed, the other edit modes are displayed in white, and those edit modes are
Indicates that selection is possible by operating a function switch.   The screen display of the display unit DPY is "voice mode selection" as exemplified in FIG.
The process of setting the “select” page is performed by the voice mode selection introduction subroutine VM as described above.
Instead of SSUB, a voice mode selection subroutine EPVM may be used.
In other words, on edit mode pages other than the voice mode selection page,
As described above, the voice mode selection is assigned to the function switch F1.
These edit mode pages are displayed on the display unit DPY.
When the function switch F1 is turned on while displaying, the entry point
In the voice table EPT (FIG. 11), the "voice mode selection subroutine" EPV
Call M.   This voice mode selection subroutine EPVM corresponds to the voice mode in FIG.
It is shown together with the selection introduction subroutine VMSUB. First, step 77
In, the edit mode EMODE is set to "0" indicating "voice mode selection".
Then, the processes of steps 75 and 76 are performed.   In this manner, the "voice mode selection" as illustrated in FIG.
" Next, in a state where the page is displayed, the data input section 42 or the cursor key C
When the SR is operated, the value of the voice mode VMODE is changed accordingly,
Voice mode can be selected.   To explain this point, let's say that the “Voice Mode Selection” page is displayed.
When the data input unit 42 is operated, the entry point table EPT (the
In FIG. 11), the "voice mode selection numerical value input subroutine" EPDS (nE) is called.
Out. While the “Voice Mode Selection” page is displayed,
When the key CSR is operated, the entry point table EPT (FIG. 11)
"Voice mode selection cursor key on event subroutine" EPCD (nE)
Call.   Voice mode selection numerical input subroutine EPDS (nE) and voice mode selection
See FIG. 18 for the cursor key on event subroutine EPCD (nE).
First, when the data input unit 42 is operated, this data input
The voice mode VMODE is changed in accordance with the numerical value input by the
Step 78).   Next, the position of the cursor on the display unit DPY is changed to the new voice mode VMODE.
(Step 79).   The element type table ETT (No.
From FIG. 9), the sound source type of each element 1 to 4 in the voice mode is read out.
The element configuration display corresponding to this is performed on the upper right of the screen of the display unit DPY (step
80).   Next, according to the new voice mode VMODE, the edit buffer memory VE
B. Edit start pointers EDS (1) to ED of elements 1 to 4 in B
The value of S (4) is reset (step 81). This is for each edit start point
To match the new EDS (1) to EDS (4) to the new voice mode VMODE.
is there.   Next, according to the contents of the new voice mode VMODE, the element type table
Refer to the ETT and the number of simultaneous sounds that can be performed in that voice mode (element type
Value in the column of the number of simultaneous sounds in the table ETT) The data is stored in the register NSCH (step 82).   When the cursor key CSR is pressed, the value of the voice mode VMODE is increased by 1.
(Step 83). Voice mode values now range from 1 to 10
If the value of the VMODE increased by 1 becomes larger than 10,
The value of DE is reset to "1" (steps 84 and 85). After that,
Steps 79 to 82 are performed.   As is apparent from the above, according to the operation of the data input unit 42, the desired voice mode is set.
Can be selected at one time, and the cursor key CSR allows voice
The desired voice mode is finally set by shifting the value of the mode VMODE one by one.
Select Editing common data   In step 68 of FIG. 16, it is determined that the value of the edit mode EMODE is 1.
Then, a common data edit introduction subroutine COMSUB is performed. This
An example of the subroutine COMSUB is shown in FIG.   First, in step 86, the current page PAG indicating the page of the display section DPY
The content of E is set to a predetermined value nE + 1 indicating a “common data edit” page.
set.   In the next step 87, the screen display of the display unit DPY is as shown in FIG.
Display the common data name on the "Common Data Edit" menu page
Cursor on the currently selected common data name and
The sound source type of each element 1-4 in the voice mode VMODE
To be displayed. Also, as described above, the function switches F1 to F5
Display. Note that the currently selected voice mode VMODE is
Corresponding to elements not used in the element configuration
No switch display is made. In the example of FIG. 29, “E3” and “E4” are not displayed
.   The screen display of the display unit DPY is referred to as “Common Data
The process for making a page of the “Edit” menu is performed by the common data editing as described above.
Common data edit subroutine without using the subroutine COMSUB
It may be by chin EPCOM. In other words, "Common Data Edit" menu On edit mode pages other than the
The function to select the editing of common data is assigned to the option switch F2.
These edit mode pages are displayed on the display unit DPY.
When the function switch F2 is turned on while the
In the table EPT (Fig. 11), the "common data edit subroutine" EPCO
Call M.   This common data edit subroutine EPCOM is
This is shown together with the data edit introduction subroutine COMSUB. here
Then, in step 88, the edit mode EMODE is set to "common data
Digit), and then perform the processing of steps 86 and 87 described above.
U.   In this way, the display unit DPY displays the "common data editor" as illustrated in FIG.
While the "IT" menu page is displayed, the data input section 42
When the cursor key CSR is operated, the cursor moves in response to the desired key.
You can select mon data. After selecting the desired common data, enter
Key ENTER (Fig. 7), the entry point table EPT (Fig. 1) is pressed.
Referring to FIG. 1), a subroutine EPET (lower than “common data edit”)
nE + 1) is called, and according to this, the page of the display unit DPY is switched to a lower page.
Instead, it is possible to change or correct the details of the desired common data.
The description of the lower subroutine EPET (nE + 1) will be omitted. Edit data for each element   Here, the data editing for element 1 is described in detail, and other elements are edited.
The data editing for the elements 2 to 4 is almost the same processing as this, so a detailed description will be given.
Is omitted.   In step 68 of FIG. 16, it is determined that the value of the edit mode EMODE is 2.
Then, an edit introduction subroutine E1SUB for element 1 is performed. This
An example of the subroutine E1SUB is shown in FIG.   First, in step 89, the element type is set according to the voice mode VMODE.
Referring to the table ETT, read out the sound source type of the element 1, and Store in the event type buffer ETBUF.   Next, in step 90, the value of the element type buffer ETBUF is checked.
. If "0", that is, if this element is not used, this subroutine ends.
, “1”, that is, if it is the FM type, the process goes to step 91 and the page of the display unit DPY is displayed.
The page of the current page that instructs the page, the “FM data edit” page
Set to a prescribed value nE + 2 to be instructed.   In the next step 92, the screen display of the display unit DPY is as shown in FIG.
Go to the “FM Data Edit” menu page and enter various FM parameter data
Name, and place the cursor on the currently selected FM parameter data name.
Of each of the elements 1 to 4 in the currently selected voice mode VMODE.
The sound source type is displayed on the upper right. Also, as described above, each function switch F
Display corresponding to 1 to F5 is performed.   To explain an example of the FM parameters, Algo operates the FM operation units OP1 to OP1.
This is an algorithm parameter for setting the connection combination of OP6. Op EG shows each performance
These are parameters for setting the envelope waveform for each of the calculation units OP1 to OP6.
FBPCL is a feedback level data for each of the operation units OP1 to OP6.
Data FL1 to FL6 and external input level control data EXTL1 to EXTL6 (the
4 (see FIG. 4).   On the other hand, the value of the element type buffer ETBUF is "2", that is, the PCM type.
If so, the process proceeds to step 93, where the current page P indicating the page of the display unit DPY is set.
The content of AGE is set to a predetermined value nE + indicating a “PCM data edit” page.
Set to 3.   In the next step 94, the screen display of the display unit DPY is as illustrated in FIG.
Go to the “PCM data edit” menu page and enter various PCM parameter data.
Data name, and place the cursor on the currently selected PCM parameter data name.
And each element 1 in the currently selected voice mode VMODE.
4 sound source types are displayed on the upper right. Also, as described above, each function switch
The display corresponding to the switches F1 to F5 is performed.   In step 95, edit mode EMODE is set to edit data of element 1. Is set to "2". The set of “2” in step 95 is
It is valid when the value of the digit mode EMODE is still other than "2".   It should be noted that the screen display of the display unit DPY is as shown in FIG. 30 or FIG.
In the “FM Data Edit” menu or the “PCM Data Edit” menu
The processing for turning into a page is performed by the above-described subroutine E1SUB for introducing element 1.
Instead, an edit subroutine EPE1 of element 1 may be used.
In other words, on the pages of various edit modes, the function
The function to select the data editing of element 1 is assigned to the function switch F3.
These edit mode pages are displayed on the display section DPY.
When the function switch F3 is turned on when shown, the entry point
In the table EPT (FIG. 11), "Edit subroutine for element 1"
Call EPE1.   The edit subroutine EPE1 of this element 1 is shown in FIG.
This is shown together with the introduction subroutine E1SUB of the statement 1. Here,
In step 96, the edit mode EMODE is changed to "Edit element 1".
Check if it is already set to "2", and if YES, check this subroutine.
Return without further editing, but if no, another edit mode
Switch to element 1 edit mode.
The subroutine is continued, and the processes of steps 89 to 95 are performed.   In this way, the display unit DPY displays “F” as illustrated in FIG. 30 or FIG.
M Data Edit menu or PCM Data Edit menu page
Page is displayed, the data input unit 42 or the cursor key CS
When R is operated, the cursor moves accordingly and selects the desired parameter data
can do. After selecting the desired parameter data, enter key ENT
Press ER (Fig. 7) and refer to the entry point table EPT (Fig. 11).
The “FM Data Edit” menu or the “PCM Data Edit” menu.
The subroutine EPET (nE + 2) or EPET (nE + 3) at the lower level of the menu is called.
In response to this, the page of the display unit DPY is switched to a lower page and a desired page is displayed.
Can change or modify the details of FM or PCM parameter data You. This lower subroutine EPET (nE + 2) or EPET (nE + 3)
The description is omitted.   An example of the change / correction of the details of the FM parameter data will be described with reference to FIG.
In the “FM Data Edit” menu page of
When you select BPCL edit (that is, move the cursor to number 9 and enter
-Key ENTER), the display section DPY provides feedback as shown in FIG.
And PCM level edit page. On this page screen,
By appropriately operating the cursor key CSR and the data input unit 42, each operation of the FM sound source 18 is performed.
A feedback level and a PCM level are provided for each of the units OP1 to OP6.
Set to the desired value. As described above, the feedback level is
Level data that sets the ratio of returning the output of the unit as its own modulated wave signal.
, Which correspond to the feedback level data FL1 to FL6 in FIG.
. The PCM level means that the tone signal output from the PCM sound source 17 is calculated by each arithmetic unit of the FM sound source 18.
Level data for setting the ratio of input as a modulated wave signal to the units OP1 to OP6
This is the external input level control data EXTL1 to EXTL in FIG.
Corresponds to 6. As described above, do not use feedback or PCM modulated wave signals.
Otherwise, the values of these level data are set to 0.   The above is the description of the data editing for the element 1.
Edit data for contacts 2 to 4 in almost the same procedure.
Can be.   That is, the value of the edit mode EMODE is 3 in step 68 of FIG.
If it is determined that there is, an edit introduction subroutine E2SUB for element 2
(Step 72), and when EMODE = 4, the editing of the element 3 is started.
An input subroutine E3SUB is executed (step 73), and if EMODE = 5,
An edit introduction subroutine E4SUB for element 4 is performed (step 74).
Also, when the edit mode page is displayed on the display unit DPY,
By turning on the function switches F4 to F6, the entry point
In the table EPT (FIG. 11), the "edit subroutine" of elements 2 to 4 is used.
To do this. Store processing   When the desired edit is completed, press the store key STORE (FIG. 7)
The edited voice data is stored in the voice edit buffer memory VEB.
Return to the voice data memory VDM.   When the display screen of the display unit DPY is a page in some edit mode,
When the key STORE is pressed, the entry point table EPT (FIG. 11) is displayed.
Calls the "store subroutine" EPST. This store subroutine EPS
A detailed example of T is shown in FIG.   In the store subroutine EPST, first, the current value is stored in the page buffer PAGEBUF.
The page data of the current page PAGE is moved, and the contents of the current page PAGE are
(A) It is set to a predetermined value nS indicating the page. Page buffer PAGEBU
F to return the screen to the original page during the store process or after the store process ends
It is provided in. Next, the screen display of the display unit DPY is exemplified in FIG.
On the “Store” page, display the current voice number and voice name, and
The voice name corresponding to the issue number is displayed, and the store voice number STVN is displayed.
Place the cursor at the position of the voice number indicated by. Also, the function
The QUIT key QUIT is displayed in response to the switch F1 and the function
The start key STRT is displayed in correspondence with the switch F8.   In this way, the “store” page as illustrated in FIG. 33 is displayed on the display unit DPY.
Next, in the displayed state, the data input unit 42 or the cursor key CSR is operated.
If you do, the value of the store voice number STVN will be changed accordingly and edited
You can select the desired voice number to store the voice data of
You.   To explain this point, while displaying the “Store” page,
When the data input unit 42 is operated, the entry point table EPT (FIG. 11) is used.
Calls the "store voice number numerical input subroutine" EPDS (nS).
When the “Store” page is displayed, the cursor key CSR is operated.
Then, in the entry point table EPT (FIG. 11), the store voice number is displayed.
Call "Cursor key on event subroutine" EPCD (nS) for selection You.   Store voice number numerical input subroutine EPDS (nS) and cursor key on
The event subroutine EPCD (nS) will be described with reference to FIG.
When the data input unit 42 is operated,
The value of the store voice number STVN is changed in accordance with the numerical value. Next, the display
The position of the cursor in DPY is indicated by the new store voice number STVN.
Move to the specified voice number location. When the cursor key CSR is pressed,
In this case, the value of the store voice number STVN is increased by 1 with modulo 16, and thereafter
, The cursor position on the display unit DPY is changed to the new store voice number STVN.
Therefore, it moves to the position of the specified voice number.   Thus, the desired voice number for which the edited voice data is to be stored is stored.
Is registered in the store voice number STVN, and then the start key STRT (that is,
The function switch F8) is turned on. Then, the entry point table
The "store execution subroutine" of FIG. 23 is called by the EPT. here
First, at the bottom of the screen on the “Store” page, type “Now Storing”.
A) A display indicating that execution is in progress is performed. And the store voice number STVN
The store voice pointer STVP is set according to. This store voice pointer
STVP is stored in the voice data memory VDM corresponding to the voice number of STVN.
Of the voice data area to be transmitted.   Then, the voice memory VD indicated by the store voice pointer STVP
M in the voice data area in the voice edit buffer memory VEB.
Transfer data. In this case, the data in the voice edit buffer memory VEB is all
Instead of transferring a part, transfer necessary ones according to the contents of voice mode VMODE.
Send. First, the "voice name", "voice mode" and
And "common data" correspond to the voice data area in the voice memory VDM.
Is transferred to the area where Next, the four in the FM edit buffer FMEB
Element edit buffers 1 to 4 and PCM edit buffer PC
Of the four PCM element edit buffers 1 to 4 in the MEB,
Only those necessary according to the contents of the chair mode VMODE are stored in the voice memory VDM. To the corresponding element parameter data area of the voice data area
It is.   Then, the content of the current page PAGE is changed to the next page nS + 1, and the predetermined page is stored.
An end display (for example, “Complete!” Is displayed at the bottom of the screen) is performed.   “Store” page with page number nS or “Store End” page with nS + 1
Function switch F1 functions as the quit key QUIT
When this is turned on, the quit key on event subroutine of FIG. 24 is executed.
Is performed. Here, the page data of the page buffer PAGEBUF is stored in the current page.
To move to the page specified by the current page PAGE.
Call the routine. As a result, during the store process or after the store process ends
Then, when the QUIT key QUIT is turned on, the screen of the display unit DPY changes to the store process.
It returns to the page screen of the process just before entering. This makes it possible to edit again
I can do it. Pronunciation assignment process   When the key is newly pressed, the key-on event processing shown in FIG.
A key pronunciation is assigned to one or more channels.   First, the key code of the pressed key related to the key-on event is stored in the key code register KC.
ODE, and stores the corresponding touch data in the touch data register TDA.
Store in TA (step 100).   Next, 1 is set according to the simultaneous soundable number registered in the simultaneous soundable number register NSCH.
A next assigned channel ASCH is determined, and a new assigned channel is assigned to the primary assigned channel ASCH.
A pressing key is temporarily assigned (step 101).   The primary assignment channel ASCH is not an actual sounding channel, but an actual sounding channel.
This is used before assigning to the sound channel. Primary assignment channel
The number of ASCHs corresponds to the number of simultaneous sounds that can be performed. In the case of multi-line pronunciation of the same key
In the actual sounding channel, the same key is sounded and assigned to a plurality of channels.
However, the same key is assigned to only one channel for the primary assignment channel ASCH.
Absent. The number of simultaneous sounds NSCH, the actual sounding channels with a total of 16 channels
An example of the relationship between the channel and the primary assignment channel ASCH is as follows.
In addition, Each of the 16 actual sounding channels is represented by a number from 0 to 15.
Each of the primary assignment channels ASCH is represented by a number from 0 to 15. When the number of simultaneous sounds NSCH = 1:   Primary assignment channel ASCH is only "0".   The actual sounding channel is “0” according to the number of streams (the number of elements used).
"To" 3 "are used. However, the same key is assigned to each sounding channel
. When the number of simultaneous sounds NSCH = 4:   The number of primary assignment channels ASCH is four in total from “0” to “3”.   The actual sounding channels are “0” to “3” groups, and “4” to “7” groups.
Group, groups "8" to "11", groups "12" to "15",
Are used. Each group is assigned a different key. Same group
The channels in the loop have the same number, depending on the number of sequences (number of elements used)
A key is assigned. For example, if only one element is used, it is in the same group
Press key is assigned to only one channel, and the same if two elements are used
The same pressed key is assigned to two channels in the group. When the number of simultaneous sounds NSCH = 8:   The number of primary assignment channels ASCH is a total of eight from “0” to “7”.   The actual sounding channels are “0” and “1” groups, and “2” and “3” groups.
Group, "4" and "5" groups, "6" and "7" groups, "8"
And “9” group, “10” and “11” group, “12” and “13”
, And “14” and “15” groups, for a total of eight groups.
. Each group is assigned a different key. Channels in the same group
The same key is assigned according to the number of streams (the number of elements used). When the number of simultaneous sounds NSCH = 16:   There are a total of 16 primary assignment channels ASCH from "0" to "15".   Actual sound channels use “0” to “15” individually. Each pronunciation cha
Different keys are assigned to the channels. The number of series (the number of elements used) is 1
is there.   In step 101, as described above, according to the number of simultaneous possible sounds of NSCH Temporarily assign a new pressed key to one of the determined primary assignment channels ASCH
. In the following, the symbol ASCH is the one temporarily determined in step 101.
Description will be made as data specifying the number of one primary assignment channel.   In the next step 102, it is checked whether or not the temporary allocation was determined in the previous step 101.
You. For example, if more keys are pressed at the same time than the
In some cases, a tentative allocation decision may not be made at 101, in which case step 102
It becomes O. If the provisional assignment is determined, step 102 is YES, and
Go to top 103.   In step 103, the element number i is set to "1".   In step 104, the ith element for the currently selected voice
Of the sound source type from the element type table ETT
Register in the type buffer ETBUF.   In the next step 105, generation of a tone signal for the i-th element is assigned.
Determine the actual channel to use, and enter the channel number
A Register in CHBUF. This assigned channel is the currently selected voice
Voice mode VMODE and the primary allocation channel provisionally allocated in step 101
Based on the ASCH, it is determined by a real allocation routine as shown in FIG. This
Will be described later in detail.   In the next step 106, the i stored in the element type buffer ETBUF
Check whether the type of the element is 0, 1, or 2. With FM sound source
If it is “1” indicating that there is, go to step 107 and
For the channel indicated by the channel buffer CHBUF, the i-th channel
Element parameter data and common data, and KCODE and TDATA
Key code and touch data, and a key-on signal KON indicating key-on are transmitted.
You.   If the element type is "2" indicating that it is a PCM sound source, step 10
8 and indicated by the channel buffer CHBUF in the PCM sound source 17
Parameter data and common data for the i-th element
Key code and touch data in KCODE and TDATA, and key data A key-on signal KON indicating the ON state is transmitted.   After step 107 or 108, go to step 109. On the other hand, the first d
If the element type is “0” indicating non-use, the process proceeds to step 107 or 108.
Without transmitting data to the tone generator channel.
Go to top 109.   In step 109, it is checked whether i is 4 or more.
Go to the step 104, increment i, and return to the step 104.
Repeat the routine. That is, the tone assignment of the tone signal for another element
A process for determining a channel is performed. When i becomes 4 or more, this key-on event processing
To end.   Referring to the real allocation routine in FIG. 26, first, in step 111,
It is checked whether the voice mode VMODE is 1 to 10.   In the case of the voice modes 1, 2, 3 in which the number of simultaneous sounds NSCH is 1,
Go to step 112 and set the channel corresponding to the value of i-1 as the actually assigned channel.
It is determined and registered in the channel buffer CHBUF. Therefore, when 1-1, i
Assigned to channel -1 = 0, assigned to channel i-1 = 1 when i = 2
For example, the same key is sequentially assigned to channels “0” to “3”.
For unused elements, the data as in step 107 or 108 is used.
Since no data transmission processing is performed,
is there.   A voice in which the number of simultaneous sounds NSCH is 8 and only one kind of sound source is used
In the case of the mode 5 or 7, the process goes to the step 113 and the 2 × ASCH + i−1
The channel corresponding to the calculation result is determined as the actually assigned channel, and the channel
Register in the buffer CHBUF. Therefore, a certain key was provisionally assigned to ASCH = 0.
In this case, when i = 1, it is assigned to the channel corresponding to the operation result “0”,
At this time, "0" is assigned to the channel corresponding to the operation result "1".
And the same key is assigned to the channel “1”. In addition, another key is temporarily set to ASCH = 1.
If i = 1, it is assigned to the channel corresponding to the operation result "2"
, I = 2, the channel is assigned to channel “3”, and so on.
3 " Assign the same key to the channel.   In the case of voice mode 8 in which the number of simultaneously audible sounds NSCH is 4, step 114
And assigns the channel corresponding to the result of the calculation of 4 × ASCH + i−1 to the channel actually allocated.
The channel is determined as a channel and registered in the channel buffer CHBUF. Therefore, there is
When the key is provisionally assigned to ASCH = 0, when i = 1, it corresponds to the operation result “0”
Assigned to channel, when i = 2, assigned to channel "1", when i = 3
Is assigned to channel "2", and when i = 4, assigned to channel "3".
Thus, the same key is sequentially assigned to the channels “0” to “3”. Also another
When the key is provisionally assigned to ASCH = 1, when i = 1, it corresponds to the operation result “4”.
Channel, if i = 2, channel "5", etc.
Then, the same key is sequentially assigned to channels “4” to “7”.   In the case of voice mode 4, 6, or 9 where the number of simultaneous sounds NSCH is 16,
Goes to step 115, and the value of the primary assignment channel ASCH is actually assigned as it is.
And register it in the channel buffer CHBUF. So, for example,
When a key is provisionally assigned to ASCH = 0, regardless of the value of i,
The key is assigned to the “0” of the flannel. Therefore, voices that use two types of sound sources
In the case of mode 9, for example, when a certain key is provisionally assigned to ASCH = 0, the FM sound source
Is assigned to channel "0" of the FM sound source.
, The tone signal of the element 2 corresponding to the PCM sound source is the same channel of the PCM sound source.
Assigned to "0". In this way, the same key is assigned to the same channel of a different sound source.
It is.   A voice mode in which the number of simultaneous sounds NSCH is 8 and two types of sound sources are used
In the case of mode 10, the process goes to step 116 and 2 × ASCH + mod [(i−1) / 2
] Is determined as an actually allocated channel, and
Register in the channel buffer CHBUF. Therefore, a key is provisionally assigned to ASCH = 0.
In this case, when i = 1, mod [(i-1) / 2] = 0, and the operation result is "0".
. When i = 2, mod [(i-1) / 2] = 1 and
Assigned to the channel corresponding to the operation result "1". When i = 3, mod
Since [(i-1) / 2] = 0, it is assigned to the channel corresponding to the operation result "0"
, When i = 4, mod [(i−1) / 2] = 1, which corresponds to the operation result “1”.
Channels are assigned to elements 1 and 2 corresponding to the FM sound source.
Tone signals are assigned to channels "0" and "1" of FM sound source, corresponding to PCM sound source
The tone signals of the elements 3 and 4 are the same as the channels "0" and "1" of the PCM sound source.
Respectively. If another key is provisionally assigned to ASCH = 1, F
The tone signals of the elements 1 and 2 corresponding to the M sound source are channel 2 and the FM sound source.
And “3”, the tone signals of elements 3 and 4 corresponding to the PCM sound source are PCM
Assigned to the same channels “2” and “3” of the sound source, respectively. Modification example   The type of sound source is not limited to PCM and FM, and other types may be used. For example,
The tone calculation type sound source is not limited to FM, but may be used for amplitude modulation calculation (AM) or window function calculation.
Such materials are known and may be used as appropriate. In addition, high-density wave synthesis
A sound source based on a formula or a subtractive sound source using a filter may be used. Also
, The sound source systems of the first and second sound source means should be different, but the basic principle is
Even if they are the same, any configuration can be used as long as they can create unique sounds. Also, the first
And a combination in which one of the second sound source means is an FM sound source and the other is an AM sound source.
Noh.   In the above embodiment, the number of sequences (that is, the number of elements) in each sound source is selected.
Is automatically determined by the voice mode of the selected voice. For example,
Referring to FIG. 9, in voice mode 5, the number of FM sound source sequences = 2, and the number of PCM sound sources
The number of streams = 0. In voice mode 7, the number of FM sound source sequences = 0, PCM
The number of sound source sequences = 2. In the voice mode 10, the number of FM sound source sequences = 2
, PCM sound source sequences = 2. However, depending on the mode,
Players can now be set individually and arbitrarily without automatically determining the number of series
May be. In one embodiment, the element type table shown in FIG. 9 is used.
What is necessary is just to make it the structure which can create the table similar to ETT arbitrarily.   The channels in each sound source are not limited to the time division type, but may be of the parallel type.   The number of voices that can be generated at the same time is not limited to one, and may be plural. In that case,
Channel allocation using DVA (Dynamic Voice Allocation) method It is good to do it.   In a voice mode that uses only one sound source, the other unused sound source
It may be used for any appropriate purpose. For example, if you are not using a sound source,
A musical tone corresponding to the performance information given from the section may be generated. Also,
When the sound source channel to be used is all busy, do not use
Alternatively, the sound may be generated by the other sound source for convenience.   In order to simultaneously control the output tone signals of the two sound sources,
A circuit 23 for adding (or subtracting) output tone signals of both sound sources on an electric circuit.
However, the present invention is not limited to this.
After controlling the sound level, sound is output from separate speakers and spatially additively synthesized.
It may be. 〔The invention's effect〕   As described above, according to the present invention, one composite tone is composed of a plurality of element tones.
And the partial tone signal corresponding to each element tone is
Whether to occur can be individually indicated by element type information
Therefore, the sound source means of different sound source systems can be utilized in various combinations to make one
Able to form tones, give a wider range of sound creation, more complex and diverse sounds
It has an excellent effect that it can be made.   Also, each sound source means has a plurality of tone generation channels, and
Since the tone signal is generated independently by the
Using the channel to generate partial tone signals corresponding to multiple different element tones
It can be generated and can make sounds in various forms. That is, multiple
Some of the element tones are generated using some sound source means, while others are generated.
Can be generated using different sound source means, so that each selectable tone is supported
Tones can be formed in optimal and diverse combinations by
High quality sound by using a combination of sound source
This provides an excellent effect that a tone having a complex tone can be generated. Especially
Optimum element type information and parameter information corresponding to one selected tone
Information is generated, and each sound source hand is optimally combined in accordance with the selected tone.
Step By selecting and using each channel of, you can select based on these combinations
It is possible to generate a musical tone having a complex tone optimal for the tone.   Further, regarding one of the element timbres in the one composite timbre,
A change or setting of the parameter information can be instructed, and the designated
A sound of each of the sound source means according to the element type information on the element tone.
Automatically changes or sets the content of parameter information suitable for the source system
When editing tone data, which element tone is
It is not necessary to specify each time whether or not to use the source method, improving the operability of editing work
, Which is an excellent effect.   The timbre data of the desired composite timbre for which timbre data editing is to be performed is decompressed.
From the data memory to the editing storage means, and the tone color data stored there.
Data, such as changes and settings,,thisMemory for editing
Storage capacityMore than the maximum number of element tones that make up one composite tone
As a capacity that can store parameter information related to the element tone ofExtra secure
PleaseI tried, Edit to expand the amount of data,
To change the source system, etc., and improve the flexibility of editing work.
The effect is excellent.

【図面の簡単な説明】 第1図はこの発明の概要を示す機能ブロック図、 第2図はこの発明に係る電子楽器の一実施例の全体構成を略示するブロック図
、 第3図は第2図におけるトーンジェネレータ部の一例を示すブロック図、 第4図は第3図におけるFM音源の一例を示すブロック図、 第5図は第4図におけるFM演算ユニットの接続組合せの一例を示す機能ブロ
ック図、 第6図は第4図において第5図の接続組合せを実現するための各種信号のタイ
ミングチャート、 第7図は第2図の操作パネルにおける表示部及びスイッチ等の一例を示す図、 第8図はボイスデータメモリとボイスエディットバッファメモリのメモリマッ プを例示する図、 第9図はエレメントタイプテーブルの内容を示す図、 第10図は各種レジスタを一覧する図、 第11図はエントリポイントテーブルの内容を示す図、 第12図は第2図においてコンピュータによって実行されるメインルーチンを
略示するフローチャート、 第13図乃至第26図は第12図のメインルーチンの過程で実行される各種の
サブルーチンやスイッチオンイベントルーチンの一例を示すフローチャート、 第27図乃至第33図は第2図及び第7図に示した表示部における各種の表示
画面の内容を例示する図、である。 14…鍵盤回路、15…操作パネル、TG…トーンジェネレータ部、17…P
CM音源、18…FM音源、DPY…表示部、FSW…ファンクションスイッチ
部。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a functional block diagram showing an outline of the present invention, FIG. 2 is a block diagram schematically showing an overall configuration of an embodiment of an electronic musical instrument according to the present invention, and FIG. 2 is a block diagram illustrating an example of a tone generator unit in FIG. 2, FIG. 4 is a block diagram illustrating an example of an FM sound source in FIG. 3, and FIG. 5 is a functional block illustrating an example of a connection combination of the FM operation units in FIG. FIG. 6, FIG. 6 is a timing chart of various signals for realizing the connection combination of FIG. 5 in FIG. 4, FIG. 7 is a diagram showing an example of a display unit, switches and the like in the operation panel of FIG. 8 is a diagram illustrating a memory map of a voice data memory and a voice edit buffer memory, FIG. 9 is a diagram showing contents of an element type table, FIG. 10 is a diagram listing various registers, 11 is a diagram showing the contents of an entry point table, FIG. 12 is a flowchart schematically showing a main routine executed by a computer in FIG. 2, and FIGS. 13 to 26 are processes of the main routine in FIG. 27 is a flowchart showing an example of various subroutines and switch-on event routines executed in FIG. 27. FIGS. 27 to 33 are diagrams showing the contents of various display screens on the display unit shown in FIGS. 2 and 7. It is. 14 keyboard circuit, 15 operation panel, TG tone generator section, 17 P
CM sound source, 18 ... FM sound source, DPY ... Display unit, FSW ... Function switch unit.

Claims (1)

【特許請求の範囲】 (1)互いに異なる音源方式で楽音信号を形成する複数の音源手段であって、各音
源手段が夫々複数の楽音発生チャンネルを有するものと、 音色を選択する音色選択手段と、 複数のエレメント音色により1つの複合音色を構成し、各エレメント音色毎に
それに対応する部分楽音信号を前記どの音源手段で発生すべきかを指示するエレ
メントタイプ情報及び各エレメント音色毎のパラメータ情報を少なくとも発生す
るものであって、複数の前記複合音色に関して前記パラメータ情報及びエレメン
トタイプ情報を含む音色データをそれぞれ記憶したデータメモリを含み、前記音
色選択手段で選択された音色に対応して前記エレメントタイプ情報及びパラメー
タ情報を発生する音色パラメータ発生手段と、 各エレメント音色毎の前記エレメントタイプ情報に応じてそのエレメント音色
に対応する前記パラメータ情報を、該エレメントタイプ情報が指示する前記音源
手段に分配する分配手段と 複数の前記複合音色のうち1つを選択して、その音色データの内容の変更若し
くは設定を指示するエディット指示手段と、 このエディット指示手段で指示された複合音色に関する前記音色データを前記
データメモリから読み出して記憶するものであって、1つの複合音色を構成する
エレメント音色の最大数よりも多くのエレメント音色に関するパラメータ情報を
記憶できる容量を持つエディット用記憶手段と、 このエディット用記憶手段に記憶した音色データに対して変更若しくは設定を
施すエディット実行手段と を具備し、各音源手段では、分配されたパラメータ情報に対応するエレメント音
色を持つ部分楽音信号をそれぞれの楽音発生チャンネルに割り当てて発生し、こ
れら各音源手段の各チャンネルで発生した部分楽音信号の組合せにより前記選択
された音色に相当する前記複合音色を持つ楽音信号を発生するようにした電子楽
器。 (2)前記エディット用記憶手段は、1つの複合音色を構成するエレメント音色の
最大数に等しい数だけエレメント音色に関するパラメータ情報を記憶できるエリ
アを、前記音源手段の数分だけ持つものである請求項上に記載の電子楽器。
Claims: (1) A plurality of tone generators for forming tone signals by different tone generators, each tone generator having a plurality of tone generating channels, and a tone color selecting means for selecting a tone. A composite tone is composed of a plurality of element tones, and at least element type information and parameter information for each of the element tones indicating which of the tone generators should generate a corresponding partial tone signal for each of the element tones. Generating said parameter information and element information for a plurality of said complex tones.
Timbre parameter generation means for generating the element type information and the parameter information in correspondence with the timbre selected by the timbre selection means, the timbre parameter generation means including a data memory storing the timbre data including the timbre data respectively, A distributing means for distributing the parameter information corresponding to the element tone according to the element type information to the sound source means indicated by the element type information; and selecting one of the plurality of complex tones and selecting the tone Changes in data contents
Or edit instruction means for instructing the setting, and the timbre data relating to the complex timbre designated by the edit instruction means.
Read out from the data memory and store it, forming one composite tone
Parameter information for more element tones than the maximum number of element tones
An editing storage device having a storage capacity, and changing or setting the tone data stored in the editing storage device.
Editing means for performing the tone generation, wherein each tone generator assigns and generates a partial tone signal having an element tone corresponding to the distributed parameter information to each tone generating channel, and generates the partial tone signal in each channel of each tone generator. An electronic musical instrument configured to generate a tone signal having the complex tone corresponding to the selected tone by a combination of the partial tone signals. ( 2 ) The editing storage means has an area capable of storing parameter information relating to element tones by a number equal to the maximum number of element tones constituting one composite tone by the number of the sound sources. An electronic musical instrument as described above.

Family

ID=

Similar Documents

Publication Publication Date Title
US5354948A (en) Tone signal generation device for generating complex tones by combining different tone sources
US5406022A (en) Method and system for producing stereophonic sound by varying the sound image in accordance with tone waveform data
JP3707300B2 (en) Expansion board for musical sound generator
JPH06195075A (en) Musical tone generating device
JPH08234731A (en) Electronic musical instrument
JP2580794B2 (en) Electronic musical instrument
JP2513041B2 (en) Music signal generator
JPH06202654A (en) Electronic musical instrument
JP2580793B2 (en) Music signal generator
JP2580794C (en)
JP3156285B2 (en) Electronic musical instrument
JP2701177B2 (en) Tone generator
JPS6312393Y2 (en)
JP2888712B2 (en) Music generator
JP4197165B2 (en) Musical sound control parameter setting device and musical sound control parameter setting program
JP4192952B2 (en) Mobile phone
JPH064079A (en) Musical sound synthesizing device
JPH10124050A (en) Electronic musical instrument
JPH10124053A (en) Musical information inputting device
JPH0584919B2 (en)
JP3022170B2 (en) Control device
JP2549443Y2 (en) Electronic musical instrument with touch response function
JPH0895569A (en) Electronic instrument
JP3159442B2 (en) Music generator
JP2915753B2 (en) Electronic musical instrument