JP4037551B2 - Musical sound generator, electronic musical instrument, and storage medium - Google Patents

Musical sound generator, electronic musical instrument, and storage medium Download PDF

Info

Publication number
JP4037551B2
JP4037551B2 JP03178499A JP3178499A JP4037551B2 JP 4037551 B2 JP4037551 B2 JP 4037551B2 JP 03178499 A JP03178499 A JP 03178499A JP 3178499 A JP3178499 A JP 3178499A JP 4037551 B2 JP4037551 B2 JP 4037551B2
Authority
JP
Japan
Prior art keywords
musical
tone
sound
component signal
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03178499A
Other languages
Japanese (ja)
Other versions
JP2000231384A (en
Inventor
玄 和泉沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP03178499A priority Critical patent/JP4037551B2/en
Publication of JP2000231384A publication Critical patent/JP2000231384A/en
Application granted granted Critical
Publication of JP4037551B2 publication Critical patent/JP4037551B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、複数の楽音成分信号を合成して1つの楽音信号を生成して発生する楽音発生装置、該装置の機能を有する電子楽器、及び記憶媒体に関するものである。
【0002】
【従来の技術】
一般に、電子オルガンや電子ピアノ等の電子楽器は、弱音成分信号や強音成分信号といった複数の楽音成分信号から1つの楽音信号を生成して発生するようになされている。
具体的には例えば、電子楽器での同時発音数(ポリフォニック数)が16個であり、1つの楽音信号の元となる楽音成分信号が弱音成分信号と強音成分信号の2種類である場合、電子楽器には、1つの楽音信号を生成するための楽音発生部が同時発音数に対応して16個設けられる。また、それぞれの楽音発生部には、生成する楽音成分信号に対応してディジタルコントロールオシレータ(以下、「DCO」と言う)が設けられる。すなわちこの場合、弱音成分用の発音源としてのDCOと、強音成分用の発音源としてのDCOとの2つのDCOが組み込まれる。これらのDCOは、1つの鍵が押されることで同時に動作するようになされている。したがって、1つの鍵が押されると、16個の楽音発生部のうちのある楽音発生部は、2つのDCOによって弱音成分信号及び強音成分信号を生成し、これらの楽音成分信号を混合(合成)して、1つの楽音信号を生成して発生する。このとき、鍵タッチの強さに応じて、それぞれの楽音成分信号の混合比を変える。これにより、少ない楽音成分信号でも、大きな音色変化を得ることができ、生成する楽音成分信号の種類を多くすれば(弱音成分、中音成分、強音成分等)、さらに大きな音色変化を得ることができる。
【0003】
上述のようにして、ある1つの楽音信号を発生する際、このための発音チャンネルの割り当てが行われることで、該楽音信号に基づいた1つの発音がなされる。
例えば、弱音成分信号及び強音成分信号からなる1つの楽音信号を発生する場合、弱音成分信号に対して1つの発音チャンネルが割り当てられ、強音成分信号に対しても1つの発音チャンネルが割り当てられる。このため、1つの楽音信号の発生のために2つの発音チャンネルを使用することから、同時発音数を16音とするためには、音源LSIの発音チャンネルの総数が、16(同時発音数)×2(1楽音の発生に対する楽音成分の種類)=32個必要となる。
【0004】
ところで、発生される楽音成分信号のなかには、発音時間が非常に短い、すなわち短い時間だけ発音され直ぐに減衰する打撃音がある。このような打撃音の発生のために、上述したような楽音発生部には、打撃音成分(ノイズ成分)用のDCOをも組み込まれる。したがって、打撃音の発生の場合には、このDCOによって生成されたノイズ成分信号に対して発音チャンネルが割り当てられ、この結果、打撃音が発生することになる。
しかしながら、打撃音は短い時間だけ発生され直ぐに減衰するものであるにもかかわらず、この打撃音の発生のために打撃音成分用のDCOを、発音時間が比較的長い他の楽音成分(弱音成分等)と同様に、同時発音数分用意し、且つ発音チャンネルを割り当てることは、回路構成の複雑化及びコストアップという問題につながる。例えば、同時発音数を16音とする場合、音源LSIの発音チャンネルを、ノイズ成分信号に対する発音チャンネルとして16個増やす必要がある。
【0005】
そこで、上記の問題を解決するために、特開平3−293698号(特許番号第2701177号)公報等には、発音時間が比較的長い楽音信号の同時発音数に対して、発音時間が比較的短い打撃音等の楽音信号の同時発音数を少なく設定した構成が記載されている。この構成によれば、発音時間が比較的長い弱音成分信号から生成される楽音信号の同時発音数を30音、発音時間が比較的短い打撃音成分(ノイズ成分)から生成される楽音信号の同時発音数を2音とした場合、音源LSIの発音チャンネルの総数が32個であっても、実際の見かけ上の同時発音数を30音とすることができる。
【0006】
【発明が解決しようとする課題】
しかしながら、特開平3−293698号(特許番号第2701177号)公報等に記載されているような従来の構成では、例えば、発音時間が比較的短い楽音成分信号を、強音成分信号とした場合、この強音成分信号から生成される楽音信号に対して設定された2個の同時発音数では不足である。
具体的には、打撃音成分(ノイズ成分)信号から生成される、発音時間がかなり短い楽音信号に対しては、同時発音数を2音と設定してもよい。しかしながら、強音成分信号から生成される楽音信号の発音時間(減衰時間)は、弱音成分信号から生成される楽音信号の発音時間に対して比較的短いが、ノイズ成分信号から生成される楽音信号の発音時間に対して非常に長い。このため、この強音成分信号の楽音信号の同時発音数を2音というような少ない音数にしてしまうと、その少ない発音チャンネル間にて後押し優先のチャンネル割り当て処理(双方のチャンネルが使用中のときには、古い時刻の方のチャンネルに発音の割り当てを行う処理)を行ったとしても、発音の途切れ等が生じてくることになる。したがって、電子楽器として良好な発音を提供するためには、少なくとも、強音成分信号の楽音信号に対して、6〜10音程度の同時発音数を設定する必要がある。
したがって、例えば、強音成分信号の楽音信号の同時発音数を10音に設定し、音源LSIの発音チャンネルの総数が32個である場合、強音成分信号の楽音信号に対して10個の発音チャンネルを使用することになり、この結果、弱音成分信号の楽音信号に対しては残りの22個の発音チャンネルを使用することになる。すなわち、弱音成分信号の楽音信号の同時発音数が22音となり、実際の見かけ上の同時発音数が22音となってしまう。
【0007】
上述のように、従来では、発音時間が比較的長い楽音信号の同時発音数に対して、発音時間が比較的短い楽音信号の同時発音数を少なく設定するといった構成によっても、1つの楽音を発生するために生成する楽音成分信号によっては、電子楽器として必要な見かけ上の同時発音数を得ることができなかった。このため、音源LSIの発音チャンネルの総数を増やさざるを得なくなり、結果として、回路規模の複雑化且つ増大を招いていた。
【0008】
そこで、本発明は、上記の欠点を除去するために成されたもので、音源LSIの限られた発音チャンネルを有効に活用して、良好な楽音の発生を簡単な構成で実現した、楽音発生装置、該装置の機能を有する電子楽器、及び記憶媒体を提供することを目的とする。
【0009】
【課題を解決するための手段】
本発明の楽音発生装置は、それぞれ弱音成分信号、中音成分信号、強音成分信号及び打撃音成分信号のうちの異なるいずれかである少なくとも第1の楽音成分信号及び第2の楽音成分信号を混合することで、楽音情報に基づいた楽音を生成して発生する楽音発生装置であって、上記第1の楽音成分信号を生成する第1の楽音成分生成手段と、上記第2の楽音成分信号を生成する第2の楽音成分生成手段と、上記第1の楽音成分生成手段に対して第1の所定発音数の範囲内で発音を割り当てる第1の割当手段と、上記第2の楽音成分生成手段に対して第2の所定発音数の範囲内で発音を割り当てる第2の割当手段と、上記楽音情報に基づいて、上記第1の楽音成分生成手段での上記第1の所定発音数及び上記第2の楽音成分生成手段での上記第2の所定発音数をそれぞれ可変して設定する設定手段とを備え、上記設定手段は、上記楽音情報に含まれるタッチ情報と、該タッチ情報に対して予め設定されたしきい値との比較結果に基づいて、上記第1の所定発音数及び上記第2の所定発音数の設定を行うことを特徴とする。
【0010】
また、本発明の楽音発生装置は、それぞれ弱音成分信号、中音成分信号、強音成分信号及び打撃音成分信号のうちの異なるいずれかである少なくとも第1の楽音成分信号及び第2の楽音成分信号を混合することで、楽音情報に基づいた楽音を生成して発生する楽音発生装置であって、上記第1の楽音成分信号を生成する第1の楽音成分生成手段と、上記第2の楽音成分信号を生成する第2の楽音成分生成手段と、上記第1の楽音成分生成手段に対して第1の所定発音数の範囲内で発音を割り当てる第1の割当手段と、上記第2の楽音成分生成手段に対して第2の所定発音数の範囲内で発音を割り当てる第2の割当手段と、上記楽音情報に基づいて、上記第1の楽音成分生成手段での上記第1の所定発音数及び上記第2の楽音成分生成手段での上記第2の所定発音数をそれぞれ可変して設定する設定手段とを備え、上記第1の楽音成分信号は、上記第2の楽音成分信号の発音時間よりも長い信号であることを特徴とする。
【0011】
また、本発明の記憶媒体は、それぞれ弱音成分信号、中音成分信号、強音成分信号及び打撃音成分信号のうちの異なるいずれかである複数の楽音成分信号を混合することで、楽音情報に基づいた楽音を生成して発生するためのステップを、コンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記憶媒体であって、上記複数の楽音成分信号のそれぞれに対して、対象楽音成分信号に対応した所定発音数の範囲内で発音を割り当てる割当ステップと、上記楽音情報に基づいて、上記複数の楽音成分信号に対応したそれぞれの上記所定発音数を可変して設定する設定ステップであって、上記楽音情報に含まれるタッチ情報と、該タッチ情報に対して予め設定されたしきい値との比較結果に基づいて、上記所定発音数の設定を行う設定ステップとをコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記憶媒体である。
【0012】
また、本発明の記憶媒体は、それぞれ弱音成分信号、中音成分信号、強音成分信号及び打撃音成分信号のうちの異なるいずれかである複数の楽音成分信号を混合することで、楽音情報に基づいた楽音を生成して発生するためのステップを、コンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記憶媒体であって、上記複数の楽音成分信号のうち少なくとも1つの楽音成分信号は、他の楽音成分信号の発音時間よりも長い信号であり、上記複数の楽音成分信号のそれぞれに対して、対象楽音成分信号に対応した所定発音数の範囲内で発音を割り当てる割当ステップと、上記楽音情報に基づいて、上記複数の楽音成分信号に対応したそれぞれの上記所定発音数を可変して設定する設定ステップとをコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記憶媒体である。
【0026】
【発明の実施の形態】
以下、本発明の実施の形態について図面を用いて説明する。
【0027】
本発明は、例えば、図1に示すような電子楽器100に適用される。
この電子楽器100は、上記図1に示すように、外部機器(図示せず)に接続されたMIDIインターフェース102、音量スイッチ等が設けられた操作パネル103、及びペダル104が接続されたCPU101と、プログラムメモリ、音色データメモリ、及び発音情報メモリ等を含むROM105と、CPU101の作業用メモリ等に用いられるRAM106と、鍵盤部108が接続されたタッチセンサ107と、波形メモリ110が接続された楽音発生部109とが、バス113により結合され、互いに情報授受するように構成されてなる。
【0028】
CPU101は、電子楽器100全体の様々な動作制御を司るものであり、ROM105(プログラムメモリ)に記憶されている各種処理プログラムを読み出して実行することで、該動作制御を実施する。このとき、RAM106が、CPU101の作業用メモリとして用いられる。
CPU101による動作制御としては、例えば、MIDIインターフェース102(自動演奏装置と外部機器の接続規格であるMIDI:Musical Instrument Digital Interface規格により、電子楽器100と外部機器間で情報の授受を行うためのインターフェース)を介して供給されてくるMIDIデータに従った自動演奏の実行や、操作パネル103の音量スイッチの操作に従った音量制御がある。
【0029】
楽音発生部109は、この電子楽器100の最も特徴とする構成を有するものであり、第1の楽音発生部201及び第2の楽音発生部202の2つの楽音発生部により生成された楽音成分信号から1つの楽音信号を生成する構成としている。
【0030】
具体的には、図2に示すように、楽音発生部109は、波形メモリ110に予め記憶されている弱音成分の波形データから弱音成分信号を生成して出力する第1の楽音発生部201と、波形メモリ110に予め記憶されている強音成分の波形データから強音成分信号を生成して出力する第2の楽音発生部202と、第1の楽音発生部201及び第2の楽音発生部201の各出力を合成(混合)して1つの楽音信号を生成して出力するための加算器203とを備えている。この加算器203の出力が楽音として、D/A変換器111を介してサウンドシステム112から出力される。
【0031】
尚、ここでは説明の簡単のために、第1の楽音発生部201にて弱音成分信号を生成し、第2の楽音発生部202にて強音成分信号を生成し、これらの2つの楽音成分信号を合成して、1つの楽音信号を生成するようにしているが、これに限られることはない。他の楽音成分信号(中音楽音成分や打撃音成分等)を生成するようにしてもよい。
【0032】
上述のような楽音発生部109の動作は、CPU101により制御される。このため、CPU101は特に、上記図2に示すように、後述するアサイナメモリ303の情報を参照して第1の楽音発生部201及び第2の楽音発生部202での楽音成分信号に対する発音チャンネルの割り当てを制御する第1の割当部301及び第2の割当部302と、後述する発音数情報記憶部306の情報、鍵盤部108にて操作された押鍵のタッチ情報、その押鍵の音高(音域)情報、及び操作パネル103での操作により選択されている音色の情報に基づいて第1の割当部301及び第2の割当部302に対して上記の発音チャンネルの割り当てに関する情報を与える同時発音数指定部305を含む構成としている。
【0033】
発音数情報記憶部306には、例えば、図3に示すような発音数情報テーブルT1が予め記憶されている。この発音数情報テーブルT1は、上記図3に示すように、ピアノ(PIANO)、ギター(GUITAR)、及びストリング(STRINGS)といったそれぞれの音色、及び”0〜31”、”32〜43”、・・・といったそれぞれの範囲の音高毎に、アドレス、鍵タッチ情報のしきい値THV、対象鍵タッチ情報のベロシティがしきい値THVよりも大きくない場合に選択すべき第1の楽音発生部201での同時発音数の情報PNL1、対象鍵タッチ情報のベロシティがしきい値THVよりも大きくない場合に選択すべき第2の楽音発生部202での同時発音数の情報PNL2、対象鍵タッチ情報のベロシティがしきい値THVよりも大きい場合に選択すべき第1の楽音発生部201での同時発音数の情報PNH1、及び対象鍵タッチ情報のベロシティがしきい値THVよりも大きい場合に選択すべき第2の楽音発生部202での同時発音数の情報PNH2が設定されてなる。
【0034】
尚、同時発音数PNL1,PNH1は、第1の楽音発生部201での同時発音数のリミット数を示し、同時発音数PNL2,PNH2も同様に、第2の楽音発生部202での同時発音数のリミット数を示す。例えば、同時発音数PNL1=”29”は、第1の楽音発生部201での同時発音数が29音まで可能であることを示す。
また、同時発音数PNL1,PNL2,PNH1,PNH2として設定する値(同時発音数のリミット)は、上記図3に示したものに限られることはない。ここではその一例として、音域によっては音色の変化の度合いが違い、また、低域ほど発音時間が長い、という理由から、低域ほど第2の楽音発生部202の同時発音数を増やして設定した。このような設定は、そのときの状況に応じて任意に設定可能である。
さらに、生成する楽音成分信号として、例えば、弱音成分及び強音成分の他に中音成分をも含める場合(楽音信号を生成するための楽音成分を増やす場合)には、上記図3の発音数情報テーブルT1に対して、中音成分に対する同時発音数PNL3,PNH3等というように、増やした楽音成分の情報を加えた構成とすればよい。
また、上記図3の発音数情報テーブルT1に設定する各種の値(しきい値THV等)は、例えば、操作パネル103上での操作によって任意に設定可能なようになされている。
【0035】
同時発音数指定部305は、上記図3の発音数情報テーブルT1、鍵盤部108にて操作された押鍵のタッチ情報、その押鍵の音高(音域)情報、及び操作パネル103での操作により選択されている音色の情報から、第1の楽音発生部201及び第2の楽音発生部202に設定すべき同時発音数(最適な同時発音数のリミット数)を判断し、その結果(以下、「同時発音数指定情報」と言う)を第1の割当部301及び第2の割当部302にそれぞれ供給する。
例えば、操作パネル103にてピアノの音色が選択されており、鍵盤部108での押鍵の音高が”0〜31”の範囲内である場合、同時発音数指定部204は、発音数情報テーブルT1から、音色=”PIANO”及び音高=”0〜31”に対応するアドレス=”2000h”に設定されている情報(しきい値THV、同時発音数情報PNL1,PNL2,PNH1,PNH2)を読み出すことで、タッチセンサ107により検知された該押鍵の鍵タッチ情報のベロシティが”97”より大きくなければ、第1の楽音発生部201に対しては、同時発音数情報PNL1=”29”にて示される29音の同時発音数を設定し、第2の楽音発生部202に対しては、同時発音数情報PNL2=”3”にて示される3音の同時発音数を設定する、と判断し、これらの同時発音数情報PNL1及び同時発音数情報PNL2をそれぞれ同時発音数指定情報として対応する第1の割当部301及び第2の割当部302に供給する。これにより、第1の楽音発生部201に対しては29個までの発音チャンネルの割り当てが可能となり、第2の楽音発生部202に対しては3個までの発音チャンネルの割り当てが可能となる。
尚、ここでは音源LSIの発音チャンネルの総数を32個としているが、これに限られることはない。
【0036】
第1の割当部301及び第2の割当部302はそれぞれ同様の構成としており、例えば、第1の割当部301は、同時発音数指定部305からの同時発音数指定情報(同時発音数情報PNL1)に基づいて、アサイナメモリ303の情報を参照しながら、第1の楽音発生部201にて生成され出力される楽音成分信号(弱音成分信号)に対する発音チャンネルの割り当て処理を行う。第2の割当部302も同様ににして、第2の楽音発生部202にて生成され出力される楽音成分信号(強音成分信号)に対する発音チャンネルの割り当て処理を行う。
【0037】
アサイナメモリ303は、第1の割当部301及び第2の割当部302からそれぞれ共通してアクセスされ、例えば、図4に示すようなアサイン情報T2を記憶するものである。このアサイン情報T2は、上記図4に示すように、1〜32のチャンネル番号ch1,ch2,・・・,ch32に対応した、キー状態ST、キー番号NO、及び押鍵時刻Timの情報を含んでなる。
【0038】
チャンネル番号chX(X=1〜32)は、音源LSIの発音チャンネルを示すものである。
キー状態STは、その値が”0”であれば離鍵状態を示し、”1”であれば第1の楽音発生部201での弱音成分信号の発生状態(押鍵による弱音の出力発生)を示し、”2”であれば第2の楽音発生部202での強音成分信号の発生状態(押鍵による強音の出力発生)を示す。このように、従来では、キー情報としては、押鍵又は離鍵の状態のみを示す情報であったのに対して、ここでは、押鍵状態をさらに第1の楽音発生部201と第2の楽音発生部202とに分けて設定するようにしている。
キー番号NOは、対応するチャンネル番号chXに割り当てられている鍵盤部108上のキー番号(MIDIKEY番号等)を示し、押鍵時刻Timは、そのキーが押下された時刻を示す。
【0039】
したがって、例えば、上記図4のチャンネル番号ch1については、鍵盤部108上のキー番号=”45”のキーが押鍵され、その楽音発生のための楽音成分信号(弱音成分信号)が第1の楽音発生部201にて生成され出力されており、その押鍵時刻が”1.175”である。
【0040】
図5〜図11は、上述のような楽音発生部109での同時発音数の設定のための動作を含む、電子楽器100の動作を制御するためにCPU101が実行する処理プログラムをフローチャートにて示したものである。
以下、電子楽器100全体の一連の動作、特に、楽音発生部109での同時発音数の設定のための動作について具体的に説明する。
【0041】
[メイン処理:上記図5参照]
【0042】
先ず、電子楽器100の電源がONされると、CPU101、RAM106、及び音源LSI(図示せず)等が初期化される(ステップS401)。
次に、CPU101は、詳細は後述するが、操作パネル103の操作状態を検出し、その検出結果に従って動作するように電子楽器100全体を制御する(ステップS402)。
次に、CPU101は、ペダル104の操作状態を検出し、その検出結果に従って動作するように電子楽器100全体を制御する(ステップS403)。
次に、CPU101は、詳細は後述するが、タッチセンサ107の出力により、鍵盤部108の操作状態を検出し、その検出結果に従って動作するように電子楽器100全体を制御する(ステップS404)。
そして、CPU101は、必要に応じた所定の処理を実行し(ステップS405)、その後、ステップS402に戻り、以降のステップ処理を繰り返し実行する。
【0043】
[パネルイベント処理:ステップS402:上記図6参照]
【0044】
先ず、CPU101は、操作パネル103において、音色選択スイッチが押下されているか否かを判別する(ステップS411)。
【0045】
ステップS411の判別の結果、音色選択スイッチが押下されていた場合、CPU101は、音色選択処理を実行する(ステップS412)。例えば、選択されている音色を示すフラグをONに設定したり、選択されている音色を示すスイッチ(操作パネル103上のスイッチ)に設けられているLEDを点灯させたりする処理を実行する。
そして、CPU101は、選択されている音色を示す情報(音色情報)を同時発音数指定部305に供給して(ステップS413)、その後、メイン処理にリターンする。
【0046】
ステップS411の判別の結果、音色選択スイッチが押下されていない場合、CPU101は、操作パネル103において、音量スイッチが操作されているか否かを判別する(ステップS414)。
この判別の結果、音量スイッチが操作されていた場合、CPU101は、その操作に基づいた音量設定処理を実行し(ステップS415)、その後、メイン処理にリターンする。
【0047】
ステップS411の判別の結果、音色選択スイッチが押下されていない場合、CPU101は、操作パネル103において、音色選択スイッチ及び音量スイッチ以外のスイッチが操作されているか否かを判別する(ステップS416)。
この判別の結果、その他のスイッチが操作されていた場合、CPU101は、その操作に基づいた所定の処理を実行し(ステップS417)、その後、メイン処理にリターンする。
また、その他のスイッチをも操作されていなかった場合、CPU101は、そのままメイン処理にリターンする。
【0048】
[鍵盤イベント処理:ステップS404:上記図7参照]
【0049】
先ず、CPU101は、タッチセンサ107の出力により、鍵盤部108がオンイベント状態であるか否か、すなわち押鍵されている鍵があるか否かを判別する(ステップS421)。
【0050】
ステップS421の判別の結果、鍵盤部108にて押鍵されている鍵がある場合、CPU101は、その音高情報及び鍵タッチ情報を同時発音数指定部305に供給する(ステップS423、ステップS424)。
同時発音数指定部305は、詳細は後述するが、上述したような同時発音数情報テーブルテーブルT1(上記図3参照)と、パネルイベント処理による音色情報:上記図6のステップS413参照)と、ステップS423及びS424による音高情報及び鍵タッチ情報とから、該当する同時発音数指定情報を取得し、これを第1の割当部301及び第2の割当部302に供給する(ステップS424)。
第1の割当部301及び第2の割当部302は、詳細は後述するが、同時発音数指定部305からの同時発音数指定情報に基づいて、第1の楽音発生部201及び第2の楽音発生部202に対する発音チャンネルの割り当ての制御処理(アサイナ処理)を行う。これにより、第1の楽音発生部201にて生成される楽音成分信号に対する同時発音数と、第2の楽音発生部202にて生成される楽音成分信号に対する同時発音数とがそれぞれ、鍵タッチ情報、その音高情報、及び音色情報に基づいて可変されて設定された状態で、割り当てられた発音チャンネルによる楽音成分信号の発生がなされることになる(ステップS425)。
そして、CPU101は、第1の楽音発生部201の出力(弱音成分信号)と、第2の楽音発生部202の出力(強音成分信号)とから、1つの楽音信号を生成して発生するための所定の処理を実行し(ステップS426)、その後、メイン処理にリターンする。
【0051】
ステップS421の判別の結果、鍵盤部108にて押鍵されている鍵がない場合、CPU101は、鍵盤部108がオフイベント状態であるか否かを判別する(ステップS427)。
この判別の結果、オフイベント状態でない場合、CPU101は、そのままメイン処理に戻る。
【0052】
ステップS427の判別の結果、オフイベント状態であった場合、CPU101は、ダンパーペダルがONされているか否かを判別する(ステップS428)。
この判別の結果、ダンパーペダルがONされてる場合、CPU101は、そのままメイン処理に戻る。
また、ダンパーペダルがONされていない場合、CPU101は、リリーススピードを音源LSIにロードして、発音を終了するための動作制御を実行し(ステップS429)、その後、メイン処理に戻る。
【0053】
[同時発音数指定処理:ステップS424:上記図8参照]
【0054】
先ず、同時発音数指定部305は、上述したステップS423により供給された鍵タッチ情報からベロシティ情報KVを取り出す(ステップS431)。
次に、同時発音数指定部305は、ステップS431にて得たベロシティ情報KVと、上述したステップS422により供給された音色情報とに基づいて、発音数情報記憶部306に記憶されている発音数情報テーブルT1(上記図3参照)から、該当するしきい値THVを読み出す(ステップS432)。
次に、同時発音数指定部305は、上記ベロシティ情報KVと、上記しきい値THVとを比較する(ステップS433)。
【0055】
ステップS433の比較の結果、上記ベロシティ情報KVが上記しきい値THVよりも大きい場合、同時発音数指定部305は、同時発音数情報PNH1,PNH2の値にて示される同時発音数を取得し(ステップS434)、これらを同時発音数指定情報PN1,PN2とする(ステップS435)。
【0056】
ステップS433の比較の結果、上記ベロシティ情報KVが上記しきい値THVよりも大くない場合、同時発音数指定部305は、同時発音数情報PNL1,PNL2の値にて示される同時発音数を取得し(ステップS436)、これらを同時発音数指定情報PN1,PN2とする(ステップS437)。
【0057】
そして、同時発音数指定部305は、ステップS435又はステップS437にて得た同時発音数指定情報PN1及びPN2を、それぞれ対応する第1の割当部301及び第2の割当部302に供給し(ステップS438、ステップS439)、その後、鍵盤イベント処理にリターンする。
【0058】
[アサイン処理:ステップS425:上記図9参照]
【0059】
先ず、第1の割当部301は、上述したステップS438により供給された同時発音数指定情報PN1に基づいて、アサイナメモリ303の情報(上記図4参照)を参照しながら、第1の楽音発生部201に対するアサイン処理を行う(ステップS411)。
続いて、第2の割当部302も同様にして、上述したステップS439により供給された同時発音数指定情報PN2に基づいて、アサイナメモリ303の情報(上記図4参照)を参照しながら、第2の楽音発生部202に対するアサイン処理を行う(ステップS412)。
その後、鍵盤イベント処理にリターンする。
【0060】
[第1のアサイン処理:ステップS441:上記図10参照]
第1の割当部301は、次のような処理ステップを実行する。
【0061】
先ず、アサイナメモリ303のアサイン情報T2(上記図4参照)を参照することで、第1の楽音発生部201にて楽音成分信号の発生に使用されている発音チャンネル(発音中の発音チャンネル)の数を調べる(ステップS451〜ステップS455)。
【0062】
具体的には、先ず、チャンネルカウンタCH及びアサインキー状態カウンタACをそれぞれ初期化する(CH=1、AC=0:ステップS451)。チャンネルカウンタCHは、1〜32個の発音チャンネルのうちの現在対象となっているチャンネル番号ch[CH](CH=1〜32)を示すためのカウンタであり、アサインキー状態カウンタACは、発音中の発音チャンネルの数を示すためのカウンタである。
次に、チャンネルカウンタCHによって示されるチャンネル番号ch[CH]について、それに対応するキー状態STの値ST[CH]が”1”であるか否か、すなわちチャンネル番号ch[CH]の発音チャンネルが第1の楽音発生部201にて弱音成分信号の発生のために使用中(以下、この状態を「第1の楽音発生部201にて発音中」と言う)であるか否かを判別する(ステップS452)。
【0063】
ステップS452の判別の結果、チャンネル番号ch[CH]が第1の楽音発生部201にて発音中であった場合、アサインキー状態カウンタACをインクリメントして(AC=AC+1:ステップS453)、次のステップS454へ進む。
ステップS452の判別の結果、チャンネル番号ch[CH]が第1の楽音発生部201にて発音中でなかった場合、そのまま次のステップS454へ進む。
【0064】
ステップS454では、チャンネルカウンタCHをインクリメントして(CH=CH+1)、その後、インクリメントした結果であるチャンネルカウンタCHのカウンタ値が”32”よりも大きいか否か、すなわち1〜32個の全ての発音チャンネルに対してキー状態STを調べる処理を終了したか否かを判別する(ステップS455)。
ステップS455の判別の結果、未だ処理終了していない場合には、次のチャンネル番号ch[CH]に対する処理を実行するために、ステップS452に戻り、処理終了した場合には、次のステップS456からの処理を実行する。
【0065】
上述のようなステップS451〜ステップS455の処理によって、1〜32個の発音チャンネルの中で、第1の楽音発生部201にて発音中の発音チャンネルの総数が、アサインキー状態カウンタACに設定されることになる。
【0066】
次に、アサインキー状態カウンタACのカウント値が、同時発音数指定部305から供給されてきた同時発音数指定情報PN1の値よりも小さいか否かを判別する(ステップS456)。
【0067】
ステップS456の判別の結果、アサインキー状態カウンタACのカウント値が、同時発音数指定情報PN1の値よりも小さい場合(AC<PN1である場合)、第1の楽音発生部201に対して割り当てる発音チャンネルの数としては未だ余裕があるということであるため、キー状態STが”0”(第1の楽音発生部201及び第2の楽音発生部202の何れでも発音中でない、すなわち発音に使用していない状態)である発音チャンネルのうち任意の発音チャンネルに対して、第1の楽音発部201での弱音成分信号の発生をアサインする(ステップS457〜S461、S463)。
一方、アサインキー状態カウンタACのカウント値が、同時発音数指定情報PN1の値よりも小さくない場合、第1の楽音発生部201に対して割り当てる発音チャンネルの数としては余裕がないということであるため、キー状態STが”1”(第1の楽音発生部201にて発音中)である発音チャンネルのうちの、後押し優先処理によって得られる発音チャンネルに対して、第1の楽音発部201での弱音成分信号の発生をアサインする(ステップS462、S463)。
【0068】
具体的には、AC<PN1である場合、アサイナメモリ303のアサイン情報T2(上記図4参照)を参照して、1〜32個の発音チャンネルのうち、キー状態ST=”0”で示される、発音に使用していない状態の発音チャンネルのチャンネル番号ch[CH]を検索するために、先ず、チャンネルカウンタCHを初期化する(CH=1:ステップS457)。
次に、チャンネルカウンタCHによって示されるチャンネル番号ch[CH]について、それに対応するキー状態STの値ST[CH]が”0”であるか否かを判別する(ステップS458)。
【0069】
ステップS458の判別の結果、キー状態STの値ST[CH]が”0”である場合、チャンネル番号ch[CH]の発音チャンネルは、現在使用されていない状態にあるため、これを第1の楽音発生部201の発音チャンネルとしてアサインする(ステップS463)。そして、その後、アサイン処理のメイン処理(上記図9参照)にリターンする。
【0070】
ステップS458の判別の結果、キー状態STの値ST[CH]が”0”でない場合、チャンネルカウンタCHをインクリメントして(CH=CH+1:ステップS459)、そのインクリメントした結果であるチャンネルカウンタCHのカウンタ値が”32”よりも大きいか否か、すなわち1〜32個の全ての発音チャンネルに対してキー状態STを調べる処理を終了したか否かを判別する(ステップS460)。
ステップS460の判別の結果、未だ処理終了していない場合には、次のチャンネル番号ch[CH]の発音チャンネルに対する処理を実行するために、ステップS458に戻り、処理終了した場合に、次のステップS461へ進む。
ステップS460の判別の結果により、ステップS461へ処理が移行することは、第1の楽音発生部201に対する発音チャンネルの割り当てには未だ余裕があるにもかかわらず、1〜32個の発音チャンネルの中で使用していない発音チャンネルが存在しない(全て使用されている)状態であるため、1〜32個の発音チャンネルのうち、キー状態STが”2”である発音チャネル(第2の楽音発生部202にて強音成分信号の発生のために使用中、以下、この状態を「第2の楽音発生部202にて発音中」と言う)の中で後押し優先処理を行う(ステップS461)。ここでの後押し優先処理とは、古い押鍵時刻Timの発音チャンネルを検索し、その結果得られた発音チャンネルに対して発音の割り当てを行う処理である。この後押し優先処理によって検索された発音チャンネルを第1の楽音発生部201の発音チャンネルとしてアサインする(ステップS463)。そして、その後、アサイン処理のメイン処理(上記図9参照)にリターンする。
【0071】
一方、AC<PN1でない場合、第1の楽音発生部201に対して割り当てる発音チャンネルの数としては余裕がないため、1〜32個の発音チャンネルのうち、キー状態STが”1”である発音チャネル(第1の楽音発生部201にて発音中)の中で、上述したような後押し優先処理を行う(ステップS462)。この後押し優先処理によって検索された発音チャンネルを第1の楽音発生部201の発音チャンネルとしてアサインする(ステップS463)。そして、その後、アサイン処理のメイン処理(上記図9参照)にリターンする。
【0072】
[第2のアサイン処理:ステップS442:上記図11参照]
第2の割当部302は、次のような処理ステップを実行する。
尚、第2のアサイン処理は、上述した第1のアサイン処理に対して、処理対象となる楽音発生部が第2の楽音発生部202となることのみが異なるため、ここでは、具体的な説明は省略する。
【0073】
先ず、アサイナメモリ303のアサイン情報T2(上記図4参照)を参照することで、第2の楽音発生部202にて楽音成分信号の発生に使用されている発音チャンネル(発音中の発音チャンネル)の数を調べる(ステップS471〜ステップS475)。
これにより、1〜32個の発音チャンネルの中で、第2の楽音発生部202にて発音中の発音チャンネルの総数が、アサインキー状態カウンタACに設定されることになる。
次に、アサインキー状態カウンタACのカウント値が、同時発音数指定部305から供給されてきた同時発音数指定情報PN2の値よりも小さいか否かを判別する(ステップS476)。
【0074】
ステップS476の判別の結果、アサインキー状態カウンタACのカウント値が、同時発音数指定情報PN2の値よりも小さい場合(AC<PN2である場合)、第2の楽音発生部202に対して割り当てる発音チャンネルの数としては未だ余裕があるということであるため、キー状態STが”0”(第1の楽音発生部201及び第2の楽音発生部202の何れでも発音中でない、すなわち発音に使用していない状態)である発音チャンネルのうち任意の発音チャンネルに対して、第2の楽音発部202での強音成分信号の発生をアサインする(ステップS477〜S481、S483)。
このとき、ステップS480の判別の結果により、ステップS481へ処理が移行する場合、第2の楽音発生部202に対する発音チャンネルの割り当てには未だ余裕があるにもかかわらず、1〜32個の発音チャンネルの中で使用していない発音チャンネルが存在しない(全て使用されている)状態であるため、1〜32個の発音チャンネルのうち、キー状態STが”1”である発音チャネル(第1の楽音発生部201にて発音中)の中で後押し優先処理を行って(ステップS481)、これによって検索された発音チャンネルを第2の楽音発生部202の発音チャンネルとしてアサインする(ステップS483)。
【0075】
一方、アサインキー状態カウンタACのカウント値が、同時発音数指定情報PN2の値よりも小さくない場合、第2の楽音発生部202に対して割り当てる発音チャンネルの数としては余裕がないということであるため、キー状態STが”2”(第2の楽音発生部202にて発音中)である発音チャンネルのうちの、後押し優先処理によって得られる発音チャンネルに対して、第2の楽音発部202での強音成分信号の発生をアサインする(ステップS482、S483)。
【0076】
上述したような各処理により、例えば、強い鍵タッチ(強音)の場合(全ての演奏音が強音の場合)には、弱音成分信号に対しては22個の発音チャンネルが割当可能となり(弱音成分信号の同時発音数を最大22音)、強音成分信号に対しては10個の発音チャンネルが割当可能となる(強音成分信号の同時発音数を最大10音)。この場合、見かけ上の同時発音数が22音となるが、全ての楽音が強音といったことは実際の演奏上ほどんどない。そして、鍵タッチが弱くなると(弱音の場合)、強音成分は必要ないため、全ての発音チャンネル(32個の発音チャンネル)が弱音成分信号に対して割当可能となる(弱音成分信号の同時発音数を最大32音)。この場合、見かけ上の同時発音数が32音となる。そしてさらに、鍵タッチが強くなると、弱音成分信号に対して割り当てえられていた発音チャンネルのうちの、該鍵タッチに基づいた数分の発音チャンネルが強音成分信号に対して割当可能となる。
【0077】
したがって、本実施の形態によれば、鍵タッチ情報に基づいて、弱音成分信号と強音成分信号に割り当てる発音チャンネルの数を可変する(同時発音数を固定して設定せずに可変する)ように構成したので、回路構成を複雑化することなく、音源LSIの限られた発音チャンネルを有効に活用しながら、電子楽器として充分な同時発音数を提供することができる。特に、通常では、強打と弱打がばらついた演奏が行われることが多いため、強音成分信号の同時発音数と弱音成分信号の同時発音数がそのときの鍵タッチに応じて可変することになるため、より有効である。
また、鍵タッチに加えて音高及び音色によっても、それぞれの楽音成分信号の同時発音数を可変するように構成し、さらに同時発音数を変化させる鍵タッチの大きさ(しきい値THV)をも音高及び音色によって変化させて設定するように構成したので、発生する音色及び音高に対して最適な状態の楽音を発生することができる。
【0078】
尚、本発明の目的は、上述した実施の形態のホスト及び端末の機能を実現するソフトウェアのプログラムコードを記憶した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読みだして実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が本実施の形態の機能を実現することとなり、そのプログラムコードを記憶した記憶媒体は本発明を構成することとなる。
プログラムコードを供給するための記憶媒体としては、ROM、フロッピーディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード等を用いることができる。
また、コンピュータが読みだしたプログラムコードを実行することにより、本実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS等が実際の処理の一部又は全部を行い、その処理によって本実施の形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された拡張機能ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって本実施の形態の機能が実現される場合も含まれることは言うまでもない。
【0079】
【発明の効果】
以上説明したように本発明では、複数の楽音成分信号(弱音成分信号や強音成分信号等)を混合して1つの楽音信号を生成して発生する際、楽音情報(押鍵操作による鍵タッチ情報や音色情報、パネル操作による音高情報、或いは外部入力されたMIDI信号に含まれる情報等)に基づいて、それぞれの楽音成分信号に割り当てる発音の最大数(所定発音数)を可変して設定する。これにより、それぞれの楽音成分信号は、それぞれに設定された所定発音数の範囲内で発音が割り当てられる。
【0080】
具体的には例えば、発音時間が比較的長い弱音成分信号と、該発音時間よりも短い発音時間の強音成分信号とから、1つの楽音信号を生成して発生する場合、鍵タッチ情報に基づいて、弱音成分信号と強音成分信号に割り当てる発音チャンネルの数を可変する(同時発音数を固定して設定せずに可変する)。
これにより、音源LSIの発音チャンネルの総数が32個であるとすると、例えば、強い鍵タッチ(強音)のときには(全ての演奏音が強音)、弱音成分信号に対しては22個の発音チャンネルが割当可能となり(弱音成分信号の同時発音数を最大22音)、強音成分信号に対しては10個の発音チャンネルが割当可能となり(強音成分信号の同時発音数を最大10音)、見かけ上の同時発音数が22音となる。そして、鍵タッチが弱くなると(弱音)、強音成分は必要ないため、全ての発音チャンネル(32個の発音チャンネル)が弱音成分信号に対して割当可能となり(弱音成分信号の同時発音数を最大32音)、見かけ上の同時発音数が32音となる。そしてさらに、鍵タッチが強くなると、弱音成分信号に対して割り当てえられていた発音チャンネルのうちの、該鍵タッチに基づいた数分の発音チャンネルが強音成分信号に対して割当可能となる。
このようにして、鍵タッチ情報に基づいて、弱音成分信号の同時発音数の最大値と、強音成分信号の同時発音数の最大値とが可変して設定される。
【0081】
したがって、本発明によれば、回路構成を複雑化することなく、音源LSIの限られた発音チャンネルを有効に活用しながら、電子楽器として充分な同時発音数を提供することができる。特に、通常では、強打と弱打がばらついた演奏が行われることが多いため、強音成分信号や強音成分信号等の楽音成分信号のそれぞれの同時発音数が、そのときの鍵タッチに応じて可変することになるため、より有効である。
また、鍵タッチ情報に加えて音高及び音色の情報によっても、それぞれの楽音成分信号の同時発音数の最大値を可変するように構成し、さらに該同時発音数の最大値を変化させる鍵タッチの大きさ(しきい値THV)をも音高及び音色によって変化させて設定するように構成すれば、発生する音色及び音高に対して最適な状態の楽音を発生することができる。
【図面の簡単な説明】
【図1】本発明を適用した電子楽器の構成を示すブロック図である。
【図2】上記電子楽器の楽音発生部の構成を示すブロック図である。
【図3】上記楽音発生部において、それぞれ生成する楽音成分信号の同時発音数を鍵タッチによって可変するために用いる発音数情報テーブルを説明するための図である。
【図4】上記楽音発生部において、それぞれの楽音成分信号へ発音チャンネルを割り当てるアサイン処理に用いるアサイン情報を説明するための図である。
【図5】上記電子楽器にて実行されるメイン処理を説明するためのフローチャートである。
【図6】上記メイン処理のパネルイベント処理を説明するためのフローチャートである。
【図7】上記メイン処理の鍵盤イベント処理を説明するためのフローチャートである。
【図8】上記鍵盤イベント処理の同時発音数指定処理を説明するためのフローチャートである。
【図9】上記鍵盤イベント処理のアサイン処理を説明するためのフローチャートである。
【図10】上記アサイン処理の第1のアサイン処理を説明するためのフローチャートである。
【図11】上記アサイン処理の第2のアサイン処理を説明するためのフローチャートである。
【符号の説明】
100 電子楽器
101 CPU
102 MIDIインターフェース
103 操作パネル
104 ペダル
105 ROM
106 RAM
107 タッチセンサ
108 鍵盤部
109 楽音発生部
110 波形メモリ
111 D/A変換器
112 サウンドシステム
201 第1の楽音発生部
202 第2の楽音発生部
203 加算器
301 第1の割当部
302 第2の割当部
303 アサイナメモリ
305 同時発音数指定部
306 発音数情報記憶部
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to a musical sound generating apparatus that generates a musical sound signal by synthesizing a plurality of musical sound component signals, an electronic musical instrument having the function of the apparatus, andBiographyIt relates to the storage medium.
[0002]
[Prior art]
In general, an electronic musical instrument such as an electronic organ or an electronic piano is generated by generating one musical tone signal from a plurality of musical tone component signals such as a weak tone component signal and a strong tone component signal.
More specifically, for example, when the number of simultaneous sounds (polyphonic number) in an electronic musical instrument is 16, and the musical tone component signal that is the basis of one musical tone signal is two types of a weak tone component signal and a strong tone component signal, The electronic musical instrument is provided with 16 musical sound generation units for generating one musical sound signal corresponding to the number of simultaneous sounds. Each musical tone generator is provided with a digital control oscillator (hereinafter referred to as “DCO”) corresponding to the musical tone component signal to be generated. That is, in this case, two DCOs are incorporated: a DCO as a sound source for the weak sound component and a DCO as a sound source for the strong sound component. These DCOs are operated simultaneously when one key is pressed. Therefore, when one key is pressed, one of the 16 tone generators generates a weak component signal and a strong component signal by two DCOs, and mixes (synthesizes) these tone component signals. And one musical tone signal is generated and generated. At this time, the mixing ratio of each tone component signal is changed according to the strength of the key touch. As a result, a large timbre change can be obtained even with a small number of musical tone component signals, and if the number of musical tone component signals to be generated is increased (weak tone component, medium tone component, strong tone component, etc.), a larger timbre change can be obtained. Can do.
[0003]
As described above, when a certain musical sound signal is generated, a sound generation channel is assigned for this purpose, whereby one sound generation based on the musical sound signal is performed.
For example, when one musical tone signal composed of a weak tone component signal and a strong tone component signal is generated, one tone generation channel is assigned to the weak tone component signal, and one tone generation channel is also assigned to the strong tone component signal. . For this reason, since two tone generation channels are used to generate one musical tone signal, the total number of tone generation channels of the tone generator LSI is 16 (the number of simultaneous tone generations) .times. 2 (types of musical tone components for generation of one musical tone) = 32 are required.
[0004]
By the way, among the generated musical sound component signals, there is a percussion sound that has a very short sounding time, that is, a sound that is sounded for a short time and immediately decays. In order to generate such a striking sound, a DCO for a striking sound component (noise component) is also incorporated into the above-described musical sound generating unit. Therefore, in the case of occurrence of a hitting sound, a sound generation channel is assigned to the noise component signal generated by this DCO, and as a result, a hitting sound is generated.
However, although the percussion sound is generated for a short time and immediately attenuates, the DCO for the percussion sound component is generated for the generation of the percussion sound, and other musical sound components (weak sound components) having a relatively long sounding time are used. As in the case of the above, etc., preparing the same number of simultaneous sound generations and assigning sound generation channels leads to problems of complicated circuit configuration and increased cost. For example, when the number of simultaneous sounds is 16 sounds, it is necessary to increase the sound generation channels of the sound source LSI by 16 as the sound generation channels for the noise component signal.
[0005]
In order to solve the above problem, Japanese Patent Application Laid-Open No. 3-293698 (Patent No. 2701177) discloses a relatively long sounding time with respect to the number of simultaneously sounding tone signals. A configuration is described in which the number of simultaneous sounds of a musical sound signal such as a short hitting sound is set to be small. According to this configuration, the number of simultaneous sound generation of a musical sound signal generated from a weak sound component signal having a relatively long sounding time is 30 and the musical sound signal generated from an impact sound component (noise component) having a relatively short sounding time is simultaneously generated. When the number of pronunciations is two, even if the total number of tone generation channels of the tone generator LSI is 32, the actual number of simultaneous pronunciations can be 30.
[0006]
[Problems to be solved by the invention]
However, in the conventional configuration as described in Japanese Patent Laid-Open No. 3-293698 (Patent No. 2701177), for example, when a musical sound component signal having a relatively short pronunciation time is used as a strong sound component signal, The two simultaneous pronunciation numbers set for the musical tone signal generated from the strong tone component signal are insufficient.
Specifically, the number of simultaneous sounds may be set to two for a musical sound signal generated from a striking sound component (noise component) signal and having a considerably short pronunciation time. However, the tone generation time (attenuation time) of the tone signal generated from the strong tone component signal is relatively short compared to the tone generation time of the tone signal generated from the weak tone component signal, but the tone signal generated from the noise component signal Very long for the pronunciation time. For this reason, if the number of simultaneous sounds of the musical tone signal of the strong sound component signal is set to a small number of sounds, such as two sounds, channel assignment processing with priority given to boosting between the few sound channels (both channels are in use). Sometimes, even if the process of assigning pronunciation to the channel with the older time is performed), the sound is interrupted. Therefore, in order to provide good pronunciation as an electronic musical instrument, it is necessary to set the number of simultaneous pronunciations of about 6 to 10 sounds at least for the musical tone signal of the strong component signal.
Therefore, for example, when the number of simultaneous sound generation of the tone signal of the strong sound component signal is set to 10 sounds and the total number of sound generation channels of the tone generator LSI is 32, 10 sounds are generated for the sound signal of the strong sound component signal. As a result, the remaining 22 tone generation channels are used for the musical sound signal of the weak sound component signal. That is, the number of simultaneous sound generations of the musical tone signal of the weak sound component signal is 22 sounds, and the actual number of simultaneous sound generations is 22 sounds.
[0007]
As described above, conventionally, one musical tone is generated by a configuration in which the number of simultaneous sound generation of a musical sound signal with a relatively short sounding time is set to be smaller than the number of simultaneous sound generations of a musical sound signal with a relatively long sounding time. For this reason, it is not possible to obtain an apparent number of simultaneous sounds necessary for an electronic musical instrument depending on the tone component signal generated. For this reason, the total number of tone generation channels of the sound source LSI has to be increased, resulting in a complicated and increased circuit scale.
[0008]
  Therefore, the present invention was made to eliminate the above-mentioned drawbacks, and it has been made possible to generate a good tone with a simple configuration by effectively utilizing the limited tone generation channels of the tone generator LSI. Device, electronic musical instrument having the function of the device, andBiographyThe purpose is to provide a storage medium.
[0009]
[Means for Solving the Problems]
  Each of the musical tone generators according to the present invention is a different one of a weak sound component signal, a middle sound component signal, a strong sound component signal, and a batting sound component signal.A musical sound generating device that generates and generates a musical tone based on musical tone information by mixing at least a first musical tone component signal and a second musical tone component signal, wherein the first musical tone component signal is generated. The first musical tone component generating means, the second musical tone component generating means for generating the second musical tone component signal, and the first musical tone component generating means within the first predetermined number of pronunciations. Based on the musical tone information, the first allocating unit for allocating, the second allocating unit for allocating the pronunciation within the second predetermined number of pronunciations to the second musical tone component generating unit, Setting means for variably setting the first predetermined pronunciation number in the musical sound component generation means and the second predetermined pronunciation number in the second musical sound component generation means.And the setting means, based on a comparison result between the touch information included in the musical tone information and a threshold value preset for the touch information, the first predetermined number of pronunciations and the second predetermined number of sounds. Set the number of pronunciationsIt is characterized by that.
[0010]
  In addition, the musical tone generator of the present invention includes at least a first musical tone component signal and a second musical tone component, which are different ones of a weak tone component signal, a middle tone component signal, a strong tone component signal, and a striking tone component signal, respectively. A musical sound generating device that generates and generates musical sounds based on musical tone information by mixing signals, the first musical sound component generating means for generating the first musical sound component signal, and the second musical sound. A second musical sound component generating means for generating a component signal; a first assigning means for assigning a sound to the first musical sound component generating means within a range of a first predetermined sounding number; and the second musical sound. A second assigning means for assigning a sound to the component generating means within a range of a second predetermined sound number; and the first predetermined sound number at the first music sound component generating means based on the sound information. And the second musical tone component generating means Setting means for variably setting the second predetermined number of pronunciations, wherein the first musical tone component signal is a signal longer than the duration of the second musical tone component signal. .
[0011]
  Further, the storage medium of the present invention mixes a plurality of musical tone component signals, which are different ones of a weak tone component signal, a middle tone component signal, a strong tone component signal, and a striking tone component signal, into musical tone information. A computer-readable storage medium storing a program for causing a computer to execute a step for generating and generating a musical tone based on the target musical tone component signal for each of the plurality of musical tone component signals An assigning step for assigning pronunciations within a range of a predetermined number of pronunciations corresponding to the sound, and a setting step for variably setting the predetermined number of pronunciations corresponding to the plurality of musical tone component signals based on the musical tone information. Based on the comparison result between the touch information included in the musical sound information and a threshold value set in advance for the touch information, A computer-readable storage medium storing a program for executing a setting step of performing a constant to the computer.
[0012]
  Further, the storage medium of the present invention mixes a plurality of musical tone component signals, which are different ones of a weak tone component signal, a middle tone component signal, a strong tone component signal, and a striking tone component signal, into musical tone information. A computer-readable storage medium storing a program for causing a computer to execute a step for generating and generating a musical sound based on at least one of the plurality of musical sound component signals, An allocation step for assigning a pronunciation within a predetermined number of pronunciations corresponding to the target musical tone component signal to each of the plurality of musical tone component signals, wherein the musical tone component is longer than the duration of the other musical tone component signals; Based on the information, the computer executes a setting step for variably setting the predetermined number of pronunciations corresponding to the plurality of musical tone component signals. A computer-readable storage medium storing a program for causing.
[0026]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0027]
The present invention is applied to, for example, an electronic musical instrument 100 as shown in FIG.
As shown in FIG. 1, the electronic musical instrument 100 includes a MIDI interface 102 connected to an external device (not shown), an operation panel 103 provided with a volume switch, and a CPU 101 to which a pedal 104 is connected. A ROM 105 including a program memory, a tone color data memory, and a pronunciation information memory, a RAM 106 used as a work memory for the CPU 101, a touch sensor 107 to which a keyboard unit 108 is connected, and a tone generator to which a waveform memory 110 is connected The unit 109 is connected by a bus 113 and configured to exchange information with each other.
[0028]
The CPU 101 controls various operations of the electronic musical instrument 100 as a whole. The CPU 101 reads out and executes various processing programs stored in the ROM 105 (program memory), thereby performing the operation control. At this time, the RAM 106 is used as a working memory for the CPU 101.
As the operation control by the CPU 101, for example, a MIDI interface 102 (interface for transferring information between the electronic musical instrument 100 and the external device in accordance with MIDI: Musical Instrument Digital Interface standard which is a connection standard between the automatic performance device and the external device). There are automatic performance execution according to MIDI data supplied via the control, and volume control according to the operation of the volume switch of the operation panel 103.
[0029]
The musical tone generator 109 has the most characteristic configuration of the electronic musical instrument 100, and the musical tone component signals generated by the two musical tone generators of the first musical tone generator 201 and the second musical tone generator 202. From this, one musical tone signal is generated.
[0030]
Specifically, as shown in FIG. 2, the musical tone generator 109 includes a first musical tone generator 201 that generates and outputs a weak sound component signal from the waveform data of the weak sound component stored in advance in the waveform memory 110. , A second musical sound generating unit 202 that generates and outputs a strong sound component signal from the waveform data of the strong sound component stored in advance in the waveform memory 110, and a first musical sound generating unit 201 and a second musical sound generating unit. An adder 203 is provided for synthesizing (mixing) the outputs of 201 to generate and output one musical sound signal. The output of the adder 203 is output as a musical sound from the sound system 112 via the D / A converter 111.
[0031]
Here, for the sake of simplicity of explanation, a weak tone component signal is generated by the first tone generator 201 and a strong tone component signal is generated by the second tone generator 202, and these two tone components are generated. The signals are synthesized to generate one musical sound signal, but the present invention is not limited to this. Other musical sound component signals (medium music sound component, batting sound component, etc.) may be generated.
[0032]
The operation of the tone generator 109 as described above is controlled by the CPU 101. Therefore, as shown in FIG. 2, the CPU 101 assigns the sound channel to the tone component signals in the first tone generator 201 and the second tone generator 202 with reference to the information in the assigner memory 303 described later. The first assigning unit 301 and the second assigning unit 302 that control the sound, the information in the pronunciation number information storage unit 306, which will be described later, the touch information of the key press operated on the keyboard unit 108, and the pitch of the key press ( Simultaneous sound generation that gives information related to the sound channel assignment to the first assigning unit 301 and the second assigning unit 302 based on the tone range information and information on the tone color selected by the operation on the operation panel 103 The number specifying unit 305 is included.
[0033]
In the pronunciation number information storage unit 306, for example, a pronunciation number information table T1 as shown in FIG. 3 is stored in advance. As shown in FIG. 3, the pronunciation number information table T1 includes each tone color such as piano (PIANO), guitar (GUITAR), and string (STRINGS), and “0 to 31”, “32 to 43”,. The first musical tone generator 201 to be selected when the pitch of the address, the key touch information threshold value THV, and the target key touch information velocity is not greater than the threshold value THV for each pitch of each range. Information PNL1 of the number of simultaneous pronunciations in the second tone generation unit 202 to be selected when the velocity of the target key touch information is not greater than the threshold value THV, PNL2, information of the target key touch information Information PNH1 of the number of simultaneous pronunciations in the first musical sound generating unit 201 to be selected when the velocity is larger than the threshold value THV, and target key touch information Velocity, which are set polyphony information PNH2 of the second tone generator 202 to be selected is greater than the threshold value THV of.
[0034]
The simultaneous sound generation numbers PNL1 and PNH1 indicate the limit number of the simultaneous sound generation numbers in the first musical sound generation unit 201, and the simultaneous sound generation numbers PNL2 and PNH2 are also the same in the second musical sound generation unit 202. Indicates the limit number. For example, the simultaneous pronunciation number PNL1 = "29" indicates that the number of simultaneous sound generations in the first musical sound generating unit 201 can be up to 29 sounds.
The values set as the simultaneous sound generation numbers PNL1, PNL2, PNH1, and PNH2 (the simultaneous sound generation number limit) are not limited to those shown in FIG. As an example here, the degree of change in timbre differs depending on the sound range, and the lower sound range has a longer sounding time, so the lower sound frequency is set by increasing the number of simultaneous sounds of the second musical sound generator 202 in the lower sound range. . Such a setting can be arbitrarily set according to the situation at that time.
Furthermore, as a musical tone component signal to be generated, for example, when a middle tone component is included in addition to a weak tone component and a strong tone component (when a musical tone component for generating a musical tone signal is increased), the number of pronunciations in FIG. The information table T1 may be configured by adding information on the increased musical sound components such as the simultaneous pronunciation numbers PNL3 and PNH3 for the middle sound component.
Further, various values (threshold value THV and the like) set in the pronunciation number information table T1 in FIG. 3 can be arbitrarily set by an operation on the operation panel 103, for example.
[0035]
The simultaneous sounding number designating unit 305 includes the sounding number information table T1 in FIG. 3 described above, the touch information of the key press operated by the keyboard unit 108, the pitch (pitch) information of the key press, and the operation on the operation panel 103. From the information on the timbre selected by (1), the number of simultaneous pronunciations to be set in the first musical tone generation unit 201 and the second musical tone generation unit 202 (the optimal number of simultaneous musical generations) is determined, and the result (hereinafter, referred to as the following) , Referred to as “simultaneous pronunciation number designation information”) is supplied to the first allocation unit 301 and the second allocation unit 302, respectively.
For example, when the piano tone is selected on the operation panel 103 and the pitch of the key pressed on the keyboard unit 108 is within the range of “0 to 31”, the simultaneous sound number designating unit 204 displays the sound number information. From table T1, information set to address = “2000h” corresponding to tone = “PIANO” and pitch = “0-31” (threshold value THV, simultaneous pronunciation information PNL1, PNL2, PNH1, PNH2) If the velocity of the key touch information of the key depression detected by the touch sensor 107 is not larger than “97”, the simultaneous tone generation number information PNL1 = “29” is sent to the first musical tone generator 201. 29 is set, and for the second tone generator 202, the simultaneous tone number PNL2 = "3" is set for the three tone generation information 202. When Sectional, and supplies these to polyphony information PNL1 and polyphony information PNL2 the first allocation unit 301 and the second assignment unit 302 corresponding as polyphony designation information respectively. As a result, up to 29 tone generation channels can be assigned to the first tone generation unit 201, and up to three tone generation channels can be assigned to the second tone generation unit 202.
Here, the total number of tone generation channels of the sound source LSI is 32, but the present invention is not limited to this.
[0036]
The first allocating unit 301 and the second allocating unit 302 have the same configuration. For example, the first allocating unit 301 includes simultaneous pronunciation number designation information (simultaneous pronunciation number information PNL1) from the simultaneous pronunciation number designation unit 305. ), A sound channel assignment process is performed for the musical tone component signal (weak tone component signal) generated and output by the first musical tone generator 201 with reference to the information in the assigner memory 303. Similarly, the second assigning unit 302 performs sound channel assignment processing for the tone component signal (strong tone component signal) generated and output by the second tone generating unit 202.
[0037]
The assigner memory 303 is commonly accessed by the first assigning unit 301 and the second assigning unit 302, and stores assignment information T2 as shown in FIG. 4, for example. As shown in FIG. 4, the assignment information T2 includes information on the key state ST, the key number NO, and the key pressing time Tim corresponding to the channel numbers ch1, ch2,. It becomes.
[0038]
A channel number chX (X = 1 to 32) indicates a sound generation channel of the sound source LSI.
The key state ST indicates a key release state if the value is “0”, and if the value is “1”, a weak sound component signal generation state in the first musical sound generation unit 201 (generation of weak sound due to key pressing). "2" indicates the generation state of a strong sound component signal in the second musical sound generation unit 202 (output generation of strong sound by pressing a key). As described above, conventionally, the key information is information indicating only the key depression or key release state, but here, the key depression state is further changed to the first musical tone generator 201 and the second key information. Setting is made separately for the musical sound generating unit 202.
The key number NO indicates the key number (MIDIKEY number or the like) on the keyboard unit 108 assigned to the corresponding channel number chX, and the key pressing time Tim indicates the time when the key is pressed.
[0039]
Therefore, for example, for the channel number ch1 in FIG. 4, the key number = “45” on the keyboard unit 108 is depressed, and the tone component signal (weak tone component signal) for generating the tone is the first. The tone generation unit 201 generates and outputs the key, and the key pressing time is “1.175”.
[0040]
5 to 11 are flowcharts showing processing programs executed by the CPU 101 for controlling the operation of the electronic musical instrument 100, including the operation for setting the number of simultaneous sounds in the musical tone generator 109 as described above. It is a thing.
Hereinafter, a series of operations of the entire electronic musical instrument 100, in particular, operations for setting the number of simultaneous sounds in the musical sound generating unit 109 will be specifically described.
[0041]
[Main process: See FIG. 5 above]
[0042]
First, when the power of the electronic musical instrument 100 is turned on, the CPU 101, RAM 106, sound source LSI (not shown), and the like are initialized (step S401).
Next, although the details will be described later, the CPU 101 detects the operation state of the operation panel 103 and controls the entire electronic musical instrument 100 so as to operate according to the detection result (step S402).
Next, the CPU 101 detects the operation state of the pedal 104 and controls the entire electronic musical instrument 100 to operate according to the detection result (step S403).
Next, although details will be described later, the CPU 101 detects the operation state of the keyboard unit 108 based on the output of the touch sensor 107, and controls the entire electronic musical instrument 100 to operate according to the detection result (step S404).
Then, the CPU 101 executes predetermined processing as necessary (step S405), and then returns to step S402 to repeatedly execute the subsequent step processing.
[0043]
[Panel Event Processing: Step S402: See FIG. 6 above]
[0044]
First, the CPU 101 determines whether or not the timbre selection switch is pressed on the operation panel 103 (step S411).
[0045]
If the result of determination in step S411 is that the timbre selection switch has been pressed, the CPU 101 executes timbre selection processing (step S412). For example, a process of setting a flag indicating the selected tone color to ON or lighting an LED provided on a switch indicating the selected tone color (switch on the operation panel 103) is executed.
Then, the CPU 101 supplies information indicating the selected tone color (tone color information) to the simultaneous sound number designating unit 305 (step S413), and then returns to the main process.
[0046]
If the timbre selection switch is not pressed as a result of the determination in step S411, the CPU 101 determines whether or not the volume switch is operated on the operation panel 103 (step S414).
If the result of this determination is that the volume switch has been operated, the CPU 101 executes volume setting processing based on that operation (step S415), and then returns to the main processing.
[0047]
If it is determined in step S411 that the timbre selection switch has not been pressed, the CPU 101 determines whether or not a switch other than the timbre selection switch and the volume switch is operated on the operation panel 103 (step S416).
As a result of the determination, if another switch has been operated, the CPU 101 executes a predetermined process based on the operation (step S417), and then returns to the main process.
If no other switch is operated, the CPU 101 returns to the main process as it is.
[0048]
[Keyboard event processing: Step S404: See FIG. 7 above]
[0049]
First, based on the output of the touch sensor 107, the CPU 101 determines whether or not the keyboard unit 108 is in an on-event state, that is, whether or not there is a key being pressed (step S421).
[0050]
As a result of the determination in step S421, if there is a key pressed on the keyboard unit 108, the CPU 101 supplies the pitch information and key touch information to the simultaneous pronunciation number designating unit 305 (steps S423 and S424). .
As will be described in detail later, the simultaneous sound number designating unit 305 includes the above-mentioned simultaneous sound number information table table T1 (see FIG. 3 above), timbre information by panel event processing: see step S413 in FIG. 6 above, The corresponding simultaneous pronunciation number designation information is acquired from the pitch information and key touch information in steps S423 and S424, and supplied to the first allocation unit 301 and the second allocation unit 302 (step S424).
The first assigning unit 301 and the second assigning unit 302 will be described in detail later, but based on the simultaneous pronunciation number designation information from the simultaneous pronunciation number designation unit 305, the first musical tone generation unit 201 and the second musical tone. A sound channel assignment control process (assigner process) for the generator 202 is performed. As a result, the number of simultaneous sounds for the musical sound component signal generated by the first musical sound generator 201 and the number of simultaneous sounds for the musical sound component signal generated by the second musical sound generator 202 are respectively the key touch information. Then, in a state that is variably set based on the pitch information and tone color information, a musical tone component signal is generated by the assigned tone generation channel (step S425).
The CPU 101 generates and generates one musical sound signal from the output (weak sound component signal) of the first musical sound generator 201 and the output (strong sound component signal) of the second musical sound generator 202. The predetermined process is executed (step S426), and then the process returns to the main process.
[0051]
As a result of the determination in step S421, if there is no key pressed on the keyboard unit 108, the CPU 101 determines whether or not the keyboard unit 108 is in an off event state (step S427).
If the result of this determination is that there is no off event state, the CPU 101 returns directly to the main processing.
[0052]
If the result of determination in step S427 is an off event state, the CPU 101 determines whether or not the damper pedal is ON (step S428).
As a result of this determination, if the damper pedal is ON, the CPU 101 returns to the main process as it is.
On the other hand, when the damper pedal is not turned on, the CPU 101 loads the release speed into the tone generator LSI, executes operation control for ending sound generation (step S429), and then returns to the main process.
[0053]
[Simultaneous Pronunciation Number Designation Processing: Step S424: See FIG. 8 above]
[0054]
First, the simultaneous sound generation number designating unit 305 extracts velocity information KV from the key touch information supplied in step S423 described above (step S431).
Next, the simultaneous pronunciation number designating unit 305 generates the number of pronunciations stored in the pronunciation number information storage unit 306 based on the velocity information KV obtained in step S431 and the timbre information supplied in step S422 described above. The corresponding threshold value THV is read from the information table T1 (see FIG. 3 above) (step S432).
Next, the simultaneous sounding number designating unit 305 compares the velocity information KV with the threshold value THV (step S433).
[0055]
When the velocity information KV is larger than the threshold value THV as a result of the comparison in step S433, the simultaneous sound number designating unit 305 obtains the simultaneous sound number indicated by the values of the simultaneous sound number information PNH1 and PNH2 ( In step S434), these are set as simultaneous pronunciation number designation information PN1 and PN2 (step S435).
[0056]
If the velocity information KV is not greater than the threshold value THV as a result of the comparison in step S433, the simultaneous sound number designating unit 305 obtains the simultaneous sound number indicated by the values of the simultaneous sound number information PNL1 and PNL2. (Step S436), and these are set as simultaneous pronunciation number designation information PN1 and PN2 (Step S437).
[0057]
Then, the simultaneous sounding number designation unit 305 supplies the simultaneous sounding number designation information PN1 and PN2 obtained in Step S435 or Step S437 to the corresponding first allocation unit 301 and second allocation unit 302, respectively (Step S435). S438, step S439), and then returns to keyboard event processing.
[0058]
[Assignment processing: Step S425: See FIG. 9 above]
[0059]
First, the first assigning unit 301 refers to the information in the assigner memory 303 (see FIG. 4 above) based on the simultaneous sounding number designation information PN1 supplied in step S438 described above, and the first musical tone generating unit 201. Is assigned (step S411).
Subsequently, the second assigning unit 302 similarly performs the second assignment while referring to the information in the assigner memory 303 (see FIG. 4 above) based on the simultaneous sounding number designation information PN2 supplied in step S439 described above. An assignment process is performed on the musical sound generating unit 202 (step S412).
Thereafter, the process returns to the keyboard event processing.
[0060]
[First Assignment Process: Step S441: See FIG. 10 above]
The first allocation unit 301 executes the following processing steps.
[0061]
First, by referring to the assignment information T2 (see FIG. 4 above) of the assigner memory 303, the number of sounding channels (sounding channels being sounded) that are used to generate the sound component signal in the first music sound generating unit 201. (Step S451 to step S455).
[0062]
Specifically, first, the channel counter CH and the assign key state counter AC are initialized (CH = 1, AC = 0: step S451). The channel counter CH is a counter for indicating the channel number ch [CH] (CH = 1 to 32) which is the current target among the 1 to 32 sound generation channels, and the assign key state counter AC is the sound generation. This is a counter for indicating the number of sound generation channels in the middle.
Next, for the channel number ch [CH] indicated by the channel counter CH, whether or not the corresponding key state ST value ST [CH] is “1”, that is, the tone generation channel of the channel number ch [CH] is It is determined whether or not the first musical sound generating unit 201 is in use for generating a weak sound component signal (hereinafter, this state is referred to as “sounding by the first musical sound generating unit 201”) ( Step S452).
[0063]
If it is determined in step S452 that the channel number ch [CH] is sounding in the first tone generator 201, the assign key state counter AC is incremented (AC = AC + 1: step S453), and the next Proceed to step S454.
If it is determined in step S452 that the channel number ch [CH] is not being generated by the first tone generator 201, the process directly proceeds to the next step S454.
[0064]
In step S454, the channel counter CH is incremented (CH = CH + 1), and then whether or not the counter value of the channel counter CH, which is the incremented result, is larger than “32”, that is, all 1 to 32 sound generations. It is determined whether or not the processing for checking the key state ST for the channel has been completed (step S455).
If the result of determination in step S455 is that processing has not yet been completed, processing returns to step S452 to execute processing for the next channel number ch [CH]. If processing has been completed, processing returns to the next step S456. Execute the process.
[0065]
Through the processing in steps S451 to S455 as described above, the total number of sounding channels that are being sounded by the first tone generator 201 among the 1 to 32 sounding channels is set in the assign key state counter AC. Will be.
[0066]
Next, it is determined whether or not the count value of the assign key state counter AC is smaller than the value of the simultaneous sounding number designation information PN1 supplied from the simultaneous sounding number designation unit 305 (step S456).
[0067]
As a result of the determination in step S456, when the count value of the assign key state counter AC is smaller than the value of the simultaneous sound generation number designation information PN1 (when AC <PN1), the sound assigned to the first musical tone generator 201 Since there is still room for the number of channels, the key state ST is “0” (either the first musical tone generator 201 or the second musical tone generator 202 is not generating sound, that is, used for sound generation. The generation of the weak sound component signal in the first tone generation unit 201 is assigned to an arbitrary sound generation channel among the sound generation channels that are not in the state (steps S457 to S461, S463).
On the other hand, if the count value of the assign key state counter AC is not smaller than the value of the simultaneous sound generation number designation information PN1, there is no room for the number of sound generation channels to be assigned to the first musical sound generating unit 201. Therefore, the first musical sound generating unit 201 performs the sound generation channel obtained by the boost priority processing among the sound generating channels whose key state ST is “1” (sounding by the first musical sound generating unit 201). Generation of a weak sound component signal is assigned (steps S462 and S463).
[0068]
Specifically, in the case of AC <PN1, referring to the assignment information T2 (see FIG. 4 above) of the assigner memory 303, the key state ST = “0” is indicated among 1 to 32 sound generation channels. In order to search for the channel number ch [CH] of the sound generation channel that is not used for sound generation, the channel counter CH is first initialized (CH = 1: step S457).
Next, for the channel number ch [CH] indicated by the channel counter CH, it is determined whether or not the corresponding key state ST value ST [CH] is “0” (step S458).
[0069]
As a result of the determination in step S458, if the value ST [CH] of the key state ST is “0”, the tone generation channel of the channel number ch [CH] is not in use at present, and this is used as the first. Assigned as the tone generation channel of the tone generator 201 (step S463). Then, the process returns to the main process (see FIG. 9) of the assignment process.
[0070]
If the value ST [CH] of the key state ST is not “0” as a result of the determination in step S458, the channel counter CH is incremented (CH = CH + 1: step S459), and the counter of the channel counter CH, which is the incremented result, is incremented. It is determined whether or not the value is larger than “32”, that is, whether or not the process of examining the key state ST for all the 1 to 32 sound generation channels has been completed (step S460).
If the result of determination in step S460 is that processing has not ended yet, the processing returns to step S458 to execute processing for the sound channel of the next channel number ch [CH], and if processing ends, the next step The process proceeds to S461.
Depending on the result of the determination in step S460, the process shifts to step S461, even though there is still room for allocation of sound generation channels to the first musical sound generator 201, among the 1 to 32 sound generation channels. In this state, there is no sound channel that is not used in (all are used), so among the 1 to 32 sound channels, the sound channel whose key state ST is “2” (second musical tone generator) During use for generation of a strong sound component signal at 202, hereinafter, this state is referred to as “during sound generation by the second musical sound generation unit 202”, and boost priority processing is performed (step S461). Here, the boosting priority process is a process of searching for the sound channel of the old key pressing time Tim and assigning the sound generation to the sound channel obtained as a result. The tone generation channel searched by this boosting priority process is assigned as the tone generation channel of the first musical sound generating unit 201 (step S463). Then, the process returns to the main process (see FIG. 9) of the assignment process.
[0071]
On the other hand, if AC <PN1, the number of sounding channels assigned to the first musical sound generating unit 201 is not sufficient, so that the sound state having the key state ST of “1” among 1 to 32 sounding channels. In the channel (sounding by the first musical tone generator 201), the boosting priority process as described above is performed (step S462). The tone generation channel searched by this boosting priority process is assigned as the tone generation channel of the first musical sound generating unit 201 (step S463). Then, the process returns to the main process (see FIG. 9) of the assignment process.
[0072]
[Second Assignment Process: Step S442: See FIG. 11 above]
The second assigning unit 302 executes the following processing steps.
Note that the second assignment process differs from the first assignment process described above only in that the musical tone generation unit to be processed is the second musical tone generation unit 202. Is omitted.
[0073]
First, by referring to the assignment information T2 (see FIG. 4 above) of the assigner memory 303, the number of tone generation channels (sound generation channels that are being generated) used for generation of the tone component signal by the second tone generator 202. (Steps S471 to S475).
As a result, the total number of sound generation channels that are being sounded by the second musical tone generating unit 202 among the 1 to 32 sound generation channels is set in the assign key state counter AC.
Next, it is determined whether or not the count value of the assign key state counter AC is smaller than the value of the simultaneous sounding number designation information PN2 supplied from the simultaneous sounding number designation unit 305 (step S476).
[0074]
As a result of the determination in step S476, when the count value of the assign key state counter AC is smaller than the value of the simultaneous sound generation number designation information PN2 (when AC <PN2), the sound generation to be assigned to the second musical sound generating unit 202 Since there is still room for the number of channels, the key state ST is “0” (either the first musical tone generator 201 or the second musical tone generator 202 is not generating sound, that is, used for sound generation. The generation of a strong sound component signal in the second tone generation unit 202 is assigned to an arbitrary sound generation channel among the sound generation channels that are not in the state (steps S477 to S481, S483).
At this time, if the process proceeds to step S481 as a result of the determination in step S480, 1 to 32 sounding channels are assigned although there is still room for allocation of sounding channels to the second musical sound generating unit 202. Since there is no sound channel that is not used in the list (all are used), the sound channel whose key state ST is “1” among the 1 to 32 sound channels (the first musical sound) The boost priority processing is performed in the sound generation unit 201) (step S481), and the sound generation channel searched by this is assigned as the sound generation channel of the second musical sound generation unit 202 (step S483).
[0075]
On the other hand, when the count value of the assign key state counter AC is not smaller than the value of the simultaneous sound generation number designation information PN2, there is no room for the number of sound generation channels to be assigned to the second musical sound generating unit 202. For this reason, the second tone generation unit 202 performs the tone generation channel obtained by the boost priority processing among the tone generation channels whose key state ST is “2” (sounding by the second tone generation unit 202). The generation of the strong sound component signal is assigned (steps S482 and S483).
[0076]
By each processing as described above, for example, in the case of strong key touch (strong sound) (when all performance sounds are strong sounds), 22 sound generation channels can be assigned to the weak sound component signal ( 10 sound channels can be assigned to the strong sound component signal (up to 10 sounds simultaneously). In this case, the apparent number of simultaneous pronunciations is 22 sounds, but it is rare in actual performance that all musical sounds are strong sounds. When the key touch becomes weak (in the case of a weak sound), no strong sound component is required, so that all sound generation channels (32 sound generation channels) can be assigned to the weak sound component signal (simultaneous sound generation of the weak sound component signal). Number up to 32 sounds). In this case, the apparent number of simultaneous pronunciations is 32 sounds. Further, when the key touch becomes strong, among the sound generation channels assigned to the weak sound component signal, a number of sound generation channels based on the key touch can be assigned to the strong sound component signal.
[0077]
Therefore, according to the present embodiment, the number of sound generation channels assigned to the weak sound component signal and the strong sound component signal is varied based on the key touch information (variable without setting the fixed sound number to be fixed). Therefore, it is possible to provide a sufficient number of simultaneous sounds as an electronic musical instrument while effectively utilizing the limited sound generation channels of the sound source LSI without complicating the circuit configuration. In particular, normally, performances with strong and weak strikes are often performed, so that the number of simultaneous sounds of the strong sound component signal and the number of simultaneous sound sounds of the weak sound component signal vary according to the key touch at that time. Therefore, it is more effective.
In addition to the key touch, the number of simultaneous pronunciations of each musical tone component signal is variable depending on the pitch and tone, and the key touch size (threshold value THV) for changing the number of simultaneous pronunciations is also set. Since it is configured to be changed and set depending on the pitch and tone color, it is possible to generate a musical tone in an optimum state with respect to the generated tone color and pitch.
[0078]
An object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the host and terminal according to the above-described embodiment to a system or apparatus, and the computer (or CPU or CPU) of the system or apparatus. Needless to say, this can also be achieved when the MPU) reads and executes the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the function of the present embodiment, and the storage medium storing the program code constitutes the present invention.
A ROM, floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, or the like can be used as a storage medium for supplying the program code.
Further, by executing the program code read by the computer, not only the functions of the present embodiment are realized, but also an OS or the like running on the computer based on an instruction of the program code performs actual processing. It goes without saying that a case where the function of this embodiment is realized by performing part or all of the above and the processing thereof is included.
Further, after the program code read from the storage medium is written to the memory provided in the extension function board inserted in the computer or the function extension unit connected to the computer, the function extension is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or function expansion unit performs part or all of the actual processing, and the functions of the present embodiment are realized by the processing.
[0079]
【The invention's effect】
As described above, according to the present invention, when a plurality of musical tone component signals (weak tone component signal, strong tone component signal, etc.) are mixed to generate one musical tone signal, musical tone information (key touch by key pressing operation) is generated. The maximum number of pronunciations (predetermined number of pronunciations) assigned to each musical tone component signal is variably set based on information, tone color information, pitch information by panel operation, or information contained in an externally input MIDI signal) To do. As a result, each musical tone component signal is assigned a pronunciation within a predetermined number of pronunciations set for each musical tone component signal.
[0080]
Specifically, for example, when one musical sound signal is generated from a weak sound component signal having a relatively long sounding time and a strong sound component signal having a sounding time shorter than the sounding time, it is generated based on the key touch information. Thus, the number of sound channels assigned to the weak sound component signal and the strong sound component signal is varied (the number of simultaneous sound sounds is varied without being fixed).
As a result, if the total number of sound generation channels of the sound source LSI is 32, for example, when a strong key touch (strong sound) (all performance sounds are strong sounds), 22 sound generations for the weak sound component signal Channels can be assigned (up to 22 sounds of weak sound component signals simultaneously), and 10 sound channels can be assigned to strong sound components signals (up to 10 sounds of strong sound components simultaneously) The apparent number of simultaneous pronunciations is 22 sounds. When the key touch becomes weak (weak sound), no strong sound component is required, so all the sound channels (32 sound channels) can be assigned to the weak sound component signal (maximum number of simultaneous sound sounds of the weak sound component signal is maximized). 32 sounds), the apparent number of simultaneous pronunciations is 32 sounds. Further, when the key touch becomes strong, among the sound generation channels assigned to the weak sound component signal, a number of sound generation channels based on the key touch can be assigned to the strong sound component signal.
In this way, based on the key touch information, the maximum value of the simultaneous sounding number of the weak sound component signal and the maximum value of the simultaneous sounding number of the strong sound component signal are variably set.
[0081]
Therefore, according to the present invention, it is possible to provide a sufficient number of simultaneous sounds as an electronic musical instrument while effectively utilizing the limited sound generation channels of the sound source LSI without complicating the circuit configuration. In particular, normally, performances with strong hits and weak hits are often performed, so the number of simultaneous sounds of musical tone component signals such as strong component signals and strong component signals depends on the key touch at that time. Therefore, it is more effective.
In addition to key touch information, the maximum number of simultaneous pronunciations of each musical tone component signal is also variable based on pitch and timbre information, and further, the key touch that changes the maximum number of simultaneous pronunciations. If the magnitude (threshold value THV) is also set so as to vary depending on the pitch and tone color, it is possible to generate a musical tone in an optimum state with respect to the generated tone color and tone pitch.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an electronic musical instrument to which the present invention is applied.
FIG. 2 is a block diagram showing a configuration of a musical sound generating unit of the electronic musical instrument.
FIG. 3 is a diagram for explaining a sound generation number information table used for changing the number of simultaneous sound generations of the respective musical sound component signals to be generated by key touch in the music sound generation unit.
FIG. 4 is a diagram for explaining assignment information used for assignment processing in which a tone generation channel is assigned to each tone component signal in the tone generator.
FIG. 5 is a flowchart for explaining a main process executed by the electronic musical instrument.
FIG. 6 is a flowchart for explaining a panel event process of the main process.
FIG. 7 is a flowchart for explaining a keyboard event process of the main process.
FIG. 8 is a flowchart for explaining a simultaneous pronunciation number designating process of the keyboard event process;
FIG. 9 is a flowchart for explaining an assignment process of the keyboard event process;
FIG. 10 is a flowchart for explaining a first assignment process of the assignment process;
FIG. 11 is a flowchart for explaining a second assignment process of the assignment process;
[Explanation of symbols]
100 electronic musical instruments
101 CPU
102 MIDI interface
103 Operation panel
104 pedals
105 ROM
106 RAM
107 touch sensor
108 Keyboard
109 Music generator
110 Waveform memory
111 D / A converter
112 Sound system
201 First musical sound generator
202 Second musical sound generator
203 Adder
301 1st allocation part
302 Second allocation unit
303 assigner memory
305 Simultaneous pronunciation number designation part
306 Pronunciation information storage

Claims (11)

それぞれ弱音成分信号、中音成分信号、強音成分信号及び打撃音成分信号のうちの異なるいずれかである少なくとも第1の楽音成分信号及び第2の楽音成分信号を混合することで、楽音情報に基づいた楽音を生成して発生する楽音発生装置であって、
上記第1の楽音成分信号を生成する第1の楽音成分生成手段と、
上記第2の楽音成分信号を生成する第2の楽音成分生成手段と、
上記第1の楽音成分生成手段に対して第1の所定発音数の範囲内で発音を割り当てる第1の割当手段と、
上記第2の楽音成分生成手段に対して第2の所定発音数の範囲内で発音を割り当てる第2の割当手段と、
上記楽音情報に基づいて、上記第1の楽音成分生成手段での上記第1の所定発音数及び上記第2の楽音成分生成手段での上記第2の所定発音数をそれぞれ可変して設定する設定手段とを備え
上記設定手段は、上記楽音情報に含まれるタッチ情報と、該タッチ情報に対して予め設定されたしきい値との比較結果に基づいて、上記第1の所定発音数及び上記第2の所定発音数の設定を行うことを特徴とする楽音発生装置。
By mixing at least the first musical tone component signal and the second musical tone component signal , which are different ones of the weak tone component signal, the middle tone component signal, the strong tone component signal, and the batting tone component signal, respectively , into the musical tone information. A musical sound generating device for generating and generating musical sounds based on
First musical sound component generating means for generating the first musical sound component signal;
Second musical sound component generating means for generating the second musical sound component signal;
First allocating means for allocating a pronunciation within a range of a first predetermined number of pronunciations to the first musical sound component generating means;
Second allocating means for allocating a pronunciation within a second predetermined number of pronunciations to the second musical sound component generating means;
A setting for variably setting the first predetermined number of pronunciations in the first musical tone component generation means and the second predetermined number of pronunciations in the second musical sound component generation means based on the musical tone information and means,
The setting means includes the first predetermined sound number and the second predetermined sound generation based on a comparison result between the touch information included in the musical sound information and a threshold value preset for the touch information. A musical sound generator characterized by setting a number .
上記しきい値は、上記楽音情報に含まれる音高情報によって異なることを特徴とする請求項記載の楽音発生装置。The threshold value is musical tone generating apparatus according to claim 1, wherein the different by pitch information contained in the music information. 上記しきい値は、上記楽音情報に含まれる音色情報によって異なることを特徴とする請求項記載の楽音発生装置。The threshold value is musical tone generating apparatus according to claim 1, wherein the different by tone color information included in the music information. 上記しきい値は、外部より任意に設定可能であることを特徴とする請求項記載の楽音発生装置。The threshold value is musical tone generating apparatus according to claim 1, wherein can be arbitrarily set from the outside. それぞれ弱音成分信号、中音成分信号、強音成分信号及び打撃音成分信号のうちの異なるいずれかである少なくとも第1の楽音成分信号及び第2の楽音成分信号を混合することで、楽音情報に基づいた楽音を生成して発生する楽音発生装置であって、
上記第1の楽音成分信号を生成する第1の楽音成分生成手段と、
上記第2の楽音成分信号を生成する第2の楽音成分生成手段と、
上記第1の楽音成分生成手段に対して第1の所定発音数の範囲内で発音を割り当てる第1の割当手段と、
上記第2の楽音成分生成手段に対して第2の所定発音数の範囲内で発音を割り当てる第2の割当手段と、
上記楽音情報に基づいて、上記第1の楽音成分生成手段での上記第1の所定発音数及び上記第2の楽音成分生成手段での上記第2の所定発音数をそれぞれ可変して設定する設定手段とを備え、
上記第1の楽音成分信号は、上記第2の楽音成分信号の発音時間よりも長い信号であることを特徴とする楽音発生装置。
By mixing at least the first musical tone component signal and the second musical tone component signal, which are different ones of the weak tone component signal, the middle tone component signal, the strong tone component signal, and the batting tone component signal, respectively, into the musical tone information. A musical sound generating device for generating and generating musical sounds based on
First musical sound component generating means for generating the first musical sound component signal;
Second musical sound component generating means for generating the second musical sound component signal;
First allocating means for allocating a pronunciation within a range of a first predetermined number of pronunciations to the first musical sound component generating means;
Second allocating means for allocating a pronunciation within a second predetermined number of pronunciations to the second musical sound component generating means;
A setting for variably setting the first predetermined number of pronunciations in the first musical tone component generation means and the second predetermined number of pronunciations in the second musical sound component generation means based on the musical tone information Means and
The first music sound component signal is easy sound generating device you being a longer signal than sounding time of the second music sound component signal.
楽音情報に基づいた楽音を発生する電子楽器であって、請求項1〜の何れかに記載の楽音発生装置の機能を有することを特徴とする電子楽器。An electronic musical instrument that generates a musical sound based on musical sound information, wherein the electronic musical instrument has the function of the musical sound generating device according to any one of claims 1 to 5 . それぞれ弱音成分信号、中音成分信号、強音成分信号及び打撃音成分信号のうちの異なるいずれかである複数の楽音成分信号を混合することで、楽音情報に基づいた楽音を生成して発生するためのステップを、コンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記憶媒体であって、
上記複数の楽音成分信号のそれぞれに対して、対象楽音成分信号に対応した所定発音数の範囲内で発音を割り当てる割当ステップと、
上記楽音情報に基づいて、上記複数の楽音成分信号に対応したそれぞれの上記所定発音数を可変して設定する設定ステップであって、上記楽音情報に含まれるタッチ情報と、該タッチ情報に対して予め設定されたしきい値との比較結果に基づいて、上記所定発音数の設定を行う設定ステップとをコンピュータに実行させるためのプログラムを記録したコン ピュータ読み取り可能な記憶媒体。
A musical tone based on musical tone information is generated and generated by mixing a plurality of musical tone component signals, each of which is one of a weak tone component signal, a middle tone component signal, a strong tone component signal, and a striking tone component signal. the steps for a computer-readable storage medium storing a program to be executed by a computer,
An assigning step of assigning a pronunciation within a predetermined number of pronunciations corresponding to the target musical sound component signal for each of the plurality of musical sound component signals;
A setting step for variably setting the predetermined number of pronunciations corresponding to the plurality of tone component signals based on the tone information, the touch information included in the tone information, and the touch information based on a result of comparison with a preset threshold value, the predetermined number of tones of the recorded computer-readable storage medium storing a program for executing the setting step to a computer to set.
上記しきい値は、上記楽音情報に含まれる音高情報によって異なることを特徴とする請求項記載の記憶媒体。8. The storage medium according to claim 7 , wherein the threshold value varies depending on pitch information included in the musical tone information. 上記しきい値は、上記楽音情報に含まれる音色情報によって異なることを特徴とする請求項記載の記憶媒体。8. The storage medium according to claim 7 , wherein the threshold value varies depending on timbre information included in the musical tone information. 上記しきい値は、操作パネル上の操作子によって任意に設定可能であることを特徴とする請求項記載の記憶媒体。8. The storage medium according to claim 7 , wherein the threshold value can be arbitrarily set by an operator on an operation panel. それぞれ弱音成分信号、中音成分信号、強音成分信号及び打撃音成分信号のうちの異なるいずれかである複数の楽音成分信号を混合することで、楽音情報に基づいた楽音を生成して発生するためのステップを、コンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記憶媒体であって、
上記複数の楽音成分信号のうち少なくとも1つの楽音成分信号は、他の楽音成分信号の発音時間よりも長い信号であり、
上記複数の楽音成分信号のそれぞれに対して、対象楽音成分信号に対応した所定発音数の範囲内で発音を割り当てる割当ステップと、
上記楽音情報に基づいて、上記複数の楽音成分信号に対応したそれぞれの上記所定発音数を可変して設定する設定ステップとをコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記憶媒体。
A musical tone based on musical tone information is generated and generated by mixing a plurality of musical tone component signals, each of which is one of a weak tone component signal, a middle tone component signal, a strong tone component signal, and a striking tone component signal. A computer-readable storage medium storing a program for causing a computer to execute the steps for:
At least one of the music sound component signal among the plurality of music sound component signal, Ri longer signal der than sounding time of another music sound component signal,
An assigning step of assigning a pronunciation within a predetermined number of pronunciations corresponding to the target musical sound component signal for each of the plurality of musical sound component signals;
A computer-readable storage medium storing a program for causing a computer to execute a setting step of variably setting the predetermined number of pronunciations corresponding to the plurality of tone component signals based on the tone information .
JP03178499A 1999-02-09 1999-02-09 Musical sound generator, electronic musical instrument, and storage medium Expired - Fee Related JP4037551B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03178499A JP4037551B2 (en) 1999-02-09 1999-02-09 Musical sound generator, electronic musical instrument, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03178499A JP4037551B2 (en) 1999-02-09 1999-02-09 Musical sound generator, electronic musical instrument, and storage medium

Publications (2)

Publication Number Publication Date
JP2000231384A JP2000231384A (en) 2000-08-22
JP4037551B2 true JP4037551B2 (en) 2008-01-23

Family

ID=12340695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03178499A Expired - Fee Related JP4037551B2 (en) 1999-02-09 1999-02-09 Musical sound generator, electronic musical instrument, and storage medium

Country Status (1)

Country Link
JP (1) JP4037551B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6343911B2 (en) * 2013-11-20 2018-06-20 ヤマハ株式会社 Electronic musical instrument, program and pronunciation pitch selection method

Also Published As

Publication number Publication date
JP2000231384A (en) 2000-08-22

Similar Documents

Publication Publication Date Title
EP3882906A1 (en) Electronic keyboard musical instrument and method of generating musical sound
CN108630178B (en) Musical tone generating apparatus, musical tone generating method, recording medium, and electronic musical instrument
JPS62135892A (en) Electronic musical apparatus with sound generation allottingfunction
JP2623878B2 (en) Electronic musical instrument
US10474387B2 (en) Musical sound generation device, musical sound generation method, storage medium, and electronic musical instrument
JP2641605B2 (en) Electronic musical instrument channel assignment device and channel assignment method
CN110299128A (en) Electronic musical instrument, method, storage medium
JP5142363B2 (en) Component sound synthesizer and component sound synthesis method.
JPH08202361A (en) Electronic instrument
JP4037551B2 (en) Musical sound generator, electronic musical instrument, and storage medium
JP4443658B2 (en) Musical sound generator, electronic musical instrument, and recording medium
JPH08314450A (en) Music system and electronic musical instrument
JPH06259064A (en) Electronic musical instrument
JP4279997B2 (en) Sound source control apparatus, electronic musical instrument, MIDI system, sound source control method, storage medium
JP2570819B2 (en) Electronic musical instrument
JP4492923B2 (en) Electronic musical instrument function assignment device
JP2526636B2 (en) Electronic musical instrument
JP4124434B2 (en) Electronic musical instrument with digital sound source
JP2004020989A (en) Device and method for generating musical sound signal, computer program, and computer readable recording medium
JP3673384B2 (en) Musical sound channel assignment apparatus and musical sound channel assignment method
JP3595676B2 (en) Music sound generating apparatus and music sound generating method
JP2001282243A (en) Electronic musical tone generator, electronic musical tone generating method and recording medium
JPH08335082A (en) Electronic musical instrument having automatic playing function
JPH04233595A (en) Channel assignment device for electronic musical instrument
JP4920946B2 (en) Music generator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070724

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071101

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101109

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees