JP3704782B2 - Electronic musical instruments - Google Patents

Electronic musical instruments Download PDF

Info

Publication number
JP3704782B2
JP3704782B2 JP03310696A JP3310696A JP3704782B2 JP 3704782 B2 JP3704782 B2 JP 3704782B2 JP 03310696 A JP03310696 A JP 03310696A JP 3310696 A JP3310696 A JP 3310696A JP 3704782 B2 JP3704782 B2 JP 3704782B2
Authority
JP
Japan
Prior art keywords
key
grouping
keys
preferences
depression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03310696A
Other languages
Japanese (ja)
Other versions
JPH09212165A (en
Inventor
一郎 大須賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP03310696A priority Critical patent/JP3704782B2/en
Publication of JPH09212165A publication Critical patent/JPH09212165A/en
Application granted granted Critical
Publication of JP3704782B2 publication Critical patent/JP3704782B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、押鍵状態を検出するセンサを各鍵毎に独立に設け、該各センサの出力に応じて楽音を制御する電子楽器に関する。
【0002】
【従来の技術】
従来、押鍵状態を検出するセンサを各鍵毎に独立に設け、該各センサの出力に応じて楽音を制御する電子楽器は知られている。
【0003】
たとえば特開平4−146493号公報には、各鍵毎に少なくとも2個のセンサを設け、該各センサの出力に応じて楽音を制御することにより、演奏者の意思を忠実に反映した表現力豊かな演奏を可能にした電子楽器が記載されている。
【0004】
ここで、各センサの出力に応じた楽音制御とは、たとえば制御すべき楽音が音色パラメータである場合に、音色パラメータをLFO(Low Frequency Oscillator)から出力される変調波またはピッチベンダやモジュレーションホイール等の演奏操作子からの出力に応じて変調または変更する等の制御を行うことをいい、楽音のピッチを変調または変更すると、ビブラートと呼ばれる効果となり、音量を変調または変更するとトレモロと呼ばれる効果となる。
【0005】
なお、制御できるパラメータとしては、音色パラメータに限らず、フィルタのカットオフ周波数や音像定位位置等さまざまなパラメータがあり、また、制御に用いるセンサ出力としては、押鍵時のイニシャルタッチ情報やアフタタッチ情報等がある。
【0006】
【発明が解決しようとする課題】
しかしながら、上記従来の電子楽器では、各鍵毎に独立に検出された押鍵状態に応じて楽音を制御するため、以下のような問題が生じた。
【0007】
たとえば、制御すべきパラメータとしてピッチ、すなわちビブラート制御を行うこととし、センサとして押鍵時の圧力を検出する圧力センサが各鍵毎に設けられているものとする。
【0008】
演奏者が複数の鍵を押鍵すると、押鍵された鍵からそれぞれ押鍵状態、すなわち圧力に応じた信号が出力される。たとえば、演奏者が和音を押さえている状態で、押さえている指に力をかけると、その力をかけた鍵に対応する楽音にビブラートがかかる。ビブラートのピッチずれの大きさは圧力の大きさに応じて変化するが、片手で複数鍵に対してセンサの出力を演奏者の好みの値に制御することは難しい。
【0009】
和音にビブラートをかける場合には、当該複数鍵の圧力を同じように変化させないと協和音として発音されていたものが不協和音になってしまう。この状態は、ビブラートのピッチずれを、和音を構成する各音のそれぞれに対して等しく施さないために発生する。
【0010】
このように、各鍵独立のセンサ出力に応じて各鍵毎に対応する楽音のパラメータ制御を行う場合には、各鍵(すなわち各音)毎に独立にパラメータ制御を行うことができるという利点がある反面、演奏が難しくなり、狙った効果が得られないという問題もあった。特に、演奏者が初心者である場合には、思い通りの演奏が行えなかった。
【0011】
本発明は、上記問題に鑑みてなされたもので、演奏者の能力に応じて演奏者の思い通りの演奏を簡単に行うことが可能な電子楽器を提供することを目的とする。
【0012】
【課題を解決するための手段】
上記目的を達成するため本発明は、複数の鍵を備え、その押鍵を当該各鍵毎に検出するための押鍵検出手段と、該押鍵が検出された押鍵中の鍵をグループ化する鍵グループ化手段と、前記押鍵が検出された鍵の押鍵後の状態を当該各鍵毎に検出し、該検出された押鍵後の状態に応じて当該各鍵毎に演奏情報を発生する演奏情報発生手段と、前記グループ化された鍵から所定の優先条件に適合する1つの鍵を選択する選択手段と、該選択された鍵の、前記発生された演奏情報に基づいて、前記グループ化された鍵に対応する楽音を制御する楽音制御手段とを有することを特徴とする。
【0013】
また、好ましくは、予め決定された複数のグループ化条件から演奏者が所望のグループ化条件を指示するためのグループ化条件指示手段を有し、前記鍵グループ化手段は、該グループ化条件指示手段により指示されたグループ化条件に応じて、前記押鍵が検出された押鍵中の鍵をグループ化することを特徴とする。
【0014】
さらに、好ましくは、予め決定された複数の優先条件から演奏者が所望の優先条件を指示するための優先条件指示手段を有し、前記選択手段は、該優先条件指示手段により指示された優先条件に応じて、前記グループ化された鍵の中から1つの鍵を選択することを特徴とする。
【0015】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて詳細に説明する。
【0016】
図1は、本発明の実施の一形態に係る電子楽器の概略構成を示すブロック図である。
【0017】
同図において、本実施の形態の電子楽器は、音高情報や押鍵状態を入力するための鍵盤部1と、該鍵盤部1から出力されたアナログ信号をデジタル信号に変換し、時分割データとして出力する鍵盤インターフェース(I/F)2と、たとえば図示しないCPUを備え、装置全体の制御を司る制御部3と、該制御部3が実行する制御プログラムやテーブルデータ等を記憶するROM4と、各種パラメータ情報、演算結果および各種入力情報等を一時的に記憶するRAM5と、前記鍵盤部1から入力された音高情報や前記操作子群から入力された各種入力情報に応じて楽音信号を生成する音源6と、該音源6が生成した楽音信号に各種効果を付与する効果付与部7と、該効果付与部7から出力された効果の付与された楽音信号を音響に変換する、たとえばスピーカ等からなるサウンドシステム8とにより構成されている。
【0018】
前記鍵盤部1は、図示しない鍵に各鍵毎配設された、音高情報を検出するための各鍵スイッチ回路11および押鍵状態を検出するための各鍵センサ(たとえば圧力センサ)12を備えている。
【0019】
図2は、前記RAM5の所定位置に確保された音色メモリ領域のデータフォーマットを示す図である。
【0020】
同図に示すように、音色メモリ領域には、各音色(ボイスネーム)毎に各種の音色パラメータが格納され、演奏者が音色を選択すると、この音色に応じた音色パラメータが音源6等に設定される。ここで、音色パラメータには、音源6が波形メモリ音源である場合の波形番号、使用するフィルタ、エンベロープジェネレータ(EG)に与えるEGパラメータ、前記効果付与部(エフェクタ)7に与えるパラメータ、リバーブを付与する場合のパラメータ等がある。さらに、本発明の特徴である隣鍵差パラメータおよび優先手段パラメータも格納される。
【0021】
隣鍵差パラメータとは、演奏者が複数鍵を押鍵している場合に、そのうちどの鍵を同時に制御するかを決定するためのパラメータであり、グループ化条件を決定するためのパラメータである。本実施の形態では、演奏者は、“m”,“M”,“n”,“1”〜“5”の8種類のグループ化条件から所望の1つを選択して設定することができる。たとえばグループ化条件として“m”が選択されているときには、押鍵された鍵のうち隣接した鍵間のキーコードが「1度」、「4度」または「8度」である場合のみ、当該鍵が同時に、すなわち1つのグループとして同時に制御され、それ以外の鍵は単独で制御される。なお、グループ化条件として“n”が選択されているときには、この同時制御は停止(off)され、押鍵された鍵はすべて単独で制御される。
【0022】
優先手段パラメータとは、上記隣鍵差パラメータで決定されたグループに属する鍵から1つの鍵を選択するための優先順位を決定するパラメータである。本実施の形態では、演奏者は、▲1▼振幅大、▲2▼振幅小、▲3▼振動数大、▲4▼最高音、▲5▼最低音、▲6▼後着音、▲7▼変化速度大、▲8▼センサ出力の平均という8種類の優先条件から所望の1つを選択して設定することができる。たとえば優先条件として「▲1▼振幅大」が選択されているときには、前記グループ化条件に適合した鍵の各鍵センサ12からのセンサ出力のうち、振幅が最も大きいものが選択され、この選択されたセンサ出力により、当該グループに属する鍵の各楽音が制御される。なお、この制御方法については、後述する。
【0023】
以上のように構成された電子楽器が実行する制御処理を、以下、図3〜7を参照して説明する。
【0024】
図3は、制御部3、特に前記CPUが実行するメインルーチンの手順を示すフローチャートである。
【0025】
同図において、まず、各種ポートのリセットや前記RAM5のクリア等の初期設定を行う(ステップS1)。
【0026】
次に、演奏者の設定操作に応じて音色に関係するパラメータ等を設定する音色設定処理サブルーチン(その詳細は、図4を用いて後述する)を行う(ステップS2)。
【0027】
そして、鍵盤部1の各鍵の押下状態に応じた鍵処理サブルーチン(その詳細は、図5を用いて後述する)を実行し(ステップS3)、ビブラート制御を行うビブラート処理サブルーチン(その詳細は、図6を用いて後述する)を実行する(ステップS4)。
【0028】
さらに、上述した処理以外の処理(たとえば発音処理等)であるその他処理を行った(ステップS5)後に、前記ステップS2に戻り、前述の処理を繰り返す。
【0029】
図4は、前記ステップS2の音色設定処理サブルーチンの詳細な手順を示すフローチャートである。
【0030】
同図において、まず、演奏者が音色選択を行ったか否かを判別し(ステップS11)、音色選択を行ったときにはステップS12に進む一方、音色選択を行わないときには直ちに本音色処理サブルーチンを終了する。
【0031】
ステップS12では、選択された音色に対して、演奏者が前記グループ化条件および優先条件を選択した場合には、当該グループ化条件および優先条件を前記音色メモリ領域に記憶する。
【0032】
次に、ステップS12で設定したパラメータ以外のパラメータを演奏者が設定した場合には、当該パラメータの設定処理を行った(ステップS13)後に、本音設定処理サブルーチンを終了する。
【0033】
図5は、前記ステップS3の鍵処理サブルーチンの詳細な手順を示すフローチャートである。なお、本鍵処理サブルーチンは、説明の都合上、1つの鍵についての処理のみを示しているが、実際には、前記鍵盤部1に配設された鍵のすべてについて同様の処理を行う必要がある。
【0034】
同図において、まず、前記各鍵スイッチ回路11の状態を検出し、キーオン(押鍵)があるか否かを判別し(ステップS21)、キーオンがあるときには、当該鍵に対応するキーオン処理(たとえば、当該鍵のキーコードを取得したり、該キーコードを音源6へ送出したりする等の処理)を行う(ステップS22)。
【0035】
次に、他に押さえられている鍵があるか否かを判別し(ステップS22)、他に押さえられている鍵がある場合には、他に押さえられているすべての鍵と、前記ステップS21で判別された鍵、すなわち新たに押鍵された鍵との音高差を算出する(ステップS24)。ここで、他に押さえられている鍵が複数個ある場合には、当該各鍵と新たに押さえられた鍵との音高差をそれぞれ算出する。
【0036】
そして、前記算出された音高差のうち、現在選択されているグループ化条件に一致する音高差となる鍵(他に押さえられた鍵)があるか否かを判別し(ステップS25)、グループ化条件に一致する音高差となる鍵がある場合には、当該鍵と同じグループ番号を前記新たに押鍵された鍵に付して記憶する(ステップS26)。
【0037】
図7は、押鍵中のキーコードとその対応するグループ番号とを記憶するメモリ領域(以下、この領域を「グループ番号記憶領域」という)に記憶された内容の一例を図示したものである。同図に示されるように、押鍵中のキーコードは、発音割り当てされたチャンネル(本実施の形態では、発音チャンネルは32チャンネル分確保されている)の順序で記憶され、当該キーコードに対応してグループ番号が記憶される。
【0038】
そして、同図には、発音チャンネル1に割り当てられているキーコードKC4と発音チャンネル2に割り当てられているキーコードKC2は同じグループ(グループ1)に属し、発音チャンネル31に割り当てられているキーコードKC3は別のグループ(グループ2)に属する例が示されている。なお、キーコードが割り当てられていないチャンネルのキーコードを記憶する領域には、0〜127の整数値以外の数値が記憶される。本実施の形態では、0〜127の整数値はいずれかのキーコードを示しているので、それ以外の数値を記憶しておけば、キーコードでないことが判別できるからである。
【0039】
図5に戻り、前記ステップS23の判別で、他に押さえられている鍵がないとき、または前記ステップS25の判別で、算出された音高差がグループ化条件に一致しないときには、前記新たに押鍵された鍵(キーコード)に新たなグループ番号を付して前記グループ番号記憶領域に記憶した(ステップS27)後に、ステップS28に進む。
【0040】
一方、前記ステップS21の判別で、押鍵がないときには、前記ステップS22〜S27をスキップしてステップS28に進む。
【0041】
ステップS28では、キーオフ(離鍵)があるか否かを判別し、キーオフがあるときにはステップS29に進む一方、キーオフがないときには、直ちに本鍵処理サブルーチンを終了する。
【0042】
ステップS29では、前記グループ番号記憶領域中、当該キーオフされた鍵(キーコード)に対応するグループ番号を“0”にするとともに、当該鍵のキーコードを前記0〜127の整数値以外の予め決定された数値にする。
【0043】
続くステップS30では、キーオフ処理(たとえば、当該キーコードのキーオフを音源6に送出する等の処理)を行った後に、本キー処理サブルーチンを終了する。
【0044】
図6は、前記ステップS4のビブラート処理サブルーチンの詳細な手順を示すフローチャートである。
【0045】
同図において、まず、前記各鍵センサ12からの出力に変化があったか否かを判別し(ステップS41)、センサ出力に変化がないときには、本ビブラート処理サブルーチンを直ちに終了する一方、センサ出力に変化があったときにはステップS42に進む。
【0046】
ステップS42では、前記ステップS41で判別されたセンサ(以下、このセンサを「判別に係るセンサ」という)に対応する鍵と同一のグループ番号が付されている他の鍵のセンサをチェックし、当該他の鍵のセンサ出力があるか否かを判別する。この判別の結果、同一グループ内で他の鍵のセンサ出力があったときには、当該他のセンサ出力と前記判別に係るセンサのセンサ出力とを比較し、前記優先手段パラメータに設定されている優先条件に適合するか否かを判別する(ステップS43)。
【0047】
ステップS43の判別で、前記判別に係るセンサのセンサ出力が前記設定された優先条件に適合しているときには、当該グループ内のすべての鍵に対応する楽音を前記判別に係るセンサのセンサ出力に応じてビブラート制御した(ステップS44)後に、本ビブラート処理サブルーチンを終了する。
【0048】
一方、ステップS43の判別で、前記判別に係るセンサのセンサ出力が前記設定された優先条件に適合しないときには、直ちに本ビブラート処理サブルーチンを終了する。
【0049】
さらに、ステップS42の判別で、同一グループ内で他の鍵のセンサ出力がないときには、ステップS43をスキップして、ステップS44に進む。これにより、同一グループ内の鍵に対応するセンサ出力が1つのみの場合でも、当該センサ出力に応じて対応する鍵の楽音が制御される。
【0050】
以上説明したように、本実施の形態では、同時に押鍵した鍵をグループ化条件に応じてグループ化し、同一グループ内の押鍵鍵のうち優先条件に適合する鍵を選択し、この選択された鍵に対応する前記各鍵センサ12からのセンサ出力で、当該グループ内の押鍵鍵に対応するすべての楽音のビブラートを同様に制御するようにしたので、同一グループ内の鍵に対してすべて同様の圧力をかけなくても、演奏者の思い通りの演奏を行うことができる。たとえば、演奏者が和音を押鍵し、その和音にビブラートをかけている場合に、その和音が前記設定されたグループ化条件に一致しているときには、演奏者は押鍵された和音の各音に対応するすべての鍵に同様の圧力をかけなくても、協和音で発音することができる。また、演奏者の技術が向上し、複数鍵に対して同様にビブラートをかけることができるようになれば、前記図2で説明した隣鍵差パラメータに“n”を設定することにより、上述の制御を停止することができる。したがって、演奏者の能力に応じて演奏者の狙い通りの演奏を簡単に行うことができる。
【0051】
なお、本実施の形態では、各鍵センサ12として圧力センサを採用し、押鍵時の圧力を検出したが、これに限らず、押鍵時の鍵の速度を検出するようにしてもよいし、鍵の変位を検出するようにしてもよい。また、検出すべき押鍵時の圧力の方向も、鍵を押す方向に限らず、横方向であってもよい。さらに、押鍵状態(圧力、速度、変位等)は、たとえば光学的に検出するセンサ等、その押鍵状態が検出できるものであればどのようなもので検出してもよい。
【0052】
また、本実施の形態では、制御すべき楽音パラメータとしてピッチを採用し、本発明をビブラート制御に適用したが、これに限らず、その他の音色または効果パラメータに適用してもよいことは云うまでもない。
【0053】
さらに、本実施の形態では、グループ化条件を、前記図2に示すように8種類の条件から演奏者が任意に選択できるようにしたが、これに限らず、押鍵音が「和音」であるか「単音」であるかを判別し、「和音」であるときのみ上記制御を施すようにしてもよい。
【0054】
また、グループ化条件を「左鍵域」と「右鍵域」とで異ならせるようにしてもよい。このとき、鍵盤の所定位置(スプリットポイント)を「左鍵域」と「右鍵域」との境にする。
【0055】
【発明の効果】
以上説明したように、本発明に依れば、演奏者による押鍵が当該各鍵毎に検出され、該検出された押鍵中の鍵がグループ化され、前記押鍵が検出された鍵の押鍵後の状態が当該各鍵毎に検出され、該検出された押鍵後の状態に応じて当該各鍵毎に演奏情報が発生され、前記グループ化された鍵から所定の優先条件に適合する1つの鍵が選択され、該選択された鍵の、前記発生された演奏情報に基づいて、前記グループ化された鍵に対応する楽音が制御されるので、演奏者の能力に応じて演奏者の思い通りの演奏を簡単に行うことが可能となる効果を奏する。
【図面の簡単な説明】
【図1】本発明の実施の一形態に係る電子楽器の概略構成を示すブロック図である。
【図2】図1のRAMの所定位置に確保された音色メモリ領域のデータフォーマットを示す図である。
【図3】図1の制御部が実行するメインルーチンの手順を示すフローチャートである。
【図4】図3の音色設定処理サブルーチンの詳細な手順を示すフローチャートである。
【図5】図3の鍵処理サブルーチンの詳細な手順を示すフローチャートである。
【図6】図3のビブラート処理サブルーチンの詳細な手順を示すフローチャートである。
【図7】押鍵中のキーコードとその対応するグループ番号とを記憶するグループ番号記憶領域に記憶された内容の一例を示す図である。
【符号の説明】
3 制御部(鍵グループ化手段、選択手段、楽音制御手段、グループ化条件指示手段、選択条件指示手段)
5 RAM(グループ化条件指示手段、選択条件指示手段)
11 各鍵スイッチ回路(押鍵検出手段)
12 各鍵センサ(演奏情報発生手段)
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an electronic musical instrument in which a sensor for detecting a key depression state is provided independently for each key, and a musical tone is controlled according to the output of each sensor.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been known an electronic musical instrument in which a sensor for detecting a key pressing state is provided independently for each key and a musical tone is controlled according to the output of each sensor.
[0003]
For example, in Japanese Patent Laid-Open No. 4-146493, at least two sensors are provided for each key, and the musical tone is controlled according to the output of each sensor, so that the expressive power that faithfully reflects the player's intention is rich. An electronic musical instrument that can perform smoothly is described.
[0004]
Here, the musical tone control according to the output of each sensor is, for example, when the musical tone to be controlled is a timbre parameter, the timbre parameter is a modulated wave output from an LFO (Low Frequency Oscillator), a pitch bender, a modulation wheel, or the like. This is a control that modulates or changes according to the output from the performance operator. When the pitch of the musical sound is modulated or changed, the effect is called vibrato, and when the volume is modulated or changed, the effect is called tremolo. .
[0005]
The parameters that can be controlled are not limited to the timbre parameters, but include various parameters such as the cutoff frequency of the filter and the sound image localization position. The sensor output used for control includes initial touch information at the time of key depression and aftertouch. There is information.
[0006]
[Problems to be solved by the invention]
However, in the above-described conventional electronic musical instrument, since the musical tone is controlled according to the key pressing state detected independently for each key, the following problems have occurred.
[0007]
For example, it is assumed that pitch, that is, vibrato control is performed as a parameter to be controlled, and a pressure sensor for detecting the pressure at the time of key depression is provided for each key as a sensor.
[0008]
When the performer depresses a plurality of keys, a signal corresponding to the depressed state, that is, a signal corresponding to the pressure is output from each depressed key. For example, if a player applies a force to a finger that is pressing a chord, vibrato is applied to the musical sound corresponding to the key to which the force is applied. Although the magnitude of the vibrato pitch shift changes according to the pressure, it is difficult to control the sensor output to a player's favorite value for a plurality of keys with one hand.
[0009]
When applying a vibrato to a chord, if the pressure of the plurality of keys is not changed in the same way, what is pronounced as a consonant will become a dissonant. This state occurs because the pitch deviation of the vibrato is not equally applied to each sound constituting the chord.
[0010]
Thus, in the case where the musical sound parameter control corresponding to each key is performed according to the sensor output independent of each key, there is an advantage that the parameter control can be performed independently for each key (ie, each sound). On the other hand, there was also a problem that the performance was difficult and the intended effect could not be obtained. In particular, when the performer was a beginner, he could not perform as expected.
[0011]
The present invention has been made in view of the above problems, and an object of the present invention is to provide an electronic musical instrument that can easily perform a player's performance according to the player's ability.
[0012]
[Means for Solving the Problems]
In order to achieve the above object, the present invention comprises a plurality of keys, a key press detecting means for detecting the key press for each key, and a group of keys in the key press at which the key press is detected. And a key grouping means for detecting a state after the key is pressed for each key and detecting performance information for each key in accordance with the detected state after the key is pressed. Based on the generated performance information of the selected key , the selection means for selecting one key that meets a predetermined priority condition from the grouped keys, and the generated performance information and having a braking Gosuru musical tone control means musical tones corresponding to the grouped key.
[0013]
Preferably, the player has grouping condition instruction means for instructing a desired grouping condition from a plurality of predetermined grouping conditions, and the key grouping means includes the grouping condition instruction means. According to the grouping condition instructed by , keys in the key depression in which the key depression is detected are grouped.
[0014]
Further, preferably, has a priority condition instructing means for a player to instruct the desired preferences from a plurality of preferences that are predetermined, said selection means, preferences designated by the preferences instructing means According to the method, one key is selected from the grouped keys .
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0016]
FIG. 1 is a block diagram showing a schematic configuration of an electronic musical instrument according to an embodiment of the present invention.
[0017]
In the figure, the electronic musical instrument of the present embodiment converts a keyboard unit 1 for inputting pitch information and a key depression state, an analog signal output from the keyboard unit 1 into a digital signal, and time-division data. A keyboard interface (I / F) 2 that is output as, a CPU 3 (not shown), for example, a control unit 3 that controls the entire apparatus, a ROM 4 that stores a control program executed by the control unit 3, table data, and the like, A RAM 5 that temporarily stores various parameter information, calculation results, various input information, and the like, and a musical tone signal is generated according to pitch information input from the keyboard unit 1 and various input information input from the operator group. A sound source 6 to be performed, an effect imparting unit 7 for imparting various effects to the musical sound signal generated by the sound source 6, and a musical sound signal to which an effect is output output from the effect imparting unit 7 is converted into sound. It is constituted by a sound system 8 consisting of a speaker, etc. For example.
[0018]
The keyboard unit 1 includes a key switch circuit 11 for detecting pitch information and a key sensor (for example, a pressure sensor) 12 for detecting a key depression state, which are arranged for each key on a key (not shown). I have.
[0019]
FIG. 2 is a diagram showing a data format of a timbre memory area secured at a predetermined position in the RAM 5.
[0020]
As shown in the figure, in the timbre memory area, various timbre parameters are stored for each timbre (voice name), and when the performer selects a timbre, the timbre parameter corresponding to the timbre is set in the sound source 6 or the like. Is done. Here, the timbre parameters are assigned a waveform number when the sound source 6 is a waveform memory sound source, a filter to be used, an EG parameter given to the envelope generator (EG), a parameter given to the effect applying unit (effector) 7, and a reverb. There are parameters when doing so. Furthermore, the neighboring key difference parameter and the priority means parameter, which are the features of the present invention, are also stored.
[0021]
The adjacent key difference parameter is a parameter for determining which keys are simultaneously controlled when the performer is pressing a plurality of keys, and is a parameter for determining grouping conditions. In the present embodiment, the performer can select and set a desired one from eight types of grouping conditions “m”, “M”, “n”, “1” to “5”. . For example, when “m” is selected as the grouping condition, only when the key code between adjacent keys among the pressed keys is “1 degree”, “4 degrees”, or “8 degrees”, The keys are controlled simultaneously, i.e. as a group simultaneously, the other keys are controlled independently. When “n” is selected as the grouping condition, this simultaneous control is stopped (off), and all keys pressed are controlled independently.
[0022]
The priority means parameter is a parameter for determining a priority order for selecting one key from the keys belonging to the group determined by the adjacent key difference parameter. In the present embodiment, the performer is: (1) large amplitude, (2) small amplitude, (3) large frequency, (4) highest sound, (5) lowest sound, (6) late arrival sound, (7) A desired one can be selected and set from eight kinds of priority conditions, that is, a large change speed, and an average of sensor output. For example, when “(1) large amplitude” is selected as the priority condition, the sensor output from each key sensor 12 of the key that matches the grouping condition is selected and selected. Each tone of the keys belonging to the group is controlled by the sensor output. This control method will be described later.
[0023]
Control processing executed by the electronic musical instrument configured as described above will be described below with reference to FIGS.
[0024]
FIG. 3 is a flowchart showing a procedure of a main routine executed by the control unit 3, particularly the CPU.
[0025]
In the figure, first, initial settings such as resetting various ports and clearing the RAM 5 are performed (step S1).
[0026]
Next, a timbre setting processing subroutine (details will be described later with reference to FIG. 4) for setting parameters related to the timbre in accordance with the setting operation of the performer is performed (step S2).
[0027]
Then, a key processing subroutine (details thereof will be described later with reference to FIG. 5) corresponding to the pressed state of each key on the keyboard unit 1 is executed (step S3), and a vibrato processing subroutine (details thereof) for performing vibrato control is executed. (To be described later with reference to FIG. 6) is executed (step S4).
[0028]
Furthermore, after performing other processes (for example, sound generation process) other than the processes described above (step S5), the process returns to step S2 and the above-described processes are repeated.
[0029]
FIG. 4 is a flowchart showing a detailed procedure of the tone color setting processing subroutine of step S2.
[0030]
In the figure, first, it is determined whether or not the performer has selected a timbre (step S11). When the timbre is selected, the process proceeds to step S12. When the timbre is not selected, the main timbre processing subroutine is immediately terminated. .
[0031]
In step S12, when the performer selects the grouping condition and priority condition for the selected tone color, the grouping condition and priority condition are stored in the tone color memory area.
[0032]
Next, when the performer sets parameters other than the parameters set in step S12, the parameter setting process is performed (step S13), and then the main sound setting process subroutine is terminated.
[0033]
FIG. 5 is a flowchart showing a detailed procedure of the key processing subroutine of step S3. Note that this key processing subroutine shows only processing for one key for convenience of explanation, but actually, it is necessary to perform the same processing for all the keys arranged in the keyboard unit 1. is there.
[0034]
In the figure, first, the state of each key switch circuit 11 is detected to determine whether or not there is a key-on (key depression) (step S21). When there is a key-on, a key-on process corresponding to the key (for example, Then, a process such as obtaining a key code of the key or sending the key code to the sound source 6) is performed (step S22).
[0035]
Next, it is determined whether or not there are other keys being pressed (step S22). If there are other keys that are being pressed, all the keys that are being pressed and the above-described step S21. The pitch difference from the key determined in step 1, that is, the newly pressed key is calculated (step S24). Here, when there are a plurality of other keys being pressed, the pitch difference between each key and the newly pressed key is calculated.
[0036]
Then, it is determined whether or not there is a key (other pressed key) having a pitch difference that matches the currently selected grouping condition among the calculated pitch differences (step S25). If there is a key with a pitch difference that matches the grouping condition, the same group number as the key is attached to the newly pressed key and stored (step S26).
[0037]
FIG. 7 shows an example of the contents stored in a memory area (hereinafter referred to as “group number storage area”) for storing the key code being pressed and the corresponding group number. As shown in the figure, the key codes being pressed are stored in the order of the channels to which the sound is assigned (in this embodiment, 32 sound channels are reserved) and correspond to the key codes. Then the group number is stored.
[0038]
In the figure, the key code KC4 assigned to the sound channel 1 and the key code KC2 assigned to the sound channel 2 belong to the same group (group 1) and are assigned to the sound channel 31. An example in which KC3 belongs to another group (group 2) is shown. A numerical value other than an integer value of 0 to 127 is stored in an area for storing a key code of a channel to which no key code is assigned. In the present embodiment, the integer value of 0 to 127 indicates one of the key codes, so that it is possible to determine that it is not a key code if other numerical values are stored.
[0039]
Returning to FIG. 5, when there is no other pressed key in the determination of step S23, or when the calculated pitch difference does not match the grouping condition in the determination of step S25, the newly pressed key is used. After a new group number is assigned to the key (key code) that has been locked and stored in the group number storage area (step S27), the process proceeds to step S28.
[0040]
On the other hand, if it is determined in step S21 that there is no key depression, steps S22 to S27 are skipped and the process proceeds to step S28.
[0041]
In step S28, it is determined whether or not there is a key-off (key release). If there is a key-off, the process proceeds to step S29. If there is no key-off, the key processing subroutine is immediately terminated.
[0042]
In step S29, the group number corresponding to the key-off key (key code) in the group number storage area is set to “0”, and the key code of the key is determined in advance other than the integer value of 0 to 127. To the numerical value.
[0043]
In the subsequent step S30, after performing a key-off process (for example, a process of sending the key-off of the key code to the sound source 6), this key processing subroutine is terminated.
[0044]
FIG. 6 is a flowchart showing a detailed procedure of the vibrato processing subroutine of step S4.
[0045]
In the figure, first, it is determined whether or not the output from each of the key sensors 12 has changed (step S41). When there is no change in the sensor output, the vibrato processing subroutine is immediately terminated while the sensor output is changed. If there is, the process proceeds to step S42.
[0046]
In step S42, the sensor of another key assigned the same group number as the key corresponding to the sensor determined in step S41 (hereinafter referred to as “sensor for determination”) is checked, and It is determined whether there is a sensor output of another key. As a result of this determination, when there is a sensor output of another key in the same group, the other sensor output is compared with the sensor output of the sensor related to the determination, and the priority condition set in the priority means parameter Is determined whether or not (step S43).
[0047]
If it is determined in step S43 that the sensor output of the sensor related to the determination conforms to the set priority condition, the musical sounds corresponding to all keys in the group are determined according to the sensor output of the sensor related to the determination. After vibrato control (step S44), this vibrato processing subroutine is terminated.
[0048]
On the other hand, if it is determined in step S43 that the sensor output of the sensor related to the determination does not meet the set priority condition, this vibrato processing subroutine is immediately terminated.
[0049]
Furthermore, if it is determined in step S42 that there is no sensor output of another key in the same group, step S43 is skipped and the process proceeds to step S44. Thereby, even when there is only one sensor output corresponding to a key in the same group, the tone of the corresponding key is controlled according to the sensor output.
[0050]
As described above, in the present embodiment, keys that are simultaneously pressed are grouped according to the grouping condition, and a key that matches the priority condition is selected from the key pressing keys in the same group. Since the vibrato of all musical sounds corresponding to the key press keys in the group is controlled in the same manner by the sensor output from each key sensor 12 corresponding to the key, the same applies to all the keys in the same group. Even without the pressure, you can perform as you want. For example, if the performer presses a chord and applies vibrato to the chord, and if the chord matches the set grouping condition, the performer will play each note of the pressed chord. Even if you don't apply the same pressure to all the keys corresponding to, you can pronounce it with Kyowa. Further, if the technique of the performer is improved and the vibrato can be applied to a plurality of keys in the same manner, by setting “n” in the adjacent key difference parameter described with reference to FIG. Control can be stopped. Therefore, it is possible to easily perform the performance as intended by the performer according to the ability of the performer.
[0051]
In the present embodiment, a pressure sensor is employed as each key sensor 12 and the pressure at the time of key depression is detected. However, the present invention is not limited to this, and the speed of the key at the time of key depression may be detected. The key displacement may be detected. Further, the direction of pressure to be detected when the key is pressed is not limited to the direction in which the key is pressed, and may be in the horizontal direction. Furthermore, the key pressing state (pressure, speed, displacement, etc.) may be detected by any sensor that can detect the key pressing state, such as an optically detecting sensor.
[0052]
In this embodiment, pitch is adopted as a musical sound parameter to be controlled, and the present invention is applied to vibrato control. However, the present invention is not limited to this, and may be applied to other timbres or effect parameters. Nor.
[0053]
Furthermore, in the present embodiment, the grouping condition can be arbitrarily selected by the performer from eight kinds of conditions as shown in FIG. 2, but the present invention is not limited to this, and the key pressing sound is “chord”. It is also possible to determine whether there is a “single tone” and perform the above control only when it is a “chord”.
[0054]
In addition, the grouping condition may be different between the “left key range” and the “right key range”. At this time, a predetermined position (split point) of the keyboard is set as a boundary between the “left key range” and the “right key range”.
[0055]
【The invention's effect】
As described above, according to the present invention, the detected key depression per the respective key by the player, the key in the depressed issued該検are grouped, the key the key depression is detected The state after key depression is detected for each key, and performance information is generated for each key in accordance with the detected state after key depression, and conforms to a predetermined priority condition from the grouped keys. one key is selected to be, of the selected key, based on the generated performance information, since tone corresponding to the grouped key is controlled, the performance in accordance with the player's ability It is possible to easily perform the performance as intended.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of an electronic musical instrument according to an embodiment of the present invention.
FIG. 2 is a diagram showing a data format of a timbre memory area secured at a predetermined position in the RAM of FIG. 1;
FIG. 3 is a flowchart showing a procedure of a main routine executed by the control unit of FIG.
FIG. 4 is a flowchart showing a detailed procedure of a timbre setting process subroutine of FIG. 3;
FIG. 5 is a flowchart showing a detailed procedure of a key processing subroutine of FIG. 3;
FIG. 6 is a flowchart showing a detailed procedure of a vibrato processing subroutine of FIG. 3;
FIG. 7 is a diagram illustrating an example of contents stored in a group number storage area for storing a key code being pressed and a corresponding group number.
[Explanation of symbols]
3 Control unit (key grouping means, selection means, musical tone control means, grouping condition instruction means, selection condition instruction means)
5 RAM (grouping condition instruction means, selection condition instruction means)
11 Each key switch circuit (key press detection means)
12 Each key sensor (performance information generating means)

Claims (3)

複数の鍵を備え、その押鍵を当該各鍵毎に検出するための押鍵検出手段と、
該押鍵が検出された押鍵中の鍵をグループ化する鍵グループ化手段と、
前記押鍵が検出された鍵の押鍵後の状態を当該各鍵毎に検出し、該検出された押鍵後の状態に応じて当該各鍵毎に演奏情報を発生する演奏情報発生手段と、
前記グループ化された鍵から所定の優先条件に適合する1つの鍵を選択する選択手段と、
該選択された鍵の、前記発生された演奏情報に基づいて、前記グループ化された鍵に対応する楽音を制御する楽音制御手段と
を有することを特徴とする電子楽器。
A key depression detecting means for providing a plurality of keys and detecting the key depression for each key;
Key grouping means for grouping keys in the key press in which the key press is detected;
Performance information generating means for detecting a state after the key is depressed for each key, and generating performance information for each key according to the detected state after the key depression; ,
Selecting means for selecting one key that meets a predetermined priority condition from the grouped keys ;
The selected key based on the generated performance information, the electronic musical instrument characterized by having a braking Gosuru musical tone control means musical tones corresponding to the grouped key.
予め決定された複数のグループ化条件から演奏者が所望のグループ化条件を指示するためのグループ化条件指示手段を有し、
前記鍵グループ化手段は、該グループ化条件指示手段により指示されたグループ化条件に応じて、前記押鍵が検出された押鍵中の鍵をグループ化することを特徴とする請求項1記載の電子楽器。
A grouping condition indicating means for the performer to indicate a desired grouping condition from a plurality of predetermined grouping conditions;
2. The key grouping means groups keys in the key depression in which the key depression is detected, according to the grouping condition designated by the grouping condition instruction means. Electronic musical instrument.
予め決定された複数の優先条件から演奏者が所望の優先条件を指示するための優先条件指示手段を有し、
前記選択手段は、該優先条件指示手段により指示された優先条件に応じて、前記グループ化された鍵の中から1つの鍵を選択することを特徴とする請求項1または2のいずれかに記載の電子楽器。
Player from a pre-determined plurality of preferences has a preferences instruction means for instructing a desired preferences,
It said selection means, in response to indicated preferences by the preferences indicating means according to claim 1 or 2, characterized in that selecting one key from among the grouped key Electronic musical instruments.
JP03310696A 1996-01-29 1996-01-29 Electronic musical instruments Expired - Fee Related JP3704782B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03310696A JP3704782B2 (en) 1996-01-29 1996-01-29 Electronic musical instruments

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03310696A JP3704782B2 (en) 1996-01-29 1996-01-29 Electronic musical instruments

Publications (2)

Publication Number Publication Date
JPH09212165A JPH09212165A (en) 1997-08-15
JP3704782B2 true JP3704782B2 (en) 2005-10-12

Family

ID=12377421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03310696A Expired - Fee Related JP3704782B2 (en) 1996-01-29 1996-01-29 Electronic musical instruments

Country Status (1)

Country Link
JP (1) JP3704782B2 (en)

Also Published As

Publication number Publication date
JPH09212165A (en) 1997-08-15

Similar Documents

Publication Publication Date Title
US6816833B1 (en) Audio signal processor with pitch and effect control
JP2970517B2 (en) Electronic percussion instrument
JPH03192299A (en) Automatic accompaniment device
JPH11133990A (en) Processing device of voice signal and musical sound signal, and recording medium recording processing program of voice signal and musical sound signal which can be read by computer
JP3704782B2 (en) Electronic musical instruments
JPH0968980A (en) Timbre controller for electronic keyboard musical instrument
US5283389A (en) Device for and method of detecting and supplying chord and solo sounding instructions in an electronic musical instrument
JP3614117B2 (en) Music signal processor
JP4373625B2 (en) Electronic musical instruments
JP2580794B2 (en) Electronic musical instrument
JP2513041B2 (en) Music signal generator
JP3015226B2 (en) Electronic musical instrument
JP3057854B2 (en) Electronic musical instrument
JPH06250658A (en) Electronic musical instrument equipped with rhythm solo playing function
KR970008441B1 (en) Key sprit position set-up method for electronic musical instrument
JPH10222167A (en) Pitch control device for electronic musical instrument
JP3346143B2 (en) Music control device
JP2915753B2 (en) Electronic musical instrument
JP2012042842A (en) Electronic musical sound generator
JPH06318080A (en) Electronic musical instrument
JPS60153093A (en) Compound sound electronic musical instrument
JP2006154526A (en) Vocoder device
JPH06202634A (en) Electronic musical instrument
JP2006154526A5 (en)
JPH04498A (en) Touch response device of electronic musical instrument

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050322

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050718

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090805

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100805

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100805

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110805

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120805

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130805

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees