JP3758041B2 - Musical sound control data generator - Google Patents

Musical sound control data generator Download PDF

Info

Publication number
JP3758041B2
JP3758041B2 JP2002270624A JP2002270624A JP3758041B2 JP 3758041 B2 JP3758041 B2 JP 3758041B2 JP 2002270624 A JP2002270624 A JP 2002270624A JP 2002270624 A JP2002270624 A JP 2002270624A JP 3758041 B2 JP3758041 B2 JP 3758041B2
Authority
JP
Japan
Prior art keywords
control data
data
timbre
sets
key
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002270624A
Other languages
Japanese (ja)
Other versions
JP2003099040A (en
Inventor
洋一郎 大貝
孝郎 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2002270624A priority Critical patent/JP3758041B2/en
Publication of JP2003099040A publication Critical patent/JP2003099040A/en
Application granted granted Critical
Publication of JP3758041B2 publication Critical patent/JP3758041B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、操作子の操作に応答して複数の楽音信号を所定パターンで自動的に発生する電子楽器などに用いるのに適し、楽音信号の音色などを制御する楽音制御データを発生する楽音制御データ発生装置に関する。
【0002】
【従来の技術】
従来から、この種の電子楽器としては、例えば特公平6−64468号公報に示されているように、自動演奏音信号列の発生を制御するためのパターンデータをリズム種類毎及び特定鍵域の各鍵毎にそれぞれ記憶しておき、同特定鍵域の押鍵により、選択されているリズム種類及び前記押鍵された鍵に対応したパターンデータにより制御される自動演奏音信号列を発生しながら、他の鍵域における演奏操作に従った楽音信号を発生するものが知られている。
【0003】
【発明が解決しようとする課題】
しかし、上記従来の電子楽器においては、他の鍵域の演奏操作によって発生される通常の楽音信号の音色と、自動演奏音信号列を発生させるためのパターンデータとは独立しているので、必ずしも前記通常の楽音信号の音色に適合したパターンの自動演奏音信号列を発生させることができず、通常の楽音信号と自動演奏音信号との組み合わせが音楽的に不自然となる場合がある。また、上記公報には、各種データのエディットに関する技術は全く示されていない。
【0004】
【発明の概略】
本発明は上記問題に対処するためになされたもので、その目的は、楽音信号の発生及び発生される楽音信号を制御するための楽音制御データを発生する楽音制御データ発生装置において、その使い勝手を良好にすることにある。
【0005】
また、前記目的を達成するために本発明の第1の特徴(請求項1に対応)は、発生される楽音信号の音色を制御するための複数組の音色制御データ群を記憶した第1制御データライブラリと、複数組の音色制御データ群とは異なるものであって楽音信号の発生又は発生される楽音信号を制御するための複数組の制御データ群を記憶した第2制御データライブラリと、第2制御データライブラリ内の複数組の制御データ群を一時的に記憶するとともに、同複数組の制御データ群のうちの一組の制御データを楽音信号の発生又は発生される楽音信号を制御するために利用可能とする制御データバッファと、複数組の音色制御データ群のいずれかを選択する音色選択手段と、音色選択手段により選択された第1制御データ群を音色制御データライブラリから読出して出力するとともに、同音色制御データ群の読出し出力に連動して第2制御データライブラリ内の複数組の制御データ群を制御データバッファに転送する音色制御データ出力手段と、制御データバッファ内の複数組の制御データ群の一部のデータをエディットするエディット手段と、同エディットした一部のデータを前記第2制御データライブラリ内であって前記一部のデータが以前に記憶されていた位置に書き込むセーブ手段とを備えたことにある。
【0006】
この場合、例えば、前記第2制御データライブラリ及び第2制御データバッファに記憶されている制御データ群を複数組の異なる自動演奏音信号列を発生させるためのパターンデータで構成するとよい。また、同制御データ群として、前記自動演奏音のパターンデータに代え又は加えて、効果データ、音源波形データなどを用いるようにしてもよい。
【0007】
これによれば、音色選択手段により第1制御データライブラリ内の一組の音色制御データ群が選択されると、音色制御データ出力手段により、同一組の音色制御データ群が音色制御データライブラリから読出して出力されるとともに、第2制御データライブラリ内の複数組の制御データ群が制御データバッファに転送される。そして、この出力された音色制御データ群は発生される楽音信号の音色の制御に利用されるようになるとともに、制御データバッファ内の制御データも楽音信号の発生又は発生される楽音信号の制御に利用されるようになる。また、この制御データバッファ内の制御データはエディット手段によりエディットできるとともに、同エディット後の制御データをセーブ手段により第2制御データライブラリに戻すことができるので、前記楽音信号の発生又は発生される楽音信号の制御態様を種々に変更できるようになるとともに、同変更した状態を保存しておくことも可能となる。また、前記エディット後の制御データを第2制御データライブラリに戻すことを止めて、新たに音色選択手段による音色制御データ群の選択を行えば、前記制御データバッファ内のエディットされた制御データは破棄されて、第2制御データライブラリに以前から記憶されていた複数組の制御データ群が制御データバッファに転送され、同ライブラリ内のエディット前の制御データにより楽音信号の発生又は発生される楽音信号を制御することも可能となる。したがって、発生楽音の制御状態が簡単な操作で種々に制御され、この楽音制御データ発生装置の使い勝手が良好になる。
【0008】
また、前記目的を達成するために本発明の第2の特徴(請求項2に対応)は、第1制御データライブラリ内に、第2制御データライブラリ内の複数組の制御データ群のいずれかを特定するための複数のセレクトデータを複数組の音色制御データ群にそれぞれ対応させて記憶しておき、音色制御データ出力手段による音色制御データ群の読出し出力時に、同音色制御データ群に対応したセレクトデータを読出して、前記制御データバッファ内の複数組の制御データ群の特定のために利用可能にしたことにある。
【0009】
これによれば、音色選択手段による音色制御データ群の選択時に、同音色制御データ群に対応したセレクトデータが読出されて、同セレクトデータにより前記制御データバッファ内の複数組の制御データ群の特定のために利用することが可能となるので、前記第8の特徴に加えて、一組の音色制御データ群に適した第2制御データライブラリ内の制御データ群の利用が簡単な操作により実現されて、この楽音制御データ発生装置の使い勝手がさらに良好になる。
【0010】
また、前記目的を達成するために本発明の第3の特徴(請求項3に対応)は、前記制御データバッファを第2制御データバッファとするとともに、前記第1制御データライブラリ内の複数組の音色制御データ群のうちの一組の音色制御データ群を一時的に記憶するとともに、同一組の音色制御データ群を発生される楽音信号の音色を制御するために利用可能とする第1制御データバッファを設け、前記音色制御データ出力手段、エディット手段及びセーブ手段に代えて、音色選択手段により選択された音色制御データ群を第1制御データライブラリから第1制御データバッファに転送するとともに、同音色制御データ群の転送に連動して第2制御データライブラリ内の複数組の制御データ群を第2制御データバッファに転送する転送手段と、第1及び第2制御データバッファ内のデータの一部をエディットするエディット手段と、第1制御データバッファ内の音色制御データ群を第1制御データライブラリ内であって同音色制御データ群が以前に記憶されていた位置に書き込むとともに、同音色制御データ群の書き込みに連動して第2制御データバッファ内のエディットされた制御データを第2制御データライブラリ内であって同制御データが以前に記憶されていた位置に書き込むセーブ手段とを設けたことにある。
【0011】
これによれば、前記目的を達成するための第1の特徴による作用に加えて、第1制御データバッファを用いて第1制御データライブラリに記憶されている音色制御データ群をエディットできるようになる。そして、このエディットされた音色制御データ群が第1制御データライブラリに戻される際には、セーブ手段により第2制御データバッファ内の制御データ群も併せて第2制御データライブラリに戻される。したがって、前記第1の特徴よる場合よりも、この楽音制御データ発生装置の使い勝手がさらに良好になる。
【0012】
さらに、前記目的を達成するために本発明の第4の特徴(請求項4に対応)は、前記第3の特徴に加えて、第1制御データライブラリ内に、第2制御データライブラリ内の複数組の制御データ群のいずれかを特定するための複数のセレクトデータを複数組の音色制御データ群にそれぞれ対応させて記憶しておき、第1制御データバッファも前記音色制御データ群と共に同音色制御データ群に対応したセレクトデータを一時的に記憶可能とするとともに利用可能としておき、転送手段は、音色制御データ群と共に同音色制御データ群に対応したセレクトデータを第1制御データライブラリから第1制御データバッファに転送し、かつセーブ手段は、音色制御データ群と共にセレクトデータも第1制御データバッファから第1制御データライブラリ内であって同セレクトデータが以前記憶されていた位置に書き込むようにしたことにある。
【0013】
これによれば、音色選択手段による音色制御データ群の選択時に、同音色制御データ群に対応したセレクトデータが第1制御データバッファ内に転送され、同セレクトデータにより制御データバッファ内の複数組の制御データ群の特定のために利用することを可能となるので、前記第10の特徴に加えて、一組の音色制御データ群に適した第2制御データライブラリ内の制御データ群の利用が簡単な操作により実現される。また、この第1制御データバッファ内の音色制御データ群及びセレクトデータの第1制御データライブラリへのセーブ時には、セーブ手段により、第2制御データバッファ内のエディットされたデータも第2制御データライブラリにセーブされるので、セレクトデータに対応して制御データ群をセーブできる。したがって、前記第10の特徴の場合よりも、この楽音制御データ発生装置の使い勝手がさらに良好になる。
【0014】
【実施の形態】
以下、本発明の一実施形態を図面を用いて説明すると、図1は本発明に係る電子楽器の全体をブロック図により示している。
【0015】
この電子楽器は、鍵盤10及び操作パネル20を備えている。鍵盤10は、音高をそれぞれ指定するとともに楽音信号の発生をそれぞれ指示する複数の演奏操作子としての複数の鍵からなり、これらの各鍵の押離鍵は、鍵スイッチ回路11内に各鍵に対応して設けた鍵スイッチにより検出されるようになっている。本実施形態においては、鍵盤10は、音高C1から音高C6までの61鍵からなり、分割点(例えば、音高C3)にて下鍵域(C1〜B2)と上鍵域(C3〜C6)とに分割されるようになっている。なお、この分割点を、演奏者によって自由に変更できるように構成してもよい。
【0016】
操作パネル20は、図2に示すように、ステップ操作子群21、テンキー操作子群22、ボイスストア操作子23、パターンロード操作子24、パターンセーブ操作子25、カーソル移動操作子群26、その他の操作群27及び表示器28を備えている。ステップ操作子群21は、順次自動的に発生される16個の楽音にそれぞれ対応した操作子21−1,21−2・・・21−16からなり、各操作子の回転位置により各楽音の音高を入力する。テンキー操作子群22は、0〜9の数字キーとエンターキーからなって、通常の数字データを入力する他、128種類の音色のうちのいずれか一つを選択するための音色選択操作子の機能も備えている。ボイスストア操作子23、パターンロード操作子24及びパターンセーブ操作子25は、それぞれ各種データの転送を指示すための操作子である。カーソル移動操作子群26は、複数の操作子からなって表示器28上のカーソルの位置を移動するためのものである。その他の操作群27は、その他の種々のデータを入力するためのものである。これらの操作子群21〜27は、操作子スイッチ回路31内に各操作子に対応して設けた操作子スイッチにより検出されるようになっている。表示器28は、各種データ値、制御モードなどを表示するためのもので、その表示内容は表示制御回路32により制御されるようになっている。
【0017】
鍵スイッチ回路11、操作子スイッチ回路31及び表示制御回路32は、各入力インターフェース41〜43を介してそれぞれバス44に接続され、同バス44には、CPU51、タイマ52、ROM53及びRAM54からなるマイクロコンピュータ50が接続されている。CPU51は、図6〜図24のフローチャートに対応したプログラムを実行して、楽音を制御するためのデータを生成するとともに同楽音の発生を制御する。タイマ52は、その作動及び非作動がCPU51によって制御されるとともに同CPU51によって設定された時間を繰り返し計測して、同時間の計測終了毎に図12の歩進処理プログラムを同CPU51に割り込み実行させる。ROM53は、前記プログラムを記憶するものである。RAM54は、通常のワーキングエリアの他に、ボイスデータライブラリ54A(図3(A))、パターンデータライブラリ54B(図3(B))、ボイスエディットバッファ54C(図4(A))及びパターンエディットバッファ54D(図4(B))を有する。なお、ボイスデータライブラリ54A及びパターンデータライブラリ54B部分は、不揮発性RAMで構成しておくことが好ましい。
【0018】
ボイスデータライブラリ(音色制御データライブラリ)54Aは、複数組(例えば、128組)の異なるボイスデータ群54A−1,54A−2・・・54A−128を記憶するエリアで、各ボイスデータ群は、楽音の音色を決定するための多数の音色パラメータ(楽音制御データ群)、鍵盤10の第1〜第4使用態様にそれぞれ対応した第1〜第4モードのいずれか一つを指定するためのモードデータ、パターンデータ#1〜#128のいずれか一つを指定するためのパターンセレクトデータ、及びパターンデータ#0からなる。パターンデータライブラリ54Bは、パターンデータ#1〜#128を記憶するエリアである。パターンデータ#0〜#128は、図5(A)にそれぞれ示すように、楽音を順次自動的に発生する各ステップの間隔(例えば、4分音符、8分音符など)を表すステップ長データ、及び第1〜第16ステップデータからなる。各ステップデータは、それぞれ順次自動的に発生される各楽音の音高(鍵音高に対応)を表すノートナンバ及びキーオン時間を表すゲートタイムからなる。ステップ長とゲートタイムの関係は図5(B)の通りである。
【0019】
ボイスエディットバッファ54Cは、ボイスデータ群54A−1,54A−2・・・54A−128のいずれか一組分のボイスデータ群を記憶するエリアであり、同エリアに記憶されたデータは操作パネル20の操作子群によって直接エディットされるとともに、楽音の発生制御に利用される。パターンエディットバッファ54Dは、パターンデータライブラリ54Bと同一に構成されており、同ライブラリ54Bから転送される全てのパターンデータ#1〜#128を記憶するエリアである。そして、このパターンエディットバッファ54D内のパターンデータ#1〜#128も、操作パネル20の操作子群によって直接エディットされるとともに、楽音の発生制御に利用される。なお、ボイスエディットバッファ54C及びパターンエディットバッファ54Dを併せてエディットバッファ54C,54Dと呼ぶ。
【0020】
楽音信号発生回路60もバス44に接続されており、同回路60は、音色パラメータ、キーデータKD(ノートナンバ)、キーオンデータKON及びキーオフデータKOFを入力して、音色パラメータによって決定される音色を有しかつキーデータKD(ノートナンバ)により指定される音高の楽音信号を、キーオンデータKON又はキーオフデータKOFの到来に応答して発生し始め又は同発生を終了する。この楽音信号発生回路60には、アンプ、スピーカなどからなるサウンドシステム61が接続されており、同システム61は前記出力された楽音信号を音響信号に変換して放音する。
【0021】
さらに、バス44には、読み取り及び書き込み装置71、ミディーインターフェース72及び通信インターフェース73も接続されている。読み取り及び書き込み装置71は、同装置71に常時接続されているハードディスク、光ディスクなどの大容量の記録媒体74と、同装置71に選択的に装着されるコンパクトディスク、フレキシブルディスクなどの持ち運びの楽な記録媒体75とのそれぞれに対してデータ、プログラム等の書き込み及び読出しを可能とするものである。ミディーインターフェース72は、種々の音楽情報を入出力するためのもので、他の電子楽器、音楽情報を扱う他の機器76に接続可能となっている。通信インターフェース73は、通信ネットワーク77を介してサーバコンピュータ78などとのデータ及びプログラムの入出力を可能とする。
【0022】
次に、上記のように構成した実施形態の動作を説明する。まず、操作パネル20にて新たな音色が選択される場合について説明する。演奏者が、カーソル移動操作子群26及びその他の操作子群27を操作するとともに表示器28による表示を利用して、この電子楽器を音色選択状態に設定する。その後、テンキー操作子群22を操作することにより128種類中の1つの音色を指定すると、CPU51は図6のステップ100にて音色選択処理ルーチンの実行を開始する。そして、ステップ101にて、ボイスデータライブラリ54A内のボイスデータ54A−1・・・54A−128の中から指定された音色に対応したボイスデータ群をボイスエディットバッファ54Cに書き込むとともに、ステップ102にて、パターンデータライブラリ54B内の全てのパターンデータ#1〜#128をパターンエディットバッファ54Dに書き込む。
【0023】
次に、ステップ103にて、ボイスエディットバッファ54C内の音色パラメータを楽音信号発生回路60に出力する。楽音信号発生回路60は、前記出力された音色パラメータを入力するとともに記憶し、同音色パラメータにより決定される楽音信号の発生を準備する。前記ステップ103の処理後、CPU51は、ステップ104にて、エディットバッファ54C,54D内のパターンデータ#0,#1〜#128のうちのいずれか一つを指定するためのパターンナンバPTN及び同パターンデータ#0,#1〜#128中のノートナンバをシフトするためのシフトデータSHTを「0」に初期設定する。そして、ステップ105にて、この音色選択ルーチンの実行を終了する。
【0024】
次に、鍵盤10にていずれかの鍵が押されると、CPU51は、図7のステップ200にてキーオン処理ルーチンの実行を開始し、ステップ201にて前記押された鍵に対応したノートナンバをキ−データKDとして設定する。なお、鍵盤10の各鍵には、音高の上昇にしたがって順次「1」ずつ増加するノートナンバが割り当てられている。前記ステップ201の処理後、ステップ202にて、ボイスエディットバッファ54C内のモードデータを読出して、同モードデータが第1〜第4モードのいずれを示しているかを判定する。この判定により、CPU51はステップ203〜206のキーオン・第1〜第4モード処理ルーチンのうちのいずれかの処理ルーチンを実行して、ステップ207にてこのキ−オン処理ルーチンの実行を終了する。
【0025】
また、前記押されていた鍵が離されると、CPU51は、図13のステップ400にてキーオフ処理ルーチンの実行を開始し、ステップ401にて前記離された鍵に対応したノートナンバをキ−データKDとして設定する。そして、ステップ402の判定処理により、前記場合と同様にボイスエディットバッファ54C内のモードデータに基づいて、ステップ403〜406のキーオフ・第1〜第4モード処理ルーチンのうちのいずれかの処理ルーチンを実行して、ステップ407にてこのキ−オフ処理ルーチンの実行を終了する。以下、モードデータにより指定された鍵盤10の使用態様としての第1〜第4モードについて順に説明する。
【0026】
a.第1モード
まず、第1モードの動作について説明すると、前記のように、鍵盤10にていずれかの鍵が押されると、CPU51は、前述した図7のキーオン処理ルーチンの実行により、ボイスエディットバッファ54C内のモードデータが第1モードを表していることを条件に、ステップ203のキ−オン・第1モード処理ルーチンを実行する。このキ−オン・第1モード処理ルーチンは図8に詳細に示されており、その実行はステップ210にて開始される。この開始後、CPU51は、ステップ211にて、前記入力したキ−データKD(押された鍵音高に対応したノートナンバに設定されている)が鍵盤10の最低音鍵に対応した音高C1のノートナンバを示しているか否かを判定する。前記キ−データKDが音高C1のノートナンバを示していれば、ステップ211における「YES」との判定のもとにプログラムをステップ212以降へ進める。
【0027】
ステップ212においては、パターンナンバPTN及びシフトデータSHTを「0」にそれぞれ設定する。次に、ステップ213にて、エディットバッファ54C,54D内において前記パターンナンバPTNにより指定されるパターンデータの先頭アドレスにポインタPOを設定する。この場合、パターンナンバPTNは「0」であるので、ポインタPOは、ボイスエディットバッファ54C内のパターンデータ#0の先頭アドレス、すなわち同パターンデータ#0のステップ長データの記憶アドレス値に設定される。次に、CPU51は、ステップ214にて、ポインタPOにより指定されているステップ長データを読し出してタイマ52に出力し、ステップ215にて、タイマ52に対して作動開始を指示する信号を出力する。これにより、タイマ52は、前記ステップ長データを入力するとともに記憶し、以降、同ステップ長データ、及びその他操作子群27と表示器28を利用して設定したテンポにより表された時間間隔毎にCPU51に対してタイマインターラプト信号を出力し始めるようになる。
【0028】
前記ステップ215の処理後、CPU51は、ステップ216にて、ポインタPOを進めて、パターンデータ#0中のノートナンバ及びゲートタイムからなる第1ステップデータを読出す。次に、ステップ217にて、前記読出した第1ステップデータを楽音信号発生回路60に出力して、ステップ219にてこのキ−オン・第1モード処理ルーチンの実行を終了する。楽音信号発生回路60は、前記ノートナンバに対応した音高であって前記準備した音色の楽音信号を形成して、サウンドシステム61を介して出力し始める。そして、前記入力したゲートタイムに相当する時間が経過すると、楽音信号発生回路60は前記発生を開始した楽音信号を減衰させて、その後に同楽音信号の発生を終了する。
【0029】
その後、タイマ52からCPU51にタイマインターラプト信号が出力されると、CPU51は、図12のステップ300にて歩進処理プログラムの実行を開始する。この開始後、ステップ301にて、ポインタPOを進めて、パターンデータ#0中のノートナンバ及びゲートタイムからなる次のステップデータを読出す。次に、ステップ302にて、前記読出したステップデータ中のノートナンバにシフトデータSHTを加算する。ただし、この場合には、シフトデータSHTは「0」に設定されているので、ノートナンバが変更されることはない。前記ステップ302の処理後、ステップ303にて、前記読出したステップデータを楽音信号発生回路60に出力する。これにより、楽音信号発生回路60は、前述した場合と同様に、前記ノートナンバに対応した音高であって前記準備した音色の楽音信号を形成してサウンドシステム61を介して出力する。
【0030】
前記ステップ303の処理後、ステップ304にて前記読出されたステップデータが第16番目のものであるか否かが判定され、そうでなければ、同ステップ304における「NO」との判定のもとにステップ306にてこの歩進処理プログラムの実行を終了する。そして、タイマ52が次にタイマインターラプト信号をCPU51に出力した場合にも、前記歩進処理プログラムが実行されて、楽音信号の発生が制御される。したがって、楽音信号発生回路60からは、ボイスエディットバッファ54C内のパターンデータ#0中のステップ長データにより表された時間間隔で、同バッファ54Cの音色パラメータ及び前記パターンデータ#0中の第1〜第16ステップデータにより規定される楽音信号が順次発生される。
【0031】
一方、前記ステップ301にて読出したステップデータが第16番目に相当するものであれば、ステップ304における「YES」との判定のもとに、ステップ305にてポインタを前記と同じパターンデータ#0中の第1ステップデータの記憶位置に更新する。したがって、第1〜第16ステップデータにより規定される楽音信号は順次繰り返し発生され続ける。
【0032】
前記楽音信号の順次発生中、前記押されていた鍵(音高C1に対応する鍵)が離されると、CPU51は、前述した図13のキーオフ処理ルーチンの実行により、ボイスエディットバッファ54C内のモードデータが第1モードを表していることを条件に、図13のステップ403のキーオフ・第1モード処理ルーチンを実行する。このキーオフ・第1モード処理ルーチンは図14に詳細に示されており、同ルーチンの実行はステップ410にて開始される。この開始後、ステップ411にて「YES」すなわち離された鍵を表すキ−データKDが音高C1を表すノートナンバであると判定して、プログラムをステップ412,413へ進める。ステップ412においてはシーケンス終了信号を楽音信号発生回路60へ出力し、ステップ413においてはタイマ52に作動停止を指示し、ステップ415にてこのキーオフ・第1モード処理ルーチンの実行を終了する。楽音信号発生回路60は、前記パターンデータ#0に基づく楽音信号の発生を終了する。タイマ52は、以降タイマインタラプト信号の発生を停止する。したがって、次に音高C1に対応した鍵が押されるまで、前記パターンデータ#0に基づく楽音信号の順次発生は中断される。
【0033】
一方、音高C1以外の鍵が押された場合、CPU51は、前述した図7のキーオン処理ルーチンの実行により、図8のステップ210にてキーオン・第1モード処理ルーチンの実行を開始する。そして、ステップ211にて「NO」すなわち前記図7のステップ201の処理により設定したキーデータKDが音高C1を示していないと判定して、プログラムをステップ218に進める。ステップ218においては、前記キーデータKD及びキーオンデータKONを楽音信号発生回路60に出力する。楽音信号発生回路60は、前記キーデータKDに対応した音高の楽音信号を、ボイスエディットバッファ54C内の音色パラメータにより規定される前記準備した音色で発生し始める。
【0034】
そして、前記押されていた鍵が離されると、CPU51は、前述した図13のキーオフ処理ルーチンの実行により、図14のステップ410にてキーオフ・第1モード処理ルーチンの実行を開始する。そして、ステップ411にて「NO」すなわち前記図13のステップ401の処理により設定したキーデータKDが音高C1を示していないと判定して、プログラムをステップ414に進める。ステップ414においては、前記キーデータKD及びキーオフデータKOFを楽音信号発生回路60に出力し、ステップ415にてこのキーオフ・第1モード処理ルーチンの実行を終了する。楽音信号発生回路60は、前記キーデータKDに関する発生中の楽音信号を減衰させた上で、その後に発生を停止する。
【0035】
以上のように、この第1モードにおいては、鍵盤10の音高C1に対応する鍵を押すことにより、ボイスエディットバッファ54C内のパターンデータ#0により規定される音高の楽音信号が順次自動的に発生し、同鍵を離すことにより前記順次自動的に発生される楽音信号の発生が停止する。また、この自動的な楽音信号の発生中、演奏者は音高C1以外の鍵を使って通常の演奏を行うことができる。そして、これらの演奏者の演奏による楽音信号と前記自動的に発生される楽音信号の音色は、共に演奏者により選択されてボイスエディットバッファ54C内に記憶されている音色パラメータによって規定される同一の音色である。さらに、前記自動演奏に利用されるパターンデータ#0は音色パラメータと共に同一のボイスデータ群に属していて、これらは音色の選択によって同時にボイスエディットバッファ54Cに転送されるものであるので、予め適当な組合せの音色パラメータ及びパターンデータ#0を用意しておくことにより、また後述する演奏者によるエディット作業により音色パラメータ及びパターンデータ#0を適当に組合せれば、演奏者は鍵盤の演奏音の適した自動演奏音を簡単な操作により同時に発生させることができる。
【0036】
b.第2モード
次に、第2モードの動作について説明すると、前記のように、鍵盤10にていずれかの鍵が押されると、CPU51は、前述した図7のキーオン処理ルーチンの実行により、ボイスエディットバッファ54C内のモードデータが第2モードを表していることを条件に、ステップ204のキ−オン・第2モード処理ルーチンを実行する。このキ−オン・第2モード処理ルーチンは図9に詳細に示されており、その実行はステップ220にて開始される。ステップ221〜228の処理は、ステップ222にてシフトデータが「0」に設定されない点、及びステップ227にて第1ステップデータ中のノートナンバにシフトデータSHTが加算される点を除けば、上述した第1モードのステップ211〜217の処理と同じである。したがって、演奏者が音高C1に対応した鍵を押せば、前記ステップ221〜228及び図12の歩進処理プログラムの実行によって、ボイスエディットバッファ54C内のパターンデータ#0のノートナンバにシフトデータSHTを加算した値により規定される音高の楽音信号が、同バッファ54C内の音色パラメータによって規定される音色で順次自動的に発生される。
【0037】
前記楽音信号の順次発生中、前記押されていた鍵(音高C1に対応する鍵)が離されると、CPU51は、前述した図13のキーオフ処理ルーチンの実行により、ボイスエディットバッファ54C内のモードデータが第2モードを表していることを条件に、図13のステップ404のキーオフ・第2モード処理ルーチンを実行する。このキーオフ・第2モード処理ルーチンは図15に詳細に示されており、同ルーチンの実行はステップ420にて開始される。ステップ421〜423の処理は前記第1モードの場合のステップ411〜413の処理と同じであり、この場合、離された鍵は音高C1に対応しているので、前記自動的な楽音信号の発生は中断する。
【0038】
一方、演奏者が音高C1以外の鍵であって下鍵域の鍵を押した場合、図4のステップ201にて設定したキーデータKDは、音高C#1〜SP−1(C#1〜B2)に属するノートナンバを示すことになる。ただし、SPは分割点すなわち上鍵域の最低鍵(C3)に対応したノートナンバを示している。したがって、この場合、図9のステップ221にて「NO」と判定し、ステップ228にて「YES」と判定して、プログラムをステップ230に進める。ステップ230においては、前記キーデータKDから音高C#1のノートナンバを減算して、同減算結果をシフトデータSHTとして設定する。例えば、音高C#1に対応する鍵を押せば、シフトデータSHTは「0」に設定される。音高D1に対応する鍵を押せば、シフトデータSHTは「1」に設定される。また、前記押されていた鍵が離された場合には、図15のステップ421,424にて共に「NO」と判定して、ステップ426にてキーオフ・第2モード処理ルーチンの実行を終了する。
【0039】
したがって、この第2モードでは、音高C#1〜SP−1に属する鍵を押せば、シフトデータSHTの値が前記押された鍵に応じて種々の値に設定される。そして、その後に、音高C1に対応した鍵を押せば、ボイスエディットバッファ54C内のパターンデータ#0のノートナンバに対応した音高をシフトデータSHT分だけシフトした音高の楽音信号が順次自動的に発生される。また、音高C1に対応した鍵を押しながら音高C#1〜SP−1に属する鍵を押すことにより、音高データが順次発生されている途中においてシフトする音程を変更することも可能である。
【0040】
さらに、演奏者が上鍵域(C3〜C6)に属する鍵を押すと、図4のステップ201にて設定したキーデータKDは、音高SPに対応したノートナンバ以上になるので、図9のステップ221,229にて共に「NO」と判定して、プログラムをステップ231に進める。また、この鍵が離されれば、図13のステップ401にて設定したキーデータKDは、音高SPに対応したノートナンバ以上になるので、図15のステップ421にて「NO」、ステップ424にて「YES」と判定して、プログラムをステップ425に進める。ステップ231及びステップ425の処理は、上記第1モードの場合の図8のステップ218及び図14のステップ414の処理と同じである。したがって、この第2モードにおいては、演奏者は、前記自動演奏音を発生させながら、上鍵域の各鍵を用いて自由に演奏を行うことができる。
【0041】
c.第3モード
次に、第3モードの動作について説明すると、前記のように、鍵盤10にていずれかの鍵が押されると、CPU51は、前述した図7のキーオン処理ルーチンの実行により、ボイスエディットバッファ54C内のモードデータが第3モードを表していることを条件に、ステップ205のキ−オン・第3モード処理ルーチンを実行する。このキ−オン・第3モード処理ルーチンは図10に詳細に示されており、その実行はステップ240にて開始される。ステップ241〜247の処理は、上述した第1モードのステップ211〜217の処理と同じである。
【0042】
また、前記押されていた鍵が離されると、CPU51は、前述した図13のキーオフ処理ルーチンの実行により、ボイスエディットバッファ54C内のモードデータが第3モードを表していることを条件に、図13のステップ405のキーオフ・第3モード処理ルーチンを実行する。このキーオフ・第3モード処理ルーチンは図16に詳細に示されており、同ルーチンの実行はステップ430にて開始される。ステップ431の判定処理は、キーデータKDが下鍵域に属する鍵(ノートナンバがSP−1以下である)を示している否かを判定する処理であり、ステップ432,433の処理は前記第1モードの場合のステップ412,413の処理と同じである。
【0043】
したがって、この第3モードにおいても、音高C1に対応する鍵の押離鍵により、上記第1モードの場合と同様に、ボイスエディットバッファ54C内のパターンデータ#0のノートナンバに対応した音高の楽音信号が、同バッファ54C内の音色パラメータにより規定される音色で順次自動的に発生され、また同発生が停止される。
【0044】
一方、演奏者が音高C1以外の鍵であって下鍵域の鍵を押した場合、図4のステップ201にて設定したキーデータKDは、音高C#1〜SP−1に属するノートナンバを示すことになる。したがって、この場合、図10のステップ241にて「NO」と判定し、ステップ248にて「YES」と判定して、プログラムをステップ249以降に進める。ステップ249においては、ボイスエディットバッファ54C内のパターンセレクトデータを読出して、同データに前記キーデータKDから音高C#1に対応したノートナンバを減算した値を加算し、同加算結果をパターンナンバPTNとして設定する。例えば、音高C#1に対応する鍵を押せば、パターンナンバPTNはパターンセレクトデータ値に設定されたままであり、音高D1に対応する鍵を押せばパターンナンバPTNはパターンセレクトデータ値より「1」だけ大きな値に設定される。
【0045】
前記ステップ249の処理後、ステップ250にてシフトデータSHTを「0」に設定した後、前記ステップ243〜247の処理を実行する。ただし、この場合には、パターンナンバPTNは前記場合と異なり、パターンナンバ#1〜128のいずれかを示している。したがって、ステップ243においては、ポインタPOは、パターンエディットバッファ54D内のパターンデータ#1〜#128のいずかの先頭アドレス、すなわち同パターンデータ#1〜#128のいずれかのステップ長データの記憶アドレス値に設定される。これにより、以下のステップ244〜247及び図12の歩進処理プログラムの実行により、パターンエディットバッファ54D内のパターンデータ#1〜#128の第1〜第16ステップデータに基づく楽音信号が、ボイスエディットバッファ54C内の音色パラメータにより規定される音色で順次自動的に発生される。
【0046】
また、前記押されていた鍵が離されると、CPU51は、図16のステップ431にて「YES」と判定し、プログラムを前述したステップ432,433に進める。これらのステップ432,433の処理により、前記楽音信号の自動的な発生が停止される。
【0047】
したがって、この第3モードでは、音高C1#〜SP−1に属する音高に対応した鍵を押離鍵することにより、パターンエディットバッファ54D内のパターンデータ#1〜#128のいずれかであって押された鍵音高に応じて選択されたパターンデータに基づく楽音信号が、順次自動的に発生され、また同発生が停止される。なお、下鍵域のいずれかの鍵を押している間に、下鍵域の他の鍵の押した場合、以前の押鍵に基づく自動演奏に加えて、新たな押鍵に基づく自動演奏を並行して行う。
【0048】
さらに、演奏者が上鍵域に属する鍵を押すと、図4のステップ201にて設定したキーデータKDは、音高SPに対応したノートナンバ以上になるので、図10のステップ241,248にて共に「NO」と判定して、プログラムをステップ251に進める。また、この鍵が離されれば、図13のステップ401にて設定したキーデータKDも、音高SPに対応したノートナンバ以上になるので、図16のステップ431にて「NO」と判定し、プログラムをステップ443に進める。ステップ251及びステップ434の処理は、上記第1モードの場合の図8のステップ218及び図14のステップ414の処理と同じである。したがって、この第3モードにおいては、演奏者は、前記自動演奏音を発生させながら、上鍵域の各鍵を用いて自由に演奏を行うことができる。
【0049】
d.第4モード
次に、第4モードの動作について説明すると、前記のように、鍵盤10にていずれかの鍵が押されると、CPU51は、前述した図7のキーオン処理ルーチンの実行により、ボイスエディットバッファ54C内のモードデータが第4モードを表していることを条件に、ステップ206のキ−オン・第4モード処理ルーチンを実行する。このキ−オン・第4モード処理ルーチンは図11に詳細に示されており、その実行はステップ260にて開始される。ステップ261〜268の処理は、上述した第2モードのステップ221〜228の処理と同じである。
【0050】
また、前記押されていた鍵が離されると、CPU51は、前述した図13のキーオフ処理ルーチンの実行により、ボイスエディットバッファ54C内のモードデータが第4モードを表していることを条件に、図13のステップ406のキーオフ・第4モード処理ルーチンを実行する。このキーオフ・第4モード処理ルーチンは図17に詳細に示されており、同ルーチンの実行はステップ440にて開始される。ステップ441〜443の処理は、上述した第3モードのステップ431〜433の処理と同じである。
【0051】
したがって、この第4モードにおいても、音高C1に対応する鍵の押離鍵により、上記第3モードの場合と同様に、ボイスエディットバッファ54C内のパターンデータ#0のノートナンバに対応した音高にシフトデータSHTを加算した音高の楽音信号が、同バッファ54C内の音色パラメータにより規定される音色で順次自動的に発生され、また同発生が停止される。
【0052】
一方、演奏者が音高C#1以外の鍵であって下鍵域の鍵を押した場合、図4のステップ201にて設定したキーデータKDは、音高C#1〜SP−1に属するノートナンバを示すことになる。したがって、この場合、図11のステップ261にて「NO」と判定し、ステップ269にて「YES」と判定して、プログラムをステップ270以降に進める。ステップ270の処理は上述した第3モードのステップ249の処理と同じであり、またステップ263〜268の処理は第2モードのステップ223〜228の処理と同じである。
【0053】
また、前記押されていた鍵が離されると、CPU51は、図17のステップ441にて「YES」と判定し、プログラムを前述したステップ442,443に進める。これらのステップ442,443の処理は、上述した第3のモードのステップ432,433の処理と同じである。
【0054】
したがって、この第4モードにおいても、音高C#1〜SP−1のいずれかに対応する鍵の押離鍵により、上記第3モードの場合と同様に、パターンエディットバッファ54D内のパターンデータ#1〜#128のいずれであって押された鍵音高に応じて選択されたパターンデータに基づくとともに、同パターンデータのノートナンバにシフトデータSHTを加算した音高の楽音信号が、ボイスエディットバッファ54C内の音色パラメータにより規定される音色で順次自動的に発生され、また同発生が停止される。
【0055】
さらに、演奏者が上鍵域に属する鍵を押すと、図4のステップ201にて設定したキーデータKDは、音高SPに対応したノートナンバ以上になるので、図11のステップ260,268にて共に「NO」と判定して、プログラムをステップ271に進める。ステップ271においては、前記キーデータKDから音高SPに対応したノートナンバを減算して、同減算結果をシフトデータSHTとして設定する。例えば、音高SP(C3)に対応する鍵を押せば、シフトデータSHTは「0」に設定される。音高SP+1に対応する鍵を押せば、シフトデータSHTは「1」に設定される。また、前記押されていた鍵が離された場合には、図17のステップ441にて「NO」と判定して、ステップ444にてキーオフ・第4モード処理ルーチンの実行を終了する。
【0056】
したがって、この第4モードでは、上鍵域(音高SP以上)の鍵を押せば、シフトデータSHTの値が前記押された鍵に応じて種々の値に設定される。そして、その後に、音高C1に対応した鍵を押せば、ボイスエディットバッファ54C内のパターンデータ#0のノートナンバに対応した音高をシフトデータSHT分だけシフトした音高の楽音信号を順次自動的に発生される。また、音高C#1〜SP−1に対応した鍵を押せば、パターンエディットバッファ54D内のパターンデータ#1〜#128のいずれかのノートナンバに対応した音高をシフトデータSHT分だけシフトした音高の楽音信号を順次自動的に発生される。また、音高C1〜SP−1に対応した鍵を押しながら音高SP以上に属する鍵を押すことにより、音高データが順次発生されている途中においてシフトする音程を変更することが可能である。
【0057】
次に、ボイスデータライブラリ54A,パターンデータライブラリ54B,ボイスエディットバッファ54C及びパターンエディットバッファ54D内の各種データのエディット動作について説明する。
【0058】
演奏者が、カーソル移動操作子群26及びその他の操作子群27を操作するとともに表示器28による表示を利用して、この電子楽器を音色パラメータエディット状態に設定して、その後にテンキー操作子群22又はその他の操作子群27により音色パラメータの一部を指定するとともにパラメータ値を入力すると、CPU51は図18の音色パラメータエディット処理ルーチンを実行する。この音色パラメータエディット処理ルーチンは、ステップ500〜502からなり、ステップ501の処理により、ボイスエディットバッファ54C内の前記指定された音色パラメータの値を前記入力されたパラメータ値に書き換える。これにより、鍵盤10による演奏音及びパターンデータ#0〜#128に基づく自動演奏音の音色を種々に変更できる。
【0059】
また、演奏者が、前記と同様な操作によりこの電子楽器をモードデータエディット状態に設定して、その後にテンキー操作子群22又はその他の操作子群27を操作することにより第1〜第4モードのいずれか一つを指定すると、CPU51は図19のモードエディット処理ルーチンを実行する。このモードエディット処理ルーチンは、ステップ510〜512からなり、ステップ511の処理により、ボイスエディットバッファ54C内のモードデータを前記指定されたモード番号に書き換える。これにより、鍵盤10の使用状態を選択音色(選択ボイス)に対応して上述した第1〜第4モードのいずれかに選択できるようになる。
【0060】
また、演奏者が、前記と同様な操作によりこの電子楽器をパターンセレクトデータエディット状態に設定して、その後にテンキー操作子群22又はその他の操作子群27を操作することによりパターンセレクト番号を入力すると、CPU51は図20のパターンセレクトデータエディット処理ルーチンを実行する。このパターンセレクトデータエディット処理ルーチンは、ステップ520〜522からなり、ステップ521の処理により、ボイスエディットバッファ54C内のパターンセレクトデータを入力されたパターンセレクト番号に書き換える。これにより、上述した第3又は第4モードにて、パターンエディットバッファ54D内の任意のパターンデータを選択音色(選択ボイス)に対応して選択することができるようになる。
【0061】
また、演奏者が、前記と同様な操作によりこの電子楽器をステップデータエディット状態に設定すると、CPU51は図21のステップデータエディット処理ルーチンを繰り返し実行するようになる。なお、このステップデータエディット処理ルーチンの繰り返し実行は、前記ステップデータエディット状態の解除により停止する。
【0062】
また、このステップデータエディット処理ルーチンにおいて、パターンデータを指定するためのパターンナンバPTNは上述した図6のステップ104、図8のステップ212、図9のステップ222、図10のステップ242,249及び図11のステップ262,270の処理によって設定されるものである。
【0063】
ステップデータエディット処理ルーチンは、ステップ530にてその実行が開始され、ステップ531にてステップ操作子21−1,21−2・・・21−16のうちのいずれか一つが操作されたか否かを判定する。この判定は、各ステップ操作子毎に、以前の回転位置と現在の回転位置を比較することにより、各両位置が変化していることにより検出する。ステップ操作子21−1,21−2・・・21−16のうちのいずれか一つが操作されれば、前記ステップ531にて「YES」と判定されて、CPU51は、ステップ532にて、ボイスエディットバッファ54C内のパターンデータ#0及びパターンエディットバッファ54D内のパターンデータ#1〜#128のうちでパターンナンバPTNにより指定されるパターンデータ内のステップデータであって、第1〜第16ステップデータ内の操作されたステップ操作子21−1,21−2・・・21−16に対応したステップデータ中のノートナンバを、同操作されたステップ操作子の回転位置に対応したノートナンバに変更する。そして、ステップ533にて、パターンナンバPTNにより指定されるエディットフラグFLG(PTN)を”1”に設定してプログラムをステップ534,535に進める。ステップ操作子21−1,21−2・・・21−16のうちのいずれも操作されていなければ、ステップ531における「NO」との判定のもとに、プログラムをステップ534,535に進める。
【0064】
ステップ534,535においては、ステップ長変更処理及びゲートタイム変更処理を実行する。この場合、演奏者が、カーソル移動操作子群26及びその他の操作子群27を操作して、ステップ長及び第1〜第16ステップデータのいずれかのゲートタイムを入力すると、前記ステップ534,535の処理により、ボイスエディットバッファ54C内のパターンデータ#0及びパターンエディットバッファ54D内のパターンデータ#1〜#128のうちでパターンナンバPTNにより指定されるパターンデータ内のステップ長及びゲートタイムをそれぞれ前記入力した値に変更する。なお、これらのステップ534,535においても、ステップ長又はゲートタイムを変更した場合には、パターンナンバPTNにより指定されるエディットフラグFLG(PTN)を”1”に設定する。そして、ステップ536にてこのステップデータエディット処理ルーチンの実行を終了する。
【0065】
これにより、上記第1〜第4モードにおいて、ボイスエディットバッファ54C内のパターンデータ#0及びパターンエディットバッファ54D内のパターンデータ#1〜#128の任意のパターンデータを、選択音色に関連させて種々に変更することができる。
【0066】
次に、ボイスエディットバッファ54C内のボイスデータ群をボイスデータライブラリ54Aに戻す動作について説明する。演奏者がボイスストア操作子23を操作すると、CPU51は図22のステップ600にてボイスストア処理ルーチンの実行を開始して、ステップ601にてボイスエディットバッファ54C内の全てのデータ(音色パラメータ、モードデータ、パターンセレクトデータ及びパターンデータ#0)を、ボイスデータライブラリ54Aに戻す。すなわち、ボイスデータライブラリ54A内であってボイスエディットバッファ54C内のボイスデータ群が以前記憶されていた記憶位置に、同バッファ54Cに現在記憶されているボイスデータ群を書き込む。これにより、ボイスデータライブラリ54A内のボイスデータ群が種々にエディットされる。
【0067】
前記ステップ601の処理後、ステップ602にてボイスエディットバッファ54C内のモードデータが第3又は第4モードを表しているか否かを判定する。同データが第3又は第4モードを表していなければ、同ステップ602にて「NO」と判定して、ステップ609にてこのボイスストアルーチンの実行を終了する。
【0068】
一方、前記モードデータが第3又は第4モードを表していれば、前記ステップ602における「YES」との判定のもとに、プログラムをステップ603〜607に進める。これらのステップ603〜607の処理は、変数iを「1」から「128」まで順次「1」ずつ増加させることにより、エディットフラグFLG(i)が”1”である変数iにより指定されるパターンエディットバッファ54D内のパターンデータ#iを、パターンデータライブラリ54A内の前記変数iにより指定されるパターンデータ#iに変更する。これにより、この電子楽器が第3又は第4モードに設定されている状態で、ステップ長データ及び第1〜第16ステップデータのいずれかが変更された場合に、同変更されたデータを含むパターンデータのみがパターンデータライブラリ54B内の対応するパターンデータとして書き換えられ、その他のパターンデータライブラリ54B内のパターンデータの書き換えは省略される。
【0069】
これによれば、必要なデータの書き換えだけが行われて、同パターンデータの書き換えの処理時間を短縮できる。また、第3又は第4モードの場合をパターンデータの書き換え条件としたのは、上記図19のモードエディット処理によりモードデータを第3又は第4モードを表すモード番号から第1又は第2モードを表すモード番号に変更した直後にボイスストア操作子23を操作したときを除いて、第3又は第4モード以外では前記エディットされるべきパターンデータを指定するためのパターンナンバPTNが「1」〜「128」すなわちパターンエディットバッファ54D内のパターンデータ#1〜#128を指定されることがないからである。なお、前記第3又は第4モードから第1又は第2モードへの変更直後のボイスストア操作子23の操作時には、パターンデータライブラリ54B内のパターンデータを変更しないようになっている。
【0070】
前記ステップ603〜607の処理後、ステップ608にてパターンエディットバッファ54D内のパターンデータ#1〜#128の変更を表すエディットフラグFLG(1)〜FLG(128)を全て”0”に初期設定して、ステップ609にこのボイスストアルーチンの実行を終了する。これによれば、パターンデータライブラリ54Bのパターンデータ#1〜#128を所望の値に変更できる。
【0071】
なお、演奏者がボイスストア操作子23を操作する前にいずれかの音色選択操作をした場合には、前述した図6の音色選択処理によって、ボイスエディットバッファ54C及びパターンエディットバッファ54Dの記憶内容は全て破棄され、新たに選択した音色に対応したボイスデータ群及びパターンデータ群#1〜#128がボイスデータライブラリ54A及びパターンデータライブラリ54Bからコピーされる。従って、エディットしたデータが気に入らない場合には、いずれかの音色(それまで選択されていた音色と同じであってもよいし、異なっていてもよい)を選択し直せばよい。
【0072】
また、この電子楽器においては、パターンデータライブラリ54B内のパターンデータ#1〜#128のうちのいずれかをボイスエディットバッファ54Cに転送して利用したり、同転送されたパターンデータに上述したエディット処理を施したり、逆にボイスエディットバッファ54C内のパターンデータ#0をパターンデータライブラリ54B内のパターンデータ#1〜#128の一つとして格納することもできる。前者の場合には、演奏者が、カーソル移動操作子群26及びその他の操作子群27を操作するとともに表示器28による表示を利用して、パターンナンバを指定した後、パターンロード操作子24をオン操作すると、CPU51は図23のステップ610〜612からなるパターンロード処理ルーチンを実行する。そして、ステップ611の処理により、パターンデータライブラリ54B内のパターンデータ#1〜#128であって前記パターンナンバにより指定されたパターンデータを読出して、ボイスエディットバッファ54Cにパターンデータ#0として記憶する。
【0073】
また、後者の場合も、前記場合と同様にしてパターンナンバを指定した後、パターンセーブ操作子25をオン操作すると、CPU51は図24のステップ620〜622からなるパターンセーブ処理ルーチンを実行する。そして、ステップ621の処理により、パターンエディットバッファ54C内のパターンデータ#0を読出して、パターンデータライブラリ54B内のパターンデータ#1〜#128であって前記パターンナンバにより指定されたパターンデータとして記憶する。これにより、各種パターンデータのエディット作業をさらに効率よくできるようになる。
【0074】
次に、本発明の上記実施形態の各種変形例について説明する。
(1)上記実施形態においては、鍵盤10の所定の鍵の押鍵操作により固定長の16ステップからなる自動演奏を開始するとともに、同押鍵中に同自動演奏を繰り返し行い、離鍵操作により同自動演奏を停止させるようにした。しかし、ノートナンバ毎に符長データを記憶しておいて各ステップ長をそれぞれ異ならせるようにしたり、前記ステップ数を16ステップ以外にしてもよい。また、押鍵中に16ステップの自動演奏を繰り返し行う代わりに、16ステップからなる自動演奏を1回行った後に、同自動演奏を終了するようにしてもよい。さらに、押鍵後、離鍵とは無関係に前記自動演奏の繰り返しを続け、他のスイッチ操作により同自動演奏を停止するようにしたり、演奏者が前記離鍵により自動演奏を停止するか否かを選択できるようにしたり、ボイスデータ群中に音色に対応させて前記自動演奏の停止条件を表すデータを記憶しておくようにしてもよい。
【0075】
(2)上記実施形態においては、一つのパターンの再生中に他のパターンを指定した場合には、以前のパターンによる自動演奏も新たに指定されたパターンと同時に再生されるようにしたが、以前のパターンによる自動演奏が終了し、新たに指定されたパターンによる自動演奏が開始されるようにしてもよい。
【0076】
(3)上記実施形態においては、各ステップデータをノートナンバ、ゲートタイムにより構成したが、同各ステップデータ中に音の強弱を表すベロシィデータを含ませるようにしてもよい。また、このようなノートナンバ、ゲートタイムなどによりステップデータを構成しなくて、楽音波形自体を表す波形データをステップデータに代えて記憶しておき、鍵盤10の押離鍵操作により前記波形データを順次再生するようにしてもよい。
【0077】
(4)上記実施形態においては、第2モードの場合の音高C#1〜SP−1の押鍵、及び第4モードの場合の音高SP以上の押鍵によって、パターンデータのノートナンバを「0」以上の値を有するシフトデータSHTによってシフトさせるようにしたが、このシフトデータSHTが負の値を有するようにしてもよい。
【0078】
(5)上記実施形態においては、ステップデータエディット状態に設定した際にのみステップデータのエディットを行うことができるようにしたが、鍵の押下によりいずれかのパターンが選択及び再生されている間、同選択及び再生中のパターンのエディットを自由に行うことができるようにしてもよい。
【0079】
(6)上記実施形態においては、楽音信号の音色を決定する複数の音色パラメータを各ボイスデータ群にそれぞれ含ませたが、各ボイスデータ群にはそれぞれ音色番号のみを含ませておき、同音色番号により指定される複数の音色パラメータを別途設けた音色パラメータライブラリ内に記憶させておくようにしてもよい。この場合、ボイスデータライブラリ54A及びボイスエディットバッファ54C間においては、音色番号のみをボイスデータとして転送するとともに、楽音信号発生回路60への音色パラメータの転送にあっては音色番号により前記音色パラメータライブラリから音色パラメータを読出して転送するようにすればよい。また、音色パラメータのエディットにあっては、ボイスエディットバッファ54C内の音色番号と同時に前記音色パラメータライブラリ内の音色パラメータをエディットするようにすればよい。
【0080】
(7)上記実施形態に係るボイスデータライブラリ54A内のボイスデータ群及びパターンデータライブラリ54B内のパターンデータ群を音色パラメータ(音色制御データ群)に関連させて選択出力したり、エディットしたりする技術に関しては、楽音信号の発生及び発生される楽音信号の楽音要素の制御に関する技術に広く利用できるものである。すなわち、ボイスデータライブラリ54A内に記憶されいる音色パラメータ及びパターンセレクトデータ(実際にはパターン以外のデータも選択する)に関しては上記実施形態と同様にしておき、ボイスデータライブラリ54A及びパターンデータライブラリ54Bに記憶されているパターンデータに代えて、発生される楽音信号の信号波形を記憶しておいたり、発生される楽音信号のピッチ、音量、同楽音信号に付与される効果などの音色に関連した複数組の制御データ群を記憶しておき、上記実施形態と同様、前記複数組の制御データ群をエディットしたり、出力したりするようにすればよい。
【0081】
(8)上記実施形態においては、ボイスデータライブラリ54A及びパターンデータライブラリ54BをRAM54内に設けるようにしたが、その一部をROM53内に記憶しておいてもよい。また、前記両ライブラリ54A,54Bを構成するデータの一部又は全部をハードディスク、光ディスクなどの大容量の記録媒体74に記憶しておいたり、フレキシブルディスク、コンパクトディスクなどの携帯可能な記録媒体75に記憶しておき、CPU51が同データを直接読出したり、一旦RAM54に転送した後に利用するようにしてもよい。また、他の機器76又はサーバコンピュータ78からミディーインターフェース72又は通信インターフェース73をそれぞれ介してRAM54又は記録媒体74,75に供給されるようにして、同RAM54又は記録媒体74,75に記憶した後に利用するようにしてもよい。さらに、前記データの一部又は全部をミディーインターフェース72又は通信インターフェース73をそれぞれ介して他の機器76又はサーバコンピュータ78に供給するようにしてもよい。
【0082】
(9)図6〜24のフローチャートに対応したプログラムに関しても、記録媒体74,75に記録しておき、同記録媒体74,75に記録されている前記プログラムを直接的に読出して、又はRAM53に一旦転送した後に利用するようにしてもよい。また、前記プログラムを他の機器76又はサーバコンピュータ78からミディーインターフェース72又は通信インターフェース73をそれぞれ介してRAM54又は記録媒体74,75に供給されるようにして、同RAM54又は記録媒体74,75に記憶した後に利用するようにしてもよい。さらに、前記プログラムをミディーインターフェース72又は通信インターフェース73をそれぞれ介して他の機器76又はサーバコンピュータ78に供給するようにしてもよい。
【0083】
(10)上記実施形態においては、本発明を複数の鍵からなる鍵盤10を有する電子楽器に適用した例について説明したが、本発明は、複数の楽音の発生をそれぞれ制御する複数の演奏操作子を有するものであれば、他の電子楽器にも適用できる。また、鍵盤10、操作パネル20、マイクロコンピュータ50、楽音信号発生回路60を一体的に備えていなくても、これらの各要素を適宜組み合わせ接続するような電子楽器にも適用できる。
【図面の簡単な説明】
【図1】 本発明の一実施形態に係る電子楽器を概略的に示す全体ブロック図である。
【図2】 図1の操作パネルの正面図である。
【図3】 (A)は図1のRAMに設けたボイスデータライブラリのメモリマップであり、(B)は同RAMに設けたパターンデータライブラリのメモリマップである。
【図4】 (A)は図1のRAMのボイスエディットバッファのメモリマップであり、(B)は同RAMに設けたパターンエディットバッファのメモリマップである。
【図5】 (A)は各パターンデータのメモリマップであり、(B)はステップ長とゲートタイムの関係を示す説明図である。
【図6】 図1のマイクロコンピュータにより実行される音色選択ルーチンのフローチャートである。
【図7】 図1のマイクロコンピュータにより実行されるキ−オン処理ルーチンのフローチャートである。
【図8】 図7のキ−オン・第1モード処理ルーチンのフローチャートである。
【図9】 図7のキ−オン・第2モード処理ルーチンのフローチャートである。
【図10】 図7のキ−オン・第3モード処理ルーチンのフローチャートである。
【図11】 図7のキ−オン・第4モード処理ルーチンのフローチャートである。
【図12】 図1のマイクロコンピュータにより実行される歩進処理プログラムのフローチャートである。
【図13】 図1のマイクロコンピュータにより実行されるキ−オフ処理ルーチンのフローチャートである。
【図14】 図7のキ−オフ・第1モード処理ルーチンのフローチャートである。
【図15】 図7のキ−オフ・第2モード処理ルーチンのフローチャートである。
【図16】 図7のキ−オフ・第3モード処理ルーチンのフローチャートである。
【図17】 図7のキ−オフ・第4モード処理ルーチンのフローチャートである。
【図18】 図1のマイクロコンピュータにより実行される音色パラメータエディット処理ルーチンのフローチャートである。
【図19】 図1のマイクロコンピュータにより実行されるモードエディット処理ルーチンのフローチャートである。
【図20】 図1のマイクロコンピュータにより実行されるパターンセレクトデータエディット処理ルーチンのフローチャートである。
【図21】 図1のマイクロコンピュータにより実行されるステップデータエディット処理ルーチンのフローチャートである。
【図22】 図1のマイクロコンピュータにより実行されるボイスストア処理ルーチンのフローチャートである。
【図23】 図1のマイクロコンピュータにより実行されるパターンロード処理ルーチンのフローチャートである。
【図24】 図1のマイクロコンピュータにより実行されるパターンセーブ処理ルーチンのフローチャートである。
【符号の説明】
10…鍵盤、11…鍵スイッチ回路、20…操作パネル、21…ステップ操作子群、22…テンキー操作子群、23…ボイスストア操作子、24…パターンロード操作子、25…パターンセーブ操作子、28…表示器、31…操作子スイッチ回路、32…表示制御回路、50…マイクロコンピュータ、51…CPU、52…タイマ、54…RAM、54A…ボイスデータライブラリ、54B…パターンデータライブラリ、54C…ボイスエディットバッファ、54D…パターンエディットバッファ、60…楽音信号発生回路、71…読み取り及び書き込み装置、74,75…記録媒体。
[0001]
BACKGROUND OF THE INVENTION
The present invention is suitable for use in an electronic musical instrument or the like that automatically generates a plurality of musical tone signals in a predetermined pattern in response to an operation of an operator, and is used for musical tone control that generates musical tone control data for controlling the tone color of the musical tone signal. The present invention relates to a data generator.
[0002]
[Prior art]
Conventionally, as this type of electronic musical instrument, for example, as disclosed in Japanese Patent Publication No. 6-64468, pattern data for controlling the generation of an automatic performance sound signal sequence is provided for each rhythm type and for a specific key range. Each key is memorized, and an automatic performance sound signal sequence controlled by pattern data corresponding to the selected rhythm type and the pressed key is generated by pressing a key in the same key range. It is known that a musical tone signal is generated in accordance with a performance operation in another key range.
[0003]
[Problems to be solved by the invention]
However, in the above-mentioned conventional electronic musical instrument, the tone color of the normal musical tone signal generated by the performance operation of the other key range and the pattern data for generating the automatic performance tone signal sequence are independent, so In some cases, an automatic performance sound signal sequence having a pattern adapted to the tone color of the normal musical tone signal cannot be generated, and the combination of the normal musical tone signal and the automatic musical performance sound signal is unnatural musically. In addition, the above publication does not show any technique related to editing various data.
[0004]
SUMMARY OF THE INVENTION
The present invention has been made in order to address the above-described problems, and an object of the present invention is to provide a user-friendly sound control data generator for generating music sound control data for controlling the generation of a music signal and the generated music signal. It is to improve.
[0005]
In order to achieve the above object, a first feature of the present invention (corresponding to claim 1) is a first control storing a plurality of sets of tone color control data groups for controlling the tone color of a generated tone signal. A second control data library storing a plurality of sets of control data for controlling generation of musical tone signals or musical tone signals which are different from the data library and the plurality of sets of tone color control data groups; (2) To temporarily store a plurality of sets of control data in the control data library and to control a set of control data in the plurality of sets of control data to generate a tone signal or to generate a tone signal A control data buffer that can be used for the timbre, a timbre selection means for selecting one of a plurality of timbre control data groups, and a first control data group selected by the timbre selection means as a timbre control data live A timbre control data output means for reading out and outputting from the control unit and transferring a plurality of sets of control data groups in the second control data library to the control data buffer in conjunction with the readout output of the same tone color control data group; An editing means for editing a part of the data in the plurality of sets of control data in the second control data library, and the part of the edited data was previously stored in the second control data library And a saving means for writing to the location.
[0006]
In this case, for example, the control data group stored in the second control data library and the second control data buffer may be composed of pattern data for generating a plurality of different sets of automatic performance sound signal sequences. Further, as the control data group, effect data, sound source waveform data, or the like may be used instead of or in addition to the automatic performance sound pattern data.
[0007]
According to this, when a set of timbre control data groups in the first control data library is selected by the timbre selection means, the same timbre control data group is read from the timbre control data library by the timbre control data output means. And a plurality of sets of control data in the second control data library are transferred to the control data buffer. The output tone color control data group is used to control the tone color of the generated tone signal, and the control data in the control data buffer is also used to generate the tone signal or control the tone signal to be generated. It will be used. The control data in the control data buffer can be edited by the editing means, and the control data after the editing can be returned to the second control data library by the saving means. The control mode of the signal can be changed in various ways, and the changed state can be saved. If the control data after the editing is stopped to be returned to the second control data library and a timbre control data group is newly selected by the timbre selection means, the edited control data in the control data buffer is discarded. Then, a plurality of sets of control data previously stored in the second control data library are transferred to the control data buffer, and a musical sound signal is generated or generated by the control data before editing in the library. It is also possible to control. Therefore, the control state of the generated musical sound is variously controlled by a simple operation, and the usability of the musical sound control data generating apparatus is improved.
[0008]
In order to achieve the above object, a second feature of the present invention (corresponding to claim 2) is that any one of a plurality of sets of control data in the second control data library is stored in the first control data library. A plurality of select data for specifying are stored in association with a plurality of sets of timbre control data groups, and when the timbre control data group is read out by the timbre control data output means, a select corresponding to the same timbre control data group is stored. The data is read and made available for specifying a plurality of sets of control data in the control data buffer.
[0009]
According to this, when the timbre control data group is selected by the timbre selection means, select data corresponding to the timbre control data group is read, and a plurality of sets of control data groups in the control data buffer are specified by the select data. In addition to the eighth feature, the use of the control data group in the second control data library suitable for the set of timbre control data groups is realized by a simple operation. As a result, the ease of use of the musical sound control data generator is further improved.
[0010]
In order to achieve the above object, a third feature of the present invention (corresponding to claim 3) is that the control data buffer is a second control data buffer, and a plurality of sets in the first control data library are provided. First control data that temporarily stores a set of timbre control data groups of the timbre control data group and that can be used to control the timbres of the tone signals generated from the same timbre control data group. A buffer is provided, and instead of the timbre control data output means, edit means and save means, the timbre control data group selected by the timbre selection means is transferred from the first control data library to the first control data buffer, and the same timbre Transfer means for transferring a plurality of sets of control data groups in the second control data library to the second control data buffer in conjunction with the transfer of the control data groups; An editing means for editing a part of the data in the first and second control data buffers, and the tone color control data group in the first control data buffer are stored in the first control data library in the previous tone color control data group. The edited control data in the second control data buffer is stored in the second control data library in conjunction with the writing of the same tone color control data group, and the control data is previously stored. And a save means for writing in the specified position.
[0011]
According to this, in addition to the operation of the first feature for achieving the above object, the tone control data group stored in the first control data library can be edited using the first control data buffer. . When the edited tone color control data group is returned to the first control data library, the control data group in the second control data buffer is also returned to the second control data library by the saving means. Therefore, the usability of this musical tone control data generator is further improved than in the case of the first feature.
[0012]
Furthermore, in order to achieve the above object, a fourth feature of the present invention (corresponding to claim 4) includes, in addition to the third feature, a plurality of second control data libraries in the first control data library. A plurality of select data for specifying any one of the control data groups of the set is stored in correspondence with the plurality of sets of timbre control data groups, and the first control data buffer is also controlled with the timbre control data together with the timbre control data group. Select data corresponding to the data group can be temporarily stored and used, and the transfer means sends the select data corresponding to the tone color control data group together with the tone color control data group from the first control data library to the first control. The save means transfers the data to the data buffer, and the save means selects the timbre control data group and the select data from the first control data buffer. A inner is the fact that to be written to a position where the select data has been previously stored.
[0013]
According to this, when selecting the timbre control data group by the timbre selection means, the select data corresponding to the same timbre control data group is transferred into the first control data buffer, and a plurality of sets in the control data buffer are transferred by the select data. In addition to the tenth feature, the control data group in the second control data library suitable for a set of timbre control data groups can be easily used. Realized by simple operation. When the tone color control data group and select data in the first control data buffer are saved in the first control data library, the edited data in the second control data buffer is also stored in the second control data library by the saving means. Since the data is saved, the control data group can be saved corresponding to the select data. Therefore, the usability of this musical tone control data generating apparatus is further improved than in the case of the tenth feature.
[0014]
Embodiment
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the entire electronic musical instrument according to the present invention.
[0015]
This electronic musical instrument includes a keyboard 10 and an operation panel 20. The keyboard 10 includes a plurality of keys as a plurality of performance operators for designating pitches and instructing generation of musical tone signals, respectively. It is detected by a key switch provided corresponding to the above. In the present embodiment, the keyboard 10 is composed of 61 keys from the pitch C1 to the pitch C6, and the lower key range (C1 to B2) and the upper key range (C3 to C3) at a dividing point (for example, the pitch C3). C6). In addition, you may comprise so that this division | segmentation point can be changed freely by a player.
[0016]
As shown in FIG. 2, the operation panel 20 includes a step operator group 21, a numeric keypad operator group 22, a voice store operator 23, a pattern load operator 24, a pattern save operator 25, a cursor movement operator group 26, and others. The operation group 27 and the display 28 are provided. The step operator group 21 is composed of operators 21-1, 21-2,..., 21-16 respectively corresponding to 16 musical sounds that are automatically and sequentially generated. Enter the pitch. The numeric keypad group 22 is composed of numeric keys 0 to 9 and an enter key. In addition to inputting normal numeric data, the numeric keypad group 22 is a timbre selection operator for selecting one of 128 timbres. It also has functions. The voice store operator 23, the pattern load operator 24, and the pattern save operator 25 are operators for instructing transfer of various data. The cursor movement operator group 26 is composed of a plurality of operation elements for moving the position of the cursor on the display 28. The other operation group 27 is for inputting other various data. These operation element groups 21 to 27 are detected by operation element switches provided in the operation element switch circuit 31 corresponding to the respective operation elements. The display 28 is for displaying various data values, control modes, and the like, and the display content is controlled by the display control circuit 32.
[0017]
The key switch circuit 11, the operator switch circuit 31, and the display control circuit 32 are connected to the bus 44 through the input interfaces 41 to 43, respectively, and the bus 44 has a micro that includes a CPU 51, a timer 52, a ROM 53, and a RAM 54. A computer 50 is connected. The CPU 51 executes programs corresponding to the flowcharts of FIGS. 6 to 24 to generate data for controlling musical sounds and to control the generation of the musical sounds. The timer 52 is controlled to be activated and deactivated by the CPU 51 and repeatedly measures the time set by the CPU 51. The CPU 51 interrupts and executes the stepping process program of FIG. . The ROM 53 stores the program. In addition to the normal working area, the RAM 54 includes a voice data library 54A (FIG. 3A), a pattern data library 54B (FIG. 3B), a voice edit buffer 54C (FIG. 4A), and a pattern edit buffer. 54D (FIG. 4B). The voice data library 54A and the pattern data library 54B are preferably composed of a nonvolatile RAM.
[0018]
The voice data library (tone color control data library) 54A is an area for storing a plurality of sets (for example, 128 sets) of different voice data groups 54A-1, 54A-2,... 54A-128. A mode for designating any one of a large number of tone color parameters (music tone control data group) for determining the tone color of the musical tone and the first to fourth modes respectively corresponding to the first to fourth usage modes of the keyboard 10 Data, pattern select data for designating any one of pattern data # 1 to # 128, and pattern data # 0. The pattern data library 54B is an area for storing pattern data # 1 to # 128. As shown in FIG. 5A, the pattern data # 0 to # 128 are step length data representing the interval of each step (for example, a quarter note, an eighth note, etc.) for automatically and automatically generating musical sounds. And 1st to 16th step data. Each step data consists of a note number indicating the pitch (corresponding to the key pitch) of each musical tone that is automatically generated in turn and a gate time indicating the key-on time. The relationship between the step length and the gate time is as shown in FIG.
[0019]
The voice edit buffer 54C is an area for storing one set of voice data groups of the voice data groups 54A-1, 54A-2... 54A-128, and the data stored in the area is stored in the operation panel 20. Are directly edited by the control group and used to control the generation of musical sounds. The pattern edit buffer 54D is configured in the same manner as the pattern data library 54B, and is an area for storing all the pattern data # 1 to # 128 transferred from the library 54B. The pattern data # 1 to # 128 in the pattern edit buffer 54D are also directly edited by the operator group of the operation panel 20 and used for controlling the generation of musical sounds. The voice edit buffer 54C and the pattern edit buffer 54D are collectively referred to as edit buffers 54C and 54D.
[0020]
A musical tone signal generation circuit 60 is also connected to the bus 44, and the circuit 60 inputs a timbre parameter, key data KD (note number), key-on data KON, and key-off data KOF, and generates a timbre determined by the timbre parameter. The tone signal having the pitch specified by the key data KD (note number) starts to be generated in response to the arrival of the key-on data KON or the key-off data KOF, or the generation ends. A sound system 61 composed of an amplifier, a speaker and the like is connected to the musical sound signal generating circuit 60. The system 61 converts the outputted musical sound signal into an acoustic signal and emits the sound.
[0021]
Further, a reading / writing device 71, a midi interface 72 and a communication interface 73 are also connected to the bus 44. The reading and writing device 71 has a large-capacity recording medium 74 such as a hard disk and an optical disk that is always connected to the device 71, and a compact disk and a flexible disk that are selectively mounted on the device 71 and can be easily carried. Data and programs can be written to and read from each recording medium 75. The midi interface 72 is used to input and output various music information, and can be connected to other electronic musical instruments and other devices 76 that handle music information. The communication interface 73 enables input / output of data and programs with the server computer 78 and the like via the communication network 77.
[0022]
Next, the operation of the embodiment configured as described above will be described. First, a case where a new tone color is selected on the operation panel 20 will be described. The performer operates the cursor moving operator group 26 and the other operator group 27 and uses the display on the display unit 28 to set the electronic musical instrument to a timbre selection state. Thereafter, when one of the 128 timbres is designated by operating the numeric keypad group 22, the CPU 51 starts executing the timbre selection processing routine in step 100 of FIG. In step 101, a voice data group corresponding to the tone color designated from the voice data 54A-1... 54A-128 in the voice data library 54A is written in the voice edit buffer 54C. All the pattern data # 1 to # 128 in the pattern data library 54B are written into the pattern edit buffer 54D.
[0023]
Next, in step 103, the timbre parameters in the voice edit buffer 54C are output to the musical tone signal generating circuit 60. The tone signal generation circuit 60 inputs and stores the output tone color parameter, and prepares for generation of a tone signal determined by the tone color parameter. After the process of step 103, in step 104, the CPU 51 determines the pattern number PTN and the same pattern for designating any one of the pattern data # 0, # 1 to # 128 in the edit buffers 54C and 54D. The shift data SHT for shifting the note number in the data # 0, # 1 to # 128 is initialized to “0”. In step 105, the execution of this tone color selection routine is terminated.
[0024]
Next, when any key is pressed on the keyboard 10, the CPU 51 starts execution of the key-on processing routine in step 200 of FIG. 7, and in step 201, the note number corresponding to the pressed key is selected. Set as key data KD. Note that each key of the keyboard 10 is assigned a note number that sequentially increases by “1” as the pitch increases. After the process of step 201, in step 202, the mode data in the voice edit buffer 54C is read to determine which of the first to fourth modes the mode data indicates. Based on this determination, the CPU 51 executes any one of the key-on / first to fourth mode processing routines in steps 203 to 206, and ends the execution of the key-on processing routine in step 207.
[0025]
When the pressed key is released, the CPU 51 starts execution of a key-off process routine in step 400 of FIG. 13, and in step 401, the note number corresponding to the released key is keyed. Set as KD. Based on the mode data in the voice edit buffer 54C, the processing routine of any one of the key-off / first to fourth mode processing routines of steps 403 to 406 is performed by the determination processing of step 402 based on the mode data in the voice edit buffer 54C. In step 407, the execution of this key-off process routine is terminated. Hereinafter, the first to fourth modes as usage modes of the keyboard 10 designated by the mode data will be described in order.
[0026]
a. 1st mode
First, the operation in the first mode will be described. As described above, when any key is pressed on the keyboard 10, the CPU 51 executes the key-on processing routine in FIG. 7 to execute the operation in the voice edit buffer 54C. On condition that the mode data indicates the first mode, the key-on / first mode processing routine of step 203 is executed. This key-on / first mode processing routine is shown in detail in FIG. After this start, in step 211, the CPU 51 sets the pitch C1 corresponding to the lowest key of the keyboard 10 in which the input key data KD (set to the note number corresponding to the pressed key pitch). It is determined whether or not the note number is indicated. If the key data KD indicates the note number of the pitch C1, the program proceeds to step 212 and subsequent steps based on the determination of “YES” in step 211.
[0027]
In step 212, the pattern number PTN and the shift data SHT are set to “0”, respectively. Next, in step 213, the pointer PO is set to the head address of the pattern data designated by the pattern number PTN in the edit buffers 54C and 54D. In this case, since the pattern number PTN is “0”, the pointer PO is set to the start address of the pattern data # 0 in the voice edit buffer 54C, that is, the storage address value of the step length data of the pattern data # 0. . Next, in step 214, the CPU 51 reads out the step length data designated by the pointer PO and outputs it to the timer 52. In step 215, the CPU 51 outputs a signal instructing the timer 52 to start operation. To do. Thereby, the timer 52 inputs and stores the step length data, and thereafter, for each time interval represented by the step length data and other tempos set using the operator group 27 and the display 28. The timer 51 starts to output a timer interrupt signal to the CPU 51.
[0028]
After the processing in step 215, in step 216, the CPU 51 advances the pointer PO and reads the first step data consisting of the note number and gate time in the pattern data # 0. Next, in step 217, the read first step data is output to the musical tone signal generating circuit 60, and in step 219, execution of this key-on / first mode processing routine is terminated. The musical tone signal generating circuit 60 forms a musical tone signal of the prepared tone color having a pitch corresponding to the note number, and starts outputting it through the sound system 61. When a time corresponding to the input gate time elapses, the musical tone signal generation circuit 60 attenuates the musical tone signal that has started to be generated, and thereafter ends the generation of the musical tone signal.
[0029]
Thereafter, when a timer interrupt signal is output from the timer 52 to the CPU 51, the CPU 51 starts executing the stepping process program in step 300 of FIG. After this start, in step 301, the pointer PO is advanced to read the next step data consisting of the note number and gate time in the pattern data # 0. In step 302, shift data SHT is added to the note number in the read step data. However, in this case, since the shift data SHT is set to “0”, the note number is not changed. After the processing of step 302, the read step data is output to the tone signal generation circuit 60 in step 303. As a result, the tone signal generating circuit 60 forms the tone signal of the prepared tone color having the pitch corresponding to the note number, and outputs it through the sound system 61, as in the case described above.
[0030]
After the processing in step 303, it is determined in step 304 whether or not the read step data is the 16th one. Otherwise, the determination in step 304 is “NO”. In step 306, the execution of this step processing program is terminated. When the timer 52 next outputs a timer interrupt signal to the CPU 51, the stepping process program is executed to control the generation of the musical tone signal. Therefore, the tone signal generation circuit 60 sends the tone color parameters of the buffer 54C and the first to first values in the pattern data # 0 at the time interval represented by the step length data in the pattern data # 0 in the voice edit buffer 54C. Musical sound signals defined by the 16th step data are sequentially generated.
[0031]
On the other hand, if the step data read in step 301 corresponds to the sixteenth, the same pattern data # 0 as described above is used in step 305 based on the determination of “YES” in step 304. It is updated to the storage position of the first step data. Accordingly, the musical tone signal defined by the first to sixteenth step data is continuously generated repeatedly.
[0032]
If the pressed key (the key corresponding to the pitch C1) is released during the sequential generation of the tone signals, the CPU 51 executes the mode in the voice edit buffer 54C by executing the key-off process routine shown in FIG. On condition that the data represents the first mode, the key-off / first mode processing routine of step 403 in FIG. 13 is executed. This key-off / first mode processing routine is shown in detail in FIG. 14, and the execution of this routine is started at step 410. After this start, it is determined as “YES” in step 411, that is, the key data KD representing the released key is a note number representing the pitch C1, and the program proceeds to steps 412 and 413. In step 412, a sequence end signal is output to the musical tone signal generating circuit 60. In step 413, the timer 52 is instructed to stop operation. In step 415, the execution of this key-off / first mode processing routine is ended. The tone signal generation circuit 60 ends the generation of the tone signal based on the pattern data # 0. Thereafter, the timer 52 stops generating the timer interrupt signal. Therefore, the sequential generation of the musical tone signal based on the pattern data # 0 is interrupted until the key corresponding to the pitch C1 is next pressed.
[0033]
On the other hand, when a key other than the pitch C1 is pressed, the CPU 51 starts executing the key-on / first mode processing routine in step 210 of FIG. 8 by executing the key-on processing routine of FIG. Then, “NO” in step 211, that is, it is determined that the key data KD set by the processing of step 201 in FIG. 7 does not indicate the pitch C 1, and the program proceeds to step 218. In step 218, the key data KD and key-on data KON are output to the tone signal generating circuit 60. The tone signal generation circuit 60 starts to generate a tone signal having a pitch corresponding to the key data KD with the prepared tone color defined by the tone color parameter in the voice edit buffer 54C.
[0034]
When the pressed key is released, the CPU 51 starts executing the key-off / first mode processing routine in step 410 in FIG. 14 by executing the key-off processing routine in FIG. Then, “NO” in step 411, that is, it is determined that the key data KD set by the process of step 401 in FIG. 13 does not indicate the pitch C 1, and the program proceeds to step 414. In step 414, the key data KD and key-off data KOF are output to the musical tone signal generating circuit 60. In step 415, the execution of this key-off / first mode processing routine is terminated. The musical tone signal generation circuit 60 attenuates the musical tone signal being generated relating to the key data KD and then stops the generation.
[0035]
As described above, in the first mode, by pressing the key corresponding to the pitch C1 of the keyboard 10, the musical tone signals having the pitches defined by the pattern data # 0 in the voice edit buffer 54C are automatically sequentially turned on. When the key is released, the generation of the tone signal automatically generated in sequence is stopped. Further, during the generation of the automatic musical tone signal, the performer can perform a normal performance using a key other than the pitch C1. The musical tone signals produced by the performers and the tone colors of the musical tone signals that are automatically generated are both the same as those selected by the performers and defined by the tone parameters stored in the voice edit buffer 54C. It is a tone. Further, the pattern data # 0 used for the automatic performance belongs to the same voice data group together with the timbre parameters, and these are transferred to the voice edit buffer 54C at the same time by selection of the timbre. By preparing the timbre parameter and pattern data # 0 of the combination, and by appropriately combining the timbre parameter and pattern data # 0 by the editing operation performed by the performer described later, the performer can adjust the performance sound of the keyboard. Automatic performance sounds can be generated simultaneously by simple operations.
[0036]
b. Second mode
Next, the operation of the second mode will be described. As described above, when any key is pressed on the keyboard 10, the CPU 51 executes the key-on processing routine of FIG. The key-on / second mode processing routine of step 204 is executed on the condition that the mode data indicates the second mode. This key-on / second mode processing routine is shown in detail in FIG. The processing in steps 221 to 228 is the same as that described above except that the shift data is not set to “0” in step 222 and the shift data SHT is added to the note number in the first step data in step 227. This is the same as the processing in steps 211 to 217 in the first mode. Therefore, if the performer presses the key corresponding to the pitch C1, the shift data SHT is transferred to the note number of the pattern data # 0 in the voice edit buffer 54C by executing the step 221 to 228 and the stepping program of FIG. A tone signal having a pitch defined by the value obtained by adding is automatically generated sequentially in a tone color defined by a tone color parameter in the buffer 54C.
[0037]
If the pressed key (the key corresponding to the pitch C1) is released during the sequential generation of the tone signals, the CPU 51 executes the mode in the voice edit buffer 54C by executing the key-off process routine shown in FIG. On condition that the data represents the second mode, the key-off / second mode processing routine of step 404 in FIG. 13 is executed. The key-off / second mode processing routine is shown in detail in FIG. 15, and the execution of this routine is started at step 420. The processing of steps 421 to 423 is the same as the processing of steps 411 to 413 in the first mode. In this case, since the released key corresponds to the pitch C1, the automatic musical tone signal Occurrence is interrupted.
[0038]
On the other hand, when the performer presses a key other than the pitch C1 and the lower key range, the key data KD set in step 201 in FIG. 4 is the pitch C # 1 to SP-1 (C #). 1 to B2). However, SP indicates a note number corresponding to the dividing point, that is, the lowest key (C3) in the upper key range. Therefore, in this case, “NO” is determined in Step 221 of FIG. 9, “YES” is determined in Step 228, and the program is advanced to Step 230. In step 230, the note number of the pitch C # 1 is subtracted from the key data KD, and the subtraction result is set as the shift data SHT. For example, when the key corresponding to the pitch C # 1 is pressed, the shift data SHT is set to “0”. If the key corresponding to the pitch D1 is pressed, the shift data SHT is set to “1”. If the pressed key is released, it is determined “NO” in steps 421 and 424 in FIG. 15, and the execution of the key-off / second mode processing routine is terminated in step 426. .
[0039]
Therefore, in the second mode, if a key belonging to the pitches C # 1 to SP-1 is pressed, the value of the shift data SHT is set to various values according to the pressed key. After that, if a key corresponding to the pitch C1 is pressed, a musical signal having a pitch obtained by shifting the pitch corresponding to the note number of the pattern data # 0 in the voice edit buffer 54C by the shift data SHT is automatically automatically performed. Generated. It is also possible to change the pitch to be shifted while the pitch data is being sequentially generated by pressing the keys belonging to the pitches C # 1 to SP-1 while pressing the key corresponding to the pitch C1. is there.
[0040]
Further, when the performer presses a key belonging to the upper key range (C3 to C6), the key data KD set in step 201 in FIG. 4 is equal to or higher than the note number corresponding to the pitch SP. In Steps 221 and 229, both are determined as “NO”, and the program proceeds to Step 231. If the key is released, the key data KD set in step 401 in FIG. 13 becomes equal to or higher than the note number corresponding to the pitch SP, so “NO” in step 421 in FIG. The determination is “YES” and the program proceeds to step 425. The processing in step 231 and step 425 is the same as the processing in step 218 in FIG. 8 and step 414 in FIG. 14 in the case of the first mode. Therefore, in the second mode, the performer can freely perform using each key in the upper key range while generating the automatic performance sound.
[0041]
c. 3rd mode
Next, the operation of the third mode will be described. As described above, when any key is pressed on the keyboard 10, the CPU 51 executes the key-on processing routine of FIG. On the condition that the mode data indicates the third mode, the key-on / third mode processing routine of step 205 is executed. This key-on third mode processing routine is shown in detail in FIG. The processing in steps 241 to 247 is the same as the processing in steps 211 to 217 in the first mode described above.
[0042]
When the pressed key is released, the CPU 51 executes the key-off process routine shown in FIG. 13 on the condition that the mode data in the voice edit buffer 54C represents the third mode. The key-off / third mode processing routine in step 405 of step 13 is executed. This key-off / third mode processing routine is shown in detail in FIG. 16, and the execution of this routine is started at step 430. The determination process of step 431 is a process of determining whether or not the key data KD indicates a key belonging to the lower key range (note number is SP-1 or less), and the processes of steps 432 and 433 are the above-described processes. This is the same as the processing in steps 412 and 413 in the case of the 1 mode.
[0043]
Therefore, also in the third mode, the pitch corresponding to the note number of the pattern data # 0 in the voice edit buffer 54C is the same as in the case of the first mode due to the pressing and releasing of the key corresponding to the pitch C1. Are sequentially generated automatically in tone colors defined by tone color parameters in the buffer 54C, and the generation is stopped.
[0044]
On the other hand, when the performer presses a key other than the pitch C1 and the lower key range, the key data KD set in step 201 in FIG. It will show the number. Therefore, in this case, “NO” is determined in Step 241 of FIG. 10, “YES” is determined in Step 248, and the program is advanced to Step 249 and thereafter. In step 249, the pattern select data in the voice edit buffer 54C is read, the value obtained by subtracting the note number corresponding to the pitch C # 1 from the key data KD is added to the data, and the result of the addition is obtained as the pattern number. Set as PTN. For example, if the key corresponding to the pitch C # 1 is pressed, the pattern number PTN remains set to the pattern select data value, and if the key corresponding to the pitch D1 is pressed, the pattern number PTN is determined from the pattern select data value. It is set to a large value by “1”.
[0045]
After the process of step 249, after the shift data SHT is set to “0” in step 250, the processes of steps 243 to 247 are executed. However, in this case, the pattern number PTN indicates one of pattern numbers # 1 to # 128, unlike the above case. Accordingly, in step 243, the pointer PO stores the start address of any one of the pattern data # 1 to # 128 in the pattern edit buffer 54D, that is, the step length data of any one of the pattern data # 1 to # 128. Set to the address value. As a result, the tone signals based on the first to sixteenth step data of the pattern data # 1 to # 128 in the pattern edit buffer 54D are converted to the voice edit by executing the following steps 244 to 247 and the stepping process program of FIG. The timbre specified by the timbre parameter in the buffer 54C is automatically generated sequentially.
[0046]
When the pressed key is released, the CPU 51 determines “YES” in step 431 of FIG. 16, and advances the program to steps 432 and 433 described above. The automatic generation of the musical tone signal is stopped by the processing of these steps 432 and 433.
[0047]
Therefore, in the third mode, any one of the pattern data # 1 to # 128 in the pattern edit buffer 54D is obtained by pressing and releasing the key corresponding to the pitches belonging to the pitches C1 # to SP-1. Musical tone signals based on the pattern data selected in accordance with the pressed key pitch are automatically and sequentially generated, and the generation is stopped. If you press any key in the lower key range while pressing any key in the lower key range, in addition to the automatic performance based on the previous key press, the automatic performance based on the new key press will be performed in parallel. And do it.
[0048]
Further, when the performer presses a key belonging to the upper key range, the key data KD set in step 201 in FIG. 4 becomes equal to or higher than the note number corresponding to the pitch SP, so steps 241 and 248 in FIG. Both are determined as “NO” and the program proceeds to step 251. If this key is released, the key data KD set in step 401 in FIG. 13 will also be equal to or higher than the note number corresponding to the pitch SP, so it is determined as “NO” in step 431 in FIG. The program proceeds to step 443. The processing in step 251 and step 434 is the same as the processing in step 218 in FIG. 8 and step 414 in FIG. 14 in the first mode. Therefore, in the third mode, the performer can freely perform using each key in the upper key range while generating the automatic performance sound.
[0049]
d. 4th mode
Next, the operation of the fourth mode will be described. As described above, when any key is pressed on the keyboard 10, the CPU 51 executes the key-on processing routine of FIG. On the condition that the mode data indicates the fourth mode, the key-on / fourth mode processing routine of step 206 is executed. This key-on / fourth mode processing routine is shown in detail in FIG. The processing in steps 261 to 268 is the same as the processing in steps 221 to 228 in the second mode described above.
[0050]
When the pressed key is released, the CPU 51 executes the key-off process routine shown in FIG. 13 on the condition that the mode data in the voice edit buffer 54C represents the fourth mode. The key-off / fourth mode processing routine of step 406 of step 13 is executed. This key-off / fourth mode processing routine is shown in detail in FIG. 17, and the execution of this routine is started at step 440. The processing in steps 441 to 443 is the same as the processing in steps 431 to 433 in the third mode described above.
[0051]
Therefore, also in the fourth mode, the pitch corresponding to the note number of the pattern data # 0 in the voice edit buffer 54C is the same as in the third mode by pressing and releasing the key corresponding to the pitch C1. A tone tone signal obtained by adding the shift data SHT to the tone color is automatically and sequentially generated with the tone color defined by the tone color parameter in the buffer 54C, and the generation is stopped.
[0052]
On the other hand, when the performer presses a key other than the pitch C # 1 and the lower key range, the key data KD set in step 201 in FIG. 4 is set to the pitches C # 1 to SP-1. It indicates the note number to which it belongs. Therefore, in this case, “NO” is determined in step 261 of FIG. 11, “YES” is determined in step 269, and the program is advanced to step 270 and subsequent steps. The processing in step 270 is the same as the processing in step 249 in the third mode described above, and the processing in steps 263 to 268 is the same as the processing in steps 223 to 228 in the second mode.
[0053]
When the pressed key is released, the CPU 51 determines “YES” in step 441 of FIG. 17 and advances the program to steps 442 and 443 described above. The processing in these steps 442 and 443 is the same as the processing in steps 432 and 433 in the third mode described above.
[0054]
Accordingly, also in the fourth mode, the pattern data # in the pattern edit buffer 54D is determined by pressing and releasing the key corresponding to any of the pitches C # 1 to SP-1 as in the third mode. 1 to # 128, which is based on the pattern data selected in accordance with the pressed key pitch, and the pitch tone musical signal obtained by adding the shift data SHT to the note number of the pattern data is the voice edit buffer. The timbre specified by the timbre parameter in 54C is automatically and sequentially generated, and the generation is stopped.
[0055]
Further, when the performer presses a key belonging to the upper key range, the key data KD set in step 201 in FIG. 4 is equal to or higher than the note number corresponding to the pitch SP, so steps 260 and 268 in FIG. Both are determined as “NO” and the program proceeds to step 271. In step 271, the note number corresponding to the pitch SP is subtracted from the key data KD, and the subtraction result is set as the shift data SHT. For example, if the key corresponding to the pitch SP (C3) is pressed, the shift data SHT is set to “0”. If the key corresponding to the pitch SP + 1 is pressed, the shift data SHT is set to “1”. If the pressed key is released, it is determined as “NO” in step 441 in FIG. 17, and the execution of the key-off / fourth mode processing routine is ended in step 444.
[0056]
Therefore, in this fourth mode, if a key in the upper key range (pitch SP or higher) is pressed, the value of the shift data SHT is set to various values according to the pressed key. After that, if a key corresponding to the pitch C1 is pressed, a musical signal having a pitch obtained by shifting the pitch corresponding to the note number of the pattern data # 0 in the voice edit buffer 54C by the shift data SHT is automatically automatically sequentially performed. Generated. If the key corresponding to the pitch C # 1 to SP-1 is pressed, the pitch corresponding to any note number of the pattern data # 1 to # 128 in the pattern edit buffer 54D is shifted by the shift data SHT. Musical signals of the selected pitch are automatically generated sequentially. In addition, by pressing a key belonging to the pitch SP or higher while pressing a key corresponding to the pitches C1 to SP-1, it is possible to change a pitch to be shifted while pitch data is sequentially generated. .
[0057]
Next, operations for editing various data in the voice data library 54A, the pattern data library 54B, the voice edit buffer 54C, and the pattern edit buffer 54D will be described.
[0058]
The performer operates the cursor movement operator group 26 and the other operator group 27 and uses the display on the display 28 to set the electronic musical instrument to the tone parameter editing state, and then the numeric keypad operator group. When a part of the timbre parameter is designated by the user 22 or the other operator group 27 and the parameter value is inputted, the CPU 51 executes the timbre parameter edit processing routine of FIG. This tone color parameter edit processing routine includes steps 500 to 502, and the specified tone color parameter value in the voice edit buffer 54C is rewritten to the input parameter value by the processing of step 501. Thereby, the tone of the performance sound by the keyboard 10 and the automatic performance sound based on the pattern data # 0 to # 128 can be variously changed.
[0059]
The performer sets the electronic musical instrument to the mode data edit state by the same operation as described above, and then operates the numeric key operator group 22 or the other operator group 27 to operate the first to fourth modes. When any one of these is designated, the CPU 51 executes the mode edit processing routine of FIG. This mode edit processing routine includes steps 510 to 512, and the mode data in the voice edit buffer 54C is rewritten to the designated mode number by the processing of step 511. As a result, the use state of the keyboard 10 can be selected from the first to fourth modes described above corresponding to the selected tone color (selected voice).
[0060]
In addition, the performer sets the electronic musical instrument to the pattern select data editing state by the same operation as described above, and then inputs the pattern select number by operating the numeric key operator group 22 or the other operator group 27. Then, the CPU 51 executes the pattern select data editing process routine of FIG. This pattern select data edit processing routine includes steps 520 to 522, and the pattern select data in the voice edit buffer 54C is rewritten to the input pattern select number by the processing of step 521. As a result, in the third or fourth mode described above, any pattern data in the pattern edit buffer 54D can be selected corresponding to the selected tone color (selected voice).
[0061]
When the performer sets the electronic musical instrument to the step data edit state by the same operation as described above, the CPU 51 repeatedly executes the step data edit processing routine of FIG. The repetitive execution of this step data edit processing routine is stopped by releasing the step data edit state.
[0062]
In this step data edit processing routine, the pattern number PTN for designating pattern data is the above-described step 104 in FIG. 6, step 212 in FIG. 8, step 222 in FIG. 9, steps 242 and 249 in FIG. 11 in steps 262 and 270.
[0063]
The execution of the step data edit processing routine is started at step 530, and whether or not any one of the step operators 21-1, 21-2,... 21-16 is operated at step 531 is determined. judge. This determination is detected by comparing the previous rotational position and the current rotational position for each step operator, so that both positions have changed. If any one of the step operators 21-1, 21-2,..., 21-16 is operated, “YES” is determined in the step 531 and the CPU 51 in step 532 Step data in the pattern data designated by the pattern number PTN among the pattern data # 0 in the edit buffer 54C and the pattern data # 1 to # 128 in the pattern edit buffer 54D, the first to sixteenth step data The note numbers in the step data corresponding to the operated step operators 21-1, 21-2... 21-16 are changed to the note numbers corresponding to the rotational positions of the operated step operators. . In step 533, the edit flag FLG (PTN) designated by the pattern number PTN is set to “1”, and the program proceeds to steps 534 and 535. If none of the step operators 21-1, 21-2,... 21-16 is operated, the program proceeds to steps 534 and 535 based on the determination of “NO” in step 531.
[0064]
In steps 534 and 535, step length change processing and gate time change processing are executed. In this case, when the performer operates the cursor movement operator group 26 and the other operator group 27 and inputs the step length and the gate time of any of the first to sixteenth step data, the steps 534 and 535 are performed. As a result of the above processing, the step length and gate time in the pattern data designated by the pattern number PTN among the pattern data # 0 in the voice edit buffer 54C and the pattern data # 1 to # 128 in the pattern edit buffer 54D are respectively described above. Change to the entered value. In these steps 534 and 535, when the step length or the gate time is changed, the edit flag FLG (PTN) designated by the pattern number PTN is set to “1”. In step 536, the execution of the step data edit processing routine is terminated.
[0065]
Thus, in the first to fourth modes, various pattern data # 0 in the voice edit buffer 54C and any pattern data # 1 to # 128 in the pattern edit buffer 54D are associated with the selected tone color. Can be changed.
[0066]
Next, an operation for returning the voice data group in the voice edit buffer 54C to the voice data library 54A will be described. When the performer operates the voice store operator 23, the CPU 51 starts executing the voice store processing routine in step 600 of FIG. 22, and in step 601, all the data (tone parameters, modes) in the voice edit buffer 54C are started. Data, pattern select data, and pattern data # 0) are returned to the voice data library 54A. That is, the voice data group currently stored in the buffer 54C is written in the storage location in the voice data library 54A where the voice data group in the voice edit buffer 54C was previously stored. As a result, the voice data group in the voice data library 54A is variously edited.
[0067]
After the processing in step 601, it is determined in step 602 whether the mode data in the voice edit buffer 54C represents the third or fourth mode. If the data does not represent the third or fourth mode, “NO” is determined in step 602, and the execution of this voice store routine is ended in step 609.
[0068]
On the other hand, if the mode data represents the third or fourth mode, the program proceeds to Steps 603 to 607 under the determination of “YES” in Step 602. In the processing of these steps 603 to 607, the variable i is sequentially incremented by “1” from “1” to “128”, whereby the pattern designated by the variable i whose edit flag FLG (i) is “1”. The pattern data #i in the edit buffer 54D is changed to the pattern data #i specified by the variable i in the pattern data library 54A. Thus, when the electronic musical instrument is set to the third or fourth mode and the step length data and any of the first to sixteenth step data are changed, the pattern includes the changed data. Only the data is rewritten as the corresponding pattern data in the pattern data library 54B, and rewriting of the pattern data in the other pattern data library 54B is omitted.
[0069]
According to this, only necessary data rewriting is performed, and the processing time for rewriting the pattern data can be shortened. Further, the pattern data rewrite condition in the case of the third or fourth mode is that the mode data is changed from the mode number representing the third or fourth mode to the first or second mode by the mode editing process of FIG. Except when the voice store operator 23 is operated immediately after the mode number is changed, the pattern number PTN for designating the pattern data to be edited is “1” to “ This is because the pattern data # 1 to # 128 in the pattern edit buffer 54D is not designated. It should be noted that the pattern data in the pattern data library 54B is not changed when the voice store operator 23 is operated immediately after the change from the third or fourth mode to the first or second mode.
[0070]
After the processing in steps 603 to 607, in step 608, edit flags FLG (1) to FLG (128) indicating changes in pattern data # 1 to # 128 in the pattern edit buffer 54D are all initialized to “0”. In step 609, the execution of this voice store routine is terminated. According to this, the pattern data # 1 to # 128 of the pattern data library 54B can be changed to a desired value.
[0071]
If the performer performs any tone selection operation before operating the voice store operator 23, the stored contents of the voice edit buffer 54C and the pattern edit buffer 54D are stored by the tone selection processing shown in FIG. All of them are discarded, and the voice data group and pattern data groups # 1 to # 128 corresponding to the newly selected tone color are copied from the voice data library 54A and the pattern data library 54B. Therefore, if you do not like the edited data, you can reselect one of the timbres (which may be the same as or different from the previously selected timbre).
[0072]
In the electronic musical instrument, any one of the pattern data # 1 to # 128 in the pattern data library 54B is transferred to the voice edit buffer 54C and used, or the above-described editing process is performed on the transferred pattern data. On the contrary, the pattern data # 0 in the voice edit buffer 54C can be stored as one of the pattern data # 1 to # 128 in the pattern data library 54B. In the former case, the performer operates the cursor movement operator group 26 and the other operator group 27 and designates the pattern number using the display on the display 28, and then the pattern load operator 24 is displayed. When the ON operation is performed, the CPU 51 executes a pattern load processing routine including steps 610 to 612 in FIG. In step 611, the pattern data # 1 to # 128 in the pattern data library 54B and the pattern data designated by the pattern number is read out and stored as the pattern data # 0 in the voice edit buffer 54C.
[0073]
Also in the latter case, when the pattern save operator 25 is turned on after the pattern number is designated in the same manner as described above, the CPU 51 executes the pattern save processing routine including steps 620 to 622 in FIG. In step 621, the pattern data # 0 in the pattern edit buffer 54C is read out and stored as pattern data # 1 to # 128 in the pattern data library 54B specified by the pattern number. . This makes it possible to more efficiently edit various pattern data.
[0074]
Next, various modifications of the above embodiment of the present invention will be described.
(1) In the above embodiment, an automatic performance consisting of 16 steps of a fixed length is started by pressing a predetermined key on the keyboard 10, and the automatic performance is repeatedly performed during the key pressing, and a key release operation is performed. The automatic performance was stopped. However, the note length data may be stored for each note number and the step length may be made different, or the number of steps may be other than 16. Further, instead of repeatedly performing an automatic performance of 16 steps during key pressing, the automatic performance may be terminated after performing an automatic performance of 16 steps once. Further, after the key is pressed, the automatic performance is repeated regardless of the key release, and the automatic performance is stopped by another switch operation, or whether the performer stops the automatic performance by the key release. May be selected, or data representing the automatic performance stop condition may be stored in the voice data group in correspondence with the tone color.
[0075]
(2) In the above embodiment, when another pattern is designated during the reproduction of one pattern, the automatic performance by the previous pattern is also reproduced at the same time as the newly designated pattern. The automatic performance by the pattern may be terminated and the automatic performance by the newly designated pattern may be started.
[0076]
(3) In the above embodiment, each step data is composed of a note number and a gate time. However, velocity data representing the strength of sound may be included in each step data. Further, step data is not constituted by such note number, gate time, etc., but waveform data representing the musical tone waveform itself is stored instead of step data, and the waveform data is stored by pressing and releasing the keyboard 10. You may make it reproduce | regenerate sequentially.
[0077]
(4) In the above embodiment, the note number of the pattern data is obtained by pressing the pitches C # 1 to SP-1 in the second mode and pressing the pitch SP or higher in the fourth mode. Although the shift data SHT has a value of “0” or more, the shift data SHT may have a negative value.
[0078]
(5) In the above embodiment, the step data can be edited only when the step data edit state is set. While any pattern is selected and reproduced by pressing the key, It may be possible to freely perform the selection and editing of the pattern being reproduced.
[0079]
(6) In the above embodiment, each voice data group includes a plurality of timbre parameters for determining the timbre of the musical tone signal. However, each voice data group includes only the timbre number, and the same timbre A plurality of timbre parameters specified by numbers may be stored in a timbre parameter library provided separately. In this case, only the timbre number is transferred as voice data between the voice data library 54A and the voice edit buffer 54C, and the timbre parameter is transferred from the timbre parameter library according to the timbre number when the timbre parameter is transferred to the musical tone signal generating circuit 60. The timbre parameter may be read and transferred. When editing the timbre parameters, the timbre parameters in the timbre parameter library may be edited simultaneously with the timbre number in the voice edit buffer 54C.
[0080]
(7) Technology for selectively outputting or editing a voice data group in the voice data library 54A and a pattern data group in the pattern data library 54B according to the above-described embodiment in association with a timbre parameter (tone color control data group). Can be widely used in technologies relating to generation of musical tone signals and control of musical tone elements of the generated musical tone signals. That is, the timbre parameters and pattern select data (actually data other than patterns) stored in the voice data library 54A are the same as in the above embodiment, and the voice data library 54A and the pattern data library 54B are stored. In place of the stored pattern data, the signal waveform of the generated tone signal is stored, and the pitch, volume, and effect added to the tone signal are related to the tone. A set of control data groups may be stored, and the plurality of sets of control data groups may be edited and output as in the above embodiment.
[0081]
(8) In the above embodiment, the voice data library 54A and the pattern data library 54B are provided in the RAM 54. However, some of them may be stored in the ROM 53. Further, a part or all of the data constituting the libraries 54A and 54B is stored in a large-capacity recording medium 74 such as a hard disk or an optical disk, or is stored in a portable recording medium 75 such as a flexible disk or a compact disk. The data may be stored, and the CPU 51 may directly read the data or use the data after transferring it to the RAM 54 once. Further, the data is supplied to the RAM 54 or the recording media 74 and 75 from the other device 76 or the server computer 78 via the midi interface 72 or the communication interface 73, and used after being stored in the RAM 54 or the recording media 74 and 75. You may make it do. Furthermore, part or all of the data may be supplied to another device 76 or server computer 78 via the midi interface 72 or the communication interface 73, respectively.
[0082]
(9) The programs corresponding to the flowcharts of FIGS. 6 to 24 are recorded in the recording media 74 and 75, and the program recorded in the recording media 74 and 75 is directly read out or stored in the RAM 53. It may be used after being transferred once. Further, the program is supplied to the RAM 54 or the recording media 74 and 75 from the other device 76 or the server computer 78 via the midi interface 72 or the communication interface 73, respectively, and stored in the RAM 54 or the recording media 74 and 75. You may make it use after doing. Furthermore, the program may be supplied to another device 76 or server computer 78 via the midi interface 72 or the communication interface 73, respectively.
[0083]
(10) In the above embodiment, an example in which the present invention is applied to an electronic musical instrument having a keyboard 10 composed of a plurality of keys has been described. However, the present invention provides a plurality of performance operators that respectively control the generation of a plurality of musical sounds. Can be applied to other electronic musical instruments. Further, even if the keyboard 10, the operation panel 20, the microcomputer 50, and the musical tone signal generating circuit 60 are not integrally provided, the present invention can be applied to an electronic musical instrument in which these elements are appropriately combined and connected.
[Brief description of the drawings]
FIG. 1 is an overall block diagram schematically showing an electronic musical instrument according to an embodiment of the present invention.
FIG. 2 is a front view of the operation panel of FIG.
3A is a memory map of a voice data library provided in the RAM of FIG. 1, and FIG. 3B is a memory map of a pattern data library provided in the RAM.
4A is a memory map of a voice edit buffer in the RAM of FIG. 1, and FIG. 4B is a memory map of a pattern edit buffer provided in the RAM.
FIG. 5A is a memory map of each pattern data, and FIG. 5B is an explanatory diagram showing the relationship between step length and gate time.
6 is a flowchart of a timbre selection routine executed by the microcomputer of FIG. 1. FIG.
7 is a flowchart of a key-on process routine executed by the microcomputer of FIG.
FIG. 8 is a flowchart of a key-on / first mode processing routine of FIG. 7;
FIG. 9 is a flowchart of a key-on / second mode processing routine of FIG. 7;
FIG. 10 is a flowchart of a key-on / third mode processing routine of FIG. 7;
FIG. 11 is a flowchart of a key-on / fourth mode processing routine of FIG. 7;
12 is a flowchart of a step processing program executed by the microcomputer of FIG.
13 is a flowchart of a key-off process routine executed by the microcomputer of FIG.
FIG. 14 is a flowchart of a key-off / first mode processing routine of FIG. 7;
FIG. 15 is a flowchart of a key-off / second mode processing routine of FIG. 7;
FIG. 16 is a flowchart of a key-off / third mode processing routine of FIG. 7;
FIG. 17 is a flowchart of a key-off / fourth mode processing routine of FIG. 7;
FIG. 18 is a flowchart of a timbre parameter editing process routine executed by the microcomputer of FIG. 1;
FIG. 19 is a flowchart of a mode edit processing routine executed by the microcomputer of FIG. 1;
20 is a flowchart of a pattern select data edit processing routine executed by the microcomputer of FIG. 1. FIG.
FIG. 21 is a flowchart of a step data edit processing routine executed by the microcomputer of FIG. 1;
FIG. 22 is a flowchart of a voice store processing routine executed by the microcomputer of FIG. 1;
FIG. 23 is a flowchart of a pattern load processing routine executed by the microcomputer of FIG. 1;
FIG. 24 is a flowchart of a pattern saving process routine executed by the microcomputer of FIG. 1;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Keyboard, 11 ... Key switch circuit, 20 ... Operation panel, 21 ... Step operator group, 22 ... Numeric key operator group, 23 ... Voice store operator, 24 ... Pattern load operator, 25 ... Pattern save operator, 28 ... Display, 31 ... Operator switch circuit, 32 ... Display control circuit, 50 ... Microcomputer, 51 ... CPU, 52 ... Timer, 54 ... RAM, 54A ... Voice data library, 54B ... Pattern data library, 54C ... Voice Edit buffer, 54D ... pattern edit buffer, 60 ... musical tone signal generation circuit, 71 ... reading and writing device, 74, 75 ... recording medium.

Claims (5)

発生される楽音信号の音色を制御するための複数組の音色制御データ群を記憶した第1制御データライブラリと、
前記複数組の音色制御データ群とは異なるものであって楽音信号の発生又は発生される楽音信号を制御するための複数組の制御データ群を記憶した第2制御データライブラリと、
前記第2制御データライブラリ内の複数組の制御データ群を一時的に記憶するとともに、同複数組の制御データ群のうちの一組の制御データを楽音信号の発生又は発生される楽音信号を制御するために利用可能とする制御データバッファと、
前記複数組の音色制御データ群のいずれかを選択する音色選択手段と、
前記音色選択手段により選択された音色制御データ群を前記第1制御データライブラリから読出して出力するとともに、同音色制御データ群の読出し出力に連動して前記第2制御データライブラリ内の複数組の制御データ群を前記制御データバッファに転送する音色制御データ出力手段と、
前記制御データバッファ内の複数組の制御データ群の一部のデータをエディットするエディット手段と、
前記エディットした一部のデータを第2制御データライブラリ内であって前記一部のデータが以前に記憶されていた位置に書き込むセーブ手段と
を備えたことを特徴とする楽音制御データ発生装置。
A first control data library storing a plurality of sets of tone color control data groups for controlling the tone color of the generated tone signal;
A second control data library storing a plurality of sets of control data for controlling generation of musical tone signals or musical tone signals which are different from the plurality of sets of tone color control data groups;
A plurality of sets of control data in the second control data library are temporarily stored, and one set of control data in the plurality of sets of control data is used to generate a tone signal or control a tone signal to be generated. A control data buffer that is made available to
Timbre selection means for selecting any of the plurality of sets of timbre control data groups;
The timbre control data group selected by the timbre selection means is read out from the first control data library and output, and a plurality of sets of controls in the second control data library are interlocked with the read out output of the timbre control data group. Timbre control data output means for transferring a data group to the control data buffer;
Editing means for editing a part of data of a plurality of sets of control data in the control data buffer;
A musical sound control data generating apparatus, comprising: save means for writing the part of the edited data in a second control data library to a position where the part of the data was previously stored.
前記請求項1に記載の楽音制御データ発生装置において、
第1制御データライブラリ内に、前記第2制御データライブラリ内の複数組の制御データ群のいずれかを特定するための複数のセレクトデータを前記複数組の音色制御データ群にそれぞれ対応させて記憶しておき、
前記音色制御データ出力手段による音色制御データ群の読出し出力時に、同音色制御データ群に対応したセレクトデータを読出し、前記制御データバッファ内の複数組の制御データ群の特定のために利用可能にしたことを特徴とする楽音制御データ発生装置。
In the musical sound control data generating device according to claim 1,
In the first control data library, a plurality of select data for specifying any one of a plurality of sets of control data groups in the second control data library are stored in association with the plurality of sets of timbre control data groups, respectively. And
When the tone color control data group is read out and output by the tone color control data output means, select data corresponding to the tone color control data group is read out and can be used for specifying a plurality of sets of control data groups in the control data buffer. A musical sound control data generator characterized by the above.
発生される楽音信号の音色を制御するための複数組の音色制御データ群を記憶した第1制御データライブラリと、
前記複数組の音色制御データ群とは異なるものであって楽音信号の発生又は発生される楽音信号を制御するための複数組の制御データ群を記憶した第2制御データライブラリと、
前記第1制御データライブラリ内の複数組の音色制御データ群のうちの一組の音色制御データ群を一時的に記憶するとともに、同一組の音色制御データ群を発生される楽音信号の音色を制御するために利用可能とする第1制御データバッファと、
前記第2制御データライブラリ内の複数組の制御データ群を一時的に記憶するとともに、同複数組の制御データ群のうちの一組の制御データを楽音信号の発生又は発生される楽音信号を制御するために利用可能とする第2制御データバッファと、
前記複数組の音色制御データ群のいずれかを選択する音色選択手段と、
前記音色選択手段により選択された音色制御データ群を前記第1制御データライブラリから前記第1制御データバッファに転送するとともに、同音色制御データ群の転送に連動して前記第2制御データライブラリ内の複数組の制御データ群を前記第2制御データバッファに転送する転送手段と、
前記第1及び第2制御データバッファ内のデータの一部をエディットするエディット手段と、
前記第1制御データバッファ内の音色制御データ群を前記第1制御データライブラリ内であって同音色制御データ群が以前に記憶されていた位置に書き込むとともに、前記音色制御データ群の書き込みに連動して前記第2制御データバッファ内のエディットされた制御データを前記第2制御データライブラリ内であって同制御データが以前に記憶されていた位置に書き込むセーブ手段と
を備えたことを特徴とする楽音制御データ発生装置。
A first control data library storing a plurality of sets of tone color control data groups for controlling the tone color of the generated tone signal;
A second control data library storing a plurality of sets of control data for controlling generation of musical tone signals or musical tone signals which are different from the plurality of sets of tone color control data groups;
Temporarily storing one set of timbre control data groups out of a plurality of sets of timbre control data groups in the first control data library, and controlling the timbre of musical tone signals generated from the same set of timbre control data groups A first control data buffer that is made available to
A plurality of sets of control data in the second control data library are temporarily stored, and one set of control data in the plurality of sets of control data is used to generate a tone signal or control a tone signal to be generated. A second control data buffer that is made available to
Timbre selection means for selecting any of the plurality of sets of timbre control data groups;
The timbre control data group selected by the timbre selection means is transferred from the first control data library to the first control data buffer, and in the second control data library in conjunction with the transfer of the timbre control data group. Transfer means for transferring a plurality of sets of control data groups to the second control data buffer;
Editing means for editing part of the data in the first and second control data buffers;
The timbre control data group in the first control data buffer is written into the position where the timbre control data group was previously stored in the first control data library, and linked to the writing of the timbre control data group. And a save means for writing the control data edited in the second control data buffer in the second control data library in a position where the control data was previously stored. Control data generator.
前記請求項3に記載の楽音制御データ発生装置において、
前記第1制御データライブラリ内に、前記第2制御データライブラリ内の複数組の制御データ群のいずれかを特定するための複数のセレクトデータを前記複数組の音色制御データ群にそれぞれ対応させて記憶しておき、
前記第1制御データバッファも前記音色制御データ群と同音色制御データ群に対応したセレクトデータを一時的に記憶可能とするとともに利用可能としておき、
前記転送手段は、前記音色制御データ群と共に同音色制御データ群に対応したセレクトデータを前記第1制御データライブラリから前記第1制御データバッファに転送するとともに、
前記セーブ手段は、前記音色制御データ群と共にセレクトデータも前記第1制御データバッファから前記第1制御データライブラリ内であって同セレクトデータが以前記憶されていた位置に書き込むようにしたことを特徴とする楽音制御データ発生装置。
In the musical sound control data generating device according to claim 3,
In the first control data library, a plurality of select data for specifying any one of a plurality of sets of control data groups in the second control data library are stored in association with the plurality of sets of timbre control data groups, respectively. Aside,
The first control data buffer is also capable of temporarily storing and using select data corresponding to the tone color control data group and the tone color control data group,
The transfer means transfers select data corresponding to the tone color control data group together with the tone color control data group from the first control data library to the first control data buffer.
The save means writes the selection data together with the timbre control data group from the first control data buffer in the first control data library in the position where the selection data was previously stored. Musical sound control data generator.
前記請求項1〜4に記載の楽音制御データ発生装置において、前記第2制御データライブラリ及び第2制御データバッファに記憶されている制御データ群を複数組の異なる自動演奏音信号列を発生させるためのパターンデータで構成したことを特徴とする楽音制御データ発生装置。5. The musical tone control data generating apparatus according to claim 1, wherein the control data group stored in the second control data library and the second control data buffer is used to generate a plurality of different automatic performance sound signal sequences. A musical sound control data generating device characterized by comprising pattern data of
JP2002270624A 2002-09-17 2002-09-17 Musical sound control data generator Expired - Fee Related JP3758041B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002270624A JP3758041B2 (en) 2002-09-17 2002-09-17 Musical sound control data generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002270624A JP3758041B2 (en) 2002-09-17 2002-09-17 Musical sound control data generator

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP09942397A Division JP3397078B2 (en) 1997-04-16 1997-04-16 Electronic musical instrument

Publications (2)

Publication Number Publication Date
JP2003099040A JP2003099040A (en) 2003-04-04
JP3758041B2 true JP3758041B2 (en) 2006-03-22

Family

ID=19196921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002270624A Expired - Fee Related JP3758041B2 (en) 2002-09-17 2002-09-17 Musical sound control data generator

Country Status (1)

Country Link
JP (1) JP3758041B2 (en)

Also Published As

Publication number Publication date
JP2003099040A (en) 2003-04-04

Similar Documents

Publication Publication Date Title
JP4321476B2 (en) Electronic musical instruments
JP2012093491A5 (en)
JP3838353B2 (en) Musical sound generation apparatus and computer program for musical sound generation
JP5724231B2 (en) Electronic music apparatus and program
JP3551087B2 (en) Automatic music playback device and recording medium storing continuous music information creation and playback program
JP3551842B2 (en) Arpeggio generation device and its recording medium
JP3398554B2 (en) Automatic arpeggio playing device
JP3397078B2 (en) Electronic musical instrument
JP3758041B2 (en) Musical sound control data generator
JP3649014B2 (en) Performance data file playback setting control device
JP4835434B2 (en) Performance pattern playback device and computer program therefor
JP3669335B2 (en) Automatic performance device
JP4214845B2 (en) Automatic arpeggio device and computer program applied to the device
JP2641851B2 (en) Automatic performance device
JP4803043B2 (en) Musical sound generating apparatus and program
JP4803042B2 (en) Musical sound generating apparatus and program
JP4402853B2 (en) Performance data generation method and electronic keyboard instrument
JP3757664B2 (en) Performance information reproducing apparatus and computer-readable recording medium recording performance information reproducing program
JP2947150B2 (en) Automatic performance device
JP3324318B2 (en) Automatic performance device
JPH11219175A (en) Automatic music playing device
JP2591308B2 (en) Automatic performance device
JP4205563B2 (en) Performance device, performance method, and computer program for performance
JP3690174B2 (en) Music generator
JP3303754B2 (en) Tone control data generation device, recording medium storing a program for generating tone control data, and tone control data generation method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051220

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100113

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110113

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120113

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130113

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140113

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees