JP3702690B2 - Automatic performance control data input device - Google Patents

Automatic performance control data input device Download PDF

Info

Publication number
JP3702690B2
JP3702690B2 JP02282499A JP2282499A JP3702690B2 JP 3702690 B2 JP3702690 B2 JP 3702690B2 JP 02282499 A JP02282499 A JP 02282499A JP 2282499 A JP2282499 A JP 2282499A JP 3702690 B2 JP3702690 B2 JP 3702690B2
Authority
JP
Japan
Prior art keywords
performance
control data
input device
icon
note
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP02282499A
Other languages
Japanese (ja)
Other versions
JP2000221975A (en
Inventor
秀雄 鈴木
真雄 坂間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP02282499A priority Critical patent/JP3702690B2/en
Priority to EP00101249A priority patent/EP1028409B1/en
Priority to DE60018626T priority patent/DE60018626T2/en
Priority to US09/492,435 priority patent/US6362411B1/en
Publication of JP2000221975A publication Critical patent/JP2000221975A/en
Application granted granted Critical
Publication of JP3702690B2 publication Critical patent/JP3702690B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、予め記憶されている自動演奏データに後からピッチ、ボリューム音色などの演奏効果に関する制御データを付与したり編集したりすることのできる自動演奏の制御データ入力装置に関する。
【0002】
【従来の技術】
従来、ピッチベンドやボリュームなどの連続的に時間変化する制御データ(コンティニュアスデータ)を入力するものとして、特開平9−6346号公報に記載されたものがある。これは、楽器種類毎に楽音の立上りから立下りまでに対応する制御データ列からなる制御データテンプレートを予め複数記憶しておき、これらの制御データテンプレートの中から所望のものを選択して、自動演奏データ中に入力するようにしたものである。
【0003】
【発明が解決しようとする課題】
ところが、従来のものは楽器種類毎に演奏や奏法に対応したテンプレートを予め記憶しているが、そのテンプレートは楽器の特徴を表現可能なように模式的に表現されたものであり、実際の楽器の特徴を必ずしも忠実に再現したものではなかった。従って、操作者はギターの奏法に対応したテンプレートを付与したつもりでも、実際に自動演奏データを再生してみたら、その演奏や奏法が操作者の意図したものではなかったり、また自然楽器の演奏や奏法とは程遠いものであり、自然楽器と同等の高品質な演奏や奏法を行うことのできる制御データを付与することはできなかった。
【0004】
本発明は、所望の楽器演奏や奏法に対応したテンプレートを選択して付与するだけで、自然楽器と同等の高品質な演奏表現を自動演奏データに付与することのできる自動演奏の制御データ入力装置を提供することを目的とする。
【0005】
【課題を解決するための手段】
求項1に記載された本発明に係る自動演奏の制御データ入力装置は、有棹撥弦楽器の種々の奏法から抽出された発音状態の変化に関する制御データを楽音波形の立上りから立下りまでの部分で分類して構成し、複数記憶するデータ記憶手段と、前記データ記憶手段の中からいずれかの制御データを選択する制御データ選択手段と、曲データを記憶する曲データ記憶手段と、前記曲データの中からいずれかの音符データを選択する音符データ選択手段と、音符データ選択手段によって選択された前記音符データを前記制御データ選択手段によって選択された前記制御データに基づいて変化させるように前記曲データに前記制御データを付与する制御手段とを具備するものである。制御データは実際の有棹撥弦楽器(ギター、ベースなど)の楽音波形から抽出されたものであり、種々の奏法に基づいたものがデータ記憶手段に多数記憶されている。従って、所望の制御データを選択し、それを音符データに付与するだけで、自然楽器と同等の高品質の演奏や奏法を実現することができる。また、制御データを1つの音符データに対応する楽音波形の立上りから立下りまでの一連の発音状態の変化データとして構成するのではなく、楽音波形の立上りから立下りまでの部分で分類してそれぞれに異なる制御データとして構成したことを特徴としている。また、これによって楽音波形の立上りから立下りまでの一連の発音状態を高精度に制御することができるので、自然楽器と同等の高品質の演奏や奏法を実現することができる。
【0006】
出願時の請求項2に記載された本発明に係る自動演奏の制御データ入力装置は、前記請求項1に記載の自動演奏の制御データ入力装置の一実施態様として、前記制御データをギターやベースで演奏可能なチョーキング奏法、グリスアップ奏法、グリスダウン奏法、ビブラート奏法、ベンドダウンアップ奏法、ショートカット奏法、ミュート奏法、ハンマリングオン奏法、プリングオフ奏法、スライドアップ奏法、スライドダウン奏法、クレシェンド奏法、デクレシェンド奏法などの少なくとも一つに基づいて実際に演奏された楽器の楽音波形から抽出されたもので構成したものである。これは、有棹撥弦楽器の具体例としてギターやベースなどで演奏可能な種々の奏法を列記し、その奏法における演奏時の楽音波形から抽出したもので制御データを構成したものである。
【0007】
求項3に記載された本発明に係る自動演奏の制御データ入力装置は、前記請求項1又は2に記載の自動演奏の制御データ入力装置の一実施態様として、前記制御データを種々の奏法に基づいたギター又はベースの楽音波形の立上りから立下りまでの発音状態の変化をアタック部、ボディ部及びリリース部の各部分に分類して構成したものである。
【0008】
求項4に記載された本発明に係る自動演奏の制御データ入力装置は、前記制御データは、種々の奏法に基づいた有棹撥弦楽器の楽音波形の立上りから立下りまでの発音状態の変化アタック部、ボディ部及びリリース部の各部分に分類して構成したものであることを特徴とする。
【0009】
出願時の請求項5に記載された本発明に係る自動演奏の制御データ入力装置は、前記請求項3又は4に記載の自動演奏の制御データ入力装置の一実施態様として、前記制御データをさらにギター又はベースで演奏可能な複数音符に依存する全体奏法に関するもの、音符と音符の組み合わせに関するものの少なくとも一つを含んで構成したものである。楽音波形の立上りから立下りまでの一連の発音状態に関する制御データ以外に、クレシェンドやデクレシェンドのように複数音符に依存する全体奏法に関するもの、テヌートやスラーなどのように音符と音符の組み合わせに関するものについても制御データを付加できるようにした。なお、これらの制御データも実際に演奏された楽器の楽音波形から抽出することによってより高品質の演奏や奏法を実現することができる。
【0010】
出願時の請求項6に記載された本発明に係る自動演奏の制御データ入力装置は、前記請求項4又は5に記載の自動演奏の制御データ入力装置の一実施態様として、前記制御データをギター又はベースで演奏可能なチョーキング奏法、グリスアップ奏法、グリスダウン奏法、ビブラート奏法、ベンドダウンアップ奏法、ショートカット奏法、ミュート奏法、ハンマリングオン奏法、プリングオフ奏法、スライドアップ奏法、スライドダウン奏法、クレシェンド奏法、デクレシェンド奏法などの少なくとも一つに基づいたもので構成したものである。これは、ギターやベースなどの有棹撥弦楽器で演奏可能な種々の奏法を列記し、その奏法毎に制御データを構成するようにしたものである。
【0011】
出願時の請求項7から15に記載された本発明に係る自動演奏の制御データ入力装置は、前記請求項2又は6に記載の自動演奏の制御データ入力装置の一実施態様として、各制御データが各奏法の何に基づいて複数抽出されたものであるかを具体的に示している。チョーキング奏法は速さ及び深さの少なくとも一つに基づいている。グリスダウン奏法及びグリスアップ奏法は速さに基づいている。ビブラート奏法は速さ、深さ及びビブラート長の少なくとも一つに基づいている。
ベンドダウンアップ奏法は速さ及び深さの少なくとも一つに基づいている。ショートカット奏法は速さに基づいている。ミュート奏法は速さに基づいている。ハンマリングオン奏法は速さ及び音高の少なくとも一つに基づいている。プリングオフ奏法は速さ及び音高の少なくとも一つに基づいている。スライドアップ奏法及びスライドダウン奏法は速さ及び音高の少なくとも一つに基づいている。
【0012】
出願時の請求項16に記載された本発明に係る自動演奏の制御データ入力装置は、前記請求項1から15までのいずれか1に記載の自動演奏の制御データ入力装置の一実施態様として、前記制御データをアンプリチュードの変化に関するもの、ピッチの変化に関するもの、及びフォルマントの変化に関するものの中の少なくとも一つに基づいて構成したものである。実際に演奏された楽器の楽音波形の立上りから立下りまでの一連の発音状態の変化は、そのアンプリチュード、ピッチ、フォルマント(フィルタのQ及びカットオフ周波数)の時間的な変化をパラメータとして順次記憶することによって抽出することができる。そこで制御データをこれらの少なくとも一つに基づいて構成することによって、この制御データの付与された音符データの発音を高品質の演奏や奏法に基づいたものとすることができる。
【0013】
求項17に記載された本発明に係る記録媒体は、発音状態の変化に関する制御データを曲データ中のいずれかの音符データに付与することによって、その音符データの発音状態を前記制御データに基づいて変化させる自動演奏の制御データ入力装置に使用される機械読取り可能な記録媒体であって、有棹撥弦楽器の種々の奏法から抽出された発音状態の変化に関する制御データを楽音波形の立上りから立下りまでの部分で分類して構成し、複数記憶したデータベースを具備することを特徴とするものである。これは、求項1に記載の自動演奏の制御データ入力装置に使用される記録媒体に関するものである。
【0014】
求項18に記載された本発明に係る記録媒体は、前記制御データは、種々の奏法に基づいた有棹撥弦楽器の楽音波形の立上りから立下りまでの発音状態の変化アタック部、ボディ部及びリリース部の各部分に分類して構成したものであることを特徴とする。これは、求項4に記載の自動演奏の制御データ入力装置に使用される記録媒体に関するものである。
【0015】
【発明の実施の形態】
以下、添付図面を参照してこの発明の実施の形態を詳細に説明する。図2はこの発明に係る自動演奏の制御データ入力装置を内蔵した自動演奏装置全体のハード構成を示すブロック図である。自動演奏装置は、CPU21によって制御される。CPU21にはデータ及びアドレスバス2Pを介してプログラムメモリ(ROM)22、ワーキングメモリ(RAM)23、外部記憶装置24、操作子検出回路25、通信インターフェイス27、MIDIインターフェイス2A、鍵盤検出回路2F、表示回路2H、音源回路2J及び効果回路2Kが接続されている。
自動演奏装置はこれら以外のハードウェアを有する場合もあるが、ここでは、必要最小限の資源を用いた場合について説明する。
【0016】
CPU21はプログラムメモリ22及びワーキングメモリ23内の各種プログラムや各種データ(自動演奏データや奏法パラメータなど)、及び外部記憶装置24から取り込んだ各種データに基づいた処理を行う。この実施の形態では、外部記憶装置24としては、フロッピーディスクドライブ、ハードディスクドライブ、CD−ROMドライブ、光磁気ディスク(MO)ドライブ、ZIPドライブ、PDドライブ、DVDなどが用いられる。また、MIDIインターフェイス2Aを介して他のMIDI機器2Bなどから楽曲情報などを取り込んでもよい。CPU21は、このような外部記憶装置24から取り込まれた楽曲情報を音源回路2Jに供給し、外部のサウンドシステム2Lを用いて発音する。
【0017】
プログラムメモリ22はCPU21のシステム関連のプログラム、各種のパラメータやデータなどを記憶しているものであり、リードオンリメモリ(ROM)で構成されている。ワーキングメモリ23はCPU21がプログラムを実行する際に発生する各種のデータを一時的に記憶するものであり、ランダムアクセスメモリ(RAM)の所定のアドレス領域がそれぞれ割り当てられ、レジスタやフラグ等として利用される。また、前記ROM22に動作プログラム、各種データなどを記憶させる代わりに、CD−ROMドライブ等の外部記憶装置24に各種データ及び任意の動作プログラムを記憶していてもよい。外部記憶装置24に記憶されている動作プログラムや各種データは、RAM23等に転送記憶させることができる。これにより、動作プログラムの新規のインストールやバージョンアップを容易に行うことができる。
【0018】
なお、通信インターフェイス27を介してLAN(ローカルエリアネットワーク)やインターネット、電話回線などの種々の通信ネットワーク28上に接続可能とし、他のサーバコンピュータ29との間でデータ(データ付き楽曲情報等)のやりとりを行うようにしてもよい。これにより、サーバコンピュータから動作プログラムや各種データをダウンロードすることもできる。この場合、クライアントとなるパーソナルコンピュータから、通信インターフェイス27及び通信ネットワーク28を介してサーバコンピュータ29に動作プログラムや各種データのダウンロードを要求するコマンドを送信する。サーバコンピュータ29は、このコマンドに応じて、所定の動作プログラムやデータなどを、通信ネットワーク28を介して他のパーソナルコンピュータに送信したりする。パーソナルコンピュータでは、通信インターフェイス27を介してこれらの動作プログラムやデータなどを受信して、RAM23等に格納する。これによって、動作プログラム及び各種データなどのダウンロードが完了する。
【0019】
なお、本発明は、本発明に対応する動作プログラムや各種データをインストールしたパーソナルコンピュータ等によって、実施させるようにしてもよい。その場合には、本発明に対応する動作プログラムや各種データなどを、CD−ROMやフロッピーディスク等の、電子楽器が読み込むことができる記憶媒体に記憶させた状態で、ユーザーに提供してもよい。
【0020】
操作子手段26は各種パラメータ設定用のキーやスイッチなどであり、この実施の形態では、便宜上、表示器26の内容に応じて機能が変化するファンクションキーやマウスを例に説明する。操作子検出回路25はこの操作子手段26上の各スイッチ、キー、マウスの操作状態及び操作状況を検出し、それをデータ及びアドレスバス2P上に出力する。鍵盤2Eは、発音すべき楽音の音高を選択するための複数の鍵を備えたものであり、マニュアル演奏時に使用されると共に、その操作に応じた自動演奏データを入力する入力キーとしても使用される。鍵盤検出回路2Fは、鍵盤2Eのそれぞれの鍵に対応して設けられたキースイッチ回路を含むものであり、鍵盤2Eの押鍵や離鍵を検出してキーオン又はキーオフイベントやノートナンバを出力する。表示回路2Hは表示器2Gの表示内容を制御するものである。表示器2Gは液晶表示パネル(LCD)等から構成され、表示回路2Hによってその表示動作を制御される。
【0021】
音源回路2Jは、複数チャンネルで楽音信号の同時発生が可能であり、データ及びアドレスバス2P、MIDIインターフェイス2Aを経由して与えられた楽曲情報(MIDIファイル)を入力し、この情報に基づき楽音信号を発生する。
音源回路2Jにおいて複数チャンネルで楽音信号を同時に発音させる構成としては、1つの回路を時分割で使用することによって複数の発音チャンネルを形成するようなものや、1つの発音チャンネルが1つの回路で構成されるような形式のものであってもよい。また、音源回路2Jにおける楽音信号発生方式はいかなるものを用いてもよい。音源回路2Jから出力される楽音信号はアンプ及びスピーカからなるサウンドシステム2Lによって発音される。なお、音源回路2Jとサウンドシステム2Lとの間に楽音信号に種々の効果を付与する効果回路2Kが設けられている。なお、音源回路2J自体が効果回路を含んでいてもよい。タイマ2Nは時間間隔を計数したり、楽曲情報の再生時のテンポを設定したりするためのテンポクロックパルスを発生するものである。このテンポクロックパルスの周波数はテンポスイッチ(図示していない)によって調整される。タイマ2NからのテンポクロックパルスはCPU21に対してインタラプト命令として与えられ、CPU21はインタラプト処理により自動演奏時における各種の処理を実行する。
【0022】
次に、本発明に係る自動演奏の制御データ入力装置の構成について説明する。
図1は図2に示す自動演奏装置において本発明に係る自動演奏の制御データ入力装置に関するシステムプログラムが動作して、自動演奏装置が自動演奏の制御データ入力装置として動作する場合の具体的なブロック構成を示す図である。図において、表示器2G、表示回路2H及びサウンドシステム2L以外の各ブロックは図2の自動演奏装置の各デバイスの処理によって実現されるものである。入力部11は操作子手段26、鍵盤2E、他のMIDI機器2Bなどの入力デバイスのことであり、入力変換部12への入力信号、具体的にはマウスポインタによる操作に対応した信号等を出力する。入力変換部12は、この入力部11からの各入力信号を画面指定コマンドCCH、アイコン伸縮値コマンドCIC及び被音符データコマンドCNVに変換し、これらのコマンドを出力する。画面指定コマンドCCHは、マウスポインタによって指定された表示部2G上の画像情報に対応した信号であり、表示回路2H及び画像選択部13に出力される。アイコン伸縮値コマンドCICは、マウスポインタの操作によって変形された表示部2G上のアイコンの変形率すなわち伸縮値に対応した信号であり、表示回路2H及びアイコン伸縮値演算部19に出力される。被音符データコマンドCNVは、マウスポインタの操作によって指定された表示部2G上の五線譜の中の音符に対応するデータであり、表示回路2H及びノート/ベロシティ検出部1Aに出力される。
【0023】
画像選択部13は標準楽譜記号メモリ14とアイコン画像メモリ15と、これらを選択する楽器セレクタ16、ステートセレクタ17及び奏法アイコンセレクタ18を有する。画面指定コマンドCCHは、マウスポインタによって指定された画像情報の種類に応じて、画像選択部13内の楽器セレクタ16、ステートセレクタ17又は奏法アイコンセレクタ18にそれぞれ出力される。
【0024】
以下、表示部2Gにどのようにして画像が表示されるのかを説明する。図3は、表示回路2Hに取り込まれた画面指定コマンドCCHに応じて表示部2Gに表示される画像の一例を示す図である。図3の画像はチャートと呼ばれるものであり、表示回路2Hによって生成される。図3において、五線譜31にはE♭メジャーキーにおけるギターの自動演奏データが示されている。この五線譜31におけるト音記号、調号(♭)、4分音符、8分音符、4分休符、タイ記号、縦線などの各画像は標準楽譜記号メモリ14内の画像情報に基づいて作成される。この五線譜31は入力部11から入力された自動演奏データすなわちMIDIデータに基づいて、入力変換部12、画像選択部13及び表示回路2Hによって作成され、表示部2Gに表示される。五線譜31の上下には、表示中の演奏データに付加された奏法アイコンが貼付される3段の第1〜第3のレイヤ32〜34が存在する。
【0025】
第1のレイヤ32は複数音符に依存する全体奏法に関するアイコンが貼付される。この実施の形態では、クレシェンドやデクレシェンドが対応する。図3では、クレシェンドアイコンが貼付された状態が示されている。
【0026】
第2のレイヤ33には1つの音符の音高、音量、音色の変化に関するアイコンが貼付される。この実施の形態では、ベンドアップ、チョーキング、装飾アップ、装飾ダウン、クロマティックアップ、クロマティックダウン、グリスアップ、グリスダウン、スタッカート、デタッシュ、ビブラート、ベンドダウンアップ、ショートカット、ミュート、ベンドダウンなどの奏法に関するアイコンが対応する。ここで、ベンドダウン、装飾アップ、装飾ダウン及びスタッカートはサックス及びバイオリンに固有の奏法である。ミュートはバイオリン、ギター及びベースに固有の奏法である。デタッシュはバイオリンに固有の奏法である。図3では、第1小節の第1音には深さ=大、スピード=速いのベンドアップアイコンが、第2小節の第1音には2音アップするような奏法を行う装飾アップアイコンが貼付された状態が示されている。
【0027】
第3のレイヤ34には音符と音符の組み合わせに関するアイコンが貼付される。この実施の形態では、テヌート、スラー、ハンマリングオン、プリングオフ、スライドアップ、スライドダウンなどが対応する。ここで、テヌート及びスラーはサックス及びバイオリンに固有の奏法であり、ハンマリングオン、プリングオフ及びスライドアップ(ダウン)はギター及びベースに固有の奏法である。図3では、第1小節の全ての音符にスラーアイコンが貼付された状態が示されている。
【0028】
さらに、図3のチャートの下側には、五線譜31上の各音(演奏データ)にアーティキュレーションを付加するための奏法アイコンを表示するウインドウが存在する。一番外側のウインドウ35は楽器種類を表すものであり、対応するタブをクリックすることによっていずれかの楽器種類が選択可能である。この実施の形態では、楽器種類として、サックス、ギター(図ではGuitrと表記)、ベース、バイオリン(図ではViolnはと表記)の4種類の楽器の奏法についてアーティキュレーションを付加する場合について説明する。マウスポインタの操作によって所定のタブがクリックされると、入力部11からの入力信号に基づいて、入力変換部12から対応する楽器種類を示す画面指定コマンドCCHが表示回路2H及び画像選択部13の楽器セレクタ16に出力される。図では、ギターのタブがクリックされた状態が示されている。
【0029】
2番目のウインドウ36は奏法のステートを表すものであり、対応するタブをクリックすることによっていずれかのステート種類が選択可能である。図では、ステート種類として、アタック(図ではAtackと表記)、ボディー、リリース(図ではRelesと表記)、オール、ジョイントの5種類が表示されている。アタック、ボディー及びリリースの各ステートは、1つの音符の発音過程をアタック、ボディー及びリリースの3つに分割した場合の各部分に対応するものであり、第2のレイヤ33に貼付される。オールは、複数音符に影響を与えるものであり、第1のレイヤ32に貼付される。ジョイントは、音符と音符の組み合わせに関するものであり、第3のレイヤ34に貼付される。マウスポインタの操作によって所定のタブがクリックされると、入力部11からの入力信号に基づいて、入力変換部12から対応するステートを示す画面指定コマンドCCHが表示回路2H及び画像選択部13のステートセレクタ17に出力される。図では、アタックのタブがクリックされた状態が示されている。
【0030】
最も内側のウインドウ37は奏法の種類を表すものであり、対応するタブをクリックすることによって、その楽器種類及びステートにおける奏法種類に対応した奏法アイコンが表示されるので、その中から所望の奏法アイコンを選択することができるようになっている。図では、ステートがアタックの場合の奏法種類として、ベンドアップ(図ではBndUpと表記)、グリスアップ(図ではGlsUpと表記)、グリスダウン(図ではGlsDnと表記)の3種類が表示されている。マウスポインタの操作によって所定のタブがクリックされると、入力部11からの入力信号に基づいて、入力変換部12から対応する奏法種類を示す画面指定コマンドCCHが表示回路2H及び画像選択部13の奏法アイコンセレクタ18に出力される。図では、ベンドアップのタブがクリックされた状態が示されている。従って、奏法種類がベンドアップの場合における4種類の奏法アイコン38〜3Bが表示されている。奏法アイコン38〜3Bはベンドアップの深さ(深い、浅い)、スピードの速さ(速い、遅い)に応じて4種類が準備されている。奏法アイコン38は深くて遅い、奏法アイコン39は浅くて遅い、奏法アイコン3Aは深くて速い、奏法アイコン3Bは浅くて速い場合に対応している。
【0031】
なお、図示しないが、各ステートにおける表示状態を説明する。楽器種類がギターで、ステートがボディーの場合にはビブラート、ベンドダウンアップの2種類がウインドウ36内に表示される。ビブラートに関する奏法アイコンはその深さ(深い、浅い)、スピードの速さ(速い、遅い)、その長さ(ビブラート長)に応じて12種類がウインドウ37内に表示される。ベンドダウンアップに関する奏法アイコンはその深さ(深い、浅い)、スピードの速さ(速い、遅い)に応じて4種類がウインドウ37内に表示される。ステートがリリースの場合にはショートカット、ミュート、クロマティックアップ、クロマティックダウン、グリスアップ、グリスダウンの6種類がウインドウ36内に表示される。これらの奏法アンコンはそのスピードの速さ(速い、遅い)に応じてそれぞれ2種類がウインドウ37内に表示される。ステートがオールの場合にはクレシェンド、デクレシェンドの2種類がウインドウ36内に表示される。これらの奏法アイコンはその長さ(クレシェンド長、デクレシェンド長)及びダイナミックレンジの大きさ(大中小)に応じてそれぞれ9種類がウインドウ37内に表示される。ステートがジョイントの場合にはハンマリングオン、プリングオフ、スライドアップ、スライドダウンの4種類がウインドウ36内に表示される。これらの奏法アイコンはそのスピードの速さ(速い、遅い)、音高に応じてそれぞれ4種類がウインドウ37内に表示される。図3では、楽器種類がギターで、ステートがアタックで、奏法種類がベンドアップの場合における奏法アイコンを示したが、他の組み合わせの場合にもそれに応じた奏法アイコンが適宜表示されることはいうまでもない。
【0032】
図4は、図3のチャートの変形例を示す図である。以後、図4のようなチャートを「1レイヤ+従来表記のチャート」とする。図4において図3と同じ構成のものには同一の符号が付してあるので、その説明は省略する。図4が図3のものと異なる点は、第1のレイヤ32及び第3のレイヤ34に貼付されていた奏法アイコンの表示内容が五線譜31に結合された形で表示され、第1及び第3のレイヤ32,34が省略されている点である。すなわち、第1及び第3のレイヤ32,34に貼付される奏法アイコンは、クレシェンド、デクレシェンドなどのように楽譜表記可能なものだからである。従って、第2のレイヤ33に貼付可能な奏法アイコンであっても、同様に五線譜上に結合して表示するようにしてもよいことは言うまでもない。例えば、第1小節の第1音に貼付されたベンドアップアイコンに対応する奏法は五線譜上に表示することができないので、そのまま第2のレイヤ33に表示し、第2小節の第1音に2音アップするような奏法を行う装飾アップアイコンが貼付された場合には、それを五線譜上に結合して表示する。なお、このように五線譜に結合されて表示された場合、それは後から付加されたものなのかどうかが分かりにくいので、後から付加されたものは色を変えて表示するようにしてもよい。
【0033】
図3又は図4のようなチャートを用いて、所望の奏法アイコンを貼付して演奏データにアーティキュレーションを加える場合のGUI(グラフィカルユーザーインターフェイス)の構成について説明したが、以下、このGUIを操作することによってどのような処理が行われるのかについて説明する。
【0034】
各レイヤ32〜34に奏法アイコンが貼付された場合に、奏法アイコンセレクタ18はその選択されたアイコンに対応するアイコン番号をアイコンパラメータセレクタ1E〜1G及び記録制御部1Xに出力する。この実施の形態では、奏法アイコンが選択されると、それに対応して3種類の奏法パラメータがアイコンパラメータセレクタ1E〜1Gによって選択されるようになっている。奏法パラメータは、ピッチ変化に関するピッチパラメータと音量変化に関するアンプパラメータと音色変化に関するフィルタパラメータの3種類から構成される。これらの各パラメータはピッチパラメータデータベース1B、フィルタパラメータデータベース1C、アンプパラメータデータベース1Dに格納されている。
【0035】
各データベース1B,1C,1Dは図5に示すような階層構造をしている。この階層構造は図3に示したアーティキュレーションを付加するための奏法アイコンを表示するウインドウ35〜37及び奏法アイコン38〜3Bに対応して分類されており、図示のように複数の楽器種類、複数のステート、複数の奏法種類、及び複数の奏法アイコン(アイコン番号)に分類されている。図5の奏法アイコンに対応するベンドアップパラメータ(BendUp #000)が奏法アイコン38に、ベンドアップパラメータ(BendUp #001)が奏法アイコン39に、ベンドアップパラメータ(BendUp #003)が奏法アイコン3Aに、ベンドアップパラメータ(BendUp #004)が奏法アイコン3Bに、それぞれ対応する。各奏法アイコンに対応するベンドアップパラメータの中は、複数のノートナンバ(ノートナンバグループ)に分類されている。図では、ノートナンバに応じて4個のノートナンバグループにバンク分けされている。さらに、各ノートナンバグループは、複数のベロシティ(ベロシティグループ)に分類されている。図では、ベロシティに応じて4個のベロシティグループにバンク分けされている。各ベロシティグループの中には、ピッチパラメータ、アンプパラメータ及びフィルタパラメータ毎にその実パラメータのポインタを示す値が記憶されている。ピッチパラメータは、ピッチテンプレート、ピッチLFO、ピッチEG及びピッチオフセットの4個のポインタからなる。アンプパラメータは、アンプテンプレート、アンプLFO、アンプEG及びアンプオフセットの4個のポインタからなる。フィルタパラメータは、フィルタQ−テンプレート、フィルタQ−LFO、フィルタQ−EG、フィルタQオフセット、フィルタカットオフテンプレート、フィルタカットオフLFO、フィルタカットオフEG及びフィルタカットオフオフセットの8個のポインタからなる。
【0036】
これらの各パラメータの中で、実際のアコースティック楽器の楽音波形から検出されるものは、ピッチテンプレート、アンプテンプレート、フィルタQ−テンプレート、フィルタカットオフテンプレートである。これらの各テンプレートは、図6に示すようなパラメータ検出装置によって検出される。すなわち、アコースティック楽器の楽音波形入力部61は、マイクロフォンなどを用いて実際に各種の奏法にて演奏される各アコースティック楽器の楽音波形を取り込み、各検出部62〜64に供給する。各検出部に供給された楽音波形に基づいて、音量エンベロープ検出部62は時間経過にそった音量の変化を検出し、ピッチ検出部63は時間経過にそったピッチの変化を検出し、フォルマント検出部64は時間経過にそったフォルマントの変化を検出し、該フォルマントの変化をもとにフィルタのカットオフ周波数の変化、及びフィルタのQの変化を求める。そして、各部において検出ないし求められた音量の変化、ピッチの変化、カットオフ周波数の変化、Qの変化を、所定のサンプリング周期でサンプリングし、それぞれアンプテンプレート、ピッチテンプレート、フィルタカットオフテンプレート、フィルタのQテンプレートとしてメモリ65〜67に記憶する。また、検出された結果の各テンプレートは加工部68によって種々加工され、その加工された結果はそれぞれのメモリ69〜6Bに格納される。上記の処理を各アコースティック楽器について、各種奏法(同じ奏法であっても、速さや深さ等の異なるものを複数種類)分繰り返すことにより、各メモリ65〜67、69〜6Bの内容に基づいて各データベース1B,1C,1Dが構築される。なお、各データベース1B,1C,1Dの内部構造として、実パラメータが上述したような階層構造になっているものに限らず、実パラメータ自体は番号順に並んでおり、別途上述したような階層構造を持つ実パラメータへのポインタを記憶するようにしてもよい。図7は、ギターのチョーキング奏法、ビブラート奏法及びハンマリングオン奏法におけるアンプ及びピッチの検出波形の一例を示す図である。チョーキング奏法については、ノーマルの場合、浅い場合、深い場合、速い場合、遅い場合の5種類の検出波形が示されている。ビブラート奏法については、ノーマルの場合、浅い場合、深い場合、速い場合、遅い場合の5種類の検出波形が示されている。ハンマリングオン奏法については、ノーマルの場合、速い場合、遅い場合、変化音が2段の場合の4種類の検出波形が示されている。なお、フォルマントの検出波形(フィルタQ及びフィルタカットオフ)を求めるための元波形については検出波形としての表示が困難なので、表示を省略してある。このような検出波形を所定周期でサンプリングした時系列的なサンプリング値が、各テンプレートとして記憶される。なお、階層構造は図5に示すようなものに限らず、例えば、奏法アイコンの中を「奏法アイコン>ベロシティによるバンク分け>ノートナンバによるバンク分け」としてもよいし、ベロシティやノートナンバによるバンク分けを楽器種類よりも上位の階層としてもよい。或いは、バンク分けをノートナンバ、ベロシティの2次元空間上で行ってもよい。
【0037】
図3に示すように各レイヤ32〜34に奏法アイコンが貼付された場合、アイコンパラメータセレクタ1E〜1Gからはパラメータデータベースの中からアイコン番号に対応したパラメータ群が選択されて次段のパラメータバンクセレクタ1P〜1Rに出力される。また、奏法アイコンの貼付によって、その影響を受ける五線譜31上の演奏データの被音符データコマンドCNVがノート/ベロシティ検出部1Aに出力される。ノート/ベロシティ検出部1Aはこの被音符データコマンドCNVに基づいてその音符に関するノートデータ及びベロシティデータを検出し、そのノートデータ及びベロシティデータをパラメータバンクセレクタ1P〜1R、バンクセレクタ1T及び記録制御部1Xに出力する。パラメータバンクセレクタ1P〜1Rはノート/ベロシティ検出部1Aからのノートデータ及びベロシティデータに基づいて、アイコン番号に対応したパラメータ群の中から対応するノートナンバグループの中のベロシティグループに属するピッチパラメータ、フィルタパラメータ及びアンプパラメータをそれぞれの対応する修正部1J〜1Lに出力する。バンクセレクタ1Tは波形データメモリ1Sの中からノートデータ及びベロシティデータに対応した波形メモリバンクを選択してピッチシンセサイズ部1Uに出力する。
【0038】
図3の画面上において、各レイヤ32〜34に貼付された奏法アイコンの境界付近をマウスポインタでドラッグすることによって、その形状を縦横方向に伸縮変形することができる。マウスポインタによる変形が終了した時点で、その変形後のアイコンのアイコン伸縮値コマンドCICがアイコン伸縮値演算部19に出力される。アイコン伸縮値演算部19はそのアイコン伸縮値コマンドCICに基づいてその変化の割合(伸縮値)を演算し、その伸縮値を修正部1J〜1L及び記録制御部1Xに出力する。修正部1Jはアイコン伸縮値演算部19からの伸縮値に基づいて、ピッチパラメータの値を修正し、その修正値をピッチシンセサイズ部1Uに出力する。パラメータ修正の例としては、アイコンを縦方向に伸縮させた場合はパラメータの値を増大/減少させ、アイコンを横方向に伸縮させた場合はパラメータの変化を時間方向に伸長/圧縮する。ピッチシンセサイズ部1Uは、バンクセレクタ1Tによって選択された波形データメモリ1Sからの波形データのピッチを修正部1Jからのピッチパラメータの値に応じて時変動させて、次の音色シンセサイズ部1Vに出力する。修正部1Kはアイコン伸縮値演算部19からの伸縮値に基づいて、フィルタパラメータの値を修正し、その修正値を音色シンセサイズ部1Vに出力する。音色シンセサイズ部1Vは、ピッチシンセサイズ部1Uからの波形データに対して、フィルタ特性(音色)が修正部1Kからのフィルタパラメータ(フィルタのQ及びカットオフ周波数)の値に応じて時変動するようなフィルタリング処理を行い、次のアンプシンセサイズ部1Wに出力する。修正部1Lはアイコン伸縮値演算部19からの伸縮値に基づいて、アンプパラメータの値を修正し、その修正値をアンプシンセサイズ部1Wに出力する。
アンプシンセサイズ部1Wは、音色シンセサイズ部1Vからの波形データの音量を修正部1Lからのアンプパラメータの値に応じて時変動させて、サウンドシステム2Lに出力する。これによって、サウンドシステム2Lからは奏法アイコンの貼付動作に応じて、それに対応する音符の発音処理が行われるようになる。なお、奏法アイコンの表示器2G上における画像の変化は、マウスポインタの移動に伴って入力変換部12から順次出力されてくるアイコン伸縮値コマンドCICに基づいて表示回路2Hがリアルタイムに処理する。
【0039】
記録制御部1Xは、奏法アイコンの貼付動作に応じて、その内容を曲データに付加して、シーケンスメモリ1Yに記録する。すなわち、記録制御部1Xは、奏法アイコンセレクタ18からのアイコン番号、アイコン伸縮値演算部19からの伸縮値及びノート/ベロシティ検出部1Aからのノートデータ及びベロシティデータを入力し、それに基づいた制御データを曲データ中に記録する。図8は、奏法アイコンの貼付された場合における曲データの記憶形式を示す図である。図において、音符データ8Xが曲データの中の一つの音符の発音に関するものであり、デュレーションタイム(発生時刻)81とノートオン82の組、デュレーションタイム83とノートオフ84の組からなる。同じく音符データ8Yは、デュレーションタイム85とノートオン86の組、デュレーションタイム87とノートオフ88の組からなる。ノートオンは音高と演奏強度からなり、ノートオフは音高と演奏強度からなる。
【0040】
図において、音符データ8Xのアタックステート部には伸縮値の変更されなかったベンドアップ(浅い、速い)奏法アイコンが貼付されている。ボディ部にはなにも貼付されていない。リリースステート部には横方向1.5、縦方向2.0に変更されたベンドダウン(浅い、速い)奏法アイコンが貼付されている。このベンドダウン奏法アイコンの貼付によって、ベンドダウンスピードは初期値の1/1.5倍となり、深さは初期値の2倍となる。これらの奏法アイコンの貼付に応じて音符データ8Xにはデュレーションタイム8A,8B、アイコンナンバ8C,8D、アイコン伸縮値8E〜8Hがそれぞれ挿入記録される。
【0041】
音符データ8Yのアタックステート部には伸縮値の変更されなかったノーマル奏法アイコンが貼付されている。ボディ部には横方向1.5、縦方向0.7に変更されたビブラート(ビブラート長:一拍、浅い)奏法アイコンが貼付されている。このアイコンの貼付によって、ビブラート長は1.5拍に伸長され、ビブラート深さは0.7倍に浅くなる。リリースステート部には伸縮値の変更されなかったベンドダウン(浅い、速い)奏法アイコンが貼付されている。これらの奏法アイコンの貼付に応じて音符データ8Yにはデュレーションタイム8J〜8L、アイコンナンバ8M〜8P、アイコン伸縮値8Q〜8Vがそれぞれ挿入記録される。なお、図3及び図4ではアタックステート部にノーマル奏法アイコンを図示しなかったが、実際はアタックステート部、ボディステート部及びリリースステート部のそれぞれにノーマル奏法アイコンが存在する。そして、これらのノーマル奏法アイコンを貼付してその形状を種々変化させることよってその演奏状態の修正が可能である。
【0042】
奏法アイコンの貼付に応じて変更された曲データはシーケンスメモリ1Yに順次記録される。再生部1Zはこのようにして変更されたシーケンスメモリ1Yから順次データを読み出し、それに基づいてアイコン番号をアイコンパラメータセレクタ1E〜1Gに、アイコン伸縮値を修正部1J〜1Lに、ノートデータ及びベロシティデータをパラメータバンクセレクタ1P〜1R及びバンクセレクタ1Tにそれぞれ出力する。これによって、前述のように奏法アイコンの貼付動作に応じて、それに対応する音符の発音処理が行われたのと同様にして、シーケンスメモリ1Yから順次読み出される曲データについて、奏法アイコンの貼付された一連の曲データの発音処理が順次行われるようになる。
【0043】
図9は図2の自動演奏装置が自動演奏の制御データ入力装置として動作する場合の処理フローの一例を示す図である。この処理フローは、図3に示すチャート上でマウスポインタを操作して奏法アイコンを五線譜上の音符データにドラッグする場合の処理に準拠している。以下、この処理フローの動作について説明する。まず、最初のステップS1では、編集する楽譜のパートが図3のチャートのようにギターなので、その楽器種類タブであるギターをマウスポインタによって選択状態とする。これによって一番外側のギターに関するウインドウ35が選択状態となり、その内側にステートタブを選択するためのウインドウ36が表示される。楽器種類タブが選択状態になるので、次はステップS2でステートタブの所望のタブにマウスポインタを持っていき、そこをクリックしてそのタブを選択状態とする。これによってステップS3で、ウインドウ36の内側に、選択されたステートについての、選択された楽器種類に属する奏法種類タブのみが表示されるようになる。すなわち、ギターの場合には、ベンドアップ(チョーキングアップ)、グリスアップ、グリスダウンの3種類のみが表示される。ステップS4で奏法種類タブの所望のタブにマウスポインタを持っていき、そこをクリックしてそのタブを選択状態とする。これによってステップS5で、ウインドウ37の内側に、選択された奏法種類に属する奏法アイコンが1又は複数表示されるようになる。図3は楽器種類がギターでステートがアタックで奏法種類がベンドアップの場合における4個の奏法アイコンが表示された状態を示している。
【0044】
ステップS6では、奏法アイコンが表示されている状態で所望の奏法アイコンにマウスポインタを持っていくことによってその奏法アイコンを選択状態とする。選択された奏法アイコンはその表示状態(色など)が変化するので、それよってそのアイコンが選択状態になったことが認識できる。ステップS7では、選択された奏法アイコンを所望レイヤの所望位置、或いは五線譜上の所望の音符位置にドラッグ&ドロップする。例えば、図3の場合には、奏法アイコン38が第1小節の第1音符に対応する位置にドラッグ&ドロップされた状態を示している。
なお、ドロップする位置は、五線譜31上において横方向がだいたい一致していれば、上下の位置関係は問わない。即ち、第1音符に対応する上下位置であれば、五線譜31上であっても、第1〜第3レイヤ32〜34上であっても、これ以外の場所でもよい。
【0045】
奏法アイコンがドラッグ&ドロップされると、ステップS8では、選択された奏法アイコンに対応するレイヤであって、ドラッグ&ドロップされた位置に該奏法アイコンを表示する。すなわち、前述のように第1のレイヤ32は複数音符に依存する全体奏法に関するアイコンが貼付され、第2のレイヤ33には1つの音符の音高、音量、音色の変化に関するアイコンが貼付され、第3のレイヤ34には音符と音符の組み合わせに関するアイコンが貼付される。従って、ベンドアップの場合は第2レイヤ33に属するので、奏法アイコン38が第2レイヤ33上に奏法アイコン3Cとして表示される。なお、図3では、第2小節の第1音に対応して2音アップするような奏法を行う装飾アップアイコン3Dが第2レイヤ33に、クレシェンドアイコン3Eは第1レイヤ32に、スラーアイコン3Fは第3レイヤ34にそれぞれ表示されている。図4の1レイヤ+従来表記のチャートにおいては、第1レイヤ32及び第3レイヤ34の奏法アイコンに対応する記号も五線譜31と同じレベルで表示されている。なお、図4の1レイヤ+従来表記のチャートの場合、レイヤの種類に限らず、五線譜と同じレベルで表示可能な奏法アイコンについては五線譜上に表示し、それ以外に五線譜上に表示不可能な奏法アイコンのみをレイヤ33に表示するようにしてもよい。
【0046】
ステップS9では、奏法アイコンのドラッグ&ドロップされた位置に対応する五線譜31上の音符データ(ノート)を1又は複数選択する。ステートがアタック、ボディ、リリースの場合には、1つの音符のみが選択され、オールやジョイントの場合には、その奏法アイコンの横幅すなわち拍の長さに応じた1又は複数の音符データが選択される。なお、この場合、奏法アイコンが変形されている場合には、その変形された拍の長さに対応したものが選択される。
【0047】
ステップS7〜S9の処理の結果、奏法アイコンと、この奏法アイコンによって奏法の指定された音符データが決定したら、ステップS10で、図8に示すように、曲データの中の上記選択されたノートに対応するノートデータの位置(時刻)に、アイコン番号及び伸縮値を記録する。ただし、記録しようとする同じ位置(時刻)に今回選択された奏法アイコンと共存できないアイコン番号が既に記録されていた場合には、その記録されていたアイコン番号及び伸縮値を削除し、今回選択された奏法アイコンに対応するアイコン番号及び伸縮値を記録する。なお、この場合は、前の奏法アイコンを削除する旨の警告を表示し、操作者の判断を仰ぐようにする。ここで、共存できない場合とは、クレシェンドとデクレシェンド、グリスアップやグリスダウンなどのように相反する奏法の場合、同じ種類の奏法アイコンであってその特性(浅い、深い、速い、遅い、装飾音数など)や伸縮値の異なるものが選択された場合である。
【0048】
ステップS11では、ステップS9で選択されたノートデータの1又は複数を音源回路2Jに供給する。ノートオンを供給した後、ノートオフまでの時間間隔をおいてノートオフを供給する。なお、選択された音符数が複数の場合はその音符の発生タイミングと発生順序に従って、複数のノートオン及びノートオフを供給する。ステップS12では、ステートに応じたタイミングで、選択された奏法アイコンに対応し、ノートナンバとベロシティで決定されるバンクの奏法パラメータを読み出し、音源の各ブロックに供給する。奏法アイコンがアタックステートの場合にはノートオンと同時に供給する。ボディステートの場合にはノートオンからノートオフの間であって、時系列パラメータがノートオンからノートオフの中間に位置するようなタイミングで供給する。リリースステートの場合には消音タイミングと同時に時系列パラメータが供給しおわるようなタイミングで供給する。オールステートやジョイントステートの場合には選択された複数のノートにかかるように、奏法パラメータを音源の各ブロックに供給する。このようにステップS11,S12の処理によって、奏法アイコンの貼付の結果に応じた楽音を試聴することができる。
【0049】
ステップ13では、試聴の結果、多少修正をしたいのであればアイコンの修正を行う。このアイコンの修正処理については後述する。ステップ14では、試聴の結果、大幅に修正をしたいのであれば、別の奏法アイコンを選択する。或いは、他の音符について奏法アイコンを貼付したいのであれば、別の奏法アイコン(この場合は同じ奏法アイコンでもよい)を選択する。別の奏法アイコンが選択された場合には、ステップS6にジャンプし、前述と同様の一連の処理を繰り返す。ステップ15では、試聴の結果、更に大幅に修正をしたい、すなわち現在の奏法種類と異なる奏法種類に変更したいのであれば、別の奏法種類タブを選択する。或いは、他の音符について別の奏法種類の奏法アイコンを貼付したいのであれば別の奏法種類のタブを選択する。別の奏法種類のタブが選択された場合には、ステップS4にジャンプし、前述と同様の一連の処理を繰り返す。ステップ16では、試聴の結果、同じ音符或いは他の音符に別のステートの奏法アイコンを貼付していのであれば、別のステートのタブを選択する。例えば、アタックステートの後にボディステートを選択する場合などである。別のステートのタブが選択された場合には、ステップS2にジャンプし、前述と同様の一連の処理を繰り返す。そして、処理を終了したいのであれば、ステップ17で一連の処理を終了すればよい。
【0050】
図10は図9のアイコン修正処理の詳細を示す図である。このアイコン修正処理は、ステップ21でレイヤ上で奏法アイコンの伸縮操作があったかどうかの判定を行い、操作があった場合にはその操作の種類に対応したステップに進み、操作がなかった場合には終了する。アイコンの上端又は下端をクリックして上下方向にマウスポインタをドラッグした場合には上下(縦)方向にアイコンが伸縮するので、この場合にはステップS22に進む。アイコンの右端又は左端をクリックして左右方向にドラッグした場合には左右(横)方向にアイコンが伸縮するので、この場合にはステップS23に進む。アイコンの4隅部分のいずれかをクリックして上下左右方向にドラッグした場合には、上下左右(縦横)方向にアイコンが伸縮するので、この場合にはステップS24に進む。なお、4隅部分をクリックして上下又は左右のいずれか一方だけにドラッグした場合には、その伸縮方向に応じてステップS22又はS23に進むようにしてもよいし、そのままステップ24に進んでもよい。
【0051】
ステップS22では、伸縮に応じて縦方向のアイコン伸縮値を求める。ステップS23では、伸縮に応じて横方向のアイコン伸縮値を求める。ステップS24では伸縮に応じて横方向と縦方向のアイコン伸縮値を求める。アイコンの伸縮値が求めまったら、今度はステップS25で、曲データ中の対応するアイコンの伸縮値を修正する。ステップS26では、ステップS9で選択されたノートデータの1又は複数を音源回路2Jに供給する。ノートオンを供給した後、ノートオフまでの時間間隔をおいてノートオフを供給する。なお、選択された音符数が複数の場合はその音符の発生タイミングと発生順序に従って、複数のノートオン及びノートオフを供給する。ステップS27では、ステートに応じたタイミングで、選択された奏法アイコンに対応し、ノートナンバとベロシティで決定されるバンクの奏法パラメータを読み出し、それをステップS22〜S24で求められたアイコン伸縮値で修正して、その修正された奏法パラメータを音源の各ブロックに供給する。奏法パラメータの供給は前述のステップS12の場合と同じようなタイミングで行われる。ステップS26,S27の処理によって、修正された奏法アイコンに応じた楽音を試聴することができるようになる。
【0052】
なお、曲データは複数トラックのデータが混在したものであってもよい。また、曲データのフォーマットは演奏イベントの発生時刻を曲や小節内における絶対時間で表した『イベント+絶対時間』形式のもの、演奏イベントの発生時刻を1つ前のイベントからの時間で表した『イベント+相対時間』形式のもの、音符の音高と符長あるいは休符と休符長で演奏データを表した『音高(休符)+符長』形式のもの、演奏の最小分解能毎にメモリの領域を確保し、演奏イベントの発生する時刻に対応するメモリ領域に演奏イベントを記憶した『ベタ方式』形式のものなど、どのような形式のものでもよい。
【0053】
【発明の効果】
この発明によれば、所望の楽器演奏や奏法に対応したテンプレートを選択して付与するだけで、自然楽器と同等の高品質な演奏表現を自動演奏データに付与することができるという効果がある。
【図面の簡単な説明】
【図1】 図2に示す自動演奏装置において本発明に係る自動演奏の制御データ入力装置に関するシステムプログラムが動作して、自動演奏装置が自動演奏の制御データ入力装置として動作する場合の具体的なブロック構成を示す図である。
【図2】 この発明に係る自動演奏の制御データ入力装置を内蔵した自動演奏装置全体のハード構成を示すブロック図である。
【図3】 表示回路に取り込まれた画面指定コマンドに応じて表示部に表示される画像(チャート)の一例を示す図である。
【図4】 図3の画像(チャート)の変形例を示す図である。
【図5】 ピッチパラメータ、アンプパラメータ及びフィルタパラメータからなるデータベースの階層構造を示す図である。
【図6】 ピッチテンプレート、アンプテンプレート、フィルタQ−テンプレート、フィルタカットオフテンプレートなどを作成するパラメータ検出装置の一例を示す図である。
【図7】 ギターのベンドアップ(チョーキング)奏法、ビブラート奏法及びハンマリングオン奏法におけるアンプ及びピッチの検出波形の一例を示す図である。
【図8】 奏法アイコンの貼付された場合における曲データの記憶形式を示す図である。
【図9】 図2の自動演奏装置が自動演奏の制御データ入力装置として動作する場合の処理フローの一例を示す図である。
【図10】 図9のアイコン修正処理の一例を示す図である。
【符号の説明】
11…入力部、12…入力変換部、13…画像選択部、14…標準楽譜記号メモリ、15…アイコン画像メモリ、16…楽器セレクタ、17…ステートセレクタ17、18…奏法アイコンセレクタ、19…アイコン伸縮値演算部、1A…ノート/ベロシティ検出部、1B…ピッチパラメータデータベース、1C…フィルタパラメータデータベース、1D…アンプパラメータデータベース、1E〜1G…アイコンパラメータセレクタ、1J〜1L…修正部、1P〜1R…パラメータバンクセレクタ、1S…波形データメモリ、1T…バンクセレクタ、1U…ピッチシンセサイズ部、1V…音色シンセサイズ部、1W…アンプシンセサイズ部、1X…記録制御部、1Y…シーケンスメモリ、1Z…再生部、21…CPU、22…ROM、23…RAM、24…外部記憶装置、25…操作子検出回路、26…操作子手段、27…通信インターフェイス、28…通信ネットワーク、29…サーバコンピュータ、2A…MIDIインターフェイス、2B…他のMIDI機器、2E…鍵盤、2F…鍵盤検出回路、2G…表示器(液晶)、2H…表示回路、2J…音源回路、2K…効果回路、2L…サウンドシステム、2N…タイマ、2P…データ及びアドレスバス
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an automatic performance control data input device capable of adding or editing control data related to performance effects such as pitch and volume tone to automatic performance data stored in advance.
[0002]
[Prior art]
Conventionally, Japanese Patent Laid-Open No. 9-6346 discloses an example of inputting control data (continuous data) such as pitch bend and volume that continuously change over time. This is because a plurality of control data templates composed of control data sequences corresponding to the musical sound from the rising edge to the falling edge are stored in advance, and a desired one is automatically selected from these control data templates. It is input in the performance data.
[0003]
[Problems to be solved by the invention]
However, the conventional one stores in advance a template corresponding to the performance and performance method for each instrument type, but the template is schematically represented so that the characteristics of the instrument can be expressed. The features of were not necessarily faithfully reproduced. Therefore, even if the operator intends to give a template that corresponds to the playing method of the guitar, when the automatic performance data is actually played back, the performance or playing method is not what the operator intended, or the performance of the natural instrument This is far from the performance method, and control data capable of performing a high-quality performance and performance equivalent to those of a natural instrument cannot be given.
[0004]
The present invention relates to an automatic performance control data input device capable of giving a high-quality performance expression equivalent to a natural musical instrument to automatic performance data simply by selecting and giving a template corresponding to a desired musical instrument performance or performance method. The purpose is to provide.
[0005]
[Means for Solving the Problems]
  ContractAn automatic performance control data input device according to the present invention described in claim 1 is:Of a plucked string instrumentVarious playing stylesFromControl data related to changes in the extracted pronunciation stateThe musical sound waveform is classified and configured from the rise to the fall,A plurality of data storage means, a control data selection means for selecting any control data from the data storage means, a music data storage means for storing music data, and any musical note from the music data Note data selection means for selecting data, and the control data is added to the song data so that the note data selected by the note data selection means is changed based on the control data selected by the control data selection means Control means. The control data is extracted from the musical sound waveform of an actual plucked string instrument (guitar, bass, etc.), and a large number of data based on various performance methods are stored in the data storage means. Therefore, it is possible to realize a high-quality performance and performance equivalent to a natural musical instrument simply by selecting desired control data and adding it to the note data.In addition, the control data is not configured as a series of sound state change data from the rising edge to the falling edge of the musical sound waveform corresponding to one note data, but is classified by the portion from the rising edge to the falling edge of the musical sound waveform. It is characterized by being configured as different control data. In addition, a series of sound generation states from the rising edge to the falling edge of the musical sound waveform can be controlled with high accuracy, thereby realizing a high-quality performance and performance similar to a natural musical instrument.
[0006]
The control data input device for automatic performance according to the present invention described in claim 2 at the time of filing is an embodiment of the control data input device for automatic performance according to claim 1. Choking performance, grease-up performance, grease-down performance, vibrato performance, bend-down performance, shortcut performance, mute performance, hammering-on performance, pull-off performance, slide-up performance, slide-down performance, crescendo performance, It is composed of one extracted from the musical sound waveform of the musical instrument actually played based on at least one of the crescendo technique. In this example, various performance methods that can be played on a guitar or bass are listed as specific examples of the plucked stringed instrument, and control data is configured by extracting from the musical sound waveform at the time of performance in that performance method.
[0007]
ContractA control data input device for automatic performance according to the third aspect of the present invention described in claim 3 is an embodiment of the control data input device for automatic performance according to claim 1 or 2, wherein the control data is applied to various performance methods. Change the sounding state from the rise to the fall of the sound waveform of the guitar or bass based on the attack part, body part and release partEach part ofIt is classified and configuredThe
[0008]
ContractThe control data input device for automatic performance according to the present invention described in claim 4 is:The control data isChanges in pronunciation state from the rise to the fall of the musical sound waveform of the plucked plucked string instrument based on various performance methodsTheAttack part, body part and release partEach part ofClassifyIt is characterized by being constructed.
[0009]
The control data input device for automatic performance according to the present invention described in claim 5 at the time of filing further includes the control data as one embodiment of the control data input device for automatic performance according to claim 3 or 4. It is configured to include at least one of a whole playing method that depends on a plurality of notes that can be played on a guitar or a bass, or a combination of notes and notes. In addition to the control data related to the sound generation state from the rise to the fall of the musical sound waveform, it relates to the whole playing method that depends on multiple notes such as crescendo and decrescendo, and the combination of notes and notes such as tenuto and slur Control data can now be added for. It should be noted that higher quality performance and performance can be realized by extracting these control data from the musical sound waveform of the actually played musical instrument.
[0010]
The automatic performance control data input device according to the present invention described in claim 6 at the time of filing is an embodiment of the automatic performance control data input device according to claim 4 or 5, wherein the control data is a guitar. Or choking performance, grease-up performance, grease-down performance, vibrato performance, bend-down performance, shortcut performance, mute performance, hammering-on performance, pull-off performance, slide-up performance, slide-down performance, crescendo performance , Which is based on at least one of the decrescendo technique and the like. This is a list of various performance methods that can be played with a plucked stringed instrument such as a guitar or bass, and control data is configured for each performance method.
[0011]
The automatic performance control data input device according to the present invention described in claims 7 to 15 at the time of filing is an embodiment of the automatic performance control data input device according to claim 2 or 6. Is specifically shown based on what each of the performance methods is extracted. Choking techniques are based on at least one of speed and depth. The grease down performance and the grease up performance are based on speed. Vibrato performance is based on at least one of speed, depth and vibrato length.
A bend-down technique is based on at least one of speed and depth. Shortcut playing is based on speed. Mute playing is based on speed. The hammering-on technique is based on at least one of speed and pitch. The pull-off technique is based on at least one of speed and pitch. The slide-up performance and slide-down performance are based on at least one of speed and pitch.
[0012]
The control data input device for automatic performance according to the present invention described in claim 16 at the time of filing as an embodiment of the control data input device for automatic performance according to any one of claims 1 to 15, The control data is configured on the basis of at least one of amplitude data, pitch data, and formant data. A series of changes in the sound generation state from the rise to the fall of the musical sound waveform of the musical instrument actually played is sequentially stored as a parameter with the temporal change of its amplitude, pitch, and formant (filter Q and cut-off frequency). Can be extracted. Therefore, by constructing the control data based on at least one of these, the pronunciation of the note data to which the control data is added can be based on a high quality performance or performance.
[0013]
ContractThe recording medium according to the present invention described in claim 17 adds the control data relating to the change of the sound generation state to any note data in the music piece data, so that the sound generation state of the note data is based on the control data. A machine-readable recording medium used for a control data input device for automatic performance changingOf a plucked string instrumentVarious playing stylesFromControl data related to changes in the extracted pronunciation stateThe musical sound waveform is classified and configured from the rise to the fall,Has multiple stored databasesWith featuresTo do. this is,ContractThe present invention relates to a recording medium used for the automatic performance control data input device according to claim 1.
[0014]
ContractThe recording medium according to the present invention described in claim 18 is:The control data isChanges in pronunciation state from the rise to the fall of the musical sound waveform of the plucked plucked string instrument based on various performance methodsTheAttack part, body part and release partEach part ofClassifyCharacterized by being composed. this is,ContractThe present invention relates to a recording medium used for the automatic performance control data input device according to claim 4.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings. FIG. 2 is a block diagram showing a hardware configuration of the entire automatic performance apparatus incorporating the automatic performance control data input apparatus according to the present invention. The automatic performance device is controlled by the CPU 21. The CPU 21 has a program memory (ROM) 22, a working memory (RAM) 23, an external storage device 24, an operator detection circuit 25, a communication interface 27, a MIDI interface 2A, a keyboard detection circuit 2F, a display via a data and address bus 2P. A circuit 2H, a sound source circuit 2J, and an effect circuit 2K are connected.
The automatic performance device may have hardware other than these, but here, the case where the minimum necessary resources are used will be described.
[0016]
The CPU 21 performs processing based on various programs and various data (automatic performance data, performance parameters, etc.) in the program memory 22 and working memory 23 and various data fetched from the external storage device 24. In this embodiment, a floppy disk drive, a hard disk drive, a CD-ROM drive, a magneto-optical disk (MO) drive, a ZIP drive, a PD drive, a DVD, or the like is used as the external storage device 24. Further, music information or the like may be taken in from another MIDI device 2B or the like via the MIDI interface 2A. The CPU 21 supplies the music information fetched from the external storage device 24 to the tone generator circuit 2J and generates a sound using the external sound system 2L.
[0017]
The program memory 22 stores a system-related program of the CPU 21, various parameters, data, and the like, and is constituted by a read only memory (ROM). The working memory 23 temporarily stores various data generated when the CPU 21 executes a program. A predetermined address area of a random access memory (RAM) is assigned to each working memory 23 and used as a register or a flag. The Further, instead of storing the operation program and various data in the ROM 22, various data and an arbitrary operation program may be stored in the external storage device 24 such as a CD-ROM drive. The operation program and various data stored in the external storage device 24 can be transferred and stored in the RAM 23 or the like. Thereby, new installation and version upgrade of the operation program can be easily performed.
[0018]
It is possible to connect to various communication networks 28 such as a LAN (local area network), the Internet, and a telephone line via the communication interface 27, and data (music information with data, etc.) can be exchanged with other server computers 29. You may make it communicate. Thereby, an operation program and various data can be downloaded from the server computer. In this case, a personal computer serving as a client transmits a command requesting download of an operation program and various data to the server computer 29 via the communication interface 27 and the communication network 28. In response to this command, the server computer 29 transmits a predetermined operation program, data, and the like to another personal computer via the communication network 28. The personal computer receives these operation programs and data via the communication interface 27 and stores them in the RAM 23 or the like. Thereby, the download of the operation program and various data is completed.
[0019]
The present invention may be implemented by an operation program corresponding to the present invention or a personal computer installed with various data. In that case, the operation program and various data corresponding to the present invention may be provided to the user while being stored in a storage medium that can be read by an electronic musical instrument such as a CD-ROM or a floppy disk. .
[0020]
The operating means 26 is a key or switch for setting various parameters. In this embodiment, for convenience, a function key or a mouse whose function changes according to the contents of the display 26 will be described as an example. The operation element detection circuit 25 detects the operation state and operation state of each switch, key, and mouse on the operation element means 26, and outputs them to the data and address bus 2P. The keyboard 2E is provided with a plurality of keys for selecting a pitch of a musical tone to be generated, and is used for manual performance and also as an input key for inputting automatic performance data according to the operation. Is done. The keyboard detection circuit 2F includes a key switch circuit provided corresponding to each key of the keyboard 2E. The keyboard detection circuit 2F detects a key depression or key release of the keyboard 2E and outputs a key-on or key-off event or a note number. . The display circuit 2H controls the display content of the display 2G. The display 2G is composed of a liquid crystal display panel (LCD) or the like, and its display operation is controlled by the display circuit 2H.
[0021]
The tone generator circuit 2J can generate music signals simultaneously on a plurality of channels, inputs data and music information (MIDI file) given via the address bus 2P and the MIDI interface 2A, and based on this information, the music signal Is generated.
In the tone generator circuit 2J, a musical sound signal can be generated simultaneously in a plurality of channels by using one circuit in a time-sharing manner to form a plurality of sound generation channels, or one sound generation channel is configured by one circuit. It may be of the form Further, any tone signal generation method in the tone generator circuit 2J may be used. The tone signal output from the tone generator circuit 2J is generated by a sound system 2L including an amplifier and a speaker. An effect circuit 2K is provided between the tone generator circuit 2J and the sound system 2L to give various effects to the musical sound signal. The tone generator circuit 2J itself may include an effect circuit. The timer 2N generates a tempo clock pulse for counting time intervals and setting a tempo when reproducing music information. The frequency of the tempo clock pulse is adjusted by a tempo switch (not shown). The tempo clock pulse from the timer 2N is given as an interrupt command to the CPU 21, and the CPU 21 executes various processes during automatic performance by interrupt processing.
[0022]
Next, the configuration of the automatic performance control data input device according to the present invention will be described.
FIG. 1 is a specific block diagram when the system program relating to the control data input device for automatic performance according to the present invention operates in the automatic performance device shown in FIG. 2, and the automatic performance device operates as the control data input device for automatic performance. It is a figure which shows a structure. In the figure, each block other than the display 2G, the display circuit 2H, and the sound system 2L is realized by the processing of each device of the automatic performance device of FIG. The input unit 11 is an input device such as the operation unit 26, the keyboard 2E, and other MIDI equipment 2B. The input unit 11 outputs an input signal to the input conversion unit 12, specifically, a signal corresponding to an operation by a mouse pointer. To do. The input conversion unit 12 converts each input signal from the input unit 11 into a screen designation command CCH, an icon expansion / contraction value command CIC, and a musical note data command CNV, and outputs these commands. The screen designation command CCH is a signal corresponding to the image information on the display unit 2G designated by the mouse pointer, and is output to the display circuit 2H and the image selection unit 13. The icon expansion / contraction value command CIC is a signal corresponding to an icon deformation rate, that is, an expansion / contraction value on the display unit 2G deformed by the operation of the mouse pointer, and is output to the display circuit 2H and the icon expansion / contraction value calculation unit 19. The note data command CNV is data corresponding to the note in the staff on the display unit 2G designated by the operation of the mouse pointer, and is output to the display circuit 2H and the note / velocity detection unit 1A.
[0023]
The image selection unit 13 includes a standard musical score symbol memory 14, an icon image memory 15, a musical instrument selector 16, a state selector 17, and a performance style icon selector 18 for selecting them. The screen designation command CCH is output to the instrument selector 16, the state selector 17, or the rendition style icon selector 18 in the image selection unit 13 in accordance with the type of image information designated by the mouse pointer.
[0024]
Hereinafter, how an image is displayed on the display unit 2G will be described. FIG. 3 is a diagram illustrating an example of an image displayed on the display unit 2G in accordance with the screen designation command CCH fetched into the display circuit 2H. The image in FIG. 3 is called a chart and is generated by the display circuit 2H. In FIG. 3, the musical score 31 shows automatic performance data of the guitar in the E ♭ major key. Images such as treble clef, key (♭), quarter note, eighth note, quarter rest, tie symbol, vertical line, etc. in the staff 31 are created based on the image information in the standard musical score memory 14. Is done. The stave 31 is created by the input conversion unit 12, the image selection unit 13, and the display circuit 2H based on the automatic performance data, that is, MIDI data input from the input unit 11, and displayed on the display unit 2G. Above and below the staff 31 are three stages of first to third layers 32 to 34 to which performance style icons added to the performance data being displayed are pasted.
[0025]
The first layer 32 is affixed with an icon relating to the overall rendition that depends on multiple notes. In this embodiment, crescendo and decrescendo correspond. FIG. 3 shows a state where a crescendo icon is attached.
[0026]
Icons relating to changes in pitch, volume, and tone color of one note are attached to the second layer 33. In this embodiment, icons relating to performance techniques such as bend up, choking, decoration up, decoration down, chromatic up, chromatic down, grease up, grease down, staccato, detash, vibrato, bend down up, shortcut, mute, bend down, etc. Corresponds. Here, bend-down, decoration-up, decoration-down, and staccato are performance techniques specific to saxophones and violins. Mute is a performance technique unique to violins, guitars and basses. Detash is a technique unique to violins. In FIG. 3, a bend-up icon of depth = high and speed = fast is attached to the first sound of the first measure, and a decoration-up icon for performing a performance such that two notes are increased is attached to the first sound of the second measure. The state is shown.
[0027]
The third layer 34 is affixed with an icon relating to a combination of notes and notes. In this embodiment, tenuto, slur, hammering on, pulling off, slide up, slide down, etc. are supported. Here, tenuto and slur are performance techniques peculiar to sax and violin, and hammering on, pull-off and slide-up (down) are performance techniques peculiar to guitar and bass. FIG. 3 shows a state in which slur icons are attached to all the notes of the first bar.
[0028]
Furthermore, below the chart of FIG. 3, there is a window that displays performance style icons for adding articulation to each sound (performance data) on the staff 31. The outermost window 35 represents an instrument type, and one of the instrument types can be selected by clicking the corresponding tab. In this embodiment, a case will be described in which articulation is added to the playing methods of four types of musical instruments: saxophone, guitar (noted as Guitr in the figure), bass, and violin (noted as Violn in the figure). . When a predetermined tab is clicked by operating the mouse pointer, a screen designation command CCH indicating the corresponding instrument type is input from the input conversion unit 12 based on the input signal from the input unit 11 to the display circuit 2H and the image selection unit 13. It is output to the instrument selector 16. In the figure, the state where the guitar tab is clicked is shown.
[0029]
The second window 36 represents the state of performance style, and any state type can be selected by clicking the corresponding tab. In the figure, five types of states are shown as attack types (indicated as Attack in the figure), body, release (indicated as Reles in the figure), all, and joint. Each state of attack, body, and release corresponds to each part when the sound generation process of one note is divided into three of attack, body, and release, and is attached to the second layer 33. All affects a plurality of musical notes and is affixed to the first layer 32. The joint relates to a combination of a note and a note, and is attached to the third layer 34. When a predetermined tab is clicked by operating the mouse pointer, a screen designation command CCH indicating a corresponding state is input from the input conversion unit 12 based on an input signal from the input unit 11, and the states of the display circuit 2H and the image selection unit 13 are displayed. It is output to the selector 17. In the figure, the state where the attack tab is clicked is shown.
[0030]
The innermost window 37 represents the type of rendition, and by clicking on the corresponding tab, a rendition style icon corresponding to the instrument type and rendition type in the state is displayed. Can be selected. In the figure, there are three types of playing styles when the state is attack: bend up (indicated as BndUp in the figure), grease up (indicated as GlsUp in the figure), and grease down (indicated as GlsDn in the figure). . When a predetermined tab is clicked by an operation of the mouse pointer, a screen designation command CCH indicating a corresponding performance style type is input from the input conversion unit 12 based on an input signal from the input unit 11 to the display circuit 2H and the image selection unit 13. It is output to the rendition style icon selector 18. In the figure, the bend-up tab is clicked. Therefore, four types of performance style icons 38 to 3B when the performance style type is bend-up are displayed. Four types of performance style icons 38 to 3B are prepared according to the bend-up depth (deep and shallow) and the speed (fast and slow). The rendition style icon 38 is deep and slow, the rendition style icon 39 is shallow and slow, the rendition style icon 3A is deep and fast, and the rendition style icon 3B is shallow and fast.
[0031]
Although not shown, the display state in each state will be described. When the instrument type is guitar and the state is body, two types of vibrato and bend down are displayed in the window 36. Twelve types of performance icons related to vibrato are displayed in the window 37 in accordance with the depth (deep and shallow), the speed (fast and slow), and the length (vibrato length). Four types of performance style icons related to bend down are displayed in the window 37 according to the depth (deep and shallow) and the speed (fast and slow). When the state is release, six types of shortcut, mute, chromatic up, chromatic down, grease up, and grease down are displayed in the window 36. Two types of these performance style ancons are displayed in the window 37 according to the speed (fast or slow). When the state is all, two types of crescendo and decrescendo are displayed in the window 36. Nine types of these performance style icons are displayed in the window 37 according to their lengths (crescendo length, decrescendo length) and dynamic range sizes (large, medium and small). When the state is a joint, four types of hammering on, pulling off, slide up, and slide down are displayed in the window 36. Four types of these performance style icons are displayed in the window 37 according to the speed (fast and slow) and pitch. In FIG. 3, the performance style icons are shown when the instrument type is guitar, the state is attack, and the performance style type is bend-up, but the performance style icons corresponding to the combinations are also displayed as appropriate in other combinations. Not too long.
[0032]
FIG. 4 is a diagram showing a modification of the chart of FIG. Hereinafter, the chart as shown in FIG. 4 is referred to as “one layer + conventional notation chart”. In FIG. 4, the same components as those in FIG. 3 are denoted by the same reference numerals, and the description thereof is omitted. FIG. 4 is different from that of FIG. 3 in that the display contents of the performance style icons pasted on the first layer 32 and the third layer 34 are displayed in a combined form with the stave 31. The layers 32 and 34 are omitted. That is, the rendition style icons pasted on the first and third layers 32 and 34 can be expressed in musical notation such as crescendo and decrescendo. Therefore, it goes without saying that even a performance style icon that can be pasted on the second layer 33 may be combined and displayed on the staff. For example, since the performance method corresponding to the bend-up icon affixed to the first sound of the first measure cannot be displayed on the staff, it is displayed as it is on the second layer 33 and 2 is added to the first sound of the second measure. When a decoration up icon for performing a performance that makes a sound up is pasted, it is combined and displayed on the staff. In addition, since it is difficult to know whether it is added later when it is displayed combined with a staff score in this way, what is added later may be displayed with a different color.
[0033]
The configuration of a GUI (graphical user interface) when adding a desired performance style icon and adding articulation to performance data using the chart as shown in FIG. 3 or FIG. 4 is described below. What kind of processing is performed by doing this will be described.
[0034]
When a performance style icon is attached to each of the layers 32 to 34, the performance style icon selector 18 outputs an icon number corresponding to the selected icon to the icon parameter selectors 1E to 1G and the recording control unit 1X. In this embodiment, when a rendition style icon is selected, three types of rendition style parameters are correspondingly selected by the icon parameter selectors 1E to 1G. The rendition style parameters are composed of three types: pitch parameters related to pitch changes, amplifier parameters related to volume changes, and filter parameters related to timbre changes. These parameters are stored in the pitch parameter database 1B, the filter parameter database 1C, and the amplifier parameter database 1D.
[0035]
Each database 1B, 1C, 1D has a hierarchical structure as shown in FIG. This hierarchical structure is classified corresponding to windows 35 to 37 and performance icons 38 to 3B for displaying performance icons for adding articulations as shown in FIG. It is classified into a plurality of states, a plurality of performance style types, and a plurality of performance style icons (icon numbers). The bend-up parameter (BendUp # 000) corresponding to the rendition style icon of FIG. 5 is the rendition style icon 38, the bend-up parameter (BendUp # 001) is the rendition style icon 39, the bend-up parameter (BendUp # 003) is the rendition style icon 3A, The bend-up parameter (BendUp # 004) corresponds to the rendition style icon 3B. The bend-up parameters corresponding to each performance style icon are classified into a plurality of note numbers (note number groups). In the figure, banks are divided into four note number groups according to the note numbers. Further, each note number group is classified into a plurality of velocities (velocity groups). In the figure, banks are divided into four velocity groups according to the velocity. Each velocity group stores a value indicating a pointer of the actual parameter for each pitch parameter, amplifier parameter, and filter parameter. The pitch parameter consists of four pointers: a pitch template, a pitch LFO, a pitch EG, and a pitch offset. The amplifier parameter consists of four pointers: an amplifier template, an amplifier LFO, an amplifier EG, and an amplifier offset. The filter parameters are composed of eight pointers: filter Q-template, filter Q-LFO, filter Q-EG, filter Q offset, filter cut-off template, filter cut-off LFO, filter cut-off EG, and filter cut-off offset.
[0036]
Among these parameters, those detected from the tone waveform of an actual acoustic instrument are a pitch template, an amplifier template, a filter Q-template, and a filter cutoff template. Each of these templates is detected by a parameter detection device as shown in FIG. That is, the musical sound waveform input unit 61 of an acoustic instrument takes in the musical sound waveform of each acoustic musical instrument that is actually played by various performance methods using a microphone or the like, and supplies the musical sound waveform to each of the detection units 62 to 64. Based on the tone waveform supplied to each detector, the volume envelope detector 62 detects a change in volume over time, and the pitch detector 63 detects a change in pitch over time to detect formants. The unit 64 detects a change in formant over time, and obtains a change in filter cutoff frequency and a change in filter Q based on the change in formant. Then, the volume change, pitch change, cut-off frequency change, and Q change detected or obtained in each part are sampled at a predetermined sampling period, and the amplifier template, pitch template, filter cut-off template, filter It memorize | stores in memory 65-67 as Q template. Each template of the detected result is variously processed by the processing unit 68, and the processed result is stored in each of the memories 69 to 6B. Based on the contents of each of the memories 65 to 67 and 69 to 6B, the above processing is repeated for each acoustic instrument for various performance methods (even if the same performance method is a plurality of different types such as speed and depth). Each database 1B, 1C, 1D is constructed. The internal structure of each database 1B, 1C, 1D is not limited to the actual parameters having the hierarchical structure as described above, but the actual parameters themselves are arranged in numerical order, and the hierarchical structure as described above is separately provided. You may make it memorize | store the pointer to the actual parameter to have. FIG. 7 is a diagram showing an example of the detected waveforms of the amplifier and pitch in the choking performance method, vibrato performance method and hammering-on performance method of the guitar. As for the choking technique, five types of detection waveforms are shown: normal, shallow, deep, fast, and slow. As for the vibrato playing method, five types of detection waveforms are shown: normal, shallow, deep, fast, and slow. As for the hammering-on performance method, four types of detected waveforms are shown in the case of normal, fast, slow, and two steps of changing sound. The display of the original waveform for obtaining the formant detection waveform (filter Q and filter cutoff) is omitted because it is difficult to display the detection waveform as a detection waveform. A time-series sampling value obtained by sampling such a detected waveform at a predetermined period is stored as each template. Note that the hierarchical structure is not limited to that shown in FIG. 5. For example, the rendition style icons may be “performance style icons> bank division by velocity> bank division by note number”, or bank division by velocity or note number. May be a higher hierarchy than the instrument type. Alternatively, bank division may be performed on a two-dimensional space of note number and velocity.
[0037]
As shown in FIG. 3, when performance style icons are attached to the layers 32 to 34, a parameter group corresponding to the icon number is selected from the parameter database from the icon parameter selectors 1E to 1G, and the parameter bank selector at the next stage is selected. 1P to 1R. Also, by attaching the performance style icon, the musical note data command CNV of the performance data on the staff 31 affected by the performance style icon is output to the note / velocity detection unit 1A. The note / velocity detection unit 1A detects note data and velocity data related to the note based on the note data command CNV, and uses the note data and velocity data as parameter bank selectors 1P to 1R, a bank selector 1T, and a recording control unit 1X. Output to. The parameter bank selectors 1P to 1R, based on the note data and velocity data from the note / velocity detection unit 1A, pitch parameters and filters belonging to the velocity group in the corresponding note number group from the parameter group corresponding to the icon number. The parameters and the amplifier parameters are output to the corresponding correction units 1J to 1L. The bank selector 1T selects a waveform memory bank corresponding to the note data and velocity data from the waveform data memory 1S and outputs it to the pitch synthesis unit 1U.
[0038]
On the screen of FIG. 3, the shape can be expanded and contracted in the vertical and horizontal directions by dragging the vicinity of the performance style icons pasted on the layers 32 to 34 with the mouse pointer. When the deformation by the mouse pointer is completed, the icon expansion / contraction value command CIC of the icon after the deformation is output to the icon expansion / contraction value calculator 19. The icon expansion / contraction value calculation unit 19 calculates the rate of change (expansion / contraction value) based on the icon expansion / contraction value command CIC, and outputs the expansion / contraction value to the correction units 1J to 1L and the recording control unit 1X. The correction unit 1J corrects the value of the pitch parameter based on the expansion / contraction value from the icon expansion / contraction value calculation unit 19, and outputs the correction value to the pitch synthesizer unit 1U. As an example of parameter correction, the value of the parameter is increased / decreased when the icon is expanded / contracted in the vertical direction, and the change of the parameter is expanded / compressed in the time direction when the icon is expanded / contracted in the horizontal direction. The pitch synthesizer 1U changes the pitch of the waveform data from the waveform data memory 1S selected by the bank selector 1T according to the value of the pitch parameter from the correction unit 1J, and then changes to the next timbre synthesizer 1V. Output. The correction unit 1K corrects the value of the filter parameter based on the expansion / contraction value from the icon expansion / contraction value calculation unit 19, and outputs the correction value to the timbre synthesizer unit 1V. In the timbre synthesizer 1V, the filter characteristics (timbre) of the waveform data from the pitch synthesizer 1U change over time according to the values of the filter parameters (filter Q and cut-off frequency) from the modifier 1K. Such filtering processing is performed, and the result is output to the next amplifier synthesis unit 1W. The correction unit 1L corrects the value of the amplifier parameter based on the expansion / contraction value from the icon expansion / contraction value calculation unit 19, and outputs the correction value to the amplifier synthesis unit 1W.
The amplifier synthesizer 1W varies the volume of the waveform data from the timbre synthesizer 1V according to the value of the amplifier parameter from the modifier 1L, and outputs it to the sound system 2L. As a result, the sound system 2L performs the sound generation processing of the corresponding note in accordance with the performance icon pasting operation. The display circuit 2H processes the change in the image of the performance style icon on the display 2G in real time based on the icon expansion / contraction value command CIC sequentially output from the input conversion unit 12 in accordance with the movement of the mouse pointer.
[0039]
The recording control unit 1X adds the content to the music data and records it in the sequence memory 1Y according to the pasting operation of the performance style icon. That is, the recording control unit 1X receives the icon number from the rendition style icon selector 18, the expansion / contraction value from the icon expansion / contraction value calculation unit 19, the note data and velocity data from the note / velocity detection unit 1A, and the control data based thereon. Is recorded in the song data. FIG. 8 is a diagram showing a storage format of song data when a performance style icon is attached. In the figure, note data 8X relates to the pronunciation of one note in music data, and consists of a set of duration time (occurrence time) 81 and note-on 82, and a set of duration time 83 and note-off 84. Similarly, the note data 8Y includes a set of duration time 85 and note-on 86, and a set of duration time 87 and note-off 88. Note-on consists of pitch and performance intensity, and note-off consists of pitch and performance intensity.
[0040]
In the figure, a bend-up (shallow, fast) performance method icon whose expansion / contraction value is not changed is affixed to the attack state portion of the note data 8X. Nothing is affixed to the body part. Bend-down (shallow and fast) playing style icons changed to 1.5 in the horizontal direction and 2.0 in the vertical direction are affixed to the release state section. By attaching the bend down performance icon, the bend down speed becomes 1 / 1.5 times the initial value and the depth becomes twice the initial value. According to the pasting of these performance style icons, duration times 8A and 8B, icon numbers 8C and 8D, and icon expansion / contraction values 8E to 8H are inserted and recorded in the note data 8X.
[0041]
In the attack state portion of the note data 8Y, a normal performance style icon whose expansion / contraction value is not changed is affixed. Vibrato (vibrato length: one beat, shallow) performance style icon changed to 1.5 in the horizontal direction and 0.7 in the vertical direction is affixed to the body portion. By attaching this icon, the vibrato length is extended to 1.5 beats and the vibrato depth is reduced to 0.7 times. The release state part is affixed with a bend down (shallow, fast) performance method icon whose stretch value has not been changed. According to the pasting of these performance style icons, duration times 8J to 8L, icon numbers 8M to 8P, and icon expansion / contraction values 8Q to 8V are inserted and recorded in the note data 8Y. In FIG. 3 and FIG. 4, the normal performance style icon is not shown in the attack state part, but actually there is a normal performance style icon in each of the attack state part, the body state part, and the release state part. The performance state can be corrected by pasting these normal performance style icons and changing their shapes in various ways.
[0042]
The music data changed in accordance with the pasting of the performance style icon is sequentially recorded in the sequence memory 1Y. The reproduction unit 1Z sequentially reads data from the sequence memory 1Y thus changed, and based on the data, the icon number is set to the icon parameter selectors 1E to 1G, the icon expansion / contraction value is changed to the correction units 1J to 1L, and the note data and velocity data. Are output to the parameter bank selectors 1P to 1R and the bank selector 1T, respectively. As a result, according to the pasting method icon pasting operation as described above, the rendition style icon is pasted for the song data sequentially read from the sequence memory 1Y in the same manner as the sound generation processing of the corresponding note is performed. A series of song data sound generation processes are sequentially performed.
[0043]
FIG. 9 is a diagram showing an example of a processing flow when the automatic performance device of FIG. 2 operates as a control data input device for automatic performance. This processing flow is based on the processing in the case of dragging the performance style icon to the note data on the staff by operating the mouse pointer on the chart shown in FIG. The operation of this processing flow will be described below. First, in the first step S1, since the musical score part to be edited is a guitar as shown in the chart of FIG. 3, the guitar which is the instrument type tab is selected by the mouse pointer. As a result, the window 35 relating to the outermost guitar is selected, and a window 36 for selecting a state tab is displayed inside thereof. Since the instrument type tab is selected, next, in step S2, the mouse pointer is brought to a desired tab of the state tab, and the tab is selected by clicking there. As a result, in step S3, only the performance type tabs belonging to the selected instrument type for the selected state are displayed inside the window 36. That is, in the case of a guitar, only three types of bend up (choking up), grease up, and grease down are displayed. In step S4, the user moves the mouse pointer to a desired tab of the style type tab and clicks it to select that tab. As a result, in step S5, one or more performance style icons belonging to the selected performance style type are displayed inside the window 37. FIG. 3 shows a state in which four performance style icons are displayed when the instrument type is guitar, the state is attack, and the performance style type is bend-up.
[0044]
In step S6, the rendition style icon is brought into a selected state by bringing the mouse pointer to the desired rendition style icon while the rendition style icon is displayed. Since the display state (color or the like) of the selected performance style icon changes, it can be recognized that the icon has been selected. In step S7, the selected performance style icon is dragged and dropped to a desired position on the desired layer or a desired note position on the staff. For example, FIG. 3 shows a state where the performance style icon 38 is dragged and dropped to a position corresponding to the first note of the first measure.
In addition, as long as the horizontal direction on the stave 31 substantially coincides with the drop position, the positional relationship between the top and bottom is not limited. That is, as long as it is the vertical position corresponding to the first note, it may be on the staff 31 or on the first to third layers 32 to 34 or any other place.
[0045]
When the rendition style icon is dragged and dropped, in step S8, the rendition style icon is displayed in the layer corresponding to the selected rendition style icon and at the dragged and dropped position. That is, as described above, the first layer 32 is pasted with an icon related to the overall performance depending on a plurality of notes, and the second layer 33 is pasted with icons related to changes in pitch, volume, and timbre of one note, The third layer 34 is affixed with an icon relating to a combination of notes and notes. Therefore, since the bend-up belongs to the second layer 33, the rendition style icon 38 is displayed on the second layer 33 as the rendition style icon 3C. In FIG. 3, the decoration up icon 3D for performing a performance that increases two sounds corresponding to the first sound of the second measure is displayed on the second layer 33, the crescendo icon 3E on the first layer 32, and the slur icon 3F. Are displayed on the third layer 34, respectively. In the 1 layer + conventional notation chart of FIG. 4, symbols corresponding to performance style icons of the first layer 32 and the third layer 34 are also displayed at the same level as the staff 31. In the case of the chart of 1 layer + conventional notation in FIG. 4, not only the type of layer but also the performance style icons that can be displayed at the same level as the staff score are displayed on the staff score and cannot be displayed on the staff score other than that. Only the rendition style icon may be displayed on the layer 33.
[0046]
In step S9, one or a plurality of note data (notes) on the staff 31 corresponding to the dragged and dropped position of the performance style icon is selected. If the state is attack, body, or release, only one note is selected, and if it is all or joint, one or more note data corresponding to the width of the style icon, that is, the length of the beat is selected. The In this case, when the rendition style icon is deformed, the one corresponding to the deformed beat length is selected.
[0047]
As a result of the processing in steps S7 to S9, when the performance style icon and the note data designated by the performance style icon are determined by the performance style icon, in step S10, as shown in FIG. The icon number and the expansion / contraction value are recorded at the position (time) of the corresponding note data. However, if an icon number that cannot coexist with the currently selected rendition style icon has already been recorded at the same position (time) to be recorded, the recorded icon number and expansion / contraction value are deleted and the currently selected icon number is selected. Record the icon number and expansion / contraction value corresponding to the rendition style icon. In this case, a warning that the previous performance style icon is to be deleted is displayed and the operator's judgment is asked. Here, the case where the two cannot coexist is the same type of performance icon and its characteristics (shallow, deep, fast, slow, decorative sound) in the case of conflicting performances such as crescendo and decrescendo, grease up or grease down, etc. This is a case where a number having a different expansion / contraction value is selected.
[0048]
In step S11, one or more of the note data selected in step S9 is supplied to the tone generator circuit 2J. After the note-on is supplied, the note-off is supplied after a time interval until the note-off. When the number of selected notes is plural, a plurality of note-on and note-off are supplied according to the generation timing and generation order of the notes. In step S12, the rendition style parameters of the bank determined by the note number and velocity corresponding to the selected rendition style icon are read at a timing according to the state, and supplied to each block of the sound source. When the rendition style icon is in attack state, it is supplied at the same time as note-on. In the case of the body state, the time series parameter is supplied at a timing between note-on and note-off and in the middle of note-on to note-off. In the release state, the time series parameters are supplied at the same time as the mute timing. In the case of all state or joint state, performance style parameters are supplied to each block of the sound source so as to cover a plurality of selected notes. In this way, by the processing of steps S11 and S12, a musical tone corresponding to the result of the performance style icon pasting can be auditioned.
[0049]
In step 13, if the result of the trial listening is that some correction is desired, the icon is corrected. The icon correction process will be described later. In step 14, if the result of the trial listening is that a large correction is desired, another performance style icon is selected. Alternatively, if a performance style icon is to be attached to another note, another performance style icon (in this case, the same performance style icon may be selected) is selected. If another performance style icon is selected, the process jumps to step S6, and a series of processes similar to those described above are repeated. In step 15, if it is desired to make a further significant correction as a result of the trial listening, that is, to change to a performance style type different from the current performance style type, another performance style type tab is selected. Alternatively, if a performance style icon of another performance style type is to be attached to another note, a tab of another performance style type is selected. When another performance style tab is selected, the process jumps to step S4, and a series of processes similar to those described above are repeated. In step 16, if the performance result icon of another state is pasted on the same note or another note as a result of the trial listening, a tab of another state is selected. For example, when the body state is selected after the attack state. When a tab in another state is selected, the process jumps to step S2, and a series of processes similar to those described above are repeated. If it is desired to end the process, a series of processes may be ended in step 17.
[0050]
FIG. 10 is a diagram showing details of the icon correction processing of FIG. In this icon correction process, it is determined in step 21 whether or not the rendition style icon has been expanded or contracted on the layer. If there is an operation, the process proceeds to the step corresponding to the type of operation, and if there is no operation, finish. When the upper or lower end of the icon is clicked and the mouse pointer is dragged in the vertical direction, the icon expands or contracts in the vertical (vertical) direction. In this case, the process proceeds to step S22. When the right end or the left end of the icon is clicked and dragged in the left-right direction, the icon expands or contracts in the left-right (horizontal) direction. In this case, the process proceeds to step S23. If any of the four corners of the icon is clicked and dragged in the up / down / left / right direction, the icon expands / contracts in the up / down / left / right (vertical / horizontal) direction. In this case, the process proceeds to step S24. If the four corners are clicked and dragged to either the top or bottom or left or right, the process may proceed to step S22 or S23 depending on the expansion / contraction direction, or may proceed to step 24 as it is.
[0051]
In step S22, a vertical icon expansion / contraction value is obtained according to expansion / contraction. In step S23, an icon expansion / contraction value in the horizontal direction is obtained according to the expansion / contraction. In step S24, the icon expansion / contraction values in the horizontal direction and the vertical direction are obtained according to the expansion / contraction. If the expansion / contraction value of the icon is obtained, the expansion / contraction value of the corresponding icon in the music data is corrected in step S25. In step S26, one or more of the note data selected in step S9 is supplied to the tone generator circuit 2J. After the note-on is supplied, the note-off is supplied after a time interval until the note-off. When the number of selected notes is plural, a plurality of note-on and note-off are supplied according to the generation timing and generation order of the notes. In step S27, at the timing according to the state, the performance parameter of the bank determined by the note number and velocity corresponding to the selected performance style icon is read, and corrected with the icon expansion / contraction value obtained in steps S22 to S24. Then, the modified performance style parameter is supplied to each block of the sound source. The rendition style parameters are supplied at the same timing as in step S12 described above. Through the processing in steps S26 and S27, a musical tone corresponding to the modified performance style icon can be auditioned.
[0052]
The music data may be a mixture of data of a plurality of tracks. The format of the song data is the “event + absolute time” format in which the performance event occurrence time is expressed in absolute time in the song or measure, and the performance event occurrence time is expressed in time from the previous event. “Event + relative time” format, “pitch (rest) + note length” format that represents performance data in terms of note pitch and note length or rest and rest length, for each minimum performance resolution Any format may be used, such as a “solid method” format in which a memory area is secured in a memory area and performance events are stored in a memory area corresponding to the time at which the performance event occurs.
[0053]
【The invention's effect】
According to the present invention, there is an effect that a high-quality performance expression equivalent to that of a natural musical instrument can be given to automatic performance data only by selecting and assigning a template corresponding to a desired musical instrument performance or performance method.
[Brief description of the drawings]
FIG. 1 shows a specific example of a case where a system program related to an automatic performance control data input device according to the present invention operates in the automatic performance device shown in FIG. 2, and the automatic performance device operates as an automatic performance control data input device. It is a figure which shows a block structure.
FIG. 2 is a block diagram showing a hardware configuration of an entire automatic performance apparatus incorporating a control data input device for automatic performance according to the present invention.
FIG. 3 is a diagram illustrating an example of an image (chart) displayed on a display unit in response to a screen designation command fetched by a display circuit.
4 is a diagram showing a modification of the image (chart) in FIG. 3;
FIG. 5 is a diagram showing a hierarchical structure of a database composed of pitch parameters, amplifier parameters, and filter parameters.
FIG. 6 is a diagram illustrating an example of a parameter detection apparatus that creates a pitch template, an amplifier template, a filter Q-template, a filter cutoff template, and the like.
FIG. 7 is a diagram showing an example of detected waveforms of an amplifier and a pitch in a guitar bend-up (choking) playing method, vibrato playing method, and hammering-on playing method.
FIG. 8 is a diagram showing a music data storage format when a performance style icon is pasted.
FIG. 9 is a diagram showing an example of a processing flow when the automatic performance device of FIG. 2 operates as a control data input device for automatic performance.
10 is a diagram illustrating an example of an icon correction process in FIG. 9. FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 11 ... Input part, 12 ... Input conversion part, 13 ... Image selection part, 14 ... Standard musical score symbol memory, 15 ... Icon image memory, 16 ... Instrument selector, 17 ... State selector 17, 18 ... Representation style icon selector, 19 ... Icon Expansion / contraction value calculation unit, 1A ... note / velocity detection unit, 1B ... pitch parameter database, 1C ... filter parameter database, 1D ... amplifier parameter database, 1E-1G ... icon parameter selector, 1J-1L ... modification unit, 1P-1R ... Parameter bank selector, 1S ... waveform data memory, 1T ... bank selector, 1U ... pitch synthesizer, 1V ... timbre synthesizer, 1W ... amplifier synthesizer, 1X ... recording controller, 1Y ... sequence memory, 1Z ... playback Part, 21 ... CPU, 22 ... ROM, 23 ... R M, 24 ... External storage device, 25 ... Operator detection circuit, 26 ... Operator means, 27 ... Communication interface, 28 ... Communication network, 29 ... Server computer, 2A ... MIDI interface, 2B ... Other MIDI devices, 2E ... Keyboard, 2F ... Keyboard detection circuit, 2G ... Display (liquid crystal), 2H ... Display circuit, 2J ... Sound source circuit, 2K ... Effect circuit, 2L ... Sound system, 2N ... Timer, 2P ... Data and address bus

Claims (18)

有棹撥弦楽器の種々の奏法から抽出された発音状態の変化に関する制御データを楽音波形の立上りから立下りまでの部分で分類して構成し、複数記憶するデータ記憶手段と、
前記データ記憶手段の中からいずれかの制御データを選択する制御データ選択手段と、
曲データを記憶する曲データ記憶手段と、
前記曲データの中からいずれかの音符データを選択する音符データ選択手段と、
音符データ選択手段によって選択された前記音符データを前記制御データ選択手段によって選択された前記制御データに基づいて変化させるように前記曲データに前記制御データを付与する制御手段と
を具備することを特徴とする自動演奏の制御データ入力装置。
A data storage means for storing and storing a plurality of control data relating to changes in the pronunciation state extracted from various performance methods of the plucked plucked musical instrument in the portion from the rising edge to the falling edge of the musical sound waveform ;
Control data selection means for selecting any control data from the data storage means;
Song data storage means for storing song data;
Note data selection means for selecting any note data from the song data;
Control means for adding the control data to the music data so as to change the note data selected by the note data selection means based on the control data selected by the control data selection means. Control data input device for automatic performance.
前記制御データはギターやベースで演奏可能なチョーキング奏法、グリスアップ奏法、グリスダウン奏法、ビブラート奏法、ベンドダウンアップ奏法、ショートカット奏法、ミュート奏法、ハンマリングオン奏法、プリングオフ奏法、スライドアップ奏法、スライドダウン奏法、クレシェンド奏法、デクレシェンド奏法などの少なくとも一つに基づいて実際に演奏された楽器の楽音波形から抽出されたもので構成されていることを特徴とする請求項1に記載の自動演奏の制御データ入力装置。The control data includes choking performance, grease-up performance, grease-down performance, vibrato performance, bend-down performance, shortcut performance, mute performance, hammering-on performance, pull-off performance, slide-up performance, slide, which can be played on guitar and bass 2. The automatic performance according to claim 1, wherein the automatic performance is composed of one extracted from a musical sound waveform of a musical instrument actually played based on at least one of a down performance method, a crescendo performance method, a decrescendo performance method, and the like. Control data input device. 前記制御データは種々の奏法に基づいたギター又はベースの楽音波形の立上りから立下りまでの発音状態の変化をアタック部、ボディ部及びリリース部の各部分に分類して構成したものであることを特徴とする請求項1又は2に記載の自動演奏の制御データ入力装置。Said control data is constructed by classifying the rise of the guitar or bass tone waveform based on various rendition style attack portion changes in the pronunciation state until the falling, to each part of the body portion and release portion The control data input device for automatic performance according to claim 1 or 2. 前記制御データは、種々の奏法に基づいた有棹撥弦楽器の楽音波形の立上りから立下りまでの発音状態の変化アタック部、ボディ部及びリリース部の各部分に分類して構成したものであることを特徴とする請求項1に記載の自動演奏の制御データ入力装置。 The control data, the attack portion changes in the sound state of the rise of the tone waveform of Yusaobachi stringed instrument based on various rendition styles to the fall, it is constructed by classifying the respective portion of the body portion and release portion The automatic performance control data input device according to claim 1 . 前記制御データはさらにギター又はベースで演奏可能な複数音符に依存する全体奏法に関するもの、音符と音符の組み合わせに関するものの少なくとも一つを含んで構成されていることを特徴とする請求項3又は4に記載の自動演奏の制御データ入力装置。5. The control data according to claim 3, wherein the control data further includes at least one of a whole playing method depending on a plurality of notes that can be played on a guitar or a bass and a combination of notes and notes. The automatic performance control data input device described. 前記制御データはギター又はベースで演奏可能なチョーキング奏法、グリスアップ奏法、グリスダウン奏法、ビブラート奏法、ベンドダウンアップ奏法、ショートカット奏法、ミュート奏法、ハンマリングオン奏法、プリングオフ奏法、スライドアップ奏法、スライドダウン奏法、クレシェンド奏法、デクレシェンド奏法などの少なくとも一つに基づいたもので構成されていることを特徴とする請求項4又は5に記載の自動演奏の制御データ入力装置。The control data includes choking performance, grease-up performance, grease-down performance, vibrato performance, bend-down performance, shortcut performance, mute performance, hammering-on performance, pull-off performance, slide-up performance, slide that can be played on guitar or bass 6. The automatic performance control data input device according to claim 4, wherein the control data input device is based on at least one of a down performance method, a crescendo performance method, a decrescendo performance method, and the like. 前記制御データはチョーキング奏法の速さ及び深さの少なくとも一つに基づいた異なる複数のデータを有することを特徴とする請求項2又は6に記載の自動演奏の制御データ入力装置。7. The automatic performance control data input device according to claim 2, wherein the control data includes a plurality of different data based on at least one of speed and depth of choking performance. 前記制御データはグリスダウン奏法及びグリスアップ奏法の速さに基づいた異なる複数のデータを有することを特徴とする請求項2又は6に記載の自動演奏の制御データ入力装置。7. The automatic performance control data input device according to claim 2, wherein the control data includes a plurality of different data based on the speeds of the grease down performance and the grease up performance. 前記制御データはビブラート奏法の速さ、深さ及びビブラート長の少なくとも一つに基づいた異なる複数のデータを有することを特徴とする請求項2又は6に記載の自動演奏の制御データ入力装置。7. The automatic performance control data input device according to claim 2, wherein the control data includes a plurality of different data based on at least one of speed, depth and vibrato length of a vibrato performance. 前記制御データはベンドダウンアップ奏法の速さ及び深さの少なくとも一つに基づいた異なる複数のデータを有することを特徴とする請求項2又は6に記載の自動演奏の制御データ入力装置。7. The automatic performance control data input device according to claim 2, wherein the control data includes a plurality of different data based on at least one of speed and depth of a bend down-up performance. 前記制御データはショートカット奏法の速さに基づいた異なる複数のデータを有することを特徴とする請求項2又は6に記載の自動演奏の制御データ入力装置。7. The automatic performance control data input device according to claim 2, wherein the control data includes a plurality of different data based on a speed of a shortcut performance method. 前記制御データはミュート奏法の速さに基づいた異なる複数のデータを有することを特徴とする請求項2又は6に記載の自動演奏の制御データ入力装置。7. The automatic performance control data input device according to claim 2, wherein the control data includes a plurality of different data based on the speed of the mute performance. 前記制御データはハンマリングオン奏法の速さ及び音高の少なくとも一つに基づいた異なる複数のデータを有することを特徴とする請求項2又は6に記載の自動演奏の制御データ入力装置。7. The automatic performance control data input device according to claim 2, wherein the control data includes a plurality of different data based on at least one of speed and pitch of hammering-on performance. 前記制御データはプリングオフ奏法の速さ及び音高の少なくとも一つに基づいた異なる複数のデータを有することを特徴とする請求項2又は6に記載の自動演奏の制御データ入力装置。7. The automatic performance control data input device according to claim 2, wherein the control data includes a plurality of different data based on at least one of speed and pitch of a pull-off performance. 前記制御データはスライドアップ奏法及びスライドダウン奏法の速さ及び音高の少なくとも一つに基づいた異なる複数のデータを有することを特徴とする請求項2又は6に記載の自動演奏の制御データ入力装置。7. The automatic performance control data input device according to claim 2, wherein the control data includes a plurality of different data based on at least one of speed and pitch of a slide-up performance and a slide-down performance. . 前記制御データはアンプリチュードの変化に関するもの、ピッチの変化に関するもの、及びフォルマントの変化に関するものの中の少なくとも一つに基づいて構成されていることを特徴とする請求項1から15までのいずれか1に記載の自動演奏の制御データ入力装置。16. The control data according to claim 1, wherein the control data is configured based on at least one of amplitude-related changes, pitch-related changes, and formant-related changes. The automatic performance control data input device described in 1. 発音状態の変化に関する制御データを曲データ中のいずれかの音符データに付与することによって、その音符データの発音状態を前記制御データに基づいて変化させる自動演奏の制御データ入力装置に使用される機械読取り可能な記録媒体であって、
有棹撥弦楽器の種々の奏法から抽出された発音状態の変化に関する制御データを楽音波形の立上りから立下りまでの部分で分類して構成し、複数記憶したデータベースを具備することを特徴とする記録媒体。
A machine used in a control data input device for automatic performance in which control data relating to a change in sound generation state is given to any note data in music data, thereby changing the sound generation state of the note data based on the control data A readable recording medium,
A record characterized by comprising a database that stores a plurality of stored control data relating to changes in the sounding state extracted from various performances of the plucked plucked musical instrument by classifying it from the rise to the fall of the musical sound waveform. Medium.
前記制御データは、種々の奏法に基づいた有棹撥弦楽器の楽音波形の立上りから立下りまでの発音状態の変化アタック部、ボディ部及びリリース部の各部分に分類して構成したものであることを特徴とする請求項17に記載の記録媒体。 The control data, the attack portion changes in the sound state of the rise of the tone waveform of Yusaobachi stringed instrument based on various rendition styles to the fall, it is constructed by classifying the respective portion of the body portion and release portion The recording medium according to claim 17 .
JP02282499A 1999-01-29 1999-01-29 Automatic performance control data input device Expired - Fee Related JP3702690B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP02282499A JP3702690B2 (en) 1999-01-29 1999-01-29 Automatic performance control data input device
EP00101249A EP1028409B1 (en) 1999-01-29 2000-01-25 Apparatus for and method of inputting music-performance control data
DE60018626T DE60018626T2 (en) 1999-01-29 2000-01-25 Device and method for entering control files for music lectures
US09/492,435 US6362411B1 (en) 1999-01-29 2000-01-27 Apparatus for and method of inputting music-performance control data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02282499A JP3702690B2 (en) 1999-01-29 1999-01-29 Automatic performance control data input device

Publications (2)

Publication Number Publication Date
JP2000221975A JP2000221975A (en) 2000-08-11
JP3702690B2 true JP3702690B2 (en) 2005-10-05

Family

ID=12093451

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02282499A Expired - Fee Related JP3702690B2 (en) 1999-01-29 1999-01-29 Automatic performance control data input device

Country Status (1)

Country Link
JP (1) JP3702690B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3635658B2 (en) * 2001-02-15 2005-04-06 ヤマハ株式会社 Editing instruction apparatus, method, and program related to the method
JP3654227B2 (en) * 2001-09-25 2005-06-02 ヤマハ株式会社 Music data editing apparatus and program

Also Published As

Publication number Publication date
JP2000221975A (en) 2000-08-11

Similar Documents

Publication Publication Date Title
EP1028409B1 (en) Apparatus for and method of inputting music-performance control data
JP3675287B2 (en) Performance data creation device
JP3740908B2 (en) Performance data processing apparatus and method
EP1026660B1 (en) Apparatus for and method of inputting a style of rendition
US6166313A (en) Musical performance data editing apparatus and method
JP3484988B2 (en) Performance information editing method and recording medium storing performance information editing program
JP4274272B2 (en) Arpeggio performance device
JP3915807B2 (en) Automatic performance determination device and program
JP2005173632A (en) Performance data generating apparatus
JP3829780B2 (en) Performance method determining device and program
JP3702691B2 (en) Automatic performance control data input device
JP3702690B2 (en) Automatic performance control data input device
JP3835443B2 (en) Music generator
JP3702689B2 (en) Automatic performance control data input device
JP4614307B2 (en) Performance data processing apparatus and program
JP3700442B2 (en) Performance system compatible input system and recording medium
JP3654026B2 (en) Performance system compatible input system and recording medium
JP3709821B2 (en) Music information editing apparatus and music information editing program
JP3719157B2 (en) Music data expression device, music data expression method, and music data expression program
JP3721822B2 (en) Rendition style input system
JP3900187B2 (en) Performance data creation device
JP3620396B2 (en) Information correction apparatus and medium storing information correction program
JP3956961B2 (en) Performance data processing apparatus and method
JP3797180B2 (en) Music score display device and music score display program
JP3797181B2 (en) Music score display device and music score display program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050315

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050711

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090729

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090729

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100729

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100729

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110729

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110729

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120729

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees