JP4007418B2 - Performance data expression processing apparatus and recording medium therefor - Google Patents

Performance data expression processing apparatus and recording medium therefor Download PDF

Info

Publication number
JP4007418B2
JP4007418B2 JP2000166881A JP2000166881A JP4007418B2 JP 4007418 B2 JP4007418 B2 JP 4007418B2 JP 2000166881 A JP2000166881 A JP 2000166881A JP 2000166881 A JP2000166881 A JP 2000166881A JP 4007418 B2 JP4007418 B2 JP 4007418B2
Authority
JP
Japan
Prior art keywords
musical
performance
musical tone
tone
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000166881A
Other languages
Japanese (ja)
Other versions
JP2001350471A (en
Inventor
則夫 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2000166881A priority Critical patent/JP4007418B2/en
Publication of JP2001350471A publication Critical patent/JP2001350471A/en
Application granted granted Critical
Publication of JP4007418B2 publication Critical patent/JP4007418B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、演奏に人間味のあるギター奏法などの楽器奏法を演奏データに反映させた表情付けを行う演奏データの表情付け処理装置及びその記録媒体に関する。
【0002】
【従来の技術】
従来、演奏データに楽器特有の特徴的な発音特性を付与するためには、ユーザがその位置を探し、それ相応の特性がでるようにエディットしていた。この場合、音質をアコースティックに近づけるためには、アコースティックの特性を十分に知っていなければならない上、手間をいとわない根気を必要としていた。
【0003】
例えば、シーケンサなどにおいて、或るパート、主としてギターのメロディパートを、打ち込む場合、ピッチベンドデータなどを付加してギターのハンマリングらしくさせている。例えば、高価なバンドスコアなどでは、ハンマリングオンの場所をスコア上に書き込み、このスコアを見ながら、ピッチベンドデータを作って貼り付けたり修正したりすることにより、ギターのハンマリングらしくさせている。しかしながら、このような作業は非常に面倒なものである。
【0004】
スライド奏法(ボトルネック奏法)についても、手本になる曲があれば手本曲を聴きながら打込みを行うことになるが、手間がかかり、事情は同様である。また、手本になる曲がない場合は、さらに、打込み者自身の判断によりスライド奏法のデータを付加しなければならない。
【0005】
ビブラートについては、何処にどの程度のビブラートが必要であるかを考えてビブラートデータを作成しているので、多大の時間と労力を要する。また、ボリューム奏法によるギターらしさを表現するために、ボリュームなどの加工を行っているが、これにも高度な打込み技術が必要である。
【0006】
ギターパートの打込みでは、従来は、必要と思われる部分に、ミュート音又はEG波形の加工により作成したミュート音を付加しているので、高度な打込み技術を要している。さらに、ギターのアルペジオについては、通常、アルペジオを打ち込んで各楽音に対し適当な音長やベロシティを付けて表情付けを行っており、この方法も非常にやっかいで手間がかかる。
【0007】
また、打込み音楽では、ギターパートのアドリブ、リフ、エンディング等のソロ部分において、スタンダード的なフレーズがあるが、このようなフレーズを打ち込むのも、また、非常に面倒である。
【0008】
【発明が解決しようとする課題】
この発明の目的は、このような事情に鑑み、たんたんとした演奏ではなく、音色に適した特性を当てがい、自然な楽器らしさを表現する演奏データを容易に生成することができる演奏データの表情付け処理装置及び記録媒体を提供することにある。
【0009】
【課題を解決するための手段】
この発明の主たる特徴に従うと、演奏データを取得するデータ取得手段と、所定音色に対応する楽器の奏法に応じた楽音データ又は楽音特性変更ルールを記憶する記憶手段と、所定音色に対応する楽器の奏法を指定する奏法指定手段と、データ取得手段により取得された演奏データを構成する複数の楽音の発音状態を解析すると共に、楽音の音色が第1の音色か第2の音色かを判断する解析手段と、解析手段により楽音の音色が第1の音色と判断されたときに、解析された結果に基づいて、当該音色が判断された楽音における特定部分の楽音特性を、奏法指定手段により指定された奏法に応じて記憶手段から取り出された楽音データ又は楽音特性変更ルールに対応するように変更し、楽音特性の変更がなされた第1の音色の楽音を含む演奏データを生成する第1の変更処理手段であって、この楽音特性の変更は、奏法指定手段により指定された奏法が特定の奏法である場合に、当該音色が判断された楽音に対し、別途記憶されている楽譜にない音を付加することを含むものと、解析手段により楽音の音色が第2の音色と判断されたときに、解析された結果に基づいて、当該音色が判断された楽音における特定部分の楽音特性を、奏法指定手段により指定された奏法に応じて記憶手段から取り出された楽音データ又は楽音特性変更ルールに対応するように変更し、楽音特性の変更がなされた第2の音色の楽音を含む演奏データを生成する第2の変更処理手段と、第1の変更処理手段によって楽音特性の変更がなされた楽音を含む演奏データに基づく楽音信号を発生し、第2の変更処理手段によって楽音特性の変更がなされた楽音を含む演奏データに基づく楽音信号を発生する楽音信号発生手段とを具備する演奏データの表情付け処理装置(請求項1)が提供される。
【0010】
また、この特徴に従って、所定音色に対応する楽器の奏法に応じた楽音データ又は楽音特性変更ルールを記憶する記憶手段と音源を含む楽音信号処理手段とを備えるコンピュータに、演奏データを取得するデータ取得手段、所定音色に対応する楽器の奏法を指定する奏法指定手段、データ取得手段により取得された演奏データを構成する複数の楽音の発音状態を解析すると共に、楽音の音色が第1の音色か第2の音色かを判断する解析手段、奏法指定手段により指定された奏法及び解析手段により解析された結果に基づいて、記憶手段から所定の楽音データ又は楽音特性変更ルールを取り出す取出手段、解析手段により楽音の音色が第1の音色と判断されたときに、解析された結果に基づいて、当該音色が判断された楽音における特定部分の楽音特性を、取出手段により取り出された楽音データ又は楽音特性変更ルールに対応するように変更し、楽音特性の変更がなされた第1の音色の楽音を含む演奏データを生成する第1の変更処理手段であって、この楽音特性の変更は、奏法指定手段により指定された奏法が特定の奏法である場合に、当該音色が判断された楽音に対し、別途記憶されている楽譜にない音を付加することを含むもの、解析手段により楽音の音色が第2の音色と判断されたときに、解析された結果に基づいて、当該音色が判断された楽音における特定部分の楽音特性を、取出手段により取り出された楽音データ又は楽音特性変更ルールに対応するように変更し、楽音特性の変更がなされた第2の音色の楽音を含む演奏データを生成する第2の変更処理手段、並びに、第1の変更処理手段によって楽音特性の変更がなされた楽音を含む演奏データに基づく楽音信号を楽音信号処理手段に発生させ、第2の変更処理手段によって楽音特性の変更がなされた楽音を含む演奏データに基づく楽音信号を楽音信号処理手段に発生させる楽音発生指示手段として機能させるためのプログラムを記録している演奏データの表情付け処理のためのコンピュータ読み取り可能な記録媒体(請求項7)が提供される。
【0011】
この発明による表情付け処理装置において、解析手段は、データ取得手段により取得された演奏データの各チャンネルにおける楽音の発音状態を解析する(請求項2)ように構成し、また、第1又は第2の変更処理手段による楽音特性の変更は、ランダム性乃至所定の確率をもって実行される(請求項3)ように構成することができる。
【0012】
また、この発明の表情付け処理装置において、解析手段は、演奏進行上における所定区間の所定位置にある1又は複数の楽音を検出し、第1又は第2の変更処理手段は、検出された楽音の特定部分の楽音特性を、奏法指定手段により指定された奏法に応じた特性に変更し、第1又は第2の変更処理手段のそれぞれに対応した第1又は第2の音色の楽音を含む演奏データを生成する(請求項4)ように構成することができる。さらに、解析手段は、演奏進行上の所定区間におけるテンポ及び該所定区間における楽音特性を変更すべき所定位置を解析し、第1の変更処理手段は、テンポが所定の値より低く、所定区間の所定位置にある楽音の楽音特性を、奏法指定手段により指定された奏法に応じた特性に変更し、第1の音色の楽音を含む演奏データを生成する(請求項5)ように構成することができる。また、解析手段は、データ取得手段により取得された演奏データを構成する複数の楽音から特定の奏法の箇所を解折し、第1の変更処理手段は、特定の奏法の箇所にある楽音の楽音特性を、第1の音色に対応する楽器の奏法に応じた特性に変更し、第1の音色の楽音を含む演奏データを生成する(請求項6)ように構成することができる。
【0013】
〔発明の作用〕
この発明では、演奏データを構成する複数の楽音を解析し、テンポ、調、音色、楽音の位置(イントロ・アドリブ・リフ・エンディング等の区間位置、弾き始め、最初の音等の音符位置など)、音符相互の関係(前後に既に対応する奏法が施されているか・連符・上昇/下降など)、楽音の発音指示状況(アルペジオ等)、曲想、フレーズの流れなどの、所定音色(各種ギター、サックス等)に対応する楽器の奏法(ボトルネック奏法、ボリューム奏法などの奏法)が適用されるべき条件を求める。そして、楽音の音色が第1の音色(各種ギター)であると判断された場合、解析結果に応じて、特定の楽音それぞれに対し、奏法指定手段により指定された奏法に対応して、ミュート装飾音・チョーキング・ハンマリング・プリングオフ・スライド等の予め記憶しておいた楽音データ、或いは、ハンマリングオン/プリングオフ・アルペジオ等に関する特性変更ルールに対応する特性を付加し、さらに、スライド等については、楽譜にない音を付加する。また、楽音の音色が第2の音色(サックス等)であると判定された場合も、第1の音色と判断された場合と同様に、解析結果に応じて楽音データ又は特性変更ルールに対応する特性を付加する。
【0014】
つまり、選択された音色で選択された音高の楽音がただならすものではなく、人が楽器を操作することで入ってしまう楽器操作に特有の音質特性を付与すべき対象を自動的に判定し、これに適性な特性を付加するようにしている。従って、より自然で感情や環境や雰囲気をも表現し、楽器奏法に応じて十分に表情付けされた演奏データを生成することができる。さらに、変更(変化)する各楽音特性は、所定音色に対応する楽器の奏法を指定する奏法指定手段により、任意に選択することができる。
【0015】
また、この発明では、楽音特性変更の処理は、他のパート(チャンネル)の発音状態を考慮したり、連続的な処理箇所にはランダム性乃至所定の確率をもって実行する手法が効果的である。
【0016】
この発明は、所定音色をギター音色として実施することにより、特に顕著な表情付け効果が得られる。ギターの演奏操作においては、独特の人間味のある楽音以外の演奏音がなることがあったり、また、楽音の微妙な変化が発生することがある。これは楽器の演奏上の特性であり、同じギターでも種類によってその特性は異なる。従って、以下に詳述する実施例ではギターをとりあげているが、サックスやその他の楽器又は音色に適用可能であり、音色に応じて具体的な処理方法を変えることができる。
【0017】
この発明において、変更(変化)させる特性には、ボトルネック(スライド)奏法の付加〔模擬/擬似ボトルネック奏法〕、ボリューム〔模擬/擬似ボリューム奏法〕、別に記憶してある装飾音データ(例えば、ミュート音)などの付加や、ハンマリングオン・プリングオフの付加、その他のアーキュティレーション(名プレイヤーの手癖、フィーリングを真似した特性)の付加〔フレーズの挿入〕、アルベジオの位置に対応した特性変化〔アルペジオ特殊奏法〕、ビブラートが集っている場合に微妙に変化するビブラート特性の付与〔ビブラート付加〕などがある。
【0018】
より、具体的に説明する。楽譜を見て、楽譜データを、そのまま、シーケンサなどに打ち込んで再生すると、単なるノートオン/オフのメロディになってしまう。この発明の一実施例では、元演奏データのフレーズの中でギターのスライド奏法(ボトルネック奏法)を付加する音を検出する。例えば、アメリカっぽいムードを出したい場合、スライド奏法を付加する音を自動的に検出する。そして、検出された音に対して、ピッチのアップ/ダウン両方向から、1音〜1オクターブの間でスライドさせる。従って、手本となる曲がなくても、スライド奏法を自動的に容易に付加することができる。
【0019】
この場合、オープンチューニング(数種類ある)を想定して、元の音以外に、その隣の弦の音及びその他コード構成音なども、自動的にスライド・発音させることができる。また、スライド時のメカ音を必要に応じて付加することができ、これには、例えば、スライド時に弦を擦ることにより発生する実際の擦り音をサンプリングしておき、このメカ音を、必要な箇所に付加する。
【0020】
この発明の一実施例では、シーケンサで打ち込んだギターパートの中で必要と思われる部分、例えば、テンポが比較的スローでありイントロ・アドリブ・エンディング等のギターの弾き始め部分、イントロで、ドラムパートが動いておらず、ギターのみ又はギター・キーボード・ストリングス等のパートでスタートする部分、テンポフリーなどの部分を検出し、検出した部分のEG、ボリューム、アンプリチュード等に、ボリューム奏法に相当する音量変化を与えるように構成しているので、初心者でもギター表現を楽に行うことができるようにしている。なお、ギターパートでないパートでもこの手法を使うことによりギターらしく表現することができる。
【0021】
この発明の一実施例では、予め、ミュート音をメモリしておき、シーケンサで打ち込んだギターパートの中で必要と思われる部分、例えば、テンポが比較的スローでありイントロ・アドリブ・エンディング等のギターの弾き始め部分や、8・16分音符連符の後などの部分を検出し、メモリしておいたミュート音をこの部分に装飾音として付加することにより、音の存在にメリハリを付ける。さらに、付加する度合いを軽減できるように構成することにより、初心者でもギター表現を楽に行うことができるようにしている。なお、ギターパートでないパートでもこの手法を使うことによりギターらしく表現することができる。
【0022】
この発明の一実施例では、シーケンサのアーティキュレーションの一つとしてギターのハンマリング奏法の付加を機能させ、この機能を取り込むことにより、楽曲のどのようなメロディフレーズにも自動的にギターのハンマリング奏法が付加され、ハンマリングの発生数も、任意に、増加又は減少させることが可能となる。従って、ギターで弾いているようなフレーズを自動作成することができる。
【0023】
例えば、ギターパートの譜面上にハンマリングオンの場所が明記されていない場合、この機能を使うことによって、自動的にハンマリングオンの付加された演奏データを作成し、ギターらしく聴かせることができる。また、他の楽器パートも、この機能を適用することによって、ギターフレーズに近い演奏データを得ることができる。
【0024】
この発明の一実施例では、ギターパートのアドリブ、リフ、エンディング等のソロ部分におけるスタンダード的なフレーズに対応して、MIDIギター又は打込みよって、予め、チョーキング、ハンマリング、プリングオフ、スライド等のアーティキュレーションを含んだフレーズのデータをMIDIデータとして何種類か用意しておく。これらのデータは、テンポや調が違っていても、シーケンサ側では、自動的に変換を行い対応可能にしておく。そして、必要なときに必要なデータを呼び出しシーケンスに貼り付けていく。これにより、難しいフレーズパフォーマンスが可能になる。
【0025】
なお、これらのフレーズには、演奏者(名プレーヤ)等の手癖やフィーリングが含まれることになるので、フレーズのデータを予め用意しておく工程は、プレーヤを選ぶことにもなる。また、ギターだけでなく、サックスなど、他の全ての楽器のパフォーマンス的フレーズ等を用意しておくことによって、当該楽器及びプレーヤの特徴をシーケンサにて実現することができる。
【0026】
この発明の一実施例では、さらに、アルペジオのルール化を行うことによって、ギターのアルペジオをより自然に聴かせることができる。つまり、打込み音楽において、ギターパートにアルペジオがある場合、ただ、譜面通りに打ち込んでも表情は生まれないので、この発明では、あたかも人間が弾いているようにルール化を行う。例えば、所定のルールを用いて、アルペジオ連符に最適な音長を自動的に与え、また、各楽音のベロシティを自動的に与えるようにする。
【0027】
この発明の一実施例では、近辺でビブラートが多い場合はビブラートの特性を一定にせず、微妙に変化させるビブラート付加処理を行うようにしている。この処理では、予め、ビブラートデータをMIDIデータとしてサンプルしておく。例えば、ギターでいえば、弦と平行な方向に弦を揺らす(弦の張力を変化させる)ようなデリケートなビブラートデータや、弦と垂直な方向に弦を揺らす(特に、エレクトリックギター等で多用されるチョーキング)ビブラートデータなどをサンプルしておく。そして、フレーズの流れ、音長、テンポ、曲想などに応じて、サンプルしておいたビブラートデータを自動的に付加する。また、付加されたビブラートデータは、ユーザの好みに応じて、その深さや速さ等をエディットすることができるように構成される。従って、フレーズの流れ、音長、テンポ、曲想などに対応した自然な表現のビブラートを付加することができる。
【0028】
【発明の実施の形態】
以下、図面を参照しつつ、この発明の好適な実施例について詳述する。しかしながら、この実施例は、単なる一例であって、この発明の精神を逸脱しない範囲で種々の変更が可能である。
【0029】
〔ハードウエア構成〕
図1には、この発明の一実施例による演奏データ処理システムのハードウエア構成のブロック図が示されている。この例では、演奏システムは、中央処理装置(CPU)1、読出専用メモリ(ROM)2、ランダムアクセスメモリ(RAM)3、外部記憶装置4、パネル操作子装置(操作パネル)5、演奏操作子装置6、表示装置7、音源8、ディジタル信号処理装置(DSP)9、サウンドシステム10、インターフェイス11等を備え、これらの装置1〜11は、バス12を介して互いに接続されている。この発明による演奏データ処理システムは、電子楽器やシーケンサのような音楽を専用に扱う電子機器の形態で実施することができるが、パーソナルコンピュータ(PC)等の汎用的なデータ処理装置を用いて実施することもできる。また、電子楽器の形態を取った場合、鍵盤楽器タイプ、弦楽器タイプ、管楽器タイプ等、種々の形態としてよい。
【0030】
システム全体を制御するCPU1は、所定のプログラムに従って種々の制御を行い、特に、この発明によるパネル設定及び加工処理を実行する。ROM2には、このシステムを制御するための所定の制御プログラムが記憶されており、これらの制御プログラムには、基本的な演奏情報処理と共に、この発明によるパネル設定及び加工処理に関する各種処理プログラムや各種テーブル、データが含まれる。RAM3は、これらの処理に際して必要なデータやパラメータを記憶し、各種レジスタやフラグ、処理中の各種データ等を一時記憶するためのワーク領域として用いられる。従って、これらの装置1〜3により、プログラムや各種設定値などを読み出し、設定された事項に従い演奏データを処理することができる。
【0031】
外部記憶装置4には、予めシステムに内蔵されているハードディスク(HD)の外に、フロッピーディスク(FD)、光磁気(MO)ディスク、スマートメディア、コンパクトディスク(CD)などの移動可能な記憶媒体を用いた記憶装置が使用される。HDドライブ(HDD)は、制御プログラムや各種データを記憶しておく記憶装置であり、ROM2に制御プログラムが記憶されていない場合、このHDD内のハードディスクに制御プログラムを記憶させておき、それをRAM3に読み込むことにより、ROM2に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができる。また、CDドライブ等により、CD等に記憶されている制御プログラムや各種データを読み出し、HDD内のハードディスクにストアすることもできる。さらに、図示しない通信インターフェイスを通じてサーバコンピュータ等から制御プログラムや各種データをHDD内のハードディスクにストアすることもできるので、制御プログラムの追加やバージョンアップ等が容易に行える。
【0032】
パネル操作子装置(操作パネル)5は、演奏データ処理のための各種設定を行なうための複数の設定用操作子を備え、これらの設定用操作子は、例えば、電子楽器の操作パネル等に取り付けられた各種スイッチや、PCキーボードの各種キーや、マウス等のポインチングデバイスなどであり、「パネル操作子」と呼ばれる。演奏操作子装置6は、楽音データを指定・入力する演奏用操作子を備え、これらの演奏用操作子は、例えば、各種電子楽器における鍵盤等の演奏用操作子や、PCキーボードにおいて演奏用に割り当てられる所定のキーなどであり、「演奏操作子」と呼ばれる。また、表示装置7は、これに接続されるディスプレイや各種インジケータ(図示せず)の表示状態を制御する。なお、ディスプレイに表示された設定画面やデータ入力画面の各種ボタンをポインチングデバイスで指示することにより、各種設定や楽音データの指定・入力を行うこともできる。
【0033】
音源8、DSP9及びサウンドシステム10から成る楽音出力部は、演奏データに基づく楽音を出力させるためのものである。つまり、ソフトウエア又はハードウエアで構成される音源8では、このシステムで処理され生成された演奏データを基にして楽音データを生成し、生成された楽音データを、更に、DSP9でディジタル信号処理し、サウンドシステム10にてDA変換(DAC)及び増幅(アンプ)し放音(スピーカ)を行なう。
【0034】
この実施例では、演奏データは、CDやFD等の可搬記録媒体からの曲データだけでなく、外部の演奏データ生成機器13からもシステムに入力可能である。すなわち、インターフェイス11を介して接続される演奏データ生成機器13から、MIDIなどの演奏データを受信することができる。
【0035】
〔メイン処理〕
図2は、この発明の一実施例による演奏データ処理全体を表わすメイン処理のフローチャートである。ステップR1でシステムの初期化を行い、ステップR2では、操作パネル5のパネル操作子による操作に応じて、モードやパラメータを設定するパネル設定及び演奏データを加工する加工処理を行う。
【0036】
次のステップR3では、演奏操作子装置6の演奏操作子による操作(押鍵等)に応じた楽音データを曲データとして入力したり、外部記憶装置4から曲データを読み出したり、或いは、外部演奏データ生成機器13からの演奏データをインターフェイス11を介して曲データとして入力することにより、データ入力がなされる。
【0037】
ステップR4においては、ステップR2で加工処理により生成された曲データ、或いは、ステップR3でデータ入力されたそのままの曲データを基にして、音源8で楽音データを生成しDSP9で信号処理を行い、サウンドシステム10にて、デジタルからアナログに信号変換してアンプで増幅しスビーカから楽音として放音し、メイン処理の終了指示があるまで、ステップR2〜R4での処理が繰り返し実行される。
【0038】
〔パネル設定及び加工処理〕
図3には、メイン処理(図2)のステップR2におけるパネル設定及び加工処理ルーチンの一例が示されている。このルーチンの第1ステップS1では、パネル操作子による設定入力の操作があるかを判断して、操作があったときステップS2に進み、何も操作がなければ、このパネル設定及び加工処理を終了し(抜け)てステップR3(図2)にリターンする。ステップS2では、設定入力の内容が「自動編集処理の設定」が指示されたか否かを判断し、自動編集処理設定の指示があれば、順次、ステップS3、ステップS4へと進み、そうでなければステップS5に進む。
【0039】
ステップS3においては、エディット対象を設定する。このエディット対象は、現在実行されている演奏モードがリアルタイム演奏の場合は、自動的に、演奏データ全体を対象として設定する。また、外部記憶装置4に記憶されている曲データを読み出してこれを処理する場合は、“その曲全体を処理の対象とするか”、“一部の小節を対象とするか”、または、“どのチャンネルを対象とするか(チャンネルで指定したり、音色の種類で指定したりする。)”は、パネル操作子の設定で決定される。なお、リアルタイム演奏とは、演奏操作子装置6の演奏操作子の操作による楽音データを処理したり、外部機器13から送信されてくる演奏データをそのまま処理することを指す。
【0040】
次のステップS4では、エディット種別を設定する。このエディット種別の設定は、例えば、指定したチャンネル又は音色の曲データにどのような処理を行なうかを設定するものである。例えば、ギター音色については、「ボルトネック奏法」、「ボリューム奏法」、「ミュート装飾音付加」などがある。ステップS4の設定処理の後は、ステップR3(図2)にリターンする。
【0041】
一方、自動編集処理設定の指示でない場合、ステップS5において、「自動編集処理の実行」が指示されたか否かを判定し、自動編集処理設定の指示であればステップS6に進み、そうでなければステップS7に進む。ステップS6では「自動編集処理」が設定されているか否かを確認し、設定されていれば、設定されたとおりに処理するために、ステップS8以下の処理フローに進む。もし、自動編集処理が設定されていない場合は、前述したステップS3,S4の設定フローに進む。
【0042】
ステップS8では、指定された曲データが記録済みのものであるか否かを判定する。すなわち、処理する演奏データが何であるかを判定し、記録済みの演奏データの処理が指定されていれば、ステップS9に進んで記録済み曲データが読み出される。また、外部機器13から送信されてくるMIDIなどの曲データをそのまま処理したり、演奏操作子6から入力された演奏信号による曲データを処理する場合のように、リアルタイム演奏の曲データであれば、ステップS10に進む。ステップS10では、入力されてきているリアルタイム演奏の当該曲データをそのままRAM3にロードする処理を行い、次のステップS11において、解析可能なデータ量を確保できる一定時間分の曲データが蓄積されたときに、当該曲データを読み出す。
【0043】
ステップS9,S11で曲データが読み出されると、ステップS12に進み、読み出された曲データについて加工処理を行い、この加工処理を終えるとステップR3(図2)にリターンする。
【0044】
また、ステップS5からステップS7に進んだ場合は、ステップS7において、「その他入力」のあった指示を実行する。この「その他入力」には、例えば、「自動演奏データの指定」、演奏データの「読出し」、「再生開始」、「エディット指示」、「リアルタイム演奏」モードなど、その他種々の設定操作による入力項目がある。そして、これらの入力項目を参照し、対応する処理を実行した後、ステップR3(図2)にリターンする。なお、「リアルタイム演奏」モードの設定操作に対しては、演奏モード情報を「リアルタイム演奏」にセットし、この情報は、ステップS3の処理などに反映される。
【0045】
〔加工処理〕
図4は、パネル設定及び加工処理(図3)のステップS12における加工処理サブルーチンの一例を示す。このサブルーチンでは、まず、第1〜第5ステップS121〜S125では、「テンポ情報」、「処理すべき楽音データの曲中の位置」及び「処理すべきチャンネルや音色」を検出したり、フレーズの流れを解析したり、或いは、曲想を検出するなど、種々の曲情報の検出・解析を行った後、続くステップS126の特性変更処理に進む。
【0046】
ステップS126においては、ステップS121〜S125で検出・解析した事項を基にして、曲データ中の処理すべき楽音データの特性を変更する処理を実行する。この特性変更処理の後は、ステップS127にて、特性が変更され小節された曲データを、オリジナルとは別に、新規に外部記憶装置4に記録し(オリジナルの演奏データも必要に応じて記録する)、続くステップS128で、「修正後、即、再生する」同時再生モードが設定されるか否かを調べる。
【0047】
ここで、「同時再生」モードが設定されていれば、ステップS129に進んで、修正された曲データによる演奏処理を行う。すなわち、同時再生が設定されている場合は、加工が済んだ演奏データを音源8に出力してDSP9で信号処理し、サウンドシステム10で放音させる。そして、ステップS129で再生処理をした後、或いは、ステップS128で同時再生の設定が確認された場合は、この加工処理を終了してステップR3(図2)にリターンする。
【0048】
このように、この発明の演奏データの表情付け処理装置では、演奏データを構成する複数の楽音の状態(テンポ、曲位置、音色、フレーズの流れや曲想)を解析し(S121〜S125)、解析結果に基づいて、演奏データにおける特定楽音の特性を、指定された楽器奏法に応じた特性に変更し、所定音色(例えば、ギター)の演奏データを生成する(S126)。また、予め、所定音色に対応する楽器の奏法に応じた楽音データ又は楽音特性変更ルールを記憶しておき、解析結果に基づいて、演奏データの特定部分の楽音特性を、指定された奏法に応じた楽音データ又は楽音特性変更ルールに対応するように変更することもできる。なお、特性変更処理はランダム性乃至所定の確率をもって実行することができる。
【0049】
〔特性変更処理〕
図5〜図7は、加工処理(図4)のステップS126における特性変更処理の概略的処理フロー例を示す。この処理フロー例では、まず、ステップT1にて、ステップS123で検出された音色が所定の「音色A」(例えば、ギター)であるかどうか判断し、音色AであればステップT2に進み、そうでなければステップT3(図7)に進む。ステップT2では、さらに、模擬ボリューム奏法の設定があるか否かを調べて、模擬ボリューム奏法が設定されていると判断した場合は、ステップT4に進んで、図8により説明する模擬ボリューム奏法処理を実行した後ステップT5に進み、そうでないときは、直ちに、ステップT5に進む。
【0050】
ステップT5では、模擬ボトルネック奏法の設定があるか否かを判定し、模擬ボトルネック奏法が設定されていると判断した場合は、ステップT6に進んで、図9により説明する模擬ボトルネック奏法処理を実行した後ステップT7に進み、そうでないときは、直ちに、ステップT7に進む。ステップT7では、フレーズの挿入の設定があるか否かを判断する。このフレーズにはミュート装飾音が含まれる。ミュート装飾音を含むフレーズの挿入が設定されていると判断した場合は、ステップT8に進んで、図10及び図11により説明するフレーズの挿入処理を実行した後ステップT9(図6)に進み、そうでないときは、直ちにステップT9に進む。
【0051】
ステップT9では、アルペジオ特殊奏法の設定があるか否かを判断し、アルペジオ特殊奏法が設定されていると判断した場合は、ステップT10に進んで、図12により説明するアルペジオ特殊奏法処理を実行した後さらにステップT11に進み、そうでないときは、直ちにステップT11に進む。ステップT11では、ビブラート付加の設定があるか否かを判断し、フレーズの挿入が設定されていると判断した場合は、ステップT12に進んで、図13により説明するビブラート付加処理を実行した後ステップT13に進み、そうでないときは、直ちにステップT13に進む。
【0052】
ステップT13では、その他の変更可能な特性項目について、変更処理されるべきものと設定されているかどうかを調べ、変更処理されるべき特性項目があれば、当該特性の変更処理を実行する。そして、ステップT13の処理後はこの特性変更処理を終了し、ステップS127(図4)にリターンする。
【0053】
さて、ステップT1(図5)からステップT3(図7)に進んだ場合は、ステップS123で検出された音色が、別の「音色B」、例えば、サックスであるかどうか判断し、音色BであればステップT14に進み、そうでなければステップT15に進む。ステップT14では、ステップT2〜T13(図5〜図6)と同様の処理を行い、当該曲データについて、種々の条件に応じて当該音色Bに相応する特性変更の処理を行い、これらの処理の実行後、ステップS127(図4)にリターンする。また、ステップT15では、ステップT1,T3と同様に、更に別の音色C,D,…であるかどうか判断し、これらの音色であれば、ステップT2〜T13(図5〜図6)やステップT14と同様に、当該曲データについて、種々の条件に応じて当該音色C,D,…に相応する特性変更の処理を行った後、ステップS127にリターンする。
【0054】
〔模擬ボリューム奏法処理〕
図8は、特性変更処理のステップT4で実行される模擬ボリューム奏法処理のフローチャート例を示す。この処理フローの第1ステップVL1では、ステップS121で検出したテンポ情報を或る所定値“X”と比較する。その結果、テンポが所定値“X”よりスロー(遅い)であればステップVL2に進み、スローでない場合は特性変更処理のステップT5(図5)にリターンする。
【0055】
ステップVL2では、更に、曲データの当該箇所がイントロ、アドリブ、エンデイング等の区間であるかを判定し、そうである場合にはステップVL3へ行き、そうでない場合にはテップT5にリターンする。ステップVL3では、更に、引き始めの部分であるかを判定し、そうであれば、ステップVL4でボリューム奏法を付加する処理が実行され、そうでない場合にはテップT5にリターンする。ステップVL4でのボリューム奏法の処理においては。ボリューム奏法を付加する位置として決定された当該部分に対して、図14のように、音量をMINからMAXに変化するように曲データの特性を変更してやればよい。
【0056】
ステップVL1〜VL3での模擬ボリューム奏法処理条件には、他のパートの演奏状態を考慮することが好ましい。このような条件としては、例えば、イントロ部分で、図14のように、2分音符が続く部分であって、しかも、ギターパート以外(特に、ドラムパート)は演奏を休んでいる部分、或いは、ギターパートとキーボード・ストリングス等によりスタートする部分を、検出する。そして、ステップVL4において、EG、アンプリチュード、ボリューム等により、ギターのボリューム奏法〔例えば、図14のように、ギターのボリュームつまみのMIN(最小値)の無音状態でピッキングし、このつまみをMAX(最大値)の方向に回すことにより、バイオリン的な音の立上りを得る奏法〕を実現するのである。このようにしてギターのボリューム奏法を実現し、メルヘンチックな効果を得ることにより、ギターらしく表現することができる。
【0057】
〔模擬ボトルネック奏法処理〕
図9は、特性変更処理のステップT6で実行される模擬ボトルネック奏法処理のフローチャート例を示す。この処理フローの第1ステップBN1では、曲データの楽音を調べ、その前の音にUpスライドを付加するUP処理がなされている(BN6,BN9)か否かを判定し、前の音がUP処理されている場合は、ステップBN2で、さらに、当該楽音の音高が前の音よりも低いか否かを判断する。ステップBN2で前の音よりも低いと判定されると、続くステップBN3において、Downスライドを付加する処理が実行される。ステップBN3のDOWN処理では、ランダム性をもたせ、しかも、付加率を変えてDownスライドが付加される。一方、第1ステップBN1で前の音がUP処理されていないと判定されたときはステップBN4に進み、ステップBN2で前の音よりも低くはないと判定されたときは特性変更処理のステップT7(図5)にリターンする。
【0058】
ステップBN4では、当該楽音の前の音にDownスライドを付加するDOWN処理がなされている(BN3)か否かを判定し、前の音がDOWN処理されている場合は、ステップBN5で、さらに、当該楽音の音高が前の音よりも高いか否かを判断する。ステップBN5で前の音よりも高いと判定されると、続くステップBN6において、所定条件を考慮してUpスライドを付加するUP処理が実行される。ステップBN6のUP処理では、ランダム性をもたせ、しかも、付加率を変えてUpスライドが付加される。一方、ステップBN4で前の音がDOWN処理されていないと判定されたときはステップBN7に進み、ステップBN5で前の音よりも高くはないと判定されたときはステップT7にリターンする。
【0059】
ステップBN7では、更に、当該楽音がイントロ、アドリブ、エンデイングなどの位置であるかを判定し、そうである場合にはステップBN8に進み、さらに、当該楽音がイントロ、アドリブ、エンデイングなどにおける最初の音であるか否かを判定し、最初の音であれば、ステップBN9に進んで当該楽音にUpスライドを付加するUP処理が実行される。ステップBN9のUP処理では、ランダム性をもたせ、しかも、付加率を変えてUpスライドが付加される。一方、ステップBN7でイントロ、アドリブ、エンデイングなどの位置でないと判定されたとき、及び、ステップBN8で最初の音でないと判定されたときは、ステップT7にリターンする。
【0060】
ステップBN3,BN6,BN9においてスライドを発生させる場合、各楽音は、本来の音高よりも数セントの狂いを発生させるように処理し、ランダム性をもたせ且つ付加率を変えて付加する。また、この場合、8分音符を含め音長の長い音には、ビブラートを付加する処理を併用することが好ましい。このビブラートには、周期及び変調度が共に不安定なものを含む独特のビブラートが有効である。これらの処理によって、フレーズの各楽音のピッチの不安定さを演出することができる。さらに、スライド演奏する時に弦を擦ることにより生じる音を「スライド音」として予めメモリしておき、スライド発生時に、このスライド音を付加する。
【0061】
模擬ボトルネック奏法処理においては、さらに、楽譜にない音を付加することができる。ボトルネック奏法は、通常、オープンチューニングされたギターを使用してスコア上の音符以外の音を発生させることが多い。そこで、当該曲データの調を検出し、その調にチューニングされたギターを想定して、スライド発生時には、当該楽音に隣り合う弦のスライドバーのポジションの音を付加する。この場合にも、ランダム性をもたせ且つ付加率を変える。
【0062】
〔フレーズの挿入処理〕
図10及び図11は、特性変更処理のステップT8で実行されるフレーズの挿入処理のフローチャート例を示す。この処理フローの第1ステップPH1では、ステップS121で検出したテンポが所定値“Y”よりスローであるか否かを検出し、スローであれば、ステップPH2〜PH5のミュート音付加のための処理を実行し、スローでない場合はステップPH6(図11)に進んで次のフレーズ挿入処理へ移る。
【0063】
ミュート装飾音を付加するための処理の第1ステップPH2では、曲データの楽音が、イントロ、アドリブ、エンディングなどの区間に属しているものなのかを判定し、これらの区間にあればステップPH3に進み、そうでなければステップPH6に進む。ステップPH3では当該楽音が区間の弾き始めであるか否かを判定し、弾き始めであればステップPH5に進み、そうでなければステップPH4で、さらに、当該楽音が所定の音符状態(8,16分音符の連符等)の後であるか否かを判定する。ここで、所定の音符状態の後であれば、ステップPH5に進み、そうでなければステップPH6に進む。
【0064】
ステップPH5においては、予め記憶されているミュート装飾音を付加する処理が実行される。例えば、ギターにおいて適当にミュートした音を1音ずつ4音ほど別々に外部記憶装置4の所定領域にメモリしておく。上述のステップPH2〜PH4のような自動化判定基準に従って、例えば、図15(1)のような曲データ部分を検出すると、ステップPH5で、記憶されているミュート音データを読み出し、図15(2)のように、フレーズ、テンポ等に合うように、ミュート装飾音Mを検出部分に付加する。この場合、付加する度合い(付加率)を軽減したり、付加する装飾音の数も軽減することができるように構成することが好ましい。
【0065】
さて、ステップPH6(図11)に進んだ場合は、曲データの当該箇所が条件aを満たしているか否か判断する。この条件aは、例えば、メロディが上昇或いは下降しているハンマリングオン及びプリングオフに適した部分である。ここで該当する部分である判定されると、ステップPH7に進んでアーティキュレーションAを曲データの当該部分に加える処理を行った後、ステップPH8に進み、そうでない場合は、直ちに、ステップPH8に進む。
【0066】
ステップPH7では、アーティキュレーションAとして、例えば、ハンマリングオン及びプリングオフを当該部分に付加する。なお、ハンマリングオン及びプリングオフは、予めルール化されている。すなわち、図16の譜例のように、メロディが上昇するときにはハンマリングオンHが用いられ、下降するときにはプリングオフPが用いられることが多い。そこで、ステップPH6で判定されたメロディ上昇部に、交互にハンマリングオンを発生させる。この発生度合いは増減させることができ、メロディ、リズム、スピード等に合うようにする。また、図16のように、1つ前と同じ音高に戻るときに、プリングオフを発生させる。この場合、ハンマリングオンは音量を小さくし、プリングオフは、ハンマリングオンよりも音量を大きくするのが好ましい。
【0067】
ここで、ハンマリングオンのルールの一例を説明する。予め、フレーズに対する分解能を設定しておき、設定しておいた分解能で抽出されたノートに対して処理を行う。例えば、・同じ音程のノートが続く、・4半音程のノートが続く、・ノートが下降している、という条件のときに対象ノート数のカウントをリセットし、次の処理を行う:
・対象ノートがカウント“2”のとき、1−2、
・対象ノートがカウント“3”のとき、1−2(2−3)、
・対象ノートがカウント“4”のとき、2−3(1−2)、
・対象ノートが奇数なら、1−2(2−3)、
・対象ノートが偶数なら、2−3(1−2)。
・対象ノートがカウント“3”のとき、2−3(1−2)、
【0068】
また、ハンマリングオン及びプリングオフのルールは、例えば、・同じ音程のノートが続く、・4半音程以上離れたノートが続く、という条件のときに対象ノート数のカウントをリセットし、次の処理を行う:
・対象ノートがカウント“2”のとき、1−2、
・対象ノートがカウント“3”のとき、1−2(2−3)、
・対象ノートがカウント“4”のとき、2−3(1−2)、
・対象ノートが奇数なら、1−2(2−3)、
・対象ノートが偶数なら、2−3(1−2)。
【0069】
このようなハンマリングオン及びプリングオフの発生は、楽譜データにハンマリングオンやプリングオフが明記されていない場合、他の楽器パートをギターとして聴かせたい場合、単に、頭に浮かんだメロディを打ち込んで、ギターらしくさせたい場合などに有効な手段である。
【0070】
ステップPH8では、曲データの当該箇所が条件bを満たしているか否か判断する。この条件bは、例えば、アドリブ、リフ、エンディング等のソロ部分である。ここで該当する部分である判定されると、ステップPH9に進んで、MIDIデータとして予め用意してある「チョーキング、ハンマリング、プリングオフ、スライド等」のアーティキュレーションBを曲データの当該部分に加える処理を行う。
【0071】
ステップPH9での処理のために、予め、チョーキング、ハンマリング、プリングオフ、スライド等のアーティキュレーションを含んだフレーズのデータをMIDIデータとして何種類か用意しておく。これらのデータは、テンポや調が違っていても、システム側で自動的に変換を行い対応可能にしておく。そして、ステップPH8で対応する該当部分が検出されると、必要なデータを呼び出して当該部分に付加する。付加されるフレーズには、所定の楽器、例えば、ギターの演奏者(名プレーヤ)等の手癖やフィーリングが含まれ、当該プレーヤの特徴的な表示を実現することができる。
【0072】
そして、ステップPH9におけるアーティキュレーションBの付加処理の後、或いは、ステップPH8で該当する部分でないと判定されたときは、このフレーズの挿入処理を終了し、特性変更処理のステップT9(図6)にリターンする。
【0073】
〔アルペジオ特殊奏法処理〕
図12は、特性変更処理のステップT10で実行されるアルペジオ特殊奏法処理のフローチャート例を示す。この処理フローの第1ステップAR1では、曲データの当該箇所がアルペジオ奏法の部分であるか否かを検出し、アルペジオであれば、ステップAR2,AR3のアルペジオ特殊奏法のための処理を行い、アルぺジオに係る各楽音の関係を検出し、この関係に応じて所定の特性を楽音に加える。この処理の後、及び、アルペジオでない場合は、特性変更処理のステップT11(図6)にリターンする。
【0074】
ギターのアルベジオ奏法では、アルペジオの中の音は次の音がきて弾かれ、ベース音及び最高音は、次の音がくるのに比較的時間がかかるので、伸びっぱなしになることが多い。そこで、この発明による特殊奏法処理においては、あたかも人間が弾いているようにアルペジオのルール化を行うことによって、ギターのアルペジオをより自然に聴かせる表情付けを行うことができる。このため、先ず、ステップAR2で、最高音及びベース音の検出を行い、アルペジオ連符の各楽音に所定の音量を与える修正を行う。
【0075】
ステップAR2における音長の修正では、例えば、次のようなルールを用いて、アルペジオ連符に最適な音長を自動的に与える:
1.各小節においてアルペジオの連符の中で最高の音高をもつ最高音(第1弦及び第2弦での発音に相当することが多い。)を検出し、検出した最高音の音長を長くする。
2.各小節においてアルペジオの連符の中で最低の音高をもつベース音第5弦及び第6弦での発音に相当することが多い。)を検出し、検出したベース音の音長を長くする。
3.検出されたアルペジオ構成音に対して適当な音長を与えて更に表情付けを行う。
4.各楽音に対する音長修正は、適当な間引きを行い、その実行を軽減する。
【0076】
次に、ステップAR3では、図17に示すように、アルペジオにおける音高の昇降パターンに応じて、楽音に幾つかの種類のベロシティを自動的に与える。例えば、アルペジオ音高の変化パターンには、図17(1)のように、単純に上昇するパターンや、単純に下降するパターンの外に、下降したあと上昇するパターンや、上昇したあと下降するパターンがあるが、これらのパターンに対応して、例えば、図17(2)に示すようなベロシティパターンを何種類か用意しておく。そして、検出したアルペジオの昇降パターンに応じて適切なベロシティパターンを選択し、対応するベロシティ値を各楽音に与える。なお、スリーフィンガーピッキングのように、隣り合った音に大きい音高差があり、弦が隣り合わない場合などには、両音のベロシティ差を比較的に大きい目につけておくように構成することが好ましい。
【0077】
〔ビブラート付加処理〕
図13は、特性変更処理のステップT12で実行されるビブラート付加処理のフローチャート例を示す。この処理フローの第1ステップVB1では、曲データの当該楽音が8分音符より長い音符に相当する音長であるか否かを検出する。つまり、ビブラートを付加する場所を検出するために、8分音符を含め、それ以上の比較的長く発音する音であるかを判定する。このように比較的長い音符であった場合は、ビブラートを付加する対象としてステップVB2に進み、そうでない場合には、特性変更処理のステップT13(図6)にリターンする。
【0078】
ステップVB2においては、所定音色、例えば、ギター音色に対応して標準値が決められているビブラートの深さ値を読み出し、これを当該楽音のビブラート深さ値(ビブラート変調度)に決める。この場合、エレクトリックギター、特に、ディストーション効果を施したギターにおいては、ビブラート変調度を深くし、アコースティックギターでは、これよりも浅くする。また、ナイロン弦のギターの場合は、弦と平行する方向に揺らして、変調度の浅いデリケートなビブラートを付加する。さらに、スライドギターでのビブラートは、音程の中心ピッチを基準にして、高音及び低音の両方向に変調するビブラートを付加する。
【0079】
ステップVB2に続くステップVB3では、これから付加する対象楽音の近くにビブラートが付加されているものが複数存在しているかを検出し、検出された場合には、ステップVB4に進んで、前回(前のビブラート付加音)とは異なるビブラート波形を形成し、その波形を基にして対象の楽音にビブラートを付加する。一方、特に周辺にビブラートを付加したものがなければ、ステップVB5に進んで、読み出した標準値を基にビブラート波形を形成し楽音に付加する。このようにして、ビブラート付加にランダム性をもたせることができる。
【0080】
なお、付加するビブラートが多過ぎると判断されるときは、ビブラートを付加する対象箇所をランダムに選択し、ビブラート付加にランダム性をもたせるように構成することもできる。また、ビブラートを付加した箇所にはディレイをかけるのが好ましい。ステップVB4,VB5の処理の後は、ステップT13にリターンする。
【0081】
〔種々の実施態様〕
最も典型的には、演奏データ(曲データ)を取得(入力)するのに、システムの外部記憶装置4に記憶されている楽曲データを読み出し、これを解析及び加工するという処理を行うが、処理対象とする楽曲データは、外部機器13からMIDI形式で送られてくるものであってもよく、この場合、送信されてくるデータをリアルタイムで処理しても、一旦、外部記憶装置4(例えば、HDD)に記憶しておいてからそれを読み出して処理してもよい。また、システムに付属している演奏操作子6の操作による発音指示データに応じて楽音の特性を変更してもよく、この場合においてもリアルタイムで処理してもよいし、一度、外部記憶装置4に記憶してからそれを読み出して処理してもよい。
【0082】
【発明の効果】
以上説明したように、この発明によれば、演奏データを構成する複数の楽音を解析し、テンポ、調、音色、楽音の位置、音符相互の関係、楽音の発音指示状況、曲想、フレーズの流れなどの、所定音色(各種ギター、サックス等)に対応する楽器の奏法が適用されるべき条件を求め、その結果に応じて、特定の楽音それぞれに対し、予め記憶しておいた楽音データ又は特性変更ルールに対応する特性を付加すると共に、楽音の音色が第1の音色(各種ギター)の場合には楽譜にない音を付加するようにして、選択された音色で選択された音高の楽音がただならすものではなく、人が楽器を操作することで入ってしまう楽器操作に特有の音質特性を付与すべき対象を自動的に判定し、これに適性な特性を付加する。従って、より自然で感情や環境や雰囲気をも表現し、楽器奏法に応じて十分に表情付けされた演奏データを生成することができる。
【図面の簡単な説明】
【図1】図1は、この発明の一実施例による演奏データの表情付け処理装置のハードウエア構成を示すブロック図である。
【図2】図2は、この発明の一実施例による演奏データ処理全体を表わすメイン処理のフローチャートである。
【図3】図3は、この発明の一実施例によるパネル設定及び加工処理ルーチンを示す図である。
【図4】図4は、この発明の一実施例による加工処理を表わすフローチャートである。
【図5】図5は、この発明の一実施例による加工処理中の特性変更処理を表わすフローチャートの第1部分である。
【図6】図6は、この発明の一実施例による加工処理中の特性変更処理を表わすフローチャートの第2部分である。
【図7】図7は、この発明の一実施例による加工処理中の特性変更処理を表わすフローチャートの第3部分である。
【図8】図8は、この発明の一実施例による特性変更処理中の模擬ボリューム奏法処理を表わすフローチャートである。
【図9】図9は、この発明の一実施例による特性変更処理中の模擬ボトルネック奏法処理を表わすフローチャートである。
【図10】図10は、この発明の一実施例による特性変更処理中のフレーズの挿入処理を表わすフローチャートの第1部分である。
【図11】図11は、この発明の一実施例による特性変更処理中のフレーズの挿入処理を表わすフローチャートの第2部分である。
【図12】図12は、この発明の一実施例による特性変更処理中のアルペジオ特殊処理を表わすフローチャートである。
【図13】図13は、この発明の一実施例による特性変更処理中のビブラート付加処理を表わすフローチャートである。
【図14】図14は、この発明の一実施例による模擬ボリューム奏法を説明するための図である。
【図15】図15は、この発明の一実施例によるフレーズの挿入におけるミュート装飾音挿入を説明するための図である。
【図16】図16は、この発明の一実施例によるフレーズの挿入におけるハンマリングオン・プリングオフの適用を説明するための図である。
【図17】図17は、この発明の一実施例によるアルペジオ特殊奏法を説明するための図である。
【符号の説明】
1 中央処理装置(CPU)、
4 外部記憶装置、
5 演奏操作子装置、
6 パネル操作子装置(操作パネル)、
13 外部の演奏データ生成機器(外部機器)。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a performance data facial expression processing apparatus and a recording medium thereof for performing facial expression by reflecting musical performance such as a guitar performance that is human in performance in performance data.
[0002]
[Prior art]
Conventionally, in order to give the musical performance characteristic peculiar sounding characteristics to the performance data, the user searches for the position and edits so that the corresponding characteristic can be obtained. In this case, in order to bring the sound quality close to that of the acoustic, it is necessary to know the characteristics of the acoustic sufficiently, and it is necessary to be patient.
[0003]
For example, in a sequencer or the like, when a certain part, mainly a melody part of a guitar, is input, pitch bend data or the like is added to make it seem like a hammering of a guitar. For example, in an expensive band score, the location of the hammering-on is written on the score, and while watching this score, the pitch bend data is created and pasted or modified to make it look like hammering on the guitar. However, such work is very troublesome.
[0004]
As for the slide performance method (bottleneck performance method), if there is a sample song, it will be performed while listening to the sample song, but it takes time and the situation is the same. In addition, if there is no sample music, slide performance data must be added at the discretion of the driver.
[0005]
As for vibrato, since vibrato data is created in consideration of where and how much vibrato is required, a great deal of time and labor are required. In addition, in order to express the characteristic of a guitar by volume playing technique, processing such as volume is performed, but this also requires advanced driving techniques.
[0006]
Conventionally, when a guitar part is driven, a mute sound or a mute sound created by processing an EG waveform is added to a portion considered necessary, so that a high level of driving technique is required. Furthermore, for guitar arpeggios, the arpeggio is usually used to express each musical tone with an appropriate length and velocity, and this method is very cumbersome and time-consuming.
[0007]
In addition, there are standard phrases in the solo part such as ad lib, riff, ending, etc. of the guitar part, but it is also very troublesome to input such a phrase.
[0008]
[Problems to be solved by the invention]
In view of such circumstances, the object of the present invention is not a simple performance but an expression of performance data that can easily generate performance data that expresses the character of a natural instrument by applying characteristics suitable for timbre. To provide a processing device and a recording medium.
[0009]
[Means for Solving the Problems]
According to the main features of the present invention, data acquisition means for acquiring performance data, storage means for storing musical tone data or musical tone characteristic change rules according to the playing method of the musical instrument corresponding to the predetermined tone color, and the musical instrument corresponding to the predetermined musical tone A performance style designating means for designating performance styles, and an analysis for determining the tone state of a plurality of musical sounds constituting the performance data acquired by the data acquisition means and determining whether the tone color of the musical tone is the first tone color or the second tone color When the timbre of the musical tone is determined to be the first timbre by the means and the analyzing means, the musical performance characteristic of a specific part in the musical tone from which the timbre is determined is specified by the rendition style specifying means based on the analyzed result. The musical performance data including the musical tone of the first tone color that has been changed so as to correspond to the musical tone data or the musical tone characteristic changing rule extracted from the storage means according to the playing method and the musical tone characteristic has been changed. This musical characteristic change is stored separately for the musical tone for which the tone is determined when the performance specified by the performance specifying means is a specific performance. Including the addition of a sound that is not included in the musical score being recorded, and when the tone of the musical tone is determined to be the second timbre by the analyzing means, based on the analysis result, The second tone color in which the tone characteristics are changed by changing the tone characteristics of the specific part so as to correspond to the tone data or the tone characteristics change rule extracted from the storage means according to the playing style designated by the playing style designation means. A second change processing unit for generating performance data including a musical tone, and generating a musical sound signal based on the performance data including the musical sound whose musical characteristic has been changed by the first change processing unit, Stage expressive processor performance data and a music signal generating means for generating a musical tone signal based on the performance data including a tone has been changed tone characteristics by (Claim 1) is provided.
[0010]
Further, in accordance with this feature, data acquisition for acquiring performance data in a computer having storage means for storing musical tone data or musical characteristic change rules according to the playing method of a musical instrument corresponding to a predetermined tone color and musical tone signal processing means including a sound source Means for designating a performance method of a musical instrument corresponding to a predetermined tone color; analyzing a sound generation state of a plurality of musical sounds constituting the performance data acquired by the data acquisition unit; and determining whether the tone color of the musical tone is the first tone color. Analyzing means for judging whether the timbre is two, a playing method designated by the playing style designating means, and a extracting means for taking out predetermined musical tone data or a tone characteristic changing rule from the storage means based on the result analyzed by the analyzing means; When the tone color of the musical tone is determined to be the first tone color, based on the analysis result, the specific portion of the musical tone for which the tone color is determined is determined. A first change process for generating musical performance data including a musical tone of the first tone color in which the musical tone characteristic is changed by changing the musical characteristic to correspond to the musical tone data extracted by the extraction means or the musical characteristic changing rule. The musical sound characteristic is changed by adding a sound that is not included in the separately stored musical score to the musical tone whose tone color is determined when the performance method specified by the performance specification means is a specific performance method. When the timbre of the musical tone is determined to be the second timbre by the analysis means by the analyzing means, based on the analysis result, the musical characteristic of the specific part of the musical tone for which the timbre is determined is extracted by the extracting means. Second change processing means for generating performance data including a musical tone of the second tone color that has been changed so as to correspond to the extracted musical tone data or musical tone characteristic change rule, and whose musical tone characteristic has been changed, and A musical tone signal based on performance data including a musical tone whose musical tone characteristic has been changed by the first change processing means is generated in the musical tone signal processing means, and a musical performance including the musical tone whose musical tone characteristic has been changed by the second change processing means. Provided is a computer-readable recording medium for expression processing of performance data in which a program for causing a musical sound signal processing means to generate a musical sound signal based on data is recorded. Is done.
[0011]
In the expression processing apparatus according to the present invention, the analysis means is configured to analyze the sound generation state of the musical sound in each channel of the performance data acquired by the data acquisition means (claim 2), and the first or second The change of the musical tone characteristic by the change processing means can be executed with randomness or a predetermined probability (claim 3).
[0012]
In the expression processing apparatus according to the present invention, the analysis means detects one or a plurality of musical tones at a predetermined position in a predetermined section in the performance progress, and the first or second change processing means detects the detected musical tones. A performance including a musical tone of the first or second tone color corresponding to each of the first or second change processing means is changed to a characteristic according to the performance style designated by the performance style designation means. Data can be generated (claim 4). Further, the analyzing means analyzes the tempo in the predetermined section in the performance progress and the predetermined position where the musical sound characteristic in the predetermined section is to be changed, and the first change processing means has a tempo lower than the predetermined value, The musical tone characteristic of the musical tone at a predetermined position is changed to a characteristic corresponding to the musical performance method designated by the musical performance designation means, and performance data including the musical tone of the first tone color is generated (claim 5). it can. Further, the analysis means breaks down a specific performance style part from a plurality of musical sounds constituting the performance data acquired by the data acquisition means, and the first change processing means performs a musical tone of the musical sound at the specific performance style part. The characteristic can be changed to a characteristic corresponding to the playing style of the musical instrument corresponding to the first timbre, and performance data including the musical tone of the first timbre can be generated (claim 6).
[0013]
[Effects of the Invention]
In the present invention, a plurality of musical sounds constituting performance data are analyzed, and tempo, key, tone color, musical sound position (intro, ad lib, riff, ending, etc. section position, beginning of playing, first musical note position, etc.) Predetermined timbres (various guitars, etc.) such as the relationship between notes (whether or not the corresponding playing method has already been applied before / after, tuplet, ascending / descending, etc.), the sound generation instruction status (arpeggio, etc.), musical composition, phrase flow, etc. , Saxophone, etc.) The conditions to be applied to musical instrument performance (performance techniques such as bottleneck performance and volume performance) are to be applied. When it is determined that the tone color of the musical tone is the first tone color (various guitars), the mute decoration corresponding to the performance method designated by the performance style designating unit for each specific musical tone according to the analysis result. Pre-stored musical sound data such as sound, choking, hammering, pull-off, slide, etc., or characteristics corresponding to the rules for changing characteristics related to hammering-on / pull-off, arpeggio, etc. Adds sounds that are not in the score. Further, when it is determined that the tone color of the musical tone is the second tone color (such as saxophone), the musical tone data or the characteristic change rule is handled according to the analysis result, as in the case where the tone color is determined to be the first tone color. Add properties.
[0014]
In other words, the target tone should not be provided with the selected tone and the tone quality characteristic of the instrument operation that is entered when a person operates the instrument is automatically determined. , To add suitable characteristics to this. Accordingly, it is possible to generate performance data that more naturally expresses emotions, environments, and atmospheres and that is sufficiently expressed in accordance with the musical instrument performance. Furthermore, each musical tone characteristic to be changed (changed) can be arbitrarily selected by a performance style designating means for designating a performance style of a musical instrument corresponding to a predetermined tone color.
[0015]
Further, according to the present invention, it is effective to perform the musical characteristic changing process by considering the sounding state of other parts (channels) or executing the random processing or the predetermined probability at continuous processing points.
[0016]
According to the present invention, a particularly remarkable expression effect can be obtained by implementing the predetermined tone color as a guitar tone color. In the performance operation of the guitar, there may be a performance sound other than a unique human tone, or a subtle change in the sound may occur. This is a performance characteristic of musical instruments, and the characteristic varies depending on the type of the same guitar. Therefore, the embodiment described in detail below takes a guitar, but it can be applied to saxophones and other musical instruments or timbres, and a specific processing method can be changed according to the timbre.
[0017]
In the present invention, the characteristics to be changed (changed) include addition of a bottleneck (slide) playing method [simulation / pseudo bottleneck playing method], volume [simulation / pseudo-volume playing method], and separately stored decoration sound data (for example, Added mute sound), added hammering on / off, added other arcuation (characteristics that mimic the feeling of a famous player, feeling imitation) [insert phrase], and supported albeggio position There is a characteristic change [Arpeggio special playing method], a vibrato characteristic that changes subtly when vibrato is gathered [vibrato addition], and the like.
[0018]
More specific description will be given. If you look at the score and play the score data directly into a sequencer or the like, it will become a mere note-on / off melody. In one embodiment of the present invention, a sound to which a guitar slide performance (bottleneck performance) is added is detected in a phrase of the original performance data. For example, when an American-like mood is desired, a sound to which a slide performance is added is automatically detected. Then, the detected sound is slid between 1 sound and 1 octave from both the pitch up / down directions. Therefore, a slide performance can be automatically and easily added even if there is no sample music.
[0019]
In this case, assuming the open tuning (there are several types), in addition to the original sound, the sound of the adjacent string and other chord constituent sounds can be automatically slid and pronounced. In addition, a mechanical sound during sliding can be added as necessary. For example, an actual rubbing sound generated by rubbing a string during sliding is sampled, and this mechanical sound is added to the necessary sound. Append to the location.
[0020]
In one embodiment of the present invention, a part that is considered necessary among the guitar parts that are input by the sequencer, for example, a guitar playing start part such as an intro ad lib ending with a relatively slow tempo, an intro, a drum part The volume that corresponds to the volume playing method is detected in the detected parts such as EG, volume, amplitude, etc. Since it is configured to give changes, even beginners can easily perform guitar expressions. Note that parts that are not guitar parts can be expressed like a guitar by using this method.
[0021]
In one embodiment of the present invention, a mute sound is stored in advance, and a portion that is considered necessary among guitar parts that are input by a sequencer, for example, a guitar that is relatively slow in tempo and has an intro ad lib ending, etc. Detecting the beginning of playing, the part after the 8 / 16th note tuplet, etc., and adding the stored mute sound as a decoration sound to this part adds a sharpness to the presence of the sound. Furthermore, by configuring so that the degree of addition can be reduced, even beginners can easily perform guitar expression. Note that parts that are not guitar parts can be expressed like a guitar by using this method.
[0022]
In one embodiment of the present invention, adding a guitar hammering technique as one of the articulations of the sequencer, and incorporating this function, the guitar hammer is automatically applied to any melody phrase of the musical composition. A ring performance method is added, and the number of occurrences of hammering can be arbitrarily increased or decreased. Therefore, it is possible to automatically create a phrase as if playing on a guitar.
[0023]
For example, if the location of the hammering on is not specified on the musical score of the guitar part, using this function can automatically create performance data with hammering on and make it sound like a guitar. . Also, other musical instrument parts can obtain performance data close to a guitar phrase by applying this function.
[0024]
In one embodiment of the present invention, in response to standard phrases in the solo part such as ad lib, riff, and ending of the guitar part, an art such as choking, hammering, pulling off, slide, etc. is performed in advance by MIDI guitar or driving. Several kinds of phrase data including curation are prepared as MIDI data. Even if the tempo and key are different, the sequencer automatically converts these data so that they can be handled. Then, the necessary data is pasted into the calling sequence when necessary. This allows for difficult phrase performance.
[0025]
Since these phrases include the skill and feeling of the performer (name player) or the like, the step of preparing the phrase data in advance also selects the player. Also, by preparing performance phrases for all other musical instruments such as saxophone as well as the guitar, the characteristics of the musical instrument and the player can be realized by the sequencer.
[0026]
In one embodiment of the present invention, the arpeggio of the guitar can be heard more naturally by making the rules of the arpeggio. In other words, if there is an arpeggio in the guitar part in the struck music, the expression is not created even if the guitar part is struck according to the score, so in the present invention, the rules are set as if human beings are playing. For example, a predetermined rule is used to automatically give an optimal pitch length to the arpeggio tuplet and automatically give the velocity of each musical tone.
[0027]
In one embodiment of the present invention, when there is a lot of vibrato in the vicinity, the vibrato adding process is performed so that the characteristic of the vibrato is not constant and is changed slightly. In this processing, vibrato data is sampled as MIDI data in advance. For example, in the case of a guitar, delicate vibrato data that swings the string in a direction parallel to the string (changes the tension of the string), or rocks the string in a direction perpendicular to the string (especially used frequently in electric guitars, etc.) Choking) Sample vibrato data. The sampled vibrato data is automatically added according to the phrase flow, sound length, tempo, musical composition, and the like. Further, the added vibrato data is configured so that the depth, speed, etc. thereof can be edited according to the user's preference. Therefore, it is possible to add a vibrato of natural expression corresponding to the flow of the phrase, the sound length, the tempo, and the musical composition.
[0028]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. However, this embodiment is merely an example, and various modifications can be made without departing from the spirit of the present invention.
[0029]
[Hardware configuration]
FIG. 1 is a block diagram showing a hardware configuration of a performance data processing system according to an embodiment of the present invention. In this example, the performance system includes a central processing unit (CPU) 1, a read-only memory (ROM) 2, a random access memory (RAM) 3, an external storage device 4, a panel operator device (operation panel) 5, a performance operator. A device 6, a display device 7, a sound source 8, a digital signal processing device (DSP) 9, a sound system 10, an interface 11, and the like are provided, and these devices 1 to 11 are connected to each other via a bus 12. The performance data processing system according to the present invention can be implemented in the form of electronic equipment dedicated to music such as electronic musical instruments and sequencers, but is implemented using a general-purpose data processing device such as a personal computer (PC). You can also Moreover, when taking the form of an electronic musical instrument, various forms such as a keyboard musical instrument type, a stringed musical instrument type, and a wind instrument type may be used.
[0030]
The CPU 1 that controls the entire system performs various controls according to a predetermined program, and in particular, executes panel setting and processing according to the present invention. The ROM 2 stores predetermined control programs for controlling this system. These control programs include various performance programs and various processing programs and panel processing and processing processes according to the present invention. Includes tables and data. The RAM 3 stores data and parameters necessary for these processes, and is used as a work area for temporarily storing various registers and flags, various data being processed, and the like. Therefore, these devices 1 to 3 can read programs and various setting values and process performance data in accordance with the set items.
[0031]
The external storage device 4 includes a removable storage medium such as a floppy disk (FD), a magneto-optical (MO) disk, a smart media, and a compact disk (CD) in addition to a hard disk (HD) built in the system in advance. A storage device using is used. The HD drive (HDD) is a storage device for storing a control program and various data. When no control program is stored in the ROM 2, the control program is stored in the hard disk in the HDD and stored in the RAM 3 The CPU 1 can be made to perform the same operation as when the control program is stored in the ROM 2. In addition, a control program and various data stored in a CD or the like can be read out by a CD drive or the like and stored in a hard disk in the HDD. Furthermore, since a control program and various data can be stored in a hard disk in the HDD from a server computer or the like through a communication interface (not shown), the control program can be easily added or upgraded.
[0032]
The panel operator device (operation panel) 5 includes a plurality of setting operators for performing various settings for performance data processing, and these setting operators are attached to, for example, an operation panel of an electronic musical instrument. Various switches, various keys of a PC keyboard, pointing devices such as a mouse, and the like, which are called “panel operation elements”. The performance operator device 6 includes performance operators for designating and inputting musical sound data. These performance operators are used for performance on, for example, a performance operator such as a keyboard in various electronic musical instruments or a PC keyboard. This is a predetermined key to be assigned and is called a “performance operator”. The display device 7 controls the display state of a display and various indicators (not shown) connected thereto. It is also possible to specify and input various settings and musical tone data by instructing various buttons on the setting screen and data input screen displayed on the display with a pointing device.
[0033]
The musical tone output unit including the sound source 8, the DSP 9, and the sound system 10 is for outputting musical sounds based on performance data. In other words, the tone generator 8 composed of software or hardware generates musical sound data based on performance data processed and generated by this system, and the generated musical sound data is further subjected to digital signal processing by the DSP 9. The sound system 10 performs DA conversion (DAC) and amplification (amplification) to emit sound (speaker).
[0034]
In this embodiment, performance data can be input to the system not only from music data from a portable recording medium such as a CD or FD, but also from an external performance data generation device 13. That is, performance data such as MIDI can be received from the performance data generation device 13 connected via the interface 11.
[0035]
[Main processing]
FIG. 2 is a flowchart of the main process representing the entire performance data process according to one embodiment of the present invention. In step R1, the system is initialized, and in step R2, in accordance with the operation of the panel operator of the operation panel 5, panel settings for setting modes and parameters and processing for processing performance data are performed.
[0036]
In the next step R3, musical tone data corresponding to an operation (key depression or the like) by the performance operator of the performance operator device 6 is input as song data, song data is read from the external storage device 4, or external performance is performed. Data is input by inputting performance data from the data generation device 13 as music data via the interface 11.
[0037]
In step R4, musical tone data is generated by the sound source 8 based on the music data generated by the processing in step R2 or the raw music data input in step R3, and signal processing is performed by the DSP 9. The sound system 10 converts the signal from digital to analog, amplifies it with an amplifier, emits it as a musical sound from the speaker, and repeats the processing in steps R2 to R4 until an instruction to end the main processing is given.
[0038]
[Panel setting and processing]
FIG. 3 shows an example of the panel setting and processing routine in step R2 of the main process (FIG. 2). In the first step S1 of this routine, it is determined whether there is a setting input operation by the panel operator, and if there is an operation, the process proceeds to step S2, and if there is no operation, the panel setting and processing are terminated. Then, the process returns to step R3 (FIG. 2). In step S2, it is determined whether or not “setting of automatic editing process” is instructed as the content of the setting input, and if there is an instruction of automatic editing process setting, the process proceeds to step S3 and step S4 in sequence. If so, the process proceeds to step S5.
[0039]
In step S3, an edit target is set. This editing target is automatically set for the entire performance data when the currently executed performance mode is real-time performance. Further, when reading out song data stored in the external storage device 4 and processing it, “whether the entire song is to be processed”, “whether it is a part of measures”, or “Which channel is the target (specified by channel or by tone type)” is determined by the setting of the panel operator. Note that the real-time performance refers to processing musical sound data by operation of the performance operator of the performance operator device 6 or processing performance data transmitted from the external device 13 as it is.
[0040]
In the next step S4, an edit type is set. The setting of the edit type is, for example, setting what kind of processing is to be performed on the music data of a specified channel or tone color. For example, guitar tone colors include “bolt neck playing”, “volume playing”, and “add mute decoration sound”. After the setting process in step S4, the process returns to step R3 (FIG. 2).
[0041]
On the other hand, if it is not an instruction for automatic editing processing setting, it is determined in step S5 whether or not “execute automatic editing processing” is instructed. If it is an instruction for automatic editing processing setting, the process proceeds to step S6. Proceed to step S7. In step S6, it is confirmed whether or not “automatic editing process” is set. If it is set, the process proceeds to the process flow of step S8 and subsequent steps in order to perform the process as set. If automatic editing processing is not set, the process proceeds to the setting flow of steps S3 and S4 described above.
[0042]
In step S8, it is determined whether or not the designated song data has been recorded. That is, it is determined what performance data is to be processed, and if processing of recorded performance data is designated, the process proceeds to step S9, and recorded music data is read out. In addition, if the music data such as MIDI transmitted from the external device 13 is processed as it is or if the music data based on the performance signal input from the performance operator 6 is processed, the music data is real-time performance. The process proceeds to step S10. In step S10, a process for loading the inputted real-time performance music data as it is into the RAM 3 is performed. In the next step S11, when music data for a certain period of time capable of securing an analyzable data amount is accumulated. Then, the music data is read out.
[0043]
When the song data is read in steps S9 and S11, the process proceeds to step S12, where the read song data is processed, and when this processing is completed, the process returns to step R3 (FIG. 2).
[0044]
If the process proceeds from step S5 to step S7, an instruction having “other input” is executed in step S7. In this “other input”, for example, “automatic performance data designation”, performance data “read”, “playback start”, “edit instruction”, “real-time performance” mode and other input items by various setting operations There is. Then, after referring to these input items and executing the corresponding processing, the process returns to step R3 (FIG. 2). For the setting operation of the “real time performance” mode, the performance mode information is set to “real time performance”, and this information is reflected in the processing of step S3 and the like.
[0045]
[Processing]
FIG. 4 shows an example of the processing subroutine in step S12 of the panel setting and processing (FIG. 3). In this subroutine, first, in the first to fifth steps S121 to S125, "tempo information", "position of musical data to be processed in the song" and "channel and tone color to be processed" are detected, and the phrase After detecting / analyzing various pieces of music information such as analyzing the flow or detecting a musical idea, the process proceeds to the characteristic changing process in the subsequent step S126.
[0046]
In step S126, based on the items detected and analyzed in steps S121 to S125, processing for changing the characteristics of the musical sound data to be processed in the music data is executed. After this characteristic changing process, in step S127, the music data whose characteristics have been changed and the measures have been newly recorded on the external storage device 4 separately from the original (original performance data is also recorded if necessary). In subsequent step S128, it is checked whether or not the simultaneous reproduction mode “reproduce immediately after correction” is set.
[0047]
If the “simultaneous playback” mode is set, the process advances to step S129 to perform performance processing using the corrected music data. That is, when simultaneous playback is set, the processed performance data is output to the sound source 8, signal-processed by the DSP 9, and emitted by the sound system 10. Then, after the reproduction process is performed in step S129, or when the simultaneous reproduction setting is confirmed in step S128, the processing process is terminated and the process returns to step R3 (FIG. 2).
[0048]
As described above, the performance data expression processing apparatus according to the present invention analyzes the states of a plurality of musical sounds (tempo, song position, timbre, phrase flow and composition) constituting the performance data (S121 to S125), and analyzes them. Based on the result, the characteristic of the specific musical tone in the performance data is changed to a characteristic corresponding to the designated musical instrument playing method, and performance data of a predetermined tone color (for example, guitar) is generated (S126). In addition, musical tone data or musical characteristic change rules corresponding to the musical instrument playing method corresponding to the predetermined tone color are stored in advance, and based on the analysis result, the musical tone characteristic of a specific part of the performance data is set according to the designated playing method. It is also possible to make changes so as to correspond to the tone data or the tone characteristic change rule. The characteristic changing process can be executed with randomness or a predetermined probability.
[0049]
[Characteristic change processing]
5 to 7 show a schematic processing flow example of the characteristic changing process in step S126 of the processing process (FIG. 4). In this processing flow example, first, in step T1, it is determined whether or not the timbre detected in step S123 is a predetermined “timbre A” (for example, guitar), and if it is timbre A, the process proceeds to step T2. Otherwise, the process proceeds to step T3 (FIG. 7). In step T2, it is further checked whether or not a simulated volume performance method is set. If it is determined that the simulated volume performance method is set, the process proceeds to step T4, and the simulated volume performance method described with reference to FIG. 8 is performed. After the execution, the process proceeds to step T5, and if not, the process immediately proceeds to step T5.
[0050]
In step T5, it is determined whether or not a simulated bottleneck performance method is set. If it is determined that a simulated bottleneck performance method is set, the process proceeds to step T6, and the simulated bottleneck performance method described with reference to FIG. The process proceeds to step T7 after executing the above. Otherwise, the process proceeds to step T7 immediately. In step T7, it is determined whether there is a phrase insertion setting. This phrase includes a mute decoration sound. If it is determined that the phrase insertion including the mute decoration sound is set, the process proceeds to step T8, the phrase insertion process described with reference to FIGS. 10 and 11 is executed, and then the process proceeds to step T9 (FIG. 6). If not, the process immediately proceeds to step T9.
[0051]
In step T9, it is determined whether or not an arpeggio special performance method is set. If it is determined that an arpeggio special performance method is set, the process proceeds to step T10 to execute the arpeggio special performance method described with reference to FIG. Thereafter, the process further proceeds to step T11. If not, the process immediately proceeds to step T11. In step T11, it is determined whether or not vibrato addition is set. If it is determined that phrase insertion is set, the process proceeds to step T12, and the vibrato addition process described with reference to FIG. 13 is executed. Proceed to T13. Otherwise, proceed immediately to Step T13.
[0052]
In step T13, it is checked whether or not other changeable characteristic items are set to be changed. If there is a characteristic item to be changed, the change process for the characteristic is executed. And after the process of step T13, this characteristic change process is complete | finished, and it returns to step S127 (FIG. 4).
[0053]
When the process proceeds from step T1 (FIG. 5) to step T3 (FIG. 7), it is determined whether or not the timbre detected in step S123 is another “timbre B”, for example, a saxophone. If there is, the process proceeds to Step T14, and if not, the process proceeds to Step T15. In step T14, processing similar to that in steps T2 to T13 (FIGS. 5 to 6) is performed, and the music data is subjected to characteristic change processing corresponding to the timbre B according to various conditions. After execution, the process returns to step S127 (FIG. 4). In step T15, as in steps T1 and T3, it is determined whether or not the timbre is another timbre C, D,..., And if these are timbres, steps T2 to T13 (FIGS. 5 to 6) or Similar to T14, the music data is subjected to a characteristic change process corresponding to the timbre C, D,... According to various conditions, and then the process returns to step S127.
[0054]
[Simulated volume playing method processing]
FIG. 8 shows an example of a flowchart of the simulated volume rendition style process executed at step T4 of the characteristic change process. In the first step VL1 of this processing flow, the tempo information detected in step S121 is compared with a certain predetermined value “X”. As a result, if the tempo is slower (slower) than the predetermined value “X”, the process proceeds to step VL2, and if not, the process returns to step T5 (FIG. 5) of the characteristic changing process.
[0055]
In step VL2, it is further determined whether the portion of the music data is a section such as intro, ad lib, and ending. If so, the process goes to step VL3, and if not, the process returns to step T5. In step VL3, it is further determined whether or not it is a pulling start portion. If so, a process of adding a volume performance method is executed in step VL4. If not, the process returns to step T5. In the volume performance process in step VL4. As shown in FIG. 14, the music data characteristics may be changed so that the volume is changed from MIN to MAX for the portion determined as the position where the volume performance method is added.
[0056]
It is preferable to consider the performance state of other parts in the simulated volume playing method processing conditions in steps VL1 to VL3. As such conditions, for example, in the intro part, as shown in FIG. 14, a part where a half note continues, and a part other than the guitar part (particularly, the drum part) is resting, or The part that starts with the guitar part and keyboard strings is detected. Then, in step VL4, the guitar volume performance method [for example, as shown in FIG. 14, picking in the silent state of the MIN (minimum value) of the volume knob of the guitar is performed by EG, amplitude, volume, etc. By rotating in the direction of (maximum value), a performance method that obtains the rise of a violin-like sound is realized. By realizing the volume playing method of the guitar in this way and obtaining a fairy tale effect, it can be expressed like a guitar.
[0057]
[Simulated bottleneck performance processing]
FIG. 9 shows a flowchart example of the simulated bottleneck performance method process executed in step T6 of the characteristic change process. In the first step BN1 of this processing flow, the musical sound of the music data is examined, it is determined whether or not UP processing for adding an Up slide to the previous sound is performed (BN6, BN9), and the previous sound is UP. If it has been processed, it is further determined in step BN2 whether the pitch of the musical sound is lower than the previous sound. If it is determined in step BN2 that the sound is lower than the previous sound, in the subsequent step BN3, processing for adding a Down slide is executed. In the DOWN process of step BN3, the Down slide is added with randomness and with the addition rate changed. On the other hand, if it is determined in the first step BN1 that the previous sound has not been UP processed, the process proceeds to step BN4. If it is determined in step BN2 that it is not lower than the previous sound, step T7 of the characteristic changing process is performed. Return to FIG.
[0058]
In step BN4, it is determined whether or not a DOWN process for adding a Down slide to the sound before the musical sound is performed (BN3). If the previous sound is subjected to the DOWN process, in step BN5, It is determined whether the pitch of the musical sound is higher than the previous sound. If it is determined in step BN5 that it is higher than the previous sound, in the subsequent step BN6, an UP process for adding an Up slide is performed in consideration of a predetermined condition. In the UP process of step BN6, the Up slide is added with randomness and with the addition rate changed. On the other hand, when it is determined in step BN4 that the previous sound has not been subjected to the DOWN process, the process proceeds to step BN7, and when it is determined in step BN5 that it is not higher than the previous sound, the process returns to step T7.
[0059]
In step BN7, it is further determined whether the musical sound is in the intro, ad lib, or ending position, and if so, the process proceeds to step BN8, where the musical sound is the first sound in the intro, ad lib, ending, etc. If it is the first sound, the process proceeds to step BN9 to execute an UP process for adding an Up slide to the musical sound. In the UP process of step BN9, the Up slide is added with randomness and with the addition rate changed. On the other hand, when it is determined in step BN7 that the position is not intro, ad lib, ending, etc., and in step BN8, it is determined that it is not the first sound, the process returns to step T7.
[0060]
When slides are generated in steps BN3, BN6, and BN9, each musical sound is processed so as to generate a deviation of several cents from the original pitch, giving randomness and changing the addition rate. In this case, it is preferable to use a process of adding vibrato for a long sound including an eighth note. For this vibrato, unique vibrato including those in which both the period and the modulation degree are unstable are effective. By these processes, the instability of the pitch of each musical tone of the phrase can be produced. Further, a sound generated by rubbing a string during a slide performance is stored in advance as a “slide sound”, and this slide sound is added when a slide occurs.
[0061]
In the simulated bottleneck performance process, a sound not included in the score can be added. The bottleneck technique usually uses an open-tuned guitar to generate sounds other than the notes on the score. Therefore, the key of the song data is detected, and assuming a guitar tuned to that key, the sound at the position of the slide bar of the adjacent string is added to the musical tone when a slide occurs. In this case as well, randomness is added and the addition rate is changed.
[0062]
[Phrase insertion processing]
10 and 11 show a flowchart example of the phrase insertion process executed in step T8 of the characteristic change process. In the first step PH1 of this processing flow, it is detected whether or not the tempo detected in step S121 is slower than the predetermined value “Y”. If it is slow, processing for adding a mute sound in steps PH2 to PH5 is performed. If NO in step PH6, the flow advances to step PH6 (FIG. 11) to proceed to the next phrase insertion process.
[0063]
In the first step PH2 of the process for adding the mute decoration sound, it is determined whether the musical sound of the song data belongs to the sections such as intro, ad lib, and ending. Otherwise, go to Step PH6. In step PH3, it is determined whether or not the musical sound is the start of the section. If it is started, the process proceeds to step PH5. If not, the musical sound is further transmitted to a predetermined note state (8, 16) in step PH4. It is determined whether or not it is after a half note tuplet or the like). Here, if it is after a predetermined note state, it will progress to step PH5, otherwise, it will progress to step PH6.
[0064]
In step PH5, a process of adding a mute decoration sound stored in advance is executed. For example, the sound appropriately muted in the guitar is stored in a predetermined area of the external storage device 4 separately for each four sounds. When, for example, a song data portion as shown in FIG. 15 (1) is detected in accordance with the above-described automation criteria such as steps PH2 to PH4, the stored mute sound data is read out at step PH5, and FIG. 15 (2). As described above, the mute decoration sound M is added to the detection portion so as to match the phrase, tempo, and the like. In this case, it is preferable that the degree of addition (addition rate) be reduced and the number of decoration sounds to be added can be reduced.
[0065]
When the process proceeds to step PH6 (FIG. 11), it is determined whether or not the portion of the song data satisfies the condition a. This condition a is, for example, a portion suitable for hammering on and pulling off where the melody is rising or falling. If it is determined that it is a corresponding part, the process proceeds to step PH7 to perform processing for adding articulation A to the corresponding part of the music data, and then proceeds to step PH8. If not, the process immediately proceeds to step PH8. move on.
[0066]
In step PH7, as articulation A, for example, hammering on and pulling off are added to the part. The hammering-on and pulling-off are ruled in advance. That is, as shown in the example of FIG. 16, hammering-on H is often used when the melody rises, and pulling-off P is often used when the melody falls. Therefore, hammering-on is alternately generated at the melody rising portion determined at step PH6. The degree of occurrence can be increased or decreased to suit the melody, rhythm, speed, etc. Also, as shown in FIG. 16, a pull-off is generated when returning to the same pitch as the previous one. In this case, it is preferable that the volume of hammering-on is reduced and the volume of pulling-off is higher than that of hammering-on.
[0067]
Here, an example of the rules for hammering on will be described. The resolution for the phrase is set in advance, and processing is performed on the notes extracted with the set resolution. For example, if the condition is that notes with the same pitch continue, notes with a quarter pitch continue, notes are falling, the target note count is reset and the following processing is performed:
When the target note is “2”, 1-2
When the target note is a count “3”, 1-2 (2-3)
When the target note is a count “4”, 2-3 (1-2),
・ If the target note is an odd number, 1-2 (2-3)
-If the target note is an even number, 2-3 (1-2).
When the target note is a count “3”, 2-3 (1-2),
[0068]
The rules for hammering on and pulling off are, for example, resetting the target note count under the condition that notes of the same pitch continue, notes that are separated by more than four semitones continue, and the next processing I do:
When the target note is “2”, 1-2
When the target note is a count “3”, 1-2 (2-3)
When the target note is a count “4”, 2-3 (1-2),
・ If the target note is an odd number, 1-2 (2-3)
-If the target note is an even number, 2-3 (1-2).
[0069]
The occurrence of such hammering-on and pulling-off occurs when the musical score data does not specify hammering-on or pulling-off, and when you want other instrument parts to be heard as a guitar, simply type in the melody that comes to mind. This is an effective way to make it look like a guitar.
[0070]
In step PH8, it is determined whether or not the portion of the music data satisfies the condition b. The condition b is, for example, a solo part such as ad lib, riff, and ending. If it is determined that the part is applicable, the process proceeds to step PH9, and articulation B “choking, hammering, pulling off, slide, etc.” prepared as MIDI data in advance is set in the corresponding part of the music data. Perform processing to add.
[0071]
For processing at step PH9, several types of phrase data including articulations such as choking, hammering, pulling off, and slide are prepared in advance as MIDI data. These data are automatically converted by the system even if the tempo and key are different. When the corresponding part corresponding to step PH8 is detected, necessary data is called and added to the part. The phrase to be added includes a predetermined instrument, for example, a hand or feel of a guitar player (name player) or the like, and a characteristic display of the player can be realized.
[0072]
Then, after the articulation B addition process at step PH9, or when it is determined at step PH8 that it is not a corresponding part, the phrase insertion process is terminated, and the characteristic change process at step T9 (FIG. 6). Return to
[0073]
[Arpeggio special performance processing]
FIG. 12 shows an example of a flowchart of the arpeggio special performance method process executed in step T10 of the characteristic change process. In the first step AR1 of this processing flow, it is detected whether or not the portion of the song data is an arpeggio performance part. If it is an arpeggio, the process for the arpeggio special performance method in steps AR2 and AR3 is performed. The relationship of each musical tone related to the page is detected, and a predetermined characteristic is added to the musical tone according to this relationship. After this process and if it is not an arpeggio, the process returns to step T11 (FIG. 6) of the characteristic change process.
[0074]
In the arpeggio playing method of the guitar, the sound in the arpeggio is played with the next sound, and the bass sound and the highest sound are often prolonged because the next sound takes a relatively long time. Therefore, in the special performance processing according to the present invention, expression of the arpeggio of the guitar can be performed more naturally by making the rules of the arpeggio as if a human is playing. For this reason, first, in step AR2, the highest tone and the bass tone are detected, and correction is performed to give a predetermined volume to each musical tone of the arpeggio tuplet.
[0075]
In the correction of the sound length in step AR2, for example, the optimum sound length is automatically given to the arpeggio tuplet using the following rule:
1. In each measure, the highest note with the highest pitch among the arpeggio tuplets (often corresponding to the pronunciation of the first and second strings) is detected, and the length of the detected highest note is lengthened. To do.
2. It often corresponds to the pronunciation of the fifth and sixth strings of the bass note having the lowest pitch among the arpeggio tuplets in each measure. ) To increase the length of the detected bass sound.
3. Appropriate tone length is given to the detected arpeggio component sound to further express the face.
4). The tone length correction for each musical sound performs appropriate thinning and reduces its execution.
[0076]
Next, in step AR3, as shown in FIG. 17, several types of velocities are automatically given to the musical sound according to the pitching pattern of the pitch in the arpeggio. For example, in the arpeggio pitch change pattern, as shown in FIG. 17 (1), in addition to a simple rising pattern, a simple falling pattern, a rising pattern, and a rising pattern. However, for example, several types of velocity patterns as shown in FIG. 17 (2) are prepared corresponding to these patterns. Then, an appropriate velocity pattern is selected according to the detected arpeggio elevation pattern, and a corresponding velocity value is given to each musical tone. When there is a large pitch difference between adjacent sounds, such as three-finger picking, and strings are not next to each other, make sure that the difference in velocity between the two sounds is relatively large. Is preferred.
[0077]
[Vibrato addition processing]
FIG. 13 shows a flowchart example of the vibrato adding process executed in step T12 of the characteristic changing process. In the first step VB1 of this processing flow, it is detected whether or not the musical sound of the music data has a sound length corresponding to a note longer than an eighth note. That is, in order to detect the place where the vibrato is added, it is determined whether the sound is a relatively long sound including the eighth note. If the note is a relatively long note as described above, the process proceeds to step VB2 as a target for adding vibrato, and if not, the process returns to step T13 (FIG. 6) of the characteristic changing process.
[0078]
In step VB2, a vibrato depth value for which a standard value is determined corresponding to a predetermined tone color, for example, a guitar tone color, is read, and this is determined as the vibrato depth value (vibrato modulation factor) of the musical sound. In this case, the vibrato modulation degree is deepened in an electric guitar, particularly a guitar subjected to a distortion effect, and shallower than that in an acoustic guitar. In the case of a nylon string guitar, it is shaken in a direction parallel to the string to add a delicate vibrato with a shallow modulation degree. Furthermore, vibrato in a slide guitar adds vibrato that modulates in both the high and low directions with reference to the central pitch of the pitch.
[0079]
In step VB3 following step VB2, it is detected whether there are a plurality of pieces to which vibrato is added near the target musical sound to be added, and if detected, the process proceeds to step VB4 and the previous (previous A vibrato waveform different from the (vibrato additional sound) is formed, and vibrato is added to the target musical sound based on the waveform. On the other hand, if there is no vibrato added to the periphery, the process proceeds to step VB5, where a vibrato waveform is formed based on the read standard value and added to the musical sound. In this way, randomness can be given to the addition of vibrato.
[0080]
In addition, when it is determined that too many vibratos are added, it is possible to randomly select a target portion to which vibrato is added and to add randomness to the vibrato addition. Moreover, it is preferable to apply a delay to the place where the vibrato is added. After the processing of steps VB4 and VB5, the process returns to step T13.
[0081]
[Various Embodiments]
Most typically, in order to obtain (input) performance data (song data), the music data stored in the external storage device 4 of the system is read out, analyzed, and processed. The target music data may be sent from the external device 13 in the MIDI format. In this case, even if the transmitted data is processed in real time, the external storage device 4 (for example, It may be stored in the HDD and then read and processed. Further, the characteristics of the musical tone may be changed according to the sound generation instruction data by the operation of the performance operator 6 attached to the system, and in this case, it may be processed in real time or once the external storage device 4. It may be stored in the memory and then read and processed.
[0082]
【The invention's effect】
As described above, according to the present invention, a plurality of musical sounds constituting performance data are analyzed, and the tempo, key, tone color, musical sound position, relationship between musical notes, musical sound pronunciation instruction status, musical composition, and phrase flow The musical tone data or characteristics stored in advance for each specific musical tone is determined according to the result obtained by obtaining the conditions to which the performance method of the musical instrument corresponding to the predetermined tone color (various guitars, saxophones, etc.) is applied. In addition to adding the characteristics corresponding to the change rule, if the tone of the musical tone is the first tone (various guitars), a tone that is not included in the score is added, and the musical tone of the selected pitch is selected. Instead, it automatically determines a target to which a sound quality characteristic peculiar to instrument operation that is entered when a person operates the instrument, and adds an appropriate characteristic to the target. Accordingly, it is possible to generate performance data that more naturally expresses emotions, environments, and atmospheres and that is sufficiently expressed in accordance with the musical instrument performance.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a hardware configuration of a performance data expression processing apparatus according to an embodiment of the present invention;
FIG. 2 is a flowchart of a main process representing the entire performance data process according to one embodiment of the present invention.
FIG. 3 is a diagram showing a panel setting and processing routine according to one embodiment of the present invention.
FIG. 4 is a flowchart showing processing according to one embodiment of the present invention.
FIG. 5 is a first part of a flowchart showing a characteristic changing process during a machining process according to one embodiment of the present invention.
FIG. 6 is a second part of a flowchart showing the characteristic changing process during the machining process according to one embodiment of the present invention.
FIG. 7 is a third part of a flowchart showing the characteristic changing process during the machining process according to one embodiment of the present invention.
FIG. 8 is a flowchart showing a simulated volume playing method process during a characteristic changing process according to one embodiment of the present invention.
FIG. 9 is a flowchart showing a simulated bottleneck performance process during a characteristic changing process according to one embodiment of the present invention.
FIG. 10 is a first part of a flowchart showing phrase insertion processing during characteristic change processing according to one embodiment of the present invention;
FIG. 11 is a second part of a flowchart showing phrase insertion processing during characteristic change processing according to one embodiment of the present invention;
FIG. 12 is a flowchart showing arpeggio special processing during characteristic change processing according to one embodiment of the present invention;
FIG. 13 is a flowchart showing a vibrato adding process during a characteristic changing process according to one embodiment of the present invention;
FIG. 14 is a diagram for explaining a simulated volume playing method according to one embodiment of the present invention.
FIG. 15 is a diagram for explaining mute decoration sound insertion in phrase insertion according to one embodiment of the present invention;
FIG. 16 is a diagram for explaining application of hammering on / off in phrase insertion according to one embodiment of the present invention;
FIG. 17 is a diagram for explaining an arpeggio special performance method according to one embodiment of the present invention;
[Explanation of symbols]
1 central processing unit (CPU),
4 external storage device,
5 Performance controller device,
6 Panel operation device (operation panel),
13 External performance data generation device (external device).

Claims (7)

演奏データを取得するデータ取得手段と、
所定音色に対応する楽器の奏法に応じた楽音データ又は楽音特性変更ルールを記憶する記憶手段と、
所定音色に対応する楽器の奏法を指定する奏法指定手段と、
上記データ取得手段により取得された演奏データを構成する複数の楽音の発音状態を解析すると共に、楽音の音色が第1の音色か第2の音色かを判断する解析手段と、
上記解析手段により楽音の音色が第1の音色と判断されたときに、解析された結果に基づいて、当該音色が判断された楽音における特定部分の楽音特性を、上記奏法指定手段により指定された奏法に応じて上記記憶手段から取り出された楽音データ又は楽音特性変更ルールに対応するように変更し、楽音特性の変更がなされた上記第1の音色の楽音を含む演奏データを生成する第1の変更処理手段であって、この楽音特性の変更は、上記奏法指定手段により指定された奏法が特定の奏法である場合に、当該音色が判断された楽音に対し、別途記憶されている楽譜にない音を付加することを含むものと、
上記解析手段により楽音の音色が第2の音色と判断されたときに、解析された結果に基づいて、当該音色が判断された楽音における特定部分の楽音特性を、上記奏法指定手段により指定された奏法に応じて上記記憶手段から取り出された楽音データ又は楽音特性変更ルールに対応するように変更し、楽音特性の変更がなされた上記第2の音色の楽音を含む演奏データを生成する第2の変更処理手段と、
第1の変更処理手段によって楽音特性の変更がなされた楽音を含む演奏データに基づく楽音信号を発生し、第2の変更処理手段によって楽音特性の変更がなされた楽音を含む演奏データに基づく楽音信号を発生する楽音信号発生手段と
を具備することを特徴とする演奏データの表情付け処理装置。
Data acquisition means for acquiring performance data;
Storage means for storing musical tone data or musical characteristic change rules according to the playing method of the musical instrument corresponding to the predetermined tone color;
Rendition style designating means for designating a performance style of an instrument corresponding to a predetermined tone color;
Analyzing means for analyzing the sound generation state of a plurality of musical sounds constituting the performance data acquired by the data acquisition means, and determining whether the tone color of the musical sound is the first tone color or the second tone color;
When the timbre of the musical tone is determined to be the first timbre by the analyzing means, based on the analysis result, the musical tone characteristics of a specific portion of the musical tone for which the timbre is determined are specified by the playing style specifying means. The first performance data including the musical tone of the first tone color that has been changed to correspond to the musical tone data or the musical tone characteristic change rule extracted from the storage means according to the playing method and the musical tone characteristic has been changed is generated. The change processing means, the change of the musical tone characteristics is not included in the separately stored musical score for the musical tone whose tone color is determined when the performance style designated by the performance style designation means is a specific performance style. Including adding sound,
When the timbre of the musical tone is determined to be the second timbre by the analyzing means, based on the analysis result, the musical tone characteristics of a specific part in the musical tone for which the timbre is determined are specified by the playing style specifying means. Second performance data is generated corresponding to the musical tone data or the musical tone characteristic change rule extracted from the storage means in accordance with the playing method, and the performance data including the musical tone of the second tone color in which the musical tone characteristic is changed is generated. Change processing means;
A musical tone signal is generated based on performance data including a musical sound whose musical tone characteristic has been changed by the first change processing means, and a musical tone signal is generated based on the musical performance data including the musical sound whose musical characteristic has been changed by the second change processing means. And a musical tone signal generating means for generating a musical performance data.
前記解析手段は、前記データ取得手段により取得された演奏データの各チャンネルにおける楽音の発音状態を解析することを特徴とする請求項1に記載の演奏データの表情付け処理装置。  2. The performance data expression processing apparatus according to claim 1, wherein the analysis unit analyzes a tone generation state of a musical tone in each channel of the performance data acquired by the data acquisition unit. 第1又は第2の変更処理手段による楽音特性の変更は、ランダム性乃至所定の確率をもって実行されることを特徴とする請求項1又は2に記載の演奏データの表情付け処理装置。  3. The musical performance expression processing apparatus according to claim 1, wherein the change of the musical tone characteristic by the first or second change processing means is executed with randomness or a predetermined probability. 前記解析手段は、演奏進行上における所定区間の所定位置にある1又は複数の楽音を検出し、
第1又は第2の変更処理手段は、検出された楽音の特定部分の楽音特性を、前記奏法指定手段により指定された奏法に応じた特性に変更し、第1又は第2の変更処理手段のそれぞれに対応した前記第1又は第2の音色の楽音を含む演奏データを生成する
ことを特徴とする請求項1〜3の何れか1項に記載の演奏データの表情付け処理装置。
The analysis means detects one or a plurality of musical sounds at a predetermined position in a predetermined section in the performance progress,
The first or second change processing means changes the musical tone characteristic of the specific portion of the detected musical tone to a characteristic according to the performance style designated by the performance style designation means, and the first or second change processing means The performance data expression processing apparatus according to any one of claims 1 to 3, wherein performance data including the first or second tone color corresponding to each of the music data is generated.
前記解析手段は、演奏進行上の所定区間におけるテンポ及び該所定区間における楽音特性を変更すべき所定位置を解析し、
第1の変更処理手段は、テンポが所定の値より低く、上記所定区間の所定位置にある楽音の楽音特性を、前記奏法指定手段により指定された奏法に応じた特性に変更し、前記第1の音色の楽音を含む演奏データを生成する
ことを特徴とする請求項1〜3の何れか1項に記載の演奏データの表情付け処理装置。
The analyzing means analyzes a predetermined position where a tempo in a predetermined section in the performance progress and a musical sound characteristic in the predetermined section should be changed,
The first change processing means changes a musical tone characteristic of a musical tone having a tempo lower than a predetermined value and located at a predetermined position in the predetermined section to a characteristic according to the performance style designated by the performance style designation means, The performance data expression processing apparatus according to any one of claims 1 to 3, wherein performance data including musical tones of the timbre is generated.
前記解析手段は、前記データ取得手段により取得された演奏データを構成する複数の楽音から特定の奏法の箇所を解折し、
第1の変更処理手段は、上記特定の奏法の箇所にある楽音の楽音特性を、前記第1の音色に対応する楽器の奏法に応じた特性に変更し、前記第1の音色の楽音を含む演奏データを生成する
ことを特徴とする請求項1〜3の何れか1項に記載の演奏データの表情付け処理装置。
The analysis means breaks down a specific performance method from a plurality of musical sounds constituting the performance data acquired by the data acquisition means,
The first change processing means changes the musical tone characteristic of the musical tone at the specific performance style to a characteristic corresponding to the performance style of the musical instrument corresponding to the first timbre, and includes the musical tone of the first timbre. 4. The performance data expression processing apparatus according to claim 1, wherein the performance data is generated.
所定音色に対応する楽器の奏法に応じた楽音データ又は楽音特性変更ルールを記憶する記憶手段と音源を含む楽音信号処理手段とを備えるコンピュータに、
演奏データを取得するデータ取得手段、
所定音色に対応する楽器の奏法を指定する奏法指定手段、
上記データ取得手段により取得された演奏データを構成する複数の楽音の発音状態を解析すると共に、楽音の音色が第1の音色か第2の音色かを判断する解析手段、
上記奏法指定手段により指定された奏法及び上記解析手段により解析された結果に基づいて、上記記憶手段から所定の楽音データ又は楽音特性変更ルールを取り出す取出手段、
上記解析手段により楽音の音色が第1の音色と判断されたときに、解析された結果に基づいて、当該音色が判断された楽音における特定部分の楽音特性を、上記取出手段により取り出された楽音データ又は楽音特性変更ルールに対応するように変更し、楽音特性の変更がなされた上記第1の音色の楽音を含む演奏データを生成する第1の変更処理手段であって、この楽音特性の変更は、上記奏法指定手段により指定された奏法が特定の奏法である場合に、当該音色が判断された楽音に対し、別途記憶されている楽譜にない音を付加することを含むもの、
上記解析手段により楽音の音色が第2の音色と判断されたときに、解析された結果に基づいて、当該音色が判断された楽音における特定部分の楽音特性を、上記取出手段により取り出された楽音データ又は楽音特性変更ルールに対応するように変更し、楽音特性の変更がなされた上記第2の音色の楽音を含む演奏データを生成する第2の変更処理手段、並びに、
第1の変更処理手段によって楽音特性の変更がなされた楽音を含む演奏データに基づく楽音信号を上記楽音信号処理手段に発生させ、第2の変更処理手段によって楽音特性の変更がなされた楽音を含む演奏データに基づく楽音信号を上記楽音信号処理手段に発生させる楽音発生指示手段
として機能させるためのプログラムを記録している演奏データの表情付け処理のためのコンピュータ読み取り可能な記録媒体。
A computer comprising storage means for storing musical tone data or musical characteristic change rules according to the playing method of a musical instrument corresponding to a predetermined tone color, and musical tone signal processing means including a sound source,
Data acquisition means for acquiring performance data;
Rendition style specifying means for specifying the performance style of the instrument corresponding to the predetermined tone,
Analyzing means for analyzing a sound generation state of a plurality of musical sounds constituting the performance data acquired by the data acquisition means, and determining whether the tone color of the musical sound is the first tone color or the second tone color;
Extracting means for extracting predetermined musical sound data or musical characteristic change rules from the storage means based on the performance specified by the performance specifying means and the result analyzed by the analyzing means;
When the timbre of the musical tone is determined to be the first timbre by the analyzing means, based on the result of the analysis, the musical tone characteristics of a specific part of the musical tone for which the timbre has been determined are extracted by the extracting means. A first change processing means for generating performance data including a musical tone of the first tone color that has been changed so as to correspond to the data or musical tone characteristic changing rule and whose musical tone characteristic has been changed, wherein the musical characteristic change Including, when the performance specified by the performance specification means is a specific performance, adding a sound not included in the separately stored score to the musical tone for which the tone has been determined,
When the timbre of the musical tone is determined to be the second timbre by the analyzing means, based on the result of the analysis, the musical tone characteristic of the specific portion of the musical tone for which the timbre has been determined is the musical tone extracted by the extracting means. A second change processing means for generating performance data including a musical tone of the second tone color that has been changed so as to correspond to the data or musical tone characteristic change rule and whose musical tone characteristic has been changed;
A musical tone signal based on performance data including a musical tone whose musical tone characteristic has been changed by the first change processing unit is generated in the musical tone signal processing unit, and a musical tone whose musical tone characteristic has been changed by the second change processing unit is included. A computer-readable recording medium for expression processing of performance data in which a program for causing a musical tone signal based on performance data to function as musical tone generation instruction means for generating the musical tone signal processing means is recorded.
JP2000166881A 2000-06-05 2000-06-05 Performance data expression processing apparatus and recording medium therefor Expired - Fee Related JP4007418B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000166881A JP4007418B2 (en) 2000-06-05 2000-06-05 Performance data expression processing apparatus and recording medium therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000166881A JP4007418B2 (en) 2000-06-05 2000-06-05 Performance data expression processing apparatus and recording medium therefor

Publications (2)

Publication Number Publication Date
JP2001350471A JP2001350471A (en) 2001-12-21
JP4007418B2 true JP4007418B2 (en) 2007-11-14

Family

ID=18670131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000166881A Expired - Fee Related JP4007418B2 (en) 2000-06-05 2000-06-05 Performance data expression processing apparatus and recording medium therefor

Country Status (1)

Country Link
JP (1) JP4007418B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3870948B2 (en) * 2004-02-04 2007-01-24 ヤマハ株式会社 Facial expression processing device and computer program for facial expression
JP4665473B2 (en) * 2004-09-28 2011-04-06 ヤマハ株式会社 Motion expression device
JP4816177B2 (en) * 2006-03-17 2011-11-16 ヤマハ株式会社 Electronic musical instruments and programs
JP4595851B2 (en) * 2006-03-20 2010-12-08 ヤマハ株式会社 Performance data editing apparatus and program
JP4613996B2 (en) * 2008-11-10 2011-01-19 ヤマハ株式会社 Performance data editing program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3216143B2 (en) * 1990-12-31 2001-10-09 カシオ計算機株式会社 Score interpreter
JP3407610B2 (en) * 1996-11-27 2003-05-19 ヤマハ株式会社 Musical sound generation method and storage medium
JP3457582B2 (en) * 1998-11-04 2003-10-20 株式会社国際電気通信基礎技術研究所 Automatic expression device for music
JP3721822B2 (en) * 1999-01-28 2005-11-30 ヤマハ株式会社 Rendition style input system
JP3613062B2 (en) * 1999-03-19 2005-01-26 ヤマハ株式会社 Musical sound data creation method and storage medium
JP3675287B2 (en) * 1999-08-09 2005-07-27 ヤマハ株式会社 Performance data creation device

Also Published As

Publication number Publication date
JP2001350471A (en) 2001-12-21

Similar Documents

Publication Publication Date Title
US6703549B1 (en) Performance data generating apparatus and method and storage medium
US5005459A (en) Musical tone visualizing apparatus which displays an image of an animated object in accordance with a musical performance
JP2001175263A (en) Device and method for generating automatic accompaniment pattern
JP3915807B2 (en) Automatic performance determination device and program
JPH08339193A (en) Karaoke machine
JP4007418B2 (en) Performance data expression processing apparatus and recording medium therefor
JP4407473B2 (en) Performance method determining device and program
JP3835443B2 (en) Music generator
JP2004078095A (en) Playing style determining device and program
JP4614307B2 (en) Performance data processing apparatus and program
JP3705144B2 (en) Performance data change processing device
JP3812510B2 (en) Performance data processing method and tone signal synthesis method
JP4802947B2 (en) Performance method determining device and program
JP7263998B2 (en) Electronic musical instrument, control method and program
JP3812509B2 (en) Performance data processing method and tone signal synthesis method
JP3627675B2 (en) Performance data editing apparatus and method, and program
JP2005173631A (en) Performance data generating apparatus
JP3760909B2 (en) Musical sound generating apparatus and method
Aikin Software synthesizers: the definitive guide to virtual musical instruments
JP4218566B2 (en) Musical sound control device and program
JP3832422B2 (en) Musical sound generating apparatus and method
JPH10171475A (en) Karaoke (accompaniment to recorded music) device
JP3832420B2 (en) Musical sound generating apparatus and method
JP3870948B2 (en) Facial expression processing device and computer program for facial expression
JP3832419B2 (en) Musical sound generating apparatus and method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040803

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041004

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041102

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070821

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100907

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100907

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110907

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120907

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130907

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees