JP3832147B2 - Song data processing method - Google Patents

Song data processing method Download PDF

Info

Publication number
JP3832147B2
JP3832147B2 JP19298599A JP19298599A JP3832147B2 JP 3832147 B2 JP3832147 B2 JP 3832147B2 JP 19298599 A JP19298599 A JP 19298599A JP 19298599 A JP19298599 A JP 19298599A JP 3832147 B2 JP3832147 B2 JP 3832147B2
Authority
JP
Japan
Prior art keywords
data
musical
musical tone
tone
note
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP19298599A
Other languages
Japanese (ja)
Other versions
JP2001022349A (en
Inventor
徹 北山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP19298599A priority Critical patent/JP3832147B2/en
Priority to US09/610,817 priority patent/US6392135B1/en
Publication of JP2001022349A publication Critical patent/JP2001022349A/en
Application granted granted Critical
Publication of JP3832147B2 publication Critical patent/JP3832147B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、記録媒体に記録されていて複数の楽音の音高及び音長をそれぞれ指定する複数の音符データからなる曲データを加工することにより、同曲データに基づいて再生される各楽音のピッチ、振幅、音色などの楽音特性を時間変化させて、発音される楽音にリアル感をもたせる曲データ加工方法に関する。
【0002】
【従来の技術】
従来から、記録媒体に記録されていて複数の楽音の音高及び音長をそれぞれ指定する一連の音符データからなる曲データを再生して一連の楽音を発生させることは、例えば自動演奏装置などでよく知られている。この場合、発生される楽音にリアル感をもたせるために、エンベロープジェネレータ、低周波発信器などによる制御信号に応じて楽音のピッチ、振幅、音色などの楽音特性を時間変化させるようにしていた。
【0003】
【発明が解決しようとする課題】
しかし、上記従来の方法によって付与される楽音特性の時間変化は単純なものであり、自然楽器のようなリアル感のある楽音の発生は難しく、特に多彩な演奏表現を備えた楽音の再生を行うことはできなかった。一方、この曲データ中に、MIDI(Musical Instrument Digital Interface)シーケンサを用いて、ピッチベンドデータ、コントロールチェンジデータなどの連続データを細かく入力することで奏法のシミュレーションを行うことは原理的には可能であるが、通常のMIDIシーケンサには、連続データの入力手段として、一点一点打ち込む、直線を引く、一定の形態の曲線を引く、フリーハンド入力程度の機能しかないため、これらの機能だけでリアル感がありかつ豊かな演奏表現力を有する楽音のための制御データを入力することは難しい。
【0004】
【発明の概要】
本発明は、上記問題に対処するためになされたもので、その目的は、記録媒体に記録されていて複数の楽音の音高及び音長をそれぞれ指定する複数の音符データからなる曲データを簡単な方法で加工することにより、再生される楽音のピッチ、振幅、音色などの楽音特性を時間変化させて、リアル感があるとともに豊かな演奏表現力を有する楽音を再生可能とする曲データ加工方法を提供することにある。
【0008】
前記目的を達成するために、本発明の第1の構成上の特徴は、一つの楽音に関するピッチ、振幅及び音色のうちの少なくとも一つの楽音特性の時間変化をそれぞれ表す複数の楽音修飾データを時間軸上で複数のパーツにそれぞれ分割するとともに、前記分割した各パーツの端部の値が全て同一の値となるように各パーツをそれぞれ加工して予め用意しておき、曲データ中の音符データにより表された楽音の前記少なくとも一つの楽音特性を時間変化させるための楽音修飾データとして、前記用意した複数のパーツの中から時間軸上の異なる位置に関する複数のパーツを選択し、前記選択された複数のパーツを接続して一つの楽音の前記少なくとも一つの楽音特性を時間変化させるための楽音修飾データを形成し、前記形成した楽音修飾データを曲データ中に貼り付けるようにしたことにある。
【0009】
この第1の構成上の特徴によれば、一つの楽音のための楽音修飾データを形成するために、時間軸上の異なる位置の複数のパーツを選択するとともに同選択した複数のパーツを接続するようにしたので、種々の楽音修飾データを形成することができ、リアル感に富み、豊かな演奏表現力を有し、かつ変化に富んだ楽音を発生することができる。また、予め用意された各パーツにおいては、複数のパーツに分割した際の各パーツの端部の値が全て同一の値となるように加工されているので、どのパーツを選択しても各パーツの接続を簡単に行うことができる。
【0010】
この場合、前記接続される複数のパーツのうちのいずれかのパーツの長さを前記曲データ中の音符データにより表された音符の長さに合わせて調整するようにするとよい。これによれば、種々の音符長に対応した楽音修飾データを用意しなくても、種々の符長を有する音符に対する楽音修飾データを簡単に形成できる。
また、前記構成の発明及び後述する他の発明に係る曲データ加工方法において、楽音修飾データは自然楽器音のピッチ、振幅及び音色を分析したものである。これによれば、自然楽器の演奏音と同等な音質を簡単に発生できるようになる。
【0011】
また、本発明の第2の構成上の特徴は、一つの楽音に関するピッチ、振幅及び音色のうちの少なくとも一つの楽音特性の時間変化を表す楽音修飾データを予め用意しておき、曲データ中の音符データにより表された楽音の楽音特性を時間変化させるために、用意された楽音修飾データを曲データ中に貼り付け、同貼り付けの際に、曲データ中の1つのトラックに記憶されている複数の音符データにより複数の楽音が同時に発生される場合には、前記複数の楽音が同時に発生される部分について、前記同時に発生される複数の楽音のうちの一つの楽音に関する楽音修飾データを選択して、前記同時に発生される複数の楽音にそれぞれ対応した複数の音符データに対し、前記選択した楽音修飾データを共通に貼り付けるようにしたことにある。
【0012】
また、本発明の第3の構成上の特徴は、一つの楽音に関するピッチ、振幅及び音色のうちの少なくとも一つの楽音特性の時間変化を表す楽音修飾データを予め用意しておき、曲データ中の音符データにより表された楽音の楽音特性を時間変化させるために、用意された楽音修飾データを曲データ中に貼り付け、同貼り付けの際に、曲データ中の1つのトラックに記憶されている複数の音符データにより複数の楽音が同時に発生される場合には、前記複数の楽音が同時に発生される部分について、前記同時に発生される複数の楽音に関する各楽音修飾データを合成して、前記同時に発生される複数の楽音にそれぞれ対応した複数の音符データに対し、前記合成した楽音修飾データを共通に貼り付けるようにしたことにある。
【0013】
また、本発明の第4の構成上の特徴は、一つの楽音に関するピッチ、振幅及び音色のうちの少なくとも一つの楽音特性の時間変化を表す楽音修飾データを予め用意しておき、曲データ中の音符データにより表された楽音の前記少なくとも一つの楽音特性を時間変化させるために、前記用意された楽音修飾データを前記曲データ中に貼り付け、同貼り付けの際に、曲データ中の1つのトラックに記憶されている複数の音符データにより複数の楽音が同時に発生される場合には、前記同時に発生される複数の楽音に対応した複数の音符データを分離して複数のトラックにそれぞれ記憶させ、前記複数のトラックにそれぞれ記憶させた複数の音符データに対し、前記用意された楽音修飾データをそれぞれ貼り付けるようにしたことにある。
【0014】
これらの第2〜4の構成上の特徴によれば、曲データ中の1つのトラックに同時に発生する複数の楽音に対応した複数の音符データが含まれていても、複数の楽音修飾データによる楽音特性の制御データが1つのトラックの時間軸上に重ねて存在することがなくなり、楽音修飾データによる楽音特性の時間変化を楽音に簡単に付与できるようになる。
【0015】
さらに、本発明の第5の構成上の特徴は、複数の楽音の音高及び音長をそれぞれ指定する複数の音符データと、前記複数の音符データの再生テンポを表すテンポデータとからなる曲データを加工する曲データ加工方法において、一つの楽音に関するピッチ、振幅及び音色のうちの少なくとも一つの楽音特性の時間変化を表す複数の楽音修飾データを予め用意しておき、曲データ中の音符データにより表された楽音の楽音特性を時間変化させるために、前記用意された楽音修飾データをテンポデータに応じて時間軸上で圧縮又は伸張して曲データ中に貼り付けるようにしたことにある。
【0016】
この第5の構成上の特徴によれば、楽音再生のテンポが変わって一楽音の絶対的な発音時間が変わっても、楽音に対して適切に楽音修飾データを付与することができる。
【0017】
【発明の実施の形態】
以下、本発明の一実施形態を図面に基づいて説明すると、図1は、本発明に係る曲データ加工方法が適用された楽音発生装置をブロック図により示している。
【0018】
この楽音発生装置は、バス10に接続されて、コンピュータ本体部を構成するCPU11、ROM12及びRAM13を備えている。CPU11は、ROM12に記憶されているプログラム、及び必要に応じてハードディスク14又はCD、MOなどの外部記録装置15に記録されていて使用時にRAM13に転送されるプログラムを実行することにより、外部から入力した楽器音を分析して発生楽音のピッチ、振幅、音色などの楽音特性を制御するための楽音修飾データを作成したり、音高及び音長を表す一連の音符データからなる曲データに前記楽音修飾データを貼り付けたり、同楽音修飾データの貼り付けられた曲データを再生して楽音を発生させたりする。
【0019】
ハードディスク14及び外部記録装置15は前記及び後述する各種データを記録したもので、ハードディスク14は、バス10に接続されたドライブ装置14aに組み込まれている。外部記録装置15は、バス10に接続されたドライブ装置15aに選択的に組み付けられる。
【0020】
バス10には、取り込み回路21、音源回路22、MIDI(Musical Instrument Digital Interface)インターフェース23、キー入力装置24及び表示器25も接続されている。取り込み回路21は、A/D変換器21aを内蔵しており、CPU11の指示により、外部信号入力端子26に供給されるアナログ信号を所定のサンプリングレートでディジタル波形データに変換する。この変換された波形データは、適宜RAM13、ハードディスク14、外部記録装置15などに書き込まれる。
【0021】
音源回路22は、楽音信号をそれぞれ形成する複数の時分割チャンネルを備えており、これらの時分割チャンネルにてそれぞれ形成されたディジタル形式の楽音信号を内蔵のD/A変換器にてアナログ信号に変換して、複数の楽音信号を同時に出力することを可能とするもので、同回路22には波形メモリ27及びサウンドシステム28が接続されている。波形メモリ27は、前記楽音信号の形成に利用するための複数種類の楽音波形データを記憶している。各楽音波形データは、楽音のアタック開始からリリース終了までに渡る振幅エンベロープの付与された複数の波形サンプル値からなる。また、楽音波形データとして振幅エンベロープの付与されたアタック部とサステイン部(ループ部)の波形のみを用意しておいて、楽音発生時にはサステイン部の波形をリリース波形として利用したり、楽音波形データとしてサステイン部(ループ部)の波形のみを用意しておいて、楽音発生時にサステイン部の波形をアタック波形及びリリース波形として利用するようにしてもよい。サウンドシステム28は、アンプ、スピーカなどからなり、音源回路22からのアナログ楽音信号を増幅して楽音として発音する。
【0022】
MIDIインターフェース23は、鍵盤などの演奏装置、他の楽器、パーソナルコンピュータ、自動演奏装置(シーケンサ)などの他の楽音発生制御装置に接続されて、同他の楽音発生制御装置からのキーコード(音高情報)KC、キーオン信号、キーオフ信号、符長情報、キーオン時間、ベロシティー情報(鍵タッチ情報)、音色制御情報、演奏テンポ情報、効果制御情報などの楽音の発生を制御するための種々の楽音制御情報を入力する。キー入力装置24は、キーボード、マウスなどからなり、表示器25の表示に従って又は単独に、CPU11に対して各種の指示を行ったり、各種データを直接入力するものである。表示器25は、CPU11の指示に従って、文字、図形を表示する。
【0023】
次に、上記のように構成した楽音発生装置を用いて、(a)楽音のピッチ、振幅及び音色からなる楽音特性を時間変化させるための楽音修飾データを作成する楽音修飾データ作成モード、(b)複数の楽音の音高及び音長をそれぞれ指定する一連の音符データからなる曲データに前記作成された楽音修飾データを貼り付けて同曲データを加工する曲データ加工モード、及び(c)前記加工された曲データに基づいて楽音を発生する楽音発生モードの順にそれぞれ説明する。なお、これらの各モードは、ユーザによるキー入力装置24の単独又は表示器25の指示に従った操作によりそれぞれ設定される。
【0024】
a.楽音修飾データ作成モード
図2は、この楽音修飾データ作成モード時における図1の楽音発生装置の動作を機能ブロック図により示している。まず、このモードにおいては、マイク30を外部信号入力端子26に接続して、同マイク30を介して外部音(例えば、自然楽器音)が取り込み回路21に入力される。なお、マイク30に代えて、予め外部音を記録したテープレコーダなどの記録装置を外部信号入力端子26に接続して、取り込み回路21に外部音信号を入力するようにしてもよい。
【0025】
外部音信号は、所定のサンプリングレートでサンプリングされるとともにA/D変換器21aによりA/D変換され、録音制御手段31によって波形データ記憶エリア32に記憶される。この場合、A/D変換器21aは取り込み回路21内に設けられたものであり、録音制御手段31は、キー入力装置24を用いた指示に応答するとともにドライブ装置14a(又はドライブ装置15a)及び取り込み回路21と協働したCPU11による図示しないプログラム処理によって実現されるものである。波形データ記憶エリア32は、ハードディスク14又は外部記録装置15内に設けられて外部音信号のサンプリングデータを記憶するための領域である。
【0026】
この場合、種々の自然楽器を種々の態様で演奏して、同演奏音に関する波形データを波形データ記憶エリア32に蓄積記録する。例えば、トランペットを強く吹いた音、中程度の強さで吹いた音、弱く吹いた音、スタカートで吹いた音、スラーで吹いた音、速い立ち上がりで吹いた音、ゆっくした立ち上がりで吹いた音などに関する波形データを記録する。
【0027】
前記波形データの記録後、キー入力装置24の操作に応答して、CPU11は図示しないプログラム処理により、前記記録した波形データを分析する。この分析処理は図2において分析手段33として機能ブロック図により示されており、同分析手段33は、記録された各波形データをそれぞれ分析して、ピッチ、振幅、スペクトル(音色)等の楽音特性の時間変化を抽出する。なお、各時間変化は、例えば各楽音特性の瞬時値を表す特性値データと、同瞬時値の連続する時間をMIDI規格における最小時間分解能のステップ数で表した時間データとからなる、すなわちイベントデータとデュレーションデータとからなるMIDIシーケンスデータに変換される。
【0028】
ピッチの時間変化には、楽音のアタック部やリリース部における周波数のゆれ、ビブラート、ピッチベンド、スラーによるピッチ変化等が含まれており、この時間変化は、例えばMIDI規格のピッチベンドのシーケンスとして表現される。振幅の時間変化には、楽音のアタック部からリリースにかけての振幅エンベロープの変化、トレモロ、アクセント、スラーによる振幅変化等が含まれており、この時間変化は、例えばMIDI規格のボリューム又はエクスプレッションのシーケンスとして表現される。
【0029】
スペクトルの時間変化は、楽音のアタック部からリリース部におけるスペクトル特性の変化である。スペクトル特性には様々な要素があるが、その一つの具体例がブライトネスデータである。ブライトネスデータは、録音された波形の基音と各倍音の振幅比を示し、MIDI規格のブライトネスのシーケンスとして表現される。それ以外の例としては、フォルマントの形状を示すデータ、カットオフ周波数、スペクトルの広がりの時間変化を示すデータ等が考えられる。MIDI規格のブライトネスデータの代わりにフィルタカットオフ周波数やレゾナンス等の時間変化を表すシーケンスデータで表してもよい。
【0030】
図3は、左から順にトランペットを強く吹いた音、中程度の強さで吹いた音及び弱く吹いた音の別にトランペット音のピッチ、振幅(音量)及びスペクトルの時間変化をそれぞれ示す分析データ値を示している。図4は、前記トランペットを強く吹いた音に関する各分析データ値を拡大して示している。
【0031】
次に、キー入力装置24の操作に応答して、CPU11は図示しないプログラム処理により、前記アタックからリリースに至るピッチ、振幅及びスペクトルの各分析データを時間軸上にて複数に分割することにより各分析データを分解し、同分解された各分析データを規格化し、かつ前記分割された単位毎に同規格化したピッチ、振幅及びスペクトルに関する各分析データを一組にするとともに索引を付与したパーツデータセットを作成してパーツデータ記憶エリア37に記録しておく。図2においては、前記パーツデータセットを作成する機能をパーツ作成手段34として示すとともに、索引用の補助データを生成する機能を補助データ生成手段35として示している。また、パーツデータセットを書き込む機能を有する書き込み手段36はドライブ装置14a(又はドライブ装置15a)及び書き込みのためのプログラム処理に対応し、パーツデータ記憶エリア37は、ハードディスク14又は外部記録装置15内にパーツデータを記憶するために設けた領域である。
【0032】
まず、分解処理について説明すると、ピッチ、振幅、スペクトルなどの楽音特性の時間変化を、時間軸方向でアタック部、サステイン部、ビブラート付きサステイン部、リリース部、接続部等に分解する。この場合、表示器25は、図4に示すように、ピッチ、振幅及びスペクトルの時間変化を表示し、ユーザは、マウスを含むキー入力装置24を用いてピッチ、振幅及びスペクトルの時間軸上の共通のポイントを指定することにより、ピッチ、振幅及びスペクトルを共通の時間軸を有する複数のパーツ(アタック部、サステイン部、リリース部など)に分割する。この場合、ピッチ、振幅及びスペクトルの各時間変化のうち少なくとも2つの時間変化に基づいて、前記時間変化の仕方が変化するポイントを捜すことにより分割点を決定するとよい。具体的には、例えば定常的でない部分(アタック部、リリース等)と定常的な部分(サステイン部等)の境目、特性の変化(スラー、ビブラート等)の変化前、変化中及び変化後の各境目などを分割点として指定するとよい。
【0033】
なお、前記のようにユーザによる手動操作を混じえて分解処理を行ってもよいが、プログラム処理により自動的に分解処理を行うようにしてもよい。この場合、前記のような分割点の判定基準をプログラミングしておき、プログラムの実行時に分割点を判定して複数のパーツを作成するようにすればよい。
【0034】
次に、規格化処理について説明する。前記分析された各楽器音に関する各楽音特性(ピッチ、振幅及びスペクトル)に対して、前記分解された各パーツ(アタック部、サステイン部及びリリース部)毎の分析データをそれぞれ規格化する。なお、本明細書でいう規格化とは、各楽音特性(ピッチ、振幅及びスペクトル)に対して共通の定義として、各パーツ(アタック部、サステイン部及びリリース部)の接続点の値を共通に予め設定した所定値にほぼ合わせることを指す。具体的には、各パーツとしてアタック部、サステイン部及びリリース部を採用した場合には、アタック部の最後、サステイン部の最初、同サステイン部の最後、及びリリース部の最初をそれぞれ所定値にほぼ等しくすることに相当する。
【0035】
まず、ピッチに関する規格化処理について説明すると、同処理においては、前記規格化の共通の定義に応じた接続点の値をほぼ所定値に合わせる処理に加えて、入力した楽器音の周波数の変化を基準周波数に対する周波数変化(ピッチ変化)として表す処理も行う。具体的には、入力された楽器音の音高(A4,E4など音階周波数)に対応した周波数を基準周波数とし、各パーツ毎のピッチの時間変化を表す分析データを前記基準周波数に対するピッチずれ量の時間変化を表すデータにそれぞれ変換し、その後、前記接続点のピッチずれ量をほぼ「0」にする。すなわち、アタック部に関する規格化処理であれば前記変換データを最後のピッチずれ量がほぼ「0」になるように加工し、サステイン部に関する規格化処理であれば前記変換データを最初と最後のピッチずれ量が共にほぼ「0」になるように加工し、リリース部に関する規格化処理であれば前記変換データを最初のピッチずれ量が共にほぼ「0」になるように加工する。この場合、基準周波数をキー入力装置24を用いて入力するようにしてもよいし、分析データに基づいて音階周波数に近い周波数を基準周波数として自動的に設定するようにしてもよい。
【0036】
次に、振幅に関する規格化処理について説明すると、同処理においては、前記規格化の共通の定義による接続点の値を予め決められた所定値にほぼ一致させる処理を行う。具体的には、記録した楽器音の強さ(全体的な音量)が異なっていても、各パーツ毎の分析データをシフトしたり、ゲイン調整したりして、各パーツ(アタック部、サステイン部及びリリース部)の接続点の値を予め決められた所定値に合わせる。すなわち、アタック部の最後の振幅レベル、サステイン部の最初と最後の振幅レベル、及びリリース部の最初の振幅レベルをほぼ同じ所定値に修正する。このことは、サステイン部の振幅レベルを予め決められた所定値に近似させることにもつながる。スペクトルに関しても、前記振幅の場合と同様に、各パーツ毎の分析データをシフトしたり、ゲイン調整したりして、各パーツ(アタック部、サステイン部及びリリース部)の接続点の値をほぼ所定値に合わせる。図5〜7は、前記規格化したアタック部、サステイン部及びリリース部の各ピッチ、振幅及びスペクトルの時間変化を表すデータ値の一例を示す図である。
【0037】
前記のような規格化処理により、各パーツの値の変化幅が標準化されて小さくなるので、少ないビット数で各ピッチ、振幅及びスペクトルの時間変化を表すことができ、パーツデータ記憶エリア37の容量を小さくできる。特に、ピッチ変化特性を表すパーツデータにあって、基準周波数に対するピッチ変化を表すようにしたので、パーツデータ記憶エリア37の容量をより小さくすることができる。また、MIDI規格においては、楽音信号のピッチ、振幅、音色の変化を表すデータのビット数は限られており、前記規格化処理による各パーツのデータをMIDI規格にしたがったフォーマットで簡単に表せるとともに、またMIDI規格により限られたビット数を有効に利用できる。
【0038】
また、サステイン部の楽音特性、特に振幅及びスペクトルに関しては、単調減少のような大まかな変化ではなく、細かな変化が重要であるので、前記振幅及びスペクトルに関する分析データにハイパスフィルタ処理を施すようにするとよい。この場合、ハイパスフィルタ処理により、サステイン部の振幅及びスペクトルは全体的にほぼ一定値に保たれたデータに細かな変動成分が重畳されたようになり、併せて同データ値の開始点及び終了点のデータ値はほぼ一致するようになる。なお、このサステイン部の単調減少のような大まかな変化は、後述するパーツデータの接続の際に適宜付加できるものである。
【0039】
ただし、トレモロ効果の付与された楽器音及びビブラート効果の付与された楽器音に関しては、振幅及びスペクトルの時間変化は前記ハイパスフィルタ処理によって取り除くべきものではなく、時間変化として残すべきである。したがって、前記ハイパスフィルタのカットオフ周波数は極めて小さな値に設定される必要がある。図8は、アタック部、サステイン部及びリリース部に分解してはないが、トレモロ効果の付与された楽器音であって規格化された楽器音のピッチ及び振幅の時間変化の一例を表している。
【0040】
次に、前記規格化した各種パーツデータを分割された単位(アタック部、サステイン部及びリリース部)毎に、パーツデータセットを形成してパーツデータ記憶エリア37に記憶する動作について説明する。前述のように、分割された単位(アタック部、サステイン部及びリリース部)毎のピッチ、振幅及びスペクトルの時間変化を表す規格化されたピッチ変化データ、振幅変化データ及びスペクトル変化データをグループ化した後、ユーザはキー入力装置24を用いて索引用の補助データを入力することにより同補助データを生成させる。そして、前記生成された補助データを前記グループ化したパーツデータに付加して一組のパーツデータセットを作成させ、各パーツデータセットをパーツデータ記憶エリア37に記憶させる。この場合、索引用の補助データは、楽器名、音の強さ、スタカート又はスラー音、速い又はゆっくりした立ち上がりの音、トレモロ及びビブラートの付与の有無などによって入力した楽器音を識別するデータと、アタック部、サステイン部、リリース部などのパーツを表すデータなどからなり、各パーツデータの検索などに利用されるデータである。また、この補助データとして、ユーザが入力したものに代え、又は同入力したものに加え、前記楽器音の入力、分析、分解、規格化の処理時、又はその他の処理により自動的に生成されたデータを用いることもできる。
【0041】
図9(A)は、索引用の補助データ、ピッチ変化データ、振幅変化データ及びスペクトル変化データからなり、分割された単位(アタック部、サステイン部及びリリース部)毎に設定された各パーツデータセットのデータフォーマットを示している。図9(B)は、ピッチ変化データの一例を示すもので、ΔPitchは基準周波数に対するピッチの変化度合いを表すデータ(MIDI規格にしたがって基本周波数に対するピッチの変動分を表すデータ)であり、STは前記各変化度合いが連続する時間をステップ数で表している。
【0042】
なお、前記説明では、外部から入力した楽器音信号に基づいて各パーツデータを形成するようにしたが、自然楽器に取り付けた各種センサの出力の時間変化から各パーツデータを作成してもよい。例えば、バイオリンの弓に取り付けた圧力センサで構成した弓速センサの出力から各パーツデータを作成したり、電子楽器の演奏操作子の出力から各パーツデータを作成したり、電子管楽器のブレスセンサ及びリップセンサから各パーツデータを作成してもよい。
【0043】
また、前記説明では、楽音特性を表すパーツデータ(楽音修飾データ)をMIDI規格に従ったデータに変換するようにしたが、MIDI規格以外のデータフォーマットを使用できるシステムではパーツデータを前記以外のフォーマットのデータに変換してもよい。例えば、検出された楽音特性の時間変化を時間関数として表現したり、目標値とレートによる折れ線近似で表現するようにしてもよい。
【0044】
b.曲データ加工モード
次に、一連の音符データからなる曲データ中に前記作成したパーツデータ(楽音修飾データ)を貼り付けて同曲データを加工する曲データ加工モードについて説明する。図10は、この曲データ加工モード時における図1の楽音発生装置の動作を機能ブロック図により示している。
【0045】
まず、ユーザは、ハードディスク14又は外部記録装置15に予め記録されている複数の曲データの中から、キー入力装置24により曲名などを入力することにより、一つの曲データを指定する。この曲データの指定により、CPU11は、前記指定された曲データをハードディスク14又は外部記録装置15から読み出して、RAM13に書き込んでおく。これらのキー入力装置24、CPU11、RAM13などの機能が、図10に曲データ入力手段41として記述されている。
【0046】
パーツ選択データ入力手段42aは、ユーザによるキー入力装置24の操作に応答して、パーツデータセットを選択するための情報、例えば、楽器名、早い立ち上がり音、アタック部などを表す情報を各音符毎に作成する。具体的には、ユーザが、表示器25の表示にしたがってパーツデータセットを指定するために必要な情報を入力し、CPU11は図示しないプログラム処理により同情報をRAM13内に各音符毎に格納しておく。したがって、このパーツ選択データ入力手段42aは、CPU11、RAM13、キー入力装置24、表示器25などにより実現される機能に対応する。
【0047】
特徴分析手段42bは、前記選択された曲データを分析することにより、パーツデータセットを選択するための情報を各音符毎に自動的に作成する。例えば、音高、符長、テンポなどに基づいて適当な楽器名を指定したり、曲データ中に含まれるベロシティデータ(音の強弱を表す)に基づいて強、中、弱を指定したり、音の立ち上がり部分が前音の発音期間と重なっていることに基づいてスラーを指定したり、符長に比べて発音期間が短いことによりスタカートを指定したりする。具体的には、CPU11が、図示しないプログラム処理により、前記RAM13に書き込まれた曲データを自動的に分析し、同分析結果に基づいてパーツデータセットを選択するための情報を各音符毎に作成してRAM13内に格納しておく。したがって、この特徴分析手段42bは、CPU11、RAM13などにより実現される機能に対応する。
【0048】
なお、前記説明では、パーツデータセットを選択するための情報を各音符毎に手動又は自動的に形成するようにした。これらのパーツデータセットを選択するための情報を形成する単位は、複数の音符からなるフレーズ単位であったり、一つの音符の一部であってもよい。すなわち、複数の音符からなるフレーズに対して一つの共通かつ関連する効果、例えばスラー効果を付与する場合には、同フレーズに属する複数の音符に対してパーツデータセットを選択するための情報を同時に作成するとよい。また、一つの音符の一部にのみビブラートなどの効果を付与する場合には、一つの音符の一部に対してパーツデータセット又はパーツデータセットの一部を選択するための情報を形成するとよい。
【0049】
パーツ指定手段42cは、前記パーツ選択データ入力手段42a及び/又は特徴分析手段42bにより作成された情報に基づいて、各音符毎にパーツデータセットを選択するための選択データを形成する。この場合、自動的に又はキー入力装置24によるユーザの指示にしたがって、パーツ選択データ入力手段42aにより作成された情報のみにより選択データを形成したり(マニアル選択モード)、特徴分析手段42bにより作成された情報のみにより選択データを形成したり(自動選択モード)、パーツ選択データ入力手段42a及び特徴分析手段42bの両手段によりそれぞれ作成された情報を用いて選択データを形成する(半自動選択モード)。具体的には、これらの動作は、キー入力装置24の操作を混じえたCPU11による図示しないプログラム処理により実行されるもので、このパーツ指定手段42cは、CPU11、RAM13、キー入力装置24などにより実現される機能に対応する。
【0050】
パーツ選択手段42dは、前記形成された選択データを用いてパーツデータ記憶エリア37に記憶されている複数のパーツデータセットの中から前記選択データに対応したパーツデータセットを選択する。具体的には、CPU11が、図示しないプログラム処理により、キー入力装置24を用いて入力された指示に従って、ハードディスク14又は外部記憶装置15内に設けたパーツデータ記憶エリア37に記憶されている複数組のパーツデータセットを検索して、前記選択データに適合する一音符分の複数のパーツデータセット(アタック部、サステイン部及びリリース部のパーツデータセット)を順次読出し、同読出した一音符分の複数のパーツデータセットをまとめてRAMに一旦記憶する。このような動作を一音符ずつ順次行い、一曲分又は所定の単位に属する複数の音符分のパーツデータセットの組をRAM13に格納しておく。
【0051】
なお、前記説明においては、一音符分の楽音修飾データを形成するために、パーツデータ記憶エリア37に記憶されている時間軸上の異なる位置の複数のパーツデータセット(アタック部、サステイン部及びリリース部のパーツデータセット)をそれぞれ独立に選択した。しかし、前記時間軸上の異なる位置の複数のパーツデータセットを関連して同時に選択するようにしてもよい。
【0052】
加工及び接続手段43は、前記パーツ選択手段42dにより選択されたパーツデータセットのアタック部、サステイン部、リリース部などに分解されている各パーツデータを、ユーザによる指示も混じえて曲データ中の一つの音符に対してアタック部からリリース部まで加工しながら接続して、楽音修飾データをピッチ、振幅及びスペクトルの各楽音特性毎に一音符分ずつ作成する。具体的には、CPU11が、図示しないプログラム処理により、RAM13に格納されている曲データ及び複数のパーツデータを用いて、キー入力装置24の操作による指示に応じてアタック部からリリース部に至る楽音修飾データを各楽音特性毎に形成する。したがって、この加工及び接続手段43は、CPU11、RAM13、キー入力装置24などにより実現される機能に対応する。
【0053】
前記加工及び接続動作においては、図11,12(振幅に関する楽音修飾データ)に示すように、前記選択されたアタック部、サステイン部及びリリース部などのパーツデータを順次接続して一つの音符に対する楽音修飾データをピッチ、振幅及びスペクトルの各楽音特性毎に形成する。このとき、用意されたサステイン部に関するパーツデータが長くて、前記各パーツデータを接続した楽音修飾データにより表される符長が該当する音符長よりも長くなる場合には、図11に示すように、サステイン部のパーツデータの一部のみを切り取って、同切り取った一部のパーツデータをアタック部及びリリース部の間に接続する。逆に、用意されたサステイン部に関するパーツデータが短くて、前記各パーツデータを接続した楽音修飾データにより表される符長が該当する音符長よりも短くなる場合には、図12に示すように、サステイン部のパーツデータを繰り返して用いるようにする。
【0054】
この場合、アタック部のパーツデータの終了点、サステイン部のパーツデータの開始点及び終了点、並びにリリース部のパーツデータの開始点の値は規格化されてほぼ同じ値に設定されているので、前記接続が容易に行われる。なお、この接続の際にも、必要に応じて、特にサステイン部の一部のパーツデータを用いる場合には、接続する前のパーツデータ又は接続後のパーツデータの何れかのレベルをシフトか、ゲイン調整することにより、データ値を若干修正して接続部を滑らかに繋げるようにするとよい。また、図13に示すように、接続部における前側パーツデータの後部分と後側パーツデータの前部分とをクロスフェードにより接続するようにしてもよい。
【0055】
また、図11のようにサステイン部をなだらかに単調減少させるなど、楽音特性のゆっくりした変化を付加した場合には、予め記憶しておいたデータ又はキー入力装置24及び表示器25を用いてユーザが入力したデータに基づいて各パーツデータの接続前又は接続後にパーツデータの一部に修正を加えるようにするとよい。
【0056】
さらに、楽音修飾データを曲データ中へ貼り付ける場合、曲データの再生テンポに応じて楽音修飾データ(パーツデータ)を時間軸上で圧縮又は伸張しておく必要がある。すなわち、楽音修飾データは、例えば10ミリ秒毎のピッチ、音量又はスペクトル(音色)の時間変化のように、楽音特性の時間変化を表すものである。したがって、楽音修飾データをその時間変化特性を保ったまま曲データ中に貼り付けようとするために、楽音修飾データを貼り付けようとする位置のテンポに応じて楽音修飾データの時間軸の長さを適切に調整しなければならない。
【0057】
例を挙げて説明すると、楽音修飾データが10ミリ秒の時間間隔で記録されていると仮定する。この10ミリ秒は、自動演奏のテンポを125拍/分、4分音符の分解能を48クロックとした場合の1クロックに相当する。この125拍/分のテンポを標準テンポとすると、曲データ中の楽音修飾データを貼り付けようとする位置のテンポが標準テンポに比べて遅いとき、図12に示すように、楽音修飾データすなわちアタック部、サステイン部及びリリース部の各パーツデータを、同各パーツデータの接続前又は接続後に標準テンポと曲データ中のテンポとの比に応じて時間軸上で圧縮しておく。これは、自動演奏のテンポが遅くなることは、楽音修飾データの読出しクロックが遅くなることを意味し、この読出しクロックが遅くなったことに起因して読出した楽音修飾データが時間軸で伸張されてしまうことを事前に補正しておくためである。逆に、前記楽音修飾データを貼り付けようとする位置のテンポが標準テンポにテンポに比べて速いときには、前記各パーツデータの接続前又は接続後に同各パーツデータを標準テンポと曲データ中のテンポとの比に応じて時間軸上で伸張しておく。具体的には、図9(B)にステップ数データSTをそれぞれ前記両テンポの比に応じて変更するようにすればよい。
【0058】
貼り付け手段44は、前記加工及び接続手段43により作成されたピッチ、振幅及びスペクトルに関する各楽音修飾データを一音符分ずつ曲データに順次貼り付けて、一曲分の曲データを加工するものである。曲データ出力手段45は、前記楽音修飾データの貼り付けられた曲データを順次RAM13に記憶するとともに、ハードディスク14又は外部記録装置15に記憶する。具体的には、CPU11が、図示しないプログラム処理により、RAM13に格納されている各音符毎の楽音修飾データをキー入力装置24の操作による指示に応じて同RAM13に格納されている曲データに貼り付け、同貼り付けの終了した曲データをRAM13に記憶するとともに、ハードディスク14又は外部記録装置15に記憶しておく。したがって、これらの貼り付け手段44及び曲データ出力手段45は、CPU11、RAM13、キー入力装置24、ドライブ装置14a,15aなどにより実現される機能に対応する。
【0059】
この楽音修飾データの貼り付け動作について、図14を用いて詳細に説明する。図14において、(A)は楽曲の楽譜の一部を示しており、(B)は楽音修飾データを貼り付ける前の前記楽譜に対応した曲データを示しており、(C)は前記曲データに楽音修飾データとしてピッチ変化データ(図10(B)を貼り付けた曲データを示している。図10(B)(C)中、「NOTE」は音名を表し、「K#」は前記音名のキーコードを示しており、「ST」は次のイベントまでの時間(すなわち(B)においては符長に対応したステップ数、(C)においては次の音名又はピッチ変化までのステップ数)を示しており、「GT」はゲート時間に対応したステップ数を示しており、「VEL」は音名に関するデータの場合にはベロシティ(音の強さ)示すとともに、ピッチ変化に関する場合にはピッチ変化度合いを示している。なお、前記符長とは次の音符又は休符までの時間を表し、ゲート時間とはアタック部の開始からサステイン部の終了までの時間(キーオン時間)を表している。そして、(B)において、ゲート時間GTのステップ数が符長STのステップ数よりも大きいことは、これらのデータに関する音符はスラーで演奏されることを表している。また、数値「192」は小節位置を示している。
【0060】
図14(A)〜(C)において符号Yを付した音符を例にすると、この音符の符長ステップ数STは「32」である。そして、ピッチ変化データは、図9(B)に示すように、ステップ数「17」、「2」、「1」、「8」、「2」、「2」毎に変化するものとする。したがって、この場合、(B)における符長ステップ数「32」を「17」、「2」、「1」、「8」、「2」、「2」に分割し、1音符に対して(C)のように音名NOTE,#K、符長ST、ゲート時間GT及びベロシティVELに関するデータにピッチ変化データΔPitchを付加する。このような作業を1音符ずつ曲データの始めから終わりまで行う。
【0061】
また、振幅変化データ及びスペクトル変化データに関しても、前記ピッチ変化データの場合と同様に、曲データに振幅変化データ及びスペクトル変化データを貼り付けることができる。ピッチ変化データ、振幅変化データ及びスペクトル変化データのうちの複数種の楽音修飾データを曲データに貼り付ける場合には、複数種の楽音修飾データを互いに同期した状態で貼り付けを行う。ここで、同期とは、分析により抽出したときのピッチ変化、振幅変化及びスペクトル変化の相互間の時間関係を保つことを意味する。
【0062】
また、ピッチ変化データを曲データ中に貼り付けようとする場合、曲データ中に既にピッチを変更するためのピッチベンドデータが記録されている場合がある。この場合、ピッチベンドデータに前記パーツデータセットから形成したピッチ変化データ(楽音修飾データ)を加算して、前記曲データ中に貼り付ければよい。また、振幅(音量)及びスペクトル(音色)に関しても、一楽音に対する振幅及びスペクトルの時間変化を表すデータが曲データ中に既に記録されている場合にも、前記パーツデータセットから形成した振幅変化データ及びスペクトル変化データ(楽音修飾データ)を加算して、前記曲データ中に貼り付ければよい。なお、場合によっては、既に記録されている一楽音に対する振幅及びスペクトルの時間変化を表すデータを除去して、前記パーツデータセットから形成したピッチ変化データ、振幅変化データ及びスペクトル変化データ(楽音修飾データ)を曲データ中に貼り付けたり、前記既に記録されているデータをそのまま残し、楽音修飾データの貼り付けをやめるようにしてもよい。
【0063】
また、曲データをMIDI形式のシーケンスデータで構成した場合には、曲データに対するピッチベンド、ボリュームデータ及びブライトネスデータは、各記憶トラック毎に一つしか指定できないので、前記説明の楽音修飾データの貼り付け方法では、ソロパートを記録したトラックの曲データに楽音修飾データを貼り付けることが適している。
【0064】
そして、2音以上の楽音を同時に発生させるパートをMIDI形式で記録したトラックの曲データに楽音修飾データを貼り付ける場合、前記のような方法では同時に発音される複数の楽音に対して楽音修飾データの貼り付けが的確に行われないので、次のような方法を採用するとよい。
【0065】
第1の方法は、ピッチ、振幅及びスペクトルの各種楽音特性において、複数の楽音が同時に発生される部分については、同複数の楽音のうちのいずれか一つの楽音に関する楽音修飾データを選択して、前記同時に発生される複数の楽音にそれぞれ対応した複数の音符データに対して前記選択された一つの楽音修飾データを共通に貼り付けることにより、曲データ中に楽音修飾データを貼り付ける。この場合、前記複数の楽音のうちで、各時点毎に振幅値が最も大きい楽音に関する楽音修飾データを貼り付けるべき楽音修飾データとするとよい。また、これに代えて、前記各種楽音特性において、各時点で楽音特性の基準値からの変化度合いが最も大きい楽音に関する楽音修飾データを前記貼り付けるべき楽音修飾データとしてもよい。
【0066】
また、第2の方法は、複数の楽音修飾データ(複数のピッチ変化データ、複数の振幅変化データ又は複数のスペクトル変化データ)を合成して、同合成した楽音修飾データを前記同時に発音される楽音にそれぞれ対応した複数の音符データに対して共通に貼り付ける。また、同時に発音する複数の楽音の発音開始タイミング又は発音終了タイミングがずれていて、一つの楽音が発音している状態から複数の楽音が同時に発音される状態に移行する場合、又は複数の楽音が同時に発音されている状態から一つの楽音のみが発音される状態に移行する場合には、移行部分において複数の楽音修飾データをクロスフェード処理するとよい。
【0067】
また、第3の方法としては、一つのトラックに記憶されていて同時に発音する複数の楽音に関する複数の音符データをそれぞれ分離し、複数のトラックにそれぞれ記憶させておいて、複数のトラックに記憶されている各音符データに対して楽音修飾データを貼り付ける。例えば、図15(A)の楽譜に示すように複数の楽音が同時に発生される場合、曲データは図15(B)のようになる。なお、(B)において、符長ステップ数STが「0」であることは、次の音符データと同時に発生されることを表す。このような曲データは、図15(C)〜(E)に示すように、複数のトラック1〜3に分離されて記憶される。すなわち、(B)で符長ステップ数STが「0」である音符データに関しては、同時に発音されるとともに同時に発音停止する音符の符長ステップ数STが採用されて、異なるトラックの曲データとして新たに記憶される。
【0068】
また、このように音符データを分離することに関しては、ギター音色の楽音を発音する曲データを記憶したトラックの場合には、運指方法の自動解析技術により同時に発音される複数音がそれぞれどの弦で発音されるかを検出して、各弦に対応させた複数のトラックに音符データを振り分けるようにするとよい。このようにして複数のトラックに分離記憶された音符データに楽音修飾データを付加することについては、前述した1音符毎の貼り付け方法を用いればよい。
【0069】
このような第1〜3の方法によれば、曲データ中に複数の楽音を同時に発生する音符データが含まれていても、複数の楽音修飾データによる楽音特性の制御データが時間軸上に重ねて存在することがなくなり、楽音修飾データによる楽音特性の時間変化を楽音に簡単に付与できるようになる。
【0070】
また、前述のような曲データの加工においては、アタック部、サステイン部、リリース部などの各部分毎に予め用意しておいたパーツデータを選択的に接続して、1音符分のピッチ変化データ、振幅変化データ及びスペクトル変化データからなる各種楽音修飾データを形成し、同形成した楽音修飾データを曲データ中の各音符データに貼り付けるようにした。その結果、曲データに対して楽音修飾データを付加する加工処理を簡単に行うことができるようになるとともに、種々の楽音修飾データを音符データに付加することができるようになる。
【0071】
c.楽音発生モード
次に、前記楽音修飾データを貼り付けた曲データに基づいて楽音を発生する楽音発生モードについて説明する。この場合、ユーザは、表示器25を用いながらキー入力装置24により前記曲データを指定する。曲データがハードディスク14又は外部記録装置15に記憶されている場合には、同記憶されている曲データをRAM13に転送記憶させる。そして、曲データの再生スタートを指示すると、CPU11は、図示しないプログラム処理により、RAM13に記憶されている曲データ中の音符データ及び楽音修飾データを順次読み出す。この場合、CPU11は、曲データ中のテンポデータTEMPOにしたがってカウント動作する内蔵のタイマ手段により、前記音符データ及び楽音修飾データと共に記憶されているステップ数STを計測して、同音符データ及び楽音修飾データを前記計測にしたがって順次読み出す。なお、複数のトラックに記憶されている曲データは同時に読み出される。
【0072】
前記読み出された音符データ及び楽音修飾データは、CPU11による図示しないプログラム処理により、音源回路22にバス10を介して出力される。音符データが読み出された場合には、CPU11は音源回路22内の空きチャンネルに前記音符データを割り当て、同空きチャンネルに対して前記音符データを出力するともに、楽音の発生を指示する。音源回路22は、波形メモリ27との協働により、前記空きチャンネルにて前記供給された音符データにしたがって楽音信号を形成してサウンドシステム28に出力する。すなわち、音源回路22は、キーコードK#に対応した音高を有するとともに、ベロシティデータVELに応じた音量を有する楽音信号を発生する。この場合、ゲート時間データGTは、楽音のアタック開始からサステイン終了までの時間を規定し、一音符に関するステップ数STの合計時間が一音符の符長を規定する。
【0073】
一方、ピッチ変化データ、振幅変化データ及びスペクトルデータからなる楽音修飾データが読み出された場合には、CPU11は音源回路22内の前記音符データを割り当てたチャンネルに対して前記読み出された楽音修飾データを出力する。これにより、音源回路22は、ステップ数STに対応した時間だけ楽音信号のピッチ、振幅(音量)及びスペクトル(音色)を楽音修飾データに応じて変更制御する。この場合、特に、振幅エンベロープに関しては、楽音信号の基本的な振幅(音量)は前述のベロシティデータVELにより制御され、前記振幅に関する楽音修飾データにより楽音の振幅(音量)がさらに変更制御される。なお、スペクトル(音色)に関しても、ベロシティデータVELによる制御に楽音修飾データによる制御を加えるようにしてもよい。
【0074】
また、曲データ中に含まれていて楽音信号を制御する他のデータ及び同データ中に含まれていない種々のデータも前記チャンネルに出力される。これにより、前記発生される楽音信号のピッチ、振幅(音量)及びスペクトル(音色)が、前記楽音修飾データ、その他の種々のデータにより制御されることになる。
【0075】
このように、発生される楽音信号は時間変化する楽音修飾データにより制御され、かつこの楽音修飾データは自然楽器音などのピッチ、振幅(音量)及びスペクトル(音色)に基づくものであるので、発生される楽音の音質が向上し、リアル感があるとともに豊かな演奏表現力を有する楽音を発生できるようになる。
【図面の簡単な説明】
【図1】 本発明に係る曲データ加工方法が適用された楽音発生装置の一例を示すブロック図である。
【図2】 楽音修飾データ作成モード時における図1の楽音発生装置の動作を示す機能ブロック図である。
【図3】 トランペットを強く吹いた音、中程度の強さで吹いた音及び弱く吹いた音の別にトランペット音のピッチ、振幅及びスペクトルの時間変化をそれぞれ表す図である。
【図4】 図3のトランペットを強く吹いた音に関するピッチ、振幅及びスペクトルの時間変化をそれぞれ表す図である。
【図5】 規格化したアタック部のピッチ、振幅及びスペクトルの時間変化を表す図である。
【図6】 規格化したサステイン部のピッチ、振幅及びスペクトルの時間変化を表す図である。
【図7】 規格化したリリース部の各ピッチ、振幅及びスペクトルの時間変化を表す図である。
【図8】 トレモロ効果の付与された楽器音であって規格化された楽器音のピッチ及び振幅の時間変化の一例を表す図である。
【図9】 (A)はパーツデータセットのフォーマット図であり、(B)は同パーツデータセット中のピッチ変化データの詳細フォーマット図である。
【図10】 曲データ加工モード時における図1の楽音発生装置の動作を示す機能ブロック図である。
【図11】 アタック部、サステイン部及びリリース部の各パーツデータの接続の一例を説明するための説明図である。
【図12】 アタック部、サステイン部及びリリース部の各パーツデータの接続の他の例を説明するための説明図である。
【図13】 サステイン部及びリリース部の各パーツデータの接続の他の例を説明するための説明図である。
【図14】 (A)は楽譜の一例を示す部分図であり、(B)は同楽譜に対応した加工前の曲データの一部を示すデータフォーマット図であり、(C)は同楽譜に対応した加工後の曲データの一部を示すデータフォーマット図である。
【図15】 (A)は楽譜の一例を示す部分図であり、(B)は同楽譜に対応した加工前の曲データの一部を示すデータフォーマット図であり、(C)〜(E)は前記曲データ中の同時発音する複数の楽音に対応した各音符データをそれぞれ分離した曲データのデータフォーマット図である。
【符号の説明】
10…バス、11…CPU、12…ROM、13…RAM、14…ハードディスク、15…外部記録装置、21…取り込み回路、22…音源回路、23…MIDIインターフェース、24…キー入力装置、25…表示器、26…外部信号入力端子、30…マイク、32…波形データ記憶エリア、33…分析手段、34…パーツ作成手段、35…補助データ生成手段、36…書き込み手段、37…パーツデータ記憶エリア、41…曲データ入力手段、42a…パーツ選択データ入力手段、42b…特徴分析手段、42c…パーツ指定手段、42d…パーツ選択手段、43…加工及び接続手段、44…貼り付け手段、45…曲データ出力手段。
[0001]
BACKGROUND OF THE INVENTION
  The present invention specifies the pitch and length of a plurality of musical sounds recorded on a recording medium.pluralSong data that changes the tone characteristics such as pitch, amplitude, and tone of each tone that is played based on the song data, and changes the tone characteristics such as pitch, amplitude, tone, etc. How to processTo the lawRelated.
[0002]
[Prior art]
Conventionally, it is possible to generate a series of musical sounds by playing music data composed of a series of note data that are recorded on a recording medium and respectively specify the pitches and lengths of a plurality of musical sounds. well known. In this case, in order to give a real feeling to the generated musical sound, the musical sound characteristics such as the pitch, amplitude, and tone color of the musical sound are changed with time in accordance with control signals from an envelope generator, a low frequency transmitter, and the like.
[0003]
[Problems to be solved by the invention]
However, the time change of the musical sound characteristics imparted by the above conventional method is simple, and it is difficult to generate a realistic musical sound like a natural musical instrument. Especially, the musical sound having various performance expressions is reproduced. I couldn't. On the other hand, it is possible in principle to perform replay method simulation by inputting continuous data such as pitch bend data and control change data into the music data using a MIDI (Musical Instrument Digital Interface) sequencer. However, a normal MIDI sequencer has only the functions of continuous data input, such as typing one point at a time, drawing a straight line, drawing a certain form of curve, and freehand input. It is difficult to input control data for musical tones that have a feeling and rich performance expression.
[0004]
SUMMARY OF THE INVENTION
  The present invention has been made to address the above-described problems, and its purpose is to specify the pitch and length of a plurality of musical sounds recorded on a recording medium.pluralBy processing music data consisting of note data in a simple way, the musical sound characteristics such as pitch, amplitude, and timbre of the musical sound to be played are changed over time to create a musical sound that has a realistic feel and rich performance expression. An object of the present invention is to provide a music data processing method that enables reproduction.
[0008]
  In order to achieve the above object, a first structural feature of the present invention is that a plurality of musical tone modification data each representing a time change of at least one musical tone characteristic among pitch, amplitude, and timbre relating to one musical tone are represented by time. Divided into multiple parts on the axis and dividedThe end values of each part are all the same valueEach part is processed and prepared in advance so that the at least one musical sound characteristic of the musical sound represented by the note data in the music data is changed as a musical sound modification data for changing the time. Select multiple parts for different positions on the time axis from the parts, and connect the selected multiple parts to form musical sound modification data for changing the at least one musical sound characteristic of one musical sound over time The musical tone modification data thus formed is pasted into the music data.
[0009]
  According to the first structural feature, in order to form musical tone modification data for one musical tone, a plurality of parts at different positions on the time axis are selected and the selected plurality of parts are connected. As described above, various musical tone modification data can be formed, and a musical tone rich in realism, rich in performance expression, and varied can be generated. In addition, each part prepared in advance is divided into multiple partsThe end values of each part are all the same valueTherefore, it is easy to connect each part no matter which part is selected.
[0010]
  In this case, the length of any one of the plurality of connected parts may be adjusted according to the length of the note represented by the note data in the music data. According to this, it is possible to easily form musical tone modification data for notes having various note lengths without preparing musical tone modification data corresponding to various note lengths.
  Further, in the music data processing method according to the invention of the above-described configuration and other inventions to be described later, the musical sound modification data is obtained by analyzing the pitch, amplitude and tone color of a natural musical instrument sound. According to this, it becomes possible to easily generate a sound quality equivalent to a performance sound of a natural musical instrument.
[0011]
  The second structural feature of the present invention is that musical tone modification data representing a time change of at least one musical tone characteristic among pitch, amplitude, and timbre related to one musical tone is prepared in advance. In order to change the musical tone characteristics of the musical tone represented by the note data over time, the prepared musical tone modification data is pasted into the song data,When a plurality of musical sounds are generated at the same time by a plurality of note data stored in one track in the song data, the portion where the plurality of musical sounds are generated at the same time,The musical tone modification data relating to one musical tone among the plurality of musical sounds generated at the same time is selected, and the selected musical tone modification data is shared by a plurality of note data respectively corresponding to the plurality of musical sounds generated simultaneously. It is to be pasted on.
[0012]
  The third structural feature of the present invention is that musical tone modification data representing a time change of at least one musical tone characteristic among pitch, amplitude, and timbre related to one musical tone is prepared in advance. In order to change the musical tone characteristics of the musical tone represented by the note data over time, the prepared musical tone modification data is pasted into the song data,When a plurality of musical sounds are generated at the same time by a plurality of note data stored in one track in the song data, the portion where the plurality of musical sounds are generated at the same time,The musical tone modification data relating to the plurality of musical sounds generated at the same time are synthesized, and the synthesized musical tone modification data is pasted in common to the plurality of note data respectively corresponding to the plurality of musical sounds generated at the same time. It is to have done.
[0013]
  According to a fourth structural feature of the present invention, musical tone modification data representing a time change of at least one musical tone characteristic among pitch, amplitude, and tone color relating to one musical tone is prepared in advance.In order to temporally change the at least one musical tone characteristic of the musical tone represented by the note data in the musical piece data, the prepared musical tone modification data is pasted into the musical piece data, and at the time of pasting, the musical piece data When multiple musical sounds are generated simultaneously by multiple note data stored in one track,A plurality of note data corresponding to the plurality of musical sounds generated simultaneously.SeparateMultiple tracks eachRemarksRememberBeforeMultiple tracksRespectivelyRememberedpluralThe prepared musical tone modification data is pasted on the note data.
[0014]
  these2nd to 4thAccording to the structural features of the song dataOccur on one track at a timeMultiple musical soundsMultiple corresponding toEven if note data is included, the tone characteristic control data by multiple tone modification dataOne trackIt no longer exists on the time axis, and it is possible to easily add to the tone a time change in the tone characteristic based on the tone modification data.
[0015]
  Furthermore, the present invention5thThe structural features of each specify the pitch and length of multiple musical sounds.MultipleNote data andMultipleIn a music data processing method for processing music data consisting of tempo data representing the playback tempo of the note data of a plurality of music data, a plurality of music sound modifications representing a time change of at least one music characteristic among pitch, amplitude and tone color relating to one music sound Data is prepared in advance, and in order to change the musical tone characteristic of the musical tone represented by the note data in the song data over time, the prepared musical tone modification data is compressed or expanded on the time axis according to the tempo data. This is because it is pasted into the song data.
[0016]
  this5thAccording to the above structural feature, even if the tempo of the musical sound reproduction changes and the absolute sounding time of one musical sound changes, the musical sound modification data can be appropriately applied to the musical sound.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a musical tone generator to which a music data processing method according to the present invention is applied.
[0018]
The musical tone generator includes a CPU 11, a ROM 12, and a RAM 13 that are connected to the bus 10 and constitute a computer main body. The CPU 11 inputs from the outside by executing a program stored in the ROM 12 and, if necessary, a program recorded in the hard disk 14 or an external recording device 15 such as a CD or MO and transferred to the RAM 13 when used. To create musical tone modification data for controlling the musical tone characteristics such as pitch, amplitude, tone color, etc. of the generated musical tone by analyzing the musical instrument sound, or to the music data consisting of a series of note data representing the pitch and length The modification data is pasted or the music data with the same musical tone modification data pasted is reproduced to generate a musical sound.
[0019]
The hard disk 14 and the external recording device 15 record various data described above and later, and the hard disk 14 is incorporated in a drive device 14 a connected to the bus 10. The external recording device 15 is selectively assembled to the drive device 15 a connected to the bus 10.
[0020]
The bus 10 is also connected with a capturing circuit 21, a tone generator circuit 22, a MIDI (Musical Instrument Digital Interface) interface 23, a key input device 24, and a display 25. The capture circuit 21 includes an A / D converter 21a, and converts an analog signal supplied to the external signal input terminal 26 into digital waveform data at a predetermined sampling rate in accordance with an instruction from the CPU 11. The converted waveform data is written to the RAM 13, the hard disk 14, the external recording device 15 and the like as appropriate.
[0021]
The tone generator circuit 22 is provided with a plurality of time division channels for forming musical tone signals, respectively, and the digital musical tone signals respectively formed by these time division channels are converted into analog signals by a built-in D / A converter. The circuit 22 is connected to a waveform memory 27 and a sound system 28. The waveform memory 27 and the sound system 28 are connected to the circuit 22. The waveform memory 27 stores a plurality of types of musical sound waveform data for use in forming the musical sound signal. Each musical sound waveform data is composed of a plurality of waveform sample values to which amplitude envelopes from the attack start to the release end of the musical sound are added. Also, only the waveforms of the attack and sustain sections (loop sections) with amplitude envelopes are prepared as musical sound waveform data, and when the musical sound is generated, the waveform of the sustain section can be used as a release waveform, or as musical sound waveform data Only the waveform of the sustain portion (loop portion) may be prepared, and the waveform of the sustain portion may be used as an attack waveform and a release waveform when a musical sound is generated. The sound system 28 is composed of an amplifier, a speaker, and the like, and amplifies an analog musical tone signal from the sound source circuit 22 to generate a musical tone.
[0022]
The MIDI interface 23 is connected to other musical tone generation control devices such as a musical instrument such as a keyboard, other musical instruments, a personal computer, an automatic performance device (sequencer), and the like. High information) Various for controlling the generation of musical tone such as KC, key-on signal, key-off signal, note length information, key-on time, velocity information (key touch information), tone color control information, performance tempo information, effect control information Input musical tone control information. The key input device 24 includes a keyboard, a mouse, and the like, and performs various instructions to the CPU 11 or directly inputs various data according to the display on the display unit 25 or independently. The display device 25 displays characters and figures in accordance with instructions from the CPU 11.
[0023]
Next, using the musical tone generator configured as described above, (a) a musical tone modification data creation mode for creating musical tone modification data for time-varying musical tone characteristics comprising the pitch, amplitude and tone of the musical tone; (b) A music data processing mode for processing the music data by pasting the created music sound modification data to music data consisting of a series of note data that respectively specify the pitch and length of a plurality of music sounds; and (c) Each will be described in the order of the tone generation mode for generating a tone based on the processed music data. Each of these modes is set by the user operating the key input device 24 alone or in accordance with an instruction on the display 25.
[0024]
a. Music modification data creation mode
FIG. 2 is a functional block diagram showing the operation of the musical tone generator of FIG. 1 in the musical tone modification data creation mode. First, in this mode, the microphone 30 is connected to the external signal input terminal 26, and external sound (for example, natural musical instrument sound) is input to the capture circuit 21 through the microphone 30. Instead of the microphone 30, a recording device such as a tape recorder that records external sound in advance may be connected to the external signal input terminal 26 to input the external sound signal to the capturing circuit 21.
[0025]
The external sound signal is sampled at a predetermined sampling rate, A / D converted by the A / D converter 21a, and stored in the waveform data storage area 32 by the recording control means 31. In this case, the A / D converter 21a is provided in the capturing circuit 21, and the recording control means 31 responds to an instruction using the key input device 24, and the drive device 14a (or the drive device 15a) and This is realized by program processing (not shown) by the CPU 11 cooperating with the fetch circuit 21. The waveform data storage area 32 is an area provided in the hard disk 14 or the external recording device 15 for storing sampling data of an external sound signal.
[0026]
In this case, various natural musical instruments are played in various modes, and waveform data relating to the performance sound is accumulated and recorded in the waveform data storage area 32. For example, a sound with a strong trumpet, a sound with a medium strength, a sound with a weak blow, a sound with a stutter, a sound with a slur, a sound with a fast rise, a blow with a slow rise Record waveform data related to sound.
[0027]
After recording the waveform data, in response to the operation of the key input device 24, the CPU 11 analyzes the recorded waveform data by a program process (not shown). This analysis process is shown in FIG. 2 as a function block diagram as the analysis means 33. The analysis means 33 analyzes each recorded waveform data, and the tone characteristics such as pitch, amplitude, spectrum (tone color), etc. Extract the time change of. Each time change is composed of, for example, characteristic value data representing an instantaneous value of each musical sound characteristic and time data representing the continuous time of the instantaneous value by the number of steps of the minimum time resolution in the MIDI standard, that is, event data. And MIDI sequence data consisting of duration data.
[0028]
The time change of the pitch includes fluctuation of the frequency in the attack part and release part of the musical tone, vibrato, pitch bend, pitch change due to slur, etc. This time change is expressed as, for example, a MIDI standard pitch bend sequence. . The time change of the amplitude includes the change of the amplitude envelope from the attack part to the release of the musical sound, the amplitude change due to tremolo, accent, slur, etc. This time change is, for example, as a volume or expression sequence of the MIDI standard. Expressed.
[0029]
The time change of the spectrum is a change in the spectrum characteristic from the attack part to the release part of the musical sound. There are various elements in spectral characteristics, and one specific example is brightness data. The brightness data indicates the amplitude ratio between the fundamental tone of the recorded waveform and each overtone, and is expressed as a MIDI standard brightness sequence. Other examples include data indicating the formant shape, cut-off frequency, data indicating the time variation of the spectrum spread, and the like. Instead of the MIDI standard brightness data, it may be represented by sequence data representing a time change such as a filter cutoff frequency or resonance.
[0030]
FIG. 3 is an analysis data value showing the time variation of the pitch, amplitude (volume) and spectrum of the trumpet sound separately from the sound of the trumpet strongly blown, the sound of the medium strength and the sound of weakly blown in order from the left. Is shown. FIG. 4 is an enlarged view of each analysis data value related to the sound of strongly blowing the trumpet.
[0031]
Next, in response to the operation of the key input device 24, the CPU 11 divides each analysis data of pitch, amplitude and spectrum from the attack to the release into a plurality of pieces on the time axis by program processing (not shown). Analyzing the analysis data, standardizing each of the divided analysis data, and combining the analysis data related to the pitch, amplitude and spectrum for each of the divided units into one set and indexing the part data A set is created and recorded in the part data storage area 37. In FIG. 2, the function for creating the part data set is shown as a part creation unit 34, and the function for generating auxiliary data for indexing is shown as an auxiliary data generation unit 35. The writing means 36 having the function of writing the part data set corresponds to the drive device 14a (or the drive device 15a) and the program processing for writing, and the part data storage area 37 is stored in the hard disk 14 or the external recording device 15. This is an area provided for storing part data.
[0032]
First, the decomposition process will be described. The time change of the musical sound characteristics such as pitch, amplitude, spectrum and the like is decomposed into an attack part, a sustain part, a sustain part with vibrato, a release part, a connection part, etc. in the time axis direction. In this case, as shown in FIG. 4, the display 25 displays the time change of the pitch, amplitude, and spectrum, and the user uses the key input device 24 including a mouse on the time axis of the pitch, amplitude, and spectrum. By specifying a common point, the pitch, amplitude, and spectrum are divided into a plurality of parts (attack, sustain, release, etc.) having a common time axis. In this case, the division point may be determined by searching for a point at which the manner of time change changes based on at least two time changes of pitch, amplitude, and spectrum. Specifically, for example, before, during and after changes in the boundary between non-stationary parts (attack, release, etc.) and stationary parts (sustains, etc.) and changes in characteristics (slur, vibrato, etc.) It is recommended to specify the boundary as a dividing point.
[0033]
As described above, the disassembly process may be performed with a manual operation by the user, but the disassembly process may be automatically performed by a program process. In this case, the division point determination criteria as described above may be programmed, and a plurality of parts may be created by determining the division points when the program is executed.
[0034]
Next, the normalization process will be described. For each musical tone characteristic (pitch, amplitude, and spectrum) related to each analyzed instrument sound, the analysis data for each of the parts (the attack part, the sustain part, and the release part) is normalized. In addition, the normalization as used in this specification is defined as a common definition for each musical sound characteristic (pitch, amplitude, and spectrum), and a common connection point value for each part (attack, sustain, and release). It means that it is almost matched with a predetermined value set in advance. Specifically, when an attack part, a sustain part, and a release part are adopted as each part, the last of the attack part, the first of the sustain part, the last of the sustain part, and the first of the release part are respectively set to predetermined values. Equivalent to equalization.
[0035]
First, the pitch normalization process will be described. In this process, in addition to the process of adjusting the connection point value according to the common definition of the standardization to a predetermined value, the frequency change of the input instrument sound is changed. A process expressed as a frequency change (pitch change) with respect to the reference frequency is also performed. Specifically, the frequency corresponding to the pitch of the input musical instrument sound (scale frequency such as A4 and E4) is set as the reference frequency, and the analysis data representing the time variation of the pitch for each part is used as the pitch deviation amount with respect to the reference frequency. The data is converted into data representing the time change of each, and thereafter, the pitch deviation amount of the connection point is set to substantially “0”. In other words, if the normalization processing for the attack portion, the converted data is processed so that the last pitch deviation amount is almost “0”, and if the normalization processing is for the sustain portion, the conversion data is converted to the first and last pitches. Both are processed so that the deviation amounts are substantially “0”, and if the normalization processing is related to the release portion, the converted data is processed so that the initial pitch deviation amounts are both substantially “0”. In this case, the reference frequency may be input using the key input device 24, or a frequency close to the scale frequency may be automatically set as the reference frequency based on the analysis data.
[0036]
Next, a normalization process related to amplitude will be described. In this process, a process of making the connection point value according to the common definition of the normalization substantially coincide with a predetermined value is performed. Specifically, even if the recorded instrument sounds are different in intensity (overall volume), the analysis data for each part is shifted and the gain is adjusted so that each part (attack part, sustain part) And the release point) are set to a predetermined value. That is, the last amplitude level of the attack portion, the first and last amplitude levels of the sustain portion, and the first amplitude level of the release portion are corrected to substantially the same predetermined value. This leads to approximating the amplitude level of the sustain portion to a predetermined value. As for the spectrum, as in the case of the amplitude, the analysis data for each part is shifted or the gain is adjusted, so that the value of the connection point of each part (attack part, sustain part and release part) is almost predetermined. Adjust to the value. 5 to 7 are diagrams illustrating examples of data values representing temporal changes in the pitch, amplitude, and spectrum of the normalized attack portion, sustain portion, and release portion.
[0037]
Since the change width of the value of each part is standardized and reduced by the normalization process as described above, the time change of each pitch, amplitude and spectrum can be expressed with a small number of bits, and the capacity of the part data storage area 37 can be expressed. Can be reduced. In particular, in the part data representing the pitch variation characteristic, the pitch variation with respect to the reference frequency is represented, so that the capacity of the part data storage area 37 can be further reduced. In the MIDI standard, the number of bits of data representing the pitch, amplitude, and timbre changes of the musical tone signal is limited, and the data of each part by the standardization process can be easily expressed in a format according to the MIDI standard. In addition, a limited number of bits can be effectively used according to the MIDI standard.
[0038]
In addition, regarding the musical tone characteristics of the sustain portion, particularly the amplitude and spectrum, a fine change is important, not a rough change such as monotonous decrease, so that the analysis data regarding the amplitude and spectrum is subjected to high-pass filter processing. Good. In this case, by the high-pass filter processing, the amplitude and spectrum of the sustain portion are superposed on the data that is maintained at a substantially constant value as a whole. The data values of are almost the same. A rough change such as a monotonous decrease in the sustain portion can be appropriately added when connecting part data to be described later.
[0039]
However, for instrument sounds with a tremolo effect and instrument sounds with a vibrato effect, temporal changes in amplitude and spectrum should not be removed by the high-pass filter process, but should remain as temporal changes. Therefore, the cutoff frequency of the high pass filter needs to be set to a very small value. FIG. 8 shows an example of temporal changes in the pitch and amplitude of the instrument sound that is not decomposed into an attack part, a sustain part, and a release part, but is a musical instrument sound to which a tremolo effect has been applied. .
[0040]
Next, an operation of forming a part data set and storing it in the part data storage area 37 for each unit (attack part, sustain part and release part) obtained by dividing the standardized parts data will be described. As described above, standardized pitch change data, amplitude change data, and spectrum change data representing time changes in pitch, amplitude, and spectrum for each divided unit (attack part, sustain part, and release part) are grouped. Thereafter, the user inputs auxiliary data for indexing using the key input device 24, thereby generating the auxiliary data. Then, the generated auxiliary data is added to the grouped part data to create a set of part data sets, and each part data set is stored in the part data storage area 37. In this case, the auxiliary data for indexing is data for identifying instrument sounds that are input based on the instrument name, sound intensity, staggered or slur sound, fast or slow rising sound, presence or absence of tremolo and vibrato, etc. This data includes data representing parts such as an attack part, a sustain part, and a release part, and is used for searching for each part data. The auxiliary data is automatically generated by the instrument sound input, analysis, decomposition, normalization processing, or other processing in place of or in addition to the user input. Data can also be used.
[0041]
FIG. 9A shows index data, pitch change data, amplitude change data, and spectrum change data, and each part data set set for each divided unit (attack part, sustain part, and release part). Shows the data format. FIG. 9B shows an example of pitch change data, where ΔPitch is data representing the degree of pitch change with respect to the reference frequency (data representing the change in pitch with respect to the fundamental frequency in accordance with the MIDI standard), and ST is The time for which each degree of change continues is represented by the number of steps.
[0042]
In the above description, each part data is formed based on a musical instrument sound signal inputted from the outside. However, each part data may be created from changes in output of various sensors attached to a natural musical instrument. For example, each part data is created from the output of the bow speed sensor composed of the pressure sensor attached to the bow of the violin, each part data is created from the output of the performance operator of the electronic musical instrument, the breath sensor of the electronic wind instrument, Each part data may be created from the lip sensor.
[0043]
In the above description, the part data (musical tone modification data) representing the musical tone characteristics is converted into data conforming to the MIDI standard. However, in a system that can use a data format other than the MIDI standard, the part data is converted into a format other than the above. It may be converted into the data. For example, the detected time change of the musical sound characteristic may be expressed as a time function, or may be expressed by a broken line approximation based on the target value and the rate.
[0044]
b. Song data processing mode
Next, a music data processing mode for processing the music data by pasting the created part data (musical sound modification data) into music data composed of a series of note data will be described. FIG. 10 is a functional block diagram showing the operation of the musical tone generator of FIG. 1 in the music data processing mode.
[0045]
First, the user designates one piece of song data by inputting a song name or the like from a plurality of pieces of song data recorded in advance on the hard disk 14 or the external recording device 15 using the key input device 24. The CPU 11 reads out the designated music data from the hard disk 14 or the external recording device 15 according to the designation of the music data, and writes it in the RAM 13. The functions of the key input device 24, the CPU 11, and the RAM 13 are described as the music data input means 41 in FIG.
[0046]
The part selection data input means 42a displays information for selecting a part data set in response to the user's operation of the key input device 24, for example, information indicating an instrument name, a fast rising sound, an attack part, etc. for each note. To create. Specifically, the user inputs information necessary for designating a part data set in accordance with the display on the display 25, and the CPU 11 stores the same information for each note in the RAM 13 by program processing (not shown). deep. Therefore, the part selection data input means 42a corresponds to a function realized by the CPU 11, the RAM 13, the key input device 24, the display 25, and the like.
[0047]
The feature analysis unit 42b automatically creates information for selecting a part data set for each note by analyzing the selected music data. For example, you can specify an appropriate instrument name based on pitch, note length, tempo, etc., or specify strong, medium, or weak based on velocity data (representing the strength of the sound) contained in the song data, The slur is specified based on the fact that the rising part of the sound overlaps the sound generation period of the previous sound, or the staccato is specified because the sound generation period is shorter than the note length. Specifically, the CPU 11 automatically analyzes the music data written in the RAM 13 by program processing (not shown), and creates information for selecting each part data set based on the analysis result for each note. And stored in the RAM 13. Therefore, the feature analysis unit 42b corresponds to a function realized by the CPU 11, the RAM 13, and the like.
[0048]
In the above description, information for selecting a part data set is formed manually or automatically for each note. A unit for forming information for selecting these part data sets may be a phrase unit composed of a plurality of notes or a part of one note. That is, when a single and related effect, for example, a slur effect is given to a phrase composed of a plurality of notes, information for selecting a part data set for a plurality of notes belonging to the phrase is simultaneously provided. Create it. In addition, when an effect such as vibrato is given only to a part of one note, information for selecting a part data set or a part of the part data set may be formed for a part of one note. .
[0049]
The part designating unit 42c forms selection data for selecting a part data set for each note based on the information created by the part selection data input unit 42a and / or the feature analysis unit 42b. In this case, the selection data is formed only by the information created by the part selection data input means 42a (manual selection mode) automatically or in accordance with a user instruction from the key input device 24, or created by the feature analysis means 42b. The selection data is formed only by the information (automatic selection mode), or the selection data is formed by using the information respectively created by both the part selection data input means 42a and the feature analysis means 42b (semi-automatic selection mode). Specifically, these operations are executed by a program process (not shown) by the CPU 11 mixed with the operation of the key input device 24, and the parts specifying means 42c is realized by the CPU 11, the RAM 13, the key input device 24, and the like. Corresponding to the function to be performed.
[0050]
The part selection means 42d selects a part data set corresponding to the selection data from a plurality of part data sets stored in the part data storage area 37 using the formed selection data. Specifically, the CPU 11 performs a plurality of sets stored in the part data storage area 37 provided in the hard disk 14 or the external storage device 15 in accordance with an instruction input using the key input device 24 by program processing (not shown). A plurality of part data sets corresponding to the selected data are sequentially read out (part data sets of the attack part, the sustain part, and the release part), and a plurality of one note data that are read out are searched. The part data sets are collectively stored in the RAM. Such an operation is sequentially performed one note at a time, and a set of parts data sets for one note or a plurality of notes belonging to a predetermined unit is stored in the RAM 13.
[0051]
In the above description, in order to form musical tone modification data for one note, a plurality of part data sets (attack part, sustain part and release part) at different positions on the time axis stored in the part data storage area 37 are used. Part data sets) were selected independently. However, a plurality of part data sets at different positions on the time axis may be simultaneously selected in relation to each other.
[0052]
The processing and connection means 43 is a part of the piece data in the music data including the instruction by the user, which is divided into the attack part, the sustain part, the release part, etc. of the part data set selected by the part selection means 42d. Two notes are connected while being processed from an attack part to a release part, and tone modification data is created for one note for each tone characteristic of pitch, amplitude and spectrum. Specifically, the CPU 11 uses a song process and a plurality of parts data stored in the RAM 13 by a program process (not shown) to generate a musical sound from the attack unit to the release unit in response to an instruction from the key input device 24. The modification data is formed for each tone characteristic. Therefore, the processing and connection means 43 corresponds to a function realized by the CPU 11, RAM 13, key input device 24, and the like.
[0053]
In the processing and connecting operation, as shown in FIGS. 11 and 12 (musical tone modification data related to amplitude), the musical data for one note is obtained by sequentially connecting the selected part data such as the attack part, the sustain part and the release part. The modification data is formed for each tone characteristic of pitch, amplitude and spectrum. At this time, when the part data relating to the prepared sustain part is long and the note length represented by the tone modification data connecting the parts data is longer than the corresponding note length, as shown in FIG. Then, only a part of the part data of the sustain part is cut out, and a part of the cut part data is connected between the attack part and the release part. On the contrary, when the part data relating to the prepared sustain portion is short and the note length represented by the musical tone modification data connecting the parts data is shorter than the corresponding note length, as shown in FIG. The part data of the sustain part is repeatedly used.
[0054]
In this case, the values of the end point of the attack part data, the start and end points of the sustain part data, and the start point of the release part data are standardized and set to almost the same value. The connection is easily made. Even in this connection, if necessary, particularly when using part data of the sustain part, the level of either the part data before connection or the part data after connection is shifted, By adjusting the gain, the data value may be slightly modified to smoothly connect the connection portions. Further, as shown in FIG. 13, the rear part of the front part data and the front part of the rear part data in the connection part may be connected by crossfading.
[0055]
In addition, when a slow change in the tone characteristic is added, such as a gentle decrease in the sustain portion as shown in FIG. 11, the user can use the previously stored data or the key input device 24 and the display 25 to It is preferable to modify a part of the part data before or after the connection of each part data based on the data inputted.
[0056]
Further, when pasting the musical sound modification data into the music data, it is necessary to compress or expand the musical sound modification data (part data) on the time axis according to the reproduction tempo of the music data. That is, the musical sound modification data represents a time change of the musical sound characteristic such as a time change of pitch, volume or spectrum (tone color) every 10 milliseconds. Therefore, in order to paste the musical sound modification data into the song data while maintaining its time change characteristics, the length of the time axis of the musical sound modification data according to the tempo of the position where the musical sound modification data is to be pasted Must be adjusted appropriately.
[0057]
For example, it is assumed that musical tone modification data is recorded at a time interval of 10 milliseconds. This 10 milliseconds corresponds to one clock when the tempo of automatic performance is 125 beats / minute and the resolution of a quarter note is 48 clocks. Assuming that the tempo of 125 beats / minute is the standard tempo, when the tempo at the position where the musical sound modification data is to be pasted in the song data is slower than the standard tempo, as shown in FIG. The part data of the part, the sustain part and the release part are compressed on the time axis in accordance with the ratio of the standard tempo and the tempo in the music data before or after connecting the part data. This means that if the tempo of the automatic performance is slowed down, the readout clock of the musical tone modification data is slowed down, and the musical tone modification data read out due to the slowdown of the readout clock is expanded on the time axis. This is to correct in advance. On the contrary, when the tempo at the position where the musical tone modification data is to be pasted is faster than the standard tempo, the part data is connected to the standard tempo and the tempo in the song data before or after the connection of the part data. It expands on the time axis according to the ratio. Specifically, the step number data ST in FIG. 9B may be changed in accordance with the ratio between the two tempos.
[0058]
The pasting means 44 processes the music data for one song by sequentially pasting the musical tone modification data relating to the pitch, amplitude and spectrum created by the processing and connecting means 43 to the music data one note at a time. is there. The song data output means 45 sequentially stores the song data to which the musical tone modification data is pasted in the RAM 13 and also in the hard disk 14 or the external recording device 15. Specifically, the CPU 11 pastes the musical tone modification data for each note stored in the RAM 13 to the music data stored in the RAM 13 according to an instruction by the operation of the key input device 24 by program processing (not shown). The music data that has been pasted and pasted is stored in the RAM 13 and also stored in the hard disk 14 or the external recording device 15. Accordingly, the pasting means 44 and the music data output means 45 correspond to functions realized by the CPU 11, RAM 13, key input device 24, drive devices 14a, 15a, and the like.
[0059]
The operation for pasting the musical tone modification data will be described in detail with reference to FIG. In FIG. 14, (A) shows a part of a musical score of music, (B) shows music data corresponding to the musical score before pasting musical tone modification data, and (C) shows the music data. In FIG. 10, pitch change data (music data pasted with FIG. 10 (B) is shown as musical tone modification data. In FIGS. 10 (B) and (C), “NOTE” represents a note name, and “K #” Indicates the key code of the pitch name, “ST” is the time to the next event (ie, the number of steps corresponding to the note length in (B), the step to the next pitch name or pitch change in (C) "GT" indicates the number of steps corresponding to the gate time, and "VEL" indicates velocity (sound strength) in the case of data relating to the pitch name, and in the case relating to pitch change. Indicates the degree of pitch change. This represents the time until the next note or rest, and the gate time represents the time from the start of the attack portion to the end of the sustain portion (key-on time), and in (B), the number of steps of the gate time GT Is larger than the number of steps of the note length ST, it means that the notes relating to these data are played with a slur, and the numerical value “192” indicates the bar position.
[0060]
14A to 14C, the note length step number ST of this note is “32”. The pitch change data changes every step number “17”, “2”, “1”, “8”, “2”, “2” as shown in FIG. 9B. Therefore, in this case, the note length step number “32” in (B) is divided into “17”, “2”, “1”, “8”, “2”, “2”, and (1) As in C), pitch change data ΔPitch is added to the data relating to the note names NOTE, #K, note length ST, gate time GT, and velocity VEL. Such work is performed one note at a time from the beginning to the end of the song data.
[0061]
As for the amplitude change data and the spectrum change data, similarly to the case of the pitch change data, the amplitude change data and the spectrum change data can be pasted on the music data. When a plurality of types of musical tone modification data among the pitch variation data, the amplitude variation data, and the spectrum variation data are pasted to the music data, the plurality of types of musical tone modification data are pasted in a state of being synchronized with each other. Here, “synchronization” means maintaining the time relationship between pitch change, amplitude change, and spectrum change when extracted by analysis.
[0062]
When the pitch change data is to be pasted into the music data, pitch bend data for changing the pitch may already be recorded in the music data. In this case, pitch change data (musical tone modification data) formed from the part data set may be added to the pitch bend data and pasted into the music data. In addition, regarding amplitude (volume) and spectrum (timbre), amplitude change data formed from the parts data set is also recorded when data representing amplitude and spectrum temporal changes for one musical tone is already recorded in the music data. And spectral change data (musical sound modification data) may be added and pasted into the music data. In some cases, the data representing the temporal change in amplitude and spectrum for one musical tone already recorded is removed, and the pitch variation data, amplitude variation data and spectral variation data (musical tone modification data) formed from the part data set are removed. ) May be pasted into the song data, or the already recorded data may be left as it is, and the pasting of the musical tone modification data may be stopped.
[0063]
If the song data is composed of MIDI format sequence data, only one pitch bend, volume data and brightness data can be specified for each storage track. In the method, it is suitable to paste the musical sound modification data on the music data of the track on which the solo part is recorded.
[0064]
When pasting musical tone modification data to the song data of a track in which parts that generate two or more musical sounds at the same time are recorded in the MIDI format, the musical tone modification data for a plurality of musical sounds that are simultaneously generated by the above-described method is used. Since the pasting is not performed accurately, the following method should be adopted.
[0065]
The first method is to select musical tone modification data relating to any one of the plurality of musical sounds for a portion where a plurality of musical sounds are generated simultaneously in various musical tone characteristics of pitch, amplitude and spectrum, The musical tone modification data is pasted into the song data by pasting the selected musical tone modification data in common to the plurality of note data respectively corresponding to the plurality of musical sounds generated simultaneously. In this case, among the plurality of musical sounds, it is preferable that the musical sound modification data to be pasted is the musical sound modification data related to the musical sound having the largest amplitude value at each time point. Alternatively, in the various musical tone characteristics, the musical tone modification data relating to the musical tone having the greatest degree of change from the reference value of the musical tone characteristic at each time point may be used as the musical tone modification data to be pasted.
[0066]
In the second method, a plurality of tone modification data (a plurality of pitch change data, a plurality of amplitude change data, or a plurality of spectrum change data) are synthesized, and the synthesized tone modification data is generated at the same time. Are pasted in common to a plurality of note data. In addition, when the sound generation start timing or sound generation end timing of a plurality of musical sounds that are simultaneously generated is shifted and a transition is made from a state in which one musical sound is generated to a state in which a plurality of musical sounds are simultaneously generated, or a plurality of musical sounds When shifting from a state in which sounds are generated simultaneously to a state in which only one tone is generated, it is preferable to crossfade a plurality of tone modification data at the transition portion.
[0067]
As a third method, a plurality of musical note data relating to a plurality of musical sounds that are stored in one track and pronounced at the same time are separated, stored in a plurality of tracks, and stored in a plurality of tracks. Paste the musical tone modification data for each note data. For example, when a plurality of musical sounds are generated at the same time as shown in the score of FIG. 15A, the song data is as shown in FIG. In (B), the note length step number ST being “0” means that it is generated simultaneously with the next note data. Such music data is stored separately in a plurality of tracks 1 to 3 as shown in FIGS. 15 (C) to 15 (E). That is, with respect to the note data in which the note length step number ST is “0” in (B), the note length step number ST of the note that is simultaneously pronounced and simultaneously stops sounding is adopted, and new song data for different tracks is adopted. Is remembered.
[0068]
In addition, regarding separation of note data in this way, in the case of a track storing song data that produces guitar-tone musical tones, each string that is simultaneously generated by a fingering method's automatic analysis technology is recorded to which string. It is preferable that note data is distributed to a plurality of tracks corresponding to each string. In this way, the musical tone modification data is added to the musical note data separately stored in a plurality of tracks, and the above-described pasting method for each musical note may be used.
[0069]
According to the first to third methods, even if the music data includes note data that simultaneously generates a plurality of musical sounds, the musical sound characteristic control data based on the plurality of musical sound modification data is superimposed on the time axis. Therefore, it is possible to easily add a time change of the tone characteristic based on the tone modification data to the tone.
[0070]
In addition, in the processing of music data as described above, part data prepared in advance for each part such as an attack part, a sustain part, and a release part is selectively connected, and pitch change data for one note. Various musical tone modification data composed of amplitude change data and spectrum change data are formed, and the musical tone modification data thus formed is pasted to each note data in the music data. As a result, it is possible to easily perform processing for adding musical tone modification data to music data and to add various musical tone modification data to musical note data.
[0071]
c. Music generation mode
Next, a tone generation mode for generating a tone based on the music data pasted with the tone modification data will be described. In this case, the user designates the music data using the key input device 24 while using the display unit 25. When the song data is stored in the hard disk 14 or the external recording device 15, the stored song data is transferred and stored in the RAM 13. Then, when instructing to start the reproduction of the song data, the CPU 11 sequentially reads the note data and the musical tone modification data in the song data stored in the RAM 13 by a program process (not shown). In this case, the CPU 11 measures the number of steps ST stored together with the note data and the tone modification data by the built-in timer means that performs a counting operation according to the tempo data TEMPO in the music data, and the same note data and the tone modification data. Data is read sequentially according to the measurement. Note that music data stored in a plurality of tracks are read simultaneously.
[0072]
The read note data and tone modification data are output to the tone generator circuit 22 via the bus 10 by program processing (not shown) by the CPU 11. When the note data is read, the CPU 11 assigns the note data to an empty channel in the tone generator circuit 22, outputs the note data to the empty channel, and instructs generation of a musical tone. The sound source circuit 22 forms a musical sound signal in accordance with the supplied note data in the empty channel in cooperation with the waveform memory 27 and outputs it to the sound system 28. That is, the tone generator circuit 22 generates a musical tone signal having a pitch corresponding to the key code K # and a volume corresponding to the velocity data VEL. In this case, the gate time data GT defines the time from the attack start of the musical sound to the end of the sustain, and the total time of the number of steps ST for one note defines the note length of one note.
[0073]
On the other hand, when the tone modification data composed of pitch change data, amplitude change data and spectrum data is read, the CPU 11 reads the tone modification data read out for the channel to which the note data in the tone generator circuit 22 is assigned. Output data. As a result, the tone generator circuit 22 changes and controls the pitch, amplitude (volume), and spectrum (tone color) of the tone signal according to the tone modification data for a time corresponding to the step number ST. In this case, particularly with respect to the amplitude envelope, the basic amplitude (volume) of the tone signal is controlled by the velocity data VEL described above, and the tone amplitude (volume) of the tone is further changed and controlled by the tone modification data relating to the amplitude. In addition, regarding the spectrum (tone color), control by tone modification data may be added to control by velocity data VEL.
[0074]
Also, other data included in the music data that controls the musical tone signal and various data not included in the data are output to the channel. Thus, the pitch, amplitude (volume) and spectrum (tone color) of the generated tone signal are controlled by the tone modification data and other various data.
[0075]
Thus, the generated tone signal is controlled by time-varying tone modification data, and this tone modification data is generated based on the pitch, amplitude (volume) and spectrum (tone) of natural instrument sounds, etc. The tone quality of the musical tone to be played is improved, and it is possible to generate a musical tone having a sense of realism and a rich performance expression.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an example of a musical sound generator to which a music data processing method according to the present invention is applied.
FIG. 2 is a functional block diagram showing an operation of the musical sound generating device of FIG. 1 in a musical sound modification data creation mode.
FIG. 3 is a diagram illustrating temporal changes in pitch, amplitude, and spectrum of a trumpet sound separately for a sound that is strongly blown by a trumpet, a sound that is blown at a medium intensity, and a sound that is weakly blown.
FIG. 4 is a diagram illustrating a time change in pitch, amplitude, and spectrum with respect to a sound strongly blown by the trumpet in FIG. 3;
FIG. 5 is a diagram illustrating temporal changes in pitch, amplitude, and spectrum of a standardized attack part.
FIG. 6 is a diagram illustrating temporal changes in pitch, amplitude, and spectrum of a normalized sustain portion.
FIG. 7 is a diagram illustrating temporal changes in each pitch, amplitude, and spectrum of a standardized release unit.
FIG. 8 is a diagram illustrating an example of temporal changes in pitch and amplitude of a standardized instrument sound that is a musical instrument sound to which a tremolo effect is applied.
9A is a format diagram of a part data set, and FIG. 9B is a detailed format diagram of pitch change data in the part data set.
FIG. 10 is a functional block diagram showing the operation of the musical tone generator of FIG. 1 in the song data processing mode.
FIG. 11 is an explanatory diagram for explaining an example of connection of each part data of an attack part, a sustain part, and a release part.
FIG. 12 is an explanatory diagram for explaining another example of connection of each part data of an attack part, a sustain part, and a release part.
FIG. 13 is an explanatory diagram for explaining another example of connection of each part data of the sustain portion and the release portion.
14A is a partial diagram showing an example of a score, FIG. 14B is a data format diagram showing a part of music data before processing corresponding to the score, and FIG. It is a data format figure which shows a part of corresponding music data after a process.
15A is a partial diagram showing an example of a score, FIG. 15B is a data format diagram showing a part of music data before processing corresponding to the score, and FIGS. 15C to 15E. FIG. 4 is a data format diagram of song data obtained by separating each piece of note data corresponding to a plurality of musical sounds that are simultaneously generated in the song data.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Bus, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Hard disk, 15 ... External recording device, 21 ... Capture circuit, 22 ... Sound source circuit, 23 ... MIDI interface, 24 ... Key input device, 25 ... Display 26 ... external signal input terminal, 30 ... microphone, 32 ... waveform data storage area, 33 ... analyzing means, 34 ... part creating means, 35 ... auxiliary data generating means, 36 ... writing means, 37 ... part data storage area, 41 ... Music data input means, 42a ... Parts selection data input means, 42b ... Feature analysis means, 42c ... Parts designation means, 42d ... Parts selection means, 43 ... Processing and connection means, 44 ... Pasting means, 45 ... Music data Output means.

Claims (7)

記録媒体に記録されていて複数の楽音の音高及び音長をそれぞれ指定する複数の音符データからなる曲データを加工する曲データ加工方法において、
一つの楽音に関するピッチ、振幅及び音色のうちの少なくとも一つの楽音特性の時間変化をそれぞれ表す複数の楽音修飾データを時間軸上で複数のパーツにそれぞれ分割するとともに、前記分割した各パーツの端部の値が全て同一の値となるように前記各パーツをそれぞれ加工して予め用意しておき、
曲データ中の音符データにより表された楽音の前記少なくとも一つの楽音特性を時間変化させるための楽音修飾データとして、前記用意した複数のパーツの中から時間軸上の異なる位置に関する複数のパーツを選択し、
前記選択された複数のパーツを接続して一つの楽音の前記少なくとも一つの楽音特性を時間変化させるための楽音修飾データを形成し、
前記形成した楽音修飾データを前記曲データ中に貼り付けるようにしたことを特徴とする曲データ加工方法。
In a song data processing method for processing song data consisting of a plurality of note data that are recorded on a recording medium and respectively specify the pitch and length of a plurality of musical sounds,
Dividing a plurality of musical tone modification data respectively representing a time change of at least one musical tone characteristic among pitch, amplitude and tone color related to one musical tone into a plurality of parts on the time axis, and end portions of the divided parts Each of the above parts is processed and prepared in advance so that all of the values are the same ,
A plurality of parts related to different positions on the time axis are selected from the plurality of prepared parts as musical sound modification data for temporally changing the at least one musical sound characteristic of the musical sound represented by the note data in the song data. And
Connecting the plurality of selected parts to form musical tone modification data for temporally changing the at least one musical tone characteristic of one musical tone;
A music data processing method characterized in that the formed music modification data is pasted into the music data.
前記請求項1に記載した曲データ加工方法において、
前記接続される複数のパーツのうちのいずれかのパーツの長さを前記曲データ中の音符データにより表された音符の長さに合わせて調整するようにしたことを特徴とする曲データ加工方法。
In the music data processing method according to claim 1,
A song data processing method characterized in that the length of any one of the plurality of connected parts is adjusted in accordance with the length of a note represented by the note data in the song data. .
記録媒体に記録されていて複数の楽音の音高及び音長をそれぞれ指定する複数の音符データからなる曲データを加工する曲データ加工方法において、
一つの楽音に関するピッチ、振幅及び音色のうちの少なくとも一つの楽音特性の時間変化を表す楽音修飾データを予め用意しておき、
曲データ中の音符データにより表された楽音の前記少なくとも一つの楽音特性を時間変化させるために、前記用意された楽音修飾データを前記曲データ中に貼り付け、同貼り付けの際に、曲データ中の1つのトラックに記憶されている複数の音符データにより複数の楽音が同時に発生される場合には、前記複数の楽音が同時に発生される部分について、前記同時に発生される複数の楽音のうちの一つの楽音に関する楽音修飾データを選択して、前記同時に発生される複数の楽音にそれぞれ対応した複数の音符データに対し、前記選択した楽音修飾データを共通に貼り付けるようにしたことを特徴とする曲データ加工方法。
In a song data processing method for processing song data consisting of a plurality of note data that are recorded on a recording medium and respectively specify the pitch and length of a plurality of musical sounds,
Musical tone modification data representing a time change of at least one musical tone characteristic among pitch, amplitude and tone color relating to one musical tone is prepared in advance;
In order to temporally change the at least one musical tone characteristic of the musical tone represented by the note data in the musical piece data, the prepared musical tone modification data is pasted into the musical piece data, and at the time of pasting, the musical piece data When a plurality of musical sounds are simultaneously generated by a plurality of musical note data stored in one track, a portion of the plurality of musical sounds generated at the same time for a portion where the plurality of musical sounds are generated simultaneously. The musical tone modification data relating to one musical tone is selected, and the selected musical tone modification data is commonly pasted to a plurality of note data respectively corresponding to the plurality of musical sounds generated simultaneously. Song data processing method.
記録媒体に記録されていて複数の楽音の音高及び音長をそれぞれ指定する複数の音符データからなる曲データを加工する曲データ加工方法において、
一つの楽音に関するピッチ、振幅及び音色のうちの少なくとも一つの楽音特性の時間変化を表す楽音修飾データを予め用意しておき、
曲データ中の音符データにより表された楽音の前記少なくとも一つの楽音特性を時間変化させるために、前記用意された楽音修飾データを前記曲データ中に貼り付け、同貼り付けの際に、曲データ中の1つのトラックに記憶されている複数の音符データにより複数の楽音が同時に発生される場合には、前記複数の楽音が同時に発生される部分について、前記同時に発生される複数の楽音に関する各楽音修飾データを合成して、前記同時に発生される複数の楽音にそれぞれ対応した複数の音符データに対し、前記合成した楽音修飾データを共通に貼り付けるようにしたようにしたことを特徴とする曲データ加工方法。
In a song data processing method for processing song data consisting of a plurality of note data that are recorded on a recording medium and respectively specify the pitch and length of a plurality of musical sounds,
Musical tone modification data representing a time change of at least one musical tone characteristic among pitch, amplitude and tone color relating to one musical tone is prepared in advance;
In order to temporally change the at least one musical tone characteristic of the musical tone represented by the note data in the musical piece data, the prepared musical tone modification data is pasted into the musical piece data, and at the time of pasting, the musical piece data When a plurality of musical sounds are generated simultaneously by a plurality of musical note data stored in one track, each musical sound related to the plurality of musical sounds generated at the same time for a portion where the plurality of musical sounds are generated simultaneously. Song data characterized by combining modification data and pasting the combined music modification data to a plurality of note data respectively corresponding to the plurality of musical sounds generated simultaneously. Processing method.
記録媒体に記録されていて複数の楽音の音高及び音長をそれぞれ指定する複数の音符データからなる曲データを加工する曲データ加工方法において、
一つの楽音に関するピッチ、振幅及び音色のうちの少なくとも一つの楽音特性の時間変化を表す楽音修飾データを予め用意しておき、
曲データ中の音符データにより表された楽音の前記少なくとも一つの楽音特性を時間変 化させるために、前記用意された楽音修飾データを前記曲データ中に貼り付け、同貼り付けの際に、曲データ中の1つのトラックに記憶されている複数の音符データにより複数の楽音が同時に発生される場合には、前記同時に発生される複数の楽音に対応した複数の音符データを分離して複数のトラックにそれぞれ記憶させ、前記複数のトラックにそれぞれ記憶させた複数の音符データに対し、前記用意された楽音修飾データをそれぞれ貼り付けるようにしたことを特徴とする曲データ加工方法。
In a song data processing method for processing song data consisting of a plurality of note data that are recorded on a recording medium and respectively specify the pitch and length of a plurality of musical sounds,
Musical tone modification data representing a time change of at least one musical tone characteristic among pitch, amplitude and tone color relating to one musical tone is prepared in advance;
To the time change at least one of the musical characteristics of a musical tone represented by note data in the music data, pasting the prepared musical tone-modified data in said song data, the time of the paste, songs When a plurality of musical sounds are generated simultaneously by a plurality of note data stored in one track in the data, a plurality of tracks are separated by separating the plurality of note data corresponding to the plurality of musical sounds generated simultaneously. music data processing method which respectively is memorize, over the previous SL plurality of note data respectively are stored in a plurality of tracks, characterized in that the said prepared musical tone modified data to the pasted respectively.
記録媒体に記録されており、複数の楽音の音高及び音長をそれぞれ指定する複数の音符データと、前記複数の音符データの再生テンポを表すテンポデータとからなる曲データを加工する曲データ加工方法において、
一つの楽音に関するピッチ、振幅及び音色のうちの少なくとも一つの楽音特性の時間変化を表す複数の楽音修飾データを予め用意しておき、
前記曲データ中の音符データにより表された楽音の前記少なくとも一つの楽音特性を時間変化させるために、前記用意された楽音修飾データを前記テンポデータに応じて時間軸上で圧縮又は伸張して前記曲データ中に貼り付けるようにしたことを特徴とする曲データ加工方法。
Song data processing for processing song data that is recorded on a recording medium and that is composed of a plurality of note data that respectively specify the pitch and length of a plurality of musical sounds, and tempo data that represents the playback tempo of the plurality of note data In the method
Preparing in advance a plurality of musical tone modification data representing temporal changes in at least one musical tone characteristic among pitch, amplitude and tone color relating to one musical tone;
In order to temporally change the at least one musical tone characteristic of the musical tone represented by the note data in the music data, the prepared musical tone modification data is compressed or expanded on the time axis according to the tempo data, and A song data processing method characterized by being pasted into song data.
前記請求項1乃至請求項6のいずれか一つに記載の曲データ加工方法において、前記楽音修飾データは、自然楽器音のピッチ、振幅及び音色を分析したものである曲データ加工方法。  7. The music data processing method according to claim 1, wherein the musical tone modification data is obtained by analyzing a pitch, amplitude, and tone color of a natural musical instrument sound.
JP19298599A 1999-07-07 1999-07-07 Song data processing method Expired - Fee Related JP3832147B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP19298599A JP3832147B2 (en) 1999-07-07 1999-07-07 Song data processing method
US09/610,817 US6392135B1 (en) 1999-07-07 2000-07-06 Musical sound modification apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19298599A JP3832147B2 (en) 1999-07-07 1999-07-07 Song data processing method

Publications (2)

Publication Number Publication Date
JP2001022349A JP2001022349A (en) 2001-01-26
JP3832147B2 true JP3832147B2 (en) 2006-10-11

Family

ID=16300324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19298599A Expired - Fee Related JP3832147B2 (en) 1999-07-07 1999-07-07 Song data processing method

Country Status (1)

Country Link
JP (1) JP3832147B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3709817B2 (en) 2001-09-03 2005-10-26 ヤマハ株式会社 Speech synthesis apparatus, method, and program

Also Published As

Publication number Publication date
JP2001022349A (en) 2001-01-26

Similar Documents

Publication Publication Date Title
US6703549B1 (en) Performance data generating apparatus and method and storage medium
US7094962B2 (en) Score data display/editing apparatus and program
US5939654A (en) Harmony generating apparatus and method of use for karaoke
US6392135B1 (en) Musical sound modification apparatus and method
CN1750116B (en) Automatic rendition style determining apparatus and method
JPH08234771A (en) Karaoke device
JP2005530192A (en) Music notation system
JP4274272B2 (en) Arpeggio performance device
JP3829780B2 (en) Performance method determining device and program
JP3116937B2 (en) Karaoke equipment
JP3835443B2 (en) Music generator
JP3832147B2 (en) Song data processing method
JP2002229567A (en) Waveform data recording apparatus and recorded waveform data reproducing apparatus
JP3879524B2 (en) Waveform generation method, performance data processing method, and waveform selection device
JP3709821B2 (en) Music information editing apparatus and music information editing program
JP4802947B2 (en) Performance method determining device and program
JPH01288900A (en) Singing voice accompanying device
JP3656726B2 (en) Musical signal generator and musical signal generation method
JP3820817B2 (en) Music signal generator
JP2904045B2 (en) Karaoke equipment
JP3709820B2 (en) Music information editing apparatus and music information editing program
JP3797180B2 (en) Music score display device and music score display program
JP4067007B2 (en) Arpeggio performance device and program
JP4186802B2 (en) Automatic accompaniment generator and program
JP3648783B2 (en) Performance data processing device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060411

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060710

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090728

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100728

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100728

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110728

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110728

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120728

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130728

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees