JP3783566B2 - Musical sound data conversion device and musical sound data conversion method - Google Patents

Musical sound data conversion device and musical sound data conversion method Download PDF

Info

Publication number
JP3783566B2
JP3783566B2 JP2001041115A JP2001041115A JP3783566B2 JP 3783566 B2 JP3783566 B2 JP 3783566B2 JP 2001041115 A JP2001041115 A JP 2001041115A JP 2001041115 A JP2001041115 A JP 2001041115A JP 3783566 B2 JP3783566 B2 JP 3783566B2
Authority
JP
Japan
Prior art keywords
pitch
data
pitch bend
note
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001041115A
Other languages
Japanese (ja)
Other versions
JP2002244658A (en
Inventor
明 山内
則夫 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2001041115A priority Critical patent/JP3783566B2/en
Publication of JP2002244658A publication Critical patent/JP2002244658A/en
Application granted granted Critical
Publication of JP3783566B2 publication Critical patent/JP3783566B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、楽音データに楽器特有の表情付けを行うことができる楽音データ変換技術に関する。
【0002】
【従来の技術】
電子楽器などにおいて、楽音データを音譜の情報のみで構成すると、演奏が機械的になりがちである。そこで、例えば演奏したい楽器の種類によって特有の奏法(表情付け処理)を取り入れ、楽音データに反映させる手法がとられるようになった。
【0003】
図10(A)から図10(D)に、楽音データに特有の奏法を取り入れる手法の例として、特開平10−105173号公報に開示されている楽音データ変換技術の概要を示す。
【0004】
図10(A)は、実際の音符で示した楽音データの例である。図10(B)は、図10(A)に示す音符の音高情報に基づき、例えば演奏者が入力することによりMIDI(Musical Instrument Digital Interface)情報(ノートイベント)として表現した例であり、具体的には、時間と音高(ノート番号)との関係をピアノスクロール式に示した図である。
【0005】
図10(C)および図10(D)は、図10(A)に示す曲が、弦楽器、例えばギターの曲であった場合の表情付けのための楽音データ変換処理手順の概要を示す図である。図10(A)に示す曲が弦楽器、例えばギター用の曲である場合には、音符間を結ぶスラー記号Sによりスライド奏法を行うものであることがわかる。
【0006】
図10(C)および図10(D)に、図10(B)に示す音高データをスライド奏法に対応した音高データに変換する処理を行うための処理手順を示す。
【0007】
図10(C)に示すように、4つの音高データ(図10(B))を2つの音高情報にまとめる。すなわち、スラーSで結合された隣接する2つの音高データを先行する音の音高を有する1つの音高データにまとめる。図10(D)に示すように、1つにまとめられた音高データに基づき、音高の変化を表現するようにピッチベンド情報を形成する。例えば、図10(C)に対応させて、ピッチベンド量を時間の関数として表示する。図においては、図10(B)に示す音高情報における隣接する2つのノートの音高差と時間とに基づいて、ピッチベンド量を時間的にほぼリニアに変化させている。次の音はピッチベンド量がゼロなので、次の音の発音前にピッチベンド量を"0"に戻す。
【0008】
上記の楽音データ変換技術を用いれば、隣接する2つ以上のノートを、1つの音高データにまとめ、ピッチベンド量の時間変化と合わせて、演奏に表情付けを行うことができる。例えば、ピッチベンド量を時間に対してほぼリニアに変化させれば、電子楽器において、弦楽器のスライド奏法を擬した表情付けを行うことができる。
【0009】
【発明が解決しようとする課題】
ところで、上記のような楽音データ変換技術においては、最後の段階においてピッチベンド量を急激に0に近付ける処理を含むため、楽音が完全に減衰していないと、発生中の音のピッチが急激に変化する。これが異音の原因となり、演奏が聞きにくくなる可能性がある。完全に発音が停止した時点でピッチを"0"に戻すことができれば異音の発生は防止できるが、発音の減衰を正確に予測することは難しい。
【0010】
本発明の目的は、複数の音高をまとめて演奏に表情付けを与える際に、異音等の発生を防止できる楽音データ変換技術を提供することである。
【0011】
【課題を解決するための手段】
本発明の一観点によれば、楽音データ変換装置は、第1のノートと第2のノートとの音高差を検出する第1の検出手段と、ピッチベンドデータの時間変化を規定するデータテーブルを記憶する記憶手段と、前記検出した音高差と前記データテーブルとに基づき、ピッチベンドデータを形成する形成手段と、前記形成したピッチベンドデータのうち、ピッチベンド量が所定値以下の区間を検出する第2の検出手段と、前記第2の検出手段により、ピッチベンド量が所定値以下である区間が検出された場合には、その区間の終点をピッチ制御開始点の時間軸上の位置に移動するように、且つ、前記ピッチ制御開始点から前記形成したピッチベンドデータの終点までの区間で前記形成したピッチベンドデータと同様のピッチ変化を得られるように、前記形成したピッチベンドデータをピッチベンドイベントの生成分解能を調整することにより補正する補正手段とを有する。
【0014】
【発明の実施の形態】
発明者は、音高が異なる複数のノートを含み連続する複数のノートを、複数音の音高のうちの最後の音高と一致する1つの音高データにまとめ、この1つの音高データに基づき音高の異なるノートを含む複数のノートを表現するようにピッチベンドデータを形成することにより演奏に表現付けを行うことを考え付いた。
【0015】
ピッチベンドデータを形成する際、初期段階で最後のノートの音高にまとめ、ピッチベンド量で所望のノートの音高になるように変化させる。音高データとピッチベンドデータとに併せて所望の音高とする計算は容易に行える。その後、音高の変化に対応させてピッチベンド量を変化させ、最終的に"0"に収束させる。
【0016】
実際の楽音(基準音)を発音する前の初期段階においてピッチベンド量を所定の値まで変化させておき、その後に発音を行えば発音時におけるノイズは発生しにくい。加えて、最後のノートの音高データを基準として、この値に一致するように音高情報をまとめるので、ピッチベンド量は最後の段階では必ず"0"に収束する。従って、ピッチベンド量を"0"まで戻すための後処理は必要ない。2音を1音にまとめる場合のみでなく、3音以上を1音にまとめる場合にも適用できる。
【0017】
図1から図6までを参照して、上記の考察に基づく本発明の第1の実施の形態による楽音データ変換技術について説明する。図1は、本実施の形態による楽音データ変換技術を用いた電子楽器の構成例を示す機能ブロック図である。図2は、本実施の形態による演奏変換技術に用いる楽音データフォーマットの一例を示す図である。図3(A)から図3(D)までは、本実施の形態による楽音データ変換技術について、2音を1音にまとめる場合を例にとって説明した図であり、図4は、データ変換処理の概要を示すフローチャート図である。図5(A)から図5(C)までは、種々の奏法におけるピッチベンド量の時間変化を示す図である。図6(A)および図6(B)は、ピッチ制御の分解能の補正を行う原理を示す図である。
【0018】
図1に示すように、電子楽器1は、バス11、ROM12、RAM13、CPU14、タイマ15、外部記憶装置16、検出回路17、操作子18、表示回路19、ディスプレイ20、音源回路21、サウンドシステム22、MIDIインターフェイス23、通信インターフェイス25で構成される。
【0019】
尚、電子楽器1は、通常の電子楽器であっても良いし、例えばパーソナルコンピュータ等であっても良い。
【0020】
バス11には、ROM12、RAM13、CPU14、タイマ15、外部記憶装置16、検出回路17、表示回路19、音源回路21、MIDIインターフェイス23、通信インターフェイス25が接続される。
【0021】
ユーザは、検出回路17に接続される操作子(入力手段)18を用いて、楽曲データの入力、再生態様を変更するための各種設定やその他必要な情報を入力することができる。操作子18は、例えば、マウス、キーボード、鍵盤、ジョイスティック、スイッチ等、ユーザの入力に応じた信号を出力できるものならどのようなものでもよい。また、複数の入力手段が接続されていてもよい。操作子18を用いると、音高データやスラー記号を手入力などにより入力することができる。
【0022】
表示回路19は、ディスプレイ20に接続され、各種情報をディスプレイ20に表示することができる。
【0023】
外部記憶装置16は、外部記憶装置用のインターフェイスを含み、そのインターフェイスを介してバス11に接続される。外部記憶装置16は、例えばフロッピディスクドライブ(FDD)、ハードディスクドライブ(HDD)、光磁気ディスク(MO)ドライブ、CD−ROM(コンパクトディスク−リードオンリィメモリ)ドライブ、DVD(Digital Versatile Disc)ドライブ等である。外部記憶装置16には、複数の楽曲データ、及び本実施の形態による楽音データ変換を実現するためのプログラム等を記憶することができる。
【0024】
RAM13は、フラグ、レジスタ又はバッファ、楽曲データ等を記憶するCPU14用のワーキングエリアを有する。ROM12には、各種パラメータ及び制御プログラム、又は本実施の形態による楽音データ変換を実現するためのプログラム等を記憶することができる。この場合、プログラム等を重ねて、外部記憶装置16に記憶する必要は無い。CPU14は、ROM12又は、外部記憶装置16に記憶されている制御プログラム等に従い、演算又は制御を行う。
【0025】
タイマ15は、CPU14及びバス11に接続されており、基本クロック信号、割り込み処理タイミング等をCPU14に指示する。例えば、タイマ割り込み処理における割り込み時間や各種時間を計時する。
【0026】
MIDIインターフェイス23は、電子楽器、その他の楽器、音響機器、コンピュータ等に接続できるものであり、少なくともMIDI信号を送受信できるものである。MIDIインターフェイス23は、専用のMIDIインターフェイスに限らず、RS−232C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインターフェイスを用いて構成してもよい。この場合、MIDIメッセージ以外のデータをも同時に送受信するようにしてもよい。
【0027】
電子楽器1には、さらに別の電子楽器を接続しても良い。別の電子楽器2は、MIDIインターフェイス23によって電子楽器1と接続される音響機器及び楽器等である。電子楽器の形態は鍵盤楽器に限らず、弦楽器タイプ、管楽器タイプ、打楽器タイプ等の形態でもよい。また、音源装置、自動演奏装置等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別体の装置であり、MIDIや各種ネットワーク等の通信手段を用いて各装置を接続するものであってもよい。
【0028】
音源回路21は、供給されるMIDI信号等に応じて楽音信号を生成し、サウンドシステム22に供給する。サウンドシステム22は、D/A変換器及びスピーカを含み、供給されるデジタル形式の楽音信号をアナログ形式に変換し、発音する。
【0029】
なお、音源回路21は、波形メモリ方式、FM方式、物理モデル方式、高調波合成方式、フォルマント合成方式、VCO(Voltage Controlled Oscillator)+VCF(Voltage Controlled Filter)+VCA(Voltage Controlled Amplifier)のアナログシンセサイザ方式等、どのような方式であってもよい。
【0030】
また、音源回路21は、専用のハードウェアを用いて構成するものに限らず、DSP(Degital Signal Processor)+マイクロプログラムを用いて構成してもよいし、CPU+ソフトウェアのプログラムで構成するようにしてもよいし、サウンドカードのようなものでもよい。
【0031】
さらに、1つの音源回路を時分割で使用することにより複数の発音チャンネルを形成するようにしてもよいし、複数の音源回路を用い、1つの発音チャンネルにつき1つの音源回路で複数の発音チャンネルを構成するようにしてもよい。
【0032】
制御プログラム又は本実施の形態による楽音データ変換を実現するためのプログラム等を外部記憶装置16内のハードディスク(HDD)に記憶させることもできる。ハードディスクからRAM13に制御プログラム等を読み出すことにより、ROM12に制御プログラム等を記憶させている場合と同様の動作をCPU14にさせることができる。このようにすると、制御プログラム等の追加やバージョンアップ等が容易に行える。
【0033】
また、制御プログラム又は本実施の形態による楽音データ変換を実現するためのプログラム等をCD−ROMに記憶させることもできる。CD−ROMからハードディスクに制御プログラムや本実施の形態による楽音データ変換を実現するためのプログラム等をコピーすることができる。制御プログラム等の新規インストールやバージョンアップを容易に行うことができる。
【0034】
通信インターフェイス25は、LAN(ローカルエリアネットワーク)やインターネット、電話回線等の通信ネットワーク3に接続可能であり、該通信ネットワーク3を介して、サーバと接続し、HDD等外部記憶装置16、又はRAM13等内に、サーバから制御プログラムや本実施の形態による楽音データ変換を実現するためのプログラム等をダウンロードすることができる。
【0035】
尚、本発明の実施の形態において、電子楽器には、演奏操作子と一体になっている従来の電子楽器ばかりでなく、自動演奏や音楽情報編集プログラムを実行しうるコンピュータ等にMIDIキーボード等の演奏操作子を接続したもの等、実質的に電子楽器として機能するものを包含する広い範囲の装置を含む。実質的に電子楽器として機能する装置に楽音データ変換機能を持たせても良いし、従来の楽器(例えば自然楽器や、自然楽器と電子楽器との複合装置など)に対して新たに楽音データ変換機能を付加しても良い。
【0036】
図2に、記憶装置、例えば外部記憶装置16に記憶された楽音データのフォーマットの一例を示す。
【0037】
楽音データ31は、ヘッダデータ33およびファイルエンドデータ42と、その間に挿入されている第1の楽音データ群D1から第nの楽音データ群Dnまで(nは1以上の整数)を含む。
【0038】
ヘッダデータ33は、楽音データの先頭に記憶されるデータであり、例えば、曲名や初期テンポ等のデータが記憶されている。ファイルエンドデータ42は、楽音データの最後に記憶されているデータである。
【0039】
第1のデータD1から第nのデータDnまでは、それぞれ、イベントデータとタイミングデータとが交互に配置されたデータ構造を有している。第1のデータD1は、ピッチベンドデータを含むデータである。イベントデータ34は、データD1の最初の方に配置され、ノートオン、ノートナンバおよびベロシティのデータを有している。イベントデータ40は、データD1の最後に方に配置され、ノートオフおよびノートナンバのデータを有している。
【0040】
イベントデータ38−1から38−mまでは、ピッチベンドデータを含んでいる。イベントデータ38−1は、ヘッダ33とイベントデータ34との間に挿入されている。イベントデータ34とイベントデータ40との間にイベントデータ38−1を除くイベントデータ38−2から38−mまでのm−1(mは2以上の整数)のイベントデータが挿入されている。
【0041】
タイミングデータは、イベントデータ34、40、およびイベントデータ38−1から38−mまでのそれぞれのイベントデータの後に配置されている。具体的には、タイミングデータ35はイベントデータ34の後に配置され、タイミングデータ41はイベントデータ40の後に配置されている。タイミングデータ39−1から39−mまでは、イベントデータ38−1から38−mまでのそれぞれの後に挿入されている。
【0042】
タイミングデータは、そのタイミングデータの直前にあるイベントが処理されてから、そのタイミングデータの直後にあるイベントの処理を開始するまでの期間を示すデータである。
【0043】
尚、タイミングデータは、通常、数値データであり、この数値データは、タイマ15(図1)が所定時間ごとに発生するタイマ割り込みに応じて実行されるタイマ割り込み処理中にデクリメント(ダウンカウント)されるカウント値が設定される。
【0044】
その他、楽音データ中に又は別個に、データイクスクルーシブとして、種々の設定を行うことができるデータ領域を有していても良い。
【0045】
図2に示す楽音データのデータ構造においては、楽音データはイベントデータとタイミングデータとが交互に並ぶデータフォーマットを有しているが、上記のデータ構造に限定されるものではなく、例えば、「イベントデータ+絶対時間データ」、「音高データ+符長データ」など他のフォーマットで構成しても良い。
【0046】
図3から図5までを参照して、本実施の形態による楽音データ変換技術により、楽音を1音にまとめる処理を説明する。例として、演奏に表情付けを行う処理の1つであるスライド奏法を擬する楽音データに変換する処理の場合を説明する。尚、以下の実施の形態においては、隣接する2音を1音にマージする場合を例にして説明する。
【0047】
図3(A)は、演奏曲を音符で示した楽譜の例である。図3(B)は、図3(A)に示す音符を電子楽器等に入力した場合の楽音データを表現した図であり、1つの音符に相当するキーオン(イベント)からキーオフ(イベント)までの時間間隔とその音符の音高(キーナンバ)とを表すブロック印(音高データ)が表示されている。具体的には、データ変換処理前の時間と音高との関係として示した図である。図3(B)に示す楽音データにおいては、音符ごとの音高(ノート番号)が示されている。
【0048】
図3(A)に示すような、隣接する音符間にスラー記号Sが付されている音符は、弦楽器におけるスライド奏法を擬した奏法を意味する。そこで、図3(C)および図3(D)に例示するような手順で図3(B)に示す楽音データを、スラーSを有するMIDIの楽音データに変換する処理を行う。
【0049】
図3(C)および図3(D)は、図3(A)に示す音符が、弦楽器、例えばギターの音譜である場合の楽音データの変換処理手順例を示した図である。尚、図3(A)から図3(D)までのそれぞれは、図10(A)から図10(D)までに対応する。
【0050】
図3(A)に示すように、第1番目の音符と第2番目の音符の間にスラー記号が付されており、第3番目の音符と第4番目の音符との間にもスラー記号が付されている。
【0051】
そこで、図3(B)に示す楽音データを手入力する。次いで,図3(A)に示すように、第1番目と第2番目の音高データ、第3番目と第4番目の音高データをスラーで結ぶ操作を行う。
【0052】
本実施の形態による楽音データ変換装置が、第1番目の音符と第2番目の音符を1つにまとめるとともに、第3番目の音符と第4番目の音符とを1つにまとめる。第1番目の音符と第2番目の音符を1つにまとめる際、および、第3番目の音符と第4番目の音符とを1つにまとめる際に、図3(C)に示すように、図3(B)に示すスラーSで結合される2つの音高を後の音高にそれぞれまとめる。
【0053】
次いで、図3(D)に示すように、まとめられた1つの音高データに基づき、音高の異なるノートを含む複数のノートを表現するようにピッチベンドデータを形成する。より具体的には、例えば、ピッチベンド量を時間的に変化させたピッチベンドデータを形成する。
【0054】
図3(D)に示すように、まず、初期段階で最初と最後の音高の差の分だけ、すなわち、発生させるべき音高に対応してピッチベンド量を変化させる。ピッチベンド量は、最後において"0"に収束するようにする。
【0055】
ピッチベンド量を時間的にどのように変化させるかは、図2に示すイベントデータ(ピッチベンドデータ)とタイミングデータとにより決めることができる。
【0056】
ピッチベンド量の時間的変化は、ディレイ(遅延)パラメータと分解能とを含む。より具体的には、図2に示すデータにより決められる。
【0057】
ピッチベンドイベント38−1がタイミング(T−A)において開始された後、タイミングデータ39−1のディレイ(遅延)パラメータ(T−1:T−AからT−Cまで)で規定されるインターバルが経過した後、タイミング(T−C)においてノートオンイベント34が実行される。ノートオンが開始した後、タイミングデータ35のディレイ(遅延)パラメータ(T−2:T−CからT−Bまで)で規定されるインターバルが経過した後、その終点のタイミング(T−B)において、連続するピッチベンドイベント38−2から38−mまでが開始する。
【0058】
連続するピッチベンドイベント38−2から38−mにおいては、タイミング(T−B)からピッチベンド量が"0"に収束する変化を開始し、タイミング(T−D)において最終のピッチベンドイベント38−mが終了する。最終のピッチベンドイベント38−mが終了すると、ノートオフイベント40が、タイミング(T−D)から始まり、タイミングデータ41に規定されるインターバル(T−3)だけ継続し、タイミング(T−E)で終了する。
【0059】
これらのタイミングデータの設定値はクロック数で表され、ユーザが任意に設定できる。
【0060】
尚、本実施の形態による楽音データ変換技術においては、ノートオンタイミングよりも早くピッチベンドが変化するためイベントデータ38−1がイベントデータ34よりも前に配置される。
【0061】
レゾリューションパラメータは、設定可能な最小のピッチベンド量を表す。
【0062】
上記の設定値は、ピッチベンドの変化のタイミングをクロック数で表し、ユーザが任意に設定できる。
【0063】
以上の手順に沿って、ピッチベンドデータを決めればよい。
【0064】
次に、楽音データのデータ変換処理の具体例について図4及び図5を参照して説明する。
【0065】
図4に示すように、ステップS1において、データエクスクルーシブからスライド奏法を行う旨の指示が入ると、ステップS2に進む。
【0066】
ステップS2において、スライド奏法の最後(2音をまとめる場合には2番目)の音高データを検出する。ステップS3において、スライド奏法の最初(2音をまとめる場合には1番目)の音高データを検出する。
【0067】
ステップS4において、ステップS2において検出された最後の音高と、ステップS3において検出した最初の音高との差を演算(減算)する。
【0068】
ステップS5において、ステップS4の演算により求められたピッチ制御情報(ピッチベンド量)の時間変化を求め、それに基づいて、楽音を発生するための指示を与える楽音発生指示情報(例えば、図3(C)と図3(D)を表した図2のフォーマットの楽音データ)を形成する。CPUが、楽音発生指示情報に基づき、楽音を発声させるように音源回路に指示する。
【0069】
ステップS5において求められるピッチ制御情報は、例えば、ピッチベンド量の時間変化として表される。ピッチベンド量の時間変化は、例えば、テーブルデータとして設定されるピッチベンドカーブに従って以下のように決定される。
【0070】
図5(A)から図5(C)までを参照して、ピッチベンドカーブの種類について説明する。図5(A)から図5(C)までは、まとめられた1つの音高について音程が徐々に変化す場合の経過時間とピッチベンド量との関係について表したピッチベンドカーブの例である。
【0071】
図5(A)はボトルネック奏法の場合の時間とピッチベンド量との変化を示したカーブである。スライド奏法のうち、特にボトルネックスライド奏法と呼ばれる奏法は、弦の長さを変えて音高を変化させる奏法である。ピッチベンド量(ピッチ制御情報値)の時間変化は、ほぼリニアな関係で表される。従って、ステップSで行われる演算は、例えばステップS2で求めた最後の音高とステップS3で求めた最初の音高との差分として目標のピッチ制御値を求め、その差分をピッチ制御を行う始点からピッチ制御を行う終点までの時間で割って直線の傾きを求める演算になる。
【0072】
図5(B)は、チョーキング奏法の場合の時間とピッチベンド量との変化を示したカーブである。チョーキング奏法は、弦を引っ張って張力を変えることにより音高を変化させる奏法であるため、引っ張り加減が大きくなるに従って徐々に音高を変化させにくくなる。例えば、時間の経過とともにピッチベンド量の変化量が次第に小さくなる。逆に、図5(C)に示す奏法のように、時間の経過とともにピッチベンド量の変化量が次第に大きくなるようなカーブで表せる奏法もある。図5(A)から図5(C)までに示すカーブのうちの当てはめるべき図に示されるカーブに従って、ピッチベンド量が時間的に変化するようにすれば良い。
【0073】
図5(A)から図5(C)までのいずれを選択するかによりピッチベンド量の勾配やその時間変化は異なるが、ピッチベンド量は最終的に"0"に収束させる。音符長は、別途設けられた楽音発生指示手段により、音源回路に指示を与えることになる。楽音を発声する期間は、音符長により伸縮する。具体的には、楽音を発生するタイミングは、図3に示すようにタイミング(T−C)に始まり、ピッチベンド量は最終的に"0"に収束した後であって、次の楽音が発生する前のタイミング(T−E)で終了する。
【0074】
図5(A)から図5(C)までに示すカーブを、時間とピッチベンド量との関係を示すテーブルとして記憶しておいても良い。テーブル化された情報は、外部記憶装置やROMなどの記憶手段の中に記憶させておき、必要に応じて記憶手段から読み出せば良い。尚、図5(A)から図5(C)までに示したカーブは例示であり、これらのカーブの形状に限定されるものではない。
【0075】
以上の処理により、楽音データ変換処理が終了する(ステップS6)。
【0076】
次に、図6(A)および図6(B)を参照して、図5(C)に示すカーブで表されるピッチベンド量の時間変化のパターンを適用して実際のピッチベンド量の時間変化を求める場合の好ましい処理について補足説明を行う。
【0077】
図6(A)に示すカーブは、図5(C)のカーブに類似したカーブであり、ピッチベンド量は、初期の段階においては、ピッチ制御のレゾリューションパラメータ以下の変化しかしない。例えば、図6(A)における第1区間T1と第2区間T2とが、ピッチがほとんど変化していない区間に該当する。
【0078】
このように、ピッチベンド量がレゾリューションパラメータ以下の場合には、データ上、ピッチベンド量の変化として現れてこない。従って、ピッチの変化がデータ上において現れるのは第3区間T3以降の区間になり、聴感として違和感が生じる。尚、第1区間T1と第2区間T2とでは、ピッチベンド値が同じ値(0)になるため、ピッチベンド量の時間変化を調べれば該当する区間を検出することが可能である。
【0079】
上記のような違和感を低減するために、以下のような補正処理を行うことができる。図6(B)は、図6(A)に補正を加えた場合の、時間とピッチベンド値との関係を示す図である。
【0080】
図6(A)に示すように、例えば、ピッチ制御開始点である第1区間T1の始点から始まりピッチ制御終了点(目標ピッチ幅に達する時点)である第8区間T8の終点で終わる期間をAとする。このうち、実際にピッチの変化を感じることができる第3区間T3から最終区間T8までの期間をBとする。
【0081】
図6(B)に示すように、ピッチ制御開始点を補正後の第3区間T3'の始点に変更する。補正後の第1区間T1'の始点からピッチ制御終了点(T8'の終点)で終わる期間Cをとする。補正後の第3区間T3'から補正後の最終区間T8'までの期間をDとする。ここで、A:B=C:DおよびA=Dの関係を用いる。
【0082】
期間Aは、例えば、スライド奏法と判断した時点からスライド奏法を行うべき期間の終点までの時間である。具体的には、シーケンスデータの時間情報を積み重ねることにより求められる。目標ピッチ幅は、楽音データから検出することができる。加えて、当初の分解能R1も決まっている。従って、時間Bを求めることができる。
【0083】
期間Dの始点をピッチ制御の開始点とするように時間調整を行う。当初の設定値R1を、実際のピッチを変化させる際の分解能R2に変化させることにより、全ての期間においてピッチベンド量が変化するように補正する。
【0084】
以上の補正処理を行うことにより、図6(B)のピッチベンド量の時間変化のカーブが得られ、聴感上の違和感を低減することができる。
【0085】
本実施の形態による楽音データ変換技術を用いると、1音にまとめられたデータのうちの最初のノートの音高データによっての楽音を発音している状態からタイムラグ無しに徐々に最後のノートの音高データによって発音している状態に変化させることができる。従って、実際のスライド奏法に近い演奏を実現することができる。
【0086】
加えて、ディレイパラメータがマイナスの値であり、ノートオンタイミングよりも早くピッチベンドが開始する。実際の楽音(基準音)を発音する前にピッチベンド量を所定の値まで変化させておき、その後に発音を行うため、発音時におけるノイズの発生が起こりにくい。さらに、1音にまとめる前の最後の音高情報を基準("0")として、この値に一致するように1つの音高にまとめるので、ピッチベンド量は、最後の段階では必ず"0"に収束する。従って、ピッチベンド量をわざわざ"0"まで戻すための後処理を必要とせず、異音の発生を防止できる。
【0087】
尚、上記の実施の形態による楽音データ変換技術においては、例えば図4のステップS1において、データエクスクルーシブからスライド奏法を行う旨の指示が入ると、ステップS2に進むようにしたが、楽音データ内にスライド奏法のデータを検出した場合にステップS2に進むようにしても良い。もちろん、指示又は検出のいずれかがあれば、ステップS2に進むようにしても良い。
【0088】
楽音データ内にスライド奏法のデータを検出する方法としては、例えば、楽音データ内において、隣接する2音のデータに時間的に重なる領域が存在すれば、スライド奏法のデータが検出されたものとみなすこともできる。この場合には、時間的に重なる領域が存在する隣接する2音のデータを、一旦、図3(B)のような時間的に分離した2つの音高データに変換し、次いで、図3(C)及び図3(D)に示す楽音データ変換処理を行えばよい。
【0089】
また、本実施の形態による楽音データ変換技術においては、図3(B)に示す楽音データおよび図3(A)に示すスラーを操作子により手入力する例について説明したが、実際に演奏した演奏データは、例えば、図10(C)、(D)に示すデータ形態として楽音データ変換装置に入力される。これらのデータを、一旦、図10(A)および図10(B)(図3(A)および図3(B)と同じ)の形式に逆変換し、次いで前述のように図3(C)及び図3(D)に示すように楽音データ変換を行えば良い。
【0090】
次に、図7(A)から図7(D)までを参照して、本発明の第1の実施の形態の第1変形例による楽音データ変換技術について説明する。この楽音データ変換技術は、連続する3音以上の楽音データをまとめるデータ変換処理技術である。
【0091】
図7(A)から図7(D)までは、図3(A)から図3(D)までに対応する図である。
【0092】
図7(A)は、6つのノートを含む演奏曲の一部を示す図である。図7(B)は、図7(A)の各ノートに対応する音高データを示す図である。図7(C)及び図7(D)は、6つのノートを、スラーで結合された連続する3つのノートごとにまとめるためのデータ変換処理手順を示す図である。
【0093】
図7(C)に示すように、連続する3音を1つにまとめる際に、3音のうちの最後のノートの音高に合わせた1つの音高データにまとめる。図7(D)に示すように、まとめた1つの音高データに基づき、音高の異なるノートを含む複数のノートを表現するようにピッチベンドデータを形成する。ピッチベンド量の具体的な求め方としては、例えば、3音を1音にまとめる場合には、例えば、スライド奏法と判断できる楽音情報を検出するたびに、最後の楽音(基準音)との音高の差分を減算して、これに相当するピッチベンド量を求めればよい。
【0094】
本発明の第1の実施の形態の第1変形例による楽音データ変換技術を用いると、連続する3音以上のノートを含む楽音データを1音に統合することができ、演奏に表情付けを行うことができる。
【0095】
図8(A)から図8(C)までを参照して、本発明の第1の実施の形態の第2変形例による楽音データ変換技術について説明する。
【0096】
弦楽器の演奏においては、フレット(弦をおさえる棹状の台板の表面を区切る突起)の影響を受ける場合がある。スライド奏法のうちでもボトルネックスライド奏法の場合には、ピッチが滑らかに変化するが、フレットの影響を考慮した場合には、ピッチの変化が半音単位の階段状の変化を示す。フレットの影響を考慮した演奏を行うためには、以下に示すようなデータ処理を行えばよい。
【0097】
図8(A)は、2音の音高のデータである。図8(A)に示すデータに基づいて、音高データを1つにまとめるともに、1つの音高データによって複数のノートを含む演奏を表情付けするように、ベンドピッチ量の時間変化を求める。
【0098】
図8(B)に示すように、最後の音高と一致させて1つの音高にまとめる。図8(C)に示すように、ピッチベンド量を半音単位で階段状に変化させる。図8(C)に示す階段の段数を求めるためには、まず、1音目と2音目とで変化させるべき音高差を求め、これを半音(100セント)で除算することにより段数を求める。
【0099】
図8(C)における時間軸の長さは、ピッチベンド量の変化する領域内において、例えば、図5(A)から図5(C)までのいずれかに示すカーブまたは対応するテーブルを参照することにより決定される。
【0100】
音高の時間変化には、図5(A)から図5(C)のようにさまざまな時間変化のパターンが考えられる。
【0101】
図9(A)から図9(C)までを参照して、図8(C)に示す階段状のピッチベンド量の、それぞれの値を維持する時間(以下「時間軸の長さ」と称する。)を求める手順について説明する。図9(A)から図9(C)までは、フレットの影響を受けた場合の、連続する2音についてスライド奏法を施す場合の楽音データを、時間とピッチベンド量との関係として示す図である。
【0102】
図9(A)は、連続する2音に関して図5(A)に示す関係を表したテーブルを参照した場合の時間とピッチベンド量との関係を示す図である。ボトルネックスライド奏法においてフレッドの影響を受けた場合には、連続する2音のうちの1音目のピッチベンド量(第1のピッチベンド量)を維持する期間t1と、2音目のピッチベンド量(第2のピッチベンド量)を維持する期間t2とがほぼ同じになる。
【0103】
図9(B)は、連続する2音に関して図5(B)に示す関係を表したテーブルを参照した場合の時間とピッチベンド量との関係を示す図である。チョーキング奏法においてフレッドの影響を受けた場合には、連続する2音のうちの1音目のピッチベンド量(第1のピッチベンド量)を維持する期間t3は、2音目のピッチベンド量(第2のピッチベンド量)を維持する期間t4に比べて短くなる。
【0104】
図9(C)は、連続する2音に関して図5(C)に示す関係を表したテーブルを参照した場合の時間とピッチベンド量との関係を示す図である。2音のうちの最初の1音のピッチベンド量を維持する期間t5が、最後の1音のピッチベンド量を維持する期間t6よりも長くなる。3音以上の場合、同様に各音の発生時間を定める。
【0105】
第2変形例による楽音データ変換技術を用いると、フレットの影響を考慮してピッチベンド量の時間変化を決めるため、フレットの影響を受けた場合の表情付けを行うことができる。
【0106】
上記の各実施の形態による楽音データ変換技術は、対応するコンピュータプログラム等をインストールした市販のコンピュータ等によって、実施させるようにしてもよい。その場合には、本実施の形態に対応するコンピュータプログラム等を、CD−ROMやフロッピーディスク等の、コンピュータが読み込むことが出来る記憶媒体に記憶させた状態で、ユーザに提供してもよい。
【0107】
その汎用コンピュータ又はコンピュータ等が、LAN、インターネット、電話回線等の通信ネットワークに接続されている場合には、通信ネットワークを介して、コンピュータプログラムや各種データ等を汎用コンピュータ又はコンピュータ等に提供してもよい。
【0108】
以上、実施の形態に沿って本発明を説明したが、本発明はこれらに制限されるものではない。例えば、種々の変更、改良、組合せ等が可能なことは当業者に自明であろう。
【0109】
【発明の効果】
以上説明したように、本発明の楽音データ変換技術を用いると、音高の連続的に変化する楽音データを1音の楽音データに統合する場合に、発音時におけるノイズの発生が生じにくい。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態による楽音データ変換技術が適用される電子楽器のハードウェア構成を示すブロック図である。
【図2】 本発明の第1の実施の形態による楽音データ変換技術において用いられる楽音データの構成例を示す図である。
【図3】 図3(A)から図3(D)までは、本発明の第1の実施の形態による楽音データ変換の原理を説明するための原理図である。
【図4】 本発明の第1の実施の形態による楽音データ変換手順を示すフローチャート図である。
【図5】 図5(A)から図5(C)までは、本発明の第1の実施の形態による楽音データ変換技術において用いられる楽音データ中に含まれるピッチベンド量の時間変化を示す図である。
【図6】 ピッチベンド量の時間変化を示す図であり、図6(A)は、最初の2区間においてピッチベンド量の変化が少ない場合の例を示す図である。図6(B)は、図6(A)に示す関係を分解能を変更することにより補正した後のピッチベンド量の時間変化を示す図である。
【図7】 図7(A)から図7(D)までは、 本発明の第1の実施の形態の第1変形例によるデータ変換技術を説明するための原理図である。
【図8】 図8(A)から図8(C)までは、本発明の第1の実施の形態の第2変形例によるデータ変換技術を説明するための図であり、フレットの影響を考慮した場合のデータ変換技術を説明するための原理図である。
【図9】 図9(A)から図9(C)までは、本発明の第1の実施の形態の第2変形例によるデータ変換技術を説明するための図である。
【図10】 図10(A)から図10(D)までは、従来のデータ変換技術の原理を説明するための原理図である。
【符号の説明】
1…自動演奏装置、2…電子楽器、3…通信ネットワーク、11…バス、12…ROM、13…RAM、14…CPU、15…タイマ、16…外部記憶装置、17…検出回路、18…操作子、19…表示回路、20…ディスプレイ、21…音源回路、22…サウンドシステム、23…MIDI I/F、25…通信I/F、31…楽音データファイル、33…ヘッダデータ、35、39、41…タイミングデータ、34、38、40…イベントデータ、42…ファイルエンドデータ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a musical sound data conversion technique capable of adding musical instrument-specific facial expressions to musical sound data.
[0002]
[Prior art]
In an electronic musical instrument or the like, if musical tone data is composed only of musical score information, performance tends to be mechanical. Therefore, for example, a method of incorporating a specific performance method (facial expression processing) depending on the type of musical instrument to be played and reflecting it in the musical sound data has been adopted.
[0003]
FIG. 10A to FIG. 10D show an outline of a musical sound data conversion technique disclosed in Japanese Patent Laid-Open No. 10-105173 as an example of a technique for incorporating a performance technique peculiar to musical sound data.
[0004]
FIG. 10A shows an example of musical tone data indicated by actual notes. FIG. 10B is an example expressed as MIDI (Musical Instrument Digital Interface) information (note event) based on the pitch information of the note shown in FIG. Specifically, it is a diagram showing the relationship between time and pitch (note number) in a piano scroll type.
[0005]
10 (C) and 10 (D) are diagrams showing an outline of a musical sound data conversion process procedure for expression when the song shown in FIG. 10 (A) is a stringed instrument, for example, a guitar song. is there. When the song shown in FIG. 10A is a song for a stringed instrument, for example, a guitar, it can be seen that the slide performance is performed by the slur symbol S connecting the notes.
[0006]
FIG. 10C and FIG. 10D show a processing procedure for performing processing for converting the pitch data shown in FIG. 10B into pitch data corresponding to the slide performance method.
[0007]
As shown in FIG. 10C, the four pitch data (FIG. 10B) are collected into two pitch information. That is, two adjacent pitch data connected by the slur S are combined into one pitch data having the pitch of the preceding sound. As shown in FIG. 10 (D), pitch bend information is formed so as to express a change in pitch based on the pitch data collected into one. For example, the pitch bend amount is displayed as a function of time in correspondence with FIG. In the figure, the pitch bend amount is changed approximately linearly with respect to time based on the pitch difference between two adjacent notes in the pitch information shown in FIG. 10B and the time. Since the pitch bend amount of the next sound is zero, the pitch bend amount is returned to “0” before the next sound is generated.
[0008]
By using the above musical tone data conversion technique, it is possible to combine two or more adjacent notes into one pitch data and add a facial expression to the performance together with the time change of the pitch bend amount. For example, if the pitch bend amount is changed substantially linearly with respect to time, an expression that simulates a slide performance of a stringed instrument can be performed in an electronic musical instrument.
[0009]
[Problems to be solved by the invention]
By the way, since the musical sound data conversion technique as described above includes a process of rapidly bringing the pitch bend amount close to 0 at the final stage, if the musical sound is not completely attenuated, the pitch of the generated sound changes rapidly. To do. This may cause abnormal noise and may make it difficult to hear the performance. If the pitch can be returned to “0” when the pronunciation is completely stopped, the generation of abnormal noise can be prevented, but it is difficult to accurately predict the attenuation of the pronunciation.
[0010]
An object of the present invention is to provide a musical sound data conversion technique capable of preventing the generation of abnormal sounds or the like when a plurality of pitches are put together to express a performance.
[0011]
[Means for Solving the Problems]
According to an aspect of the present invention, a musical sound data conversion apparatus includes: a first detection unit that detects a pitch difference between a first note and a second note; and a data table that defines a time change of pitch bend data. Storage means for storing, formation means for forming pitch bend data based on the detected pitch difference and the data table, and second of detecting a section in which the pitch bend amount is a predetermined value or less among the formed pitch bend data. When the section where the pitch bend amount is a predetermined value or less is detected by the detecting means and the second detecting means, the end point of the section is moved to the position on the time axis of the pitch control start point. And, in order to obtain the same pitch change as the formed pitch bend data in the section from the pitch control start point to the end point of the formed pitch bend data, The pitch bend data serial form and a correcting means for correcting by adjusting the generation resolution of pitch bend event.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
The inventor collects a plurality of continuous notes including a plurality of notes having different pitches into one pitch data that matches the last pitch among the pitches of the plurality of pitches, Based on this, I came up with the idea to express the performance by forming pitch bend data to express multiple notes including notes with different pitches.
[0015]
When forming the pitch bend data, the pitches of the last note are collected in the initial stage, and the pitch of the desired note is changed by the pitch bend amount. It is possible to easily calculate the desired pitch in combination with the pitch data and the pitch bend data. Thereafter, the pitch bend amount is changed in correspondence with the change in pitch, and finally converges to “0”.
[0016]
If the pitch bend amount is changed to a predetermined value in the initial stage before sounding the actual musical sound (reference sound) and then sounding is performed thereafter, noise during sounding is unlikely to occur. In addition, since the pitch information is gathered so as to coincide with this value based on the pitch data of the last note, the pitch bend amount always converges to “0” in the last stage. Therefore, post-processing for returning the pitch bend amount to “0” is not necessary. This is applicable not only when two sounds are combined into one sound but also when three or more sounds are combined into one sound.
[0017]
A music data conversion technique according to the first embodiment of the present invention based on the above consideration will be described with reference to FIGS. FIG. 1 is a functional block diagram showing a configuration example of an electronic musical instrument using a musical tone data conversion technique according to this embodiment. FIG. 2 is a diagram showing an example of a musical sound data format used in the performance conversion technique according to this embodiment. FIGS. 3A to 3D are diagrams illustrating an example of a case where two sounds are combined into one sound, according to the musical sound data conversion technique according to the present embodiment. FIG. It is a flowchart figure which shows an outline | summary. 5 (A) to 5 (C) are diagrams showing the time change of the pitch bend amount in various performance methods. 6A and 6B are diagrams illustrating the principle of correcting the resolution of pitch control.
[0018]
As shown in FIG. 1, the electronic musical instrument 1 includes a bus 11, a ROM 12, a RAM 13, a CPU 14, a timer 15, an external storage device 16, a detection circuit 17, a controller 18, a display circuit 19, a display 20, a sound source circuit 21, and a sound system. 22, a MIDI interface 23, and a communication interface 25.
[0019]
The electronic musical instrument 1 may be a normal electronic musical instrument, for example, a personal computer.
[0020]
ROM 12, RAM 13, CPU 14, timer 15, external storage device 16, detection circuit 17, display circuit 19, sound source circuit 21, MIDI interface 23, and communication interface 25 are connected to the bus 11.
[0021]
The user can input various settings and other necessary information for changing the music data input and playback mode by using an operator (input means) 18 connected to the detection circuit 17. The operation element 18 may be any one that can output a signal corresponding to a user input, such as a mouse, a keyboard, a keyboard, a joystick, or a switch. A plurality of input means may be connected. When the operator 18 is used, pitch data and slur symbols can be input manually.
[0022]
The display circuit 19 is connected to the display 20 and can display various information on the display 20.
[0023]
The external storage device 16 includes an interface for an external storage device, and is connected to the bus 11 via the interface. The external storage device 16 is, for example, a floppy disk drive (FDD), a hard disk drive (HDD), a magneto-optical disk (MO) drive, a CD-ROM (compact disk-read only memory) drive, a DVD (Digital Versatile Disc) drive, or the like. is there. The external storage device 16 can store a plurality of music data, a program for realizing musical sound data conversion according to the present embodiment, and the like.
[0024]
The RAM 13 has a working area for the CPU 14 that stores flags, registers or buffers, music data, and the like. The ROM 12 can store various parameters and control programs, a program for realizing musical sound data conversion according to the present embodiment, and the like. In this case, it is not necessary to store programs or the like in the external storage device 16 in an overlapping manner. The CPU 14 performs calculation or control according to a control program or the like stored in the ROM 12 or the external storage device 16.
[0025]
The timer 15 is connected to the CPU 14 and the bus 11 and instructs the CPU 14 about a basic clock signal, interrupt processing timing, and the like. For example, the timer interrupt processing and various times are counted.
[0026]
The MIDI interface 23 can be connected to an electronic musical instrument, other musical instruments, audio equipment, a computer, etc., and can transmit and receive at least MIDI signals. The MIDI interface 23 is not limited to a dedicated MIDI interface, and may be configured using a general-purpose interface such as RS-232C, USB (Universal Serial Bus), IEEE 1394 (Eye Triple E 1394). In this case, data other than MIDI messages may be transmitted and received simultaneously.
[0027]
Another electronic musical instrument may be connected to the electronic musical instrument 1. Another electronic musical instrument 2 is an acoustic device, a musical instrument, or the like that is connected to the electronic musical instrument 1 through the MIDI interface 23. The form of the electronic musical instrument is not limited to a keyboard musical instrument, and may be a string musical instrument type, a wind instrument type, a percussion instrument type, or the like. In addition, the sound source device, the automatic performance device, etc. are not limited to those built in one electronic musical instrument body, but each is a separate device, and each device is connected using communication means such as MIDI or various networks. There may be.
[0028]
The tone generator circuit 21 generates a musical tone signal in accordance with the supplied MIDI signal and the like and supplies it to the sound system 22. The sound system 22 includes a D / A converter and a speaker, converts a digital musical tone signal supplied to an analog format and generates a sound.
[0029]
The sound source circuit 21 is an analog synthesizer such as a waveform memory system, FM system, physical model system, harmonic synthesis system, formant synthesis system, VCO (Voltage Controlled Oscillator) + VCF (Voltage Controlled Filter) + VCA (Voltage Controlled Amplifier). Any method may be used.
[0030]
Further, the tone generator circuit 21 is not limited to being configured using dedicated hardware, but may be configured using a DSP (Digital Signal Processor) + microprogram, or may be configured using a CPU + software program. Or it can be something like a sound card.
[0031]
Further, a plurality of tone generation channels may be formed by using one tone generator circuit in a time-sharing manner, or a plurality of tone generation circuits may be formed by using one tone generator circuit for each tone generation channel. You may make it comprise.
[0032]
A control program or a program for realizing musical tone data conversion according to this embodiment can be stored in a hard disk (HDD) in the external storage device 16. By reading a control program or the like from the hard disk into the RAM 13, it is possible to cause the CPU 14 to perform the same operation as when the control program or the like is stored in the ROM 12. In this way, it is possible to easily add or upgrade a control program or the like.
[0033]
In addition, a control program or a program for realizing musical sound data conversion according to the present embodiment can be stored in the CD-ROM. A control program, a program for realizing musical sound data conversion according to the present embodiment, and the like can be copied from a CD-ROM to a hard disk. New installation and version upgrade of control programs and the like can be easily performed.
[0034]
The communication interface 25 can be connected to a communication network 3 such as a LAN (local area network), the Internet, a telephone line, etc., and is connected to a server via the communication network 3, an external storage device 16 such as an HDD, or a RAM 13. Inside the server, a control program, a program for realizing musical sound data conversion according to the present embodiment, and the like can be downloaded.
[0035]
In the embodiment of the present invention, the electronic musical instrument includes not only a conventional electronic musical instrument integrated with a performance operator, but also a computer that can execute an automatic performance or a music information editing program, such as a MIDI keyboard. It includes a wide range of devices including those that function as electronic musical instruments, such as those connected with performance operators. A device that substantially functions as an electronic musical instrument may have a musical sound data conversion function, or a new musical sound data conversion for a conventional musical instrument (for example, a natural musical instrument or a combined device of a natural musical instrument and an electronic musical instrument). A function may be added.
[0036]
FIG. 2 shows an example of a format of musical sound data stored in a storage device, for example, the external storage device 16.
[0037]
The musical sound data 31 includes header data 33 and file end data 42 and a first musical sound data group D1 to an nth musical sound data group Dn inserted therebetween (n is an integer of 1 or more).
[0038]
The header data 33 is data stored at the head of the musical sound data, and stores, for example, data such as a song title and an initial tempo. The file end data 42 is data stored at the end of the musical sound data.
[0039]
Each of the first data D1 to the nth data Dn has a data structure in which event data and timing data are alternately arranged. The first data D1 is data including pitch bend data. The event data 34 is arranged at the beginning of the data D1, and includes note-on, note number, and velocity data. The event data 40 is arranged toward the end of the data D1, and includes note-off and note number data.
[0040]
The event data 38-1 to 38-m includes pitch bend data. The event data 38-1 is inserted between the header 33 and the event data 34. Between the event data 34 and the event data 40, m-1 (m is an integer of 2 or more) event data from event data 38-2 to 38-m excluding the event data 38-1 is inserted.
[0041]
The timing data is arranged after the event data 34 and 40 and the event data 38-1 to 38-m. Specifically, the timing data 35 is arranged after the event data 34, and the timing data 41 is arranged after the event data 40. Timing data 39-1 to 39-m are inserted after event data 38-1 to 38-m, respectively.
[0042]
The timing data is data indicating a period from when an event immediately before the timing data is processed to when processing of the event immediately after the timing data is started.
[0043]
The timing data is usually numerical data, and this numerical data is decremented (down-counted) during timer interrupt processing executed by the timer 15 (FIG. 1) in response to a timer interrupt generated every predetermined time. Count value is set.
[0044]
In addition, it may have a data area in which various settings can be made as data exclusive in the musical sound data or separately.
[0045]
In the data structure of the musical sound data shown in FIG. 2, the musical sound data has a data format in which event data and timing data are alternately arranged. However, the data structure is not limited to the above data structure. You may comprise in other formats, such as "data + absolute time data" and "pitch data + note length data".
[0046]
With reference to FIG. 3 to FIG. 5, a process for combining musical sounds into one sound by the musical sound data conversion technique according to the present embodiment will be described. As an example, a case of processing for converting to musical sound data that imitates a slide performance method, which is one of the processing for adding facial expressions to a performance, will be described. In the following embodiment, a case where two adjacent sounds are merged into one sound will be described as an example.
[0047]
FIG. 3A shows an example of a musical score in which the performance music is indicated by notes. FIG. 3 (B) is a diagram representing musical tone data when the musical note shown in FIG. 3 (A) is input to an electronic musical instrument or the like, from key-on (event) to key-off (event) corresponding to one musical note. A block mark (pitch data) representing the time interval and the pitch (key number) of the note is displayed. Specifically, it is a diagram showing the relationship between time before data conversion processing and pitch. In the musical tone data shown in FIG. 3B, the pitch (note number) for each note is shown.
[0048]
As shown in FIG. 3 (A), a note with a slur symbol S between adjacent notes means a performance method imitating a slide performance method in a stringed instrument. Therefore, a process of converting the musical tone data shown in FIG. 3B into MIDI musical tone data having a slur S is performed by the procedure illustrated in FIGS. 3C and 3D.
[0049]
3 (C) and 3 (D) are diagrams showing an example of a musical sound data conversion processing procedure when the musical note shown in FIG. 3 (A) is a stringed musical instrument, for example, a guitar musical score. 3A to FIG. 3D correspond to FIG. 10A to FIG. 10D, respectively.
[0050]
As shown in FIG. 3A, a slur symbol is added between the first note and the second note, and a slur symbol is also provided between the third note and the fourth note. Is attached.
[0051]
Therefore, the musical tone data shown in FIG. 3 (B) is manually input. Next, as shown in FIG. 3A, an operation of connecting the first and second pitch data and the third and fourth pitch data with a slur is performed.
[0052]
The musical sound data conversion apparatus according to the present embodiment combines the first note and the second note into one, and combines the third note and the fourth note into one. When the first note and the second note are combined into one, and when the third note and the fourth note are combined into one, as shown in FIG. The two pitches combined by the slur S shown in FIG.
[0053]
Next, as shown in FIG. 3D, pitch bend data is formed so as to represent a plurality of notes including notes having different pitches based on the collected pitch data. More specifically, for example, pitch bend data in which the pitch bend amount is temporally changed is formed.
[0054]
As shown in FIG. 3D, first, the pitch bend amount is changed in the initial stage by the difference between the first and last pitches, that is, in accordance with the pitch to be generated. The pitch bend amount converges to “0” at the end.
[0055]
How to change the pitch bend amount with time can be determined by the event data (pitch bend data) and timing data shown in FIG.
[0056]
The time change of the pitch bend amount includes a delay parameter and a resolution. More specifically, it is determined by the data shown in FIG.
[0057]
After the pitch bend event 38-1 is started at the timing (TA), an interval defined by a delay parameter (T-1: from TA to TC) of the timing data 39-1 has elapsed. After that, the note-on event 34 is executed at the timing (TC). After the start of note-on, after the interval specified by the delay parameter (T-2: TC to TB) of the timing data 35 has elapsed, at the end timing (TB) A continuous pitch bend event 38-2 to 38-m starts.
[0058]
In continuous pitch bend events 38-2 to 38-m, a change in which the pitch bend amount converges to “0” starts from timing (TB), and the final pitch bend event 38-m occurs at timing (TD). finish. When the final pitch bend event 38-m ends, the note-off event 40 starts from the timing (T-D) and continues for the interval (T-3) defined by the timing data 41, and at the timing (TE). finish.
[0059]
The set values of these timing data are expressed by the number of clocks and can be arbitrarily set by the user.
[0060]
In the musical tone data conversion technique according to this embodiment, the event data 38-1 is arranged before the event data 34 because the pitch bend changes earlier than the note-on timing.
[0061]
The resolution parameter represents a minimum pitch bend amount that can be set.
[0062]
The above set value represents the pitch bend change timing by the number of clocks, and can be arbitrarily set by the user.
[0063]
The pitch bend data may be determined according to the above procedure.
[0064]
Next, a specific example of data conversion processing of musical sound data will be described with reference to FIGS.
[0065]
As shown in FIG. 4, when an instruction to perform the slide performance is received from the data exclusive in step S1, the process proceeds to step S2.
[0066]
In step S2, the pitch data at the end of the slide performance method (second when combining two sounds) is detected. In step S3, the first pitch data of the slide performance method (first when two sounds are combined) is detected.
[0067]
In step S4, the difference between the last pitch detected in step S2 and the first pitch detected in step S3 is calculated (subtracted).
[0068]
In step S5, a change in time of the pitch control information (pitch bend amount) obtained by the calculation in step S4 is obtained, and based on the change, musical tone generation instruction information that gives an instruction to generate a musical tone (for example, FIG. 3C). And (musical tone data in the format of FIG. 2 representing FIG. 3D). Based on the musical tone generation instruction information, the CPU instructs the tone generator circuit to utter a musical tone.
[0069]
The pitch control information obtained in step S5 is represented, for example, as a time change in the pitch bend amount. The time change of the pitch bend amount is determined as follows in accordance with, for example, a pitch bend curve set as table data.
[0070]
The types of pitch bend curves will be described with reference to FIGS. FIG. 5A to FIG. 5C are examples of pitch bend curves showing the relationship between the elapsed time and the pitch bend amount when the pitch is gradually changed for one integrated pitch.
[0071]
FIG. 5A is a curve showing changes in time and pitch bend amount in the case of a bottleneck performance. Among the slide performance methods, a performance method called a bottle neck slide performance method is a performance method in which the pitch is changed by changing the length of the string. The time change of the pitch bend amount (pitch control information value) is represented by a substantially linear relationship. Therefore, the calculation performed in step S is, for example, a target pitch control value as a difference between the last pitch obtained in step S2 and the first pitch obtained in step S3, and the difference is a starting point for performing pitch control. This is an operation for obtaining the slope of the straight line by dividing by the time from the end point to the end point of the pitch control.
[0072]
FIG. 5B is a curve showing changes in time and pitch bend amount in the case of choking performance. The choking technique is a technique in which the pitch is changed by pulling on the string and changing the tension, so that it becomes difficult to gradually change the pitch as the tension is increased. For example, the amount of change in the pitch bend gradually decreases with time. On the other hand, there is also a performance technique that can be represented by a curve such that the amount of change in the pitch bend gradually increases with time, as in the performance technique shown in FIG. The pitch bend amount may be changed with time according to the curve shown in the figure to be applied among the curves shown in FIG. 5 (A) to FIG. 5 (C).
[0073]
The gradient of the pitch bend amount and its change over time vary depending on which of FIGS. 5A to 5C is selected, but the pitch bend amount finally converges to “0”. The note length is instructed to the tone generator circuit by a tone generation instruction means provided separately. The period during which a musical sound is produced expands and contracts depending on the note length. Specifically, the timing for generating a musical tone starts at timing (TC) as shown in FIG. 3, and after the pitch bend amount finally converges to “0”, the next musical tone is generated. The process ends at the previous timing (TE).
[0074]
The curves shown in FIG. 5A to FIG. 5C may be stored as a table showing the relationship between time and pitch bend amount. The tabulated information may be stored in storage means such as an external storage device or ROM, and read from the storage means as necessary. Note that the curves shown in FIGS. 5A to 5C are examples, and are not limited to the shapes of these curves.
[0075]
The musical sound data conversion process is completed by the above process (step S6).
[0076]
Next, referring to FIG. 6 (A) and FIG. 6 (B), the time variation of the actual pitch bend amount is applied by applying the time variation pattern of the pitch bend amount represented by the curve shown in FIG. 5 (C). A supplementary explanation will be given for preferable processing in the case of obtaining.
[0077]
The curve shown in FIG. 6A is a curve similar to the curve shown in FIG. 5C, and the pitch bend amount changes only below the resolution parameter for pitch control in the initial stage. For example, the first section T1 and the second section T2 in FIG. 6A correspond to sections in which the pitch hardly changes.
[0078]
As described above, when the pitch bend amount is equal to or less than the resolution parameter, it does not appear as a change in the pitch bend amount in the data. Therefore, the change in the pitch appears on the data in the third and subsequent sections T3, resulting in a sense of discomfort as an audible feeling. Since the pitch bend value is the same value (0) in the first interval T1 and the second interval T2, it is possible to detect the corresponding interval by examining the time change of the pitch bend amount.
[0079]
In order to reduce such a sense of incongruity, the following correction process can be performed. FIG. 6B is a diagram showing the relationship between time and pitch bend value when correction is added to FIG.
[0080]
As shown in FIG. 6A, for example, a period that starts from the start point of the first section T1 that is the pitch control start point and ends at the end point of the eighth section T8 that is the end point of the pitch control (when the target pitch width is reached). A. Among these, a period from the third section T3 to the last section T8 where the pitch change can be actually felt is defined as B.
[0081]
As shown in FIG. 6B, the pitch control start point is changed to the start point of the corrected third section T3 ′. A period C that ends from the start point of the corrected first section T1 ′ to the end point of the pitch control (end point of T8 ′) is assumed. Let D be a period from the corrected third section T3 ′ to the corrected final section T8 ′. Here, the relationship of A: B = C: D and A = D is used.
[0082]
The period A is, for example, the time from the time when it is determined that the slide performance is performed to the end of the period during which the slide performance is to be performed. Specifically, it is obtained by accumulating time information of sequence data. The target pitch width can be detected from the musical sound data. In addition, the initial resolution R1 is also determined. Therefore, the time B can be obtained.
[0083]
Time adjustment is performed so that the starting point of the period D is the starting point of the pitch control. By changing the initial set value R1 to the resolution R2 when changing the actual pitch, correction is made so that the pitch bend amount changes in all periods.
[0084]
By performing the above correction process, the curve of the time change of the pitch bend amount shown in FIG. 6B can be obtained, and the sense of discomfort in hearing can be reduced.
[0085]
When the musical sound data conversion technique according to the present embodiment is used, the sound of the last note is gradually reproduced without a time lag from the state in which the musical sound based on the pitch data of the first note of the data collected into one sound is generated. It can be changed to a state of sounding by high data. Therefore, a performance close to the actual slide performance can be realized.
[0086]
In addition, the delay parameter is a negative value, and pitch bend starts earlier than the note-on timing. Since the pitch bend amount is changed to a predetermined value before sounding the actual musical sound (reference sound) and sounding is performed after that, it is difficult for noise to occur during sounding. Furthermore, since the last pitch information before being grouped into one note is used as a reference ("0"), the pitch bend amount is always set to "0" at the last stage. Converge. Therefore, it is not necessary to perform post-processing for returning the pitch bend amount to “0”, and the generation of abnormal noise can be prevented.
[0087]
In the musical sound data conversion technique according to the above embodiment, for example, when an instruction to perform a slide performance is received from data exclusive in step S1 of FIG. 4, the process proceeds to step S2. If slide performance data is detected, the process may proceed to step S2. Of course, if there is any instruction or detection, the process may proceed to step S2.
[0088]
As a method for detecting slide performance data in the musical sound data, for example, if there is a temporally overlapping area of two adjacent sound data in the musical sound data, it is considered that the slide performance data has been detected. You can also. In this case, the adjacent two-tone data in which the temporally overlapping region exists is temporarily converted into two pitch data separated in time as shown in FIG. The musical tone data conversion process shown in FIG. 3C and FIG.
[0089]
In the musical tone data conversion technique according to this embodiment, the example in which the musical tone data shown in FIG. 3B and the slur shown in FIG. For example, the data is input to the musical sound data conversion apparatus in the data form shown in FIGS. 10 (C) and 10 (D). These data are once converted back into the format of FIG. 10 (A) and FIG. 10 (B) (same as FIG. 3 (A) and FIG. 3 (B)), and then as described above, FIG. And the musical tone data conversion may be performed as shown in FIG.
[0090]
Next, a musical sound data conversion technique according to a first modification of the first embodiment of the present invention will be described with reference to FIGS. 7 (A) to 7 (D). This musical sound data conversion technique is a data conversion processing technique for collecting musical sound data of three or more consecutive sounds.
[0091]
FIGS. 7A to 7D correspond to FIGS. 3A to 3D.
[0092]
FIG. 7A is a diagram showing a part of a musical piece including six notes. FIG. 7B is a diagram showing pitch data corresponding to each note in FIG. FIGS. 7C and 7D are diagrams illustrating a data conversion processing procedure for grouping six notes into three consecutive notes combined by a slur.
[0093]
As shown in FIG. 7C, when three consecutive sounds are combined into one, they are combined into one pitch data that matches the pitch of the last note of the three sounds. As shown in FIG. 7D, pitch bend data is formed so as to represent a plurality of notes including notes having different pitches based on a single piece of pitch data. As a specific method for obtaining the pitch bend amount, for example, when three sounds are combined into one sound, for example, every time musical sound information that can be determined as a slide performance is detected, the pitch of the last musical sound (reference sound) is detected. The pitch bend amount corresponding to the difference may be obtained.
[0094]
By using the musical tone data conversion technique according to the first modification of the first embodiment of the present invention, musical tone data including notes of three or more consecutive notes can be integrated into a single tone, and an expression is added to the performance. be able to.
[0095]
With reference to FIG. 8A to FIG. 8C, a musical sound data conversion technique according to a second modification of the first embodiment of the present invention will be described.
[0096]
When playing a stringed instrument, it may be affected by frets (protrusions that divide the surface of the bowl-shaped base plate that holds the strings). Among the slide performances, in the case of the bottleneck slide performance, the pitch changes smoothly, but when the influence of fret is taken into consideration, the change in pitch shows a step-like change in semitone units. In order to perform a performance in consideration of the influence of frets, the following data processing may be performed.
[0097]
FIG. 8 (A) is data of pitches of two sounds. Based on the data shown in FIG. 8A, the pitch data is combined into one, and the time change of the bend pitch amount is obtained so that a performance including a plurality of notes is expressed by one pitch data.
[0098]
As shown in FIG. 8 (B), the pitches are matched to the last pitch and combined into one pitch. As shown in FIG. 8C, the pitch bend amount is changed stepwise in units of semitones. In order to obtain the number of steps of the stairs shown in FIG. 8C, first, the pitch difference to be changed between the first and second sounds is obtained, and this is divided by a semitone (100 cents) to obtain the number of steps. Ask.
[0099]
For the length of the time axis in FIG. 8C, refer to, for example, the curve shown in any of FIGS. 5A to 5C or the corresponding table in the region where the pitch bend amount changes. Determined by.
[0100]
As the time change of the pitch, various time change patterns are conceivable as shown in FIGS.
[0101]
With reference to FIG. 9A to FIG. 9C, the time during which each value of the stepped pitch bend amount shown in FIG. 8C is maintained (hereinafter referred to as “the length of the time axis”). ) Will be described. 9 (A) to 9 (C) are diagrams showing musical tone data in the case where the slide performance is applied to two consecutive sounds when influenced by the fret, as a relationship between time and pitch bend amount. .
[0102]
FIG. 9A is a diagram showing the relationship between time and pitch bend amount when referring to the table showing the relationship shown in FIG. 5A for two consecutive sounds. When the bottleneck slide performance is affected by Fred, a period t1 in which the pitch bend amount (first pitch bend amount) of the two consecutive sounds is maintained, and the pitch bend amount (second pitch) of the second tone. 2 (pitch bend amount of 2)) is substantially the same as the period t2.
[0103]
FIG. 9B is a diagram showing the relationship between the time and pitch bend amount when referring to the table representing the relationship shown in FIG. 5B for two consecutive sounds. When the choking performance is influenced by Fred, the period t3 during which the pitch bend amount (first pitch bend amount) of the first two of the two consecutive sounds is maintained is the second pitch bend amount (second pitch). The pitch bend amount) is shorter than the period t4.
[0104]
FIG. 9C is a diagram showing the relationship between time and pitch bend amount when referring to the table showing the relationship shown in FIG. 5C for two consecutive sounds. The period t5 for maintaining the pitch bend amount of the first one of the two sounds is longer than the period t6 for maintaining the pitch bend amount of the last one sound. In the case of three or more sounds, the generation time of each sound is similarly determined.
[0105]
When the tone data conversion technique according to the second modification is used, the temporal change of the pitch bend amount is determined in consideration of the influence of the fret, so that it is possible to add a facial expression when affected by the fret.
[0106]
The musical sound data conversion technique according to each of the above embodiments may be implemented by a commercially available computer or the like in which a corresponding computer program or the like is installed. In that case, a computer program or the like corresponding to the present embodiment may be provided to the user in a state where the computer program or the like is stored in a storage medium that can be read by a computer such as a CD-ROM or a floppy disk.
[0107]
When the general-purpose computer or computer is connected to a communication network such as a LAN, the Internet, or a telephone line, the computer program and various data may be provided to the general-purpose computer or the computer via the communication network. Good.
[0108]
As mentioned above, although this invention was demonstrated along embodiment, this invention is not restrict | limited to these. It will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.
[0109]
【The invention's effect】
As described above, when the musical tone data conversion technique of the present invention is used, when musical tone data with continuously changing pitches is integrated into one musical tone data, it is difficult for noise to occur during pronunciation.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a hardware configuration of an electronic musical instrument to which a musical sound data conversion technique according to a first embodiment of the present invention is applied.
FIG. 2 is a diagram showing a configuration example of musical tone data used in the musical tone data conversion technique according to the first embodiment of the present invention.
FIGS. 3A to 3D are principle diagrams for explaining the principle of tone data conversion according to the first embodiment of the present invention.
FIG. 4 is a flowchart showing a musical sound data conversion procedure according to the first embodiment of the present invention.
FIGS. 5 (A) to 5 (C) are diagrams showing temporal changes in the pitch bend amount included in the musical sound data used in the musical sound data conversion technique according to the first embodiment of the present invention. is there.
FIG. 6 is a diagram illustrating a time change of the pitch bend amount, and FIG. 6A is a diagram illustrating an example in which a change in the pitch bend amount is small in the first two sections. FIG. 6B is a diagram showing a time change of the pitch bend amount after the relationship shown in FIG. 6A is corrected by changing the resolution.
FIG. 7A to FIG. 7D are principle diagrams for explaining a data conversion technique according to a first modification of the first embodiment of the present invention.
FIGS. 8A to 8C are diagrams for explaining a data conversion technique according to a second modification of the first embodiment of the present invention, and consider the influence of frets. FIG. It is a principle figure for demonstrating the data conversion technique in the case of doing.
FIGS. 9A to 9C are diagrams for explaining a data conversion technique according to a second modification of the first embodiment of the present invention.
10 (A) to FIG. 10 (D) are principle diagrams for explaining the principle of a conventional data conversion technique.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Automatic performance apparatus, 2 ... Electronic musical instrument, 3 ... Communication network, 11 ... Bus, 12 ... ROM, 13 ... RAM, 14 ... CPU, 15 ... Timer, 16 ... External storage device, 17 ... Detection circuit, 18 ... Operation Child, 19 ... Display circuit, 20 ... Display, 21 ... Sound source circuit, 22 ... Sound system, 23 ... MIDI I / F, 25 ... Communication I / F, 31 ... Music data file, 33 ... Header data, 35, 39, 41 ... Timing data, 34, 38, 40 ... Event data, 42 ... File end data

Claims (3)

第1のノートと第2のノートとの音高差を検出する第1の検出手段と、
ピッチベンドデータの時間変化を規定するデータテーブルを記憶する記憶手段と、
前記検出した音高差と前記データテーブルとに基づき、ピッチベンドデータを形成する形成手段と、
前記形成したピッチベンドデータのうち、ピッチベンド量が所定値以下の区間を検出する第2の検出手段と、
前記第2の検出手段により、ピッチベンド量が所定値以下である区間が検出された場合には、その区間の終点をピッチ制御開始点の時間軸上の位置に移動するように、且つ、前記ピッチ制御開始点から前記形成したピッチベンドデータの終点までの区間で前記形成したピッチベンドデータと同様のピッチ変化を得られるように、前記形成したピッチベンドデータをピッチベンドイベントの生成分解能を調整することにより補正する補正手段と
を有する楽音データ変換装置。
First detecting means for detecting a pitch difference between the first note and the second note;
Storage means for storing a data table defining the time change of pitch bend data;
Forming means for forming pitch bend data based on the detected pitch difference and the data table;
A second detecting means for detecting a section in which the pitch bend amount is equal to or less than a predetermined value in the formed pitch bend data;
When the second detecting means detects a section where the pitch bend amount is a predetermined value or less, the end point of the section is moved to a position on the time axis of the pitch control start point, and the pitch Correction that corrects the formed pitch bend data by adjusting the pitch bend event generation resolution so that the same pitch change as the formed pitch bend data can be obtained in the section from the control start point to the end point of the formed pitch bend data. And a musical sound data conversion device.
第1のノートと第2のノートとの音高差を検出する第1の検出工程と、
前記検出した音高差とピッチベンドデータの時間変化を規定するデータテーブルとに基づき、ピッチベンドデータを形成する形成工程と、
前記形成したピッチベンドデータのうち、ピッチベンド量が所定値以下の区間を検出する第2の検出工程と、
前記第2の検出工程により、ピッチベンド量が所定値以下である区間が検出された場合には、その区間の終点をピッチ制御開始点の時間軸上の位置に移動するように、且つ、前記ピッチ制御開始点から前記形成したピッチベンドデータの終点までの区間で前記形成したピッチベンドデータと同様のピッチ変化を得られるように、前記形成したピッチベンドデータをピッチベンドイベントの生成分解能を調整することにより補正する補正工程と
を有する楽音データ変換方法。
A first detection step of detecting a pitch difference between the first note and the second note;
A forming step for forming pitch bend data based on the detected pitch difference and a data table defining a time change of pitch bend data;
A second detection step of detecting a section in which the pitch bend amount is a predetermined value or less in the formed pitch bend data;
When a section where the pitch bend amount is a predetermined value or less is detected by the second detection step, the end point of the section is moved to a position on the time axis of the pitch control start point, and the pitch Correction that corrects the formed pitch bend data by adjusting the pitch bend event generation resolution so that the same pitch change as the formed pitch bend data can be obtained in the section from the control start point to the end point of the formed pitch bend data. A musical sound data conversion method including a process.
第1のノートと第2のノートとの音高差を検出する第1の検出手順と、
前記検出した音高差とピッチベンドデータの時間変化を規定するデータテーブルとに基づき、ピッチベンドデータを形成する形成手順と、
前記形成したピッチベンドデータのうち、ピッチベンド量が所定値以下の区間を検出する第2の検出手順と、
前記第2の検出手順により、ピッチベンド量が所定値以下である区間が検出された場合には、その区間の終点をピッチ制御開始点の時間軸上の位置に移動するように、且つ、前記ピッチ制御開始点から前記形成したピッチベンドデータの終点までの区間で前記形成したピッチベンドデータと同様のピッチ変化を得られるように、前記形成したピッチベンドデータをピッチベンドイベントの生成分解能を調整することにより補正する補正手順と
を有する楽音データ変換処理をコンピュータに実行させるためのプログラム。
A first detection procedure for detecting a pitch difference between the first note and the second note;
A formation procedure for forming pitch bend data based on the detected pitch difference and a data table defining a time change of pitch bend data;
A second detection procedure for detecting a section in which the pitch bend amount is a predetermined value or less from the formed pitch bend data;
When a section having a pitch bend amount equal to or less than a predetermined value is detected by the second detection procedure, the end point of the section is moved to a position on the time axis of the pitch control start point, and the pitch Correction that corrects the formed pitch bend data by adjusting the pitch bend event generation resolution so that the same pitch change as the formed pitch bend data can be obtained in the section from the control start point to the end point of the formed pitch bend data. A program for causing a computer to execute a musical sound data conversion process.
JP2001041115A 2001-02-19 2001-02-19 Musical sound data conversion device and musical sound data conversion method Expired - Fee Related JP3783566B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001041115A JP3783566B2 (en) 2001-02-19 2001-02-19 Musical sound data conversion device and musical sound data conversion method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001041115A JP3783566B2 (en) 2001-02-19 2001-02-19 Musical sound data conversion device and musical sound data conversion method

Publications (2)

Publication Number Publication Date
JP2002244658A JP2002244658A (en) 2002-08-30
JP3783566B2 true JP3783566B2 (en) 2006-06-07

Family

ID=18903600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001041115A Expired - Fee Related JP3783566B2 (en) 2001-02-19 2001-02-19 Musical sound data conversion device and musical sound data conversion method

Country Status (1)

Country Link
JP (1) JP3783566B2 (en)

Also Published As

Publication number Publication date
JP2002244658A (en) 2002-08-30

Similar Documents

Publication Publication Date Title
JP2007011217A (en) Musical sound synthesizer and program
US6946595B2 (en) Performance data processing and tone signal synthesizing methods and apparatus
EP2775475B1 (en) Music synthesizer with correction of tones during a pitch bend, based on played chord and on pitch conversion harmony rules.
JP3915807B2 (en) Automatic performance determination device and program
WO2007139034A1 (en) Music sound combining device and method
JP4407473B2 (en) Performance method determining device and program
JP4024440B2 (en) Data input device for song search system
JP3783566B2 (en) Musical sound data conversion device and musical sound data conversion method
JP3812510B2 (en) Performance data processing method and tone signal synthesis method
JP4802947B2 (en) Performance method determining device and program
JP3656584B2 (en) Performance data processing apparatus and program
JPH01288900A (en) Singing voice accompanying device
JP3641955B2 (en) Music data generator and recording medium therefor
JP3654227B2 (en) Music data editing apparatus and program
JP3620396B2 (en) Information correction apparatus and medium storing information correction program
JP3812509B2 (en) Performance data processing method and tone signal synthesis method
JP4186802B2 (en) Automatic accompaniment generator and program
JP3837981B2 (en) Performance data creation method, automatic performance device and recording medium
JP3648783B2 (en) Performance data processing device
JP2502169B2 (en) Music synthesizer
JPH10254448A (en) Automatic accompaniment device and medium recorded with automatic accompaniment control program
JP5659501B2 (en) Electronic music apparatus and program
JP3750409B2 (en) Musical sound generator and recording medium on which musical sound generation processing program is recorded
JPH10171475A (en) Karaoke (accompaniment to recorded music) device
JP2541513B2 (en) Pitch data generator

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050510

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060306

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3783566

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090324

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100324

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110324

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110324

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120324

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130324

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140324

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees