JP3948425B2 - Performance data processing apparatus and program - Google Patents

Performance data processing apparatus and program Download PDF

Info

Publication number
JP3948425B2
JP3948425B2 JP2003077851A JP2003077851A JP3948425B2 JP 3948425 B2 JP3948425 B2 JP 3948425B2 JP 2003077851 A JP2003077851 A JP 2003077851A JP 2003077851 A JP2003077851 A JP 2003077851A JP 3948425 B2 JP3948425 B2 JP 3948425B2
Authority
JP
Japan
Prior art keywords
timing
performance data
volume
note
correlation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003077851A
Other languages
Japanese (ja)
Other versions
JP2004286999A (en
Inventor
明 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2003077851A priority Critical patent/JP3948425B2/en
Publication of JP2004286999A publication Critical patent/JP2004286999A/en
Application granted granted Critical
Publication of JP3948425B2 publication Critical patent/JP3948425B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、演奏データ処理装置に関し、より詳しくは、演奏データに対して自動的に音楽的表情を付与することのできる演奏データ処理装置に関する。
【0002】
【従来の技術】
自動演奏装置等で、音符の情報のみのMIDIデータ(ホワイトデータ)等の演奏データを再生すると機械的で無表情な演奏になってしまう。これを、より自然な、美しい、生々しい演奏にする為には、様々な音楽的表現や、楽器らしさを制御データとして演奏データに付け加えてやる必要がある。
【0003】
そのような音楽的表情の1つとして、ギター等の撥弦楽器の演奏テクニックであるストローク奏法というものがある。ギターのストローク奏法では、楽譜上において同時発音の和音として表記されるものでも、複数の弦を完全に同時にではなくある程度の時間差を持った順番ではじく為、各音(各弦)の音量や発音開始時間、発音時間に、ばらつきが生じる。
【0004】
上記のような、ギター等の弦楽器に特有のストローク奏法を模した表情付けを自動的に行う技術が提案されている。(例えば、特許文献1参照。)
【0005】
【特許文献1】
特開平2002−311952号公報
【0006】
【発明が解決しようとする課題】
上記従来技術によると、機械的な発音タイミングや音量の演奏データを編集して、ギター等のストローク奏法に対応した発音タイミングや音量を持った演奏データを自動的に生成することができるが、供給される演奏データに初めから音量に関して表情が付与されていた場合に、この音量的表情を生かした表情付けは、行われていなかった。
【0007】
本発明の目的は、供給される演奏データに付与されている音量に関する表情を生かして、適切なストローク奏法の表情を付与することができる演奏データ処理装置を提供することである。
【0008】
【課題を解決するための手段】
本発明の一観点によれば、演奏データ処理装置は、演奏データを供給する演奏データ供給手段と、前記演奏データに含まれる複数の音符イベントで構成される和音を抽出する抽出手段と、前記複数の音符イベントの全体の音量を検出する音量検出手段と、複数の音符イベントの全体の音量と発音タイミングの変更量との相関関係である第1の相関関係を記憶する変更特性記憶手段と、前記相関関係に基づき前記複数の音符イベントの発音タイミングをずらすように該発音タイミングを変更するタイミング変更手段とを有する。
【0009】
また、本発明の他の観点によれば、演奏データ処理装置は、演奏データを供給する演奏データ供給手段と、前記演奏データに含まれる複数の音符イベントで構成される和音を抽出する抽出手段と、前記複数の音符イベントのそれぞれの音量を検出する音量検出手段と、音符イベントの音量と発音タイミングの変更量との相関関係を記憶する変更特性記憶手段であって、該相関関係は次に発音される音符イベントの間隔を変更するものと、前記相関関係に基づき前記複数の音符イベントの発音タイミングをずらし、次の音符イベントとの発音開始の間隔が変化するように変更するタイミング変更手段とを有する。
【0010】
【発明の実施の形態】
図1は、本発明の実施例による演奏データ処理装置1のハードウェア構成を示すブロック図である。
【0011】
演奏データ処理装置1のバス10には、RAM11、ROM12、CPU13、検出回路15、表示回路18、外部記憶装置20、音源回路21、効果回路22、MIDIインターフェイス24、通信インターフェイス26が接続される。
【0012】
ユーザは、検出回路15に接続される設定操作子17を用いて、各種設定をすることができる。設定操作子17は、例えば、マウス、文字入力用キーボード、スイッチ、ジョイスティック、ジョグシャトル等、ユーザの入力に応じた信号を出力できるものならどのようなものでもよい。
【0013】
また、設定操作子17は、マウス等の他の操作子を用いて操作する表示部19上に表示されるソフトスイッチ等でもよい。
【0014】
表示回路18は、表示部19に接続され、各種情報を表示部19に表示することができる。
【0015】
外部記憶装置20には、各種パラメータ、各種データ、及び本実施例を実現するためのプログラム及び演奏データPD等を記憶することができる。
【0016】
RAM11は、フラグ、レジスタ又はバッファ、各種パラメータ等を記憶するCPU13のワーキングエリアを有する。ROM12には、各種パラメータ及び制御プログラム、又は本実施例を実現するためのプログラム等を記憶することができる。CPU13は、ROM12又は、外部記憶装置20に記憶されている制御プログラム等に従い、演算又は制御を行う。
【0017】
タイマ14は、CPU13に接続されており、基本クロック信号、割り込み処理タイミング等をCPU13に供給する。
【0018】
音源回路21は、外部記憶装置20等に記録された演奏データPD、演奏操作子16又はMIDIインターフェイス24に接続されたMIDI機器4等から供給されるMIDI信号等の演奏信号に応じて楽音信号を生成し、効果回路22を介して、サウンドシステム23に供給する。
【0019】
効果回路22は、音源回路21から供給されるデジタル形式の楽音信号に各種効果を与える。サウンドシステム23は、D/A変換器及びスピーカを含み、供給されるデジタル形式の楽音信号をアナログ形式に変換し、発音する。
【0020】
演奏操作子16は、検出回路15に接続され、ユーザの演奏動作に従い、演奏信号を供給する。演奏操作子16は、少なくとも、MIDI信号等の演奏信号を出力可能な操作子であればどのようなものでもよい。
【0021】
MIDIインターフェイス(MIDI I/F)24は、電子楽器、その他の楽器、音響機器、コンピュータ等に接続できるものであり、少なくともMIDI信号を送受信できるものである。MIDIインターフェイス24は、専用のMIDIインターフェイスに限らず、RS−232C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインターフェイスを用いて構成してもよい。この場合、MIDIメッセージ以外のデータをも同時に送受信するようにしてもよい。
【0022】
MIDI機器4は、MIDIインターフェイス24に接続される音響機器、楽器等である。ユーザは、このMIDI機器4を演奏(操作)することにより演奏信号の入力を行うこともできる。
【0023】
また、MIDI機器4は、演奏情報以外の各種データ及び各種設定を入力するための操作子としても用いることが出来る。
【0024】
通信インターフェイス26は、LAN(ローカルエリアネットワーク)やインターネット、電話回線等の通信ネットワーク3に接続可能であり、該通信ネットワーク3を介して、サーバコンピュータ2と接続することができる。 なお、通信インターフェイス26及び通信ネットワーク3は、有線のものに限らず無線でもよい。また双方を備えていてもよい。
【0025】
図2は、本実施例による演奏データPDのフォーマットを表す概念図である。
【0026】
演奏データPDは、先頭に記録される初期設定情報HCと、発音タイミングを小節、拍、時刻で表すタイミングデータと、各タイミング毎のイベントを表すイベントデータEVとを含んで構成されている。また、演奏データPDは複数のパートで構成することも出来る。
【0027】
初期設定情報HCは、各パート(トラック)の再生時の各種再生態様を設定する為のデータであり、例えば、音色設定データ、音量設定データ、テンポ設定データなどが含まれる。
【0028】
タイミングデータは、イベントデータEVで表される各種イベントを処理すべき時間を表すデータである。イベントの処理時間は、演奏開始からの絶対時間で表してもよいし、前のイベントからの経過時間である相対時間で表すようにしてもよい。本実施例では、タイミングデータは、小節数、該小節における拍数、該拍における時刻(クロック)のパラメータによりイベントの処理時間を表している。なお、1拍は、例えば、480クロックとする。
【0029】
イベントデータEVは、楽曲を再生させる為の各種イベントの内容を表すデータである。イベントには、ノートオンイベントとノートオフイベントの組合せである楽曲の発生に直接関係する音符を表す音符イベント(音符データ)NEと、ピッチチェンジイベント(ピッチベンドイベント)、テンポチェンジイベント、音色チェンジイベントなどの楽曲の再生態様などを設定するための設定イベントが含まれる。
【0030】
それぞれの音符イベントEVには、例えば、音高、発音長(ゲートタイム)、音量(ベロシティ)V等のパラメータが記録されている。音量Vは設定可能な最低音量を「1」とし最大音量を「127」としている。
【0031】
なお、図2に示す演奏データPDは、本実施例による演奏データ処理を適用する前のものであり、これをこのまま再生すると、音量Vは、1拍目と2拍目で異なるものの、各拍における和音の構成音の発音タイミングが完全に同一であるので、ギター等の弦楽器の演奏としては、不自然なものになる。
【0032】
なお、本実施例では、完全に同時に発音される複数の音符イベントだけでなく、発音タイミングがほぼ同時期である複数の音符イベントの組を和音としている。ほぼ同時期に発音される複数の音符イベントとは、再生された場合に音楽的に和音として考えられる時間内に発音される複数の音符イベントの組である。
【0033】
図3は、本発明の実施例による演奏データ処理装置1の機能を表すブロック図である。
【0034】
演奏データ処理装置1は、演奏データ供給部31、処理対象演奏データ抽出部32、音量検出部33、タイミング変更量決定部34、変更特性記憶部35、タイミング変更部36、演奏データ出力部37を含んで構成される。
【0035】
演奏データ供給部31は、ユーザが、例えば、設定操作子16等で選択する演奏データPDを、外部記憶装置20等から読み出すか、又は、通信ネットワーク3を介してサーバ2等から受信する。読み出された(受信した)演奏データPDは、後段の処理対象演奏データ抽出部32に供給される。
【0036】
処理対象演奏データ抽出部32は、供給された演奏データPDの中から、ストローク演奏に該当する個所(音楽的に和音として考えられる時間内に発音される複数の音符イベントの組)をサーチし、該個所の演奏データPD(複数の音符イベントEV及びそれらのタイミングデータ)を抽出して、音量検出部33及びタイミング変更部36に供給する。なお、ストローク演奏個所(処理対象個所)の検出は、自動的に行うものに限らず、ユーザが処理対象個所を指定してもよい。
【0037】
音量検出部33は、抽出された演奏データPDの音量V(例えばベロシティやボリューム、エクスプレッション等)を検出する。検出した音量Vは、タイミング変更量決定部34に供給される。
【0038】
タイミング変更量決定部34は、音量検出部33で検出された音量V(又は、後述する全体の音量TV)に基づいて、変更特性記憶部35に記憶されている変更特性を参照し、抽出された演奏データPDに含まれる複数の音符イベントEVのそれぞれのタイミングデータの変更量(以下、タイミング変更量と呼ぶ)を決定する。
【0039】
変更特性記憶部35は、音量Vに応じたタイミング変更量である変更特性を、例えば、テーブルや演算式等で記憶し、タイミング変更量決定部34に供給する。なお、変更特性については、後に図4を用いて詳述する。また、新たな変更特性をCD−ROM等の外部記憶媒体や、通信ネットワーク3を介してサーバ2から供給できるようにしてもよい。
【0040】
タイミング変更部36は、決定されたタイミング変更量に従って、抽出された演奏データPDに含まれる各音符イベントEVの発音開始タイミング(及び必要なら発音終了タイミングも)を変更する。
【0041】
発音開始タイミングの変更は、例えば、ギターのような弦楽器のダウンストローク演奏を想定した場合、最高音(1弦)の発音タイミングを遅らせ、2弦の発音タイミングは変更せず、3弦から6弦までの発音タイミングを早める等して行う。このように、発音順に従い、発音タイミングを早めたり、遅らせたりすることにより、タイミングの変更を行う。
【0042】
また、発音開始タイミングの変更に伴い、発音終了タイミング(例えば、ゲートタイム)を変更することが好ましい。例えば、音符イベントEVの発音開始タイミングを遅らせた場合に、発音終了タイミングを早めないと次の和音と発音時期が重なってしまう場合がある。また、音符イベントEVの発音開始タイミングを早くした場合に、発音終了タイミングを遅くしないと、該発音タイミングを早めた構成音のみが早く発音を終了してしまう場合がある。これを避けるためには、発音タイミングを遅らせた場合には、ほぼ同じぐらい発音終了タイミングを早めるとよい。また、発音開始タイミングを早めた場合には、同様に、ほぼ同じぐらい発音終了タイミングを遅くするとよい。
【0043】
演奏データ出力部37は、タイミングが変更され、ストローク演奏の表情が付与された演奏データPDを出力(音源回路21、効果回路22及びサウンドシステム23を介して楽音として発音、外部記憶装置20等に記憶、外部MIDI機器4等へ送信等)する。
【0044】
図4は、変更特性記憶部35に記憶される変更特性の例を表すグラフである。図中、横軸が同一和音を構成する複数の音符イベントEV(ストローク演奏に該当する個所)の全体の音量TVを示し、縦軸がストロークの速さ、すなわち、和音構成音のそれぞれに対応する音符イベントEVのタイミング変更量を示す。ここで、タイミング変更量とは、音符イベントEVと同一和音を構成する前後の音符イベントEVとの相対的な時間差を規定する値であり、例えば、タイミング変更量として、和音構成音の最低音の発音開始タイミングから最高音の発音開始タイミングまでの時間(ダウンストロークの場合)が記録されている場合、その時間を和音の構成音数n−1で割ることにより、各構成音間の時間差を求めることができる。
【0045】
又は、タイミング変更量として、和音を構成する各音符イベントEVのタイミングを変更するオフセット値等を記録しておいてもよい。この場合は、音符イベントEV間の時間差(ずれ)は、和音構成音中均一でなくてもよい。
【0046】
ここで、全体の音量TVは、例えば、和音を構成する全音符イベントEVの音量Vの単純平均、重み付け平均、一部音符イベントEVの音量Vの平均(例えば最大と最小の平均)、選択した一つの音符イベントEV(例えば最大、最小、中央値等)の音量Vなどである。
【0047】
自然楽器では、一般的に、音量が大きいほどストロークが速くなる傾向がある。これは、ストロークが速いと、弦をはじく際のエネルギーが大きくなるので、音量も大きくなるからである。よって、本実施例におけるタイミング変更特性も、音量が大きいほどストロークが速い(=タイミング変更量が小さい)ような特性としている。ただし、ストロークの速さにもある程度の限界があるので、速い方と遅い方で飽和するような特性としている。
【0048】
図4(A)は、曲線的に特性が変化させる場合の変更特性であり、このような曲線的変化の場合は、例えば、和音全体の音量TVとタイミング変更量との関係を変更特性テーブルとして、変更特性記憶部35に記憶する。
【0049】
図4(B)は、直線的に特性が変化させる場合の変更特性であり、このような直線的変化の場合は、例えば、和音全体の音量TVとタイミング変更量との関係を表す演算式として、変更特性記憶部35に記憶する。
【0050】
なお、人の演奏は上記のように一義的に決まっているわけではないので、変更特性は上記例に限らない。完全にリニアでもよいし、逆の特性(音量が大きいほどストローク速さは遅くなる)としてもよい。また、変更特性を複数記憶しておき、ユーザの指示や自動的(例えばランダム等)に何れかの特性を選択するようにしてもよい。また、同じ変更特性であっても、効き具合(タイミング変更量)を調整できるようにしてもよい(ユーザ指示或いは自動的)。
【0051】
なお、図4(A)及び図4(B)に示す変更特性は、必要に応じて、逆の変更特にすることもできる。すなわち、音量(TV)の増大に応じて、ストローク演奏時の発音開始タイミングのずれ量(L)を、徐々に大きくすることもできる。
【0052】
図5は、本実施例の演奏データ処理装置1により演奏データPDを処理する場合の例である。なお、この例のストローク演奏は、ダウンストロークによる演奏とする。図中、縦軸は、各音符イベントEVの音高を表し、横軸は、時間を表す。また、白抜きの丸は、各音符イベントEVを表す。各音符イベントEVを表す丸の下段のグラフは、上段の音符イベントで構成する和音の全体の音量TVを表す。
【0053】
図5(A)は、本実施例による処理前の演奏データPDを表す。同一和音を構成する各音符イベントEVが、縦方向に一直線に並んでいることから明らかなように、同一和音を構成する音符イベントEVの発音開始タイミングは、全て同一のものとなっている。下段の音量グラフを見ると、1拍目と3拍目の和音の全体の音量TVは、「大」であり、2拍目と4拍目の和音の全体の音量は、「小」であることがわかる。
【0054】
この図5(A)の演奏データPDを含む演奏データを、例えば、図1の外部記憶装置20に記憶しておき、図3の演奏データ供給部31により、処理対象データ抽出部32に供給する。処理対象データ抽出部32は、供給された演奏データから、図5(A)に示す4つの和音(音符イベントEV群)を検出し、音量検出部33は、該検出された4つの和音のそれぞれの全体音量TVを検出し、タイミング変更量決定部34に送出する。タイミング変更量決定部34は、検出された音量に基づき、変更特性記憶部35から供給される変更特性に基づき、4つの和音のタイミングデータを変更する。このとき、音量TVが「大」である1拍目と3拍目の和音は、タイミングの変更量が音量TVが「小」である2拍目と4拍目の和音よりも小さくなる。以上のようにして、処理された後の演奏データPDは、図5(B)に示すようになる。すなわち、音量VL>音量VSである時に、変更量LS<変更量LLが成り立つように和音を構成する音符イベントEVのタイミングが変更される。
【0055】
なお、以上の説明では、説明の便宜上、音量TVを「大」又は「小」としたが、実際には、音量TVは、例えば、1〜127の数値で表される。また、タイミング変更量も、説明の便宜上、「大」、「小」で表したが、これは、和音構成音の最初に発音されるべき音(ダウンストロークの場合は最低音、アップストロークの場合は、最高音)から、最後に発音されるべき音(ダウンストロークの場合は最高音、アップストロークの場合は最低音)までの時間差である。
【0056】
図6は、本実施例の変更特性の他の例及び他の例を適用した場合の演奏データPDを表すグラフである。
【0057】
ギター等の弦楽器のストローク演奏では、1つのストローク演奏の中でも、ストローク速さが変化することがある。例えば、ダウンストロークにおいて低音弦はゆっくり力強く弾き、高音弦に行くにしたがって速く軽く弾くといった演奏方法の場合である。このような演奏を模倣するためには、同一和音を構成する個々の音符イベントの音量Vに応じてストローク速さ(タイミング)を変更することが効果的である。
【0058】
図6(A)は、同一和音を構成する個々の音符イベントの音量Vに応じてタイミングを変更するための変更特性の例である。この例では、個々の音符イベントの音量Vが大きくなるに従い、次に発音されるべき音符イベントEV(ダウンストロークの場合は高音側、アップストロークの場合は低音側の音符イベントEV)との間隔(ずれ量)を大きくしている。
【0059】
図6(B)は、図6(A)に示す変更特性を適用して、演奏データPDを変更した場合の例である。この例では、低音(EV1)から高音(EV6)に向かって、音量(V1〜V6)が徐々に減少している。図6(A)に示す変更特性を適用することにより、音量(V1〜V6)の減少に応じて、ストローク演奏時の発音開始タイミングのずれ量(L1〜L5)も、徐々に小さくなる(ストロークが速くなる)。
【0060】
例えば、音符イベントEV1と、音符イベントEV2の間隔L1は、音符イベントEV1の音量V1が、音符イベントEV2の音量V2よりも大きいので、音符イベントEV2と音符イベントEV3との間隔L2よりも長くなっている。すなわち、V1>V2である時は、L1>L2が成り立つように、和音を構成する各音符イベントEVのタイミングが変更されている。
【0061】
なお、図6(A)に示す変更特性は、必要に応じて、逆の変更特にすることもできる。すなわち、音量(V1〜V6)の減少に応じて、ストローク演奏時の発音開始タイミングのずれ量(L1〜L5)を、徐々に大きくすることもできる。
【0062】
図7は、図4(A)と図6(A)に示す双方の変更特性を用いて演奏データPDを変更した場合の例を表すグラフである。
【0063】
この例では、図3の変更特性記憶部37に、図4(A)と図6(A)に示す双方の変更特性を記憶しておき、タイミング変更量決定部34で、双方の変更特性を参照してタイミング変更量を決定し、該決定した変更量に従い、タイミング変更部36で、各音符イベントのタイミングデータを変更した場合である。
【0064】
図に示すように、双方の和音ともに、ここの音符イベントEVの音量Vが、徐々に小さくなっているので、図6(A)に示す変更特性を適用することにより、それに対応して、各和音イベントEV間の間隔は、徐々に小さくなっている。例えば、2拍目の和音の音符イベントEV1の音量は、音符イベントEV3の音量よりも大きいので、間隔L1>間隔L3の関係になっている。
【0065】
また、同時に、1拍目の和音の全体音量TV1は、2拍目の和音の全体音量TV2よりも大きくなっている(TV1>TV2)、そこで、図4(A)に示す変更特性を適用することにより、これに対応して、1拍目の和音の最初に発音されるべき音符イベントEV(最低音)から、最後に発音されるべき音符イベントEV(最高音)の時間LT1が、2拍目の和音のそれ(LT2)よりも短くなっている(LT1<LT2)。
【0066】
以上のように、本発明の実施例によれば、演奏データ中の和音を構成する音符イベントEVを検出し、同一和音を構成する音符イベントEVの発音開始タイミング及び発音終了タイミングを変更することができる。
【0067】
その際に、同一和音を構成する音符イベントEVの全体音量TVに基づき、各音符イベントEVの発音開始間隔を変更することができる。すなわち、同一和音を構成する音符イベントEVの最初に発音するべき音符イベントEVの発音開始タイミングから、最後に発音するべき音符イベントの発音開始タイミング(又は発音終了タイミング)までの時間を、該和音の全体音量に応じて変更することができる。よって、演奏データに、適切なストローク奏法の表情を自動的に付与することができる。
【0068】
また、本発明の実施例によれば、同一和音を構成する音符イベントEVの個々の音量Vに基づき、各音符イベントEVの発音開始間隔を変更することができる。すなわち、同一和音を構成する音符イベントEVの発音開始タイミングと、次に発音するべき音符イベントの発音開始タイミング(又は発音終了タイミング)との間の時間を、個々の音符イベントEVの音量Vに応じて変更することができる。よって、演奏データに、適切なストローク奏法の表情を自動的に付与することができる。
【0069】
なお、上述の実施例では、ダウンストローク奏法の場合のみについて説明したが、本発明は、アップストローク奏法にも適用することができる。この場合は、最初に発音開始するべき音は、同一和音構成音中の最高音になる。
【0070】
また、ギター等の弦楽器のストローク双方において、ダウンストローク奏法とアップストローク奏法が混在するオルタネート奏法があるが、このオルタネート奏法を再現する場合は、それぞれの奏法に適した変更特性を用意し、それぞれの変更特性でタイミング変更量と音量の相関関係を異ならせることが好ましい。
【0071】
なお、本実施例は、本実施例に対応するコンピュータプログラム等をインストールした市販のコンピュータ等によって、実施させるようにしてもよい。
【0072】
その場合には、本実施例に対応するコンピュータプログラム等を、CD−ROMやフロッピー(登録商標)ディスク等の、コンピュータが読み込むことが出来る記憶媒体に記憶させた状態で、ユーザに提供してもよい。
【0073】
以上実施例に沿って本発明を説明したが、本発明はこれらに制限されるものではない。例えば、種々の変更、改良、組合せ等が可能なことは当業者に自明であろう。
【0074】
【発明の効果】
以上説明したように、本発明によれば、供給される演奏データに付与されている音量に関する表情を生かして、適切なストローク奏法の表情を付与することができる演奏データ処理装置を提供することができる。
【図面の簡単な説明】
【図1】 本発明の実施例による演奏データ処理装置1のハードウェア構成を示すブロック図である。
【図2】 本実施例による演奏データPDのフォーマットを表す概念図である。
【図3】 本発明の実施例による演奏データ処理装置1の機能を表すブロック図である。
【図4】 変更特性記憶部35に記憶される変更特性の例を表すグラフである。
【図5】 本実施例の演奏データ処理装置1により演奏データPDを処理する場合の例である。
【図6】 本実施例の変更特性の他の例及び他の例を適用した場合の演奏データPDを表すグラフである。
【図7】 図4(A)と図6(A)に示す双方の変更特性を用いて演奏データPDを変更した場合の例を表すグラフである。
【符号の説明】
1…演奏データ処理装置、2…サーバコンピュータ、3…通信ネットワーク、4…MIDI機器、10…バス、11…RAM、12…ROM、13…CPU、14…タイマ、15…検出回路、16…設定操作子、17…演奏操作子、18…表示回路、19…表示部、20…外部記憶装置、21…音源回路、22…効果回路、23…サウンドシステム、24…MIDI I/F、26…通信I/F、31…演奏データ供給部、32…処理対象演奏データ抽出部、33…音量検出部、34…タイミング変更量決定部、35…変更特性記憶部、36…タイミング変更部、37…演奏データ出力部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a performance data processing apparatus, and more particularly to a performance data processing apparatus capable of automatically giving musical expressions to performance data.
[0002]
[Prior art]
If performance data such as MIDI data (white data) including only note information is reproduced by an automatic performance device or the like, a mechanical and expressionless performance is obtained. In order to make this a more natural, beautiful, and lively performance, it is necessary to add various musical expressions and instrumentality as control data to the performance data.
[0003]
One such musical expression is a stroke technique, which is a technique for playing plucked strings such as guitars. In guitar strokes, even if the chords are shown as simultaneous chords on the score, the volume and pronunciation of each sound (each string) is used to repel multiple strings in an order that has a certain time difference rather than completely simultaneously. Variations occur in start time and pronunciation time.
[0004]
There has been proposed a technique for automatically performing facial expression imitating the stroke performance method peculiar to stringed instruments such as guitars as described above. (For example, refer to Patent Document 1.)
[0005]
[Patent Document 1]
Japanese Patent Application Laid-Open No. 2002-319552
[Problems to be solved by the invention]
According to the above-mentioned conventional technology, performance data with mechanical sounding timing and volume can be edited and performance data with sounding timing and volume corresponding to stroke performance such as guitar can be automatically generated. When the performance data was given an expression with respect to the volume from the beginning, the expression using the volume-like expression was not performed.
[0007]
An object of the present invention is to provide a performance data processing apparatus that can apply an expression of an appropriate stroke performance method by making use of an expression relating to a volume given to supplied performance data.
[0008]
[Means for Solving the Problems]
According to an aspect of the present invention, a performance data processing apparatus includes performance data supply means for supplying performance data, extraction means for extracting chords composed of a plurality of note events included in the performance data, and the plurality of performance data processing apparatuses. Volume detection means for detecting the overall volume of the note event, change characteristic storage means for storing a first correlation which is a correlation between the overall volume of the plurality of note events and the change amount of the pronunciation timing; Timing changing means for changing the sounding timing so as to shift the sounding timing between the plurality of note events based on the correlation.
[0009]
According to another aspect of the present invention, a performance data processing apparatus includes performance data supply means for supplying performance data, and extraction means for extracting chords composed of a plurality of note events included in the performance data. Volume detection means for detecting the volume of each of the plurality of note events, and change characteristic storage means for storing a correlation between the volume of the note event and the amount of change in the sounding timing, wherein the correlation is A timing change unit that shifts the sound generation timing of the plurality of note events based on the correlation and changes the sound generation start interval with the next note event. Have.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram showing a hardware configuration of a performance data processing apparatus 1 according to an embodiment of the present invention.
[0011]
A RAM 11, ROM 12, CPU 13, detection circuit 15, display circuit 18, external storage device 20, tone generator circuit 21, effect circuit 22, MIDI interface 24, and communication interface 26 are connected to the bus 10 of the performance data processing apparatus 1.
[0012]
The user can make various settings using the setting operator 17 connected to the detection circuit 15. The setting operator 17 may be any device that can output a signal corresponding to a user input, such as a mouse, a character input keyboard, a switch, a joystick, or a jog shuttle.
[0013]
The setting operator 17 may be a soft switch or the like displayed on the display unit 19 that is operated using another operator such as a mouse.
[0014]
The display circuit 18 is connected to the display unit 19 and can display various information on the display unit 19.
[0015]
The external storage device 20 can store various parameters, various data, a program for realizing the present embodiment, performance data PD, and the like.
[0016]
The RAM 11 has a working area for the CPU 13 that stores flags, registers or buffers, various parameters, and the like. The ROM 12 can store various parameters and control programs, a program for realizing the present embodiment, and the like. The CPU 13 performs calculation or control according to a control program or the like stored in the ROM 12 or the external storage device 20.
[0017]
The timer 14 is connected to the CPU 13 and supplies a basic clock signal, interrupt processing timing, and the like to the CPU 13.
[0018]
The tone generator circuit 21 outputs musical tone signals in accordance with performance signals such as MIDI data supplied from the performance data PD recorded on the external storage device 20 or the like, the MIDI operation device 16 or the MIDI device 4 connected to the MIDI interface 24, or the like. Generated and supplied to the sound system 23 via the effect circuit 22.
[0019]
The effect circuit 22 gives various effects to the digital musical tone signal supplied from the sound source circuit 21. The sound system 23 includes a D / A converter and a speaker, converts a digital musical tone signal supplied to an analog format, and generates a sound.
[0020]
The performance operator 16 is connected to the detection circuit 15 and supplies a performance signal in accordance with the performance operation of the user. The performance operator 16 may be any operator that can output at least a performance signal such as a MIDI signal.
[0021]
The MIDI interface (MIDI I / F) 24 can be connected to an electronic musical instrument, other musical instruments, audio equipment, a computer, and the like, and can transmit and receive at least a MIDI signal. The MIDI interface 24 is not limited to a dedicated MIDI interface, and may be configured using a general-purpose interface such as RS-232C, USB (Universal Serial Bus), IEEE 1394 (I-Triple 1394). In this case, data other than MIDI messages may be transmitted and received simultaneously.
[0022]
The MIDI device 4 is an acoustic device, a musical instrument or the like connected to the MIDI interface 24. The user can also input a performance signal by playing (manipulating) the MIDI device 4.
[0023]
The MIDI device 4 can also be used as an operator for inputting various data other than performance information and various settings.
[0024]
The communication interface 26 can be connected to a communication network 3 such as a LAN (local area network), the Internet, or a telephone line, and can be connected to the server computer 2 via the communication network 3. The communication interface 26 and the communication network 3 are not limited to wired ones and may be wireless. Moreover, you may provide both.
[0025]
FIG. 2 is a conceptual diagram showing the format of the performance data PD according to this embodiment.
[0026]
The performance data PD includes initial setting information HC recorded at the head, timing data representing the sound generation timing by measures, beats, and time, and event data EV representing an event at each timing. The performance data PD can be composed of a plurality of parts.
[0027]
The initial setting information HC is data for setting various reproduction modes during reproduction of each part (track), and includes, for example, tone color setting data, volume setting data, tempo setting data, and the like.
[0028]
The timing data is data representing time for processing various events represented by the event data EV. The event processing time may be expressed as an absolute time from the start of performance, or may be expressed as a relative time that is an elapsed time from the previous event. In this embodiment, the timing data represents the event processing time by parameters of the number of bars, the number of beats in the bar, and the time (clock) in the beat. One beat is 480 clocks, for example.
[0029]
The event data EV is data representing the contents of various events for playing back music. Events include note events (note data) NE that represent notes that are directly related to the occurrence of music that is a combination of note-on and note-off events, pitch change events (pitch bend events), tempo change events, tone change events, etc. A setting event for setting the playback mode of the music is included.
[0030]
In each note event EV, for example, parameters such as pitch, tone length (gate time), volume (velocity) V, and the like are recorded. For the volume V, the minimum volume that can be set is “1”, and the maximum volume is “127”.
[0031]
Note that the performance data PD shown in FIG. 2 is the data before the performance data processing according to this embodiment is applied. If the performance data PD is reproduced as it is, the volume V differs between the first beat and the second beat. Since the sound generation timing of the constituent sounds of the chords is completely the same, it becomes unnatural as a performance of a stringed instrument such as a guitar.
[0032]
In the present embodiment, not only a plurality of note events that are sounded completely at the same time, but also a set of a plurality of note events whose sounding timings are almost the same period is used as a chord. A plurality of note events that are sounded at substantially the same time period are a set of a plurality of note events that are sounded within a time that is considered as a chord musically when played.
[0033]
FIG. 3 is a block diagram showing functions of the performance data processing apparatus 1 according to the embodiment of the present invention.
[0034]
The performance data processing apparatus 1 includes a performance data supply unit 31, a processing target performance data extraction unit 32, a volume detection unit 33, a timing change amount determination unit 34, a change characteristic storage unit 35, a timing change unit 36, and a performance data output unit 37. Consists of including.
[0035]
The performance data supply unit 31 reads, for example, performance data PD selected by the user using the setting operator 16 from the external storage device 20 or the like, or receives it from the server 2 or the like via the communication network 3. The read (received) performance data PD is supplied to the subsequent processing target performance data extraction unit 32.
[0036]
The processing target performance data extraction unit 32 searches the supplied performance data PD for a portion corresponding to the stroke performance (a set of a plurality of note events that are generated within a time that is musically considered as a chord) The performance data PD (a plurality of note events EV and their timing data) is extracted and supplied to the volume detection unit 33 and the timing change unit 36. The detection of the stroke performance location (processing target location) is not limited to automatic detection, and the user may specify the processing performance location.
[0037]
The volume detection unit 33 detects the volume V (for example, velocity, volume, expression, etc.) of the extracted performance data PD. The detected volume V is supplied to the timing change amount determination unit 34.
[0038]
The timing change amount determination unit 34 is extracted by referring to the change characteristic stored in the change characteristic storage unit 35 based on the volume V (or the entire volume TV described later) detected by the volume detection unit 33. The amount of change of timing data of each of the plurality of note events EV included in the performance data PD (hereinafter referred to as timing change amount) is determined.
[0039]
The change characteristic storage unit 35 stores a change characteristic that is a timing change amount according to the volume V, for example, in a table or an arithmetic expression, and supplies the change characteristic to the timing change amount determination unit 34. The change characteristics will be described in detail later with reference to FIG. Further, new change characteristics may be supplied from the server 2 via an external storage medium such as a CD-ROM or the communication network 3.
[0040]
The timing changing unit 36 changes the sounding start timing (and the sounding end timing if necessary) of each note event EV included in the extracted performance data PD according to the determined timing change amount.
[0041]
For example, when the down stroke performance of a stringed instrument such as a guitar is assumed, the sounding start timing is delayed by delaying the sounding timing of the highest tone (1st string), without changing the sounding timing of the 2nd string. This is done by accelerating the pronunciation timing. In this way, the timing is changed by advancing or delaying the sound generation timing according to the sound generation order.
[0042]
Further, it is preferable to change the sound generation end timing (for example, gate time) with the change of the sound generation start timing. For example, when the sounding start timing of the note event EV is delayed, the next chord and the sounding time may overlap unless the sounding end timing is advanced. In addition, when the sounding start timing of the note event EV is advanced, if the sounding end timing is not delayed, only the constituent sound whose sounding timing is advanced may end the sounding earlier. In order to avoid this, if the sound generation timing is delayed, the sound generation end timing should be advanced approximately the same. Similarly, when the sound generation start timing is advanced, the sound generation end timing may be delayed by approximately the same amount.
[0043]
The performance data output unit 37 outputs the performance data PD to which the timing is changed and the expression of the stroke performance is given (sound as musical sound via the sound source circuit 21, the effect circuit 22 and the sound system 23, and is output to the external storage device 20 and the like. Storage, transmission to the external MIDI device 4 or the like).
[0044]
FIG. 4 is a graph showing an example of the change characteristic stored in the change characteristic storage unit 35. In the figure, the horizontal axis represents the overall volume TV of a plurality of note events EV (location corresponding to stroke performance) constituting the same chord, and the vertical axis corresponds to the speed of the stroke, that is, each of the chord constituent sounds. The timing change amount of the note event EV is shown. Here, the timing change amount is a value that defines a relative time difference between the note event EV and the preceding and subsequent note events EV that make up the same chord. For example, as the timing change amount, When the time from the sounding start timing to the sounding start timing of the highest sound is recorded (in the case of a down stroke), the time difference between the constituent sounds is obtained by dividing the time by the number of constituent sounds n-1 of the chord. be able to.
[0045]
Alternatively, an offset value or the like for changing the timing of each note event EV constituting the chord may be recorded as the timing change amount. In this case, the time difference (shift) between the note events EV may not be uniform among the chord constituent sounds.
[0046]
Here, the entire volume TV is selected, for example, a simple average of the volume V of all note events EV constituting the chord, a weighted average, an average of the volume V of the partial note events EV (for example, the maximum and minimum average), or the like. The volume V of one note event EV (for example, maximum, minimum, median, etc.).
[0047]
In a natural musical instrument, generally, the stroke tends to be faster as the volume increases. This is because, when the stroke is fast, the energy for flipping the string increases, so that the volume increases. Therefore, the timing change characteristic in this embodiment is also a characteristic that the stroke is faster (= the timing change amount is smaller) as the volume is larger. However, since there is a certain limit to the speed of the stroke, the characteristics are such that it is saturated at the faster and slower speed.
[0048]
FIG. 4A shows a change characteristic when the characteristic is changed in a curve. In the case of such a curve change, for example, the relationship between the volume TV of the entire chord and the timing change amount is used as the change characteristic table. And stored in the change characteristic storage unit 35.
[0049]
FIG. 4B shows a change characteristic when the characteristic is linearly changed. In the case of such a linear change, for example, as an arithmetic expression representing the relationship between the volume TV of the entire chord and the timing change amount. And stored in the change characteristic storage unit 35.
[0050]
In addition, since a person's performance is not decided uniquely as mentioned above, a change characteristic is not restricted to the said example. It may be completely linear, or may have the opposite characteristic (the stroke speed decreases as the volume increases). A plurality of change characteristics may be stored, and any of the characteristics may be selected by a user instruction or automatically (for example, at random). Moreover, even if the change characteristics are the same, the effect level (timing change amount) may be adjusted (user instruction or automatically).
[0051]
It should be noted that the change characteristics shown in FIGS. 4A and 4B can be changed in reverse, as necessary. That is, as the volume (TV) increases, the deviation amount (L) of the sound generation start timing during the stroke performance can be gradually increased.
[0052]
FIG. 5 shows an example in which performance data PD is processed by the performance data processing apparatus 1 of the present embodiment. The stroke performance in this example is a performance by a down stroke. In the figure, the vertical axis represents the pitch of each note event EV, and the horizontal axis represents time. A white circle represents each note event EV. The lower graph of each circle representing each note event EV represents the overall volume TV of chords composed of the upper note events.
[0053]
FIG. 5A shows performance data PD before processing according to this embodiment. As is clear from the fact that the note events EV constituting the same chord are arranged in a straight line in the vertical direction, the sounding start timings of the note events EV constituting the same chord are all the same. Looking at the lower volume graph, the overall volume TV of the 1st and 3rd chords is “High”, and the overall volume of the 2nd and 4th chords is “Low”. I understand that.
[0054]
The performance data including the performance data PD in FIG. 5A is stored in, for example, the external storage device 20 in FIG. 1, and is supplied to the processing target data extraction unit 32 by the performance data supply unit 31 in FIG. . The processing target data extraction unit 32 detects four chords (note event EV group) shown in FIG. 5A from the supplied performance data, and the volume detection unit 33 detects each of the four chords detected. Are detected and sent to the timing change amount determination unit 34. The timing change amount determination unit 34 changes the timing data of the four chords based on the change characteristic supplied from the change characteristic storage unit 35 based on the detected volume. At this time, the chords of the first beat and the third beat whose volume TV is “high” are smaller than the chords of the second beat and the fourth beat whose timing change amount is “small”. The performance data PD processed as described above is as shown in FIG. That is, when the volume VL> the volume VS, the timing of the note event EV composing the chord is changed so that the change amount LS <the change amount LL.
[0055]
In the above description, for convenience of explanation, the volume TV is set to “large” or “small”, but actually, the volume TV is represented by a numerical value of 1 to 127, for example. In addition, the timing change amount is also expressed as “large” or “small” for convenience of explanation, but this is the sound that should be pronounced at the beginning of the chord component sound (minimum sound in the case of down stroke, and in the case of up stroke) Is the time difference from the highest note) to the last note to be pronounced (the highest note in the case of a downstroke, the lowest note in the case of an upstroke).
[0056]
FIG. 6 is a graph showing performance data PD when another example of the change characteristic of this embodiment and another example are applied.
[0057]
In stroke performance of a stringed instrument such as a guitar, the stroke speed may change even during one stroke performance. For example, in the case of a performance method in which a low tone string is played slowly and strongly in the down stroke, and is played quickly and lightly as it goes to a high tone string. In order to imitate such a performance, it is effective to change the stroke speed (timing) according to the volume V of the individual note events constituting the same chord.
[0058]
FIG. 6A shows an example of a change characteristic for changing the timing according to the volume V of individual note events constituting the same chord. In this example, as the volume V of each note event increases, the interval between the note event EV to be sounded next (the note event EV on the high note side in the case of the down stroke and the low note side EV in the case of the up stroke) ( (Shift amount) is increased.
[0059]
FIG. 6B shows an example in which the performance data PD is changed by applying the change characteristic shown in FIG. In this example, the volume (V1 to V6) gradually decreases from the low sound (EV1) to the high sound (EV6). By applying the change characteristic shown in FIG. 6A, the deviation amount (L1 to L5) of the sound generation start timing during the performance of the stroke is gradually reduced as the volume (V1 to V6) decreases (stroke). Will be faster).
[0060]
For example, the interval L1 between the note event EV1 and the note event EV2 is longer than the interval L2 between the note event EV2 and the note event EV3 because the volume V1 of the note event EV1 is larger than the volume V2 of the note event EV2. Yes. That is, when V1> V2, the timing of each note event EV constituting the chord is changed so that L1> L2 holds.
[0061]
Note that the change characteristics shown in FIG. 6 (A) can be changed in the opposite direction as needed. That is, according to the decrease in volume (V1 to V6), the deviation amount (L1 to L5) of the sound generation start timing during the stroke performance can be gradually increased.
[0062]
FIG. 7 is a graph showing an example in which the performance data PD is changed using both of the change characteristics shown in FIGS. 4 (A) and 6 (A).
[0063]
In this example, both of the change characteristics shown in FIGS. 4A and 6A are stored in the change characteristic storage unit 37 of FIG. 3, and both of the change characteristics are stored in the timing change amount determination unit 34. This is a case where the timing change amount is determined by referring to the timing change unit 36 and the timing data of each note event is changed according to the determined change amount.
[0064]
As shown in the figure, the volume V of the note event EV here is gradually reduced for both chords. Therefore, by applying the change characteristic shown in FIG. The interval between chord events EV is gradually reduced. For example, since the volume of the note event EV1 of the second beat chord is larger than the volume of the note event EV3, the relationship of interval L1> interval L3 is established.
[0065]
At the same time, the overall sound volume TV1 of the first beat chord is larger than the overall sound volume TV2 of the second beat chord (TV1> TV2). Therefore, the change characteristic shown in FIG. 4A is applied. Correspondingly, the time LT1 from the note event EV (lowest note) to be pronounced first to the last note event EV (highest note) of the first beat chord is 2 beats. It is shorter than that of the chord of the eye (LT2) (LT1 <LT2).
[0066]
As described above, according to the embodiment of the present invention, it is possible to detect the note event EV constituting the chord in the performance data and change the sounding start timing and the sounding end timing of the note event EV constituting the same chord. it can.
[0067]
At that time, the sound generation start interval of each note event EV can be changed based on the overall volume TV of the note events EV constituting the same chord. That is, the time from the sounding start timing of the note event EV to be pronounced first to the sounding start timing (or sounding end timing) of the note event to be sounded last is calculated as the time of the chord. It can be changed according to the overall volume. Therefore, it is possible to automatically give an appropriate stroke performance expression to the performance data.
[0068]
Further, according to the embodiment of the present invention, the sound generation start interval of each note event EV can be changed based on the individual volume V of the note event EV that constitutes the same chord. That is, the time between the sounding start timing of the note event EV constituting the same chord and the sounding start timing (or sounding end timing) of the next note event to be sounded is determined according to the volume V of each note event EV. Can be changed. Therefore, it is possible to automatically give an appropriate stroke performance expression to the performance data.
[0069]
In the above-described embodiment, only the case of the down stroke performance method has been described, but the present invention can also be applied to the up stroke performance method. In this case, the sound that should start sounding first is the highest note in the same chord component.
[0070]
In addition, there is an alternate performance method in which both downstroke and upstroke performance methods are mixed in both strokes of stringed instruments such as guitars. It is preferable to change the correlation between the timing change amount and the sound volume in the change characteristics.
[0071]
In addition, you may make it implement a present Example by the commercially available computer etc. which installed the computer program etc. corresponding to a present Example.
[0072]
In that case, the computer program corresponding to the present embodiment may be provided to the user in a state in which the computer program is stored in a computer-readable storage medium such as a CD-ROM or a floppy (registered trademark) disk. Good.
[0073]
Although the present invention has been described with reference to the embodiments, the present invention is not limited thereto. It will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.
[0074]
【The invention's effect】
As described above, according to the present invention, it is possible to provide a performance data processing apparatus that can apply an expression of an appropriate stroke performance method by making use of a facial expression related to the volume given to supplied performance data. it can.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a hardware configuration of a performance data processing apparatus 1 according to an embodiment of the present invention.
FIG. 2 is a conceptual diagram showing a format of performance data PD according to the present embodiment.
FIG. 3 is a block diagram showing functions of the performance data processing apparatus 1 according to the embodiment of the present invention.
4 is a graph showing an example of a change characteristic stored in a change characteristic storage unit 35. FIG.
FIG. 5 shows an example in which performance data PD is processed by the performance data processing apparatus 1 of the present embodiment.
FIG. 6 is a graph showing performance data PD when another example and other examples of change characteristics of the present embodiment are applied.
7 is a graph showing an example in which performance data PD is changed using both of the change characteristics shown in FIGS. 4 (A) and 6 (A). FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Performance data processing apparatus, 2 ... Server computer, 3 ... Communication network, 4 ... MIDI apparatus, 10 ... Bus, 11 ... RAM, 12 ... ROM, 13 ... CPU, 14 ... Timer, 15 ... Detection circuit, 16 ... Setting Operation unit, 17 ... Performance operation unit, 18 ... Display circuit, 19 ... Display unit, 20 ... External storage device, 21 ... Sound source circuit, 22 ... Effect circuit, 23 ... Sound system, 24 ... MIDI I / F, 26 ... Communication I / F, 31 ... performance data supply unit, 32 ... processing target performance data extraction unit, 33 ... volume detection unit, 34 ... timing change amount determination unit, 35 ... change characteristic storage unit, 36 ... timing change unit, 37 ... performance Data output section

Claims (6)

演奏データを供給する演奏データ供給手段と、
前記演奏データに含まれる複数の音符イベントで構成される和音を抽出する抽出手段と、
前記複数の音符イベントの全体の音量を検出する音量検出手段と、
複数の音符イベントの全体の音量と発音タイミングの変更量との相関関係である第1の相関関係を記憶する変更特性記憶手段と、
前記相関関係に基づき前記複数の音符イベントの発音タイミングをずらすように該発音タイミングを変更するタイミング変更手段と
を有する演奏データ処理装置。
Performance data supply means for supplying performance data;
Extracting means for extracting a chord composed of a plurality of note events included in the performance data;
Volume detection means for detecting the overall volume of the plurality of note events;
Change characteristic storage means for storing a first correlation that is a correlation between the overall volume of a plurality of note events and the amount of change in pronunciation timing;
A performance data processing apparatus comprising timing change means for changing the sounding timing so as to shift the sounding timing between the plurality of note events based on the correlation.
前記変更特性記憶手段は、さらに音符イベントの音量と発音タイミングの変更量との相関関係である第2の相関関係を記憶し、The change characteristic storage means further stores a second correlation which is a correlation between the volume of the note event and the change amount of the sounding timing,
タイミング変更手段は、さらに第2の相関関係に基づき前記複数の音符イベントの発音タイミングを変更することを特徴とする請求項1記載の演奏データ処理装置。2. The performance data processing apparatus according to claim 1, wherein the timing changing means further changes the sound generation timing of the plurality of note events based on the second correlation.
演奏データを供給する演奏データ供給手段と、
前記演奏データに含まれる複数の音符イベントで構成される和音を抽出する抽出手段と、
前記複数の音符イベントのそれぞれの音量を検出する音量検出手段と、
音符イベントの音量と発音タイミングの変更量との相関関係を記憶する変更特性記憶手段であって、該相関関係は次に発音される音符イベントの間隔を変更するものと、
前記相関関係に基づき前記複数の音符イベントの発音タイミングをずらし、次の音符イベントとの発音開始の間隔が変化するように変更するタイミング変更手段と
を有する演奏データ処理装置。
Performance data supply means for supplying performance data;
Extracting means for extracting a chord composed of a plurality of note events included in the performance data;
Volume detecting means for detecting the volume of each of the plurality of note events;
Change characteristic storage means for storing the correlation between the volume of the note event and the amount of change in the sounding timing, the correlation changing the interval between the note events to be sounded next ;
A performance data processing apparatus comprising: timing changing means for shifting the sound generation timing of the plurality of note events based on the correlation and changing the sound generation start interval with the next note event .
演奏データを供給する演奏データ供給手順と、
前記演奏データに含まれる複数の音符イベントで構成される和音を抽出する抽出手順と、
前記複数の音符イベントの全体の音量を検出する音量検出手順と、
複数の音符イベントの全体の音量と発音タイミングの変更量との相関関係である第1の相関関係を供給する変更特性供給手順と、
前記相関関係に基づき前記複数の音符イベントの発音タイミングをずらすように該発音タイミングを変更するタイミング変更手順と
を有する演奏データ処理をコンピュータに実行させるためのプログラム。
Performance data supply procedure for supplying performance data;
An extraction procedure for extracting a chord composed of a plurality of note events included in the performance data;
A volume detection procedure for detecting the overall volume of the plurality of note events;
A change characteristic supply procedure for supplying a first correlation which is a correlation between the overall volume of the plurality of note events and the change amount of the sound generation timing;
A program for causing a computer to execute performance data processing including a timing change procedure for changing the sound generation timing so as to shift the sound generation timing of the plurality of note events based on the correlation.
前記変更特性供給手順は、さらに音符イベントの音量と発音タイミングの変更量との相関関係である第2の相関関係を供給し、
タイミング変更手順は、さらに第2の相関関係に基づき前記複数の音符イベントの発音タイミングを変更することを特徴とする請求項4記載のプログラム。
The change characteristic supply procedure further supplies a second correlation which is a correlation between the volume of the note event and the amount of change in the sounding timing;
5. The program according to claim 4, wherein the timing changing procedure further changes the sound generation timing of the plurality of note events based on the second correlation.
演奏データを供給する演奏データ供給手順と、
前記演奏データに含まれる複数の音符イベントで構成される和音を抽出する抽出手順と、
前記複数の音符イベントのそれぞれの音量を検出する音量検出手順と、
音符イベントの音量と発音タイミングの変更量との相関関係を供給する変更特性供給手順であって、該相関関係は次に発音される音符イベントの間隔を変更するものと、
前記相関関係に基づき前記複数の音符イベントの発音タイミングをずらし、次の音符イベントとの発音開始の間隔が変化するように変更するタイミング変更手順と
を有する演奏データ処理をコンピュータに実行させるためのプログラム。
Performance data supply procedure for supplying performance data;
An extraction procedure for extracting a chord composed of a plurality of note events included in the performance data;
A volume detection procedure for detecting the volume of each of the plurality of note events;
A change characteristic supplying procedure for supplying a correlation between the volume of the note event and the amount of change in the sounding timing, the correlation changing the interval between the note events to be sounded next ;
A program for causing a computer to execute performance data processing having a timing change procedure for shifting the sound generation timing of the plurality of note events based on the correlation and changing the sound generation start interval with the next note event. .
JP2003077851A 2003-03-20 2003-03-20 Performance data processing apparatus and program Expired - Fee Related JP3948425B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003077851A JP3948425B2 (en) 2003-03-20 2003-03-20 Performance data processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003077851A JP3948425B2 (en) 2003-03-20 2003-03-20 Performance data processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2004286999A JP2004286999A (en) 2004-10-14
JP3948425B2 true JP3948425B2 (en) 2007-07-25

Family

ID=33292501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003077851A Expired - Fee Related JP3948425B2 (en) 2003-03-20 2003-03-20 Performance data processing apparatus and program

Country Status (1)

Country Link
JP (1) JP3948425B2 (en)

Also Published As

Publication number Publication date
JP2004286999A (en) 2004-10-14

Similar Documents

Publication Publication Date Title
US6703549B1 (en) Performance data generating apparatus and method and storage medium
JP3975772B2 (en) Waveform generating apparatus and method
JP2001175263A (en) Device and method for generating automatic accompaniment pattern
US8314320B2 (en) Automatic accompanying apparatus and computer readable storing medium
JPH11339060A (en) Musical sound and image generating device
JP3601371B2 (en) Waveform generation method and apparatus
JP3654079B2 (en) Waveform generation method and apparatus
JP3915807B2 (en) Automatic performance determination device and program
JP3654080B2 (en) Waveform generation method and apparatus
JP3654082B2 (en) Waveform generation method and apparatus
JP3760833B2 (en) Karaoke equipment
JP4407473B2 (en) Performance method determining device and program
JP3654084B2 (en) Waveform generation method and apparatus
JP3948425B2 (en) Performance data processing apparatus and program
CN113838446B (en) Electronic musical instrument, accompaniment sound instruction method, and accompaniment sound automatic generation device
JP7327434B2 (en) Program, method, information processing device, and performance data display system
JP7331887B2 (en) Program, method, information processing device, and image display system
JP2002268637A (en) Meter deciding apparatus and program
JP4821558B2 (en) Musical sound synthesizer and program
JP2016057389A (en) Chord determination device and chord determination program
JP2526032Y2 (en) Electronic musical instrument
JP3933161B2 (en) Waveform generation method and apparatus
JP2002311950A (en) Device, method and program for imparting expression to music data
JP4007374B2 (en) Waveform generation method and apparatus
JP3933162B2 (en) Waveform generation method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070409

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110427

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120427

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130427

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140427

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees