JP3948425B2 - Performance data processing apparatus and program - Google Patents
Performance data processing apparatus and program Download PDFInfo
- Publication number
- JP3948425B2 JP3948425B2 JP2003077851A JP2003077851A JP3948425B2 JP 3948425 B2 JP3948425 B2 JP 3948425B2 JP 2003077851 A JP2003077851 A JP 2003077851A JP 2003077851 A JP2003077851 A JP 2003077851A JP 3948425 B2 JP3948425 B2 JP 3948425B2
- Authority
- JP
- Japan
- Prior art keywords
- timing
- performance data
- volume
- note
- correlation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、演奏データ処理装置に関し、より詳しくは、演奏データに対して自動的に音楽的表情を付与することのできる演奏データ処理装置に関する。
【0002】
【従来の技術】
自動演奏装置等で、音符の情報のみのMIDIデータ(ホワイトデータ)等の演奏データを再生すると機械的で無表情な演奏になってしまう。これを、より自然な、美しい、生々しい演奏にする為には、様々な音楽的表現や、楽器らしさを制御データとして演奏データに付け加えてやる必要がある。
【0003】
そのような音楽的表情の1つとして、ギター等の撥弦楽器の演奏テクニックであるストローク奏法というものがある。ギターのストローク奏法では、楽譜上において同時発音の和音として表記されるものでも、複数の弦を完全に同時にではなくある程度の時間差を持った順番ではじく為、各音(各弦)の音量や発音開始時間、発音時間に、ばらつきが生じる。
【0004】
上記のような、ギター等の弦楽器に特有のストローク奏法を模した表情付けを自動的に行う技術が提案されている。(例えば、特許文献1参照。)
【0005】
【特許文献1】
特開平2002−311952号公報
【0006】
【発明が解決しようとする課題】
上記従来技術によると、機械的な発音タイミングや音量の演奏データを編集して、ギター等のストローク奏法に対応した発音タイミングや音量を持った演奏データを自動的に生成することができるが、供給される演奏データに初めから音量に関して表情が付与されていた場合に、この音量的表情を生かした表情付けは、行われていなかった。
【0007】
本発明の目的は、供給される演奏データに付与されている音量に関する表情を生かして、適切なストローク奏法の表情を付与することができる演奏データ処理装置を提供することである。
【0008】
【課題を解決するための手段】
本発明の一観点によれば、演奏データ処理装置は、演奏データを供給する演奏データ供給手段と、前記演奏データに含まれる複数の音符イベントで構成される和音を抽出する抽出手段と、前記複数の音符イベントの全体の音量を検出する音量検出手段と、複数の音符イベントの全体の音量と発音タイミングの変更量との相関関係である第1の相関関係を記憶する変更特性記憶手段と、前記相関関係に基づき前記複数の音符イベント間の発音タイミングをずらすように該発音タイミングを変更するタイミング変更手段とを有する。
【0009】
また、本発明の他の観点によれば、演奏データ処理装置は、演奏データを供給する演奏データ供給手段と、前記演奏データに含まれる複数の音符イベントで構成される和音を抽出する抽出手段と、前記複数の音符イベントのそれぞれの音量を検出する音量検出手段と、音符イベントの音量と発音タイミングの変更量との相関関係を記憶する変更特性記憶手段であって、該相関関係は次に発音される音符イベントの間隔を変更するものと、前記相関関係に基づき前記複数の音符イベントの発音タイミングをずらし、次の音符イベントとの発音開始の間隔が変化するように変更するタイミング変更手段とを有する。
【0010】
【発明の実施の形態】
図1は、本発明の実施例による演奏データ処理装置1のハードウェア構成を示すブロック図である。
【0011】
演奏データ処理装置1のバス10には、RAM11、ROM12、CPU13、検出回路15、表示回路18、外部記憶装置20、音源回路21、効果回路22、MIDIインターフェイス24、通信インターフェイス26が接続される。
【0012】
ユーザは、検出回路15に接続される設定操作子17を用いて、各種設定をすることができる。設定操作子17は、例えば、マウス、文字入力用キーボード、スイッチ、ジョイスティック、ジョグシャトル等、ユーザの入力に応じた信号を出力できるものならどのようなものでもよい。
【0013】
また、設定操作子17は、マウス等の他の操作子を用いて操作する表示部19上に表示されるソフトスイッチ等でもよい。
【0014】
表示回路18は、表示部19に接続され、各種情報を表示部19に表示することができる。
【0015】
外部記憶装置20には、各種パラメータ、各種データ、及び本実施例を実現するためのプログラム及び演奏データPD等を記憶することができる。
【0016】
RAM11は、フラグ、レジスタ又はバッファ、各種パラメータ等を記憶するCPU13のワーキングエリアを有する。ROM12には、各種パラメータ及び制御プログラム、又は本実施例を実現するためのプログラム等を記憶することができる。CPU13は、ROM12又は、外部記憶装置20に記憶されている制御プログラム等に従い、演算又は制御を行う。
【0017】
タイマ14は、CPU13に接続されており、基本クロック信号、割り込み処理タイミング等をCPU13に供給する。
【0018】
音源回路21は、外部記憶装置20等に記録された演奏データPD、演奏操作子16又はMIDIインターフェイス24に接続されたMIDI機器4等から供給されるMIDI信号等の演奏信号に応じて楽音信号を生成し、効果回路22を介して、サウンドシステム23に供給する。
【0019】
効果回路22は、音源回路21から供給されるデジタル形式の楽音信号に各種効果を与える。サウンドシステム23は、D/A変換器及びスピーカを含み、供給されるデジタル形式の楽音信号をアナログ形式に変換し、発音する。
【0020】
演奏操作子16は、検出回路15に接続され、ユーザの演奏動作に従い、演奏信号を供給する。演奏操作子16は、少なくとも、MIDI信号等の演奏信号を出力可能な操作子であればどのようなものでもよい。
【0021】
MIDIインターフェイス(MIDI I/F)24は、電子楽器、その他の楽器、音響機器、コンピュータ等に接続できるものであり、少なくともMIDI信号を送受信できるものである。MIDIインターフェイス24は、専用のMIDIインターフェイスに限らず、RS−232C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインターフェイスを用いて構成してもよい。この場合、MIDIメッセージ以外のデータをも同時に送受信するようにしてもよい。
【0022】
MIDI機器4は、MIDIインターフェイス24に接続される音響機器、楽器等である。ユーザは、このMIDI機器4を演奏(操作)することにより演奏信号の入力を行うこともできる。
【0023】
また、MIDI機器4は、演奏情報以外の各種データ及び各種設定を入力するための操作子としても用いることが出来る。
【0024】
通信インターフェイス26は、LAN(ローカルエリアネットワーク)やインターネット、電話回線等の通信ネットワーク3に接続可能であり、該通信ネットワーク3を介して、サーバコンピュータ2と接続することができる。 なお、通信インターフェイス26及び通信ネットワーク3は、有線のものに限らず無線でもよい。また双方を備えていてもよい。
【0025】
図2は、本実施例による演奏データPDのフォーマットを表す概念図である。
【0026】
演奏データPDは、先頭に記録される初期設定情報HCと、発音タイミングを小節、拍、時刻で表すタイミングデータと、各タイミング毎のイベントを表すイベントデータEVとを含んで構成されている。また、演奏データPDは複数のパートで構成することも出来る。
【0027】
初期設定情報HCは、各パート(トラック)の再生時の各種再生態様を設定する為のデータであり、例えば、音色設定データ、音量設定データ、テンポ設定データなどが含まれる。
【0028】
タイミングデータは、イベントデータEVで表される各種イベントを処理すべき時間を表すデータである。イベントの処理時間は、演奏開始からの絶対時間で表してもよいし、前のイベントからの経過時間である相対時間で表すようにしてもよい。本実施例では、タイミングデータは、小節数、該小節における拍数、該拍における時刻(クロック)のパラメータによりイベントの処理時間を表している。なお、1拍は、例えば、480クロックとする。
【0029】
イベントデータEVは、楽曲を再生させる為の各種イベントの内容を表すデータである。イベントには、ノートオンイベントとノートオフイベントの組合せである楽曲の発生に直接関係する音符を表す音符イベント(音符データ)NEと、ピッチチェンジイベント(ピッチベンドイベント)、テンポチェンジイベント、音色チェンジイベントなどの楽曲の再生態様などを設定するための設定イベントが含まれる。
【0030】
それぞれの音符イベントEVには、例えば、音高、発音長(ゲートタイム)、音量(ベロシティ)V等のパラメータが記録されている。音量Vは設定可能な最低音量を「1」とし最大音量を「127」としている。
【0031】
なお、図2に示す演奏データPDは、本実施例による演奏データ処理を適用する前のものであり、これをこのまま再生すると、音量Vは、1拍目と2拍目で異なるものの、各拍における和音の構成音の発音タイミングが完全に同一であるので、ギター等の弦楽器の演奏としては、不自然なものになる。
【0032】
なお、本実施例では、完全に同時に発音される複数の音符イベントだけでなく、発音タイミングがほぼ同時期である複数の音符イベントの組を和音としている。ほぼ同時期に発音される複数の音符イベントとは、再生された場合に音楽的に和音として考えられる時間内に発音される複数の音符イベントの組である。
【0033】
図3は、本発明の実施例による演奏データ処理装置1の機能を表すブロック図である。
【0034】
演奏データ処理装置1は、演奏データ供給部31、処理対象演奏データ抽出部32、音量検出部33、タイミング変更量決定部34、変更特性記憶部35、タイミング変更部36、演奏データ出力部37を含んで構成される。
【0035】
演奏データ供給部31は、ユーザが、例えば、設定操作子16等で選択する演奏データPDを、外部記憶装置20等から読み出すか、又は、通信ネットワーク3を介してサーバ2等から受信する。読み出された(受信した)演奏データPDは、後段の処理対象演奏データ抽出部32に供給される。
【0036】
処理対象演奏データ抽出部32は、供給された演奏データPDの中から、ストローク演奏に該当する個所(音楽的に和音として考えられる時間内に発音される複数の音符イベントの組)をサーチし、該個所の演奏データPD(複数の音符イベントEV及びそれらのタイミングデータ)を抽出して、音量検出部33及びタイミング変更部36に供給する。なお、ストローク演奏個所(処理対象個所)の検出は、自動的に行うものに限らず、ユーザが処理対象個所を指定してもよい。
【0037】
音量検出部33は、抽出された演奏データPDの音量V(例えばベロシティやボリューム、エクスプレッション等)を検出する。検出した音量Vは、タイミング変更量決定部34に供給される。
【0038】
タイミング変更量決定部34は、音量検出部33で検出された音量V(又は、後述する全体の音量TV)に基づいて、変更特性記憶部35に記憶されている変更特性を参照し、抽出された演奏データPDに含まれる複数の音符イベントEVのそれぞれのタイミングデータの変更量(以下、タイミング変更量と呼ぶ)を決定する。
【0039】
変更特性記憶部35は、音量Vに応じたタイミング変更量である変更特性を、例えば、テーブルや演算式等で記憶し、タイミング変更量決定部34に供給する。なお、変更特性については、後に図4を用いて詳述する。また、新たな変更特性をCD−ROM等の外部記憶媒体や、通信ネットワーク3を介してサーバ2から供給できるようにしてもよい。
【0040】
タイミング変更部36は、決定されたタイミング変更量に従って、抽出された演奏データPDに含まれる各音符イベントEVの発音開始タイミング(及び必要なら発音終了タイミングも)を変更する。
【0041】
発音開始タイミングの変更は、例えば、ギターのような弦楽器のダウンストローク演奏を想定した場合、最高音(1弦)の発音タイミングを遅らせ、2弦の発音タイミングは変更せず、3弦から6弦までの発音タイミングを早める等して行う。このように、発音順に従い、発音タイミングを早めたり、遅らせたりすることにより、タイミングの変更を行う。
【0042】
また、発音開始タイミングの変更に伴い、発音終了タイミング(例えば、ゲートタイム)を変更することが好ましい。例えば、音符イベントEVの発音開始タイミングを遅らせた場合に、発音終了タイミングを早めないと次の和音と発音時期が重なってしまう場合がある。また、音符イベントEVの発音開始タイミングを早くした場合に、発音終了タイミングを遅くしないと、該発音タイミングを早めた構成音のみが早く発音を終了してしまう場合がある。これを避けるためには、発音タイミングを遅らせた場合には、ほぼ同じぐらい発音終了タイミングを早めるとよい。また、発音開始タイミングを早めた場合には、同様に、ほぼ同じぐらい発音終了タイミングを遅くするとよい。
【0043】
演奏データ出力部37は、タイミングが変更され、ストローク演奏の表情が付与された演奏データPDを出力(音源回路21、効果回路22及びサウンドシステム23を介して楽音として発音、外部記憶装置20等に記憶、外部MIDI機器4等へ送信等)する。
【0044】
図4は、変更特性記憶部35に記憶される変更特性の例を表すグラフである。図中、横軸が同一和音を構成する複数の音符イベントEV(ストローク演奏に該当する個所)の全体の音量TVを示し、縦軸がストロークの速さ、すなわち、和音構成音のそれぞれに対応する音符イベントEVのタイミング変更量を示す。ここで、タイミング変更量とは、音符イベントEVと同一和音を構成する前後の音符イベントEVとの相対的な時間差を規定する値であり、例えば、タイミング変更量として、和音構成音の最低音の発音開始タイミングから最高音の発音開始タイミングまでの時間(ダウンストロークの場合)が記録されている場合、その時間を和音の構成音数n−1で割ることにより、各構成音間の時間差を求めることができる。
【0045】
又は、タイミング変更量として、和音を構成する各音符イベントEVのタイミングを変更するオフセット値等を記録しておいてもよい。この場合は、音符イベントEV間の時間差(ずれ)は、和音構成音中均一でなくてもよい。
【0046】
ここで、全体の音量TVは、例えば、和音を構成する全音符イベントEVの音量Vの単純平均、重み付け平均、一部音符イベントEVの音量Vの平均(例えば最大と最小の平均)、選択した一つの音符イベントEV(例えば最大、最小、中央値等)の音量Vなどである。
【0047】
自然楽器では、一般的に、音量が大きいほどストロークが速くなる傾向がある。これは、ストロークが速いと、弦をはじく際のエネルギーが大きくなるので、音量も大きくなるからである。よって、本実施例におけるタイミング変更特性も、音量が大きいほどストロークが速い(=タイミング変更量が小さい)ような特性としている。ただし、ストロークの速さにもある程度の限界があるので、速い方と遅い方で飽和するような特性としている。
【0048】
図4(A)は、曲線的に特性が変化させる場合の変更特性であり、このような曲線的変化の場合は、例えば、和音全体の音量TVとタイミング変更量との関係を変更特性テーブルとして、変更特性記憶部35に記憶する。
【0049】
図4(B)は、直線的に特性が変化させる場合の変更特性であり、このような直線的変化の場合は、例えば、和音全体の音量TVとタイミング変更量との関係を表す演算式として、変更特性記憶部35に記憶する。
【0050】
なお、人の演奏は上記のように一義的に決まっているわけではないので、変更特性は上記例に限らない。完全にリニアでもよいし、逆の特性(音量が大きいほどストローク速さは遅くなる)としてもよい。また、変更特性を複数記憶しておき、ユーザの指示や自動的(例えばランダム等)に何れかの特性を選択するようにしてもよい。また、同じ変更特性であっても、効き具合(タイミング変更量)を調整できるようにしてもよい(ユーザ指示或いは自動的)。
【0051】
なお、図4(A)及び図4(B)に示す変更特性は、必要に応じて、逆の変更特にすることもできる。すなわち、音量(TV)の増大に応じて、ストローク演奏時の発音開始タイミングのずれ量(L)を、徐々に大きくすることもできる。
【0052】
図5は、本実施例の演奏データ処理装置1により演奏データPDを処理する場合の例である。なお、この例のストローク演奏は、ダウンストロークによる演奏とする。図中、縦軸は、各音符イベントEVの音高を表し、横軸は、時間を表す。また、白抜きの丸は、各音符イベントEVを表す。各音符イベントEVを表す丸の下段のグラフは、上段の音符イベントで構成する和音の全体の音量TVを表す。
【0053】
図5(A)は、本実施例による処理前の演奏データPDを表す。同一和音を構成する各音符イベントEVが、縦方向に一直線に並んでいることから明らかなように、同一和音を構成する音符イベントEVの発音開始タイミングは、全て同一のものとなっている。下段の音量グラフを見ると、1拍目と3拍目の和音の全体の音量TVは、「大」であり、2拍目と4拍目の和音の全体の音量は、「小」であることがわかる。
【0054】
この図5(A)の演奏データPDを含む演奏データを、例えば、図1の外部記憶装置20に記憶しておき、図3の演奏データ供給部31により、処理対象データ抽出部32に供給する。処理対象データ抽出部32は、供給された演奏データから、図5(A)に示す4つの和音(音符イベントEV群)を検出し、音量検出部33は、該検出された4つの和音のそれぞれの全体音量TVを検出し、タイミング変更量決定部34に送出する。タイミング変更量決定部34は、検出された音量に基づき、変更特性記憶部35から供給される変更特性に基づき、4つの和音のタイミングデータを変更する。このとき、音量TVが「大」である1拍目と3拍目の和音は、タイミングの変更量が音量TVが「小」である2拍目と4拍目の和音よりも小さくなる。以上のようにして、処理された後の演奏データPDは、図5(B)に示すようになる。すなわち、音量VL>音量VSである時に、変更量LS<変更量LLが成り立つように和音を構成する音符イベントEVのタイミングが変更される。
【0055】
なお、以上の説明では、説明の便宜上、音量TVを「大」又は「小」としたが、実際には、音量TVは、例えば、1〜127の数値で表される。また、タイミング変更量も、説明の便宜上、「大」、「小」で表したが、これは、和音構成音の最初に発音されるべき音(ダウンストロークの場合は最低音、アップストロークの場合は、最高音)から、最後に発音されるべき音(ダウンストロークの場合は最高音、アップストロークの場合は最低音)までの時間差である。
【0056】
図6は、本実施例の変更特性の他の例及び他の例を適用した場合の演奏データPDを表すグラフである。
【0057】
ギター等の弦楽器のストローク演奏では、1つのストローク演奏の中でも、ストローク速さが変化することがある。例えば、ダウンストロークにおいて低音弦はゆっくり力強く弾き、高音弦に行くにしたがって速く軽く弾くといった演奏方法の場合である。このような演奏を模倣するためには、同一和音を構成する個々の音符イベントの音量Vに応じてストローク速さ(タイミング)を変更することが効果的である。
【0058】
図6(A)は、同一和音を構成する個々の音符イベントの音量Vに応じてタイミングを変更するための変更特性の例である。この例では、個々の音符イベントの音量Vが大きくなるに従い、次に発音されるべき音符イベントEV(ダウンストロークの場合は高音側、アップストロークの場合は低音側の音符イベントEV)との間隔(ずれ量)を大きくしている。
【0059】
図6(B)は、図6(A)に示す変更特性を適用して、演奏データPDを変更した場合の例である。この例では、低音(EV1)から高音(EV6)に向かって、音量(V1〜V6)が徐々に減少している。図6(A)に示す変更特性を適用することにより、音量(V1〜V6)の減少に応じて、ストローク演奏時の発音開始タイミングのずれ量(L1〜L5)も、徐々に小さくなる(ストロークが速くなる)。
【0060】
例えば、音符イベントEV1と、音符イベントEV2の間隔L1は、音符イベントEV1の音量V1が、音符イベントEV2の音量V2よりも大きいので、音符イベントEV2と音符イベントEV3との間隔L2よりも長くなっている。すなわち、V1>V2である時は、L1>L2が成り立つように、和音を構成する各音符イベントEVのタイミングが変更されている。
【0061】
なお、図6(A)に示す変更特性は、必要に応じて、逆の変更特にすることもできる。すなわち、音量(V1〜V6)の減少に応じて、ストローク演奏時の発音開始タイミングのずれ量(L1〜L5)を、徐々に大きくすることもできる。
【0062】
図7は、図4(A)と図6(A)に示す双方の変更特性を用いて演奏データPDを変更した場合の例を表すグラフである。
【0063】
この例では、図3の変更特性記憶部37に、図4(A)と図6(A)に示す双方の変更特性を記憶しておき、タイミング変更量決定部34で、双方の変更特性を参照してタイミング変更量を決定し、該決定した変更量に従い、タイミング変更部36で、各音符イベントのタイミングデータを変更した場合である。
【0064】
図に示すように、双方の和音ともに、ここの音符イベントEVの音量Vが、徐々に小さくなっているので、図6(A)に示す変更特性を適用することにより、それに対応して、各和音イベントEV間の間隔は、徐々に小さくなっている。例えば、2拍目の和音の音符イベントEV1の音量は、音符イベントEV3の音量よりも大きいので、間隔L1>間隔L3の関係になっている。
【0065】
また、同時に、1拍目の和音の全体音量TV1は、2拍目の和音の全体音量TV2よりも大きくなっている(TV1>TV2)、そこで、図4(A)に示す変更特性を適用することにより、これに対応して、1拍目の和音の最初に発音されるべき音符イベントEV(最低音)から、最後に発音されるべき音符イベントEV(最高音)の時間LT1が、2拍目の和音のそれ(LT2)よりも短くなっている(LT1<LT2)。
【0066】
以上のように、本発明の実施例によれば、演奏データ中の和音を構成する音符イベントEVを検出し、同一和音を構成する音符イベントEVの発音開始タイミング及び発音終了タイミングを変更することができる。
【0067】
その際に、同一和音を構成する音符イベントEVの全体音量TVに基づき、各音符イベントEVの発音開始間隔を変更することができる。すなわち、同一和音を構成する音符イベントEVの最初に発音するべき音符イベントEVの発音開始タイミングから、最後に発音するべき音符イベントの発音開始タイミング(又は発音終了タイミング)までの時間を、該和音の全体音量に応じて変更することができる。よって、演奏データに、適切なストローク奏法の表情を自動的に付与することができる。
【0068】
また、本発明の実施例によれば、同一和音を構成する音符イベントEVの個々の音量Vに基づき、各音符イベントEVの発音開始間隔を変更することができる。すなわち、同一和音を構成する音符イベントEVの発音開始タイミングと、次に発音するべき音符イベントの発音開始タイミング(又は発音終了タイミング)との間の時間を、個々の音符イベントEVの音量Vに応じて変更することができる。よって、演奏データに、適切なストローク奏法の表情を自動的に付与することができる。
【0069】
なお、上述の実施例では、ダウンストローク奏法の場合のみについて説明したが、本発明は、アップストローク奏法にも適用することができる。この場合は、最初に発音開始するべき音は、同一和音構成音中の最高音になる。
【0070】
また、ギター等の弦楽器のストローク双方において、ダウンストローク奏法とアップストローク奏法が混在するオルタネート奏法があるが、このオルタネート奏法を再現する場合は、それぞれの奏法に適した変更特性を用意し、それぞれの変更特性でタイミング変更量と音量の相関関係を異ならせることが好ましい。
【0071】
なお、本実施例は、本実施例に対応するコンピュータプログラム等をインストールした市販のコンピュータ等によって、実施させるようにしてもよい。
【0072】
その場合には、本実施例に対応するコンピュータプログラム等を、CD−ROMやフロッピー(登録商標)ディスク等の、コンピュータが読み込むことが出来る記憶媒体に記憶させた状態で、ユーザに提供してもよい。
【0073】
以上実施例に沿って本発明を説明したが、本発明はこれらに制限されるものではない。例えば、種々の変更、改良、組合せ等が可能なことは当業者に自明であろう。
【0074】
【発明の効果】
以上説明したように、本発明によれば、供給される演奏データに付与されている音量に関する表情を生かして、適切なストローク奏法の表情を付与することができる演奏データ処理装置を提供することができる。
【図面の簡単な説明】
【図1】 本発明の実施例による演奏データ処理装置1のハードウェア構成を示すブロック図である。
【図2】 本実施例による演奏データPDのフォーマットを表す概念図である。
【図3】 本発明の実施例による演奏データ処理装置1の機能を表すブロック図である。
【図4】 変更特性記憶部35に記憶される変更特性の例を表すグラフである。
【図5】 本実施例の演奏データ処理装置1により演奏データPDを処理する場合の例である。
【図6】 本実施例の変更特性の他の例及び他の例を適用した場合の演奏データPDを表すグラフである。
【図7】 図4(A)と図6(A)に示す双方の変更特性を用いて演奏データPDを変更した場合の例を表すグラフである。
【符号の説明】
1…演奏データ処理装置、2…サーバコンピュータ、3…通信ネットワーク、4…MIDI機器、10…バス、11…RAM、12…ROM、13…CPU、14…タイマ、15…検出回路、16…設定操作子、17…演奏操作子、18…表示回路、19…表示部、20…外部記憶装置、21…音源回路、22…効果回路、23…サウンドシステム、24…MIDI I/F、26…通信I/F、31…演奏データ供給部、32…処理対象演奏データ抽出部、33…音量検出部、34…タイミング変更量決定部、35…変更特性記憶部、36…タイミング変更部、37…演奏データ出力部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a performance data processing apparatus, and more particularly to a performance data processing apparatus capable of automatically giving musical expressions to performance data.
[0002]
[Prior art]
If performance data such as MIDI data (white data) including only note information is reproduced by an automatic performance device or the like, a mechanical and expressionless performance is obtained. In order to make this a more natural, beautiful, and lively performance, it is necessary to add various musical expressions and instrumentality as control data to the performance data.
[0003]
One such musical expression is a stroke technique, which is a technique for playing plucked strings such as guitars. In guitar strokes, even if the chords are shown as simultaneous chords on the score, the volume and pronunciation of each sound (each string) is used to repel multiple strings in an order that has a certain time difference rather than completely simultaneously. Variations occur in start time and pronunciation time.
[0004]
There has been proposed a technique for automatically performing facial expression imitating the stroke performance method peculiar to stringed instruments such as guitars as described above. (For example, refer to Patent Document 1.)
[0005]
[Patent Document 1]
Japanese Patent Application Laid-Open No. 2002-319552
[Problems to be solved by the invention]
According to the above-mentioned conventional technology, performance data with mechanical sounding timing and volume can be edited and performance data with sounding timing and volume corresponding to stroke performance such as guitar can be automatically generated. When the performance data was given an expression with respect to the volume from the beginning, the expression using the volume-like expression was not performed.
[0007]
An object of the present invention is to provide a performance data processing apparatus that can apply an expression of an appropriate stroke performance method by making use of an expression relating to a volume given to supplied performance data.
[0008]
[Means for Solving the Problems]
According to an aspect of the present invention, a performance data processing apparatus includes performance data supply means for supplying performance data, extraction means for extracting chords composed of a plurality of note events included in the performance data, and the plurality of performance data processing apparatuses. Volume detection means for detecting the overall volume of the note event, change characteristic storage means for storing a first correlation which is a correlation between the overall volume of the plurality of note events and the change amount of the pronunciation timing; Timing changing means for changing the sounding timing so as to shift the sounding timing between the plurality of note events based on the correlation.
[0009]
According to another aspect of the present invention, a performance data processing apparatus includes performance data supply means for supplying performance data, and extraction means for extracting chords composed of a plurality of note events included in the performance data. Volume detection means for detecting the volume of each of the plurality of note events, and change characteristic storage means for storing a correlation between the volume of the note event and the amount of change in the sounding timing, wherein the correlation is A timing change unit that shifts the sound generation timing of the plurality of note events based on the correlation and changes the sound generation start interval with the next note event. Have.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram showing a hardware configuration of a performance data processing apparatus 1 according to an embodiment of the present invention.
[0011]
A
[0012]
The user can make various settings using the
[0013]
The
[0014]
The
[0015]
The
[0016]
The
[0017]
The
[0018]
The
[0019]
The
[0020]
The
[0021]
The MIDI interface (MIDI I / F) 24 can be connected to an electronic musical instrument, other musical instruments, audio equipment, a computer, and the like, and can transmit and receive at least a MIDI signal. The
[0022]
The MIDI device 4 is an acoustic device, a musical instrument or the like connected to the
[0023]
The MIDI device 4 can also be used as an operator for inputting various data other than performance information and various settings.
[0024]
The
[0025]
FIG. 2 is a conceptual diagram showing the format of the performance data PD according to this embodiment.
[0026]
The performance data PD includes initial setting information HC recorded at the head, timing data representing the sound generation timing by measures, beats, and time, and event data EV representing an event at each timing. The performance data PD can be composed of a plurality of parts.
[0027]
The initial setting information HC is data for setting various reproduction modes during reproduction of each part (track), and includes, for example, tone color setting data, volume setting data, tempo setting data, and the like.
[0028]
The timing data is data representing time for processing various events represented by the event data EV. The event processing time may be expressed as an absolute time from the start of performance, or may be expressed as a relative time that is an elapsed time from the previous event. In this embodiment, the timing data represents the event processing time by parameters of the number of bars, the number of beats in the bar, and the time (clock) in the beat. One beat is 480 clocks, for example.
[0029]
The event data EV is data representing the contents of various events for playing back music. Events include note events (note data) NE that represent notes that are directly related to the occurrence of music that is a combination of note-on and note-off events, pitch change events (pitch bend events), tempo change events, tone change events, etc. A setting event for setting the playback mode of the music is included.
[0030]
In each note event EV, for example, parameters such as pitch, tone length (gate time), volume (velocity) V, and the like are recorded. For the volume V, the minimum volume that can be set is “1”, and the maximum volume is “127”.
[0031]
Note that the performance data PD shown in FIG. 2 is the data before the performance data processing according to this embodiment is applied. If the performance data PD is reproduced as it is, the volume V differs between the first beat and the second beat. Since the sound generation timing of the constituent sounds of the chords is completely the same, it becomes unnatural as a performance of a stringed instrument such as a guitar.
[0032]
In the present embodiment, not only a plurality of note events that are sounded completely at the same time, but also a set of a plurality of note events whose sounding timings are almost the same period is used as a chord. A plurality of note events that are sounded at substantially the same time period are a set of a plurality of note events that are sounded within a time that is considered as a chord musically when played.
[0033]
FIG. 3 is a block diagram showing functions of the performance data processing apparatus 1 according to the embodiment of the present invention.
[0034]
The performance data processing apparatus 1 includes a performance
[0035]
The performance
[0036]
The processing target performance
[0037]
The volume detection unit 33 detects the volume V (for example, velocity, volume, expression, etc.) of the extracted performance data PD. The detected volume V is supplied to the timing change
[0038]
The timing change
[0039]
The change
[0040]
The
[0041]
For example, when the down stroke performance of a stringed instrument such as a guitar is assumed, the sounding start timing is delayed by delaying the sounding timing of the highest tone (1st string), without changing the sounding timing of the 2nd string. This is done by accelerating the pronunciation timing. In this way, the timing is changed by advancing or delaying the sound generation timing according to the sound generation order.
[0042]
Further, it is preferable to change the sound generation end timing (for example, gate time) with the change of the sound generation start timing. For example, when the sounding start timing of the note event EV is delayed, the next chord and the sounding time may overlap unless the sounding end timing is advanced. In addition, when the sounding start timing of the note event EV is advanced, if the sounding end timing is not delayed, only the constituent sound whose sounding timing is advanced may end the sounding earlier. In order to avoid this, if the sound generation timing is delayed, the sound generation end timing should be advanced approximately the same. Similarly, when the sound generation start timing is advanced, the sound generation end timing may be delayed by approximately the same amount.
[0043]
The performance
[0044]
FIG. 4 is a graph showing an example of the change characteristic stored in the change
[0045]
Alternatively, an offset value or the like for changing the timing of each note event EV constituting the chord may be recorded as the timing change amount. In this case, the time difference (shift) between the note events EV may not be uniform among the chord constituent sounds.
[0046]
Here, the entire volume TV is selected, for example, a simple average of the volume V of all note events EV constituting the chord, a weighted average, an average of the volume V of the partial note events EV (for example, the maximum and minimum average), or the like. The volume V of one note event EV (for example, maximum, minimum, median, etc.).
[0047]
In a natural musical instrument, generally, the stroke tends to be faster as the volume increases. This is because, when the stroke is fast, the energy for flipping the string increases, so that the volume increases. Therefore, the timing change characteristic in this embodiment is also a characteristic that the stroke is faster (= the timing change amount is smaller) as the volume is larger. However, since there is a certain limit to the speed of the stroke, the characteristics are such that it is saturated at the faster and slower speed.
[0048]
FIG. 4A shows a change characteristic when the characteristic is changed in a curve. In the case of such a curve change, for example, the relationship between the volume TV of the entire chord and the timing change amount is used as the change characteristic table. And stored in the change
[0049]
FIG. 4B shows a change characteristic when the characteristic is linearly changed. In the case of such a linear change, for example, as an arithmetic expression representing the relationship between the volume TV of the entire chord and the timing change amount. And stored in the change
[0050]
In addition, since a person's performance is not decided uniquely as mentioned above, a change characteristic is not restricted to the said example. It may be completely linear, or may have the opposite characteristic (the stroke speed decreases as the volume increases). A plurality of change characteristics may be stored, and any of the characteristics may be selected by a user instruction or automatically (for example, at random). Moreover, even if the change characteristics are the same, the effect level (timing change amount) may be adjusted (user instruction or automatically).
[0051]
It should be noted that the change characteristics shown in FIGS. 4A and 4B can be changed in reverse, as necessary. That is, as the volume (TV) increases, the deviation amount (L) of the sound generation start timing during the stroke performance can be gradually increased.
[0052]
FIG. 5 shows an example in which performance data PD is processed by the performance data processing apparatus 1 of the present embodiment. The stroke performance in this example is a performance by a down stroke. In the figure, the vertical axis represents the pitch of each note event EV, and the horizontal axis represents time. A white circle represents each note event EV. The lower graph of each circle representing each note event EV represents the overall volume TV of chords composed of the upper note events.
[0053]
FIG. 5A shows performance data PD before processing according to this embodiment. As is clear from the fact that the note events EV constituting the same chord are arranged in a straight line in the vertical direction, the sounding start timings of the note events EV constituting the same chord are all the same. Looking at the lower volume graph, the overall volume TV of the 1st and 3rd chords is “High”, and the overall volume of the 2nd and 4th chords is “Low”. I understand that.
[0054]
The performance data including the performance data PD in FIG. 5A is stored in, for example, the
[0055]
In the above description, for convenience of explanation, the volume TV is set to “large” or “small”, but actually, the volume TV is represented by a numerical value of 1 to 127, for example. In addition, the timing change amount is also expressed as “large” or “small” for convenience of explanation, but this is the sound that should be pronounced at the beginning of the chord component sound (minimum sound in the case of down stroke, and in the case of up stroke) Is the time difference from the highest note) to the last note to be pronounced (the highest note in the case of a downstroke, the lowest note in the case of an upstroke).
[0056]
FIG. 6 is a graph showing performance data PD when another example of the change characteristic of this embodiment and another example are applied.
[0057]
In stroke performance of a stringed instrument such as a guitar, the stroke speed may change even during one stroke performance. For example, in the case of a performance method in which a low tone string is played slowly and strongly in the down stroke, and is played quickly and lightly as it goes to a high tone string. In order to imitate such a performance, it is effective to change the stroke speed (timing) according to the volume V of the individual note events constituting the same chord.
[0058]
FIG. 6A shows an example of a change characteristic for changing the timing according to the volume V of individual note events constituting the same chord. In this example, as the volume V of each note event increases, the interval between the note event EV to be sounded next (the note event EV on the high note side in the case of the down stroke and the low note side EV in the case of the up stroke) ( (Shift amount) is increased.
[0059]
FIG. 6B shows an example in which the performance data PD is changed by applying the change characteristic shown in FIG. In this example, the volume (V1 to V6) gradually decreases from the low sound (EV1) to the high sound (EV6). By applying the change characteristic shown in FIG. 6A, the deviation amount (L1 to L5) of the sound generation start timing during the performance of the stroke is gradually reduced as the volume (V1 to V6) decreases (stroke). Will be faster).
[0060]
For example, the interval L1 between the note event EV1 and the note event EV2 is longer than the interval L2 between the note event EV2 and the note event EV3 because the volume V1 of the note event EV1 is larger than the volume V2 of the note event EV2. Yes. That is, when V1> V2, the timing of each note event EV constituting the chord is changed so that L1> L2 holds.
[0061]
Note that the change characteristics shown in FIG. 6 (A) can be changed in the opposite direction as needed. That is, according to the decrease in volume (V1 to V6), the deviation amount (L1 to L5) of the sound generation start timing during the stroke performance can be gradually increased.
[0062]
FIG. 7 is a graph showing an example in which the performance data PD is changed using both of the change characteristics shown in FIGS. 4 (A) and 6 (A).
[0063]
In this example, both of the change characteristics shown in FIGS. 4A and 6A are stored in the change
[0064]
As shown in the figure, the volume V of the note event EV here is gradually reduced for both chords. Therefore, by applying the change characteristic shown in FIG. The interval between chord events EV is gradually reduced. For example, since the volume of the note event EV1 of the second beat chord is larger than the volume of the note event EV3, the relationship of interval L1> interval L3 is established.
[0065]
At the same time, the overall sound volume TV1 of the first beat chord is larger than the overall sound volume TV2 of the second beat chord (TV1> TV2). Therefore, the change characteristic shown in FIG. 4A is applied. Correspondingly, the time LT1 from the note event EV (lowest note) to be pronounced first to the last note event EV (highest note) of the first beat chord is 2 beats. It is shorter than that of the chord of the eye (LT2) (LT1 <LT2).
[0066]
As described above, according to the embodiment of the present invention, it is possible to detect the note event EV constituting the chord in the performance data and change the sounding start timing and the sounding end timing of the note event EV constituting the same chord. it can.
[0067]
At that time, the sound generation start interval of each note event EV can be changed based on the overall volume TV of the note events EV constituting the same chord. That is, the time from the sounding start timing of the note event EV to be pronounced first to the sounding start timing (or sounding end timing) of the note event to be sounded last is calculated as the time of the chord. It can be changed according to the overall volume. Therefore, it is possible to automatically give an appropriate stroke performance expression to the performance data.
[0068]
Further, according to the embodiment of the present invention, the sound generation start interval of each note event EV can be changed based on the individual volume V of the note event EV that constitutes the same chord. That is, the time between the sounding start timing of the note event EV constituting the same chord and the sounding start timing (or sounding end timing) of the next note event to be sounded is determined according to the volume V of each note event EV. Can be changed. Therefore, it is possible to automatically give an appropriate stroke performance expression to the performance data.
[0069]
In the above-described embodiment, only the case of the down stroke performance method has been described, but the present invention can also be applied to the up stroke performance method. In this case, the sound that should start sounding first is the highest note in the same chord component.
[0070]
In addition, there is an alternate performance method in which both downstroke and upstroke performance methods are mixed in both strokes of stringed instruments such as guitars. It is preferable to change the correlation between the timing change amount and the sound volume in the change characteristics.
[0071]
In addition, you may make it implement a present Example by the commercially available computer etc. which installed the computer program etc. corresponding to a present Example.
[0072]
In that case, the computer program corresponding to the present embodiment may be provided to the user in a state in which the computer program is stored in a computer-readable storage medium such as a CD-ROM or a floppy (registered trademark) disk. Good.
[0073]
Although the present invention has been described with reference to the embodiments, the present invention is not limited thereto. It will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.
[0074]
【The invention's effect】
As described above, according to the present invention, it is possible to provide a performance data processing apparatus that can apply an expression of an appropriate stroke performance method by making use of a facial expression related to the volume given to supplied performance data. it can.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a hardware configuration of a performance data processing apparatus 1 according to an embodiment of the present invention.
FIG. 2 is a conceptual diagram showing a format of performance data PD according to the present embodiment.
FIG. 3 is a block diagram showing functions of the performance data processing apparatus 1 according to the embodiment of the present invention.
4 is a graph showing an example of a change characteristic stored in a change
FIG. 5 shows an example in which performance data PD is processed by the performance data processing apparatus 1 of the present embodiment.
FIG. 6 is a graph showing performance data PD when another example and other examples of change characteristics of the present embodiment are applied.
7 is a graph showing an example in which performance data PD is changed using both of the change characteristics shown in FIGS. 4 (A) and 6 (A). FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Performance data processing apparatus, 2 ... Server computer, 3 ... Communication network, 4 ... MIDI apparatus, 10 ... Bus, 11 ... RAM, 12 ... ROM, 13 ... CPU, 14 ... Timer, 15 ... Detection circuit, 16 ... Setting Operation unit, 17 ... Performance operation unit, 18 ... Display circuit, 19 ... Display unit, 20 ... External storage device, 21 ... Sound source circuit, 22 ... Effect circuit, 23 ... Sound system, 24 ... MIDI I / F, 26 ... Communication I / F, 31 ... performance data supply unit, 32 ... processing target performance data extraction unit, 33 ... volume detection unit, 34 ... timing change amount determination unit, 35 ... change characteristic storage unit, 36 ... timing change unit, 37 ... performance Data output section
Claims (6)
前記演奏データに含まれる複数の音符イベントで構成される和音を抽出する抽出手段と、
前記複数の音符イベントの全体の音量を検出する音量検出手段と、
複数の音符イベントの全体の音量と発音タイミングの変更量との相関関係である第1の相関関係を記憶する変更特性記憶手段と、
前記相関関係に基づき前記複数の音符イベント間の発音タイミングをずらすように該発音タイミングを変更するタイミング変更手段と
を有する演奏データ処理装置。Performance data supply means for supplying performance data;
Extracting means for extracting a chord composed of a plurality of note events included in the performance data;
Volume detection means for detecting the overall volume of the plurality of note events;
Change characteristic storage means for storing a first correlation that is a correlation between the overall volume of a plurality of note events and the amount of change in pronunciation timing;
A performance data processing apparatus comprising timing change means for changing the sounding timing so as to shift the sounding timing between the plurality of note events based on the correlation.
タイミング変更手段は、さらに第2の相関関係に基づき前記複数の音符イベントの発音タイミングを変更することを特徴とする請求項1記載の演奏データ処理装置。2. The performance data processing apparatus according to claim 1, wherein the timing changing means further changes the sound generation timing of the plurality of note events based on the second correlation.
前記演奏データに含まれる複数の音符イベントで構成される和音を抽出する抽出手段と、
前記複数の音符イベントのそれぞれの音量を検出する音量検出手段と、
音符イベントの音量と発音タイミングの変更量との相関関係を記憶する変更特性記憶手段であって、該相関関係は次に発音される音符イベントの間隔を変更するものと、
前記相関関係に基づき前記複数の音符イベントの発音タイミングをずらし、次の音符イベントとの発音開始の間隔が変化するように変更するタイミング変更手段と
を有する演奏データ処理装置。Performance data supply means for supplying performance data;
Extracting means for extracting a chord composed of a plurality of note events included in the performance data;
Volume detecting means for detecting the volume of each of the plurality of note events;
Change characteristic storage means for storing the correlation between the volume of the note event and the amount of change in the sounding timing, the correlation changing the interval between the note events to be sounded next ;
A performance data processing apparatus comprising: timing changing means for shifting the sound generation timing of the plurality of note events based on the correlation and changing the sound generation start interval with the next note event .
前記演奏データに含まれる複数の音符イベントで構成される和音を抽出する抽出手順と、
前記複数の音符イベントの全体の音量を検出する音量検出手順と、
複数の音符イベントの全体の音量と発音タイミングの変更量との相関関係である第1の相関関係を供給する変更特性供給手順と、
前記相関関係に基づき前記複数の音符イベントの発音タイミングをずらすように該発音タイミングを変更するタイミング変更手順と
を有する演奏データ処理をコンピュータに実行させるためのプログラム。Performance data supply procedure for supplying performance data;
An extraction procedure for extracting a chord composed of a plurality of note events included in the performance data;
A volume detection procedure for detecting the overall volume of the plurality of note events;
A change characteristic supply procedure for supplying a first correlation which is a correlation between the overall volume of the plurality of note events and the change amount of the sound generation timing;
A program for causing a computer to execute performance data processing including a timing change procedure for changing the sound generation timing so as to shift the sound generation timing of the plurality of note events based on the correlation.
タイミング変更手順は、さらに第2の相関関係に基づき前記複数の音符イベントの発音タイミングを変更することを特徴とする請求項4記載のプログラム。The change characteristic supply procedure further supplies a second correlation which is a correlation between the volume of the note event and the amount of change in the sounding timing;
5. The program according to claim 4, wherein the timing changing procedure further changes the sound generation timing of the plurality of note events based on the second correlation.
前記演奏データに含まれる複数の音符イベントで構成される和音を抽出する抽出手順と、
前記複数の音符イベントのそれぞれの音量を検出する音量検出手順と、
音符イベントの音量と発音タイミングの変更量との相関関係を供給する変更特性供給手順であって、該相関関係は次に発音される音符イベントの間隔を変更するものと、
前記相関関係に基づき前記複数の音符イベントの発音タイミングをずらし、次の音符イベントとの発音開始の間隔が変化するように変更するタイミング変更手順と
を有する演奏データ処理をコンピュータに実行させるためのプログラム。Performance data supply procedure for supplying performance data;
An extraction procedure for extracting a chord composed of a plurality of note events included in the performance data;
A volume detection procedure for detecting the volume of each of the plurality of note events;
A change characteristic supplying procedure for supplying a correlation between the volume of the note event and the amount of change in the sounding timing, the correlation changing the interval between the note events to be sounded next ;
A program for causing a computer to execute performance data processing having a timing change procedure for shifting the sound generation timing of the plurality of note events based on the correlation and changing the sound generation start interval with the next note event. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003077851A JP3948425B2 (en) | 2003-03-20 | 2003-03-20 | Performance data processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003077851A JP3948425B2 (en) | 2003-03-20 | 2003-03-20 | Performance data processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004286999A JP2004286999A (en) | 2004-10-14 |
JP3948425B2 true JP3948425B2 (en) | 2007-07-25 |
Family
ID=33292501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003077851A Expired - Fee Related JP3948425B2 (en) | 2003-03-20 | 2003-03-20 | Performance data processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3948425B2 (en) |
-
2003
- 2003-03-20 JP JP2003077851A patent/JP3948425B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004286999A (en) | 2004-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6703549B1 (en) | Performance data generating apparatus and method and storage medium | |
JP3975772B2 (en) | Waveform generating apparatus and method | |
JP2001175263A (en) | Device and method for generating automatic accompaniment pattern | |
US8314320B2 (en) | Automatic accompanying apparatus and computer readable storing medium | |
JPH11339060A (en) | Musical sound and image generating device | |
JP3601371B2 (en) | Waveform generation method and apparatus | |
JP3654079B2 (en) | Waveform generation method and apparatus | |
JP3915807B2 (en) | Automatic performance determination device and program | |
JP3654080B2 (en) | Waveform generation method and apparatus | |
JP3654082B2 (en) | Waveform generation method and apparatus | |
JP3760833B2 (en) | Karaoke equipment | |
JP4407473B2 (en) | Performance method determining device and program | |
JP3654084B2 (en) | Waveform generation method and apparatus | |
JP3948425B2 (en) | Performance data processing apparatus and program | |
CN113838446B (en) | Electronic musical instrument, accompaniment sound instruction method, and accompaniment sound automatic generation device | |
JP7327434B2 (en) | Program, method, information processing device, and performance data display system | |
JP7331887B2 (en) | Program, method, information processing device, and image display system | |
JP2002268637A (en) | Meter deciding apparatus and program | |
JP4821558B2 (en) | Musical sound synthesizer and program | |
JP2016057389A (en) | Chord determination device and chord determination program | |
JP2526032Y2 (en) | Electronic musical instrument | |
JP3933161B2 (en) | Waveform generation method and apparatus | |
JP2002311950A (en) | Device, method and program for imparting expression to music data | |
JP4007374B2 (en) | Waveform generation method and apparatus | |
JP3933162B2 (en) | Waveform generation method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050927 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061212 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070327 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070409 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110427 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120427 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130427 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140427 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |