JP3728942B2 - 楽音および画像生成装置 - Google Patents
楽音および画像生成装置 Download PDFInfo
- Publication number
- JP3728942B2 JP3728942B2 JP27280898A JP27280898A JP3728942B2 JP 3728942 B2 JP3728942 B2 JP 3728942B2 JP 27280898 A JP27280898 A JP 27280898A JP 27280898 A JP27280898 A JP 27280898A JP 3728942 B2 JP3728942 B2 JP 3728942B2
- Authority
- JP
- Japan
- Prior art keywords
- performance
- information
- performance information
- sound
- musical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
- G10H1/368—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
- Processing Or Creating Images (AREA)
Description
【発明の属する技術分野】
本発明は、楽音を生成するとともに、その演奏形態を3Dアニメーション画像により表示することのできる楽音および画像生成装置に関する。
【0002】
【従来の技術】
従来より、電子楽器等において、自動リズム演奏あるいは自動ベース・コード演奏など、所望の自動演奏パターンに従って自動演奏を行うことが知られている。すなわち、コードバッキングパートやベースパートについては演奏者が楽曲の進行に従って和音(コード)を順次指定することにより指定された和音に基づいてコードバッキング音、ベース音が所定の演奏パターンに従って自動的に発音される。一方、打楽器パートの演奏は、各種リズム毎にノーマルパターンとバリエーションパターンが用意されており、いずれかのパターン(スタイル)を選択して自動演奏することができるようになっている。また、前記バリエーションパターンは1個に限らず、複数用意されている場合もある。一般に、このような演奏パターンは1〜数小節分の長さを持ち、これを繰り返すことにより連続的な自動リズム演奏が行われるようになされている。
【0003】
このような場合、メインの演奏パターンは同じパターンが繰り返されるので演奏が単調になりがちである。そこで、フィルインあるいはブレーク、アドリブ等と称されるサブパターンを用意しておき、人為的なスイッチ操作等による指示に応じてこのサブパターンに従う演奏を一時的に挿入し、その後メインのパターンに移行するようにすることが行われている。ここで、前記メインのパターンおよび各サブパターンは、データベース化されており、演奏者の操作により読み出されて再生されるようになされている。
【0004】
図14は、このような自動演奏における演奏パターン(スタイル)の遷移の一例を示す図である。この図に示す例では、メインAとメインBの2つのメインパターン(ノーマルパターンとバリエーションパターン)と、各メインパターンにそれぞれ対応する第1および第2のフィルインパターン、すなわち、メインAを演奏中に挿入するフィルインパターンとしてA→Aフィルイン(FILL AA)、および、メインAからメインBへ移行するときのフィルインA→B(FILL AB)、また、メインBを演奏中に挿入するフィルインパターンとしてB→Bフィルイン(FILL BB)、および、メインBからメインAへ移行するB→Aフィルイン(FILL BA)、さらに、各メインパターンに対応するイントロパターン(INTRO A、INTRO B)およびエンディングパターン(ENDING A、ENDING B)の各演奏パターンを有している。
また、前記各パターン(スタイル)を切り換えるときに操作される「FILL A」および「FILL B」の2つのフィルインパターン選択スイッチ、および、エンディングパターンを選択する「ENDING A」および「ENIDING B」、イントロパターンを選択する「INTRO A」および「INTRO B」の各操作スイッチが設けられている。
【0005】
例えば、「INTRO A」が操作されたとき、まず、イントロAが演奏され、その演奏が終了した後に、メインAの演奏が開始される。そして、メインAの演奏中に、前記「FILL A」スイッチが押されたときには、前記FILL AAパターンを挿入して、その後メインAに復帰し、前記「FILL B」スイッチが押されたときには、前記FILL ABを挿入して、その後メインBに移行する。また、「ENDING A」が押されたときには、エンディングAを演奏してその演奏を終了する。
一方、「INTRO B」が操作されると、イントロBが演奏された後に、メインBの演奏が開始される。そして、メインB演奏中に、前記「FILL A」スイッチが押されたときには、前記FILL BAパターンを挿入して、その後メインAに移行し、前記「FILL B」スイッチが押されたときには、前記FILL BBパターンを挿入して、その後メインBに復帰するようになされている。さらに、「ENDING B」が押されると、エンディングBを演奏してその演奏を終了する。
【0006】
このように、操作スイッチが操作されたときの演奏状態に応じて、演奏中のメインパターンと移行先のメインパターンとに対応したフィルインパターンが選択され、挿入されるようになされており、演奏が単調にならないようにすることができる。
なお、上記図14ではメインパターンがAとBの2つだけの場合を示したが、これに限られない。また、上記した以外のバリエーションおよび遷移の仕方も、種々知られている。例えば、1つのパートの一部の楽器についてのみフィルインを行なうようにすることもできる。
【0007】
また、上述した自動伴奏に限らず、所望の曲の各音符についてその音符の音高、発音開始/消音開始タイミング等を、例えば、SMF(Standard MIDI File)などの形式で演奏情報として記憶しておき、この演奏情報(曲データ)を順次読み出して楽音を生成する自動演奏装置も知られている。演奏者は、ただ単に、演奏開始スイッチおよび演奏終了スイッチを操作するのみでよい。
【0008】
【発明が解決しようとする課題】
上述したような従来の自動伴奏や自動演奏を行なうことのできる電子楽器においては、演奏者が演奏パターンを切り換えることにより、音によるインタラクション(相互作用)を行うことはできるが、視覚によるインタラクションを行なうことができなかった。
このような電子楽器に表示部を設けて、自動演奏や自動伴奏における曲名を表示すること、あるいは、演奏時の小節やテンポを表示することが行なわれていた。また、演奏者が次に押鍵すべき押鍵指示を表示部により表示することも行なわれていた。しかしながら、表示部に演奏自体を表示することは行なわれておらず、演奏の様子を見るといったことは実現されていなかった。
【0009】
そこで、本発明は、演奏スタイルに合わせた動作を演奏と同期させて表示することにより、様々な楽器演奏を見て楽しみながら演奏することが可能な楽音および画像生成装置を提供することを目的としている。
【0010】
【課題を解決するための手段】
上記目的を達成するために、本発明の楽音および画像生成装置は、演奏情報に基づいて楽音を生成する楽音生成部と、各パート毎の、細分化された演奏パターンの演奏動作の軌跡を表す動作情報と発音のタイミングを示す発音ポイントマーカーとを含む動作部品が格納された部品データベースと、前記演奏情報に対応する動作部品を前記部品データベースから読み出し、該読み出した動作部品を順次接続することにより得られた情報と前記発音ポイントマーカーに基づいて、前記楽音生成部で生成される楽音の音量変化に応じて振幅が制御された周期運動を繰り返す、前記楽音と同期した3Dアニメーション画像データを生成する画像生成部とを有するものである。
また、本発明の他の楽音および画像生成装置は、ソロパートの演奏情報とバックパートの演奏情報を含む演奏情報に基づいて楽音を生成する楽音生成部と、各パート毎の、細分化された演奏パターンの演奏動作の軌跡を表す動作情報と発音のタイミングを示す発音ポイントマーカーとを含む動作部品が格納された部品データベースと、前記演奏情報に対応する動作部品を前記部品データベースから読み出し、該読み出した動作部品を順次接続することにより得られた情報と前記発音ポイントマーカーに基づいて、前記楽音生成部で生成される楽音と同期した3Dアニメーション画像データを生成する画像生成部であって、前記ソロパートの演奏情報に対応する3Dアニメーション画像データと前記バックパートの演奏情報に対応する3Dアニメーション画像データとを生成するときに、前記バックパートの演奏情報に対応する3Dアニメーション画像データの再生フレーム数を前記ソロパートの演奏情報に対応する3Dアニメーション画像データの再生フレーム数より落として生成する画像生成部とを有するものである。
【0011】
これにより、楽曲データに同期して、任意の楽器あるいはパートにおけるその演奏の様子を画像表示装置に表示させることが可能となり、演奏者は音によるインタラクションだけでなく、視覚によるインタラクションも楽しむことができるようになる。
また、動作部品をデータベース化しているため、複数のパターンや楽曲に対して共通の動作部品を使用することができるとともに、随時必要な部品をデータベースに追加していくことが可能となる。したがって、効率的に3Dアニメーション画像を生成表示させることが可能となる。
さらに、テンポの変更等に対して共通の動作部品を使用することが可能となり、データベースのサイズを小さくすることができる。また、この発音ポイントマーカーを楽音生成部との同期に用いることにより、楽音と画像とのより高精度の同期が可能となる。
さらにまた、楽器の音量に対応した楽器の揺れ状態を表現することが可能となり、自然な演奏動作を表現することができる。
さらにまた、ソロプレーヤーとバックプレーヤーとで再生フレーム数を変更することが可能となり、CPUの負荷を軽減することが可能となる。
【0015】
【発明の実施の形態】
図1は、本発明の楽音および画像生成装置の一実施の形態の構成例を示すブロック図である。この図において、1はこの装置全体の動作を制御する中央処理装置(CPU)、2はこの楽音および画像生成装置を制御する制御プログラムを記憶するプログラム記憶装置、3はリズムパターンや自動ベース・コードパターン等の各種自動演奏パターンが格納されたスタイルデータベース、演奏の様子を表示するための3D画像を生成するための動作部品データベースおよびシーン部品データベース、その他の各種データを記憶するとともに作業領域として使用されるROMおよびRAMなどからなる記憶装置、4は鍵盤(キーボード)および操作パネルに設けられた各種の操作子からなる操作スイッチ群である。5は音源部であり、複数チャンネル分の音階音およびリズム音の楽音信号を生成する。この音源部は、波形メモリ方式、FM方式、物理モデル方式、高調波合成方式、フォルマント合成方式、VCO+VCF+VCAのアナログシンセサイザ方式等どのような方式のものであってもよい。また、専用のハードウエアを用いて構成された音源回路に限られることはなく、DSPとマイクロプログラムを用いて構成された音源回路や、あるいは、CPUとソフトウエアのプログラムにより構成されたものであってもよい。なお、この音源部5には、生成された楽音に対してビブラートやリバーブなど各種のエフェクトを施すためのエフェクト処理部も含まれている。また、6は前記音源部5から出力される楽音を放音するためのサウンドシステムである。
【0016】
7は、画像表示装置(グラフィックディスプレイ)であり、この楽音および画像生成装置の動作状態や操作スイッチの操作状態を表示するとともに、選択された楽器あるいはパートの演奏の様子を例えば3Dのアニメーション画像で表示する。
また、8はハードディスク、フロッピーディスク、CD−ROM、MO、DVD等の外部記憶装置、9は外部のMIDI機器との通信を行うためのMIDIインターフェース回路である。
さらに、10は外部に接続されたモニタ11に前記演奏の様子を示す画像を表示するためのビデオインターフェース回路、12は前記各構成要素間のデータ伝送を行うためのバスである。
【0017】
図2は、本発明の楽音および画像生成装置の一実施の形態の外観の一例を示す図である。この例においては、前記操作スイッチ群4として、鍵盤40、自動演奏の開始を指示するスタートスイッチ41、自動演奏の終了を指示するストップスイッチ42、自動演奏するリズムおよびメインおよびバリエーションなどの演奏パターンを選択するスタイルセレクトスイッチ43、演奏の様子を表示する楽器あるいはパートを選択する楽器チェンジスイッチ44、演奏の様子を表示する際にどのようなキャラクタによる演奏を表示させるかを選択するプレイヤーチェンジスイッチ45、フィルインを行なう楽器を選択するフィルインスイッチ46、演奏の様子を表示するときの背景を選択するステージチェンジスイッチ47および演奏の様子を表示するときの視点を決定するための視点チェンジスイッチ48が設けられている。ここで、前記楽器チェンジスイッチ44、プレイヤーチェンジスイッチ45およびフィルインスイッチ46におけるD,G,BおよびKは、それぞれ、ドラムパート、ギターパート、ベースパートおよびキーボードパートを選択するためのスイッチであり、A〜Dは、それぞれ、前記D,G,B,Kにより選択されたパートにおける詳細を選択するスイッチである。
また、この例においては、画像表示装置7(あるいは外部モニタ11)に複数のパート(キーボード、ベースおよびドラムの3つのパート)の演奏の様子が3Dアニメーション画像により表示されている。
【0018】
このように3Dアニメーション画像を表示する処理について説明する前に、まず、前記動作部品データベース20について説明する。
この動作部品データベース20は、様々な楽器毎あるいはパート毎に、多様な演奏パターンをそれぞれ細分化し、該細分化されたパターンの演奏動作を、例えばモーションキャプチャーデータとして取り込み、x,y,z軸方向に分解するとともに、発音タイミング(例えば、ドラムの場合には打点位置)を該取り込んだデータにマーキングしてデータベース化したものである。これら細分化された演奏動作のデータを動作部品と呼ぶ。
図3は、ドラムパートの動作部品の一例を示す図であり、この図に示すように、ドラムパートの細分化された短いフレーズA,B,C,D,…の演奏パターン毎にそのパターン演奏時の演奏者の動作の軌跡を示す動作情報および前記発音ポイントマーカーのデータにより各動作部品が構成されており、前記動作部品データベース20に格納されている。なお、この例においては、シンバル、スネアドラムおよびバスドラムの3つの楽器の動作情報を1つの動作部品としているが、ピアノやサックスといった楽器の場合には各楽器毎に動作部品を生成する。
【0019】
前記動作部品を作成する処理について、図4のフローチャートを参照して説明する。まず、ステップS10において、特定の楽器にて細分化された特定のフレーズを演奏者が演奏している状態をモーションキャプチャーデータとして取得する。
図5の(a)はその様子を説明するための図であり、この図に示すように、演奏者の体の要部および必要に応じて楽器に3Dデジタイザを装着し、前記細分化された特定のフレーズを演奏してもらい、そのときの演奏者のからだの動きを記録する。なお、3Dデジタイザとしては、磁気的なものあるいは光学的なものなどが知られている。
そして、ステップS11において、このようにして取得したモーションキャプチャーデータにおいて、各部位の中心点の軌跡をxyz座標系に分解し、各部位の移動状態及び位置を示す動作情報を取得する。なお、このときに時間データも同時に記録してもよい。
【0020】
次に、ステップS12に進み、発音の起こった位置(発音ポイント)の要所部位の座標およびその演奏開始からの経過時間を判別することができるようにマーカー(発音ポイントマーカーと呼ぶ)として記憶する。例えば、図5の(b)に示すフレーズの演奏である場合には、図中に示す3つの位置が発音ポイントとなり、それぞれの経過時間t,t’,t”が判別可能に記憶される。なお、この発音ポイントマーカーは、前記取得した動作情報データの集合内で、発音ポイントに対応するデータを特定することができるようになっていれば、どのような形式のものであってもよい。
そして、ステップS13に進み、前述のようにして取得したデータと演奏されたフレーズとの対応付けを行う。そして、再生時の位置の変更(演奏者および楽器の形状や大きさの変更)あるいは時間の変更(テンポの切り替え)に対応することができる形式のデータとしてデータベース化しておく。
なお、前記動作部品データとしては、前述したxyz座標および時間の各データおよび発音ポイントマーカーの他にも、各部位毎の移動速度や加速度などのデータも含ませるようにしてもよい。
【0021】
このようして作成された動作部品データベース20を用いて3Dアニメーション画像を生成表示する処理について、自動伴奏機能を有する装置の場合を例にとって説明する。図6は、この自動伴奏再生における処理の流れを示す図であり、1つのパートの楽音と演奏の様子を示す3Dアニメーション画像の再生処理の流れを示している。複数のパートの演奏の様子を示す場合には、この図6に示した処理をそれぞれのパートについて実行し、それらを合成して表示すればよい。
【0022】
まず、演奏者により、前述した操作スイッチ群4が操作され、自動伴奏制御操作が実行されると、ステップS20の処理が実行される。このステップS20では、演奏者によりなされた操作に応じて、再生すべきパターンを前記スタイルデータベース21から選択する。これは、前述した従来の自動伴奏機能との場合と同様の処理である。このようにして選択された演奏スタイルデータは、ステップS21とステップS25の各処理に引き渡される。
【0023】
ステップS25は、前述した従来の自動伴奏処理と同様の処理であり、選択された演奏スタイルデータに含まれている演奏情報に基づいて、キーオンイベント、コントロールチェンジなどの発音イベント、音源制御パラメータを生成する。このようにして生成された音源制御パラメータなどは、音源部5に入力され、対応する楽音が生成されて(ステップS26)、前記サウンドシステム6から出力される。
【0024】
一方、ステップS21では、前記選択された演奏スタイルデータに基づいて、対応する動作部品を前記動作部品データベース20から選択し、基本動作情報を生成する。ここで、自動伴奏の場合には、各演奏スタイルに対応する動作部品は予め知ることができるため、前記選択された演奏スタイルデータ中に対応する動作部品を特定する情報を含ませることができる。
【0025】
図7を用いて、この基本動作情報の生成の一例について説明する。図7の(a)は、前記動作部品データベース20に格納されている各動作部品に対応するフレーズの一例である。すなわち、前記動作部品データベース20には、この図に示したフレーズA,B,C,D,…にそれぞれ対応する動作部品がデータベース化されて格納されている。そして、選択された演奏スタイルに対応する演奏パターンが図7の(b)に示されているパターンであるとする。この場合、このステップS21において、前記パターンに応じた動作部品を前記動作部品データベース20から読み出す。そして、各動作部品の末尾の部分と後続する動作部品の先頭部分を重ね合わせて、それらを繋ぎあわせることにより、基本動作情報を生成する。この結果、図7の(b)に示した基本パターンについては、A→B→C→Bというように対応する動作部品がつなげられることとなる。
【0026】
また、前述した特定の楽器に対するフィルインなどのバリエーション操作がなされた場合には、ステップS22に進み、前記ステップS21において生成した基本動作情報に対し、フィルインに応じた動作情報を重ね合わせるあるいは差し替える処理を行う。例えば、演奏すべきスタイルパターンが図6の(c)に示すようなバリエーションパターン、すなわち、ドラムパートのうちのシンバルとスネアドラムについてフィルインを行なうものである場合には、前記ステップS21において生成した基本動作情報(A→B→C→B)の最後の部分とその一つ前のデータを動作部品Dのデータに入れ替えることにより、このバリエーションパターンに対応する動作情報を得ることができる。このように動作部品のうちの一部を他の部品の一部と差し替えることにより、前述したバリエーション動作に対応することができる。
【0027】
次に、ステップS23に進み、前記入力操作子44により設定される表示パート選択データ、前記入力操作子45からの演奏者キャラクタ選択データ、前記入力操作子48からの視点切り替え操作データ、前記入力操作子47からのステージチェンジ操作データなどに応じて、シーン部品データベース22からこれらに対応する情報を選択して読み出すとともに、これらの情報に基づいて前記動作情報に含まれている座標データの補正処理を行う。すなわち、演奏状態を表示するパートあるいは楽器、演奏をしているキャラクタ、選択されたステージ、および指定された視点(カメラ位置)に対応するシーン部品を前記シーン部品データベース22から読み出す。なお、複数のパートあるいは楽器の演奏状態の表示が指示されたときは、それらの配置に対応したシーン部品が読み出される。
【0028】
図8を参照して、前記座標データの補正処理の一例について説明する。この例は、演奏の状態を表示すべき楽器がシンバルである場合を示しており、動作情報には、初期位置(x0,y0,z0)からシンバル上のターゲット位置(xt,yt,zt)までの(1)で示すスティックの軌跡が含まれているとする。このとき、操作者により選択された演奏者キャラクタあるいは視点位置データ等のデータによりシンバルの高さが変更され、ターゲットの座標が(xt’,yt’,zt’)になったとする。このときは、(2)で示す軌跡となるように、このステップS23において、前記動作情報の補正を行う。また、演奏者が変更され、前記スティックの初期位置が図中の破線で示す位置に変更されたときには、(3)で示す軌跡となるように動作情報の補正を行い、さらに、演奏者とシンバルの高さの両者が変更されたときには、(4)で示す軌跡となるように、前記動作情報の補正処理を行う。
このようにして、このステップS23において、モデル位置が決定され、それに対応するようにアニメーションが決定される。
【0029】
このとき、本発明においては、前述したように動作部品データベース20に格納されている各動作部品には、時間軸に沿った座標データだけではなく発音ポイントマーカーも含まれており、この発音ポイントマーカーにより、各発音ポイントの座標およびその動作情報の再生開始から発音ポイントまでの時間あるいは速度を取得することができる。したがって、この発音ポイントマーカーに基づいて、生成する映像と生成する楽音との同期を取るようにしている。
【0030】
すなわち、前記図5の(b)に示したように、各発音ポイントまでの基準テンポにおける時間t,t’,t”を前記動作部品から取得することができる。したがって、前記動作部品を作成したときのテンポ(基準テンポ)に対し演奏するテンポがk倍のテンポに変更されたときには、前記動作情報の再生開始から発音ポイントまで1/k倍の時間(速度であればk倍の速度)で到達するように、その動作情報の再生間隔が短くあるいは長くなるように動作情報読み出しの間引きをおこなったり、複数回同じ動作位置を読み出すなどのように制御すれば良い。また、移動時間あるいは移動速度が座標毎に用意されている場合、すなわち各部位がある座標から次の座標に移動するまでの時間あるいは速度の情報が動作部品中に含まれている場合には、それが時間のときには1/k倍、速度のときにはk倍にそれぞれ変更(補正)して制御すればよい。
【0031】
ところで、全ての動作について上述のように単純に時間軸を制御するだけでは、不自然な画像となる場合がある。例えば、テンポを半分にすると画像の動作速度が全体的に半分の速度となり、ドラムの演奏などの場合には、そっと叩くような画像となり、音量を抑えた演奏のように見えることとなってしまう。これを避けるためには、動作を開始してから発音ポイントまでの動作において、発音動作に関する個所(発音動作開始点から消音動作点まで)を認識できるようにしておき、発音動作開始点から消音動作点までの動作速度は、テンポを変更しても変更しないようにする。
【0032】
図9を用いてこの様子を説明する。この図において横軸は時間、縦軸は演奏動作(例えば、ドラムスティックの位置)を示している。図の(a)に示すように、通常のテンポの場合には、発音動作開始点からドラムスティックの移動が開始され、発音点においてもっとも低い位置に達し、消音動作点でまたもとの位置に戻っている。(b)はテンポを遅く変更した場合に単純に時間軸を伸長した場合を示しており、発音動作開始点→発音点→消音動作点までの時間も(a)の場合よりも長くなっている。そこで、(c)に示すように、発音動作開始点まではテンポに対応した速度で画像を再生し、発音動作開始点から消音動作点までは前記(a)の場合と同じ速度で再生するようにする。これにより、音量に対応した実際の演奏と同様の画像を表示することができる。なお、テンポを早くした場合にも、同様に発音動作開始点から消音動作点までの再生速度は変更しないようにする。
【0033】
また、前記音源制御パラメータ生成ステップS25(図6)において発生されるエンベロープやベロシティ等の音源制御パラメータを利用して、動作情報の修飾を行うようにしている。このことについて、シンバルの揺れ動作を例にとって、図10を参照して説明する。図10の(a)は、シンバルの揺れの様子を示す図である。前述のように前記動作部品データベース20には、モーションキャプチャにより作成された標準的なシンバルの揺れ動作が格納されている。この動作部品に基づいて、楽音中の発音タイミングに同期してシンバルの揺れを表す動作情報を生成するのであるが、このときに、ベロシティあるいはトラックボリュームなどの楽音制御パラメータに基づき、ベロシティあるいはトラックボリュームが大きいときはシンバルの揺れを大きくし、逆に小さければ揺れも小さくするように動作情報を生成する。
【0034】
すなわち、最大音量をMとし、発音時の音量をmとする。また、揺れの周期は正弦波で表現されているとする。ここで、シンバルの揺れの最大振幅値をAとすると、発音後のシンバルの揺れは、次の式(1)で表される。
揺れ量=(m/M)・A・sint …(1)
ここで、tは時間を表している。
また、最大エンベロープ値をEとし、その後音源チャンネルでシンバルを発音しているチャンネルのエンベロープ値eを読み出し、これを入力情報として使用する。この場合には、シンバルの揺れ量は次の式(2)により表すことができる。
揺れ量=(m/M)・(e/E)・A・sint …(2)
すなわち、音源のエンベロープ値eの減衰に応じて、シンバルの揺れ量も周期運動を繰り返しながら減衰していく。図10の(b)は、この様子を示す図である。
このようにして算出した揺れ量を動作情報の補正演算に用いることにより、音量に合致した高品質の画像を作成することができる。
【0035】
さらに、演奏者単位あるいはパート単位で、画像の再生フレームレートを変更することもできる。例えば、バックプレイヤーや視点切り換えで後ろに移動したプレイヤーなどについては、再生フレームレートを落とすようにすることもできる。図11はこの様子を示す図であり、(a)のようにソロパートのプレイヤーと2人のバックパートのプレイヤー(バック1およびバック2)の画像を再生する場合を例にとって説明する。この場合には、(b)に示すように、ソロプレイヤーは通常の再生フレームレート(例えば、30フレーム/秒)で画像を生成し、バック1およびバック2のプレイヤーについては、例えばその1/2のフレームレートで交互に画像を生成するようにする。これにより、CPUの演算負荷を減少させることが可能となる。
【0036】
さらにまた、発音ポイントの画像生成処理に到達したことを、画像処理部S24から前記音源制御パラメータ生成ステップS25に報知し、これに基づいて、前記S26における発音処理を行うようにすれば、発音と生成される画像の同期の確実性を向上させることが可能となる。
このようにして、演奏のテンポに応じて正しい発音ポイントを有する演奏画像を生成することが可能となる。
【0037】
次に、ステップS24に進み、前記ステップS23により決定された情報を用いて画像生成処理(レンダリング)が実行される。すなわち、前記シーン情報および動作情報に基づいて、シーンの映像化が行われる。すなわち、前記シーン情報や動作情報に基づいて、座標変換、隠面消去、交点・交線・交面などの算出、シェーディング、テクスチャーマッピングなどの処理を行い、画像表示装置上の画像の各ピクセルの輝度値を出力して、3Dアニメーション画像を生成し、画像表示装置7に出力する。
以上のようにして、自動伴奏データに同期して、任意のパートの演奏の状態を3Dアニメーション画像で表示することができる。
【0038】
次に、所望の曲の曲データを再生する自動演奏装置に適用した本発明の実施の形態について、図12の流れ図を参照して説明する。このような自動演奏を行う場合には、演奏すべき楽曲の演奏情報(曲データ)が曲データベース23に格納されている。操作者が自動演奏させたい曲を選択すると、ステップS30において、前記この曲データベース23から選択された曲の再生データが所定長ずつ読み出される。そして、この再生データは、ステップS31とステップS34に与えられる。ステップS34、S35は、前記自動伴奏の場合におけるステップS25、S26と同一の処理であり、再生データに基づく楽音を生成しサウンドシステム6から出力する。
【0039】
ステップS31〜S33は再生データに対応する3Dアニメーション画像を生成する処理である。ステップS31においては、前記動作部品データベース20から、前記所定長の再生データに最も近い動作部品を選択して読み出す。そして、前記ステップS21と同様に、読み出された各動作部品の末尾の部分と後続する動作部品の先頭部分を重ね合わせてつなぎあわせることにより、基本動作情報を生成する。すなわち、演奏データの最初から細分化されたフレーズに対応する長さ(第1の部分という)を取り出し、これと最も近いフレーズに対応する動作部品を前記動作部品データベース20から読み出す。次に、前記取り出した第1の部分の末尾を先頭として同様に第2の部分を取り出し、前記動作部品データベース20からこれに最も近い動作部品を読み出し、前記最初に取り出した動作部品に接続する。以下同様に、前述の動作を繰り返し、対応する動作部品をつなげていくことにより、基本動作情報を生成する。
なお、以上は、汎用的に用意された動作部品を流用して任意の曲データに適応させる一例を示したものであるが、動作部品を標準基本セット化(例えば、GM基本音色のように音色番号で基本音色が自動的に対応付けされているように)し、曲データ内で使用するべき前記基本セットの該当動作部品に対応する動作部品指示情報を曲データ中に曲の進行に合わせて入れるようにしておいても良い。
【0040】
そして、ステップS32に進み、前記ステップS23と同様に、モデル位置の決定およびアニメーションの決定を行う。そして、ステップS33に進み、前記ステップS24と同様にして動作情報に対応した3Dアニメーション画像を生成し、表示装置7に表示させる。
このようにして、自動演奏の場合にも、その楽曲の演奏状態を表す3Dアニメーション画像を表示させることができる。
【0041】
次に、本発明の楽音および画像生成装置の外観の他の例を図13に示す。この図に示した例は、画像表示装置7の左右に各操作子が配置されており、画面上には1つのパート(この例では、ドラムパート)を演奏している様子が3Dアニメーションで表示されている。ここで、操作子51は自動演奏のスタートボタン、52は自動演奏のストップボタン、53は演奏のテンポをアップさせるためのテンポアップボタン、54はテンポダウンボタン、55は画像表示装置7に演奏状態を表示させるときの演奏者を選択するための演奏者選択ボタン、56は同じく演奏状態を表示させるときにどの楽器の演奏状態を表示させるかを選択決定するための楽器選択ボタンである。また、57および58は自動演奏のメインパターン(メインスタイル)を選択するためのボタンであり、57はメインAを選択するメインAボタン、58はメインBを選択するメインBボタンである。さらに、59はイントロのパターンを選択するためのイントロボタン、60はフィルインパターンを挿入するためのフィルインボタン、61はエンディングパターンを選択するためのエンディングボタンである。さらにまた、62は前述した画像表示装置7に3Dの演奏状態を表示する場合における視点を移動させるための視点移動ボタンである。
【0042】
以上のように、本発明において表示する画像は、1つのパートあるいは複数のパートのいずれであっても、表示することができる。
また、鍵盤部を持たないシーケンサなどにも適用できることは明らかである。
さらに、以上の説明では、自動伴奏あるいは自動演奏の場合を例にとって説明したが、打ち込み等により入力されたメロディパートの演奏データに対しても、同様にして3Dアニメーション画像を表示させることができる。
【0043】
なお、前記ステージチェンジスイッチ47により選択されたステージに応じて、前記音源部5において付与するエフェクトを変化させるようにすることができる。例えば、ホールを選択したときは、ディレイを大きくし、屋外を選択したときはディレイを少なくするというように、前記表示される画像のシチュエーションに応じて効果を変更させることができる。
また、上記においては、モーション・キャプチャーにより動作情報(モーション・ファイル)を得る場合を例にとって説明したが、キーフレーム法のようなモーション・キャプチャー以外の方法により動作情報を生成するようにしてもよい。
【0044】
【発明の効果】
以上説明したように、本発明によれば、楽曲データに同期して3Dアニメーション画像を表示させることができる。したがって、操作者はコードやフィルイン等に応じた音によるインタラクションだけではなく、3Dアニメーション画像によるインタラクションも楽しむことができる。
また、動作部品をデータベース化しているため、複数のパターンや楽曲に対し動作部品を共通に使用することができるとともに、必要な部品をデータベースに追加していくことができる。したがって、効率的に3Dアニメーション画像を生成することが可能となる。
さらに、動作部品として動作情報とともに発音ポイントマーカーを備えているために、テンポの変更等に対して共通の動作部品を使用することが可能となり、データベースのサイズを小さくすることが可能となる。
さらにまた、楽音の演奏と同期した不自然さのない画像を表示することができる。
さらにまた、操作者は、複数のキャラクタのなかから自分の好みに合ったキャラクタを選択することができる。
さらにまた、操作者は、表示画像の視点の位置を変更することができるので、任意の位置からみた模範的な演奏状態を見ることが可能となり、教育的な用途にも使用することができる。
【図面の簡単な説明】
【図1】 本発明の楽音および画像生成装置の一実施の形態の構成例を示すブロック図である。
【図2】 本発明の楽音および画像生成装置の一実施の形態の外観図である。
【図3】 動作部品データベースを説明するための図である。
【図4】 動作部品の生成を説明するためのフローチャートである。
【図5】 動作部品の生成について説明するための図である。
【図6】 自動伴奏における画像生成表示処理および楽音生成処理の流れ図である。
【図7】 基本動作情報の作成について説明するための図である。
【図8】 座標補正処理について説明するための図である。
【図9】 テンポを変更した場合の処理について説明するための図である。
【図10】 楽器の動作の修飾処理について説明するための図である。
【図11】 再生フレームレートの変更処理について説明するための図である。
【図12】 自動演奏における画像生成表示処理および楽音生成処理の流れ図である。
【図13】 本発明の楽音および画像生成装置の外観の他の例を示す図である。
【図14】 自動伴奏処理における演奏パターンの遷移の例を示す図である。
【符号の説明】
1 CPU、2 プログラム記憶装置、3 記憶装置、4 操作スイッチ群、5音源部、6 サウンドシステム、7 画像表示装置、8 外部記憶装置、9 MIDIインターフェース回路、10 ビデオインターフェース回路、11 モニタ、20 動作部品データベース、21 スタイルデータベース、22 シーン部品データベース、23 曲データベース、40 鍵盤、41 スタートスイッチ、42 ストップスイッチ、43 スタイルセレクトスイッチ、44 楽器チェンジスイッチ、45 プレイヤーチェンジスイッチ、46 フィルインスイッチ、47 ステージチェンジスイッチ、48 視点チェンジスイッチ
Claims (2)
- 演奏情報に基づいて楽音を生成する楽音生成部と、
各パート毎の、細分化された演奏パターンの演奏動作の軌跡を表す動作情報と発音のタイミングを示す発音ポイントマーカーとを含む動作部品が格納された部品データベースと、
前記演奏情報に対応する動作部品を前記部品データベースから読み出し、該読み出した動作部品を順次接続することにより得られた情報と前記発音ポイントマーカーに基づいて、前記楽音生成部で生成される楽音の音量変化に応じて振幅が制御された周期運動を繰り返す、前記楽音と同期した3Dアニメーション画像データを生成する画像生成部と
を有することを特徴とする楽音および画像生成装置。 - ソロパートの演奏情報とバックパートの演奏情報を含む演奏情報に基づいて楽音を生成する楽音生成部と、
各パート毎の、細分化された演奏パターンの演奏動作の軌跡を表す動作情報と発音のタイミングを示す発音ポイントマーカーとを含む動作部品が格納された部品データベースと、
前記演奏情報に対応する動作部品を前記部品データベースから読み出し、該読み出した動作部品を順次接続することにより得られた情報と前記発音ポイントマーカーに基づいて、前記楽音生成部で生成される楽音と同期した3Dアニメーション画像データを生成する画像生成部であって、前記ソロパートの演奏情報に対応する3Dアニメーション画像データと前記バックパートの演奏情報に対応する3Dアニメーション画像データとを生成するときに、前記バックパートの演奏情報に対応する3Dアニメーション画像データの再生フレーム数を前記ソロパートの演奏情報に対応する3Dアニメーション画像データの再生フレーム数より落として生成する画像生成部と
を有することを特徴とする楽音および画像生成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27280898A JP3728942B2 (ja) | 1998-03-24 | 1998-09-28 | 楽音および画像生成装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9386798 | 1998-03-24 | ||
JP10-93867 | 1998-03-24 | ||
JP27280898A JP3728942B2 (ja) | 1998-03-24 | 1998-09-28 | 楽音および画像生成装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11339060A JPH11339060A (ja) | 1999-12-10 |
JP3728942B2 true JP3728942B2 (ja) | 2005-12-21 |
Family
ID=14094411
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27280898A Expired - Fee Related JP3728942B2 (ja) | 1998-03-24 | 1998-09-28 | 楽音および画像生成装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US6646644B1 (ja) |
EP (1) | EP0945849B1 (ja) |
JP (1) | JP3728942B2 (ja) |
DE (1) | DE69908846T2 (ja) |
SG (1) | SG72937A1 (ja) |
TW (1) | TW558715B (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6968004B1 (en) * | 1999-08-04 | 2005-11-22 | Kabushiki Kaisha Toshiba | Method of describing object region data, apparatus for generating object region data, video processing method, and video processing apparatus |
US6429863B1 (en) * | 2000-02-22 | 2002-08-06 | Harmonix Music Systems, Inc. | Method and apparatus for displaying musical data in a three dimensional environment |
DE10145360B4 (de) * | 2001-09-14 | 2007-02-22 | Jan Henrik Hansen | Verfahren zur Umsetzung oder Aufzeichnung von Musik, Anwendung des Verfahrens und Anlagen hierfür |
JP3849540B2 (ja) | 2002-02-19 | 2006-11-22 | ヤマハ株式会社 | 画像制御装置 |
US7339589B2 (en) | 2002-10-24 | 2008-03-04 | Sony Computer Entertainment America Inc. | System and method for video choreography |
FR2847174A1 (fr) * | 2002-11-14 | 2004-05-21 | Makina I | Installation ludique interactive |
JP4259153B2 (ja) | 2003-03-24 | 2009-04-30 | ヤマハ株式会社 | 画像処理装置および画像処理方法を実現するためのプログラム |
JP2005044297A (ja) * | 2003-07-25 | 2005-02-17 | Sony Corp | オーディオ再生方法及び装置 |
JP2005241877A (ja) * | 2004-02-25 | 2005-09-08 | Yamaha Corp | 運指指示装置およびプログラム |
JP4513644B2 (ja) * | 2005-05-13 | 2010-07-28 | ヤマハ株式会社 | コンテンツ配信サーバ |
US7601904B2 (en) * | 2005-08-03 | 2009-10-13 | Richard Dreyfuss | Interactive tool and appertaining method for creating a graphical music display |
WO2008152644A2 (en) * | 2007-06-12 | 2008-12-18 | Eyecue Vision Technologies Ltd. | System and method for physically interactive music games |
US8136041B2 (en) * | 2007-12-22 | 2012-03-13 | Bernard Minarik | Systems and methods for playing a musical composition in an audible and visual manner |
JP2010165169A (ja) * | 2009-01-15 | 2010-07-29 | Kddi Corp | モーションキャプチャデータの楽曲同期システムにおけるリズムマッチング並列処理装置およびそのコンピュータプログラム |
KR101640458B1 (ko) * | 2009-06-25 | 2016-07-18 | 삼성전자주식회사 | 영상 장치 및 컴퓨터 판독 기록매체 |
JP5722229B2 (ja) * | 2010-07-15 | 2015-05-20 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | アニメーション制御装置、アニメーション制御方法、プログラムおよび集積回路 |
JP5348173B2 (ja) * | 2011-05-16 | 2013-11-20 | ヤマハ株式会社 | 電子情報処理装置及びプログラム |
US9443498B2 (en) * | 2013-04-04 | 2016-09-13 | Golden Wish Llc | Puppetmaster hands-free controlled music system |
JP6684556B2 (ja) * | 2015-08-28 | 2020-04-22 | 株式会社電通 | データ変換装置、ロボット、プログラム及び情報処理方法 |
JP6809112B2 (ja) * | 2016-10-12 | 2021-01-06 | ヤマハ株式会社 | 演奏システム、自動演奏方法およびプログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5005459A (en) * | 1987-08-14 | 1991-04-09 | Yamaha Corporation | Musical tone visualizing apparatus which displays an image of an animated object in accordance with a musical performance |
JP2943201B2 (ja) | 1990-01-21 | 1999-08-30 | ソニー株式会社 | 画像作成装置及び方法 |
US5391828A (en) | 1990-10-18 | 1995-02-21 | Casio Computer Co., Ltd. | Image display, automatic performance apparatus and automatic accompaniment apparatus |
JP2518464B2 (ja) * | 1990-11-20 | 1996-07-24 | ヤマハ株式会社 | 楽音合成装置 |
JP3241372B2 (ja) * | 1990-11-27 | 2001-12-25 | パイオニア株式会社 | カラオケ演奏方法 |
US5286908A (en) | 1991-04-30 | 1994-02-15 | Stanley Jungleib | Multi-media system including bi-directional music-to-graphic display interface |
US5287347A (en) | 1992-06-11 | 1994-02-15 | At&T Bell Laboratories | Arrangement for bounding jitter in a priority-based switching system |
US5621538A (en) * | 1993-01-07 | 1997-04-15 | Sirius Publishing, Inc. | Method for synchronizing computerized audio output with visual output |
JPH0830807A (ja) | 1994-07-18 | 1996-02-02 | Fuji Television:Kk | 演奏連動型動画生成装置、音声連動型動画生成装置及びこれを利用したカラオケ装置 |
US5902115A (en) * | 1995-04-14 | 1999-05-11 | Kabushiki Kaisha Toshiba | Recording medium on which attribute information on the playback data is recorded together with the playback data and a system for appropriately reproducing the playback data using the attribute information |
JPH08293039A (ja) | 1995-04-24 | 1996-11-05 | Matsushita Electric Ind Co Ltd | 音楽画像変換装置 |
US6160907A (en) * | 1997-04-07 | 2000-12-12 | Synapix, Inc. | Iterative three-dimensional process for creating finished media content |
JP3454100B2 (ja) * | 1997-08-21 | 2003-10-06 | ヤマハ株式会社 | 演奏パラメータ表示装置 |
-
1998
- 1998-09-28 JP JP27280898A patent/JP3728942B2/ja not_active Expired - Fee Related
-
1999
- 1999-03-18 DE DE69908846T patent/DE69908846T2/de not_active Expired - Lifetime
- 1999-03-18 EP EP99105560A patent/EP0945849B1/en not_active Expired - Lifetime
- 1999-03-18 SG SG1999001374A patent/SG72937A1/en unknown
- 1999-03-19 US US09/271,724 patent/US6646644B1/en not_active Expired - Fee Related
- 1999-03-19 TW TW088104379A patent/TW558715B/zh not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
SG72937A1 (en) | 2000-05-23 |
DE69908846D1 (de) | 2003-07-24 |
EP0945849B1 (en) | 2003-06-18 |
DE69908846T2 (de) | 2004-05-13 |
US6646644B1 (en) | 2003-11-11 |
TW558715B (en) | 2003-10-21 |
JPH11339060A (ja) | 1999-12-10 |
EP0945849A1 (en) | 1999-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3728942B2 (ja) | 楽音および画像生成装置 | |
US6245982B1 (en) | Performance image information creating and reproducing apparatus and method | |
US6555737B2 (en) | Performance instruction apparatus and method | |
JP2000221976A (ja) | 曲データ作成装置および曲データ作成プログラムを記録した記録媒体 | |
EP1638077A1 (en) | Automatic rendition style determining apparatus, method and computer program | |
JP4702160B2 (ja) | 楽音合成装置及びプログラム | |
JP2004205817A (ja) | カラオケ装置 | |
JPH10214083A (ja) | 楽音生成方法および記憶媒体 | |
JP3829780B2 (ja) | 奏法決定装置及びプログラム | |
JP3760833B2 (ja) | カラオケ装置 | |
JP4407473B2 (ja) | 奏法決定装置及びプログラム | |
JP4211388B2 (ja) | カラオケ装置 | |
JP3901008B2 (ja) | 音声変換機能付カラオケ装置 | |
JP4366240B2 (ja) | ゲーム装置および音高付効果音生成プログラムならびに方法 | |
JP2000293183A (ja) | カラオケ装置 | |
JP3333990B2 (ja) | 音楽ゲームの制御方法及び記録媒体 | |
JP3700442B2 (ja) | 奏法対応入力システム及びその記録媒体 | |
JP3873790B2 (ja) | 奏法表示編集装置及び方法 | |
JP3896609B2 (ja) | カラオケ装置 | |
JP3921817B2 (ja) | 自動演奏装置およびフィンガリング記録装置 | |
JP4172509B2 (ja) | 奏法自動判定装置及び方法 | |
JP4821558B2 (ja) | 楽音合成装置及びプログラム | |
JP7008560B2 (ja) | 運指表示装置及び運指表示プログラム | |
JP3654026B2 (ja) | 奏法対応入力システム及びその記録媒体 | |
JP2006133464A (ja) | 奏法決定装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050104 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050303 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050405 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050531 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20050607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050628 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050819 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050926 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091014 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101014 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101014 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111014 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111014 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121014 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121014 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131014 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |