JP3921817B2 - Automatic performance device and fingering recording device - Google Patents

Automatic performance device and fingering recording device Download PDF

Info

Publication number
JP3921817B2
JP3921817B2 JP17117598A JP17117598A JP3921817B2 JP 3921817 B2 JP3921817 B2 JP 3921817B2 JP 17117598 A JP17117598 A JP 17117598A JP 17117598 A JP17117598 A JP 17117598A JP 3921817 B2 JP3921817 B2 JP 3921817B2
Authority
JP
Japan
Prior art keywords
data
animation
performance
player
fingering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP17117598A
Other languages
Japanese (ja)
Other versions
JP2000010560A (en
Inventor
秀一 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP17117598A priority Critical patent/JP3921817B2/en
Publication of JP2000010560A publication Critical patent/JP2000010560A/en
Application granted granted Critical
Publication of JP3921817B2 publication Critical patent/JP3921817B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、自動演奏にあわせて演奏者のアニメーションを表示することができる自動演奏装置、および、演奏者の指使いであるフィンガリングをアニメーションするためのフィンガリングデータを記録するフィンガリング記録装置に関する。
【0002】
【従来の技術】
自動演奏用の演奏データを時系列に読み出し、読み出したデータで音源を駆動して楽音を発生することで楽曲を自動演奏する自動演奏装置は、従来より実用化されている。
【0003】
【発明が解決しようとする課題】
しかし、従来の自動演奏装置は、演奏データに書き込まれているパートの楽音を自動的に発生するのみで、現在どのような楽器が演奏されているのか、どのような楽器の組み合わせのバンド(アンサンブル)であるのかが分からないという問題点があり、また、利用者がその組み合わせを自由に変更することができないという問題点があった。
【0004】
この発明は、自動演奏に合わせて演奏パートの演奏者のアニメーションを表示することができる自動演奏装置、演奏パートを変更することができる自動演奏装置、および、アニメーションのための演奏者のフィンガリングを記録することができるフィンガリング記録装置を提供することを目的とする。
【0005】
【課題を解決するための手段】
請求項1の発明は、演奏データに基づいて楽曲を自動演奏する自動演奏手段と、複数種類の楽器の演奏者のアニメーション素材を記憶した素材記憶手段と、演奏データが指定する音色の楽器の演奏者を選出して、該演奏データの少なくとも音高に基づいてアニメーション素材を合成することにより、前記楽曲を演奏する演奏者のアニメーションを作成するアニメーション作成手段と、を備えたことを特徴とすることを特徴とする。
【0007】
請求項の発明は、請求項1の発明において、前記素材記憶手段は、演奏者の手指の形状情報および演奏動作情報を含むアニメーション素材を記憶し、前記アニメーション作成手段は、演奏操作をどの指で行ったかを指示するフィンガリングデータを前記演奏データと同期して入力し、前記演奏データの少なくとも音高及びフィンガリングデータに基づいて前記アニメーション素材を合成することにより、該演奏データが指定する音色の楽器の演奏者とその演奏者のフィンガリングを表示するアニメーションを作成することを特徴とする。
【0009】
請求項の発明は、請求項1の発明において、それぞれ複数のパートを有し、旋律が同じで和音やリズムなどの異なる複数のバージョンの演奏データを並行して読み出す読出手段と、前記複数のバージョンから、任意のパートを選びだして選択し、選択したパートのデータのみを音源に入力する選択手段と、
読出手段の演奏データの読み出し中に選択手段に対して選択の変更を指示する選択変更データ入力する選択変更手段と、前記選択手段が選択したパートのデータを演奏データとしてアニメーション作成手段に入力する演奏データ入力手段と、更に備えたことを特徴とする。
【0011】
請求項の発明は、請求項の発明において、前記アニメーション作成手段は、選択変更手段によってパートの選択が変更されたとき、選択から外れたパートの演奏者のアニメーションに代えて新たに選択されたパートの演奏者のアニメーションを作成する手段であることを特徴とする。
【0012】
この発明は、演奏データに基づいて自動演奏を行うとともに、この自動演奏がどのような音色の編成で演奏されているかをアニメーションで表示する。自動演奏時に発生される楽音は演奏者が演奏する楽器の楽音波形をシミュレートしたものが殆どであるため、その演奏者が演奏している姿をアニメーションで表示することにより、構成が分かりやすくなるとともに、従来は聴覚のみの自動演奏を視覚的にも楽しめるようになり、自動演奏をより盛り上げることができる。
【0013】
演奏者のアニメーションは、演奏者の肢体や楽器の形態を表示するとともに、楽音の発音,消音に合わせて演奏動作するようにこの演奏者の肢体や楽器を動かす映像であるが、演奏データに対応させて個別のアニメーション映像データを記録する方式では、複数の演奏データのアニメーション映像データを記録しようとすれば膨大な記憶装置が必要となる。また、一般の演奏データは、複数パートで曲が演奏され、演奏データによってそのパートの組み合わせは一定でない。そこで、請求項1の発明では、予め複数パートの演奏者のアニメーション素材を記憶しておき、演奏データが指定する音色に基づいて演奏者を選択し、演奏データから入力する楽曲の音高などの情報に基づいてこのアニメーション素材を合成することによってアニメーションを作成する。これにより、カラオケ装置のように多数の楽曲を演奏する装置であっても、その都度アニメーションを作成することができるため、個別のアニメーション映像データを記憶しておく必要がない。アニメーション素材は、たとえば、演奏者や楽器の形態を描画するための図形データや演奏時の動作態様を指示するベクトルデータなどである。更に、どのようなパート構成の演奏データであってもアニメーションを作成することが可能になる。
【0015】
また、実際の楽器の演奏においては、手指が、鍵盤を押し下げたり、フレットを押さえたり、弦を弾いたりと、最も素早く細かい動きをしており、この手指の動きであるフィンガリングを再現すれば、アニメーションが極めてリアリティの高いものになる。また、正確なフィンガリングをアニメーション化すれば音楽学習に利用することもできる。しかし、フィンガリングを決定することは熟練した演奏者でも容易なことではなく、前後の音のつながりや要求される音質などを考慮して決定されるものである。したがって、演奏データから取り込む音高に基づいてその場で正確なフィンガリングを決定することは容易なことではない。そこで、請求項の発明では、演奏操作をどの指で行うかのフィンガリングデータを演奏データと同期して入力することにより、フィンガリングのアニメーションを作成している。これにより、正確なフィンガリングのアニメーションを容易に作成することができる。
【0016】
また、腕や肢体のアニメーションは請求項1の発明と同様に演奏データに基づいて作成し、手指のアニメーションはフィンガリングデータに基づいて作成する。そしてこれらを合成すれば、正確なフィンガリングで演奏する演奏者のアニメーションを作成することができる。
【0019】
また、請求項の発明は、自動演奏のパート編成を演奏途中で変更できる自動演奏装置に関するものである。読出手段が、同じ旋律の曲(すなわち同じ曲)でアレンジ(和音やリズムなど)が異なる複数の演奏データを並行して読み出す。各演奏データは複数のパートからなっているが、選択手段はこのなかから適当な一部のパートを選択して音源に入力する。これにより、複数種類のアレンジのパートを混合して演奏することができ、いままでにないアレンジの演奏が可能になる。また、全てこの曲のために制作されたパートのデータであるため、汎用のパターンを用いたアレンジ変更のような単調さがない。
【0020】
また、複数の演奏データが並行して読み出されているため、読出途中(演奏途中)であっても、選択を変更することによって発音するパートを変更することができ、演奏中に自由なパート編成の変更をすることができる。
【0021】
また、上記自由な組み合わせでパートを編成した自動演奏と並行して、アニメーションを表示できるようにした。これにより、どのようなパート編成にしてもその編成が視覚的に分かりやすい。さらに、請求項の発明では、演奏途中でパート選択の変更があったときには、アニメーションにおいても選択から外れた演奏者に代えて新たに選択された演奏者のアニメーションを作成・表示する。これにより、パート変更,バンドの編成を変更した結果が視覚的に分かりやすく表示される。このとき、アニメーションでは外れた者が退場し、新たに選択された者が登場するようなものにすればより視覚的に面白いものになる。
する。
【0022】
【発明の実施の形態】
図面を参照してこの発明の実施形態である自動演奏装置について説明する。この自動演奏装置は、たとえばカラオケ装置など表示装置を接続したものであり、自動演奏と並行して表示装置にその演奏を行っている演奏者(プレーヤ)のアニメーションを表示する機能を備えている。
【0023】
図1は同自動演奏装置の機能ブロック図である。曲データ記憶部1は曲(カラオケ曲など)を自動演奏するためのデータである演奏データを記憶している。演奏データは、図4(A)に示すような構成になっており、曲のジャンル,曲名などの書誌情報が書き込まれたヘッダ、複数の音色(パート)の楽音を発生するための楽音トラック、バックコーラス(音声データ)の発生タイミングなどを指示するための音声制御トラック、楽音に効果を付与するエフェクタを制御するためのエフェクタ制御トラック、モニタに表示する歌詞を指示する歌詞トラックなどからなっている。
【0024】
各トラックはMIDIフォーマットのシーケンスデータで記述されており、同図(C)に示すように、楽音の発音/消音などのイベントを指示するイベントデータがそのイベント発生タイミングを指示するタイミングデータと組み合わされて時系列に記憶されている。イベントデータとしては、楽音トラックの場合、上記楽音の発音/消音、アフタタッチ、各種コントロール情報などがある。
【0025】
曲データ記憶部1には複数の楽曲の演奏データが記憶されている。自動演奏部2は、そのうちの1曲を選択し、タイミングデータをテンポクロックでカウントしながらイベントデータを読み出す。このイベントデータは音源3などに入力される。図1の機能ブロック図では音源3のみを記しているが、バックコーラスを再生する音声再生部、発生した楽音に効果を付与するエフェクタや歌詞を表示する表示部などもこの自動演奏部2に接続されている。
【0026】
一方、アニメーション部4は、上記自動演奏部2の自動演奏に合わせてプレーヤのアニメーションを作成する機能部である。演奏データは上記のように種々のパート(音色)の楽音トラックを有し、音源3はそのパート分の楽音を発生するが、アニメーション部4は楽音トラックの各パートの音色の楽器を演奏するプレーヤのアニメーションを作成する。このプレーヤアニメーションでは、各プレーヤにこの演奏データの自動演奏で発音されている楽音を実際に演奏しているような動作をさせる。アニメーション部4が作成したプレーヤアニメーションは表示部5によって表示される。このプレーヤアニメーションは、例えば、図2のような態様で表示される。
【0027】
これにより、自動演奏時にどのようなパート(音色)が発音しているかが視覚的に分かり、自動演奏であっても実際の自然楽器の演奏のような臨場感を得ることができるとともに、視覚的な楽しみを増加させることができる。
【0028】
図1(B)はアニメーション部4の詳細図である。アニメーション部4は、プレーヤ選択・配置部10、演奏動作演算部11、アニメーション生成部12、プレーヤデータベース13、演出データベース14および表示態様制御部15を有している。プレーヤ選択・配置部10および演奏動作演算部11は、入力される楽音トラック、演出データに応じてプレーヤデータベース13,演出データベース14を参照して各プレーヤの形状(関数値)を決定する。アニメーション生成部12は、決定された形状に基づいて実際のアニメーション画像をレンダリングする。
【0029】
プレーヤデータベース13は、図5(A)に示すように、各パートのプレーヤの肢体や演奏する楽器の3Dポリゴンデータであるプレーヤポリゴンデータ130、および、演奏時にこれら肢体や楽器をどのように動かすかの動作情報である演奏動作データ131からなっている。パートとしては、キーボード,エレクトリックギター,エレクトリックベース,ドラムスなどロックバンド系のパートのか、バイオリン,チェロ,フルート,ホルンなどフルオーケストラ系のパートが記憶されている。
【0030】
プレーヤポリゴンデータ130は、図5(B)に示すようなプレーヤの頭、首、胴、腰、上腕、前腕、手、脚、足をそれぞれ3Dのポリゴン図形(関数)、演奏する楽器の形状を示す3Dポリゴン図形、および、これらポリゴン図形の基本的な配置データ(相対座標)からなっている。これらのポリゴン図形を3次元空間に配置してレンダリングすることにより、プレーヤのアニメーションが生成される。このレンダリングはアニメーション生成部12が行う。
【0031】
なお、この実施形態では各プレーヤ毎に別々のプレーヤポリゴンデータ130を記憶し、各パートのプレーヤが並んで演奏した場合でもそれぞれに異なる体型で変化がでるようにしているが、全てのプレーヤに共通のプレーヤポリゴンデータを1つ記憶し、全プレーヤをこのポリゴンデータに基づいて生成してもよい。この場合、ポリゴンを伸長/圧縮して各プレーヤの体型を変化させるようにしてもよい。
【0032】
また、演奏動作データ131は、プレーヤが楽器を演奏するときの動作を示すデータであり、各楽器の特性に合わせて、音高,音量などの楽音の発音態様毎に記憶されている。たとえば、図示のエレクトリックギターの場合、音高は左手(指)による弦の選択とフレットの位置で決定されるため、演奏動作データは、ノートオンイベントデータの音高に対応した左手の動作を指示する。また、発音および音量の制御は右手による弦のピッキングによって行われるため、演奏動作データは、ノートオンイベントデータのベロシティに対応した右手の動作の速さや大きさを指示する。
【0033】
なお、押さえるフレットを変えることによって、異なる弦で同じ音高の楽音を発音することができ、弦が変わると楽音の倍音構成が変わり、音質(特に明るさと音量)が変化するため、音質の指示(コントロールチェンジデータの内容)によって弦を選択するようにしてもよい。
【0034】
さらに、弦のブリッジ近いところをピッキングすると倍音の多い硬い楽音となり、ブリッジから遠いところをピッキングすると基音のしっかりした丸い楽音となるため、音質の指示によって弦のピッキング位置を変化させるようにしてもよい。
【0035】
また、ビブラートやチョーキングなどのエレクトリックギター特有の演奏手法をアニメーションで表現してもよい。ビブラートは弦を押さえている左手(指)を細かく振動させることによって、楽音のピッチを振動させる演奏手法であり、チョーキングは弦を押さえている左手(指)で弦を横に押すことによって弦の張力を大きくしてピッチを上昇させる演奏手法である。ビブラートは、コントロールチェンジデータのうちLFOと関連付けられているコントローラのデータに応じてアニメーションし、チョーキングは、ピッチベンダのコントロールチェンジデータに応じてアニメーションすればよい。
【0036】
以上のような演奏手法をアニメーションするための動作ベクトルおよび動作位置に関する情報が演奏動作データとして記憶されている。
【0037】
図6(A),(B),(C)に、上記プレーヤポリゴンデータ130と演奏動作データ131に基づいてレンダリングされたプレーヤアニメーションのフレーム(動作の一瞬を切り取った静止画)の例を示す。この図は、エレクトリックギターのプレーヤの例を示している。同図(A),(B),(C)では、それぞれギターを保持する姿勢が異なっているが、同じエレクトリックギターでも、ジャンルによってギターを演奏するスタイルが異なっているため、アニメーションをリアルにするためには、ジャンルに応じてギターの持ち方を異ならせる。同図(A)はたとえばロックバンド系、同図(B)はたとえばグループサウンズ系、同図(C)はたとえばソロミュージシャン系などである。このような持ち方のバリエーションは後述の演奏データに記憶しておいてもよく、ジャンル毎に別々のプレーヤデータベースを持つようにしてもよい。
【0038】
図6(A)〜(C)に示したアニメーションは、図5(B)に示した基本姿勢から、演奏データに基づいて両腕のみを動かした動作を示しているが、実際には、図6(D),(E)に示すように体全体を動かして演奏するものである。しかし、どのように体を動かせば曲の雰囲気にマッチするかは曲毎にまちまちである。そこで、各カラオケ曲に個別に対応させて、図4(B)に示すような演出データを記憶し、この演出データを用いてプレーヤの体の動きなどを制御する。この演出データも曲データ記憶部1に記憶されている。
【0039】
演出データは上記演奏データと同じようにヘッダと各種トラックで構成されている。ヘッダはこのデータの属性を書き込んだエリアであり、このヘッダに書き込まれている曲番号により演奏データと対応づけられている。トラックは、プレーヤ動作トラック,カメラワーク制御トラック,ライティング制御トラックを有している。プレーヤ動作トラックは、各パートのプレーヤがどのような演奏動作をするかを指示するトラックであり、各プレーヤに対する「大人しく」、「派手に」、「スタンドプレー」などの演奏態様の指示がイベントデータとして書き込まれている。この演奏態様に応じて、各プレーヤが実際にどのように体全体を動かすかは、自動演奏装置の演出データベース14に記憶されている。
【0040】
また、ヘッダまたはプレーヤ動作トラックの先頭には、各プレーヤの衣装やメイクを指示するデータも書き込まれており、この衣装・メイクの指示に対応する具体的な衣装の形状・柄やメイクのパターンなどは演出データベース14に記憶されている。
【0041】
また、カメラワーク制御トラックは、プレーヤアニメーションの視点をカメラワークとして指示するトラックである。イベントデータとしては、カメラ位置、カメラアングル(方向)、ズーミング、パンニングなどを指示する。アニメーション生成部12は、このカメラワークで撮影されているような角度および大きさで各プレーヤの3Dアニメーションをレンダリングする。
【0042】
また、ライティング制御トラックは、ステージ全体のライティングの色や特定のプレーヤを照らすピンスポット方向や色などを指示するトラックである。アニメーション生成部12は、このライティングの指示に応じてレンダリングするアニメーションにハイライト部やシャドー部を形成する。また、このライティング制御トラックに、スモークや吹雪などの舞台演出のデータを書き込んでおいてもよい。またこのような舞台演出用のトラックを別に設けてもよい。
【0043】
上記のようにこの実施形態では、図4(A),(B)に示すように、演奏データと演出データを別のデータとして記憶し、曲番号などのコードで両者を対応づけるようにしている。このようにすることにより、それぞれを別々にダウンロードしたり、更新したりすることができ、メンテナンスが容易になる。一方、演出データを演奏データの一部として一体に記憶してもよい。こうすることにより、ファイル数が減少し管理が容易になる。
【0044】
また、演出データがない場合には、演奏データの楽音トラックや効果制御トラックの内容に基づいて演出内容(演出データ)を生成するようにしてもよい。
【0045】
上記のようなデータベースを備えたアニメーション部4において、曲が演奏されるときは以下のような動作を実行する。
【0046】
プレーヤ選択・配置部10には、演奏データのヘッダや楽音トラックの先頭部分が入力される。キャラクタ選択・配置部10は、このデータから曲のジャンルやパート編成を割り出し、プレーヤを選択するとともに、そのジャンルの演奏スタイルに応じたレイアウトを決定する。選択したプレーヤのポリゴンデータをプレーヤデータベース13から読み出し、決定したレイアウトで配置する。また、演出データベースから衣装データやメイクデータを読み出してこれに合わせてポリゴンデータを変形する。この衣装やメイクは演出データに基づいて決定するが、ジャンルデータに基づいて決定するようにしてもよい。
【0047】
演奏動作演算部11は、プレーヤの基本的な形状データやレイアウトデータをプレーヤ選択・配置部10から入力し、楽音トラックのデータや演出データに基づいて各プレーヤを演奏動作に合わせて動かす演算を行う。上記エレクトリックギターのプレーヤの場合、楽音トラックのデータに合わせて両腕を動かし、演出データに合わせて上半身,下半身,頭などを動かす。両腕の具体的な運動はプレーヤデータベースの演奏動作データに記述されており、上半身,下半身,頭などの運動は演出データベース14に記述されている。演奏動作演算部11は上記演算により、各フレーム(NTSCの場合1/30秒)毎に各プレーヤの形状(姿勢)を表現する関数データをアニメーション生成部12に出力する。
【0048】
表示態様制御部15は、演出データのカメラワーク制御トラックおよびライティング制御トラックのデータに基づいて画面の視点の方向や光の方向・色などを演算してアニメーション生成部12に出力する。
【0049】
アニメーション生成部12は、演奏動作演算部11から入力した関数データおよび表示態様制御部15から入力した画面の視点の方向や光の方向・色などのデータに基づき、各フレーム毎に各プレーヤのアニメーション画像をレンダリングする。この画像データは表示部5に出力され、利用者に対して表示される。表示態様制御部12は、DSPを内蔵した高速の描画装置を用いればよく、各プレーヤ毎に描画装置を並列に設けてもよい。
【0050】
図2は、この自動演奏装置によって生成されたアニメーションの一例を示す図である。このように複数のプレーヤがステージ上に配置され、それぞれの楽器を演奏しているアニメーションが画面に表示される。
【0051】
また、図3は、上記アニメーション部4をオブジェクト指向でソフト的に構成した場合の構成例を示す。この構成では、各プレーヤモジュールは、自分の楽器の奏法を知っており、ノートを受信するとそのノートを演奏するためのアニメーションをポリゴンで生成する。また、視覚効果を高める演奏法をステージマネージャより指示を受ける。演出家は、曲開始時、曲に演出データがなければ曲データより演出を作り、タイムテーブルを作成しステージマネージャに渡す。ステージマネージャは舞台上にプレーヤを音色情報によって配置し、曲のジャンルなどに基づいて舞台設備を指示する。曲がスタートするとタイムテーブルよりライト/カメラスタッフにライティング、カメラワークの指示をする。
【0052】
衣装/メイクスタッフは、曲のジャンルなどに基づいて各プレーヤの衣装/メイクを決定し、各プレーヤモジュールに衣装やメイクを付加する。ライト/カメラスタッフと舞台設備スタッフは、ステージマネージャの指示により、曲の効果的に演出する照明やスモークなどをステージ上に行う。
【0053】
なお、実際の自然楽器の演奏ではそれぞれの指が極めて細かく動いているが、複数のプレーヤが一緒に演奏するバンド(アンサンブル)の場合には、各プレーヤが小さく表示されるうえ、複数プレーヤの3Dアニメーションのレンダリング処理の演算量が膨大であるため、指の動作は省略している。
【0054】
次に、上記自動演奏装置においてソロ演奏を行う場合のプレーヤアニメーションについて説明する。ソロの場合には、プレーヤが1人であるため、そのプレーヤが大きく表示され、ときには手指がクローズアップで表示される。したがって、ソロの場合には、指の細かい動きまで再現しなければリアルなアニメーションを生成することができない。そこで、ソロ演奏の場合には、上記のバンド演奏の場合と異なり、実際の楽器の演奏者と同じように指を動かすフィンガリングアニメーションを伴うプレーヤアニメーションを生成する。なお、このフィンガリングアニメーションは、指使いがリアルに再現されるため、ピアノやギターの学習用に用いることも可能である。
【0055】
なお、ソロ演奏のアニメーションは、図7(A)のように手指のアニメーション(フィンガリングアニメーション)のみでもよく、また、同図(B)のようにプレーヤ全身のアニメーションでフィンガリングを伴うものであってもよい。全身のアニメーションの場合、手首までのアニメーションは図5(A)に示すプレーヤデータベースのデータを用い、楽音トラックのデータに基づいて生成すればよい。図7にはピアニストの例を示したが、これ以外にギター,管楽器などどのような楽器であってもフィンガリングアニメーションを行うことができる。
【0056】
フィンガリングアニメーションを行うためのデータも、図8(A)に示すように、フィンガリングデータベースとしてプレーヤデータベース13に記憶しておく。フィンガリングデータベースも通常のプレーヤデータベースと同様に各パートのプレーヤ毎に記述されており、手指の形状を表すフィンガポリゴンデータおよび演奏時の各指の動きを指示する演奏動作データからなっている。フィンガポリゴンデータは、同図(B)に示すように、掌および第1指〜第5指の形状を表すポリゴンデータの集合である。なお、この実施形態では各プレーヤ毎に独自の手指の形状(フィンガポリゴンデータ)を記憶しているが、フィンガポリゴンデータを全てのプレーヤに共通に1つのみ記憶するようにしてもよい。
【0057】
自動演奏される曲がソロの曲の場合には、その楽器のプレーヤデータベース13からプレーヤの肢体のポリゴンデータ130を読み出すとともに、フィンガリングデータベース135からフィンガポリゴンデータ136を読み出す。そして、バンド演奏の場合と同じように、ジャンルに応じて衣装などを決定し、曲に合わせて演奏動作のアニメーションを生成する。
【0058】
このアニメーションがカラオケなどの演出用のものである場合は、図7(B)のようにプレーヤ全身を主として表示するようにし、このアニメーションがピアノやギターなどの学習用として用いられる場合は、図7(A)のように指使いを平面的に見ることができるようなアニメーションにする。この区別は、その曲の演出データに書き込んでおいてもよく、ユーザがいずれかを選択できるようにしてもよい。
【0059】
なお、学習用で指使いのみを表示する場合には、プレーヤの全身のアニメーションは無くてもよく、その場合には、フィンガポリゴンデータとフィンガリング動作データのみに基づいてフィンガリングアニメーションのみを生成する。
【0060】
ここで、フィンガリングデータは、図8(C)に示すように、各曲(ソロ演奏曲)毎に個別に記憶される。このフィンガリングデータは曲データ記憶部1に演奏データと対応付けて記憶されている。このフィンガリングデータを得る方法としては、実際の演奏のフィンガリング記録する方法、音符(楽音トラックのシーケンスデータ)に基づき、熟練した演奏者のルールを用いてフィンガリングを生成する方法などがある。
【0061】
図9は、実際の演奏者の演奏時にフィンガリングデータ記録するフィンガリングデータ記録装置を示す図である。このフィンガリングデータ記録装置は、いわゆる演奏データを記録する演奏記録装置も兼ねている。キーボード20はキーオン/キーオンを検出するキースイッチやタッチ強度を検出するタッチ強度スイッチを備えているとともに、各キーの表面に設けられたタッチ接点20aと、各タッチ接点にパルス信号を入力するためのパルススイッチ22を有している。演奏者がこのキーボードを演奏するとその演奏データ(ノートオンデータ,ノートオフデータ,タッチ強度データ)がノートセンサ21によって検出され指判定部24に入力される。指判定部24は、ノートオフデータ,タッチ強度データが入力されたときは、そのデータをそのまま記録部27に入力するが、ノートオンデータが入力されたときは以下の動作を実行する。
【0062】
指判定部24はノートオンが検出されるとそのキーのタッチ接点にパルス信号を入力するためそのキーに対応するパルススイッチをオンする。そうすると、パルス発生器23が発生したパルス信号がパルススイッチを介してオンされたキーの表面に形成されているタッチ接点に流れ込み、そのときキーを押し下げている指にそのパルス信号が伝達する。
【0063】
図示のように演奏者の各指には指端子25が接続されており、どの指端子からパルス信号を受信するかをセンサ26が検出する。センサ26は検出した指番号(R1〜R5、L1〜L5)を指判定部24に入力する。指判定部は上記ノートオンデータとこの指番号データを対応させて記録部27に入力する。
【0064】
記録部27は、入力された演奏データおよび指番号データをタイマ28によるタイミングデータとともに記録する。記録されたデータをタイミングデータに従って読み出すことにより、この演奏を再現することができる。
この装置を用いて演奏データを記録することにより、実際にその曲を演奏したプレーヤの指使い(フィンガリング)をデータとして記録することができる。
【0065】
一方、通常の演奏記録装置でソロ演奏を記録した演奏データやステップ・バイ・ステップでイベントデータを入力したいわゆる打ち込みの演奏データもあり、このような演奏データには対応するフィンガリングデータが存在しない。したがって、このような演奏データの自動演奏時にフィンガリングアニメーションを行うためには、何らかの方法でフィンガリングデータを生成する必要がある。以下、ルールに基づく推論によってフィンガリングデータを生成する方法について説明する。
【0066】
図10は、演奏データに基づいてフィンガリングデータを生成するフィンガリングデータ推論装置のブロック図である。この装置は鍵盤楽器の演奏のフィンガリングデータを推論する装置である。ソロ演奏の演奏データ(ノートオン/オフデータ)30は、推論部31に入力される。推論部31にはルール記憶部32およびフィンガリングテーブル33が接続されている。ノートオン(鍵オン)データが入力されると、ルールまたはテーブルに基づき、そのときオンされている鍵および直前までオンされていた鍵を考慮してその鍵をどの指でオンすべきかを推論する。この推論ルールは熟練したキーボード奏者(ピアニスト)のフィンガリング決定のルールをシミュレートしたものにすればよい。また、フィンガリングテーブル33には、基本的なフィンガリングパターンが記憶されており、単純なフィンガリング決定の再には推論の手間を省くようにしている。この推論によって割り出されたフィンガリングデータはフィンガリングデータ記録部35に記録される。このフィンガリングデータを上記演奏データと対応づけることにより、上記演奏データの自動演奏時にフィンガリングアニメーションを表示することができる。
【0067】
推論部31が用いる推論ルールとしては、以下のようなものがある。
【0068】
Aルール:今オンされている鍵が無く、且つ直前にオフされた鍵が無い場合、今回オンされた鍵番号に基づき、左右どの手のどの指でオンするかをテーブルで判断する。
【0069】
Bルール:既にオンされている鍵がある、または直前にオフされた鍵がある場合、そのときの鍵オンパターンに基づいて以下のように押鍵指を決定する。
【0070】
B−1:その音が一番高い場合、その鍵を右手の指でオンすることにし、そのとき右手の指でオンしている全ての鍵を低いものからソートして、順番にR1(右親指)、R2(右人指し指)、R3(右中指)、R4(右薬指)、R5(右小指)の指番号をフィンガリングデータとして出力する。
【0071】
B−2:その音が一番低い場合、その鍵を左手の指でオンすることにし、そのとき左手の指でオンしている全ての鍵を高いものからソートして、順番にL1(左親指)、L2(左人指し指)、L3(左中指)、L4(左薬指)、L5(左小指)の指番号をフィンガリングデータとして出力する。
【0072】
B−3:その音が一番高い音から1オクターブ以内である場合、その音を右手の指でオンすることにし、空いている指を割り当てる。空いている指がない場合、または、空いている指では届かない場合には再度ソートして指の割当を変更する。
【0073】
B−4:その音が一番低い音から1オクターブ以内である場合、その音を左手の指でオンすることにし、空いている指を割り当てる。空いている指がない場合、または、空いている指では届かない場合には再度ソートして指の割当を変更する。
【0074】
なお、上記ソート時に、指番号を順番に割り当てるのみでなく、音高の間隔が離れているものに着目し、その間隔を跨ぐことができるように指番号を飛ばして割り当ててもよい。
【0075】
このフィンガリングデータの生成はいつ行ってもよい。たとえば、その曲の演奏中にリアルタイムに生成するようにしてもよく、曲がリクエスト(演奏指示)されたとき、まずこのフィンガリングデータの生成を行ってから自動演奏をスタートしてもよい。また、演奏とは無関係に事前に行っておいてもよい。
【0076】
また、一度生成したフィンガリングデータは、演奏データに対応づけてそのまま保存しておけば、以後そのデータを用いて即座に自動演奏およびフィンガリングアニメーションを表示することができる。ただし、曲データ記憶部1の記憶容量に限界がある場合には、演奏毎にフィンガリングデータを破棄し、演奏の都度再生成するようにしてもよい。
【0077】
図11は同自動演奏装置の動作を示すフローチャートである。自動演奏の指示(カラオケ装置であればリクエスト)があったときこの動作が実行される。まず、指示された曲の演奏データを読み出し(s1)、そのヘッダや楽音トラックの構成に基づいてその曲がバンド(アンサンブル)演奏の曲であるかソロ演奏の曲であるかを判断する(s2)。バンド演奏の曲の場合には、楽音トラックの音色に基づいて演奏パートを読み出し(s3)、そのパートのプレーヤのポリゴンデータをプレーヤデータベースから読み出し(s4)、そのレイアウトを決定してステージ上に配置する(s5)。このとき同時にプレーヤの衣装・メイクやステージの演出などが行われる。
【0078】
このようにして演奏の準備が整うと、自動演奏をスタートし(s6)、曲の演奏と並行して入力されるノートデータなどに応じてプレーヤアニメーションを表示する(s7)。
【0079】
一方、ソロ演奏データの場合には、フィンガリングデータが既にあるかを判断する(s10)。このフィンガリングデータは、図9のフィンガリングデータ記録装置で演奏時に記録されたものでもよく、図10のフィンガリングデータ推論装置で決定されたものであってもよい。フィンガリングデータがある場合には、それを読み出すとともに(s11)、プレーヤを選択して(s4)、ステージ上に表示したのち(s5)、演奏をスタートして(s6)、ソロ演奏のアニメーションを表示する(s7)。この場合、フィンガリングアニメーションが表示される。
【0080】
一方、フィンガリングアニメーションがない場合には、自動演奏に先立って楽音トラックのデータを図10の推論装置に流し、フィンガリングデータを生成したのちs4に進む。
【0081】
このように、フィンガリングアニメーションを行う場合、大まかな体の動きはノートオン/オフデータに基づいて行い、細かい指の動きはノートオン/オフデータ以外にフィンガリングデータを割り出しておくことにより正確にアニメーションすることができるとともに、リアルタイムの処理が容易になる。
【0082】
なお、特定のパートのプレーヤアニメーションやフィンガリングアニメーションについてはロボットを準備しておき、このパートが(演奏データで)指定された場合には、このロボットを動かして演奏の動作をさせるようにしてもよい。
【0083】
以下上記アニメーション機能を備えたカラオケ装置について説明する。図12は同カラオケ装置のブロック図である。このカラオケ装置は、カラオケ曲の演奏時に上記自動演奏装置の同様に、プレーヤのアニメーションを映像信号として出力する。また、このカラオケ装置は2系統の自動演奏機能(シーケンサ)および1または2系統の音源を備えており、同じ曲でアレンジ(ゴージャス,テクノなど)の異なる2つの演奏データを同期させて並行して読み出し、両方の演奏データから選択されたパートを音源に入力することによって、異なるアレンジの演奏パートを混ぜ合わせて(モーフィングして)曲を演奏することができる。このモーフィングの変更は、曲の演奏中に自由に行うことができる。そして、プレーヤアニメーションは、モーフィングによって発音されることになったパートのプレーヤを登場させ、発音されなくなったパートのプレーヤを退場させるなど演奏態様に合わせたものになっている。
【0084】
図12において、演奏クロック信号を共有する2つのシーケンサ41,42が、同じ曲でそれぞれ異なるアレンジの曲である曲データバージョン1,曲データバージョン2を並行して読み出す。曲データバージョン1,曲データバージョン2は、それぞれ複数パート(音色)のトラックを有しており、各トラックのデータが演奏クロックに従って並行して読み出される。シーケンサ41,シーケンサ42が読み出した各トラックのデータはミュートコントローラ45に入力される。ミュートコントローラは、2つの演奏データのトラックのうち遮断するトラックと通過させるトラックとを選別し、通過させるトラックのデータのみ音源46に入力する。
【0085】
どちらの演奏データのどのパートを通過させるかは、モーフィング制御部50がミュートコントローラ45に指示する。モーフィング制御部50は、モーフィングシーケンスデータ51をシーケンサ41,42の自動演奏と並行して読み出し、これに基づいてミュートするパートをコントロールする。モーフィングシーケンスデータ51は、記憶部40に曲データバージョン1および曲データバージョン2と対応づけて記憶されている。また、モーフィングシーケンスデータ51がない場合には、モーフィング操作部52から入力される(利用者の操作によって発生する)操作データに基づいてミュートするパートをコントロールする。
【0086】
図13にモーフィングの一態様を示す。この例では、バージョン1の曲データはパート1〜パート7の7パートからなっており、バージョン2の曲データもパート1〜パート7の7パートからなっている。各パートは、たとえば、「メロディ,ベース,リズム,オブリガート,アレンジキー,コード,その他」などの機能を示すパートでもよく、「Eギター1,Eギター2,キーボード,Eベース,ドラムセット,ブラス1,ブラス2」などの楽器(音色)で区分されたパートでもよい。そして、モーフィングシーケンスデータには、同図下段のように刻々変化するモーフィングパラメータがイベントデータとして書き込まれている。
【0087】
この例では、演奏スタート時には、バージョン1のパートが全て音源46に入力され、バージョン2のパートが全てミュートされている(モーフィングパラメータ=0)。そして、モーフィング制御部50がモーフィングシーケンスデータ51のイベントデータを読み出し、モーフィングパラメータが0で無くなると、その数値に応じてバージョン1のパートがミュートされ、バージョン2のパートが音源46に入力される。
【0088】
この例では、パート1からパート7に順番にバージョンが切り換えられるようになっているが、この順番はこれ以外でもよい。また、同種のパート同士で切り換えるのでなく、異種のパート間(たとえばバージョン1のパート1とバージョン2のパート7など)で切り換えるようにしてもよい。
【0089】
一方、アニメーション生成部52は、記憶部40に記憶されているアニメーションデータ53を入力している。このアニメーションデータ53は、上記アニメーションデータベース,演出データベースを含むものである。アニメーション生成部52は、このアニメーションデータ53に基づいて、バージョン1の曲のプレーヤおよびバージョン2の曲のプレーヤの両方のアニメーションを作成可能であるが、モーフィング制御部50から入力される制御情報に基づき、音源46が発音するパートのプレーヤのアニメーションのみを生成して映像信号として出力する。この映像信号はモニタで表示される。
【0090】
なお、この実施形態では、モーフィングシーケンスデータ51またはモーフィング操作部52の操作でモーフィングパラメータを変動させるようにしているが、マイク(図示せず)から入力される歌唱者の歌唱状況に応じてモーフィングパラメータを変動させるようにしてもよい。また、特定のアルゴリズムによって自動でモーフィングパラメータを変動させるようにしてもよい。
【0091】
また、プレーヤアニメーションにおけるパートのモーフィングは、プレーヤの退場/登場による交替のほか、演奏中のプレーヤが徐々に変形してゆき交替した新たなパートのプレーヤになるというアニメーションのモーフィングで交替させるようにしてもよい。
【0092】
たとえば、演奏のアレンジが、フルオーケストラからバンドにモーフィングされる場合のアニメーションモーフィングを以下のようにすることができる。
1.フルオーケストラによる演奏
2.コントラバスがエレキベースにモーフィングで替わる
3.打楽器がドラムセットにモーフィングで替わる
4.間奏でラッパ隊が退場し、ギタープレーヤが登場する
5.弦楽器プレーヤが退席し、代わってキーボードプレーヤが現れる。
【0093】
また、演奏パートの交替は、カットイン・カットアウトで行う方法以外に、フェードイン・フェードアウトで行うようにしてもよい。この場合には、ミュートコントローラ45は、フェードアウトするトラックのデータを突然遮断するのではなく、そのベロシティを徐々に小さく書き直して音源46に出力するようにし、最後にベロシティ=0になったところでそのデータを出力をストップする。また、逆にフェードインするトラックのデータはベロシティ=0から徐々に大きくしながら音源46に出力し、100パーセント(曲データに元々書き込まれていたベロシティ)まで大きくする。
【0094】
この場合に、フェードイン・フェードアウトと並行して楽音のパン制御を行い、フェードアウトするプレーヤは右(左)方向に消えてゆき、フェードインするプレーヤは左(右)方向から登場するというアニメーションを表示してもよい。
【0095】
また、予め定められたシナリオ(モーフィングシーケンスデータ)にしたがって、バージョン1の演奏からバージョン2の演奏に完全に移行する場合には、以下のような演出でパートの移行をすることも可能である。
新たなアレンジの楽音をリバーブ音として発生させ、フェードインさせるとともに段々ドライ音に換えていって前のアレンジの楽音を圧倒して移行が完了する。
音像空間エフェクタを使用して音場制御して差し換える。
いずれにしても、これらのパート移行方式の場合、それに対応した方法でアニメーションの移行も行うようにする。
【0096】
【発明の効果】
以上のようにこの発明によれば、演奏データに基づいてアニメーション素材を合成することによって演奏者(プレーヤ)のアニメーションを作成することにより、事前に映像データを準備することなくアニメーションを表示することが可能になる。
【0097】
また、演奏者のフィンガリングに関しては正しいフィンガリングを記述したフィンガリングデータを事前に準備しておくことにより、正確でリアリティのあるアニメーションを作成・表示することができる
【0098】
また、演奏データの記録と並行してフィンガリングデータを記録することができるため、これをそのまま自動演奏装置に用いて自動演奏とフィンガリングアニメーションの表示を行わせることができる。
【0099】
また、異なるアレンジの演奏データのパートをミックスして自動演奏することができ、さらにそのパートの選択を自動演奏の途中で切り換えることができるため、演奏途中で別のアレンジに切り換えることができるのは勿論、今までにない新たなアレンジの演奏が可能になる。
【0100】
そのとき、パート選択に応じたアニメーションを表示するため、利用者には現在どのようなパート選択で自動演奏しているかが視覚的に分かりやすいという利点がある。
【図面の簡単な説明】
【図1】この発明の実施形態である自動演奏装置のブロック図
【図2】同自動演奏装置が表示するプレーヤアニメーションの例を示す図
【図3】同自動演奏装置のアニメーション部の機能を説明する図
【図4】同自動演奏装置で用いられるカラオケ用演奏データ、演出データの例を示す図
【図5】同自動演奏装置で用いられるプレーヤデータベースの例を示す図
【図6】同自動演奏装置が作成するプレーヤのアニメーションの例を示す図
【図7】フィンガリングアニメーションの例を示す図
【図8】フィンガリングデータベースの例を示す図
【図9】この発明の実施形態であるフィンガリング記録装置の構成図
【図10】フィンガリング推論装置の構成図
【図11】上記自動演奏装置の動作を示すフローチャート
【図12】この発明の実施形態である自動演奏装置のブロック図
【図13】同自動演奏装置のパートモーフィングの例を示す図
【符号の説明】
1…曲データ記憶部、2…自動演奏部、3…音源、4…アニメーション部、5…表示部、10…プレーヤ選択・配置部、11…演奏動作演算部、12…アニメーション生成部、13…プレーヤデータベース、130…プレーヤポリゴンデータ、131…演奏動作データ、135…フィンガリングデータベース、136…フィンガポリゴンデータ、137…演奏動作データ、14…演出データベース、15…表示態様制御部、
20…キーボード、20a…タッチ接点、21…ノートセンサ、22…パルススイッチ、23…パルス発生器、24…指判定部、25…指端子、26…センサ、27…記録部、28…タイマ、
30…曲データ記憶部、31…推論部、32…推論ルール記憶部、33…フィンガリングテーブル、35…フィンガリングデータ記憶部、
40…記憶部、41,42…シーケンサ、43,44…演奏データ、45…ミュートコントローラ、46…音源、50…モーフィング制御部、51…モーフィングシーケンスデータ、52…モーフィング操作部、53…アニメーション生成部、54…アニメーションデータ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an automatic performance apparatus capable of displaying a player's animation in accordance with an automatic performance, and a fingering recording apparatus for recording fingering data for animating a fingering that is a finger usage of the performer. .
[0002]
[Prior art]
2. Description of the Related Art Conventionally, an automatic performance apparatus that automatically plays music by reading performance data for automatic performance in time series and generating a musical sound by driving a sound source with the read data has been put to practical use.
[0003]
[Problems to be solved by the invention]
However, the conventional automatic performance device automatically generates the musical tone of the part written in the performance data. What kind of musical instrument is currently being played, what kind of musical instrument combination band (ensemble) ), And there is a problem that the user cannot freely change the combination.
[0004]
The present invention relates to an automatic performance apparatus capable of displaying an animation of a performer performing a performance part in accordance with an automatic performance, an automatic performance apparatus capable of changing the performance part, and a player's fingering for animation. An object of the present invention is to provide a fingering recording apparatus capable of recording.
[0005]
[Means for Solving the Problems]
  The invention according to claim 1 is an automatic performance means for automatically performing music based on performance data;Multiple types of instrumentsMaterial storage means for storing the performer's animation material,Select a performer of the instrument whose tone is specified by the performance data, andAn animation creating means for creating an animation of a performer who plays the music piece by synthesizing an animation material based on at least the pitch of the performance data.
[0007]
  Claim2The invention ofIn the invention of claim 1, the material storage means isStores animation material including shape information and performance information of performers' fingersThe animation creating meansInput fingering data instructing which finger the performance operation was performed in synchronization with the performance data,At least the pitch of the performance data andBy synthesizing the animation material based on the fingering data,Performers of musical instruments of the tone specified by the performance data and theirAn animation for displaying the fingering of the performer is created.
[0009]
  Claim3The invention ofIn the invention of claim 1,Each has multiple parts, the same melody, and multiple different chords and rhythmsVersionReading means for reading performance data in parallel;Select and select any part from the multiple versions,A selection means for inputting only the data of the selected part into the sound source;
  Selection changing means for inputting selection change data for instructing the selection means to change the selection while the performance data is being read by the reading means;Performance data input means for inputting the data of the part selected by the selection means to the animation creating means as performance data;TheMoreIt is characterized by having.
[0011]
  Claim4The invention of claim3In this invention, when the selection of the part is changed by the selection changing means, the animation creating means creates an animation of the player of the newly selected part instead of the animation of the player of the part that is not selected. It is a means.
[0012]
According to the present invention, an automatic performance is performed based on performance data, and the timbre organization of the automatic performance is displayed as an animation. Most of the musical sounds generated during automatic performance simulate the musical sound waveform of the musical instrument played by the performer. At the same time, it is possible to enjoy the automatic performance only by hearing in the past, and the automatic performance can be further enhanced.
[0013]
  The performer's animation displays the form of the player's limbs and musical instrument, and is a video that moves the performer's limbs and instrument so that the player performs the performance according to the sounding and muting. In the method of recording individual animation video data, record animation video data of multiple performance data.UtoIn this case, a huge amount of storage device is required.In general performance data, music is played in a plurality of parts, and the combination of the parts is not constant depending on the performance data.Therefore, in the invention of claim 1,Storing the animation material of the performers of multiple parts in advance, selecting the performer based on the tone specified by the performance data,An animation is created by synthesizing this animation material based on information such as the pitch of the music input from the performance data. Thereby, even if it is an apparatus which plays many music like a karaoke apparatus, since an animation can be created each time, it is not necessary to memorize | store individual animation video data. The animation material is, for example, graphic data for drawing the form of a player or a musical instrument, vector data for instructing an operation mode at the time of performance, or the like.Furthermore, it is possible to create an animation regardless of the performance data of any part configuration.
[0015]
  Also, in actual musical instrument performance, the fingers move the fastest and finely, such as pressing down the keyboard, pressing the fret, playing the strings, etc. If you reproduce the fingering that is the movement of this finger , Animation becomes extremely real. In addition, if accurate fingering is animated, it can be used for music learning. However, determination of fingering is not easy even for a skilled player, and is determined in consideration of the connection between the front and rear sounds and the required sound quality. Therefore, it is not easy to determine an accurate fingering on the spot based on the pitch acquired from the performance data. Therefore, the claim2In this invention, the fingering animation for creating the fingering operation is input in synchronization with the performance data to create a fingering animation. Thereby, an accurate fingering animation can be easily created.
[0016]
  Also armThe animation of the limbs and limbs is created based on the performance data as in the first aspect of the invention, and the animation of the fingers is created based on the fingering data.TheBy combining these, it is possible to create an animation of a performer performing with accurate fingering.
[0019]
  Claims3The present invention relates to an automatic performance apparatus capable of changing the part composition of automatic performance during performance. The reading means reads in parallel a plurality of pieces of performance data having different arrangements (chords, rhythms, etc.) with the same melody music (that is, the same music). Each piece of performance data consists of a plurality of parts, and the selecting means selects an appropriate part from these and inputs it to the sound source. As a result, a plurality of arrangement parts can be mixed and played, and an unprecedented arrangement can be played. Also, since all of the data is part data produced for this song, there is no monotony like the arrangement change using a general-purpose pattern.
[0020]
In addition, since a plurality of performance data is read out in parallel, the part to be sounded can be changed by changing the selection even during reading (during performance). Organization changes can be made.
[0021]
  Also onThe animation can be displayed in parallel with the automatic performance of organizing parts in any combination. This makes it easy to visually understand any part organization. And claims4In the present invention, when the part selection is changed during the performance, the animation of the newly selected player is created and displayed in place of the player who is not selected in the animation. As a result, the result of the part change and the band organization change is displayed in a visually easy-to-understand manner. At this time, in the animation, it will be more visually interesting if the person who has left the game leaves and the newly selected person appears.
To do.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
An automatic performance apparatus according to an embodiment of the present invention will be described with reference to the drawings. This automatic performance device is connected to a display device such as a karaoke device, and has a function of displaying the animation of a player (player) performing the performance on the display device in parallel with the automatic performance.
[0023]
FIG. 1 is a functional block diagram of the automatic performance apparatus. The song data storage unit 1 stores performance data that is data for automatically playing a song (karaoke song or the like). The performance data is configured as shown in FIG. 4A, and includes a header in which bibliographic information such as the genre of the song and the title of the song is written, a tone track for generating tones of a plurality of tones (parts), It consists of an audio control track for instructing the timing of back chorus (audio data) generation, an effector control track for controlling an effector that gives effects to musical sounds, a lyrics track for instructing lyrics to be displayed on the monitor, and the like. .
[0024]
Each track is described in MIDI format sequence data. As shown in FIG. 5C, event data for instructing an event such as musical sound production / mute is combined with timing data for instructing the event occurrence timing. Are stored in chronological order. As the event data, in the case of a musical sound track, there are the above-mentioned musical sound pronunciation / mute, after touch, various control information, and the like.
[0025]
The song data storage unit 1 stores performance data of a plurality of songs. The automatic performance unit 2 selects one of them and reads the event data while counting the timing data with the tempo clock. This event data is input to the sound source 3 and the like. Although only the sound source 3 is shown in the functional block diagram of FIG. 1, an audio playback unit that plays back chorus, an effector that gives an effect to the generated musical sound, and a display unit that displays lyrics are also connected to this automatic performance unit 2 Has been.
[0026]
On the other hand, the animation unit 4 is a functional unit that creates an animation of the player in accordance with the automatic performance of the automatic performance unit 2. The performance data has tone tracks of various parts (tones) as described above, and the sound source 3 generates the tone for the parts, but the animation unit 4 is a player that plays the tone instruments of each part of the tone track. Create an animation. In this player animation, each player is caused to perform an operation of actually playing a musical sound that is generated by the automatic performance of the performance data. The player animation created by the animation unit 4 is displayed by the display unit 5. This player animation is displayed in a manner as shown in FIG. 2, for example.
[0027]
As a result, it is possible to visually understand what part (sound color) is being generated during automatic performance, and even in automatic performance, it is possible to obtain a sense of reality that is similar to the performance of an actual natural instrument. Can increase your enjoyment.
[0028]
FIG. 1B is a detailed view of the animation unit 4. The animation unit 4 includes a player selection / placement unit 10, a performance operation calculation unit 11, an animation generation unit 12, a player database 13, an effect database 14, and a display mode control unit 15. The player selection / arrangement unit 10 and the performance operation calculation unit 11 determine the shape (function value) of each player with reference to the player database 13 and the effect database 14 according to the input musical sound track and effect data. The animation generation unit 12 renders an actual animation image based on the determined shape.
[0029]
  As shown in FIG. 5A, the player database 13 has player polygon data 130, which is 3D polygon data of the player's limbs of each part and the musical instrument to be played, and how to move these limbs and musical instruments during performance. The performance operation data 131 is the operation information. Part of the rock band part such as keyboard, electric guitar, electric bass, drumsHoOr, a full orchestra part such as a violin, cello, flute, horn, etc. is stored.
[0030]
The player polygon data 130 is a 3D polygon figure (function) for each of the player's head, neck, torso, waist, upper arm, forearm, hand, leg, and foot as shown in FIG. 3D polygon figures shown, and basic arrangement data (relative coordinates) of these polygon figures. By rendering these polygon figures in a three-dimensional space and rendering them, a player animation is generated. This rendering is performed by the animation generation unit 12.
[0031]
In this embodiment, different player polygon data 130 is stored for each player so that even if players of each part perform side by side, they change in different body shapes, but are common to all players. One player polygon data may be stored, and all players may be generated based on the polygon data. In this case, the shape of each player may be changed by expanding / compressing the polygon.
[0032]
The performance operation data 131 is data indicating the operation of the player when playing the musical instrument, and is stored for each tone generation mode of musical tone such as pitch and volume according to the characteristics of each musical instrument. For example, in the case of the illustrated electric guitar, the pitch is determined by the selection of the string by the left hand (finger) and the position of the fret, so the performance data indicates the left hand movement corresponding to the pitch of the note-on event data. To do. Further, since the sound generation and volume control are performed by picking the string with the right hand, the performance data indicates the speed and magnitude of the right hand motion corresponding to the velocity of the note-on event data.
[0033]
By changing the frets to be pressed, you can produce a musical tone with the same pitch on different strings. If the strings change, the overtone structure of the musical tone changes, and the sound quality (especially brightness and volume) changes. You may make it select a string by (contents of control change data).
[0034]
In addition, picking near the bridge of the string will produce a hard tone with many overtones, and picking a place far from the bridge will produce a solid round tone with a fundamental tone, so the picking position of the string may be changed according to sound quality instructions. .
[0035]
Also, a performance technique peculiar to an electric guitar such as vibrato or choking may be expressed by animation. Vibrato is a performance technique that vibrates the pitch of the musical sound by finely vibrating the left hand (finger) holding the string. Choking is a technique for vibrating the string by pushing the string sideways with the left hand (finger) holding the string. This is a performance technique that increases the pitch by increasing the tension. Vibrato may be animated according to the controller data associated with the LFO among the control change data, and choking may be animated according to the control change data of the pitch vendor.
[0036]
Information on motion vectors and motion positions for animating the performance technique as described above is stored as performance motion data.
[0037]
FIGS. 6A, 6B, and 6C show examples of player animation frames (still images obtained by cutting out moments of motion) rendered based on the player polygon data 130 and performance motion data 131. FIG. This figure shows an example of an electric guitar player. In FIGS. 5A, 5B, and 5C, the attitude of holding the guitar is different, but even with the same electric guitar, the style of playing the guitar differs depending on the genre, so the animation is realistic. In order to do this, the guitar is held differently depending on the genre. FIG. 6A shows a rock band system, FIG. 5B shows a group sound system, and FIG. 4C shows a solo musician system, for example. Such holding variations may be stored in performance data described later, or a separate player database may be provided for each genre.
[0038]
The animation shown in FIGS. 6A to 6C shows an operation in which only both arms are moved based on the performance data from the basic posture shown in FIG. 5B. 6 (D) and (E) are performed by moving the entire body. However, how to match the mood of the song varies depending on the song. Therefore, effect data as shown in FIG. 4B is stored in association with each karaoke piece, and the movement of the player's body is controlled using this effect data. This effect data is also stored in the song data storage unit 1.
[0039]
The production data is composed of a header and various tracks in the same manner as the performance data. The header is an area in which the attribute of the data is written, and is associated with the performance data by the music number written in the header. The track includes a player operation track, a camera work control track, and a lighting control track. The player operation track is a track for instructing what kind of performance operation the player of each part performs, and an instruction of a performance mode such as “gender”, “flashy”, “stand play”, etc. for each player is event data. As written. How each player actually moves the entire body according to the performance mode is stored in the effect database 14 of the automatic performance device.
[0040]
In addition, at the beginning of the header or the player operation track, data for instructing each player's costume and makeup is also written, and a specific costume shape / pattern, makeup pattern, etc. corresponding to this costume / make instruction, etc. Is stored in the production database 14.
[0041]
The camera work control track is a track for instructing the viewpoint of the player animation as camera work. As the event data, the camera position, camera angle (direction), zooming, panning, etc. are instructed. The animation generation unit 12 renders the 3D animation of each player at an angle and size as captured by this camera work.
[0042]
The lighting control track is a track for instructing the lighting color of the entire stage, the direction and color of a pin spot that illuminates a specific player, and the like. The animation generation unit 12 forms a highlight part and a shadow part in the animation to be rendered according to the lighting instruction. Also, stage effect data such as smoke and snowstorms may be written in this lighting control track. Such a stage production track may be provided separately.
[0043]
As described above, in this embodiment, as shown in FIGS. 4A and 4B, the performance data and the effect data are stored as separate data, and are associated with each other by a code such as a song number. . By doing in this way, each can be downloaded separately and updated, and maintenance becomes easy. On the other hand, the effect data may be stored as a part of the performance data. This reduces the number of files and makes management easier.
[0044]
Further, when there is no production data, production content (production data) may be generated based on the contents of the musical tone track and the effect control track of the performance data.
[0045]
In the animation unit 4 having the database as described above, the following operations are performed when a song is played.
[0046]
The player selection / arrangement unit 10 receives a header of performance data and a head portion of a musical sound track. The character selection / arrangement unit 10 determines the genre and part organization of the song from this data, selects a player, and determines a layout according to the performance style of the genre. The polygon data of the selected player is read from the player database 13 and arranged in the determined layout. Also, costume data and makeup data are read from the production database, and the polygon data is transformed accordingly. The costume and makeup are determined based on the production data, but may be determined based on the genre data.
[0047]
The performance operation calculation unit 11 inputs basic shape data and layout data of the player from the player selection / arrangement unit 10 and performs an operation of moving each player in accordance with the performance operation based on the music track data and effect data. . In the case of the above-mentioned electric guitar player, both arms are moved in accordance with the musical track data, and the upper body, lower body, head, etc. are moved in accordance with the production data. Specific movements of both arms are described in the performance data of the player database, and movements of the upper body, lower body, head, etc. are described in the production database 14. The performance operation calculation unit 11 outputs to the animation generation unit 12 function data representing the shape (posture) of each player for each frame (1/30 second in the case of NTSC) by the above calculation.
[0048]
The display mode control unit 15 calculates the viewpoint direction of the screen, the light direction / color, and the like based on the data of the camera work control track and the lighting control track of the effect data, and outputs them to the animation generation unit 12.
[0049]
  The animation generation unit 12 is based on the function data input from the performance operation calculation unit 11 and the data such as the direction of the viewpoint of the screen, the direction of light, and the color input from the display mode control unit 15.animationRender the image. This image data is output to the display unit 5 and displayed to the user. The display mode control unit 12 may use a high-speed drawing device with a built-in DSP, and a drawing device may be provided in parallel for each player.
[0050]
FIG. 2 is a diagram showing an example of an animation generated by this automatic performance device. In this way, a plurality of players are arranged on the stage, and an animation playing each instrument is displayed on the screen.
[0051]
FIG. 3 shows a configuration example when the animation unit 4 is configured in an object-oriented software manner. In this configuration, each player module knows how to play its musical instrument, and when a note is received, an animation for playing the note is generated as a polygon. Also, the stage manager receives instructions from the stage manager on how to improve the visual effect. At the start of the song, the director creates an effect from the song data if there is no effect data in the song, creates a timetable, and passes it to the stage manager. The stage manager arranges players on the stage based on timbre information, and instructs the stage equipment based on the genre of the music. When the song starts, the writing / camera work instructions are given to the light / camera staff from the timetable.
[0052]
The costume / makeup staff decides the costume / makeup of each player based on the genre of the music and adds the costume and makeup to each player module. The light / camera staff and the stage equipment staff perform lighting and smoke on the stage to effectively produce the music according to instructions from the stage manager.
[0053]
In actual performance of natural musical instruments, each finger moves very finely. However, in the case of a band (ensemble) in which a plurality of players play together, each player is displayed in a small size, and the 3D of the plurality of players is displayed. Since the calculation amount of the animation rendering process is enormous, the operation of the finger is omitted.
[0054]
Next, a player animation when performing a solo performance in the automatic performance device will be described. In the case of solo, since there is only one player, that player is displayed large, and sometimes the fingers are displayed in close-up. Therefore, in the case of solo, a realistic animation cannot be generated unless the fine movement of the finger is reproduced. Therefore, in the case of a solo performance, unlike the case of the band performance described above, a player animation accompanied by a fingering animation for moving a finger is generated in the same manner as an actual instrument player. This fingering animation can be used for learning a piano or a guitar because finger usage is realistically reproduced.
[0055]
It should be noted that the animation of the solo performance may be only finger animation (fingering animation) as shown in FIG. 7 (A), and the player's whole body animation is accompanied by fingering as shown in FIG. 7 (B). May be. In the case of the whole-body animation, the animation up to the wrist may be generated based on the music track data using the player database data shown in FIG. FIG. 7 shows an example of a pianist, but any other musical instrument such as a guitar or a wind instrument can perform fingering animation.
[0056]
Data for performing a fingering animation is also stored in the player database 13 as a fingering database as shown in FIG. The fingering database is described for each player of each part in the same manner as the normal player database, and includes finger polygon data representing the shape of the fingers and performance operation data for instructing the movement of each finger during performance. The finger polygon data is a set of polygon data representing the shapes of the palm and the first to fifth fingers, as shown in FIG. In this embodiment, each player stores a unique finger shape (finger polygon data). However, only one finger polygon data may be stored in common for all players.
[0057]
When the automatically played music is a solo music, the polygon data 130 of the player's limb is read from the player database 13 of the instrument, and the finger polygon data 136 is read from the fingering database 135. Then, as in the case of band performance, costumes and the like are determined according to the genre, and an animation of the performance action is generated according to the music.
[0058]
When this animation is for production such as karaoke, the whole body of the player is mainly displayed as shown in FIG. 7B, and when this animation is used for learning such as a piano or guitar, FIG. As shown in (A), the animation is such that the fingering can be seen in a plane. This distinction may be written in the production data of the song, or the user may be able to select either.
[0059]
Note that when only fingering is displayed for learning, there is no need for the whole body animation of the player. In that case, only the fingering animation is generated based only on the finger polygon data and the fingering motion data. .
[0060]
  Here, as shown in FIG. 8C, the fingering data is individually stored for each song (solo performance song). The fingering data is stored in the music data storage unit 1 in association with the performance data. As a method of obtaining this fingering data, fingering of actual performanceTheThere are a method of recording, a method of generating a fingering using rules of skilled performers based on musical notes (musical track sequence data).
[0061]
FIG. 9 is a diagram showing a fingering data recording apparatus for recording fingering data when an actual performer performs. This fingering data recording device also serves as a performance recording device for recording so-called performance data. The keyboard 20 includes a key switch for detecting key-on / key-on and a touch-intensity switch for detecting touch intensity, as well as a touch contact 20a provided on the surface of each key and a pulse signal input to each touch contact. A pulse switch 22 is provided. When the performer plays this keyboard, the performance data (note-on data, note-off data, touch intensity data) is detected by the note sensor 21 and input to the finger determination unit 24. When note-off data and touch intensity data are input, the finger determination unit 24 inputs the data to the recording unit 27 as it is. However, when note-on data is input, the finger determination unit 24 performs the following operation.
[0062]
When note-on is detected, the finger determination unit 24 turns on a pulse switch corresponding to the key to input a pulse signal to the touch contact of the key. Then, the pulse signal generated by the pulse generator 23 flows into the touch contact formed on the surface of the key turned on via the pulse switch, and the pulse signal is transmitted to the finger pressing the key at that time.
[0063]
As shown in the figure, finger terminals 25 are connected to each finger of the performer, and the sensor 26 detects from which finger terminal the pulse signal is received. The sensor 26 inputs the detected finger numbers (R1 to R5, L1 to L5) to the finger determination unit 24. The finger determination unit inputs the note-on data and the finger number data into the recording unit 27 in association with each other.
[0064]
The recording unit 27 records the input performance data and finger number data together with timing data from the timer 28. This performance can be reproduced by reading the recorded data according to the timing data.
By recording performance data using this apparatus, finger usage (fingering) of the player who actually played the song can be recorded as data.
[0065]
On the other hand, there are performance data in which a solo performance is recorded by a normal performance recording device and so-called in-game performance data in which event data is input step by step, and there is no corresponding fingering data in such performance data. . Therefore, in order to perform fingering animation during automatic performance of such performance data, it is necessary to generate fingering data by some method. Hereinafter, a method for generating fingering data by rule-based inference will be described.
[0066]
FIG. 10 is a block diagram of a fingering data inference apparatus that generates fingering data based on performance data. This device is a device for inferring fingering data of performance of a keyboard instrument. The performance data (note on / off data) 30 of the solo performance is input to the inference unit 31. A rule storage unit 32 and a fingering table 33 are connected to the inference unit 31. When note-on (key-on) data is input, based on the rule or table, it is inferred which finger should be turned on, taking into account the key that was turned on at the time and the key that was turned on immediately before . This inference rule may be a simulation of the fingering decision rule of a skilled keyboard player (pianist). In addition, the fingering table 33 stores basic fingering patterns, so that the effort of inference is saved in re-determination of simple fingering. The fingering data determined by this inference is recorded in the fingering data recording unit 35. By associating the fingering data with the performance data, a fingering animation can be displayed during automatic performance of the performance data.
[0067]
Inference rules used by the inference unit 31 include the following.
[0068]
Rule A: If there is no key that is currently turned on and there is no key that was turned off immediately before, a table is used to determine which finger on the left or right hand is turned on based on the key number turned on this time.
[0069]
B rule: When there is a key that is already turned on or there is a key that was turned off immediately before, the key pressing finger is determined as follows based on the key-on pattern at that time.
[0070]
B-1: When the sound is the highest, the key is turned on with the finger of the right hand, and all the keys that are turned on with the finger of the right hand at that time are sorted in ascending order, and R1 (right Thumb numbers R2 (right index finger), R3 (right middle finger), R4 (right ring finger), and R5 (right little finger) are output as fingering data.
[0071]
B-2: When the sound is the lowest, the key is turned on with the finger of the left hand, and then all the keys that are turned on with the finger of the left hand are sorted from the highest to the least, and in order L1 (left Thumb numbers L2 (left index finger), L3 (left middle finger), L4 (left ring finger), and L5 (left little finger) are output as fingering data.
[0072]
B-3: When the sound is within one octave from the highest sound, the sound is turned on with the finger of the right hand, and a free finger is assigned. If there is no free finger, or if the free finger does not reach, sort again to change the finger assignment.
[0073]
B-4: When the sound is within one octave from the lowest sound, the sound is turned on with the finger of the left hand, and a free finger is assigned. If there is no free finger, or if the free finger does not reach, sort again to change the finger assignment.
[0074]
At the time of sorting, not only the finger numbers are assigned in order, but also attention may be paid to those that are spaced apart from each other, and the finger numbers may be skipped and assigned so that the intervals can be crossed.
[0075]
The fingering data may be generated at any time. For example, it may be generated in real time during the performance of the song. When a song is requested (performance instruction), the fingering data may be generated first and then the automatic performance may be started. It may also be performed in advance regardless of the performance.
[0076]
Further, if the fingering data once generated is stored in correspondence with the performance data, automatic performance and fingering animation can be immediately displayed using the data thereafter. However, when the storage capacity of the music data storage unit 1 is limited, the fingering data may be discarded for each performance and regenerated each time the performance is performed.
[0077]
FIG. 11 is a flowchart showing the operation of the automatic performance device. This operation is executed when there is an automatic performance instruction (a request for a karaoke device). First, the performance data of the instructed music is read (s1), and it is determined whether the music is a band (ensemble) performance or a solo performance based on the configuration of the header and the music track (s2). ). In the case of a band performance song, the performance part is read based on the tone of the musical tone track (s3), the polygon data of the player of that part is read from the player database (s4), its layout is determined and placed on the stage. (S5). At the same time, the player's costumes / makeup and stage effects are performed.
[0078]
When performance preparation is completed in this way, automatic performance is started (s6), and player animation is displayed according to note data input in parallel with the performance of the music (s7).
[0079]
On the other hand, in the case of solo performance data, it is determined whether fingering data already exists (s10). This fingering data may be recorded at the time of performance by the fingering data recording device of FIG. 9, or may be determined by the fingering data inference device of FIG. If there is fingering data, it is read out (s11), the player is selected (s4), displayed on the stage (s5), the performance is started (s6), and the solo performance animation is displayed. Display (s7). In this case, a fingering animation is displayed.
[0080]
On the other hand, if there is no fingering animation, the musical tone track data is passed to the inference device of FIG. 10 prior to automatic performance, and after generating fingering data, the process proceeds to s4.
[0081]
In this way, when performing fingering animation, rough body movements are based on note-on / off data, and fine finger movements are accurately determined by determining fingering data in addition to note-on / off data. It can be animated and facilitates real-time processing.
[0082]
It should be noted that a robot is prepared for player animation and fingering animation of a specific part, and when this part is designated (by performance data), the robot may be moved to perform a performance operation. Good.
[0083]
A karaoke apparatus having the animation function will be described below. FIG. 12 is a block diagram of the karaoke apparatus. This karaoke device outputs the player's animation as a video signal in the same way as the automatic performance device when playing karaoke music. In addition, this karaoke device has two automatic performance functions (sequencer) and one or two sound sources, and synchronizes two performance data of the same song with different arrangements (gorgeous, techno, etc.) in parallel. By reading and inputting the parts selected from both performance data to the sound source, it is possible to play the music by mixing (morphing) the performance parts of different arrangements. This morphing change can be made freely during the performance of the song. The player animation is adapted to the performance mode such that the player of the part that has been pronounced by morphing appears and the player of the part that is no longer pronounced leaves.
[0084]
In FIG. 12, two sequencers 41 and 42 sharing a performance clock signal read out song data version 1 and song data version 2 which are songs of the same song and different arrangements in parallel. The song data version 1 and the song data version 2 each have a plurality of tracks (tone colors), and the data of each track is read in parallel according to the performance clock. The data of each track read by the sequencer 41 and the sequencer 42 is input to the mute controller 45. The mute controller selects a track to be cut off and a track to be passed out of the two performance data tracks, and inputs only the data of the track to be passed to the sound source 46.
[0085]
The morphing controller 50 instructs the mute controller 45 which part of which performance data is to be passed. The morphing control unit 50 reads the morphing sequence data 51 in parallel with the automatic performance of the sequencers 41 and 42, and controls the part to be muted based on this. The morphing sequence data 51 is stored in the storage unit 40 in association with song data version 1 and song data version 2. When there is no morphing sequence data 51, the part to be muted is controlled based on the operation data (generated by the user's operation) input from the morphing operation unit 52.
[0086]
FIG. 13 shows an aspect of morphing. In this example, version 1 song data consists of 7 parts, part 1 to part 7, and version 2 song data also consists of 7 parts, part 1 to part 7. Each part may be, for example, a part indicating functions such as “melody, bass, rhythm, obligato, arrange key, chord, etc.”. “E guitar 1, E guitar 2, keyboard, E bass, drum set, brass 1” , Brass 2 ”and other parts divided by musical instruments (timbres). In the morphing sequence data, morphing parameters that change every moment are written as event data as shown in the lower part of FIG.
[0087]
In this example, at the start of performance, all version 1 parts are input to the sound source 46, and all version 2 parts are muted (morphing parameter = 0). Then, the morphing control unit 50 reads the event data of the morphing sequence data 51, and when the morphing parameter is not 0, the version 1 part is muted according to the numerical value, and the version 2 part is input to the sound source 46.
[0088]
In this example, the versions are switched from part 1 to part 7 in order, but this order may be other than this. Instead of switching between parts of the same type, switching may be performed between different parts (for example, part 1 of version 1 and part 7 of version 2).
[0089]
On the other hand, the animation generation unit 52 receives the animation data 53 stored in the storage unit 40. The animation data 53 includes the animation database and the production database. The animation generation unit 52 can create animations of both the version 1 song player and the version 2 song player based on the animation data 53, but based on the control information input from the morphing control unit 50. Only the animation of the part player that the sound source 46 produces is generated and output as a video signal. This video signal is displayed on a monitor.
[0090]
In this embodiment, the morphing parameters are changed by the operation of the morphing sequence data 51 or the morphing operation unit 52. However, the morphing parameters are determined according to the singing situation of the singer input from the microphone (not shown). You may make it fluctuate. Further, the morphing parameters may be automatically changed by a specific algorithm.
[0091]
Part morphing in the player animation is replaced by morphing of the animation in which the player who is playing is gradually deformed and becomes a new part player in addition to the replacement due to the leaving / appearance of the player. Also good.
[0092]
For example, the animation morphing when the performance arrangement is morphed from a full orchestra to a band can be as follows.
1. Performance by full orchestra
2. Contrabass is replaced by morphing to electric bass
3. Percussion instruments are replaced by morphing drum sets
4). The trumpet team leaves with an interlude and a guitar player appears
5. The string instrument player leaves and a keyboard player appears instead.
[0093]
Further, the performance parts may be replaced by fade-in / fade-out in addition to the method of performing cut-in / cut-out. In this case, the mute controller 45 does not suddenly cut off the data of the track to be faded out, but gradually rewrites the velocity so as to output it to the sound source 46, and finally when the velocity becomes zero, the data. The output is stopped. Conversely, the data of the track that fades in is output to the sound source 46 while gradually increasing from velocity = 0, and is increased to 100 percent (the velocity originally written in the music data).
[0094]
In this case, the sound pan control is performed in parallel with the fade-in / fade-out, and the animation that the player who fades out disappears in the right (left) direction and the player who fades in appears from the left (right) direction is displayed. May be.
[0095]
Further, in the case of completely shifting from the performance of version 1 to the performance of version 2 in accordance with a predetermined scenario (morphing sequence data), it is also possible to shift parts with the following effects.
The musical sound of a new arrangement is generated as a reverb sound, faded in and gradually changed to a dry sound, overwhelming the musical sound of the previous arrangement, and the transition is completed.
Replace with sound field control using sound space effector.
In any case, in the case of these part transfer methods, animation is also transferred by a method corresponding to the part transfer method.
[0096]
【The invention's effect】
As described above, according to the present invention, an animation of a player (player) can be created by synthesizing animation materials based on performance data, thereby displaying an animation without preparing video data in advance. It becomes possible.
[0097]
  As for the fingering of the performer, by preparing fingering data describing the correct fingering in advance, it is possible to create and display an accurate and realistic animation.wear.
[0098]
Further, since fingering data can be recorded in parallel with recording of performance data, this can be used as it is in an automatic performance device to display automatic performance and fingering animation.
[0099]
Also, performance data parts with different arrangements can be mixed and played automatically, and the selection of that part can be switched in the middle of the automatic performance, so it is possible to switch to another arrangement during the performance. Of course, a new arrangement that has never been possible will be possible.
[0100]
At that time, since an animation corresponding to the part selection is displayed, there is an advantage that the user can visually easily understand what part selection is currently automatically performed.
[Brief description of the drawings]
FIG. 1 is a block diagram of an automatic performance apparatus according to an embodiment of the present invention.
FIG. 2 is a view showing an example of a player animation displayed by the automatic performance device
FIG. 3 is a diagram for explaining functions of an animation unit of the automatic performance device
FIG. 4 is a view showing an example of karaoke performance data and effect data used in the automatic performance device
FIG. 5 is a diagram showing an example of a player database used in the automatic performance device
FIG. 6 is a diagram showing an example of a player animation created by the automatic performance device
FIG. 7 is a diagram showing an example of a fingering animation
FIG. 8 is a diagram showing an example of a fingering database
FIG. 9 is a configuration diagram of a fingering recording apparatus according to an embodiment of the present invention.
FIG. 10 is a block diagram of a fingering reasoning apparatus.
FIG. 11 is a flowchart showing the operation of the automatic performance device.
FIG. 12 is a block diagram of an automatic performance device according to an embodiment of the present invention.
FIG. 13 is a diagram showing an example of part morphing of the automatic performance device
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Song data storage part, 2 ... Automatic performance part, 3 ... Sound source, 4 ... Animation part, 5 ... Display part, 10 ... Player selection and arrangement | positioning part, 11 ... Performance motion calculation part, 12 ... Animation production | generation part, 13 ... Player database 130... Player polygon data 131. Performance data 135. Fingering database 136. Finger polygon data 137 performance data 14. Production database 15 display mode control unit
DESCRIPTION OF SYMBOLS 20 ... Keyboard, 20a ... Touch contact, 21 ... Note sensor, 22 ... Pulse switch, 23 ... Pulse generator, 24 ... Finger determination part, 25 ... Finger terminal, 26 ... Sensor, 27 ... Recording part, 28 ... Timer,
30 ... Music data storage unit, 31 ... Inference unit, 32 ... Inference rule storage unit, 33 ... Fingering table, 35 ... Fingering data storage unit,
DESCRIPTION OF SYMBOLS 40 ... Memory | storage part, 41, 42 ... Sequencer, 43, 44 ... Performance data, 45 ... Mute controller, 46 ... Sound source, 50 ... Morphing control part, 51 ... Morphing sequence data, 52 ... Morphing operation part, 53 ... Animation generation part 54 animation data

Claims (4)

演奏データに基づいて楽曲を自動演奏する自動演奏手段と、
複数種類の楽器の演奏者のアニメーション素材を記憶した素材記憶手段と、
演奏データが指定する音色の楽器の演奏者を選出して、該演奏データの少なくとも音高に基づいてアニメーション素材を合成することにより、前記楽曲を演奏する演奏者のアニメーションを作成するアニメーション作成手段と、
を備えたことを特徴とする自動演奏装置。
Automatic performance means for automatically playing music based on performance data;
Material storage means for storing animation materials of performers of multiple types of instruments ,
An animation creating means for creating an animation of the performer who plays the music piece by selecting a performer of a musical instrument designated by the performance data and synthesizing an animation material based on at least the pitch of the performance data; ,
An automatic performance device characterized by comprising:
前記素材記憶手段は、演奏者の手指の形状情報および演奏動作情報を含むアニメーション素材を記憶し、
前記アニメーション作成手段は、演奏操作をどの指で行ったかを指示するフィンガリングデータを前記演奏データと同期して入力し、
前記演奏データの少なくとも音高及びフィンガリングデータに基づいて前記アニメーション素材を合成することにより、該演奏データが指定する音色の楽器の演奏者とその演奏者のフィンガリングを表示するアニメーションを作成することを特徴とする請求項1に記載の自動演奏装置。
The material storage means stores animation material including shape information and performance information of the performer's fingers ,
The animation creating means inputs fingering data indicating which finger performs the performance operation in synchronization with the performance data,
Synthesizing the animation material based on at least the pitch and fingering data of the performance data, thereby creating an animation displaying the performer of the musical instrument specified by the performance data and the fingering of the player; The automatic performance device according to claim 1 .
それぞれ複数のパートを有し、旋律が同じで和音やリズムなどの異なる複数のバージョンの演奏データを並行して読み出す読出手段と、
前記複数のバージョンから、任意のパートを選びだして選択し、選択したパートのデータのみを音源に入力する選択手段と、
読出手段の演奏データの読み出し中に選択手段に対して選択の変更を指示する選択変更データ入力する選択変更手段と、
前記選択手段が選択したパートのデータを演奏データとしてアニメーション作成手段に入力する演奏データ入力手段と、
更に備えたことを特徴とする請求項1に記載の自動演奏装置。
Reading means that each has a plurality of parts, reads out in parallel a plurality of versions of performance data having the same melody and different chords and rhythms,
A selection means for selecting and selecting an arbitrary part from the plurality of versions, and inputting only the data of the selected part into the sound source;
Selection changing means for inputting selection change data for instructing the selection means to change the selection while the performance data is being read by the reading means;
Performance data input means for inputting the data of the part selected by the selection means to the animation creating means as performance data;
The automatic performance device according to claim 1, further comprising:
前記アニメーション作成手段は、選択変更手段によってパートの選択が変更されたとき、選択から外れたパートの演奏者のアニメーションに代えて新たに選択されたパートの演奏者のアニメーションを作成する手段である請求項に記載の自動演奏装置。The animation creation means is means for creating an animation of a player of a newly selected part instead of an animation of a player of a part that is not selected when the selection of the part is changed by the selection changing means. Item 4. The automatic performance device according to Item 3 .
JP17117598A 1998-06-18 1998-06-18 Automatic performance device and fingering recording device Expired - Fee Related JP3921817B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17117598A JP3921817B2 (en) 1998-06-18 1998-06-18 Automatic performance device and fingering recording device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17117598A JP3921817B2 (en) 1998-06-18 1998-06-18 Automatic performance device and fingering recording device

Publications (2)

Publication Number Publication Date
JP2000010560A JP2000010560A (en) 2000-01-14
JP3921817B2 true JP3921817B2 (en) 2007-05-30

Family

ID=15918398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17117598A Expired - Fee Related JP3921817B2 (en) 1998-06-18 1998-06-18 Automatic performance device and fingering recording device

Country Status (1)

Country Link
JP (1) JP3921817B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
HK1195445A2 (en) * 2014-05-08 2014-11-07 黃偉明 Endpoint mixing system and reproduction method of endpoint mixed sounds
JP6699677B2 (en) * 2018-02-06 2020-05-27 ヤマハ株式会社 Information processing method, information processing apparatus, and program

Also Published As

Publication number Publication date
JP2000010560A (en) 2000-01-14

Similar Documents

Publication Publication Date Title
US11173399B2 (en) Music video game with user directed sound generation
US6703549B1 (en) Performance data generating apparatus and method and storage medium
JP3728942B2 (en) Music and image generation device
US20110191674A1 (en) Virtual musical interface in a haptic virtual environment
KR19990064283A (en) Real time music generation system
JP2012515622A (en) Interactive musical instrument game
CN107146598A (en) The intelligent performance system and method for a kind of multitone mixture of colours
JP3900188B2 (en) Performance data creation device
JP5887293B2 (en) Karaoke device and program
JP3915807B2 (en) Automatic performance determination device and program
JP2008527463A (en) Complete orchestration system
JP3829780B2 (en) Performance method determining device and program
JP3921817B2 (en) Automatic performance device and fingering recording device
JP4366240B2 (en) Game device, pitched sound effect generating program and method
JPH09204176A (en) Style changing device and karaoke device
Allen 12 Kwela: the Structure and Sound of Pennywhistle Music
JP3656597B2 (en) Electronic musical instruments
JP3900187B2 (en) Performance data creation device
JPH06124062A (en) Karaoke machine
Liu Advanced Dynamic Music: Composing Algorithmic Music in Video Games as an Improvisatory Device for Players
Souvignier Loops and grooves: The musician's guide to groove machines and loop sequencers
Aikin Software synthesizers: the definitive guide to virtual musical instruments
JP3057793B2 (en) Electronic musical instrument
Seo A study of Unsuk Chin's violin concerto
Delekta et al. Synthesis System for Wind Instruments Parts of the Symphony Orchestra

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070212

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110302

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110302

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120302

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130302

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140302

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees