JP2004038049A - Performance comparison means and performance comparison program - Google Patents
Performance comparison means and performance comparison program Download PDFInfo
- Publication number
- JP2004038049A JP2004038049A JP2002198065A JP2002198065A JP2004038049A JP 2004038049 A JP2004038049 A JP 2004038049A JP 2002198065 A JP2002198065 A JP 2002198065A JP 2002198065 A JP2002198065 A JP 2002198065A JP 2004038049 A JP2004038049 A JP 2004038049A
- Authority
- JP
- Japan
- Prior art keywords
- performance
- performance data
- data
- user
- comparison
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
この発明は、ユーザ演奏を手本となる演奏と比較し評価するための演奏比較システムに関する。
【0002】
【従来の技術】
従来より、ユーザの演奏データを、予め記憶しておいた手本(模範)となる演奏データと比較して、ユーザ演奏が手本演奏と比べてどの程度正しいかを判定して提示する装置がある。この場合、ユーザ演奏データ及び手本演奏データは同じ演奏パートであることが比較及び評価の前提となっている。しかしながら、手本演奏データが複数パートある場合には、ユーザ演奏データがどのパートについて演奏したものであるかが分からず、比較・評価をすることができない。
【0003】
また、ユーザ演奏と手本演奏の比較を行う場合、一般的には、ユーザ演奏データ及び手本演奏データ両者の音高とタイミングとを比較する処理により行うが、この処理には、一方の演奏データの或る音符が他方の演奏データのどの音符に対応するかを決定するアルゴリズムなどが含まれる。従って、演奏比較には、非常に複雑な処理が要求されていた。
【0004】
【発明が解決しようとする課題】
この発明は、このような事情に鑑み、ユーザ演奏が複数の手本演奏パートのうちどのパートのものであるのか不明な状態であっても、適切な比較結果を得ることができ、また、簡単な方法によりユーザ演奏と手本演奏とを比較することができる演奏比較システムを提供することを目的とする。
【0005】
【課題を解決するための手段】
この発明の一つの特徴に従うと、複数の演奏パート(右手、両手、左手)に関する手本演奏データ(DR,DB,DL)及びユーザ演奏データ(DU)を取得する演奏データ取得手段(AR,MB,AL;AU)と、取得された各手本演奏データ(DR〜DL)とユーザ演奏データ(DU)とをそれぞれ比較する演奏比較手段(PR〜PU;CR〜CL)と、これらの比較結果に基づいて、ユーザ演奏データ(DU)がどの演奏パート(右手〜左手)に関する手本演奏データ(DR〜DL)に対応するかを評価し、この評価結果を提示する提示手段(DC,RE)とを具備する演奏比較装置〔請求項1〕、並びに、複数の演奏パート(右手、両手、左手)に関する手本演奏データ(DR,DB,DL)及びユーザ演奏データ(DU)を取得するステップ(AR,MB,AL;AU)と、取得された各手本演奏データ(DR〜DL)とユーザ演奏データ(DU)とをそれぞれ比較するステップ(PR〜PU;CR〜CL)と、これらの比較結果に基づいて、ユーザ演奏データ(DU)がどの演奏パート(右手〜左手)に関する手本演奏データ(DR〜DL)に対応するかを評価し、この評価結果を提示するステップ(DC,RE)とから成る手順を情報処理装置(PC)に実行させる演奏比較プログラム〔請求項3〕が提供される。なお、括弧書きは、後述する実施例における参照記号又は用語を表わし、以下においても同様である。
【0006】
また、この発明の別の特徴に従うと、手本演奏データ(DR,DB,DL)及びユーザ演奏データ(DU)を取得する演奏データ取得手段(AR,MB,AL;AU)と、取得された手本演奏データ及びユーザ演奏データ(DR〜DL,DU)に基づいて、それぞれの演奏を表わす画像データ(Dr〜Dl,Du)を生成する画像データ生成手段(PR〜PL,PU)と、両画像データ(Dr〜Dl,Du)を比較して手本演奏データ(DR〜DL)とユーザ演奏データ(DU)との一致度合い(A)又は不一致度合い(B)を求める演奏比較手段(CR〜CL)と、求められた一致度合い(A)又は不一致度合い(B)を提示する提示手段(RE)とを具備することを特徴とする演奏比較装置〔請求項2〕、並びに、手本演奏データ(DR,DB,DL)及びユーザ演奏データ(DU)を取得するステップ(AR,MB,AL;AU)と、取得された手本演奏データ及びユーザ演奏データ(DR〜DL,DU)に基づいて、それぞれの演奏を表わす画像データ(Dr〜Dl,Du)を生成するステップ(PR〜PL,PU)と、両画像データ(Dr〜Dl,Du)を比較して手本演奏データ(DR〜DL)とユーザ演奏データ(DU)との一致度合い(A)又は不一致度合い(B)を求めるステップ(CR〜CL)と、求められた一致度合い(A)又は不一致度合い(B)を提示するステップ(RE)とから成る手順を情報処理装置(PC)に実行させる演奏比較プログラム〔請求項4〕が提供される。
【0007】
〔発明の作用〕
この発明による演奏比較においては、複数の演奏パート(例えば、右手、両手、左手)に関する手本演奏データ(DR,DB,DL)を取得する(PR,MB,PL)と共に、ユーザ演奏データ(DU)を取得し(PU)、各手本演奏データ(DR〜DL)とユーザ演奏データ(DU)とをそれぞれ比較し(PR〜PU;CR〜CL)、ユーザ演奏データ(DU)がどの演奏パート(PR〜PL)に関するものかを求め(DC)、比較結果を提示する(RE)ようにしているので、ユーザ演奏データ(DU)がどのパートの演奏データを手本にしたものであるのかが分からない状態であっても、ユーザ演奏データ(DU)が手本の対象としている演奏パートについて、適切な比較結果を得ることができる。
【0008】
なお、手本となる演奏データが鍵盤演奏データであり、予め右手及び左手演奏データ(DR,DL)が手本データとして用意されている場合には、これらの演奏データ(DR,DL)を手本演奏データ(DR,DL)とすると共に、該演奏データ(DR,DL)から両手演奏データ(DB)を作成して(MB)これを手本演奏データに加えることによって、ユーザ演奏データ(DU)が、左手演奏又は右手演奏を手本にしているかだけでなく、両手演奏を手本にしたものであるか否かについても評価することができる。
【0009】
また、この発明による演奏比較においては、手本演奏データ(DR,DB,DL)を取得する(AR,MB,AL)と共に、ユーザ演奏データ(DU)を取得し(PU)、手本演奏データ(DR〜DL)とユーザ演奏データ(DU)を元にそれぞれの演奏を表わす画像データ(Dr〜Dl;Du)を生成し(PR〜PL,PU)、両画像データ(Dr〜Dl;Du)を比較して手本演奏データ(DR〜DL)とユーザ演奏データ(DU)との一致度合い(A)又は不一致度合い(B)を求め(CR〜CL)、比較結果を提示する(RE)ようにしているので、画像データ同士の比較という非常に簡単なアルゴリズムによって、ユーザ演奏データ(DU)と手本演奏データ(DR〜DL)との比較が可能になる。
【0010】
【発明の実施の形態】
以下、図面を参照しつつ、この発明の好適な実施の形態について詳述する。なお、以下の実施例は単なる一例であって、この発明の精神を逸脱しない範囲で種々の変更が可能である。
【0011】
〔システムの概要〕
図1は、この発明の一実施例による演奏比較システムのハードウエア構成を示すブロック図である。この例では、演奏比較システムの本体装置となる情報処理装置としてパーソナルコンピュータ(PC)が用いられている。この演奏比較機能を有する情報処理装置PCは、中央処理装置(CPU)1、読出専用メモリ(ROM)2、ランダムアクセスメモリ(RAM)3、外部記憶装置4、検出回路5、表示回路6、音源回路7、効果回路8、通信インターフェース(通信I/F)9、MIDIインターフェース(MIDI・I/F)10などを備え、これらの装置1〜10はバス11を介して互いに接続されている。
【0012】
CPU1は、所定のソフトウエア・プログラムに従いタイマ12によるクロックを利用して、基本的な情報処理の外に、演奏データを比較・評価するための演奏比較処理や演奏データ再生処理を含む各種音楽情報処理の制御を行う。ROM2には、このために、基本的情報処理や、演奏比較処理などの音楽情報処理を含む各種制御プログラム、制御パラメータ、曲データファイルなどのデータが記憶されており、曲データファイルは、ユーザ演奏の手本(模範)となる多数の曲データが収められている。RAM3は、各種制御処理に際して必要なデータやパラメータを記憶し、また、処理中の各種データ等を一時記憶するためのワーク領域として用いられる。
【0013】
外部記憶装置4は、ハードディスク(HD)や、コンパクトディスク・リード・オンリィ・メモリ(CD−ROM)、フレキシブルディスク(FD)、光磁気(MO)ディスク、ディジタル多目的ディスク(DVD)、半導体メモリ等の記憶媒体を含み、この情報処理装置PCで利用される演奏比較プログラムや、上述した曲データファイルを記憶することができる。
【0014】
検出回路5は、これに接続される入力操作子装置13による設定/制御操作の内容を検出して情報処理装置PC内に導入する。入力操作子装置13は、キーボードやマウスなどのポインチングデバイスなどの操作子を備え、この情報処理装置PCの動作状態を設定したり演奏比較に必要な各種情報を入力するのに用いられる。表示回路6は、これに接続される表示装置14の表示内容をCPU1からの指令に従って制御し、表示装置14にはディスプレイ(表示器)や各種インジケータが含まれる。
【0015】
音源回路7には、DSPを含む効果回路8が接続され、効果回路8にはD/A変換部やアンプ、スピーカを含むサウンドシステム15が接続される。これらの装置7,8,15により、情報処理装置PCに入力乃至記憶された演奏データなどの音楽情報に基づき楽音を発音する楽音生成部が形成される。
【0016】
通信I/F9には、インターネットなどの通信ネットワーク16を介してサーバコンピュータなどの他の情報機器17が接続され、他の情報機器17から手本(模範)演奏データなどの音楽情報を受信することができる。また、MIDI・I/F10にはMIDI機器18が接続され、情報処理装置PCとMIDI機器18との間でMIDI音楽情報を授受することができる。MIDI機器18は、鍵盤タイプのキーボード楽器や他の任意のタイプの電子楽器などの音楽演奏機能を有する音楽情報処理装置で構成され、例えば、MIDI機器18でのユーザ演奏により得られたユーザ演奏データなどの音楽情報をMIDI形式で情報処理装置PC内に送り込むことができる。なお、MIDI・I/F10については、専用のMIDIインターフェースに限らず、RS−232C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインターフェースを用いてMIDIインターフェースを構成してもよい。この場合、MIDIメッセージ以外のデータをも同時に送受信するようにしてもよい。
【0017】
〔演奏比較処理〕
図2は、この発明の一実施例による演奏比較プログラムにより実行される演奏比較処理を機能的に表わす機能ブロック図である。ここで、図2を用いてこの発明の演奏比較手法の概略を説明しておく。この演奏比較システムでは、ユーザ演奏データDUについて、複数の演奏パート(右手、両手、左手)に関する演奏データDR,DB,DLとそれぞれ比較し(CR,CB,CL)、これらの比較結果に基づいてユーザ演奏データDUがどの演奏パートに関するか(右手、両手又は左手の何れであるか)を評価し(DC)、その結果を提示する(RE)。また、演奏データの比較に当っては、手本及びユーザ演奏データDR〜DL,DUに基づいて、それぞれの演奏を表わす画像データDr〜Dl,Duを生成し(PR〜PL,PU)、両画像データDr〜Dl,Duを比較して手本演奏データDR〜DL・ユーザ演奏データDU間の一致度A又は不一致度Bを求め(CR〜CL)、この一致又は不一致度A,Bを提示する(RE)。
【0018】
以下、図2の機能ブロックに従って、この演奏比較動作を具体的に説明しよう。例えば、ROM2や外部記憶装置4などに記憶された曲データファイルには、ユーザ演奏の手本となる多数の曲データが予め用意されており、各曲データには、右手演奏パートの演奏データを表わす右手演奏データDR及び左手演奏パートの演奏データを表わす左手演奏データDLが含まれる。
【0019】
入力操作子13のユーザ操作によって、曲データファイルの内容をディスプレイ14にリスト表示したり、表示された曲データリスト中から所望の曲データを手本として選択してRAM3上に呼び出し、当該曲データを構成する演奏データに基づいて、楽音生成部7,8,15で発音させたり或いはディスプレイ14上に楽譜で表示させることができる。従って、ユーザは、所望の曲データの右手演奏データDR及び左手演奏データDLによる演奏を聴いたり或いは楽譜表示を見て、例えば、キーボードタイプのMIDI機器18を演奏することができる。
【0020】
図2において、ユーザのMIDI機器18の演奏に基づくユーザ演奏データDUは、MIDI・I/F10を介して、ユーザ演奏データ取得部AUにより取得され、RAM3上に記録(リアルタイム記録)される。このとき、ユーザ演奏データDUは、右手演奏の場合、左手演奏の場合或いは両手演奏の場合の何れかが考えられる。一方、手本とされた曲データの右手演奏データDR及び左手演奏データDLは、それぞれ、右手演奏データ取得部AR及び左手演奏データ取得部ALにより、手本演奏データとして取り出される。
【0021】
次に、右手、左手、両手及びユーザ比較データ生成部DR,DL,DB,DUは、演奏比較のためのデータDr,Dl,Db,Duを生成する。ここで、各比較データ生成部で生成される比較用のデータDr,Dl,Db,Duは、例えば、図3に示されるように、ピアノロール画像データとすることができる。演奏データからピアノロール画像データを生成する技術は周知であるので、ここでの説明は省略する。
【0022】
具体的には、右手比較データ生成部PR及び左手比較データ生成部PLは、それぞれ、右手演奏データDR及び左手演奏データDLを基にして右手比較データDr及び左手比較データDlを生成する。また、両手比較データ生成部PBには両手演奏データ作成手段MBが前置され、この両手演奏データ作成手段MBは、右手演奏データDR及び左手演奏データDLをマージして両手演奏パートを表わす両手演奏データDBを作成し、両手比較データ生成部PBは、このデータマージで得られた両手演奏データDBを基にして両手比較データDbを生成する。さらに、ユーザ比較データ生成部PUは、ユーザ演奏データDUを基にしてユーザ比較データDuを生成する。
【0023】
次いで、右手、左手及び両手比較部CR,CL,CBは、ユーザ比較データDuを、右手比較データDr、左手比較データDl及び両手比較データDbと、それぞれ比較し、それらの一致度合い或いは不一致度合いを求める。この比較には、例えば、図4に示されるように、図3のピアノロール画像データを比較する手法を採用することができる。
【0024】
一例としては、各比較部において、比較される2つの比較データにより表わされるピアノロール画像を重ね合わせ、論理積(AND)をとることにより一致部分Daを抽出し、一致部分Daの面積を元に一致度合い“A”を求めることができる。例えば、各比較部CR,CL,CBでは、右手、左手又は両手比較データDr,Dl,Dbを手本比較データDsで表わすと、次式(1)によって一致度“A”を求める:
A =(一致部分Daの面積)/(手本比較データDsの面積) …(1)
【0025】
他の例としては、各比較部において、比較される2つの比較データにより表わされるピアノロール画像を重ね合わせ、排他的論理和(EOR又は排他的OR)をとることにより不一致部分Deを抽出し、不一致部分Deの面積を元に不一致度合い“B”を求めることができる。例えば、各比較部CR,CL,CBでは次式(2)によって不一致度“B”を求める:
B =(不一致部分Deの面積)/(手本比較データDsの面積) …(2)
【0026】
続いて、判定部DCは、各比較部CR,CL,CBでの比較結果を基にして最も類似度の高い比較対象を求め、ユーザ演奏データDUが、どのパートに係る演奏データであるか、即ち、右手、左手又は両手演奏データDR,DL,DBのうち、何れの演奏データを手本としていたかを判定すると共に、ユーザ演奏を採点する。
【0027】
この判定手法の一例としては、最も一致度合い“A”の高い比較結果を採用するか、或いは、最も不一致度合い“B”の低い比較結果を採用し、採用された比較結果を与える演奏パートの手本演奏データをユーザ演奏データの手本であると判定する。また、ユーザ演奏の採点については、採用された比較結果を用いてユーザ演奏の評価点を算出することができる。例えば、最も一致度合い“A”の高い比較結果については、そのまま%値で採点したり、最も不一致度合い“B”の低い比較結果については、%値を所定値(例えば“100”)から減算して採点したり、そのまま%値で不一致度としての採点を行うことができる。
【0028】
そして、結果提示部REは、比較部CR,CL,CBでの比較結果及び判定部DCでの判定結果をディスプレイ14上にユーザに提示する。この提示手法の一つの例としては、ユーザ演奏データDUが、「右手」、「左手」及び「両手」パートのうち、どのパートの演奏データに対応しているかという判定結果と、判定された手本演奏データとの一致度合い“A”又は不一致度合い“B”の比較結果を点数などで表示する方法を採用することができる。また、他の例として、各比較部CR,CL,CBでの各比較結果を採点数値などで全て提示し、それぞれの可能性を提示してもよい。
【0029】
〔画像データによる比較及び判定例〕
この発明の一実施例による演奏比較システムでは、ユーザ演奏データを手本演奏データと比較するために画像データが用いられる。図3は、比較データ生成部で生成される画像データの一例を示し、図4は、比較部での比較手法を説明するための画像データ比較結果の一例を示す。各図において、縦軸(Y軸)は音高レベルを表わす音高軸であり、横軸(X軸)は時間の経過を表わす時間軸である。
【0030】
なお、図3及び図4において、各音高レベルL1〜L7を表わす破線は、各図間で画像データの音高位置を容易に対比することができるように付加した補助線である。また、時間軸下部の短い縦棒は、画像データの時間位置を容易に把握することができるように付加したものであり、演奏データ各音の演奏開始(キーオン)及び演奏終了(キーオフ)のタイミングを表わし、演奏開始タイミングについては更に記号“tr1”〜“tr7”,“tu1”〜“tu6”を付加している。
【0031】
さて、各比較部CR,CB,CLにおいて手本演奏データDR,DB,DLとユーザ演奏データDUとの比較に用いられる手本比較データDr,Db,Dl及びユーザ比較データDuには、図3に示すように、各演奏データに対応する画像データが用いられる。演奏データの各音は、図示のように、比較データ(画像データ)を構成する各音符画像で表現され、この音符画像は、例えば、演奏データ各音のキーオンからキーオフまでを所定幅のバーの長さで表わし、各バーを、各音の音高レベル及びキーオン/オフに従って、音高軸方向及び時間軸方向に並べたものである。
【0032】
図3(1)は、右手比較データ生成部PRで右手演奏データDRに基づいて生成される右手比較データDrを表わす画像データの一例を示す。この例では、右手比較データDrを構成する音符画像Dr1〜Dr7は、時間軸(横軸)上の右手演奏データDR各音のキーオン(発音開始)タイミングtr1〜tr7において、各音の音高に応じた音高軸方向の位置に出現し、各音のキーオフ(発音終了)タイミングで消滅する。つまり、音符画像Dr1〜Dr7を表わす所定幅のバーは、各音のキーオンタイミングtr1〜tr7に対応する時間軸上に出現し、各バーの長さは各音のキーオンからキーオフまでの時間長を表わし,各バーの音高軸(縦軸)方向の配置は各音の音高レベルに従う。
【0033】
また、図3(2)は、ユーザ比較データ生成部PUでユーザ演奏データDUに基づいて生成されるユーザ比較データDuを表わす画像データの一例を示す。この例は、ユーザ比較データDuを構成する音符画像Du1〜Du6を表わす所定幅のバーは、同様に、時間軸(横軸)上のユーザ演奏データDu各音のキーオンタイミングtu1〜tr6順に、各音の音高に応じた音高軸(縦軸)上の位置に出現し、各音のキーオン〜オフ時間長に対応する長さを有する。
【0034】
各比較部CR,CB,CLのうち、右手比較部CRでは、右手比較データDrによる画像データとユーザ比較データDuによる画像データが比較される。図4は、図3(1),(2)に例示される画像データDr,Duを比較した結果を表わし、図4(1)は、両画像データDr,Duの論理積(AND)演算を行って一致部分を抽出した場合の比較結果を示し、図4(1)は、両画像データDr,Duの排他的論理和(EOR)演算を行って不一致部分を抽出した場合の比較結果を示す。
【0035】
図4(1)のAND演算について説明を加えると、ユーザ演奏データDUの第1音に対応するユーザ第1音符画像Du1〔図3(2)〕は、右手演奏データDRの第1音に基づく右手第1音符画像Dr1〔図3(1)〕と同じ音高レベルL2であるが、キーオン時点tu1及びキーオフ時点が右手第1音符画像Dr1のキーオン時点tr1及びキーオフ時点より遅れている。従って、両音符画像Du1,Dr1のAND演算結果Da1は、ユーザ音符画像Du1のキーオン(tu1)から手本音符画像Dr1のキーオフまでに一致する。
【0036】
次に、ユーザ第2音符画像Du2については、キーオン期間が右手第2音符画像Dr2と一致するものの、音高レベルL3が右手第2音符画像Dr2の音高レベルL4と異なり(操作鍵の誤り)、他に、音符画像Du2のキーオン期間中に同レベルの右手音符画像が存在しないので、AND演算結果は生成されない。また、右手第3音符画像Dr3についても、同レベル且つ同キーオン期間中にユーザ音符画像が存在しないので(弾き忘れ)、AND演算結果が生成されない。
【0037】
さらに、ユーザ第3音符画像Du3は、右手第4音符画像Dr4と同じ音高レベルL4であり、キーオン時点tu3が右手第4音符画像Dr4のキーオン時点t4より早いだけなので、両音符画像Du3,Du4のAND演算結果Da2は、ユーザ第1音符画像Du1に一致する。以下、同様にして、ユーザ及び右手音符画像Du3〜Du6,Dr4〜Dr7について、音高レベルとキーオン期間の一致が調べられ、図4(1)に示されるように、一致する部分Da3〜Da5がAND演算結果として生成される。
【0038】
図4(2)のEOR演算については、まず、同じ音高レベルL2でキーオン期間が重なるユーザ第1音符画像Du1〔図3(2)〕と右手第1音符画像Dr1〔図3(1)〕との間で、キーオン期間が重ならない右手第1音符画像Dr1の前半De1及ユーザ第1音符画像Du1の後半De4がEOR演算結果として生成される。このEOR演算結果De4が生成される前(tr2=tu2)にキーオンする右手第2音符画像Dr2及びユーザ第2音符画像Du2については、ユーザ画像と右手画像に重なりがないので、そのまま、EOR演算結果De2,De3として生成される。
【0039】
さらに、右手第3音符画像Dr3も、音高レベルL7及びキーオン期間に重なるユーザ画像がないので、そのまま、EOR演算結果De5として生成される。また、同じ音高レベルL4でキーオン期間の後半が重なるユーザ第3音符画像Du3及び右手第4音符画像Dr4に対して、重なりのないユーザ及び右手画像のキーオン時点間tu3〜tr4がEOR演算結果De6となる。以下、同様にして、ユーザ及び右手音符画像Du3〜Du6,Dr4〜Dr7について、音高レベルとキーオン期間の不一致が調べられ、図4(2)に示されるように、一致しない部分De7〜De9がEOR演算結果として生成される。
【0040】
〔種々の実施態様〕
以上、この発明を一実施例について説明したが、この発明は種々の態様で実施することができる。例えば、手本演奏データについては、実施例では、右手、左手及び両手の3パートを用いたが、これに限らない。右手と左手だけでもよいし、さらに、それ以外のパートがあってもよい。
【0041】
ユーザが演奏する楽器の形態は、実施例で説明した鍵盤楽器(キーボード楽器)に限らず、弦楽器、管楽器、打楽器など、どのような形態でもよい。さらに、情報処理装置(PC)と各形態の電子楽器を別置せず、演奏比較システムを電子楽器に一体化して、情報処理装置(PC)の持つ演奏比較処理機能を当該電子楽器に組み込んでもよい。
【0042】
また、ユーザが演奏する楽器に対応して、手本演奏データのパートもどのようなパートでもよい。さらに、手本演奏データは、例えば、鍵盤楽器と弦楽器というように、複数の形態の楽器パートからなっていてもよい。
【0043】
演奏データから生成される画像データは、ピアノロール画像に限らず、楽譜画像など、演奏を表わす画像であればどのようなものでもよい。ただし、楽譜画像の場合、ノートオン、ノートオフの微妙なタイミングのずれを表現できないので、これらを表現することができるピアノロール画像の方が、微妙なタイミングのずれをも評価することができるという点で好ましい。
【0044】
なお、演奏データのフォーマットは、演奏イベントの発生時刻を1つ前のイベントからの時間で表わした「イベント+相対時間」、演奏イベントの発生時刻を曲や小節内における絶対時間で表わした「イベント+絶対時間」、音符の音高と符長或いは休符と休符長で演奏データを表わした「音高(休符)+符長」、演奏の最小分解能毎にメモリの領域を確保し、演奏イベントの発生する時刻に対応するメモリ領域に演奏イベントを記憶した「ベタ方式」等、どのような形式でもよい。
【0045】
【発明の効果】
以上説明したように、この発明によれば、複数の演奏パート(例えば、右手、両手、左手)に関する手本演奏データを取得すると共にユーザ演奏データを取得し、各手本演奏データとユーザ演奏データとをそれぞれ比較して、ユーザ演奏データがどの演奏パートに関するものかを求め、比較結果を提示するようにしているので、ユーザ演奏データがどのパートの演奏データを手本にしたものであるのかが分からない状態であっても、適切な比較結果を得ることができる。
【0046】
また、この発明によれば、手本演奏データを取得すると共にユーザ演奏データを取得し、手本演奏データとユーザ演奏データを元に、それぞれの演奏を表わす画像データを生成し、両画像データを比較して手本演奏データとユーザ演奏データとの一致度合い又は不一致度合いを求め、比較結果を提示するようにしているので、画像データ同士の比較という非常に簡単なアルゴリズムによって、ユーザ演奏データを手本演奏データと比較することができる。
【図面の簡単な説明】
【図1】図1は、この発明の一実施例による演奏比較システム(パーソナルコンピュータ)のハードウエア構成ブロック図である。
【図2】図2は、この発明の一実施例による演奏比較処理を表わす機能ブロック図である。
【図3】図3は、この発明の一実施例による演奏比較システムの比較データ生成機能により生成されるピアノロール画像の一例を示す図である。
【図4】図4は、この発明の一実施例による演奏比較システムの比較機能による比較結果の一例を示す図である。
【符号の説明】
DR,DB,DL,DU 右手、左手、両手及びユーザ演奏データ、
Dr,Db,Dl,Du 右手、左手、両手及びユーザ比較データ(画像データ)、
Dr1〜Dr7,Du1〜Du6 右手及びユーザ比較データの各音を表わす音符画像、
L1〜L7 音高レベル、
tu1〜tu6,tr1〜tr7 右手及びユーザ演奏データ各音の開始タイミング、
Da1〜Da5,De1〜De9 論理積(AND)及び排他的論理和(EOR)による比較結果Da,Deを表わす各音の比較結果画像。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a performance comparison system for comparing and evaluating a user performance with a model performance.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been an apparatus that compares performance data of a user with performance data serving as a model (model) stored in advance, and determines and presents how correct the user performance is compared with the model performance. is there. In this case, it is assumed that the user performance data and the model performance data are the same performance part for comparison and evaluation. However, when the model performance data includes a plurality of parts, it is not possible to determine which part of the user performance data has been performed, so that comparison and evaluation cannot be performed.
[0003]
Further, when comparing the user performance and the model performance, generally, the processing is performed by comparing the pitch and the timing of both the user performance data and the model performance data. It includes an algorithm for determining which note in the data corresponds to which note in the other performance data. Therefore, the performance comparison required very complicated processing.
[0004]
[Problems to be solved by the invention]
In view of such circumstances, the present invention can obtain an appropriate comparison result even in a state where it is not clear which of a plurality of model performance parts the user performance belongs to. It is an object of the present invention to provide a performance comparison system capable of comparing a user performance with a model performance by a simple method.
[0005]
[Means for Solving the Problems]
According to one feature of the present invention, performance data acquisition means (AR, MB) for acquiring model performance data (DR, DB, DL) and user performance data (DU) for a plurality of performance parts (right hand, both hands, left hand). , AL; AU), performance comparison means (PR-PU; CR-CL) for comparing each of the acquired model performance data (DR-DL) and the user performance data (DU), and the comparison results of these. (DC, RE) which evaluates the user performance data (DU) with the model performance data (DR-DL) related to which performance part (right hand to left hand) on the basis of the performance data. And a sample performance data (DR, DB, DL) and a user performance data (DU) relating to a plurality of performance parts (right hand, both hands, left hand). Steps (AR, MB, AL; AU) and steps (PR-PU; CR-CL) for comparing each of the acquired model performance data (DR-DL) with the user performance data (DU), respectively. Is evaluated based on the result of the comparison of the user performance data (DU) with the model performance data (DR-DL) for which performance part (right hand to left hand), and presenting the evaluation result (DC, RE) is executed by the information processing apparatus (PC). Note that parentheses indicate reference symbols or terms in the embodiments described later, and the same applies to the following.
[0006]
According to another feature of the present invention, performance data acquisition means (AR, MB, AL; AU) for acquiring model performance data (DR, DB, DL) and user performance data (DU). Image data generating means (PR-PL, PU) for generating image data (Dr-D1, Du) representing respective performances based on the model performance data and the user performance data (DR-DL, DU); Performance comparison means (CR to CR) for comparing the image data (Dr to Dl, Du) to obtain the degree of agreement (A) or the degree of disagreement (B) between the model performance data (DR to DL) and the user performance data (DU). CL) and a presentation means (RE) for presenting the determined degree of coincidence (A) or degree of non-coincidence (B). (DR DB, DL) and user performance data (DU) (AR, MB, AL; AU). Based on the acquired model performance data and user performance data (DR to DL, DU), A step (PR-PL, PU) of generating image data (Dr-Dl, Du) representing a performance, and comparing the two image data (Dr-Dl, Du) with sample performance data (DR-DL) and user A step (CR-CL) for obtaining a degree of agreement (A) or a degree of disagreement (B) with the performance data (DU); and a step (RE) for presenting the degree of agreement (A) or the degree of disagreement (B). A performance comparison program for causing an information processing device (PC) to execute the procedure consisting of the following is provided.
[0007]
[Function of the Invention]
In the performance comparison according to the present invention, sample performance data (DR, DB, DL) relating to a plurality of performance parts (for example, right hand, both hands, left hand) are obtained (PR, MB, PL) and user performance data (DU). ) Is obtained (PU), each sample performance data (DR-DL) is compared with the user performance data (DU) (PR-PU; CR-CL), and which performance part is included in the user performance data (DU). Since it is determined whether the data pertains to (PR to PL) (DC) and the comparison result is presented (RE), it is possible to determine which part of the user performance data (DU) is modeled on the performance data of the part. Even in a state where the performance part is unknown, an appropriate comparison result can be obtained for the performance part whose model is the user performance data (DU).
[0008]
If the model performance data is keyboard performance data, and the right-hand and left-hand performance data (DR, DL) are prepared in advance as model data, the performance data (DR, DL) is used as the model data. In addition to the actual performance data (DR, DL), two-hand performance data (DB) is created from the performance data (DR, DL) (MB) and is added to the example performance data, so that the user performance data (DU) is obtained. ) Can be evaluated not only as a model of left-handed or right-handed performance but also as a model of two-handed performance.
[0009]
In the performance comparison according to the present invention, sample performance data (DR, DB, DL) is obtained (AR, MB, AL), and user performance data (DU) is obtained (PU). Based on (DR-DL) and user performance data (DU), image data (Dr-Dl; Du) representing each performance is generated (PR-PL, PU), and both image data (Dr-Dl; Du) To determine the degree of agreement (A) or degree of disagreement (B) between the model performance data (DR to DL) and the user performance data (DU) (CR to CL), and present the comparison result (RE). Therefore, the user performance data (DU) and the model performance data (DR to DL) can be compared by a very simple algorithm of comparing image data.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. The following embodiments are merely examples, and various modifications can be made without departing from the spirit of the present invention.
[0011]
[Overview of the system]
FIG. 1 is a block diagram showing a hardware configuration of a performance comparison system according to one embodiment of the present invention. In this example, a personal computer (PC) is used as an information processing device serving as a main device of the performance comparison system. The information processing device PC having the performance comparison function includes a central processing unit (CPU) 1, a read-only memory (ROM) 2, a random access memory (RAM) 3, an
[0012]
The CPU 1 uses the clock of the
[0013]
The
[0014]
The detection circuit 5 detects the content of the setting / control operation by the
[0015]
The
[0016]
The communication I /
[0017]
[Performance comparison processing]
FIG. 2 is a functional block diagram functionally showing performance comparison processing executed by the performance comparison program according to one embodiment of the present invention. Here, the outline of the performance comparison method of the present invention will be described with reference to FIG. In this performance comparison system, the user performance data DU is compared with performance data DR, DB, DL for a plurality of performance parts (right hand, both hands, left hand), respectively (CR, CB, CL), and based on these comparison results. It evaluates which performance part (right hand, both hands, or left hand) the user performance data DU relates to (DC) and presents the result (RE). In comparison of the performance data, image data Dr-Dl, Du representing respective performances are generated based on the model and user performance data DR-DL, DU (PR-PL, PU). By comparing the image data Dr to Dl and Du, the degree of coincidence A or the degree of inconsistency B between the model performance data DR to DL and the user performance data DU is obtained (CR to CL), and the degrees of coincidence or inconsistency A and B are presented. (RE).
[0018]
Hereinafter, this performance comparison operation will be specifically described with reference to the functional blocks of FIG. For example, in a music data file stored in the
[0019]
The user operates the
[0020]
In FIG. 2, user performance data DU based on the user's performance on the
[0021]
Next, the right hand, left hand, both hands, and the user comparison data generation units DR, DL, DB, and DU generate data Dr, Dl, Db, and Du for performance comparison. Here, the comparison data Dr, Dl, Db, and Du generated by each comparison data generation unit can be, for example, piano roll image data as shown in FIG. A technique for generating the piano roll image data from the performance data is well-known, and a description thereof will be omitted.
[0022]
Specifically, the right hand comparison data generator PR and the left hand comparison data generator PL generate right hand comparison data Dr and left hand comparison data Dl based on the right hand performance data DR and the left hand performance data DL, respectively. The two-hand performance data creation unit MB is provided in front of the two-hand performance data creation unit PB. The two-hand performance data creation unit MB merges the right-hand performance data DR and the left-hand performance data DL to represent a two-hand performance part. The data DB is created, and the two-hand comparison data generation unit PB generates two-hand comparison data Db based on the two-hand performance data DB obtained by the data merging. Further, the user comparison data generation unit PU generates the user comparison data Du based on the user performance data DU.
[0023]
Next, the right-hand, left-hand, and both-hand comparison units CR, CL, and CB compare the user comparison data Du with the right-hand comparison data Dr, the left-hand comparison data Dl, and the two-hand comparison data Db, respectively, and determine the degree of coincidence or disagreement. Ask. For this comparison, for example, as shown in FIG. 4, a method of comparing the piano roll image data of FIG. 3 can be employed.
[0024]
As an example, in each comparing unit, a coincidence portion Da is extracted by superimposing a piano roll image represented by two pieces of comparison data to be compared and taking a logical product (AND), and based on an area of the coincidence portion Da. The degree of coincidence “A” can be obtained. For example, in each of the comparison units CR, CL, and CB, when the right-hand, left-hand or both-hand comparison data Dr, Dl, and Db are represented by the model comparison data Ds, the degree of coincidence “A” is obtained by the following equation (1):
A = (Area of matching part Da) / (Area of sample comparison data Ds) (1)
[0025]
As another example, in each comparing unit, a non-matching portion De is extracted by superimposing a piano roll image represented by two pieces of comparison data to be compared and taking an exclusive OR (EOR or exclusive OR). The degree of mismatch "B" can be determined based on the area of the mismatched portion De. For example, in each of the comparison units CR, CL, and CB, the degree of mismatch “B” is obtained by the following equation (2):
B = (area of mismatched part De) / (area of sample comparison data Ds) (2)
[0026]
Subsequently, the determination unit DC obtains a comparison target having the highest similarity based on the comparison results of the respective comparison units CR, CL, and CB, and determines which part of the user performance data DU is the performance data relating to which part. That is, it is determined which of the right-hand, left-hand or both-hand performance data DR, DL, and DB is used as the model, and the user performance is scored.
[0027]
As an example of this determination method, a comparison result with the highest degree of matching “A” or a comparison result with the lowest degree of mismatch “B” is adopted, and the hand of the playing part giving the adopted comparison result is used. It is determined that the main performance data is a model of the user performance data. Further, regarding the scoring of the user performance, an evaluation point of the user performance can be calculated using the adopted comparison result. For example, the comparison result with the highest matching degree “A” is scored as it is with the percentage value, and the comparison result with the lowest matching degree “B” is subtracted from the predetermined value (for example, “100”). Can be scored, or can be scored as the degree of inconsistency using the% value as it is.
[0028]
Then, the result presentation unit RE presents the comparison result in the comparison units CR, CL, and CB and the determination result in the determination unit DC to the user on the
[0029]
[Comparison and determination example using image data]
In the performance comparison system according to one embodiment of the present invention, image data is used to compare user performance data with sample performance data. FIG. 3 shows an example of image data generated by the comparison data generation unit, and FIG. 4 shows an example of image data comparison results for explaining a comparison method by the comparison unit. In each figure, the vertical axis (Y axis) is a pitch axis representing a pitch level, and the horizontal axis (X axis) is a time axis representing the passage of time.
[0030]
3 and 4, broken lines representing the pitch levels L1 to L7 are auxiliary lines added so that the pitch positions of the image data can be easily compared between the drawings. The short vertical bar at the bottom of the time axis is added so that the time position of the image data can be easily grasped. The timing of the start (key-on) and the end (key-off) of each sound of the performance data The symbols “tr1” to “tr7” and “tu1” to “tu6” are further added to the performance start timing.
[0031]
Now, in each of the comparison units CR, CB, CL, the model comparison data Dr, Db, D1 and the user comparison data Du used for comparing the model performance data DR, DB, DL with the user performance data DU are shown in FIG. As shown in FIG. 7, image data corresponding to each performance data is used. As shown in the figure, each sound of the performance data is represented by a note image that forms comparison data (image data). The note image includes, for example, a bar having a predetermined width from key-on to key-off of each sound of the performance data. Each bar is arranged in the pitch axis direction and the time axis direction according to the pitch level and key on / off of each sound.
[0032]
FIG. 3A shows an example of image data representing the right hand comparison data Dr generated by the right hand comparison data generation unit PR based on the right hand performance data DR. In this example, the note images Dr1 to Dr7 constituting the right-hand comparison data Dr have the pitches of the respective right-hand performance data DR on the time axis (horizontal axis) at key-on (sound generation start) timings tr1 to tr7. It appears at a position corresponding to the pitch axis direction and disappears at the key-off (end of sound) timing of each sound. That is, the bars of a predetermined width representing the note images Dr1 to Dr7 appear on the time axis corresponding to the key-on timings tr1 to tr7 of each sound, and the length of each bar indicates the time length from key-on to key-off of each sound. Each bar has a pitch axis (vertical axis) direction according to the pitch level of each sound.
[0033]
FIG. 3B shows an example of image data representing the user comparison data Du generated by the user comparison data generation unit PU based on the user performance data DU. In this example, similarly, the bars of a predetermined width representing the note images Du1 to Du6 constituting the user comparison data Du are similarly displayed in the order of the key-on timings tu1 to tr6 of the user performance data Du on the time axis (horizontal axis). It appears at a position on the pitch axis (vertical axis) corresponding to the pitch of the sound, and has a length corresponding to the key-on to off time length of each sound.
[0034]
Among the comparison units CR, CB, CL, the right hand comparison unit CR compares the image data based on the right hand comparison data Dr with the image data based on the user comparison data Du. FIG. 4 shows a result of comparing the image data Dr and Du exemplified in FIGS. 3A and 3B, and FIG. 4A shows a logical product (AND) operation of the two image data Dr and Du. FIG. 4A shows a comparison result when an exclusive OR (EOR) operation is performed on both image data Dr and Du to extract a mismatched portion. .
[0035]
To explain the AND operation of FIG. 4A, the user first note image Du1 [FIG. 3B] corresponding to the first sound of the user performance data DU is based on the first sound of the right hand performance data DR. Although the pitch level L2 is the same as the right hand first note image Dr1 [FIG. 3 (1)], the key-on time tu1 and the key-off time are later than the key-on time tr1 and the key-off time of the right-hand first note image Dr1. Therefore, the AND operation result Da1 of both note images Du1 and Dr1 coincides from the key-on (tu1) of the user note image Du1 to the key-off of the sample note image Dr1.
[0036]
Next, for the user second note image Du2, the key-on period matches the right-hand second note image Dr2, but the pitch level L3 is different from the pitch level L4 of the right-hand second note image Dr2 (operation key error). Since there is no right-hand note image of the same level during the key-on period of the note image Du2, no AND operation result is generated. Also, as for the right-hand third note image Dr3, since there is no user note image during the same level and the same key-on period (forgetting to play), no AND operation result is generated.
[0037]
Further, since the user third note image Du3 has the same pitch level L4 as the right hand fourth note image Dr4, and the key-on time tu3 is only earlier than the key-on time t4 of the right hand fourth note image Dr4, both note images Du3 and Du4. AND operation result Da2 corresponds to the user first note image Du1. Thereafter, in the same manner, for the user and the right hand note images Du3 to Du6, Dr4 to Dr7, the match between the pitch level and the key-on period is checked, and as shown in FIG. 4A, the matching portions Da3 to Da5 are found. It is generated as an AND operation result.
[0038]
Regarding the EOR operation in FIG. 4 (2), first, the user first note image Du1 [FIG. 3 (2)] and the right-hand first note image Dr1 [FIG. 3 (1)] in which the key-on period overlaps at the same pitch level L2. The first half De1 of the right hand first note image Dr1 and the second half De4 of the user first note image Du1 in which the key-on periods do not overlap are generated as the EOR operation result. The right hand second note image Du2 and the right hand second note image Du2, which are keyed on before the EOR operation result De4 is generated (tr2 = tu2), do not overlap the user image and the right hand image. It is generated as De2, De3.
[0039]
Furthermore, the right-hand third note image Dr3 is also generated as it is as the EOR operation result De5 because there is no user image overlapping the pitch level L7 and the key-on period. Further, for the user third note image Du3 and the right hand fourth note image Dr4 in which the latter half of the key-on period overlaps at the same pitch level L4, the EOR operation result De6 is the key-on time point tu3 to tr4 of the non-overlapping user and right hand image. It becomes. Hereinafter, similarly, for the user and the right hand note images Du3 to Du6, Dr4 to Dr7, the discrepancy between the pitch level and the key-on period is checked, and as shown in FIG. It is generated as an EOR operation result.
[0040]
(Various embodiments)
Although the present invention has been described with reference to one embodiment, the present invention can be implemented in various modes. For example, for the example performance data, the right hand, the left hand, and both hands are used in the embodiment, but the present invention is not limited to this. Only the right and left hands may be used, or there may be other parts.
[0041]
The form of the instrument played by the user is not limited to the keyboard instrument (keyboard instrument) described in the embodiment, but may be any form such as a stringed instrument, a wind instrument, and a percussion instrument. Furthermore, the performance comparison system is integrated into the electronic musical instrument without separately providing the information processing device (PC) and the electronic musical instrument of each form, and the performance comparison processing function of the information processing device (PC) is incorporated in the electronic musical instrument. Good.
[0042]
Further, the part of the model performance data may be any part corresponding to the musical instrument played by the user. Furthermore, the model performance data may be composed of a plurality of types of instrument parts, for example, a keyboard instrument and a string instrument.
[0043]
The image data generated from the performance data is not limited to a piano roll image, but may be any image representing a performance, such as a score image. However, in the case of a musical score image, it is not possible to express subtle timing differences between note-on and note-off, so a piano roll image that can express these can evaluate subtle timing deviations as well. It is preferable in that respect.
[0044]
The format of the performance data is “event + relative time” in which the occurrence time of the performance event is represented by the time from the immediately preceding event, and “event” in which the occurrence time of the performance event is represented by the absolute time in the music or bar + Absolute time "," pitch (rest) + note length ", which represents performance data in note pitch and note length or rest and rest length, and secures a memory area for each minimum resolution of performance, Any format, such as a “solid method” in which performance events are stored in a memory area corresponding to the time at which the performance event occurs, may be used.
[0045]
【The invention's effect】
As described above, according to the present invention, sample performance data for a plurality of performance parts (for example, right hand, both hands, and left hand) and user performance data are obtained, and each model performance data and user performance data are obtained. Are compared with each other to determine which performance part the user performance data pertains to, and the comparison result is presented. Therefore, it is possible to determine which part of the user performance data is a model of the performance data. Even if the state is unknown, an appropriate comparison result can be obtained.
[0046]
Further, according to the present invention, the model performance data is obtained and the user performance data is obtained. Based on the model performance data and the user performance data, image data representing each performance is generated. Since the degree of coincidence or inconsistency between the model performance data and the user performance data is determined by comparison, and the comparison result is presented, the user performance data is manually processed by a very simple algorithm of comparing image data. This can be compared with the performance data.
[Brief description of the drawings]
FIG. 1 is a hardware configuration block diagram of a performance comparison system (personal computer) according to an embodiment of the present invention.
FIG. 2 is a functional block diagram showing performance comparison processing according to an embodiment of the present invention.
FIG. 3 is a diagram showing an example of a piano roll image generated by a comparison data generation function of the performance comparison system according to one embodiment of the present invention.
FIG. 4 is a diagram illustrating an example of a comparison result by a comparison function of the performance comparison system according to the embodiment of the present invention;
[Explanation of symbols]
DR, DB, DL, DU right hand, left hand, both hands and user performance data,
Dr, Db, Dl, Du right hand, left hand, both hands and user comparison data (image data)
Dr1 to Dr7, Du1 to Du6 Note images representing each sound of right hand and user comparison data,
L1 to L7 pitch level,
tu1 to tu6, tr1 to tr7 right hand and user performance data start timing of each sound,
Da1 to Da5, De1 to De9 Comparison result images of sounds representing the comparison results Da and De by logical product (AND) and exclusive OR (EOR).
Claims (4)
取得された各手本演奏データとユーザ演奏データとをそれぞれ比較する演奏比較手段と、
これらの比較結果に基づいて、ユーザ演奏データがどの演奏パートに関する手本演奏データに対応するかを評価し、この評価結果を提示する提示手段と
を具備することを特徴とする演奏比較装置。Performance data acquisition means for acquiring model performance data and user performance data for a plurality of performance parts;
Performance comparison means for comparing each of the acquired model performance data with the user performance data,
A performance comparing device, comprising: a presentation unit that evaluates, based on these comparison results, the user performance data corresponding to the model performance data for which performance part, and presents the evaluation result.
取得された手本演奏データ及びユーザ演奏データに基づいて、それぞれの演奏を表わす画像データを生成する画像データ生成手段と、
両画像データを比較して手本演奏データとユーザ演奏データとの一致度合い又は不一致度合いを求める演奏比較手段と、
求められた一致度合い又は不一致度合いを提示する提示手段と
を具備することを特徴とする演奏比較装置。Performance data acquisition means for acquiring model performance data and user performance data,
Image data generating means for generating image data representing each performance based on the acquired model performance data and user performance data;
Performance comparison means for comparing the two image data to determine the degree of agreement or mismatch between the model performance data and the user performance data;
And a presentation means for presenting the determined degree of coincidence or degree of disagreement.
取得された各手本演奏データとユーザ演奏データとをそれぞれ比較するステップと、
これらの比較結果に基づいて、ユーザ演奏データがどの演奏パートに関する手本演奏データに対応するかを評価し、この評価結果を提示するステップと
から成る手順を情報処理装置に実行させる演奏比較プログラム。Obtaining model performance data and user performance data for a plurality of performance parts;
Comparing each of the acquired model performance data with the user performance data,
A performance comparison program for causing the information processing apparatus to execute a procedure comprising: evaluating, based on these comparison results, the user performance data corresponding to the model performance data relating to which performance part, and presenting the evaluation results.
取得された手本演奏データ及びユーザ演奏データに基づいて、それぞれの演奏を表わす画像データを生成するステップと、
両画像データを比較して手本演奏データとユーザ演奏データとの一致度合い又は不一致度合いを求めるステップと、
求められた一致度合い又は不一致度合いを提示するステップと
から成る手順を情報処理装置に実行させる演奏比較プログラム。Obtaining model performance data and user performance data;
Generating image data representing each performance based on the acquired model performance data and user performance data;
Comparing the two image data to determine the degree of agreement or mismatch between the model performance data and the user performance data;
And a step of presenting the determined degree of coincidence or degree of disagreement.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002198065A JP3849598B2 (en) | 2002-07-08 | 2002-07-08 | Performance comparison device and performance comparison program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002198065A JP3849598B2 (en) | 2002-07-08 | 2002-07-08 | Performance comparison device and performance comparison program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004038049A true JP2004038049A (en) | 2004-02-05 |
JP3849598B2 JP3849598B2 (en) | 2006-11-22 |
Family
ID=31705625
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002198065A Expired - Fee Related JP3849598B2 (en) | 2002-07-08 | 2002-07-08 | Performance comparison device and performance comparison program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3849598B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010160397A (en) * | 2009-01-09 | 2010-07-22 | Yamaha Corp | Performance-evaluating apparatus and program |
JP2013148772A (en) * | 2012-01-20 | 2013-08-01 | Casio Comput Co Ltd | Performance evaluation device and program therefor |
JP2014186154A (en) * | 2013-03-22 | 2014-10-02 | Casio Comput Co Ltd | Device and method for displaying musical performance, and program |
JP2022019356A (en) * | 2020-07-17 | 2022-01-27 | 株式会社Nsd先端技術研究所 | Hand-washing evaluation system and method therefor |
WO2023105601A1 (en) * | 2021-12-07 | 2023-06-15 | ヤマハ株式会社 | Information processing device, information processing method, and program |
JP2023089387A (en) * | 2021-12-16 | 2023-06-28 | カシオ計算機株式会社 | Information processing device, electronic instrument, method and program |
-
2002
- 2002-07-08 JP JP2002198065A patent/JP3849598B2/en not_active Expired - Fee Related
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010160397A (en) * | 2009-01-09 | 2010-07-22 | Yamaha Corp | Performance-evaluating apparatus and program |
JP2013148772A (en) * | 2012-01-20 | 2013-08-01 | Casio Comput Co Ltd | Performance evaluation device and program therefor |
JP2014186154A (en) * | 2013-03-22 | 2014-10-02 | Casio Comput Co Ltd | Device and method for displaying musical performance, and program |
JP2022019356A (en) * | 2020-07-17 | 2022-01-27 | 株式会社Nsd先端技術研究所 | Hand-washing evaluation system and method therefor |
JP7356954B2 (en) | 2020-07-17 | 2023-10-05 | 株式会社Nsd先端技術研究所 | Handwashing evaluation system and method |
WO2023105601A1 (en) * | 2021-12-07 | 2023-06-15 | ヤマハ株式会社 | Information processing device, information processing method, and program |
JP2023089387A (en) * | 2021-12-16 | 2023-06-28 | カシオ計算機株式会社 | Information processing device, electronic instrument, method and program |
JP7377415B2 (en) | 2021-12-16 | 2023-11-10 | カシオ計算機株式会社 | Information processing device, electronic musical instrument, method and program |
Also Published As
Publication number | Publication date |
---|---|
JP3849598B2 (en) | 2006-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3719124B2 (en) | Performance instruction apparatus and method, and storage medium | |
JP3707364B2 (en) | Automatic composition apparatus, method and recording medium | |
JP2006030414A (en) | Timbre setting device and program | |
JP2003529791A (en) | How to generate music parts from electronic music files | |
JP3849598B2 (en) | Performance comparison device and performance comparison program | |
JP3915807B2 (en) | Automatic performance determination device and program | |
JP3489503B2 (en) | Sound signal analyzer, sound signal analysis method, and storage medium | |
JPH11296168A (en) | Performance information evaluating device, its method and recording medium | |
JP4036952B2 (en) | Karaoke device characterized by singing scoring system | |
Braasch | A cybernetic model approach for free jazz improvisations | |
JP2006126710A (en) | Playing style determining device and program | |
JP2007163575A (en) | Electronic musical instrument and play level display method | |
JP3855705B2 (en) | Automatic composer and computer program for automatic composition | |
JP3709821B2 (en) | Music information editing apparatus and music information editing program | |
JP4802947B2 (en) | Performance method determining device and program | |
JP2003216156A (en) | Chord detector and program | |
JP3641955B2 (en) | Music data generator and recording medium therefor | |
JP3620396B2 (en) | Information correction apparatus and medium storing information correction program | |
JP3752859B2 (en) | Automatic composer and recording medium | |
JP3777976B2 (en) | Performance information analyzing apparatus and recording medium | |
JP4534966B2 (en) | Tone setting device and program | |
JP4595852B2 (en) | Performance data processing apparatus and program | |
JP3988668B2 (en) | Automatic accompaniment device and automatic accompaniment program | |
JP3709820B2 (en) | Music information editing apparatus and music information editing program | |
JP4389709B2 (en) | Music score display device and music score display program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040705 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060516 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060808 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060821 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3849598 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100908 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100908 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110908 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120908 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130908 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |