JP2012083540A - 演奏評価装置および演奏評価プログラム - Google Patents

演奏評価装置および演奏評価プログラム Download PDF

Info

Publication number
JP2012083540A
JP2012083540A JP2010229506A JP2010229506A JP2012083540A JP 2012083540 A JP2012083540 A JP 2012083540A JP 2010229506 A JP2010229506 A JP 2010229506A JP 2010229506 A JP2010229506 A JP 2010229506A JP 2012083540 A JP2012083540 A JP 2012083540A
Authority
JP
Japan
Prior art keywords
performance
data
image
cpu
music
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010229506A
Other languages
English (en)
Other versions
JP5609520B2 (ja
Inventor
Junichi Minamitaka
純一 南高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010229506A priority Critical patent/JP5609520B2/ja
Publication of JP2012083540A publication Critical patent/JP2012083540A/ja
Application granted granted Critical
Publication of JP5609520B2 publication Critical patent/JP5609520B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract


【課題】 楽曲を練習する演奏者の楽しみを損なわず、また、演奏者による練習努力を考慮した演奏評価を行なう。
【解決手段】 CPU11は、楽曲についての音高情報や時間情報を含む曲データと、演奏者による演奏に基づく演奏データとを比較して、所定の音符のそれぞれについての技術要素のクリア状況を判断し、技術要素ごとの演奏者の達成度を示す情報を生成するとともに、演奏者による楽曲の演奏時間および演奏回数を含む、演奏者による練習状況に基づき、楽曲ごとの当該練習状況を示す指標値を生成する。また、CPU11は、楽曲数に基づいて元画像を分割し、練習状況を示す指標値に基づき、分割されたエリアの部分画像の構成要素を変換するとともに、技術要素数に基づき元画像を別途分割し、技術要素ごとの達成度を示す情報に基づき、別途分割されたエリアの部分画像の他の構成要素を変換して、変換済の画像データを生成する。
【選択図】 図1

Description

本発明は、演奏者による演奏に基づいて、楽曲演奏についての学習の進度や達成度に基づく画像を表示する演奏評価装置、および、演奏評価プログラムに関する。
従来、課題となる楽曲を演奏者に演奏させて、模範演奏についてのデータと、演奏者による演奏データとを比較して、演奏者による演奏を評価する評価装置が知られている。演奏評価のためには、正しい鍵を押鍵しているか、および、正しいタイミングで押鍵しているか、という2つの要素を調べることが一般的である。
特許文献1には、不適な演奏操作の種別(白鍵の操作ミス、黒鍵の操作ミスなど)を判別し、種別ごとに不適な操作の回数をカウントして、操作回数に応じた演奏評価を行なう装置が提案されている。
また、特許文献2には、楽曲のパート或いは区間における演奏評価が可能な演奏評価装置が提案されている。
特許第3266934号公報 特許第3915452号公報 特開2004−347848号公報
従来、評価結果を表示する方法として、たとえば、表示装置の画面上に表示された楽譜の音符に「○」或いは「×」の印を付すことで、その音符についての押鍵の正誤を示し、或いは、楽曲全体、或いは、区間ごとに採点をして、得点を表示することが行なわれていた。しかしながら、上記評価では、楽曲中の種々の技術要素(たとえば、和音演奏など)や、技術要素のクリアの是非、演奏者による努力などがほとんど考慮されないという問題点があった。
また、特許文献3には、演奏者(生徒)が演奏を行なうと、その情報が、演奏者の端末からサーバを介して指導者の端末に伝達され、指導者は、受信した情報を参照してメッセージを入力し、入力されたメッセージが、サーバを介して演奏者の端末に伝達されるシステムが開示されている。
しかしながら、従来の演奏教習および演奏評価では、教習の効率の向上を主目的としており、また、評価においても、上述したように押鍵の正誤に基づく画一的なものに限られる、という問題点があった。したがって、演奏者においては楽曲の練習の楽しみが損なわれる可能性があった。
そこで、本発明は、楽曲を練習する演奏者の楽しみを損なわず、また、演奏者による練習努力を考慮した演奏評価を行なうことができる演奏評価装置、および、演奏評価プログラムを提供することを目的とする。
本発明の目的は、楽曲を構成する音符ごとの音高情報と、楽音の発音タイミングおよび発音時間を含む時間情報と、所定の音符についての演奏の際に用いられる技術を示す技術要素情報と、楽曲ごとの、前記技術要素を考慮した難度を示す難度情報と、を含む曲データを格納する記憶手段と、
演奏操作子の操作にしたがって、操作された演奏操作子に対応する音高情報と、操作タイミングおよび操作されていた時間を含む時間情報と、を含む演奏データを生成して、前記記憶手段に格納する演奏データ生成手段と、
前記曲データと前記演奏データとを比較して、前記所定の音符のそれぞれについての技術要素のクリア状況を判断し、技術要素ごとの演奏者の達成度を示す情報を生成する演奏者達成度判定手段と、
前記演奏者による楽曲の演奏時間および演奏回数を含む、前記演奏者による練習状況に基づき、楽曲ごとの当該練習状況を示す指標値を生成する練習状況判定手段と、
前記練習にかかる楽曲数に基づき、前記記憶装置にあらかじめ格納された元画像を分割し、前記楽曲ごとの練習状況を示す指標値に基づき、前記分割されたエリアの部分画像の構成要素を変換するとともに、前記技術要素数に基づき元画像を別途分割し、前記技術要素ごとの達成度を示す情報に基づき、前記別途分割されたエリアの部分画像の他の構成要素を変換して、変換済の画像データを生成し、前記記憶装置に格納する画像変換手段と、
前記変換済の画像データに基づく画像を表示する表示手段と、を備えたことを特徴とする演奏評価装置により達成される。
好ましい実施態様においては、前記画像変換手段が、前記演奏時間および演奏回数が増大するのにしたがって、前記変換済みの画像データが、元画像の画像データに近くなるように、また、前記技術要素ごとの演奏者の達成度が高くなるのにしたがって、前記変換済みの画像データが、元画像の画像データに近くなるように、前記変換済みの画像データを生成するように構成されている。
別の好ましい実施態様においては、前記演奏者達成度判定手段が、前記楽曲ごとに、前記クリア状況に基づき、当該技術要素のクリアレベルを算出し、かつ、全ての楽曲のクリアレベルに基づき、前記技術要素ごとの達成度を示す情報を生成する。
また、好ましい実施態様においては、前記練習状況判定手段が、前記クリア状況に基づき、前記楽曲ごとに、前記演奏者による全ての技術要素を考慮した演奏レベルを示す指標値を算出し、
前記画像変換手段が、前記楽曲ごとの演奏レベルを示す指標値に基づき、前記分割されたエリアの部分画像の構成要素を変換するように構成されている。
また、好ましい実施態様においては、前記練習状況判定手段が、前記曲データと前記演奏データとを比較して、前記曲データおよび演奏データにおける、対応する音高情報の相違および時間情報の相違に基づき、演奏の正確さを示す演奏評価値を算出し、
前記画像変換手段が、前記楽曲ごとの演奏評価値に基づき、前記分割されたエリアの部分画像の構成要素を変換するように構成されている。
さらに別の好ましい実施態様においては、前記画像変換手段が、前記分割されたエリアの部分画像の構成要素として、濃度および彩度を変更し、前記別途分割されたエリアの部分画像の他の構成要素として、解像度を変更する。
また、本発明の目的は、楽曲を構成する音符ごとの音高情報と、楽音の発音タイミングおよび発音時間を含む時間情報と、所定の音符についての演奏の際に用いられる技術を示す技術要素情報と、楽曲ごとの、前記技術要素を考慮した難度を示す難度情報と、を含む曲データを格納する記憶装置を備えたコンピュータに、
演奏操作子の操作にしたがって、操作された演奏操作子に対応する音高情報と、操作タイミングおよび操作されていた時間を含む時間情報と、を含む演奏データを生成して、前記記憶手段に格納する演奏データ生成ステップと、
前記曲データと前記演奏データとを比較して、前記所定の音符のそれぞれについての技術要素のクリア状況を判断し、技術要素ごとの演奏者の達成度を示す情報を生成する演奏者達成度判定ステップと、
前記演奏者による楽曲の演奏時間および演奏回数を含む、前記演奏者による練習状況に基づき、楽曲ごとの当該練習状況を示す指標値を生成する練習状況判定ステップと、
前記練習にかかる楽曲数に基づき、前記記憶装置にあらかじめ格納された元画像を分割し、前記楽曲ごとの練習状況を示す指標値に基づき、前記分割されたエリアの部分画像の構成要素を変換するとともに、前記技術要素数に基づき元画像を別途分割し、前記技術要素ごとの達成度を示す情報に基づき、前記別途分割されたエリアの部分画像の他の構成要素を変換して、変換済の画像データを生成し、前記記憶装置に格納する画像変換ステップと、を実行させ、
前記変換済の画像データに基づく画像が表示装置に表示されることを特徴とする演奏評価プログラムにより達成される。
本発明によれば、楽曲を練習する演奏者の楽しみを損なわず、また、演奏者による練習努力を考慮した演奏評価を行なうことができる演奏評価装置、および、演奏評価プログラムを提供することが可能となる。
図1は、本発明の実施の形態にかかる演奏評価装置の構成を示すブロックダイヤグラムである。 図2は、本実施の形態にかかる演奏評価装置10において実行される処理の概略を示すフローチャートである。 図3は、本実施の形態にかかる演奏評価データのデータ構造例を示す図である。 図4(a)は、本実施の形態にかかる曲データの構成例を示す図、図4(b)は、本実施の形態にかかる演奏データの構成例を示す図である。 。図5は、本実施の形態にかかるスイッチ処理の例を示すフローチャートである。 図6は、本実施の形態にかかるデモスイッチ処理の例を示すフローチャートである。 図7は、本実施の形態にかかる演奏スイッチ処理の例を示すフローチャートである。 図8は、本実施の形態にかかる鍵盤処理の例を示すフローチャートである。 図9は、本実施の形態にかかるソング処理の例を示すフローチャートである。 図10は、本実施の形態にかかるソング処理の例を示すフローチャートである。 図11は、本実施の形態にかかる評価処理の例を示すフローチャートである。 図12は、本実施の形態にかかる技術クリアレベルtclear[SongPtr]の算出処理の例を示すフローチャートである。 図13は、本実施の形態にかかるクリア数clnum[tech[n]]の例を示すフローチャートである。 図14は、スキルレベルレジスタの値(スキルレベル値)Skill[tech[n]]の算出例を示すフローチャートである。 図15は、本実施の形態にかかる状況確認処理の例を示すフローチャートである。 図16は、本実施の形態にかかる状況確認処理の例を示すフローチャートである。 図17は、本実施の形態における画像エリアの分割の例を示す図である。 図18は、他の実施の形態にかかるスキルレベル値の算出処理の例を示すフローチャートである。
以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、本発明の実施の形態にかかる演奏評価装置の構成を示すブロックダイヤグラムである。図1に示すように、本実施の形態にかかる演奏評価装置10は、CPU11、ROM12、RAM13、大規模記憶装置14、入力装置15、表示装置16、サウンドシステム17および鍵盤18を有している。
CPU11は、演奏者による押鍵に応じた楽音の発生、演奏者による楽曲の演奏に対する演奏評価、演奏評価に基づく画像の生成など種々の処理を実行する。ROM12は、演奏者による押鍵に応じた楽音の発生、演奏者による楽曲の演奏に対する演奏評価、演奏評価に基づく画像の生成など種々の処理の処理プログラム、処理に使用するパラメータ、演奏者の押鍵にしたがって発音される楽音のための、種々の楽器(ピアノ、ギター、トランペットなど)の波形データを格納する。RAM13は、プログラムの実行の過程で生じたパラメータ、入力データ、出力データなどを一時的に記憶する。大規模記憶装置14は、ハードディスク装置やメモリカードなどであり、楽曲データなどを格納する。
入力装置15は、スイッチ類、キーボード、マウスなどを含み、操作者のスイッチ操作、キー操作、マウスの操作に基づく種々の指示などをCPU11に与える。表示装置16の画面上には、楽曲データに基づく楽譜、演奏評価に基づく画像などが表示される。サウンドシステム40は、楽音生成回路、増幅器、スピーカなどを含み、楽曲データにしたがって、或いは、操作者による鍵盤18の押鍵操作にしたがって所定の楽音を生成して、楽音に基づく音響信号を出力する。なお、上記実施の形態において、鍵盤18は必須ではなく、他の形態の操作子の操作によって楽音が発音されるように構成しても良い。
本実施の形態にかかる演奏評価装置10は、鍵盤楽器の形態であっても良いし、或いは、パーソナルコンピュータのような形態であっても良い。鍵盤楽器の形態であれば、操作者は、表示装置16の画面上に表示された楽譜を参照して、鍵盤18中の鍵を押鍵し、サウンドシステム17が、操作者の押鍵に応答して、押鍵された鍵の音高に対応する楽音データを生成することで、サウンドシステム17から楽音を出力することができる。
図2は、本実施の形態にかかる演奏評価装置10において実行される処理の概略を示すフローチャートである。図2に示すように、本実施の形態にかかる演奏評価装置10のCPU11は、RAM13に格納されたパラメータ等のクリア、表示装置16の画面上に表示された画像のクリアなどを含むイニシャライズを実行する(ステップ201)。次いで、スイッチ処理(ステップ202)、鍵盤処理(ステップ203)、ソング処理(ステップ204)、評価処理(ステップ205)、状況確認処理(ステップ206)およびその他の処理(ステップ207)が実行される。ステップ202〜207は繰り返される。ステップ202〜206のそれぞれについては後に詳細に説明する。
図3は、本実施の形態にかかる演奏評価データのデータ構造例を示す図である。曲データは、たとえば、大規模記憶装置14に格納され、処理の際に、CPU11により、RAM13にコピーされる。図3に示すように、演奏評価データは、L個のソングセットのレコード群SongSet[l](l=0〜L01)を有する(符号300参照)。たとえば、ソングセットのレコード群SongSet「0」(符号301参照)には、M個のソングのレコード群Song[m](m=0〜M−1)が含まれる(符号310参照)。本実施の形態においては、あるソングセットには、複数の楽曲(ソング)が含まれるようになっている。
たとえば、ソングのレコード群Song[0](符号311)には、以下に述べる複数のレコード(符号320)が含まれる。ソングのレコード群には、曲データの先頭アドレスを示す曲データポインタ321、演奏データの先頭アドレスを示す演奏データポインタ322、楽曲の演奏難度の総計である難度総計diff323、演奏の際に演奏者がおこなうべき技術要素ごとに、楽曲における当該技術要素の有無を示す、N個の演奏技術値tech[0]〜tech[N−1](符号324参照)というレコードを有する。
楽曲の技術要素には、上記N個の添え字の何れかが対応付けられる。楽曲の技術要素には、たとえば、n=0:右手指くぐり、n=1:右手オクターブ、n=2:右手による和音進行、n=3:左手指くぐり、n=4:左手和音演奏、n=5:左手オクターブ、n=6:アルペジオ、n=7:ペダル使用・・・などが含まれる。
たとえば、ある楽曲について、以下のような演奏技術値であること、および、その示すところを列挙する。
tech[0]=1:右手指くぐり有り
tech[1]=1:右手オクターブ有り
tech[2]=0:右手による和音進行なし
tech[3]=0:左手指くぐり無し
tech[4]=0:左手和音演奏なし
tech[5]=1:左手オクターブ有り
tech[6]=0:アルペジオ無し
tech[7]=1:ペダル使用有り

また、本実施の形態においては、演奏の技術要素ごとに、その技術難度を示す値が、RAM13中のレコードtdiff[0]〜tdiff[N−1]に格納されている(符号330参照)。たとえば、tdiff[0](符号331参照)には、右手指くぐりの技術難度を示す値が格納される。他のレコードにも、以下のように、添え字に対応した技術要素の技術難度を示す値が格納される。
tdiff[0]=1:右手指くぐりの技術難度
tdiff[1]=2:右手オクターブの技術難度
tdiff[2]=4:右手による和音進行の技術難度
tdiff[3]=3:左手指くぐりの技術難度
tdiff[4]=5:左手和音演奏の技術難度
tdiff[5]=3:左手オクターブの技術難度
tdiff[6]=3:アルペジオの技術難度
tdiff[7]=2:ペダル使用の技術難度

したがって、難度総計diffのレコード(符号323参照)には、
Σtech[n]×tdiff[n]
が格納されることになる。
図4(a)は、本実施の形態にかかる曲データの構成例を示す図、図4(b)は、本実施の形態にかかる演奏データの構成例を示す図である。図4(a)に示すように、曲データ400は、ステップタイムのレコード(たとえば符号401参照)、ノートオンイベントのレコード(たとえば符号402参照)、ゲートタイムのレコード(たとえば符号403参照)を有する。ノートオンイベントのレコード(符号402)は、音高、音色情報を格納するサブレコード404およびノートオンイベントにかかる音符に関連した演奏技術値tech[p]を格納するサブレコード405を有する。演奏技術値のためのサブレコード405には、複数の演奏技術値が格納され得る。
ゲートタイムのレコードは、ノートオンイベントに示す楽音の発音時間が格納される。また、ステップタイムのレコードは、ノートオンイベント間の時間間隔が格納される。曲データは、大規模記憶装置14に格納され、ソング処理により演奏すべき楽曲についての曲データのレコード群がRAM13にコピーされる。
演奏データは、演奏者による押鍵および離鍵に伴って、RAM13中に生成される。図4(b)に示すように、演奏データ410も、ステップタイム(たとえば符号411参照)、ノートオンイベント(たとえば符号412参照)およびゲートタイム(たとえば符号413参照)のレコードを有する。ノートオンイベントのレコードには、音高情報が格納される。
以下、図2に示す、CPU11により実行される種々の処理について説明する。図5は、本実施の形態にかかるスイッチ処理の例を示すフローチャートである。図5に示すように、CPU11は、ソングセット指定スイッチがオンされたかを判断する(ステップ501)。ステップ501でYesと判断された場合には、CPU11は、RAM13中のパラメータSetPtrに、指定された値をセットする(ステップ502)。また、ステップ502において、大規模記憶装置14中の指定されたソングセットの楽曲データをRAM13にコピーしても良い。
ステップ501でNoと判断された場合には、ソング指定スイッチがオンされたかを判断する(ステップ503)。ステップ503でYesと判断された場合には、CPU11は、CPU11は、RAM13中のパラメータSongPtrに、指定された値をセットする(ステップ504)。ステップ503でNoと判断された場合には、CPU11は、デモスイッチがオンされたかを判断する(ステップ505)。ステップ505でYesと判断された場合には、CPU11は、デモスイッチ処理を実行する(ステップ506)。
図6は、本実施の形態にかかるデモスイッチ処理の例を示すフローチャートである。図6に示すように、デモスイッチ処理において、CPU11は、RAM13中のデモフラグDFを反転し(ステップ601)、デモフラグDFが「1」であるかを判断する(ステップ602)。ステップ602でYesと判断された場合には、CPU11は、RAM13中の曲データの先頭アドレスを、RAM13中のパラメータDADに格納する(ステップ603)。また、CPU11は、第1および第2のデモ用カウンタのカウントを開始する(ステップ604)。ステップ604におけるカウント開始によって、CPU11により所定の時間間隔で実行されるタイマインタラプト処理において、第1および第2のデモ用カウンタのカウンタ値がインクリメントされる。ステップ602でNoと判断された場合には、CPU11は、第1および第2のデモ用カウンタを停止する(ステップ605)。
ステップ505でNoと判断された場合には、CPU11は、演奏スイッチがオンされたかを判断する(ステップ507)。ステップ507でYesと判断された場合には、CPU11は、演奏スイッチ処理を実行する(ステップ508)。図7は、本実施の形態にかかる演奏スイッチ処理の例を示すフローチャートである。図7に示すように、演奏スイッチ処理において、CPU11は、演奏フラグPFを反転し(ステップ701)、演奏フラグPFが「1」であるかを判断する(ステップ702)。
ステップ702でYesと判断された場合には、CPU11は、演奏データの先頭アドレスを、RAM13中のパラメータPADに格納する(ステップ703)。次いで、CPU11は、パラメータPADにて示される演奏データのレコードに、ステップタイム初期値を格納する(ステップ704)。ステップタイム初期値は任意の値(たとえば「0」)で良い。その後、CPU11は、アドレスを示すパラメータPADを歩進する(ステップ705)。また、CPU11は、演奏用カウンタによるカウントを開始する(ステップ706)。演奏用カウンタのカウンタ値も、他のカウンタと同様に、CPU11により所定の時間間隔で実行されるタイマインタラプト処理においてインクリメントされる。ステップ702でNoと判断された場合には、CPU11は、演奏用カウンタを停止し(ステップ707)、RAM13中の演奏終了フラグに「1」をセットする(ステップ708)。
ステップ507でNoと判断された場合には、CPU11は、状況確認スイッチがオンされたかを判断する(ステップ509)。ステップ509でYesと判断された場合には、CPU11は、RAM13中の確認フラグCFを「1」にセットする(ステップ510)。ステップ509でNoと判断された場合には、CPU21は、他のスイッチのオンに応じた処理(たとえば、音色指定スイッチに基づく、RAM23への音色情報の格納処理など)を実行する(ステップ511)。
スイッチ処理(ステップ202)が終了すると、CPU11は、鍵盤処理を実行する(ステップ203)。図8は、本実施の形態にかかる鍵盤処理の例を示すフローチャートである。図8に示すように、CPU11は、鍵を操作して、ある鍵について状態が変化したかを判断する(ステップ802)。鍵が新たにオンされた場合には、CPU11は、オンされた鍵に対応する音高で、所定の音色の楽音を発音するように、サウンドシステム17の音源部に指示する(ステップ803)。次いで、CPU11は、演奏フラグPFが「1」であるかを判断する(ステップ804)。
ステップ804でYesと判断された場合には、CPU11は、PADにて示される演奏データのレコードに、ステップタイムを格納する(ステップ805)。ステップタイムは、後述するようにRAM13に格納されるオン時刻Ontimeと、演奏用カウンタ値との差を演算することにより得ることができる。次いで、CPU11は、アドレスを示すパラメータPADを歩進する(ステップ806)。
CPU11は、PADにて示される演奏データのレコードに、オン状態となった鍵に対応する音高を格納する(ステップ807)。また、CPU11は、RAM13中の格納されたオン時刻Ontimeとして、演奏用カウンタ値を与える(ステップ808)。次いで、CPU11は、演奏データのアドレスを示すパラメータPADを歩進する(ステップ809)。
ステップ802で、鍵が新たにオフされたと判断されると、CPU11は、オフとなった鍵に対応する音高の楽音の消音を、サウンドシステム17の音源部に指示する(ステップ810)。次いで、CPU11は、演奏フラグPFが「1」であるかを判断する(ステップ811)。ステップ811でYesと判断された場合には、CPU11は、PADにて示される演奏データのレコードに、ゲートタイムを格納する(ステップ812)。ゲートタイムは、RAM13中のオン時刻Ontime値と、現在の演奏用カウンタのカウンタ値との差を演算することにより得ることができる。次いで、CPU11は、演奏データのアドレスを示すパラメータPADを歩進する(ステップ809)。
鍵盤処理(ステップ203)が終了すると、CPU11は、ソング処理を実行する(ステップ204)。図9および図10は、本実施の形態にかかるソング処理の例を示すフローチャートである。図9に示すように、CPU11は、デモフラグDFが「1」であるかを判断する(ステップ901)。ステップ901でYesと判断された場合には、第1および第2のデモ用カウンタの最小単位時間が経過しているかを判断する(ステップ902)。たとえば、ステップ902では、カウンタ値が前回のソング処理から変化しているか(増分しているか)を判断すれば良い。
ステップ902でYesと判断された場合には、第1のデモ用カウンタ値が、RAM13中のゲートタイム格納レジスタのレジスタ値GTより小さいかを判断する(ステップ903)。ステップ903では、後述するステップ1005で発音された楽音の消音時間に到達しているかが調べられている。ステップ903でNo、つまり、第1のデモ用カウンタのカウント値が、レジスタ値GT以上である場合には、CPU11は、現在発音されている楽音の消音を、サウンドシステム17の音源部に指示する(ステップ904)。また、CPU11は、第1のデモ用カウンタを停止するとともに、カウンタ値をクリアする(ステップ905)。
ステップ903でYesと判断された場合には、第2のデモ用カウンタのカウンタ値が、CPU11は、RAM13中のステップタイム格納レジスタのレジスタ値ST以上であるかを判断する(ステップ906)。ステップ906でNoと判断された場合には、ソング処理を終了する。ステップ906でYesと判断された場合には、CPU11は、曲データのアドレスを示すパラメータDADを歩進する(ステップ1001)。次いで、CPU11は、DADが、曲データの最終アドレス値以下であるかを判断する(ステップ1002)。ステップ1002でYesと判断された場合には、CPU11は、パラメータDADが示す曲データ中のレコードを取得する(ステップ1003)。
CPU11は、レコードがノートオンイベントを示すかを判断する(ステップ1004)。ステップ1004でYesと判断された場合には、CPU11は、曲データのレコード中の音高で、所定の音色の楽音を発音するように、サウンドシステム17の音源部に指示する(ステップ1005)。また、CPU11は、第1および第2のデモ用カウンタのカウンタ値をクリアする(ステップ1006)。その後、ステップ1001に戻る。
ステップ1004でNoと判断された場合には、CPU11は、レコードがゲートタイムであるかを判断する(ステップ1007)。ステップ1007でYesと判断された場合には、CPU11は、レコード中のゲートタイムを、ゲートタイム格納レジスタのレジスタ値GTとして格納する(ステップ1008)。その後、ステップ1001に戻る。ステップ1007でNoと判断された場合、つまり、レコードがステップタイムのレコードである場合には、CPU11は、レコード中のステップタイムを、ステップタイム格納レジスタのレジスタSTに格納する(ステップ1009)。
ソング処理(ステップ204)が終了すると、CPU11は、評価処理を実行する(ステップ205)。図11は、本実施の形態にかかる評価処理の例を示すフローチャートである。図11に示すように、CPU11は、演奏終了フラグが「1」であるかを判断する(ステップ1101)。ステップ1101でYesと判断された場合には、CPU11は、パラメータSongPtrで特定される楽曲の演奏回数を示す演奏回数レジスタ値count[SongPtr]を更新する(ステップ1102)。なお、ステップ1101〜1108のそれぞれにて利用されるレジスタは、RAM23中に設けられる。
CPU11は、パラメータSongPtrで特定される楽曲の総演奏時間を示す演奏時間レジスタ値time[SongPtr]を更新する(ステップ1103)。演奏時間は、たとえば、演奏データの最初のノートオンにかかるレコードに含まれる時刻、最後のノートオンにかかるレコードに含まれる時刻、および、最後のレコードに含まれるゲートタイムに基づいて算出することができる。算出された演奏時間を、レジスタに格納された値に加算することにより、演奏時間レジスタ値time[SongPtr]を更新することがえきる。
次いで、CPU11は、パラメータSongPtrで特定される楽曲について、技術クリアレベルレジスタ値tclear[SongPtr]を算出する(ステップ1104)。図12は、本実施の形態にかかる技術クリアレベルtclear[SongPtr]の算出処理の例を示すフローチャートである。なお、図12で得られるパラメータやレジスタ値は、RAM13中に格納される。図12に示すように、CPU11は、ある楽曲の技術要素tech[n]のそれぞれについて、その技術要素のクリア数clnum[tech[n]]を算出する(ステップ1201)。図13は、本実施の形態にかかるクリア数clnum[tech[n]]の例を示すフローチャートである。
まず、CPU11は、技術要素tech[n]を特定するためのパラメータnを「0」に初期化する(ステップ1301)。次いで、CPU11は、演奏要素tech[n]についてのクリアフラグclear[tech[n]]が「0」であるかを判断する(ステップ1302)。クリアフラグclear[tech[n]]は、演奏者が、楽曲においてtech[n]で示される技術要素を既にクリアしているかを示す。ステップ1302でNo、つまり、クリアフラグclear[tech[n]]=1である場合には、ステップ1310に進む。
ステップ1302でYesと判断された場合には、楽曲にあらわれる演奏要素tech[n]の数を示すパラメータtechnum[tech[n]]および技術要素のクリア数clnum[tech[n]]を、それぞれ「0」に初期化する(ステップ1303)。CPU11は、RAM13の曲データにおいて、tech[n]のサブレコードを含むノートオンイベントのレコードを取得する(ステップ1304)。また、CPU11は、パラメータtechnum[tech[n]]をインクリメントする(ステップ1305)。また、CPU11は、RAM13の演奏データにおいて、対応するノートオンイベントのレコードを特定する(ステップ1306)。
次いで、CPU11は、曲データのノートオンイベントのレコードおよび関連するゲートタイム、ステップタイムのレコードと、演奏データの対応するノートオンイベントのレコードおよび関連するゲートタイム、ステップタイムのレコードと、を比較して、ノートオンイベントが示す押鍵において、tech[n]が示す技術要素がクリアされたかを判断する(ステップ1307)。たとえば、ノートオンイベントが示す音高や、押鍵タイミングが、双方のデータのレコードで一致する場合には、技術要素がクリアされたと判断すれば良い。
ステップ1307でYesと判断された場合には、CPU11は、技術要素tech[n]のクリア数clnum[tech[n]]をインクリメントする(ステップ1308)。CPU11は、処理対象となるレコードが曲データの末尾まで到達したかを判断し(ステップ1309)、ステップ1309でNoと判断された場合には、ステップ1304に戻る。ステップ1309でYesと判断された場合には、CPU11は、パラメータnをインクリメントし(ステップ1310)、全ての技術要素tech[n]について処理が終了しているか(つまり、n>N−1であるか)を判断する(ステップ1311)。ステップ1311でYesと判断された場合には処理を終了する。その一方、ステップ1311でNoと判断された場合にはステップ1302に戻る。
ステップ1201が終了すると、CPU11は、ある楽曲の技術要素tech[n]のそれぞれについて、技術要素tech[n]のクリア率clrate[tech[n]]を算出する(ステップ1202)。クリア率clrate[tech[n]]は、以下の式に基づき算出することができる。
clrate[tech[n]]
=clnum[tech[n]]/technum[tech[n]]
CPU11は、クリア率clrate[tech[n]]に基づき、楽曲の技術要素tech[n]についてのクリアフラグclear[tech[n]]を取得する(ステップ1203)。クリアフラグは、既にclear[tech[n]]=1であるようなクリアフラグ以外のものについて、clrate[tech[n]]が、所定の閾値(たとえば、0.75)より大きい場合に、clear[tech[n]]=1とすれば良い。
その後、CPU11は、クリアフラグclear[tech[n]]および当該技術要素の技術難度tdiff[tech[n]]に基づき、楽曲についての技術クリアレベルtclear[SongPtr]を得る(ステップ1204)。技術クリアレベルtclear[SongPtr]は、以下の数式に基づき算出することが出来る。
tclear[SongPtr]
=Σclear[tech[n]]×tdiff[tech[n]]
ステップ1104が終了すると、CPU11は、パラメータSongPtrで特定される楽曲について、演奏評価レジスタ値eval[SongPtr]を算出する(ステップ1105)。演奏評価レジスタの値である演奏評価値は、たとえば、以下のように算出することができる。
CPU11は、曲データのノートオンイベント、当該ノートオンイベントに関連するステップタイムおよびゲートタイムのレコードと、演奏データにおいて、当該ノートオンイベントに対応する、ノートオンイベント、当該ノートオンイベントに関連するステップタイムおよびゲートタイムのレコードと、を比較する。比較においては、CPU11は、曲データに基づく模範演奏における音高、押鍵時刻、押鍵時間と、演奏データに基づく演奏者による実際の演奏における音高、押鍵時刻、押鍵時間と、のそれぞれの差分((曲データにおける音高−演奏データにおける音高)、(曲データにおける押鍵時刻−演奏データにおける押鍵時刻)、(曲データにおける押鍵時間−演奏データにおける押鍵時間))を算出する。
CPU11は、上記差分値の二乗和の平方根(模範演奏と実際の演奏との間の距離)を算出して、DPマッチングの技法により、模範演奏と実際の演奏との相違を示す指標値を算出し、これを演奏評価レジスタ値eval[SongPtr]とすれば良い。
次いで、CPU11は、演奏者における技術要素tech[n]ごとのスキルレベルレジスタ値Skill[tech[n]]を更新する(ステップ1106)。図14は、スキルレベルレジスタの値(スキルレベル値)Skill[tech[n]]の算出例を示すフローチャートである。なお、図14の処理においても、各種パラメータはRAM13に格納される。
図14に示すように、CPU11は、技術要素tech[n]を特定するためのパラメータnを「0」に初期化する(ステップ1401)。CPU11は、予めRAM13に格納されていた累算技術要素数Acctechnum[tech[n]]に、ステップ1201で得られた技術要素数technum[tech[n]]を加算する(ステップ1402)。また、CPU11は、RAM13に格納された累算クリア要素数Accclnu[tech[n]]に、ステップ1201で得られたクリア要素数clnum[tech[n]]を加算する。楽曲の演奏を繰り返すのにしたがって、演奏の際に現れた技術要素数は、累算技術要素数Acctechnum[tech[n]]として蓄積され、また、クリアされた技術要素数も、累算クリア要素数Accclnu[tech[n]]として蓄積される。
次いで、CPU11は、累算技術要素数Acctechnum[tech[n]]および累算クリア要素数Accclnum[tech[n]]に基づき、技術要素tech[n]についてのスキルレベルレジスタの値(スキルレベル値)Skill[tech[n]]を算出する(ステップ1403)。スキルレベル値は以下のように算出することができる。
Skill[tech[n]]=
Accclnum[tech[n]]/Acctechnum[tech[n]]
すなわち、スキルレベル値は、技術要素tech[n]について演奏した全ての楽曲を考慮した、演奏要素のクリアの割合を示す。
その後、CPU11は、パラメータnをインクリメントする(ステップ1404)。CPU11は、全ての技術要素tech[n]について処理が終了しているか(つまり、n>N−1であるか)を判断する(ステップ1405)。ステップ1405でYesと判断された場合には処理を終了する。その一方、ステップ1405でNoと判断された場合にはステップ1402に戻る。得られたスキルレベル値は、初期的には「0」であり、種々の楽曲の演奏を繰り返して、当該技術要素をクリアしていくのにしたがって、値が「1」に近付いていく。
次いで、CPU11は、演奏者の達成度を考慮した、楽曲SongPtrの難度レジスタの値SongDiff[SongPtr]を更新する(ステップ1107)。各技術要素tech[n]についてのクリア率clrate[tech[n]]と、その技術難度を示すtdiff[tech[n]]に基づいて、以下のように算出することができる。
CPU11は、演奏者が楽曲SongPtrを演奏することで、達成された難度Σclrate[tech[n]]×tdiff[tech[n]]を算出する。次いで、楽曲に固有の難度総計diffから、演奏者により達成された難度Σclrate[tech[n]]×tdiff[tech[n]]を減じれば良い。つまり、演奏者の達成度を考慮した難度値は、
SongDiff[SongPtr]=diff[SongPtr]
−Σclrate[tech[n]]×tdiff[tech[n]]
により算出することができる。
次いで、CPU11は、選択されたソングセットSetPtrについてのクリアフラグClflg[SetPtr]のセットを判定する(ステップ1108)。ステップ1108において、ソングセットSetPtrに含まれる楽曲について、一定の技術要素をクリアした場合に、クリアフラグClflg[SetPtr]が「1」にセットされる。
より具体的には、CPU11は、各楽曲についての技術クリアレベルtclear[SongPtr]が、それぞれ一定の第1の閾値より大きいこと、および、演奏評価値eval[SongPtr]が、それぞれ所定の第2の閾値より小さいことが成立していれば、クリアフラグClflg[SetPtr]が「1」にセットされる。
評価処理(ステップ205)が終了すると、CPU11は、状況確認処理を実行する(ステップ206)。図15、16は、本実施の形態にかかる状況確認処理の例を示すフローチャートである。状況確認処理においては、現在の演奏者による教習状況に基づく画像が生成される。図15に示すように、CPU11は、RAM13から変換前の元画像の画像データを取得する(ステップ1501)。また、CPU11は、選択されたソングセットSongSetPtrに含まれるソング数Mを取得する(ステップ1502)とともに、演奏要素tech[]の総数Nを取得する(ステップ1503)。
次いで、CPU11は、RAM13中に、変換済画像の画像データを格納するための画像エリアを確保して、当該画像エリアに、元画像の画像データをコピーする(ステップ1504)。CPU11は、ソング数Mにしたがって、画像エリアを、M分割する(ステップ1505)。また、CPU11は、画像エリアを指定するためのパラメータiを「0」に初期化する(ステップ1506)。
CPU11は、パラメータiがソング数Mより小さいかを判断し(ステップ1507)、ステップ1507でNoと判断された場合には、CPU11は、画像エリア中に生成された変換済画像の画像データを取得して、取得したデータに基づく画像を表示装置16の画面上に表示する(ステップ1508)。その後、状況確認処理を終了する。ステップ1507でYesと判断された場合には、CPU11は、難度値SongDiff[i]に基づいて、分割されたエリアの画像の濃度変換を行なう(ステップ1601)。前述したように、楽曲iについて、演奏者の達成度を考慮した難度値であり、以下のように表される。
SongDiff[i]=diff[i]
−Σclrate[tech[n]]×tdiff[tech[n]]
上記SongDiffは、技術要素のクリアの度合いが大きくなるのにしたがって減少し、全ての技術要素をクリアした段階で「0」となる。したがって、画像エリア中の画素の濃度値Dを、SongDiffの初期値(=diff)のときには、Dより大きい所定の値Dintとして、すべての技術要素をクリアした状態のときに、濃度値が当初の値Dorgとなるように算出すれば良い。すなわち、CPU11は、濃度値Dを、
D=(Dint−Dorg)/diff[i]×SongDiff[i]+Dorg
により算出すれば良い。
次いで、CPU11は、演奏回数値count[i]および演奏時間値time[i]に基づいて、分割されたエリアの画像の彩度変換を行なう(ステップ1602)。演奏回数値count[i]および演奏時間値time[i]は、楽曲を演奏するたびに値が加算される。これら指標値に重みを与えた変数(a×count[i]+b×time[i])が、「0」(つまり練習当初)のときには、画素の彩度が初期値Sintであり、上記変数がTH以上のときには、画素の彩度が当初の値Sorgとなるように算出すれば良い。つまり、CPU11は、画素の彩度値Sを、
S=(Sorg−Sing)/TH×(a×count[i]+b×time[i])
+Sorg
により算出すれば良い。
次いで、CPU11は、スキルレベル値を特定するためのパラメータpを、p=i×N/Mにより求める(ステップ1603)。本実施の形態においては、i×N/Mの小数点以下を切り捨てて、整数値pが得られる。CPU11は、得られたpにより特定される、スキルレベル値Skill[p]に基づいて、処理対象となっているi番のエリアを再度分割する(ステップ1604)。前述したように、スキルレベル値は、初期的には「0」であり、種々の楽曲の演奏を繰り返して、当該技術要素をクリアしていくのにしたがって、値が「1」に近付いていくものである。したがって、i番のエリアの解像度を、q倍(0≦q≦1)、すなわち、エリアに含まれる画素数PNを、q×PNとなるように、エリアを分割すれば良い。
図17は、本実施の形態における画像エリアの分割の例を示す図である。図17に示す例においては、ソング数M=16(i=0〜15)であり、また、演奏技術値tech[]の総数(技術要素数)N=7である(p=0〜6)。この場合には、画像エリアは、ソング数Mに応じた16分割されるとともに(たとえば、符号1701、1702参照)、技術要素数Mにしたがって、p=i×N/Mとなるようにp分割される(たとえば、符号1711、1712参照)。
符号1701で特定されるエリアは、スキルレベル値Skill[0]にしたがって、再分割され、後述するように、再分割されたエリアに平滑化処理が施される。符号1701で特定されるエリアにおいても、同様に、スキルレベル値Skill[0]にしたがって、再分割され、後述するように、再分割されたエリアに平滑化処理が施される。
次いで、CPU11は、再分割されたエリアを特定するためのパラメータjを「0」に初期化し(ステップ1605)、パラメータjが分割数より小さいかを判断する(ステップ1606)。ステップ1606でNoと判断された場合には、CPU11は、パラメータiをインクリメントして(ステップ1609)、ステップ1507に戻る。ステップ1607でYesと判断された場合には、CPU11は、パラメータjで特定される、再分割されたエリアにおいて、当該エリアに含まれる画素値を平滑化する(ステップ1607)。これは、再分割されたエリアに含まれる画素値の平均値をとり、当該平均値を、再分割されたエリアの画素値とすれば良い。次いで、CPU11は、パラメータjをインクリメントして(ステップ1608)、ステップ1606に戻る。
状況確認処理によって、画像エリアには、楽曲に対応するエリアにおいて、当該楽曲についての演奏者の達成度を考慮した難度値Songdiffに基づいて濃度が変換され、、演奏回数および演奏時間に基づいて彩度が変換され、さらには、スキルレベル値に応じて、画素の解像度が変更されたような変換済画像の画像データが格納される。したがって、ステップ1508においては、上述したような変換済画像の画像データに基づく画像が、表示装置16の画面上に表示される。
状況確認処理(ステップ206)が終了すると、CPU11は、その他の処理を実行する(ステップ207)。その他の処理には、変換済画像の表示以外の、表示装置16にける画像の更新などが含まれる。
本実施の形態によれば、CPU11は、楽曲についての音高情報や時間情報を含む曲データと、演奏者による演奏に基づく演奏データとを比較して、所定の音符のそれぞれについての技術要素のクリア状況を、技術クリアレベル値tclearを算出することにより判断し、かつ、技術要素ごとの演奏者の達成度を示す情報(スキルレベル値skill)を生成する。また、CPU11は、演奏者による楽曲の演奏時間timeおよび演奏回数countを含む、演奏者による練習状況に基づき、楽曲ごとの当該練習状況を示す指標値を生成する。CPU11は、楽曲数に基づいて元画像を分割し、練習状況を示す指標値に基づき、分割されたエリアの部分画像における構成要素(たとえば、彩度および濃度)を変換するとともに、技術要素数に基づき元画像を別途分割し、技術要素ごとの達成度を示す情報に基づき、別途分割されたエリアの部分画像における他の構成要素(たとえば、解像度)を変換して、変換済の画像データを生成する。
変換済の画像を表示装置の画面状況を表示することにより、演奏に必要な技術要素の達成度、および、楽曲ごとの練習状況の双方を演奏者は把握することができる。また、元画像の構成要素を変換した変換済の画像を表示するため、技術要素の達成度や演奏状況を、画像の変化により確認することができる。
また、本実施の形態においては、画像変換手段が、演奏時間および演奏回数が増大するのにしたがって、変換済みの画像データの構成要素(彩度および濃度)が、元画像の画像データの構成要素の値に近くなるように、また、技術要素ごとの演奏者の達成度が高くなるのにしたがって、変換済みの画像データの他の構成要素(解像度)が、元画像の画像データの対応する構成要素の値に近くなるように、変換済みの画像データを生成する。これにより、演奏者に、練習を重ねることにより徐々に元画像を表示させるという、演奏行為における楽しみを与えることができる。
たとえば、本実施の形態においては、CPU11は、楽曲ごとに、クリア状況に基づき、当該技術要素の技術クリアレベルtclearを算出し、また、全ての楽曲のクリアレベルに基づき、技術要素ごとの達成度を示すスキルレベル値skillを生成する。これにより、単に技術要素の難度ではなくユーザが克服した難度を考慮した演奏評価が可能となる。
また、本実施の形態においては、CPU11は、楽曲ごとのクリア状況に基づき、楽曲ごとに、演奏者による全ての技術要素を考慮した演奏レベルを示す難度SongDiffを算出する。CPU11は、楽曲ごとの難度SongDiffに基づき、分割されたエリアの部分画像の構成要素(たとえば濃度)を変換するように構成されている。
本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
たとえば、前記実施の形態において、算出される演奏者の達成度を考慮した難度値SongDiffや、演奏者ごとの技術要素についてのスキルレベル値Skill[tech[n]]などを算出しているが、これらの算出手法は、上記実施の形態において記載したものに限定されない。たとえば、スキルレベル値Skill[tech[n]]は、以下のように算出することができる。図18は、他の実施の形態にかかるスキルレベル値の算出処理の例を示すフローチャートである。図18に示す例においても、パラメータや値はRAM13に格納される。
図18に示すように、CPU11は、技術要素tech[n]を特定するためのパラメータnを「0」に初期化する(ステップ1801)。次いで、スキルレベルフラグskf[tech[n]]が「1」であるかを判断する(ステップ1802)。スキルレベルフラグskfは、技術要素tech[n]について演奏者が既にクリアしているかを示すフラグである。ステップ1802でNoと判断された場合には、ステップ1806に進む。
ステップ1802でYesと判断された場合には、CPU11は、RAM13から、現在選択されている楽曲SongPtrについてのクリアフラグclear[tech[n]]を取得する(ステップ1803)。次いで、CPU11は、クリアフラグclear[tech[n]]が「1」であるかを判断する(ステップ1804)。ステップ1804でYesと判断された場合には、CPU11は、スキルレベルフラグskf[tech[n]]を「1」にセットする(ステップ1805)。
CPU11は、現在処理対象となっている楽曲SongPtrについてのスキルレベル値Songskill[tech[n]]=skf[tech[n]]×tdiff[tech[n]]を算出する(ステップ1807)。次いで、すべての楽曲について、スキルレベル値Songskill[tech[n]]の総和を算出して、得られた総和を、スキルレベル値Skill[tech[n]]とする(ステップ1808)。
その後、CPU11は、パラメータnをインクリメントし(ステップ1808)、全ての技術要素tech[n]について処理が終了しているか(つまり、n>N−1であるか)を判断する(ステップ1809)。ステップ1809でYesと判断された場合には処理を終了する。その一方、ステップ1809でNoと判断された場合にはステップ1802に戻る。
このようにして得たスキルレベル値Skill[tech[n]]は、演奏者による楽曲の演奏が繰り返されることにより増大する。そこで、状況確認処理のステップ1607において、以下のように平滑化を実現することができる。Skill[tech[n]]が所定の閾値Sth以下であれば、
解像度q=Skill[tech[n]]/Sth、
Skill[tech[n]]が閾値Sthより大きければ、
q=1として、得られた解像度qに基づいて平滑化を行なえば良い。
また、前記実施の形態においては、楽曲iについて、演奏者の達成度を考慮した難度値SongDiff[i]、演奏回数Count[i]、演奏時間time[i]について、画像の構成要素(たとえば、濃度や彩度)を割り当てて、画像を変換している。しかしながら、他の指標値を用いて、画像変換を行なっても良い。
たとえば、CPU11は、曲データと演奏データとを比較して、曲データおよび演奏データにおける、対応する音高情報の相違および時間情報の相違に基づき、演奏の正確さを示す演奏評価値evalを算出する。CPU11は、楽曲ごとの演奏評価値evalに基づき、分割されたエリアの部分画像の構成要素(たとえば、彩度や濃度)を変換する。これにより、演奏の正確さに基づく変換済画像を演奏者に提示することも可能となる。
また、前記実施の形態においては、基本的に、ソング数Mに基づいて画像エリアを分割し、分割されたエリアに、何れか1つの技術要素techを割り当てるように構成している。しかしながら、これに限定されるものではなく、ソング数Mに基づいて画像エリアを分割して、各画像エリアの画像変換を行なった後、技術要素数Nに基づいて別途画像エリアを分割して、別途分割された各画像エリアについて、対応する技術要素のスキルレベルSkillに基づいてさらに画像変換を行なっても良い。
10 演奏評価装置
11 CPU
12 ROM
13 RAM
14 大規模記憶装置
15 入力装置
16 表示装置
17 サウンドシステム
18 鍵盤

Claims (7)

  1. 楽曲を構成する音符ごとの音高情報と、楽音の発音タイミングおよび発音時間を含む時間情報と、所定の音符についての演奏の際に用いられる技術を示す技術要素情報と、楽曲ごとの、前記技術要素を考慮した難度を示す難度情報と、を含む曲データを格納する記憶手段と、
    演奏操作子の操作にしたがって、操作された演奏操作子に対応する音高情報と、操作タイミングおよび操作されていた時間を含む時間情報と、を含む演奏データを生成して、前記記憶手段に格納する演奏データ生成手段と、
    前記曲データと前記演奏データとを比較して、前記所定の音符のそれぞれについての技術要素のクリア状況を判断し、技術要素ごとの演奏者の達成度を示す情報を生成する演奏者達成度判定手段と、
    前記演奏者による楽曲の演奏時間および演奏回数を含む、前記演奏者による練習状況に基づき、楽曲ごとの当該練習状況を示す指標値を生成する練習状況判定手段と、
    前記練習にかかる楽曲数に基づき、前記記憶装置にあらかじめ格納された元画像を分割し、前記楽曲ごとの練習状況を示す指標値に基づき、前記分割されたエリアの部分画像の構成要素を変換するとともに、前記技術要素数に基づき元画像を別途分割し、前記技術要素ごとの達成度を示す情報に基づき、前記別途分割されたエリアの部分画像の他の構成要素を変換して、変換済の画像データを生成し、前記記憶装置に格納する画像変換手段と、
    前記変換済の画像データに基づく画像を表示する表示手段と、を備えたことを特徴とする演奏評価装置。
  2. 前記画像変換手段が、前記演奏時間および演奏回数が増大するのにしたがって、前記変換済みの画像データが、元画像の画像データに近くなるように、また、前記技術要素ごとの演奏者の達成度が高くなるのにしたがって、前記変換済みの画像データが、元画像の画像データに近くなるように、前記変換済みの画像データを生成するように構成されたことを特徴とする請求項1に記載の演奏評価装置。
  3. 前記演奏者達成度判定手段が、前記楽曲ごとに、前記クリア状況に基づき、当該技術要素のクリアレベルを算出し、かつ、全ての楽曲のクリアレベルに基づき、前記技術要素ごとの達成度を示す情報を生成することを特徴とする請求項1または2に記載の演奏評価装置。
  4. 前記練習状況判定手段が、前記クリア状況に基づき、前記楽曲ごとに、前記演奏者による全ての技術要素を考慮した演奏レベルを示す指標値を算出し、
    前記画像変換手段が、前記楽曲ごとの演奏レベルを示す指標値に基づき、前記分割されたエリアの部分画像の構成要素を変換するように構成されたことを特徴とする請求項1ないし3の何れか一項に記載の演奏評価装置。
  5. 前記練習状況判定手段が、前記曲データと前記演奏データとを比較して、前記曲データおよび演奏データにおける、対応する音高情報の相違および時間情報の相違に基づき、演奏の正確さを示す演奏評価値を算出し、
    前記画像変換手段が、前記楽曲ごとの演奏評価値に基づき、前記分割されたエリアの部分画像の構成要素を変換するように構成されたことを特徴とする請求項1ないし4の何れか一項に記載の演奏評価装置。
  6. 前記画像変換手段が、前記分割されたエリアの部分画像の構成要素として、濃度および彩度を変更し、前記別途分割されたエリアの部分画像の他の構成要素として、解像度を変更することを特徴とする請求項1ないし5の何れか一項に記載の演奏評価装置。
  7. 楽曲を構成する音符ごとの音高情報と、楽音の発音タイミングおよび発音時間を含む時間情報と、所定の音符についての演奏の際に用いられる技術を示す技術要素情報と、楽曲ごとの、前記技術要素を考慮した難度を示す難度情報と、を含む曲データを格納する記憶装置を備えたコンピュータに、
    演奏操作子の操作にしたがって、操作された演奏操作子に対応する音高情報と、操作タイミングおよび操作されていた時間を含む時間情報と、を含む演奏データを生成して、前記記憶手段に格納する演奏データ生成ステップと、
    前記曲データと前記演奏データとを比較して、前記所定の音符のそれぞれについての技術要素のクリア状況を判断し、技術要素ごとの演奏者の達成度を示す情報を生成する演奏者達成度判定ステップと、
    前記演奏者による楽曲の演奏時間および演奏回数を含む、前記演奏者による練習状況に基づき、楽曲ごとの当該練習状況を示す指標値を生成する練習状況判定ステップと、
    前記練習にかかる楽曲数に基づき、前記記憶装置にあらかじめ格納された元画像を分割し、前記楽曲ごとの練習状況を示す指標値に基づき、前記分割されたエリアの部分画像の構成要素を変換するとともに、前記技術要素数に基づき元画像を別途分割し、前記技術要素ごとの達成度を示す情報に基づき、前記別途分割されたエリアの部分画像の他の構成要素を変換して、変換済の画像データを生成し、前記記憶装置に格納する画像変換ステップと、を実行させ、
    前記変換済の画像データに基づく画像が表示装置に表示されることを特徴とする演奏評価プログラム。
JP2010229506A 2010-10-12 2010-10-12 演奏評価装置および演奏評価プログラム Active JP5609520B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010229506A JP5609520B2 (ja) 2010-10-12 2010-10-12 演奏評価装置および演奏評価プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010229506A JP5609520B2 (ja) 2010-10-12 2010-10-12 演奏評価装置および演奏評価プログラム

Publications (2)

Publication Number Publication Date
JP2012083540A true JP2012083540A (ja) 2012-04-26
JP5609520B2 JP5609520B2 (ja) 2014-10-22

Family

ID=46242478

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010229506A Active JP5609520B2 (ja) 2010-10-12 2010-10-12 演奏評価装置および演奏評価プログラム

Country Status (1)

Country Link
JP (1) JP5609520B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014206697A (ja) * 2013-04-16 2014-10-30 カシオ計算機株式会社 演奏評価装置、演奏評価方法およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0448553U (ja) * 1990-08-30 1992-04-24
JPH0975551A (ja) * 1995-09-12 1997-03-25 Konami Co Ltd 画像識別遊戯装置
JP3266934B2 (ja) * 1992-04-24 2002-03-18 カシオ計算機株式会社 演奏練習装置
JP2005031389A (ja) * 2003-07-14 2005-02-03 Ricoh Co Ltd 画像加工装置、画像表示システム、プログラム及び記憶媒体
JP2006195022A (ja) * 2005-01-12 2006-07-27 Yamaha Corp 演奏練習装置及びプログラム
JP2007178697A (ja) * 2005-12-27 2007-07-12 Casio Comput Co Ltd 演奏評価装置、及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0448553U (ja) * 1990-08-30 1992-04-24
JP3266934B2 (ja) * 1992-04-24 2002-03-18 カシオ計算機株式会社 演奏練習装置
JPH0975551A (ja) * 1995-09-12 1997-03-25 Konami Co Ltd 画像識別遊戯装置
JP2005031389A (ja) * 2003-07-14 2005-02-03 Ricoh Co Ltd 画像加工装置、画像表示システム、プログラム及び記憶媒体
JP2006195022A (ja) * 2005-01-12 2006-07-27 Yamaha Corp 演奏練習装置及びプログラム
JP2007178697A (ja) * 2005-12-27 2007-07-12 Casio Comput Co Ltd 演奏評価装置、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014206697A (ja) * 2013-04-16 2014-10-30 カシオ計算機株式会社 演奏評価装置、演奏評価方法およびプログラム

Also Published As

Publication number Publication date
JP5609520B2 (ja) 2014-10-22

Similar Documents

Publication Publication Date Title
US9333418B2 (en) Music instruction system
US20040044487A1 (en) Method for analyzing music using sounds instruments
CN108028040B (zh) 音乐演奏辅助装置和方法
CN107195289B (zh) 一种可编辑的多级音色合成系统及方法
WO2023040332A1 (zh) 一种曲谱生成方法、电子设备及可读存储介质
JP3744366B2 (ja) 楽曲データに基づく音楽記号自動決定装置、楽曲データに基づく楽譜表示制御装置、および、楽曲データに基づく音楽記号自動決定プログラム
US5990404A (en) Performance data editing apparatus
JP3509545B2 (ja) 演奏情報評価装置、演奏情報評価方法及び記録媒体
CN112258932A (zh) 一种乐器演奏辅助练习装置、方法及系统
JP5609520B2 (ja) 演奏評価装置および演奏評価プログラム
US5430244A (en) Dynamic correction of musical instrument input data stream
JPH09237088A (ja) 演奏分析装置、演奏分析方法、及び、記憶媒体
JP6701864B2 (ja) 音評価装置および音評価方法
JP2012185440A (ja) 楽音制御装置
JP4614307B2 (ja) 演奏データ処理装置及びプログラム
KR20130057293A (ko) 디지털 음악파일을 이용한 전자악보제공장치 및 전자악보 제공방법
JP5847048B2 (ja) ピアノロール型譜表示装置、ピアノロール型譜表示プログラム、及びピアノロール型譜表示方法
JP6073618B2 (ja) カラオケ装置
JP2014191331A (ja) 楽器音出力装置及び楽器音出力プログラム
JP2614532B2 (ja) 楽音データ補正装置
WO2022190453A1 (ja) 運指提示装置、訓練装置、運指提示方法および訓練方法
WO2022215250A1 (ja) 選曲装置、モデル作成装置、プログラム、選曲方法、およびモデル作成方法
JP4093000B2 (ja) 楽譜表示データを記憶した記憶媒体、その楽譜表示データを用いた楽譜表示装置及びプログラム
JP2010281881A (ja) 楽曲難易度算出装置および楽曲難易度算出プログラム
JP2007078724A (ja) 電子楽器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140513

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140818

R150 Certificate of patent or registration of utility model

Ref document number: 5609520

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150