JP5609520B2 - Performance evaluation apparatus and performance evaluation program - Google Patents

Performance evaluation apparatus and performance evaluation program Download PDF

Info

Publication number
JP5609520B2
JP5609520B2 JP2010229506A JP2010229506A JP5609520B2 JP 5609520 B2 JP5609520 B2 JP 5609520B2 JP 2010229506 A JP2010229506 A JP 2010229506A JP 2010229506 A JP2010229506 A JP 2010229506A JP 5609520 B2 JP5609520 B2 JP 5609520B2
Authority
JP
Japan
Prior art keywords
performance
image
data
music
song
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010229506A
Other languages
Japanese (ja)
Other versions
JP2012083540A (en
Inventor
南高 純一
純一 南高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010229506A priority Critical patent/JP5609520B2/en
Publication of JP2012083540A publication Critical patent/JP2012083540A/en
Application granted granted Critical
Publication of JP5609520B2 publication Critical patent/JP5609520B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、演奏者による演奏に基づいて、楽曲演奏についての学習の進度や達成度に基づく画像を表示する演奏評価装置、および、演奏評価プログラムに関する。   The present invention relates to a performance evaluation apparatus and a performance evaluation program for displaying an image based on the progress and achievement of learning about music performance based on a performance by a performer.

従来、課題となる楽曲を演奏者に演奏させて、模範演奏についてのデータと、演奏者による演奏データとを比較して、演奏者による演奏を評価する評価装置が知られている。演奏評価のためには、正しい鍵を押鍵しているか、および、正しいタイミングで押鍵しているか、という2つの要素を調べることが一般的である。   2. Description of the Related Art Conventionally, there has been known an evaluation device that allows a performer to perform a musical composition that is a problem, compares data on the model performance with performance data by the performer, and evaluates the performance by the performer. For performance evaluation, it is common to examine two factors: whether the correct key is pressed and whether the key is pressed at the correct timing.

特許文献1には、不適な演奏操作の種別(白鍵の操作ミス、黒鍵の操作ミスなど)を判別し、種別ごとに不適な操作の回数をカウントして、操作回数に応じた演奏評価を行なう装置が提案されている。   In Patent Document 1, an inappropriate performance operation type (white key operation error, black key operation error, etc.) is discriminated, and the number of unsuitable operations is counted for each type, and performance evaluation corresponding to the number of operations is performed. A device for performing the above has been proposed.

また、特許文献2には、楽曲のパート或いは区間における演奏評価が可能な演奏評価装置が提案されている。   Further, Patent Document 2 proposes a performance evaluation apparatus that can perform performance evaluation on a part or a section of a music piece.

特許第3266934号公報Japanese Patent No. 3266934 特許第3915452号公報Japanese Patent No. 3915452 特開2004−347848号公報JP 2004-347848 A

従来、評価結果を表示する方法として、たとえば、表示装置の画面上に表示された楽譜の音符に「○」或いは「×」の印を付すことで、その音符についての押鍵の正誤を示し、或いは、楽曲全体、或いは、区間ごとに採点をして、得点を表示することが行なわれていた。しかしながら、上記評価では、楽曲中の種々の技術要素(たとえば、和音演奏など)や、技術要素のクリアの是非、演奏者による努力などがほとんど考慮されないという問題点があった。   Conventionally, as a method of displaying an evaluation result, for example, by marking a musical score note displayed on the screen of a display device with “○” or “×”, the correctness of the key depression for the note is indicated. Or, the score is displayed by scoring the whole music or for each section. However, in the above evaluation, there are problems in that various technical elements in the music (for example, chord performance), whether to clear the technical elements, and efforts by the performer are hardly considered.

また、特許文献3には、演奏者(生徒)が演奏を行なうと、その情報が、演奏者の端末からサーバを介して指導者の端末に伝達され、指導者は、受信した情報を参照してメッセージを入力し、入力されたメッセージが、サーバを介して演奏者の端末に伝達されるシステムが開示されている。   Further, in Patent Document 3, when a performer (student) performs, the information is transmitted from the performer's terminal to the instructor's terminal via the server, and the instructor refers to the received information. A system is disclosed in which a message is input and the input message is transmitted to a performer's terminal via a server.

しかしながら、従来の演奏教習および演奏評価では、教習の効率の向上を主目的としており、また、評価においても、上述したように押鍵の正誤に基づく画一的なものに限られる、という問題点があった。したがって、演奏者においては楽曲の練習の楽しみが損なわれる可能性があった。   However, the conventional performance learning and performance evaluation are mainly aimed at improving the efficiency of the learning, and the evaluation is limited to a uniform one based on the correctness of key depression as described above. was there. Therefore, the pleasure of practicing the music may be impaired for the performer.

そこで、本発明は、楽曲を練習する演奏者の楽しみを損なわず、また、演奏者による練習努力を考慮した演奏評価を行なうことができる演奏評価装置、および、演奏評価プログラムを提供することを目的とする。   Accordingly, an object of the present invention is to provide a performance evaluation apparatus and a performance evaluation program capable of performing performance evaluation in consideration of practice effort by the performer without impairing the enjoyment of the performer who practices the music. And

本発明の目的は、楽曲を構成する音符ごとの音高情報と、楽音の発音タイミングおよび発音時間を含む時間情報と、所定の音符についての演奏の際に用いられる技術を示す技術要素情報と、楽曲ごとの、前記技術要素を考慮した難度を示す難度情報と、を含む曲データを格納する記憶手段と、
演奏操作子の操作にしたがって、操作された演奏操作子に対応する音高情報と、操作タイミングおよび操作されていた時間を含む時間情報と、を含む演奏データを生成して、前記記憶手段に格納する演奏データ生成手段と、
前記曲データと前記演奏データとを比較して、前記所定の音符のそれぞれについての技術要素のクリア状況を判断し、技術要素ごとの演奏者の達成度を示す情報を生成する演奏者達成度判定手段と、
前記演奏者による楽曲の演奏時間および演奏回数を含む、前記演奏者による練習状況に基づき、楽曲ごとの当該練習状況を示す指標値を生成する練習状況判定手段と、
前記楽曲数に基づき、あらかじめ記憶された元画像を複数の部分画像に分割し、前記楽曲ごとの練習状況を示す指標値に基づき、前記元画像の部分画像それぞれから、当該各部分画像を構成する所定の構成要素を変換することにより第1の変換画像を生成するとともに、当該第1の変換画像を前記技術要素数に基づき複数の部分画像に別途分割し、前記技術要素ごとの達成度を示す情報に基づき、前記第1の変換画像の別途分割された部分画像それぞれから、前記所定の構成要素とは異なる他の構成要素を変換することにより第2の変換画像データを生成する画像変換手段と、
前記第2の変換画像データに基づく画像を表示する表示手段と、を備えたことを特徴とする演奏評価装置により達成される。
An object of the present invention is to provide pitch information for each note constituting a musical piece, time information including a tone generation timing and a tone generation time of a musical tone, technical element information indicating a technique used when a predetermined note is played, Storage means for storing song data including difficulty information indicating the difficulty in consideration of the technical elements for each song;
According to the operation of the performance operator, performance data including pitch information corresponding to the operated performance operator and time information including the operation timing and the operated time is generated and stored in the storage means Performance data generating means for performing,
A player achievement level determination that compares the music data and the performance data to determine the clearing state of the technical element for each of the predetermined notes and generates information indicating the achievement level of the player for each technical element Means,
Practice status determination means for generating an index value indicating the practice status for each song, based on the practice status by the performer, including the performance time and number of performances of the song by the performer,
Based on the number of songs, the previously stored original image is divided into a plurality of partial images, and each partial image is configured from each partial image of the original image based on an index value indicating the practice status for each song. A first converted image is generated by converting predetermined constituent elements, and the first converted image is separately divided into a plurality of partial images based on the number of technical elements, and the achievement level for each technical element is indicated. Image conversion means for generating second converted image data by converting another component different from the predetermined component from each separately divided partial image of the first converted image based on the information; ,
This is achieved by a performance evaluation device comprising display means for displaying an image based on the second converted image data .

好ましい実施態様においては、前記画像変換手段は、前記演奏時間および演奏回数が増大するのにしたがって、前記第1の変換画像データを、元画像の画像データに近くなるように生成し、前記技術要素ごとの演奏者の達成度が高くなるのにしたがって、前記第2の変換画像データを、元画像の画像データに近くなるように生成するように構成されている。 In a preferred embodiment, the image conversion unit according to the play time and play times is increased, the first converted image data, generated to be close to the image data of the original image, the technical elements As the achievement level of each player increases, the second converted image data is generated so as to be closer to the image data of the original image.

別の好ましい実施態様においては、前記演奏者達成度判定手段が、前記楽曲ごとに、前記クリア状況に基づき、当該技術要素のクリアレベルを算出し、かつ、全ての楽曲のクリアレベルに基づき、前記技術要素ごとの達成度を示す情報を生成する。   In another preferred embodiment, the player achievement level determination means calculates a clear level of the technical element based on the clear status for each of the songs, and based on the clear level of all the songs, Information indicating the achievement level for each technical element is generated.

また、好ましい実施態様においては、前記練習状況判定手段が、前記クリア状況に基づき、前記楽曲ごとに、前記演奏者による全ての技術要素を考慮した演奏レベルを示す指標値を算出し、
前記画像変換手段が、前記楽曲ごとの演奏レベルを示す指標値に基づき、前記部分画像それぞれの所定の構成要素を変換するように構成されている。
In a preferred embodiment, the practice situation determination means calculates an index value indicating a performance level in consideration of all technical elements by the performer for each piece of music based on the clear situation,
The image conversion means is configured to convert a predetermined component of each of the partial images based on an index value indicating a performance level for each piece of music.

また、好ましい実施態様においては、前記練習状況判定手段が、前記曲データと前記演奏データとを比較して、前記曲データおよび演奏データにおける、対応する音高情報の相違および時間情報の相違に基づき、演奏の正確さを示す演奏評価値を算出し、
前記画像変換手段が、前記楽曲ごとの演奏評価値に基づき、前記部分画像それぞれの所定の構成要素を変換するように構成されている。
Further, in a preferred embodiment, the practice situation determination means compares the song data with the performance data, and based on a difference in corresponding pitch information and time information in the song data and performance data. , Calculate a performance evaluation value indicating the accuracy of the performance,
The image converting means is configured to convert a predetermined component of each of the partial images based on a performance evaluation value for each piece of music.

さらに別の好ましい実施態様においては、前記画像変換手段が、前記部分画像それぞれの所定の構成要素として、濃度および彩度を変更し、前記別途分割されたエリアの部分画像の他の構成要素として、解像度を変更する。 In still another preferred embodiment, the image conversion means changes density and saturation as predetermined components of each of the partial images, and as other components of the partial image of the separately divided area, Change the resolution.

また、本発明の目的は、 楽曲を構成する音符ごとの音高情報と、楽音の発音タイミングおよび発音時間を含む時間情報と、所定の音符についての演奏の際に用いられる技術を示す技術要素情報と、楽曲ごとの、前記技術要素を考慮した難度を示す難度情報と、を含む曲データを格納する記憶装置を備えたコンピュータに、
演奏操作子の操作にしたがって、操作された演奏操作子に対応する音高情報と、操作タイミングおよび操作されていた時間を含む時間情報と、を含む演奏データを生成して、前記記憶手段に格納する演奏データ生成ステップと、
前記曲データと前記演奏データとを比較して、前記所定の音符のそれぞれについての技術要素のクリア状況を判断し、技術要素ごとの演奏者の達成度を示す情報を生成する演奏者達成度判定ステップと、
前記演奏者による楽曲の演奏時間および演奏回数を含む、前記演奏者による練習状況に基づき、楽曲ごとの当該練習状況を示す指標値を生成する練習状況判定ステップと、
前記楽曲数に基づき、あらかじめ記憶された元画像を複数の部分画像に分割し、前記楽曲ごとの練習状況を示す指標値に基づき、前記元画像の部分画像それぞれから、当該各部分画像を構成する所定の構成要素を変換することにより第1の変換画像を生成するとともに、当該第1の変換画像を前記技術要素数に基づき複数の部分画像に別途分割し、前記技術要素ごとの達成度を示す情報に基づき、前記第1の変換画像の別途分割された部分画像それぞれから、前記所定の構成要素とは異なる他の構成要素を変換することにより第2の変換画像データを生成する画像変換ステップと、を実行させ、
前記第2の変換画像データに基づく画像が表示装置に表示されることを特徴とする演奏評価プログラムにより達成される。
In addition, the object of the present invention is to provide pitch information for each note constituting a musical piece, time information including tone generation timing and tone generation time of musical tone, and technical element information indicating a technique used when a predetermined note is played. And a computer having a storage device for storing song data including difficulty information indicating the difficulty in consideration of the technical elements for each song,
According to the operation of the performance operator, performance data including pitch information corresponding to the operated performance operator and time information including the operation timing and the operated time is generated and stored in the storage means A performance data generation step,
A player achievement level determination that compares the music data and the performance data to determine the clearing state of the technical element for each of the predetermined notes and generates information indicating the achievement level of the player for each technical element Steps,
A practice situation determination step for generating an index value indicating the practice situation for each song, based on the practice situation by the performer, including the performance time and the number of performances of the song by the performer;
Based on the number of songs, the previously stored original image is divided into a plurality of partial images, and each partial image is configured from each partial image of the original image based on an index value indicating the practice status for each song. A first converted image is generated by converting predetermined constituent elements, and the first converted image is separately divided into a plurality of partial images based on the number of technical elements, and the achievement level for each technical element is indicated. An image conversion step of generating second converted image data by converting another component different from the predetermined component from each separately divided partial image of the first converted image based on the information; , Execute
The performance evaluation program is characterized in that an image based on the second converted image data is displayed on a display device.

本発明によれば、楽曲を練習する演奏者の楽しみを損なわず、また、演奏者による練習努力を考慮した演奏評価を行なうことができる演奏評価装置、および、演奏評価プログラムを提供することが可能となる。   According to the present invention, it is possible to provide a performance evaluation apparatus and a performance evaluation program that can perform performance evaluation in consideration of practice effort by the performer without impairing the enjoyment of the performer who practices the music. It becomes.

図1は、本発明の実施の形態にかかる演奏評価装置の構成を示すブロックダイヤグラムである。FIG. 1 is a block diagram showing a configuration of a performance evaluation apparatus according to an embodiment of the present invention. 図2は、本実施の形態にかかる演奏評価装置10において実行される処理の概略を示すフローチャートである。FIG. 2 is a flowchart showing an outline of processing executed in the performance evaluation apparatus 10 according to the present embodiment. 図3は、本実施の形態にかかる演奏評価データのデータ構造例を示す図である。FIG. 3 is a diagram illustrating a data structure example of performance evaluation data according to the present embodiment. 図4(a)は、本実施の形態にかかる曲データの構成例を示す図、図4(b)は、本実施の形態にかかる演奏データの構成例を示す図である。FIG. 4A is a diagram illustrating a configuration example of song data according to the present embodiment, and FIG. 4B is a diagram illustrating a configuration example of performance data according to the present embodiment. 。図5は、本実施の形態にかかるスイッチ処理の例を示すフローチャートである。. FIG. 5 is a flowchart illustrating an example of the switch processing according to the present embodiment. 図6は、本実施の形態にかかるデモスイッチ処理の例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of the demo switch process according to the present embodiment. 図7は、本実施の形態にかかる演奏スイッチ処理の例を示すフローチャートである。FIG. 7 is a flowchart showing an example of the performance switch process according to the present embodiment. 図8は、本実施の形態にかかる鍵盤処理の例を示すフローチャートである。FIG. 8 is a flowchart showing an example of keyboard processing according to the present embodiment. 図9は、本実施の形態にかかるソング処理の例を示すフローチャートである。FIG. 9 is a flowchart showing an example of song processing according to the present embodiment. 図10は、本実施の形態にかかるソング処理の例を示すフローチャートである。FIG. 10 is a flowchart showing an example of song processing according to the present embodiment. 図11は、本実施の形態にかかる評価処理の例を示すフローチャートである。FIG. 11 is a flowchart showing an example of evaluation processing according to the present embodiment. 図12は、本実施の形態にかかる技術クリアレベルtclear[SongPtr]の算出処理の例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of a process for calculating the technology clear level tclear [SongPtr] according to the present embodiment. 図13は、本実施の形態にかかるクリア数clnum[tech[n]]の例を示すフローチャートである。FIG. 13 is a flowchart illustrating an example of the clear number clnum [tech [n]] according to the present embodiment. 図14は、スキルレベルレジスタの値(スキルレベル値)Skill[tech[n]]の算出例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of calculating a skill level register value (skill level value) Skill [tech [n]]. 図15は、本実施の形態にかかる状況確認処理の例を示すフローチャートである。FIG. 15 is a flowchart illustrating an example of the situation confirmation process according to the present embodiment. 図16は、本実施の形態にかかる状況確認処理の例を示すフローチャートである。FIG. 16 is a flowchart illustrating an example of the situation confirmation process according to the present embodiment. 図17は、本実施の形態における画像エリアの分割の例を示す図である。FIG. 17 is a diagram illustrating an example of image area division according to the present embodiment. 図18は、他の実施の形態にかかるスキルレベル値の算出処理の例を示すフローチャートである。FIG. 18 is a flowchart illustrating an example of a skill level value calculation process according to another embodiment.

以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、本発明の実施の形態にかかる演奏評価装置の構成を示すブロックダイヤグラムである。図1に示すように、本実施の形態にかかる演奏評価装置10は、CPU11、ROM12、RAM13、大規模記憶装置14、入力装置15、表示装置16、サウンドシステム17および鍵盤18を有している。   Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a block diagram showing a configuration of a performance evaluation apparatus according to an embodiment of the present invention. As shown in FIG. 1, the performance evaluation apparatus 10 according to the present embodiment includes a CPU 11, a ROM 12, a RAM 13, a large-scale storage device 14, an input device 15, a display device 16, a sound system 17, and a keyboard 18. .

CPU11は、演奏者による押鍵に応じた楽音の発生、演奏者による楽曲の演奏に対する演奏評価、演奏評価に基づく画像の生成など種々の処理を実行する。ROM12は、演奏者による押鍵に応じた楽音の発生、演奏者による楽曲の演奏に対する演奏評価、演奏評価に基づく画像の生成など種々の処理の処理プログラム、処理に使用するパラメータ、演奏者の押鍵にしたがって発音される楽音のための、種々の楽器(ピアノ、ギター、トランペットなど)の波形データを格納する。RAM13は、プログラムの実行の過程で生じたパラメータ、入力データ、出力データなどを一時的に記憶する。大規模記憶装置14は、ハードディスク装置やメモリカードなどであり、楽曲データなどを格納する。   The CPU 11 executes various processes such as generation of a musical sound according to the key pressed by the performer, performance evaluation for the performance of music by the performer, and generation of an image based on the performance evaluation. The ROM 12 is a processing program for various processes such as generation of a musical sound according to the key pressed by the performer, performance evaluation for the performance of the music by the performer, generation of an image based on the performance evaluation, parameters used for the process, and the player's press. Stores waveform data of various musical instruments (piano, guitar, trumpet, etc.) for musical sounds produced according to keys. The RAM 13 temporarily stores parameters, input data, output data and the like generated in the course of program execution. The large-scale storage device 14 is a hard disk device or a memory card, and stores music data and the like.

入力装置15は、スイッチ類、キーボード、マウスなどを含み、操作者のスイッチ操作、キー操作、マウスの操作に基づく種々の指示などをCPU11に与える。表示装置16の画面上には、楽曲データに基づく楽譜、演奏評価に基づく画像などが表示される。サウンドシステム40は、楽音生成回路、増幅器、スピーカなどを含み、楽曲データにしたがって、或いは、操作者による鍵盤18の押鍵操作にしたがって所定の楽音を生成して、楽音に基づく音響信号を出力する。なお、上記実施の形態において、鍵盤18は必須ではなく、他の形態の操作子の操作によって楽音が発音されるように構成しても良い。   The input device 15 includes switches, a keyboard, a mouse, and the like, and gives the CPU 11 various instructions based on an operator's switch operation, key operation, and mouse operation. On the screen of the display device 16, a score based on music data, an image based on performance evaluation, and the like are displayed. The sound system 40 includes a musical sound generation circuit, an amplifier, a speaker, and the like, generates a predetermined musical sound according to music data or according to a key pressing operation of the keyboard 18 by an operator, and outputs an acoustic signal based on the musical sound. . In the embodiment described above, the keyboard 18 is not essential, and a musical tone may be generated by operating other types of controls.

本実施の形態にかかる演奏評価装置10は、鍵盤楽器の形態であっても良いし、或いは、パーソナルコンピュータのような形態であっても良い。鍵盤楽器の形態であれば、操作者は、表示装置16の画面上に表示された楽譜を参照して、鍵盤18中の鍵を押鍵し、サウンドシステム17が、操作者の押鍵に応答して、押鍵された鍵の音高に対応する楽音データを生成することで、サウンドシステム17から楽音を出力することができる。   The performance evaluation apparatus 10 according to the present embodiment may be in the form of a keyboard instrument or may be in the form of a personal computer. In the form of a keyboard instrument, the operator refers to the score displayed on the screen of the display device 16 and presses the key in the keyboard 18, and the sound system 17 responds to the key pressed by the operator. The musical sound can be output from the sound system 17 by generating musical tone data corresponding to the pitch of the depressed key.

図2は、本実施の形態にかかる演奏評価装置10において実行される処理の概略を示すフローチャートである。図2に示すように、本実施の形態にかかる演奏評価装置10のCPU11は、RAM13に格納されたパラメータ等のクリア、表示装置16の画面上に表示された画像のクリアなどを含むイニシャライズを実行する(ステップ201)。次いで、スイッチ処理(ステップ202)、鍵盤処理(ステップ203)、ソング処理(ステップ204)、評価処理(ステップ205)、状況確認処理(ステップ206)およびその他の処理(ステップ207)が実行される。ステップ202〜207は繰り返される。ステップ202〜206のそれぞれについては後に詳細に説明する。   FIG. 2 is a flowchart showing an outline of processing executed in the performance evaluation apparatus 10 according to the present embodiment. As shown in FIG. 2, the CPU 11 of the performance evaluation apparatus 10 according to the present embodiment executes initialization including clearing parameters stored in the RAM 13, clearing images displayed on the screen of the display device 16, and the like. (Step 201). Next, switch processing (step 202), keyboard processing (step 203), song processing (step 204), evaluation processing (step 205), status confirmation processing (step 206) and other processing (step 207) are executed. Steps 202-207 are repeated. Each of steps 202 to 206 will be described in detail later.

図3は、本実施の形態にかかる演奏評価データのデータ構造例を示す図である。曲データは、たとえば、大規模記憶装置14に格納され、処理の際に、CPU11により、RAM13にコピーされる。図3に示すように、演奏評価データは、L個のソングセットのレコード群SongSet[l](l=0〜L01)を有する(符号300参照)。たとえば、ソングセットのレコード群SongSet「0」(符号301参照)には、M個のソングのレコード群Song[m](m=0〜M−1)が含まれる(符号310参照)。本実施の形態においては、あるソングセットには、複数の楽曲(ソング)が含まれるようになっている。   FIG. 3 is a diagram illustrating a data structure example of performance evaluation data according to the present embodiment. The song data is stored in, for example, the large-scale storage device 14 and is copied to the RAM 13 by the CPU 11 during processing. As shown in FIG. 3, the performance evaluation data has a record group SongSet [l] (l = 0 to L01) of L song sets (see reference numeral 300). For example, the record group SongSet “0” (see reference numeral 301) of the song set includes M song record groups Song [m] (m = 0 to M−1) (see reference numeral 310). In the present embodiment, a song set includes a plurality of songs (songs).

たとえば、ソングのレコード群Song[0](符号311)には、以下に述べる複数のレコード(符号320)が含まれる。ソングのレコード群には、曲データの先頭アドレスを示す曲データポインタ321、演奏データの先頭アドレスを示す演奏データポインタ322、楽曲の演奏難度の総計である難度総計diff323、演奏の際に演奏者がおこなうべき技術要素ごとに、楽曲における当該技術要素の有無を示す、N個の演奏技術値tech[0]〜tech[N−1](符号324参照)というレコードを有する。   For example, the song record group Song [0] (reference numeral 311) includes a plurality of records (reference numeral 320) described below. The record group of the song includes a song data pointer 321 indicating the start address of the song data, a performance data pointer 322 indicating the start address of the performance data, a difficulty total diff 323 that is the total difficulty level of the song, and the performer during the performance. Each technical element to be performed has a record of N performance technical values tech [0] to tech [N-1] (see reference numeral 324) indicating the presence or absence of the technical element in the music.

楽曲の技術要素には、上記N個の添え字の何れかが対応付けられる。楽曲の技術要素には、たとえば、n=0:右手指くぐり、n=1:右手オクターブ、n=2:右手による和音進行、n=3:左手指くぐり、n=4:左手和音演奏、n=5:左手オクターブ、n=6:アルペジオ、n=7:ペダル使用・・・などが含まれる。   Any of the N subscripts is associated with the technical element of the music. For example, n = 0: right-handed finger, n = 1: right-handed octave, n = 2: chord progression by right-handed, n = 3: left-handed fingering, n = 4: left-handed chord performance, n = 5: Left-hand octave, n = 6: Arpeggio, n = 7: Pedal use, etc. are included.

たとえば、ある楽曲について、以下のような演奏技術値であること、および、その示すところを列挙する。   For example, the following performance technique values are listed for a certain piece of music, and the indications thereof are listed.

tech[0]=1:右手指くぐり有り
tech[1]=1:右手オクターブ有り
tech[2]=0:右手による和音進行なし
tech[3]=0:左手指くぐり無し
tech[4]=0:左手和音演奏なし
tech[5]=1:左手オクターブ有り
tech[6]=0:アルペジオ無し
tech[7]=1:ペダル使用有り

また、本実施の形態においては、演奏の技術要素ごとに、その技術難度を示す値が、RAM13中のレコードtdiff[0]〜tdiff[N−1]に格納されている(符号330参照)。たとえば、tdiff[0](符号331参照)には、右手指くぐりの技術難度を示す値が格納される。他のレコードにも、以下のように、添え字に対応した技術要素の技術難度を示す値が格納される。
tech [0] = 1: With right hand finger tech [1] = 1: With right hand octave tech [2] = 0: No chord progression with right hand tech [3] = 0: Without left hand finger tech [4] = 0 : No left-hand chord performance tech [5] = 1: Left-hand octave available tech [6] = 0: No arpeggio tech [7] = 1: Pedal used:
Further, in the present embodiment, for each technical element of performance, a value indicating the technical difficulty level is stored in records tdiff [0] to tdiff [N−1] in the RAM 13 (see reference numeral 330). For example, in tdiff [0] (see reference numeral 331), a value indicating the technical difficulty level of the right hand finger is stored. The values indicating the technical difficulty level of the technical elements corresponding to the subscripts are stored in other records as follows.

tdiff[0]=1:右手指くぐりの技術難度
tdiff[1]=2:右手オクターブの技術難度
tdiff[2]=4:右手による和音進行の技術難度
tdiff[3]=3:左手指くぐりの技術難度
tdiff[4]=5:左手和音演奏の技術難度
tdiff[5]=3:左手オクターブの技術難度
tdiff[6]=3:アルペジオの技術難度
tdiff[7]=2:ペダル使用の技術難度

したがって、難度総計diffのレコード(符号323参照)には、
Σtech[n]×tdiff[n]
が格納されることになる。
tdiff [0] = 1: Technical difficulty level of right-hand finger tdiff [1] = 2: Technical difficulty level of right-handed octave tdiff [2] = 4: Technical difficulty level of chord progression by right hand tdiff [3] = 3: Left-handed finger level Technical Difficulty tdiff [4] = 5: Technical Difficulty of Left Hand Chord Performance tdiff [5] = 3: Technical Difficulties of Left Hand Octave tdiff [6] = 3: Technical Difficulties of Arpeggio tdiff [7] = 2: Technical Difficulties of Using Pedals :
Therefore, the record of the difficulty total diff (see reference numeral 323)
Σtech [n] × tdiff [n]
Will be stored.

図4(a)は、本実施の形態にかかる曲データの構成例を示す図、図4(b)は、本実施の形態にかかる演奏データの構成例を示す図である。図4(a)に示すように、曲データ400は、ステップタイムのレコード(たとえば符号401参照)、ノートオンイベントのレコード(たとえば符号402参照)、ゲートタイムのレコード(たとえば符号403参照)を有する。ノートオンイベントのレコード(符号402)は、音高、音色情報を格納するサブレコード404およびノートオンイベントにかかる音符に関連した演奏技術値tech[p]を格納するサブレコード405を有する。演奏技術値のためのサブレコード405には、複数の演奏技術値が格納され得る。   FIG. 4A is a diagram illustrating a configuration example of song data according to the present embodiment, and FIG. 4B is a diagram illustrating a configuration example of performance data according to the present embodiment. As shown in FIG. 4A, the song data 400 has a step time record (for example, reference numeral 401), a note-on event record (for example, reference numeral 402), and a gate time record (for example, reference numeral 403). . The record of the note-on event (reference numeral 402) has a sub-record 404 for storing pitch and timbre information, and a sub-record 405 for storing a performance technique value tech [p] related to the note related to the note-on event. A plurality of performance technique values can be stored in the sub record 405 for performance technique values.

ゲートタイムのレコードは、ノートオンイベントに示す楽音の発音時間が格納される。また、ステップタイムのレコードは、ノートオンイベント間の時間間隔が格納される。曲データは、大規模記憶装置14に格納され、ソング処理により演奏すべき楽曲についての曲データのレコード群がRAM13にコピーされる。   The record of the gate time stores the tone generation time of the musical sound indicated in the note-on event. The step time record stores a time interval between note-on events. The song data is stored in the large-scale storage device 14, and a song data record group for the song to be played by song processing is copied to the RAM 13.

演奏データは、演奏者による押鍵および離鍵に伴って、RAM13中に生成される。図4(b)に示すように、演奏データ410も、ステップタイム(たとえば符号411参照)、ノートオンイベント(たとえば符号412参照)およびゲートタイム(たとえば符号413参照)のレコードを有する。ノートオンイベントのレコードには、音高情報が格納される。   The performance data is generated in the RAM 13 as the performer presses and releases the key. As shown in FIG. 4B, the performance data 410 also has records of step time (for example, reference numeral 411), note-on event (for example, reference numeral 412), and gate time (for example, reference numeral 413). The note information is stored in the note-on event record.

以下、図2に示す、CPU11により実行される種々の処理について説明する。図5は、本実施の形態にかかるスイッチ処理の例を示すフローチャートである。図5に示すように、CPU11は、ソングセット指定スイッチがオンされたかを判断する(ステップ501)。ステップ501でYesと判断された場合には、CPU11は、RAM13中のパラメータSetPtrに、指定された値をセットする(ステップ502)。また、ステップ502において、大規模記憶装置14中の指定されたソングセットの楽曲データをRAM13にコピーしても良い。   Hereinafter, various processes executed by the CPU 11 shown in FIG. 2 will be described. FIG. 5 is a flowchart illustrating an example of the switch processing according to the present embodiment. As shown in FIG. 5, the CPU 11 determines whether or not the song set designation switch is turned on (step 501). When it is determined Yes in step 501, the CPU 11 sets a designated value in the parameter SetPtr in the RAM 13 (step 502). In step 502, the music data of the designated song set in the large-scale storage device 14 may be copied to the RAM 13.

ステップ501でNoと判断された場合には、ソング指定スイッチがオンされたかを判断する(ステップ503)。ステップ503でYesと判断された場合には、CPU11は、CPU11は、RAM13中のパラメータSongPtrに、指定された値をセットする(ステップ504)。ステップ503でNoと判断された場合には、CPU11は、デモスイッチがオンされたかを判断する(ステップ505)。ステップ505でYesと判断された場合には、CPU11は、デモスイッチ処理を実行する(ステップ506)。   If it is determined No in step 501, it is determined whether the song designation switch is turned on (step 503). When it is determined Yes in step 503, the CPU 11 sets the designated value in the parameter SongPtr in the RAM 13 (step 504). If it is determined No in step 503, the CPU 11 determines whether the demo switch has been turned on (step 505). If it is determined Yes in step 505, the CPU 11 executes a demo switch process (step 506).

図6は、本実施の形態にかかるデモスイッチ処理の例を示すフローチャートである。図6に示すように、デモスイッチ処理において、CPU11は、RAM13中のデモフラグDFを反転し(ステップ601)、デモフラグDFが「1」であるかを判断する(ステップ602)。ステップ602でYesと判断された場合には、CPU11は、RAM13中の曲データの先頭アドレスを、RAM13中のパラメータDADに格納する(ステップ603)。また、CPU11は、第1および第2のデモ用カウンタのカウントを開始する(ステップ604)。ステップ604におけるカウント開始によって、CPU11により所定の時間間隔で実行されるタイマインタラプト処理において、第1および第2のデモ用カウンタのカウンタ値がインクリメントされる。ステップ602でNoと判断された場合には、CPU11は、第1および第2のデモ用カウンタを停止する(ステップ605)。   FIG. 6 is a flowchart illustrating an example of the demo switch process according to the present embodiment. As shown in FIG. 6, in the demo switch process, the CPU 11 inverts the demo flag DF in the RAM 13 (step 601), and determines whether the demo flag DF is “1” (step 602). If it is determined Yes in step 602, the CPU 11 stores the head address of the song data in the RAM 13 in the parameter DAD in the RAM 13 (step 603). Further, the CPU 11 starts counting the first and second demonstration counters (step 604). With the count start in step 604, the counter values of the first and second demonstration counters are incremented in the timer interrupt process executed by the CPU 11 at predetermined time intervals. If it is determined No in step 602, the CPU 11 stops the first and second demonstration counters (step 605).

ステップ505でNoと判断された場合には、CPU11は、演奏スイッチがオンされたかを判断する(ステップ507)。ステップ507でYesと判断された場合には、CPU11は、演奏スイッチ処理を実行する(ステップ508)。図7は、本実施の形態にかかる演奏スイッチ処理の例を示すフローチャートである。図7に示すように、演奏スイッチ処理において、CPU11は、演奏フラグPFを反転し(ステップ701)、演奏フラグPFが「1」であるかを判断する(ステップ702)。   If it is determined No in step 505, the CPU 11 determines whether the performance switch has been turned on (step 507). If it is determined YES in step 507, the CPU 11 executes a performance switch process (step 508). FIG. 7 is a flowchart showing an example of the performance switch process according to the present embodiment. As shown in FIG. 7, in the performance switch process, the CPU 11 inverts the performance flag PF (step 701) and determines whether the performance flag PF is “1” (step 702).

ステップ702でYesと判断された場合には、CPU11は、演奏データの先頭アドレスを、RAM13中のパラメータPADに格納する(ステップ703)。次いで、CPU11は、パラメータPADにて示される演奏データのレコードに、ステップタイム初期値を格納する(ステップ704)。ステップタイム初期値は任意の値(たとえば「0」)で良い。その後、CPU11は、アドレスを示すパラメータPADを歩進する(ステップ705)。また、CPU11は、演奏用カウンタによるカウントを開始する(ステップ706)。演奏用カウンタのカウンタ値も、他のカウンタと同様に、CPU11により所定の時間間隔で実行されるタイマインタラプト処理においてインクリメントされる。ステップ702でNoと判断された場合には、CPU11は、演奏用カウンタを停止し(ステップ707)、RAM13中の演奏終了フラグに「1」をセットする(ステップ708)。   If it is determined Yes in step 702, the CPU 11 stores the start address of the performance data in the parameter PAD in the RAM 13 (step 703). Next, the CPU 11 stores the step time initial value in the performance data record indicated by the parameter PAD (step 704). The step time initial value may be an arbitrary value (for example, “0”). Thereafter, the CPU 11 advances the parameter PAD indicating the address (step 705). Further, the CPU 11 starts counting by the performance counter (step 706). Similarly to the other counters, the counter value of the performance counter is also incremented in a timer interrupt process executed by the CPU 11 at predetermined time intervals. If it is determined No in step 702, the CPU 11 stops the performance counter (step 707) and sets a performance end flag in the RAM 13 to “1” (step 708).

ステップ507でNoと判断された場合には、CPU11は、状況確認スイッチがオンされたかを判断する(ステップ509)。ステップ509でYesと判断された場合には、CPU11は、RAM13中の確認フラグCFを「1」にセットする(ステップ510)。ステップ509でNoと判断された場合には、CPU21は、他のスイッチのオンに応じた処理(たとえば、音色指定スイッチに基づく、RAM23への音色情報の格納処理など)を実行する(ステップ511)。   When it is determined No in step 507, the CPU 11 determines whether the status confirmation switch is turned on (step 509). If it is determined Yes in step 509, the CPU 11 sets the confirmation flag CF in the RAM 13 to “1” (step 510). If it is determined No in step 509, the CPU 21 executes processing according to turning on other switches (for example, processing for storing timbre information in the RAM 23 based on the timbre designation switch) (step 511). .

スイッチ処理(ステップ202)が終了すると、CPU11は、鍵盤処理を実行する(ステップ203)。図8は、本実施の形態にかかる鍵盤処理の例を示すフローチャートである。図8に示すように、CPU11は、鍵を操作して、ある鍵について状態が変化したかを判断する(ステップ802)。鍵が新たにオンされた場合には、CPU11は、オンされた鍵に対応する音高で、所定の音色の楽音を発音するように、サウンドシステム17の音源部に指示する(ステップ803)。次いで、CPU11は、演奏フラグPFが「1」であるかを判断する(ステップ804)。   When the switch process (step 202) ends, the CPU 11 executes a keyboard process (step 203). FIG. 8 is a flowchart showing an example of keyboard processing according to the present embodiment. As shown in FIG. 8, the CPU 11 operates the key to determine whether the state has changed for a certain key (step 802). When the key is newly turned on, the CPU 11 instructs the sound source unit of the sound system 17 to generate a predetermined tone color tone at the pitch corresponding to the turned on key (step 803). Next, the CPU 11 determines whether or not the performance flag PF is “1” (step 804).

ステップ804でYesと判断された場合には、CPU11は、PADにて示される演奏データのレコードに、ステップタイムを格納する(ステップ805)。ステップタイムは、後述するようにRAM13に格納されるオン時刻Ontimeと、演奏用カウンタ値との差を演算することにより得ることができる。次いで、CPU11は、アドレスを示すパラメータPADを歩進する(ステップ806)。   When it is determined Yes in step 804, the CPU 11 stores the step time in the performance data record indicated by the PAD (step 805). As will be described later, the step time can be obtained by calculating the difference between the on-time Ontime stored in the RAM 13 and the performance counter value. Next, the CPU 11 advances a parameter PAD indicating an address (step 806).

CPU11は、PADにて示される演奏データのレコードに、オン状態となった鍵に対応する音高を格納する(ステップ807)。また、CPU11は、RAM13中の格納されたオン時刻Ontimeとして、演奏用カウンタ値を与える(ステップ808)。次いで、CPU11は、演奏データのアドレスを示すパラメータPADを歩進する(ステップ809)。   The CPU 11 stores the pitch corresponding to the key turned on in the performance data record indicated by the PAD (step 807). Further, the CPU 11 gives a performance counter value as the on-time Ontime stored in the RAM 13 (step 808). Next, the CPU 11 advances the parameter PAD indicating the performance data address (step 809).

ステップ802で、鍵が新たにオフされたと判断されると、CPU11は、オフとなった鍵に対応する音高の楽音の消音を、サウンドシステム17の音源部に指示する(ステップ810)。次いで、CPU11は、演奏フラグPFが「1」であるかを判断する(ステップ811)。ステップ811でYesと判断された場合には、CPU11は、PADにて示される演奏データのレコードに、ゲートタイムを格納する(ステップ812)。ゲートタイムは、RAM13中のオン時刻Ontime値と、現在の演奏用カウンタのカウンタ値との差を演算することにより得ることができる。次いで、CPU11は、演奏データのアドレスを示すパラメータPADを歩進する(ステップ809)。   If it is determined in step 802 that the key has been newly turned off, the CPU 11 instructs the sound source unit of the sound system 17 to mute the musical tone of the pitch corresponding to the key that has been turned off (step 810). Next, the CPU 11 determines whether or not the performance flag PF is “1” (step 811). If it is determined Yes in step 811, the CPU 11 stores the gate time in the performance data record indicated by the PAD (step 812). The gate time can be obtained by calculating the difference between the on-time Ontime value in the RAM 13 and the current counter value of the performance counter. Next, the CPU 11 advances the parameter PAD indicating the performance data address (step 809).

鍵盤処理(ステップ203)が終了すると、CPU11は、ソング処理を実行する(ステップ204)。図9および図10は、本実施の形態にかかるソング処理の例を示すフローチャートである。図9に示すように、CPU11は、デモフラグDFが「1」であるかを判断する(ステップ901)。ステップ901でYesと判断された場合には、第1および第2のデモ用カウンタの最小単位時間が経過しているかを判断する(ステップ902)。たとえば、ステップ902では、カウンタ値が前回のソング処理から変化しているか(増分しているか)を判断すれば良い。   When the keyboard process (step 203) ends, the CPU 11 executes a song process (step 204). 9 and 10 are flowcharts showing an example of song processing according to the present embodiment. As shown in FIG. 9, the CPU 11 determines whether the demo flag DF is “1” (step 901). If YES is determined in step 901, it is determined whether the minimum unit time of the first and second demo counters has elapsed (step 902). For example, in step 902, it may be determined whether the counter value has changed (increased) from the previous song processing.

ステップ902でYesと判断された場合には、第1のデモ用カウンタ値が、RAM13中のゲートタイム格納レジスタのレジスタ値GTより小さいかを判断する(ステップ903)。ステップ903では、後述するステップ1005で発音された楽音の消音時間に到達しているかが調べられている。ステップ903でNo、つまり、第1のデモ用カウンタのカウント値が、レジスタ値GT以上である場合には、CPU11は、現在発音されている楽音の消音を、サウンドシステム17の音源部に指示する(ステップ904)。また、CPU11は、第1のデモ用カウンタを停止するとともに、カウンタ値をクリアする(ステップ905)。   If it is determined Yes in step 902, it is determined whether the first demonstration counter value is smaller than the register value GT of the gate time storage register in the RAM 13 (step 903). In step 903, it is checked whether or not the mute time of the musical sound generated in step 1005 described later has been reached. If NO in step 903, that is, if the count value of the first demo counter is equal to or greater than the register value GT, the CPU 11 instructs the sound source unit of the sound system 17 to mute the currently sounded tone. (Step 904). Further, the CPU 11 stops the first demonstration counter and clears the counter value (step 905).

ステップ903でYesと判断された場合には、第2のデモ用カウンタのカウンタ値が、CPU11は、RAM13中のステップタイム格納レジスタのレジスタ値ST以上であるかを判断する(ステップ906)。ステップ906でNoと判断された場合には、ソング処理を終了する。ステップ906でYesと判断された場合には、CPU11は、曲データのアドレスを示すパラメータDADを歩進する(ステップ1001)。次いで、CPU11は、DADが、曲データの最終アドレス値以下であるかを判断する(ステップ1002)。ステップ1002でYesと判断された場合には、CPU11は、パラメータDADが示す曲データ中のレコードを取得する(ステップ1003)。   If it is determined Yes in step 903, the CPU 11 determines whether the counter value of the second demonstration counter is equal to or greater than the register value ST of the step time storage register in the RAM 13 (step 906). If NO in step 906, the song processing is terminated. If it is determined Yes in step 906, the CPU 11 advances the parameter DAD indicating the address of the song data (step 1001). Next, the CPU 11 determines whether the DAD is equal to or less than the final address value of the music data (step 1002). When it is determined Yes in step 1002, the CPU 11 acquires a record in the music data indicated by the parameter DAD (step 1003).

CPU11は、レコードがノートオンイベントを示すかを判断する(ステップ1004)。ステップ1004でYesと判断された場合には、CPU11は、曲データのレコード中の音高で、所定の音色の楽音を発音するように、サウンドシステム17の音源部に指示する(ステップ1005)。また、CPU11は、第1および第2のデモ用カウンタのカウンタ値をクリアする(ステップ1006)。その後、ステップ1001に戻る。   The CPU 11 determines whether the record indicates a note-on event (step 1004). If it is determined Yes in step 1004, the CPU 11 instructs the sound source unit of the sound system 17 to generate a predetermined tone color tone at the pitch in the record of the song data (step 1005). Further, the CPU 11 clears the counter values of the first and second demonstration counters (step 1006). Thereafter, the process returns to step 1001.

ステップ1004でNoと判断された場合には、CPU11は、レコードがゲートタイムであるかを判断する(ステップ1007)。ステップ1007でYesと判断された場合には、CPU11は、レコード中のゲートタイムを、ゲートタイム格納レジスタのレジスタ値GTとして格納する(ステップ1008)。その後、ステップ1001に戻る。ステップ1007でNoと判断された場合、つまり、レコードがステップタイムのレコードである場合には、CPU11は、レコード中のステップタイムを、ステップタイム格納レジスタのレジスタSTに格納する(ステップ1009)。   When it is determined No in step 1004, the CPU 11 determines whether the record is a gate time (step 1007). If it is determined Yes in step 1007, the CPU 11 stores the gate time in the record as the register value GT of the gate time storage register (step 1008). Thereafter, the process returns to step 1001. If it is determined No in step 1007, that is, if the record is a step time record, the CPU 11 stores the step time in the record in the register ST of the step time storage register (step 1009).

ソング処理(ステップ204)が終了すると、CPU11は、評価処理を実行する(ステップ205)。図11は、本実施の形態にかかる評価処理の例を示すフローチャートである。図11に示すように、CPU11は、演奏終了フラグが「1」であるかを判断する(ステップ1101)。ステップ1101でYesと判断された場合には、CPU11は、パラメータSongPtrで特定される楽曲の演奏回数を示す演奏回数レジスタ値count[SongPtr]を更新する(ステップ1102)。なお、ステップ1101〜1108のそれぞれにて利用されるレジスタは、RAM23中に設けられる。   When the song process (step 204) ends, the CPU 11 executes an evaluation process (step 205). FIG. 11 is a flowchart showing an example of evaluation processing according to the present embodiment. As shown in FIG. 11, the CPU 11 determines whether the performance end flag is “1” (step 1101). If it is determined Yes in step 1101, the CPU 11 updates a performance count register value count [SongPtr] indicating the number of performances of the music specified by the parameter SongPtr (step 1102). Note that registers used in steps 1101 to 1108 are provided in the RAM 23.

CPU11は、パラメータSongPtrで特定される楽曲の総演奏時間を示す演奏時間レジスタ値time[SongPtr]を更新する(ステップ1103)。演奏時間は、たとえば、演奏データの最初のノートオンにかかるレコードに含まれる時刻、最後のノートオンにかかるレコードに含まれる時刻、および、最後のレコードに含まれるゲートタイムに基づいて算出することができる。算出された演奏時間を、レジスタに格納された値に加算することにより、演奏時間レジスタ値time[SongPtr]を更新することがえきる。   The CPU 11 updates the performance time register value time [SongPtr] indicating the total performance time of the music specified by the parameter SongPtr (step 1103). The performance time can be calculated based on, for example, the time included in the record related to the first note-on of the performance data, the time included in the record related to the last note-on, and the gate time included in the last record. it can. By adding the calculated performance time to the value stored in the register, the performance time register value time [SongPtr] can be updated.

次いで、CPU11は、パラメータSongPtrで特定される楽曲について、技術クリアレベルレジスタ値tclear[SongPtr]を算出する(ステップ1104)。図12は、本実施の形態にかかる技術クリアレベルtclear[SongPtr]の算出処理の例を示すフローチャートである。なお、図12で得られるパラメータやレジスタ値は、RAM13中に格納される。図12に示すように、CPU11は、ある楽曲の技術要素tech[n]のそれぞれについて、その技術要素のクリア数clnum[tech[n]]を算出する(ステップ1201)。図13は、本実施の形態にかかるクリア数clnum[tech[n]]の例を示すフローチャートである。   Next, the CPU 11 calculates the technology clear level register value tclear [SongPtr] for the music specified by the parameter SongPtr (step 1104). FIG. 12 is a flowchart illustrating an example of a process for calculating the technology clear level tclear [SongPtr] according to the present embodiment. Note that the parameters and register values obtained in FIG. 12 are stored in the RAM 13. As shown in FIG. 12, the CPU 11 calculates the technical element clear number clnum [tech [n]] for each technical element tech [n] of a certain musical piece (step 1201). FIG. 13 is a flowchart illustrating an example of the clear number clnum [tech [n]] according to the present embodiment.

まず、CPU11は、技術要素tech[n]を特定するためのパラメータnを「0」に初期化する(ステップ1301)。次いで、CPU11は、演奏要素tech[n]についてのクリアフラグclear[tech[n]]が「0」であるかを判断する(ステップ1302)。クリアフラグclear[tech[n]]は、演奏者が、楽曲においてtech[n]で示される技術要素を既にクリアしているかを示す。ステップ1302でNo、つまり、クリアフラグclear[tech[n]]=1である場合には、ステップ1310に進む。   First, the CPU 11 initializes a parameter n for specifying the technical element tech [n] to “0” (step 1301). Next, the CPU 11 determines whether the clear flag clear [tech [n]] for the performance element tech [n] is “0” (step 1302). The clear flag clear [tech [n]] indicates whether the performer has already cleared the technical element indicated by the technique [n] in the music. If No in step 1302, that is, if the clear flag clear [tech [n]] = 1, the process proceeds to step 1310.

ステップ1302でYesと判断された場合には、楽曲にあらわれる演奏要素tech[n]の数を示すパラメータtechnum[tech[n]]および技術要素のクリア数clnum[tech[n]]を、それぞれ「0」に初期化する(ステップ1303)。CPU11は、RAM13の曲データにおいて、tech[n]のサブレコードを含むノートオンイベントのレコードを取得する(ステップ1304)。また、CPU11は、パラメータtechnum[tech[n]]をインクリメントする(ステップ1305)。また、CPU11は、RAM13の演奏データにおいて、対応するノートオンイベントのレコードを特定する(ステップ1306)。   If it is determined as Yes in step 1302, the parameter technology [tech [n]] indicating the number of performance elements tech [n] appearing in the music and the technical element clear number clnum [tech [n]] are respectively set to “ It is initialized to “0” (step 1303). The CPU 11 acquires a record of the note-on event including the sub record of tech [n] in the music data in the RAM 13 (step 1304). Further, the CPU 11 increments the parameter technology [tech [n]] (step 1305). Further, the CPU 11 specifies a corresponding note-on event record in the performance data of the RAM 13 (step 1306).

次いで、CPU11は、曲データのノートオンイベントのレコードおよび関連するゲートタイム、ステップタイムのレコードと、演奏データの対応するノートオンイベントのレコードおよび関連するゲートタイム、ステップタイムのレコードと、を比較して、ノートオンイベントが示す押鍵において、tech[n]が示す技術要素がクリアされたかを判断する(ステップ1307)。たとえば、ノートオンイベントが示す音高や、押鍵タイミングが、双方のデータのレコードで一致する場合には、技術要素がクリアされたと判断すれば良い。   Next, the CPU 11 compares the note-on event record of the song data and the related gate time / step time record with the corresponding note-on event record of the performance data and the related gate time / step time record. Then, it is determined whether the technical element indicated by tech [n] has been cleared in the key depression indicated by the note-on event (step 1307). For example, when the pitch indicated by the note-on event and the key pressing timing match in both data records, it may be determined that the technical element has been cleared.

ステップ1307でYesと判断された場合には、CPU11は、技術要素tech[n]のクリア数clnum[tech[n]]をインクリメントする(ステップ1308)。CPU11は、処理対象となるレコードが曲データの末尾まで到達したかを判断し(ステップ1309)、ステップ1309でNoと判断された場合には、ステップ1304に戻る。ステップ1309でYesと判断された場合には、CPU11は、パラメータnをインクリメントし(ステップ1310)、全ての技術要素tech[n]について処理が終了しているか(つまり、n>N−1であるか)を判断する(ステップ1311)。ステップ1311でYesと判断された場合には処理を終了する。その一方、ステップ1311でNoと判断された場合にはステップ1302に戻る。   If it is determined Yes in step 1307, the CPU 11 increments the clear number clnum [tech [n]] of the technical element tech [n] (step 1308). The CPU 11 determines whether the record to be processed has reached the end of the song data (step 1309). If NO is determined in step 1309, the process returns to step 1304. If it is determined Yes in step 1309, the CPU 11 increments the parameter n (step 1310), and the processing has been completed for all the technical elements tech [n] (that is, n> N−1). (Step 1311). If it is determined YES in step 1311, the process ends. On the other hand, if NO is determined in step 1311, the process returns to step 1302.

ステップ1201が終了すると、CPU11は、ある楽曲の技術要素tech[n]のそれぞれについて、技術要素tech[n]のクリア率clrate[tech[n]]を算出する(ステップ1202)。クリア率clrate[tech[n]]は、以下の式に基づき算出することができる。   When step 1201 ends, the CPU 11 calculates a clear rate “crate [tech [n]] of the technical element tech [n] for each technical element tech [n] of a certain music piece (step 1202). The clear rate clrate [tech [n]] can be calculated based on the following equation.

clrate[tech[n]]
=clnum[tech[n]]/technum[tech[n]]
CPU11は、クリア率clrate[tech[n]]に基づき、楽曲の技術要素tech[n]についてのクリアフラグclear[tech[n]]を取得する(ステップ1203)。クリアフラグは、既にclear[tech[n]]=1であるようなクリアフラグ以外のものについて、clrate[tech[n]]が、所定の閾値(たとえば、0.75)より大きい場合に、clear[tech[n]]=1とすれば良い。
cllate [tech [n]]
= Clnum [tech [n]] / technum [tech [n]]
The CPU 11 acquires the clear flag clear [tech [n]] for the technical element technical [n] of the music based on the clear rate clrate [tech [n]] (step 1203). For clear flags other than the clear flag that already has clear [tech [n]] = 1, if clear [tech [n]] is greater than a predetermined threshold (for example, 0.75), clear [Tech [n]] = 1 may be set.

その後、CPU11は、クリアフラグclear[tech[n]]および当該技術要素の技術難度tdiff[tech[n]]に基づき、楽曲についての技術クリアレベルtclear[SongPtr]を得る(ステップ1204)。技術クリアレベルtclear[SongPtr]は、以下の数式に基づき算出することが出来る。   Thereafter, the CPU 11 obtains a technical clear level tclear [SongPtr] for the music based on the clear flag clear [tech [n]] and the technical difficulty tdiff [tech [n]] of the technical element (step 1204). The technology clear level tclear [SongPtr] can be calculated based on the following mathematical formula.

tclear[SongPtr]
=Σclear[tech[n]]×tdiff[tech[n]]
ステップ1104が終了すると、CPU11は、パラメータSongPtrで特定される楽曲について、演奏評価レジスタ値eval[SongPtr]を算出する(ステップ1105)。演奏評価レジスタの値である演奏評価値は、たとえば、以下のように算出することができる。
tclear [SongPtr]
= Σclear [tech [n]] × tdiff [tech [n]]
When step 1104 ends, the CPU 11 calculates a performance evaluation register value eval [SongPtr] for the music specified by the parameter SongPtr (step 1105). The performance evaluation value, which is the value of the performance evaluation register, can be calculated as follows, for example.

CPU11は、曲データのノートオンイベント、当該ノートオンイベントに関連するステップタイムおよびゲートタイムのレコードと、演奏データにおいて、当該ノートオンイベントに対応する、ノートオンイベント、当該ノートオンイベントに関連するステップタイムおよびゲートタイムのレコードと、を比較する。比較においては、CPU11は、曲データに基づく模範演奏における音高、押鍵時刻、押鍵時間と、演奏データに基づく演奏者による実際の演奏における音高、押鍵時刻、押鍵時間と、のそれぞれの差分((曲データにおける音高−演奏データにおける音高)、(曲データにおける押鍵時刻−演奏データにおける押鍵時刻)、(曲データにおける押鍵時間−演奏データにおける押鍵時間))を算出する。   The CPU 11 has a note-on event corresponding to the note-on event and a step related to the note-on event corresponding to the note-on event in the record data of the note-on event of the song data, the step time and gate time related to the note-on event Compare time and gate time records. In the comparison, the CPU 11 compares the pitch, key pressing time, and key pressing time in the exemplary performance based on the song data with the pitch, key pressing time, and key pressing time in the actual performance by the performer based on the performance data. Differences ((pitch in song data−pitch in performance data), (key press time in song data−key press time in performance data), (key press time in song data−key press time in performance data)) Is calculated.

CPU11は、上記差分値の二乗和の平方根(模範演奏と実際の演奏との間の距離)を算出して、DPマッチングの技法により、模範演奏と実際の演奏との相違を示す指標値を算出し、これを演奏評価レジスタ値eval[SongPtr]とすれば良い。   The CPU 11 calculates the square root of the sum of squares of the above difference values (distance between the model performance and the actual performance), and calculates an index value indicating the difference between the model performance and the actual performance by the DP matching technique. Then, this may be used as the performance evaluation register value eval [SongPtr].

次いで、CPU11は、演奏者における技術要素tech[n]ごとのスキルレベルレジスタ値Skill[tech[n]]を更新する(ステップ1106)。図14は、スキルレベルレジスタの値(スキルレベル値)Skill[tech[n]]の算出例を示すフローチャートである。なお、図14の処理においても、各種パラメータはRAM13に格納される。   Next, the CPU 11 updates the skill level register value Skill [tech [n]] for each technical element tech [n] in the performer (step 1106). FIG. 14 is a flowchart illustrating an example of calculating a skill level register value (skill level value) Skill [tech [n]]. In the process of FIG. 14 as well, various parameters are stored in the RAM 13.

図14に示すように、CPU11は、技術要素tech[n]を特定するためのパラメータnを「0」に初期化する(ステップ1401)。CPU11は、予めRAM13に格納されていた累算技術要素数Acctechnum[tech[n]]に、ステップ1201で得られた技術要素数technum[tech[n]]を加算する(ステップ1402)。また、CPU11は、RAM13に格納された累算クリア要素数Accclnu[tech[n]]に、ステップ1201で得られたクリア要素数clnum[tech[n]]を加算する。楽曲の演奏を繰り返すのにしたがって、演奏の際に現れた技術要素数は、累算技術要素数Acctechnum[tech[n]]として蓄積され、また、クリアされた技術要素数も、累算クリア要素数Accclnu[tech[n]]として蓄積される。   As shown in FIG. 14, the CPU 11 initializes a parameter n for specifying the technical element tech [n] to “0” (step 1401). The CPU 11 adds the technical element number technum [tech [n]] obtained in step 1201 to the accumulated technical element number Actechnum [tech [n]] stored in the RAM 13 in advance (step 1402). Further, the CPU 11 adds the number of clear elements clnum [tech [n]] obtained in step 1201 to the accumulated clear element number Accclnu [tech [n]] stored in the RAM 13. As the performance of the music is repeated, the number of technical elements that appear during the performance is accumulated as the accumulated technical element number Acttechnum [tech [n]], and the cleared technical element number is also the accumulated clear element. Stored as the number Accclnu [tech [n]].

次いで、CPU11は、累算技術要素数Acctechnum[tech[n]]および累算クリア要素数Accclnum[tech[n]]に基づき、技術要素tech[n]についてのスキルレベルレジスタの値(スキルレベル値)Skill[tech[n]]を算出する(ステップ1403)。スキルレベル値は以下のように算出することができる。   Next, the CPU 11 determines the value of the skill level register (skill level value) for the technical element tech [n] based on the accumulated technical element number Acttechnum [tech [n]] and the accumulated clear element number Accclnum [tech [n]]. ) Calculate Skill [tech [n]] (step 1403). The skill level value can be calculated as follows.

Skill[tech[n]]=
Accclnum[tech[n]]/Acctechnum[tech[n]]
すなわち、スキルレベル値は、技術要素tech[n]について演奏した全ての楽曲を考慮した、演奏要素のクリアの割合を示す。
Skill [tech [n]] =
Acccnum [tech [n]] / Acctnum [tech [n]]
That is, the skill level value indicates the percentage of performance element clear in consideration of all the music pieces played for the technical element tech [n].

その後、CPU11は、パラメータnをインクリメントする(ステップ1404)。CPU11は、全ての技術要素tech[n]について処理が終了しているか(つまり、n>N−1であるか)を判断する(ステップ1405)。ステップ1405でYesと判断された場合には処理を終了する。その一方、ステップ1405でNoと判断された場合にはステップ1402に戻る。得られたスキルレベル値は、初期的には「0」であり、種々の楽曲の演奏を繰り返して、当該技術要素をクリアしていくのにしたがって、値が「1」に近付いていく。   Thereafter, the CPU 11 increments the parameter n (step 1404). The CPU 11 determines whether the processing has been completed for all the technical elements tech [n] (that is, whether n> N−1) (step 1405). If it is determined YES in step 1405, the process ends. On the other hand, if NO is determined in step 1405, the process returns to step 1402. The obtained skill level value is initially “0”, and the value approaches “1” as the performance of various musical pieces is repeated and the technical element is cleared.

次いで、CPU11は、演奏者の達成度を考慮した、楽曲SongPtrの難度レジスタの値SongDiff[SongPtr]を更新する(ステップ1107)。各技術要素tech[n]についてのクリア率clrate[tech[n]]と、その技術難度を示すtdiff[tech[n]]に基づいて、以下のように算出することができる。   Next, the CPU 11 updates the value of the song SongPtr difficulty register SongDiff [SongPtr] in consideration of the achievement level of the performer (step 1107). Based on the clear rate “crate [tech [n]]” for each technical element “tech [n]” and “tdiff [tech [n]]” indicating the technical difficulty level, it can be calculated as follows.

CPU11は、演奏者が楽曲SongPtrを演奏することで、達成された難度Σclrate[tech[n]]×tdiff[tech[n]]を算出する。次いで、楽曲に固有の難度総計diffから、演奏者により達成された難度Σclrate[tech[n]]×tdiff[tech[n]]を減じれば良い。つまり、演奏者の達成度を考慮した難度値は、
SongDiff[SongPtr]=diff[SongPtr]
−Σclrate[tech[n]]×tdiff[tech[n]]
により算出することができる。
The CPU 11 calculates the difficulty Σclrate [tech [n]] × tdiff [tech [n]] achieved when the performer plays the song SongPtr. Next, the difficulty level Σclrate [tech [n]] × tdiff [tech [n]] achieved by the performer may be subtracted from the total difficulty level diff inherent to the music. In other words, the difficulty value considering the achievement level of the performer is
SongDiff [SongPtr] = diff [SongPtr]
−Σcllate [tech [n]] × tdiff [tech [n]]
Can be calculated.

次いで、CPU11は、選択されたソングセットSetPtrについてのクリアフラグClflg[SetPtr]のセットを判定する(ステップ1108)。ステップ1108において、ソングセットSetPtrに含まれる楽曲について、一定の技術要素をクリアした場合に、クリアフラグClflg[SetPtr]が「1」にセットされる。   Next, the CPU 11 determines the set of the clear flag Clflg [SetPtr] for the selected song set SetPtr (step 1108). In step 1108, when certain technical elements are cleared for the music included in the song set SetPtr, the clear flag Clflg [SetPtr] is set to “1”.

より具体的には、CPU11は、各楽曲についての技術クリアレベルtclear[SongPtr]が、それぞれ一定の第1の閾値より大きいこと、および、演奏評価値eval[SongPtr]が、それぞれ所定の第2の閾値より小さいことが成立していれば、クリアフラグClflg[SetPtr]が「1」にセットされる。   More specifically, the CPU 11 determines that the technology clear level tclear [SongPtr] for each song is greater than a certain first threshold value, and that the performance evaluation value eval [SongPtr] is a predetermined second value. If it is established that the value is smaller than the threshold value, the clear flag Clflg [SetPtr] is set to “1”.

評価処理(ステップ205)が終了すると、CPU11は、状況確認処理を実行する(ステップ206)。図15、16は、本実施の形態にかかる状況確認処理の例を示すフローチャートである。状況確認処理においては、現在の演奏者による教習状況に基づく画像が生成される。図15に示すように、CPU11は、RAM13から変換前の元画像の画像データを取得する(ステップ1501)。また、CPU11は、選択されたソングセットSongSetPtrに含まれるソング数Mを取得する(ステップ1502)とともに、演奏要素tech[]の総数Nを取得する(ステップ1503)。   When the evaluation process (step 205) ends, the CPU 11 executes a status confirmation process (step 206). 15 and 16 are flowcharts showing an example of the status confirmation process according to the present embodiment. In the situation confirmation process, an image based on the current situation of learning by the performer is generated. As shown in FIG. 15, the CPU 11 acquires image data of the original image before conversion from the RAM 13 (step 1501). Further, the CPU 11 obtains the number M of songs included in the selected song set SongSetPtr (step 1502) and obtains the total number N of performance elements tech [] (step 1503).

次いで、CPU11は、RAM13中に、変換済画像の画像データを格納するための画像エリアを確保して、当該画像エリアに、元画像の画像データをコピーする(ステップ1504)。CPU11は、ソング数Mにしたがって、画像エリアを、M分割する(ステップ1505)。また、CPU11は、画像エリアを指定するためのパラメータiを「0」に初期化する(ステップ1506)。   Next, the CPU 11 secures an image area for storing the image data of the converted image in the RAM 13, and copies the image data of the original image to the image area (step 1504). The CPU 11 divides the image area into M according to the number of songs M (step 1505). Further, the CPU 11 initializes a parameter i for designating an image area to “0” (step 1506).

CPU11は、パラメータiがソング数Mより小さいかを判断し(ステップ1507)、ステップ1507でNoと判断された場合には、CPU11は、画像エリア中に生成された変換済画像の画像データを取得して、取得したデータに基づく画像を表示装置16の画面上に表示する(ステップ1508)。その後、状況確認処理を終了する。ステップ1507でYesと判断された場合には、CPU11は、難度値SongDiff[i]に基づいて、分割されたエリアの画像の濃度変換を行なう(ステップ1601)。前述したように、楽曲iについて、演奏者の達成度を考慮した難度値であり、以下のように表される。   The CPU 11 determines whether or not the parameter i is smaller than the number of songs M (step 1507). If NO is determined in step 1507, the CPU 11 acquires the image data of the converted image generated in the image area. Then, an image based on the acquired data is displayed on the screen of the display device 16 (step 1508). Thereafter, the status confirmation process is terminated. If it is determined Yes in step 1507, the CPU 11 performs density conversion of the image of the divided area based on the difficulty value SongDiff [i] (step 1601). As described above, the music i is a difficulty value in consideration of the achievement level of the performer, and is expressed as follows.

SongDiff[i]=diff[i]
−Σclrate[tech[n]]×tdiff[tech[n]]
上記SongDiffは、技術要素のクリアの度合いが大きくなるのにしたがって減少し、全ての技術要素をクリアした段階で「0」となる。したがって、画像エリア中の画素の濃度値Dを、SongDiffの初期値(=diff)のときには、Dより大きい所定の値Dintとして、すべての技術要素をクリアした状態のときに、濃度値が当初の値Dorgとなるように算出すれば良い。すなわち、CPU11は、濃度値Dを、
D=(Dint−Dorg)/diff[i]×SongDiff[i]+Dorg
により算出すれば良い。
SongDiff [i] = diff [i]
−Σcllate [tech [n]] × tdiff [tech [n]]
The SongDiff decreases as the degree of clearing of the technical elements increases, and becomes “0” when all the technical elements are cleared. Therefore, when the density value D of the pixel in the image area is the initial value (= diff) of SongDiff, the density value is the initial value when all technical elements are cleared as a predetermined value Dint larger than D. What is necessary is just to calculate so that it may become a value Dorg. That is, the CPU 11 sets the density value D to
D = (Dint−Dorg) / diff [i] × SongDiff [i] + Dorg
It may be calculated by the following.

次いで、CPU11は、演奏回数値count[i]および演奏時間値time[i]に基づいて、分割されたエリアの画像の彩度変換を行なう(ステップ1602)。演奏回数値count[i]および演奏時間値time[i]は、楽曲を演奏するたびに値が加算される。これら指標値に重みを与えた変数(a×count[i]+b×time[i])が、「0」(つまり練習当初)のときには、画素の彩度が初期値Sintであり、上記変数がTH以上のときには、画素の彩度が当初の値Sorgとなるように算出すれば良い。つまり、CPU11は、画素の彩度値Sを、
S=(Sorg−Sing)/TH×(a×count[i]+b×time[i])
+Sorg
により算出すれば良い。
Next, the CPU 11 performs saturation conversion of the image of the divided area based on the performance count value count [i] and the performance time value time [i] (step 1602). The performance count value count [i] and the performance time value time [i] are added each time a musical piece is played. When the variable (a × count [i] + b × time [i]) giving weights to these index values is “0” (that is, at the beginning of practice), the saturation of the pixel is the initial value Sint, and the above variable is When it is greater than or equal to TH, the saturation of the pixel may be calculated to be the initial value Sorg. That is, the CPU 11 determines the saturation value S of the pixel as
S = (Sorg−Sing) / TH × (a × count [i] + b × time [i])
+ Sorg
It may be calculated by

次いで、CPU11は、スキルレベル値を特定するためのパラメータpを、p=i×N/Mにより求める(ステップ1603)。本実施の形態においては、i×N/Mの小数点以下を切り捨てて、整数値pが得られる。CPU11は、得られたpにより特定される、スキルレベル値Skill[p]に基づいて、処理対象となっているi番のエリアを再度分割する(ステップ1604)。前述したように、スキルレベル値は、初期的には「0」であり、種々の楽曲の演奏を繰り返して、当該技術要素をクリアしていくのにしたがって、値が「1」に近付いていくものである。したがって、i番のエリアの解像度を、q倍(0≦q≦1)、すなわち、エリアに含まれる画素数PNを、q×PNとなるように、エリアを分割すれば良い。   Next, the CPU 11 obtains a parameter p for specifying the skill level value by p = i × N / M (step 1603). In the present embodiment, the integer value p is obtained by rounding off the decimal part of i × N / M. The CPU 11 again divides the i-th area to be processed based on the skill level value Skill [p] specified by the obtained p (step 1604). As described above, the skill level value is initially “0”, and the value approaches “1” as the performance of various musical pieces is repeated and the technical element is cleared. Is. Therefore, the area may be divided so that the resolution of the i-th area is q times (0 ≦ q ≦ 1), that is, the number of pixels PN included in the area is q × PN.

図17は、本実施の形態における画像エリアの分割の例を示す図である。図17に示す例においては、ソング数M=16(i=0〜15)であり、また、演奏技術値tech[]の総数(技術要素数)N=7である(p=0〜6)。この場合には、画像エリアは、ソング数Mに応じた16分割されるとともに(たとえば、符号1701、1702参照)、技術要素数Mにしたがって、p=i×N/Mとなるようにp分割される(たとえば、符号1711、1712参照)。   FIG. 17 is a diagram illustrating an example of image area division according to the present embodiment. In the example shown in FIG. 17, the number of songs M = 16 (i = 0 to 15), and the total number of performance technical values tech [] (number of technical elements) N = 7 (p = 0 to 6). . In this case, the image area is divided into 16 according to the number of songs M (see, for example, reference numerals 1701 and 1702), and according to the number of technical elements M, p is divided so that p = i × N / M. (See, for example, reference numerals 1711 and 1712).

符号1701で特定されるエリアは、スキルレベル値Skill[0]にしたがって、再分割され、後述するように、再分割されたエリアに平滑化処理が施される。符号1701で特定されるエリアにおいても、同様に、スキルレベル値Skill[0]にしたがって、再分割され、後述するように、再分割されたエリアに平滑化処理が施される。   The area specified by reference numeral 1701 is subdivided according to the skill level value Skill [0], and smoothing processing is performed on the subdivided area as will be described later. Similarly, the area identified by reference numeral 1701 is also subdivided according to the skill level value Skill [0], and smoothing processing is performed on the subdivided area as will be described later.

次いで、CPU11は、再分割されたエリアを特定するためのパラメータjを「0」に初期化し(ステップ1605)、パラメータjが分割数より小さいかを判断する(ステップ1606)。ステップ1606でNoと判断された場合には、CPU11は、パラメータiをインクリメントして(ステップ1609)、ステップ1507に戻る。ステップ1607でYesと判断された場合には、CPU11は、パラメータjで特定される、再分割されたエリアにおいて、当該エリアに含まれる画素値を平滑化する(ステップ1607)。これは、再分割されたエリアに含まれる画素値の平均値をとり、当該平均値を、再分割されたエリアの画素値とすれば良い。次いで、CPU11は、パラメータjをインクリメントして(ステップ1608)、ステップ1606に戻る。   Next, the CPU 11 initializes a parameter j for specifying the subdivided area to “0” (step 1605), and determines whether the parameter j is smaller than the number of divisions (step 1606). If it is determined No in step 1606, the CPU 11 increments the parameter i (step 1609) and returns to step 1507. If it is determined Yes in step 1607, the CPU 11 smoothes the pixel values included in the subdivided area specified by the parameter j (step 1607). This may be done by taking the average value of the pixel values included in the subdivided area and setting the average value as the pixel value of the subdivided area. Next, the CPU 11 increments the parameter j (step 1608) and returns to step 1606.

状況確認処理によって、画像エリアには、楽曲に対応するエリアにおいて、当該楽曲についての演奏者の達成度を考慮した難度値Songdiffに基づいて濃度が変換され、、演奏回数および演奏時間に基づいて彩度が変換され、さらには、スキルレベル値に応じて、画素の解像度が変更されたような変換済画像の画像データが格納される。したがって、ステップ1508においては、上述したような変換済画像の画像データに基づく画像が、表示装置16の画面上に表示される。   By the situation confirmation processing, the density is converted into the image area based on the difficulty value Songdiff in consideration of the achievement level of the performer for the music in the area corresponding to the music, and the image area is colored based on the number of performances and the performance time. The degree is converted, and further, the image data of the converted image in which the resolution of the pixel is changed according to the skill level value is stored. Accordingly, in step 1508, an image based on the image data of the converted image as described above is displayed on the screen of the display device 16.

状況確認処理(ステップ206)が終了すると、CPU11は、その他の処理を実行する(ステップ207)。その他の処理には、変換済画像の表示以外の、表示装置16にける画像の更新などが含まれる。   When the status confirmation process (step 206) ends, the CPU 11 executes other processes (step 207). Other processing includes updating the image on the display device 16 other than displaying the converted image.

本実施の形態によれば、CPU11は、楽曲についての音高情報や時間情報を含む曲データと、演奏者による演奏に基づく演奏データとを比較して、所定の音符のそれぞれについての技術要素のクリア状況を、技術クリアレベル値tclearを算出することにより判断し、かつ、技術要素ごとの演奏者の達成度を示す情報(スキルレベル値skill)を生成する。また、CPU11は、演奏者による楽曲の演奏時間timeおよび演奏回数countを含む、演奏者による練習状況に基づき、楽曲ごとの当該練習状況を示す指標値を生成する。CPU11は、楽曲数に基づいて元画像を分割し、練習状況を示す指標値に基づき、分割されたエリアの部分画像における構成要素(たとえば、彩度および濃度)を変換するとともに、技術要素数に基づき元画像を別途分割し、技術要素ごとの達成度を示す情報に基づき、別途分割されたエリアの部分画像における他の構成要素(たとえば、解像度)を変換して、変換済の画像データを生成する。   According to the present embodiment, the CPU 11 compares the music data including pitch information and time information about the music with the performance data based on the performance by the performer, and determines the technical elements for each of the predetermined notes. The clear status is determined by calculating the technical clear level value tclear, and information (skill level value skill) indicating the achievement level of the player for each technical element is generated. Further, the CPU 11 generates an index value indicating the practice situation for each piece of music based on the practice situation by the performer including the performance time time and the number of performances of the music by the performer. The CPU 11 divides the original image based on the number of music pieces, converts the constituent elements (for example, saturation and density) in the partial image of the divided area based on the index value indicating the practice situation, and changes the number of technical elements. Based on the information indicating the achievement level for each technical element, the original image is divided separately, and other component elements (for example, resolution) in the partial image of the separately divided area are converted to generate converted image data. To do.

変換済の画像を表示装置の画面状況を表示することにより、演奏に必要な技術要素の達成度、および、楽曲ごとの練習状況の双方を演奏者は把握することができる。また、元画像の構成要素を変換した変換済の画像を表示するため、技術要素の達成度や演奏状況を、画像の変化により確認することができる。   By displaying the converted image on the screen status of the display device, the performer can grasp both the achievement level of the technical elements necessary for performance and the practice status for each music piece. Further, since the converted image obtained by converting the constituent elements of the original image is displayed, the achievement level and performance status of the technical elements can be confirmed by the change of the image.

また、本実施の形態においては、画像変換手段が、演奏時間および演奏回数が増大するのにしたがって、変換済みの画像データの構成要素(彩度および濃度)が、元画像の画像データの構成要素の値に近くなるように、また、技術要素ごとの演奏者の達成度が高くなるのにしたがって、変換済みの画像データの他の構成要素(解像度)が、元画像の画像データの対応する構成要素の値に近くなるように、変換済みの画像データを生成する。これにより、演奏者に、練習を重ねることにより徐々に元画像を表示させるという、演奏行為における楽しみを与えることができる。   Further, in the present embodiment, as the performance time and the number of performances of the image conversion means increase, the component (saturation and density) of the converted image data is the component of the image data of the original image. As the player's achievement level for each technical element increases, other components (resolution) of the converted image data correspond to the corresponding configuration of the image data of the original image. The converted image data is generated so as to be close to the element value. Thereby, it is possible to give the performer pleasure in the performance act of gradually displaying the original image by practicing.

たとえば、本実施の形態においては、CPU11は、楽曲ごとに、クリア状況に基づき、当該技術要素の技術クリアレベルtclearを算出し、また、全ての楽曲のクリアレベルに基づき、技術要素ごとの達成度を示すスキルレベル値skillを生成する。これにより、単に技術要素の難度ではなくユーザが克服した難度を考慮した演奏評価が可能となる。   For example, in the present embodiment, the CPU 11 calculates the technical clear level tclear of the technical element based on the clear status for each musical piece, and achieves the achievement level for each technical element based on the clear level of all musical pieces. A skill level value skill is generated. As a result, it is possible to perform performance evaluation considering not only the difficulty of technical elements but also the difficulty overcome by the user.

また、本実施の形態においては、CPU11は、楽曲ごとのクリア状況に基づき、楽曲ごとに、演奏者による全ての技術要素を考慮した演奏レベルを示す難度SongDiffを算出する。CPU11は、楽曲ごとの難度SongDiffに基づき、分割されたエリアの部分画像の構成要素(たとえば濃度)を変換するように構成されている。   Further, in the present embodiment, the CPU 11 calculates the difficulty SongDiff indicating the performance level in consideration of all technical elements by the performer for each song based on the clear status for each song. CPU11 is comprised so that the component (for example, density | concentration) of the partial image of the divided area may be converted based on difficulty SongDiff for every music.

本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。   The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.

たとえば、前記実施の形態において、算出される演奏者の達成度を考慮した難度値SongDiffや、演奏者ごとの技術要素についてのスキルレベル値Skill[tech[n]]などを算出しているが、これらの算出手法は、上記実施の形態において記載したものに限定されない。たとえば、スキルレベル値Skill[tech[n]]は、以下のように算出することができる。図18は、他の実施の形態にかかるスキルレベル値の算出処理の例を示すフローチャートである。図18に示す例においても、パラメータや値はRAM13に格納される。   For example, in the above-described embodiment, the difficulty level value SongDiff taking into account the achievement level of the performer calculated, the skill level value Skill [tech [n]] for the technical element for each performer, and the like are calculated. These calculation methods are not limited to those described in the above embodiment. For example, the skill level value Skill [tech [n]] can be calculated as follows. FIG. 18 is a flowchart illustrating an example of a skill level value calculation process according to another embodiment. Also in the example shown in FIG. 18, parameters and values are stored in the RAM 13.

図18に示すように、CPU11は、技術要素tech[n]を特定するためのパラメータnを「0」に初期化する(ステップ1801)。次いで、スキルレベルフラグskf[tech[n]]が「1」であるかを判断する(ステップ1802)。スキルレベルフラグskfは、技術要素tech[n]について演奏者が既にクリアしているかを示すフラグである。ステップ1802でNoと判断された場合には、ステップ1806に進む。   As shown in FIG. 18, the CPU 11 initializes a parameter n for specifying the technical element tech [n] to “0” (step 1801). Next, it is determined whether the skill level flag skf [tech [n]] is “1” (step 1802). The skill level flag skf is a flag indicating whether or not the performer has already cleared the technical element tech [n]. If it is determined No in step 1802, the process proceeds to step 1806.

ステップ1802でYesと判断された場合には、CPU11は、RAM13から、現在選択されている楽曲SongPtrについてのクリアフラグclear[tech[n]]を取得する(ステップ1803)。次いで、CPU11は、クリアフラグclear[tech[n]]が「1」であるかを判断する(ステップ1804)。ステップ1804でYesと判断された場合には、CPU11は、スキルレベルフラグskf[tech[n]]を「1」にセットする(ステップ1805)。   If it is determined Yes in step 1802, the CPU 11 acquires from the RAM 13 a clear flag clear [tech [n]] for the currently selected song SongPtr (step 1803). Next, the CPU 11 determines whether or not the clear flag clear [tech [n]] is “1” (step 1804). If it is determined Yes in step 1804, the CPU 11 sets the skill level flag skf [tech [n]] to “1” (step 1805).

CPU11は、現在処理対象となっている楽曲SongPtrについてのスキルレベル値Songskill[tech[n]]=skf[tech[n]]×tdiff[tech[n]]を算出する(ステップ1807)。次いで、すべての楽曲について、スキルレベル値Songskill[tech[n]]の総和を算出して、得られた総和を、スキルレベル値Skill[tech[n]]とする(ステップ1808)。   The CPU 11 calculates a skill level value Songskill [tech [n]] = skf [tech [n]] × tdiff [tech [n]] for the song SongPtr currently being processed (step 1807). Next, the sum of the skill level values Songskill [tech [n]] is calculated for all the music pieces, and the obtained sum is used as the skill level value Skill [tech [n]] (step 1808).

その後、CPU11は、パラメータnをインクリメントし(ステップ1808)、全ての技術要素tech[n]について処理が終了しているか(つまり、n>N−1であるか)を判断する(ステップ1809)。ステップ1809でYesと判断された場合には処理を終了する。その一方、ステップ1809でNoと判断された場合にはステップ1802に戻る。   Thereafter, the CPU 11 increments the parameter n (step 1808), and determines whether the processing has been completed for all technical elements tech [n] (that is, whether n> N−1) (step 1809). If it is determined Yes in step 1809, the process ends. On the other hand, if NO is determined in step 1809, the process returns to step 1802.

このようにして得たスキルレベル値Skill[tech[n]]は、演奏者による楽曲の演奏が繰り返されることにより増大する。そこで、状況確認処理のステップ1607において、以下のように平滑化を実現することができる。Skill[tech[n]]が所定の閾値Sth以下であれば、
解像度q=Skill[tech[n]]/Sth、
Skill[tech[n]]が閾値Sthより大きければ、
q=1として、得られた解像度qに基づいて平滑化を行なえば良い。
The skill level value Skill [tech [n]] obtained in this way increases as the musicians perform the music repeatedly. Therefore, in step 1607 of the situation confirmation process, smoothing can be realized as follows. If Skill [tech [n]] is less than or equal to a predetermined threshold Sth,
Resolution q = Skill [tech [n]] / Sth,
If Skill [tech [n]] is greater than the threshold Sth,
Assuming q = 1, smoothing may be performed based on the obtained resolution q.

また、前記実施の形態においては、楽曲iについて、演奏者の達成度を考慮した難度値SongDiff[i]、演奏回数Count[i]、演奏時間time[i]について、画像の構成要素(たとえば、濃度や彩度)を割り当てて、画像を変換している。しかしながら、他の指標値を用いて、画像変換を行なっても良い。   In the embodiment, for the music i, the image elements (for example, the difficulty value SongDiff [i], the number of performances Count [i], and the performance time time [i] taking into account the achievement level of the performer) The image is converted by assigning density and saturation. However, image conversion may be performed using other index values.

たとえば、CPU11は、曲データと演奏データとを比較して、曲データおよび演奏データにおける、対応する音高情報の相違および時間情報の相違に基づき、演奏の正確さを示す演奏評価値evalを算出する。CPU11は、楽曲ごとの演奏評価値evalに基づき、分割されたエリアの部分画像の構成要素(たとえば、彩度や濃度)を変換する。これにより、演奏の正確さに基づく変換済画像を演奏者に提示することも可能となる。   For example, the CPU 11 compares the music data and the performance data, and calculates a performance evaluation value eval indicating the accuracy of the performance based on the corresponding difference in pitch information and time information in the music data and performance data. To do. CPU11 converts the component (for example, saturation and density) of the partial image of the divided area based on performance evaluation value eval for every music. Thereby, it is also possible to present the converted image based on the accuracy of the performance to the performer.

また、前記実施の形態においては、基本的に、ソング数Mに基づいて画像エリアを分割し、分割されたエリアに、何れか1つの技術要素techを割り当てるように構成している。しかしながら、これに限定されるものではなく、ソング数Mに基づいて画像エリアを分割して、各画像エリアの画像変換を行なった後、技術要素数Nに基づいて別途画像エリアを分割して、別途分割された各画像エリアについて、対応する技術要素のスキルレベルSkillに基づいてさらに画像変換を行なっても良い。   In the embodiment, basically, the image area is divided based on the number of songs M, and any one technical element tech is assigned to the divided area. However, the present invention is not limited to this, and after dividing the image area based on the number of songs M and performing image conversion of each image area, separately dividing the image area based on the number of technical elements N, For each separately divided image area, image conversion may be further performed based on the skill level Skill of the corresponding technical element.

10 演奏評価装置
11 CPU
12 ROM
13 RAM
14 大規模記憶装置
15 入力装置
16 表示装置
17 サウンドシステム
18 鍵盤
10 Performance evaluation device 11 CPU
12 ROM
13 RAM
14 Large-scale storage device 15 Input device 16 Display device 17 Sound system 18 Keyboard

Claims (7)

楽曲を構成する音符ごとの音高情報と、楽音の発音タイミングおよび発音時間を含む時間情報と、所定の音符についての演奏の際に用いられる技術を示す技術要素情報と、楽曲ごとの、前記技術要素を考慮した難度を示す難度情報と、を含む曲データを格納する記憶手段と、
演奏操作子の操作にしたがって、操作された演奏操作子に対応する音高情報と、操作タイミングおよび操作されていた時間を含む時間情報と、を含む演奏データを生成して、前記記憶手段に格納する演奏データ生成手段と、
前記曲データと前記演奏データとを比較して、前記所定の音符のそれぞれについての技術要素のクリア状況を判断し、技術要素ごとの演奏者の達成度を示す情報を生成する演奏者達成度判定手段と、
前記演奏者による楽曲の演奏時間および演奏回数を含む、前記演奏者による練習状況に基づき、楽曲ごとの当該練習状況を示す指標値を生成する練習状況判定手段と、
前記楽曲数に基づき、あらかじめ記憶された元画像を複数の部分画像に分割し、前記楽曲ごとの練習状況を示す指標値に基づき、前記元画像の部分画像それぞれから、当該各部分画像を構成する所定の構成要素を変換することにより第1の変換画像を生成するとともに、当該第1の変換画像を前記技術要素数に基づき複数の部分画像に別途分割し、前記技術要素ごとの達成度を示す情報に基づき、前記第1の変換画像の別途分割された部分画像それぞれから、前記所定の構成要素とは異なる他の構成要素を変換することにより第2の変換画像データを生成する画像変換手段と、
前記第2の変換画像データに基づく画像を表示する表示手段と、を備えたことを特徴とする演奏評価装置。
Pitch information for each note constituting the music, time information including the sound generation timing and sound generation time, technical element information indicating a technique used for performance of a predetermined note, and the technology for each music Storage means for storing song data including difficulty information indicating the difficulty in consideration of elements;
According to the operation of the performance operator, performance data including pitch information corresponding to the operated performance operator and time information including the operation timing and the operated time is generated and stored in the storage means Performance data generating means for performing,
A player achievement level determination that compares the music data and the performance data to determine the clearing state of the technical element for each of the predetermined notes and generates information indicating the achievement level of the player for each technical element Means,
Practice status determination means for generating an index value indicating the practice status for each song, based on the practice status by the performer, including the performance time and number of performances of the song by the performer,
Based on the number of songs, the previously stored original image is divided into a plurality of partial images, and each partial image is configured from each partial image of the original image based on an index value indicating the practice status for each song. A first converted image is generated by converting predetermined constituent elements, and the first converted image is separately divided into a plurality of partial images based on the number of technical elements, and the achievement level for each technical element is indicated. Image conversion means for generating second converted image data by converting another component different from the predetermined component from each separately divided partial image of the first converted image based on the information; ,
A performance evaluation apparatus comprising: display means for displaying an image based on the second converted image data .
前記画像変換手段は、前記演奏時間および演奏回数が増大するのにしたがって、前記第1の変換画像データを、元画像の画像データに近くなるように生成し、前記技術要素ごとの演奏者の達成度が高くなるのにしたがって、前記第2の変換画像データを、元画像の画像データに近くなるように生成するように構成されたことを特徴とする請求項1に記載の演奏評価装置。 The image converting means in accordance with the said play time and play times is increased, the first converted image data, generated to be close to the image data of the original image, achievement of the player for each of the technical elements 2. The performance evaluation apparatus according to claim 1, wherein the performance evaluation apparatus is configured to generate the second converted image data so as to be closer to the image data of the original image as the degree increases. 前記演奏者達成度判定手段が、前記楽曲ごとに、前記クリア状況に基づき、当該技術要素のクリアレベルを算出し、かつ、全ての楽曲のクリアレベルに基づき、前記技術要素ごとの達成度を示す情報を生成することを特徴とする請求項1または2に記載の演奏評価装置。   The player achievement level determination means calculates the clear level of the technical element based on the clear status for each piece of music, and indicates the achievement level for each technical element based on the clear level of all the pieces of music. The performance evaluation apparatus according to claim 1, wherein information is generated. 前記練習状況判定手段が、前記クリア状況に基づき、前記楽曲ごとに、前記演奏者による全ての技術要素を考慮した演奏レベルを示す指標値を算出し、
前記画像変換手段が、前記楽曲ごとの演奏レベルを示す指標値に基づき、前記部分画像それぞれの所定の構成要素を変換するように構成されたことを特徴とする請求項1ないし3の何れか一項に記載の演奏評価装置。
The practice situation determination means calculates an index value indicating a performance level in consideration of all technical elements by the performer for each piece of music based on the clear situation,
4. The image conversion unit according to claim 1, wherein the image conversion unit is configured to convert a predetermined component of each of the partial images based on an index value indicating a performance level for each piece of music. The performance evaluation apparatus according to the item.
前記練習状況判定手段が、前記曲データと前記演奏データとを比較して、前記曲データおよび演奏データにおける、対応する音高情報の相違および時間情報の相違に基づき、演奏の正確さを示す演奏評価値を算出し、
前記画像変換手段が、前記楽曲ごとの演奏評価値に基づき、前記部分画像それぞれの所定の構成要素を変換するように構成されたことを特徴とする請求項1ないし4の何れか一項に記載の演奏評価装置。
The practice status determination means compares the song data with the performance data, and shows the performance accuracy based on the difference in the corresponding pitch information and the time information in the song data and the performance data. Calculate the evaluation value,
The said image conversion means is comprised so that the predetermined component of each of the said partial image may be converted based on the performance evaluation value for every said music, The one of Claim 1 thru | or 4 characterized by the above-mentioned. Performance evaluation device.
前記画像変換手段が、前記部分画像それぞれの所定の構成要素として、濃度および彩度を変更し、前記別途分割されたエリアの部分画像の他の構成要素として、解像度を変更することを特徴とする請求項1ないし5の何れか一項に記載の演奏評価装置。 The image conversion means changes density and saturation as predetermined constituent elements of each of the partial images, and changes resolution as other constituent elements of the separately divided partial images. The performance evaluation apparatus according to any one of claims 1 to 5. 楽曲を構成する音符ごとの音高情報と、楽音の発音タイミングおよび発音時間を含む時間情報と、所定の音符についての演奏の際に用いられる技術を示す技術要素情報と、楽曲ごとの、前記技術要素を考慮した難度を示す難度情報と、を含む曲データを格納する記憶装置を備えたコンピュータに、
演奏操作子の操作にしたがって、操作された演奏操作子に対応する音高情報と、操作タイミングおよび操作されていた時間を含む時間情報と、を含む演奏データを生成して、前記記憶手段に格納する演奏データ生成ステップと、
前記曲データと前記演奏データとを比較して、前記所定の音符のそれぞれについての技術要素のクリア状況を判断し、技術要素ごとの演奏者の達成度を示す情報を生成する演奏者達成度判定ステップと、
前記演奏者による楽曲の演奏時間および演奏回数を含む、前記演奏者による練習状況に基づき、楽曲ごとの当該練習状況を示す指標値を生成する練習状況判定ステップと、
前記楽曲数に基づき、あらかじめ記憶された元画像を複数の部分画像に分割し、前記楽曲ごとの練習状況を示す指標値に基づき、前記元画像の部分画像それぞれから、当該各部分画像を構成する所定の構成要素を変換することにより第1の変換画像を生成するとともに、当該第1の変換画像を前記技術要素数に基づき複数の部分画像に別途分割し、前記技術要素ごとの達成度を示す情報に基づき、前記第1の変換画像の別途分割された部分画像それぞれから、前記所定の構成要素とは異なる他の構成要素を変換することにより第2の変換画像データを生成する画像変換ステップと、を実行させ、
前記第2の変換画像データに基づく画像が表示装置に表示されることを特徴とする演奏評価プログラム。
Pitch information for each note constituting the music, time information including the sound generation timing and sound generation time, technical element information indicating a technique used for performance of a predetermined note, and the technology for each music A computer having a storage device for storing song data including difficulty information indicating the difficulty in consideration of the elements;
According to the operation of the performance operator, performance data including pitch information corresponding to the operated performance operator and time information including the operation timing and the operated time is generated and stored in the storage means A performance data generation step,
A player achievement level determination that compares the music data and the performance data to determine the clearing state of the technical element for each of the predetermined notes and generates information indicating the achievement level of the player for each technical element Steps,
A practice situation determination step for generating an index value indicating the practice situation for each song, based on the practice situation by the performer, including the performance time and the number of performances of the song by the performer;
Based on the number of songs, the previously stored original image is divided into a plurality of partial images, and each partial image is configured from each partial image of the original image based on an index value indicating the practice status for each song. A first converted image is generated by converting predetermined constituent elements, and the first converted image is separately divided into a plurality of partial images based on the number of technical elements, and the achievement level for each technical element is indicated. An image conversion step of generating second converted image data by converting another component different from the predetermined component from each separately divided partial image of the first converted image based on the information; , Execute
A performance evaluation program, wherein an image based on the second converted image data is displayed on a display device.
JP2010229506A 2010-10-12 2010-10-12 Performance evaluation apparatus and performance evaluation program Active JP5609520B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010229506A JP5609520B2 (en) 2010-10-12 2010-10-12 Performance evaluation apparatus and performance evaluation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010229506A JP5609520B2 (en) 2010-10-12 2010-10-12 Performance evaluation apparatus and performance evaluation program

Publications (2)

Publication Number Publication Date
JP2012083540A JP2012083540A (en) 2012-04-26
JP5609520B2 true JP5609520B2 (en) 2014-10-22

Family

ID=46242478

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010229506A Active JP5609520B2 (en) 2010-10-12 2010-10-12 Performance evaluation apparatus and performance evaluation program

Country Status (1)

Country Link
JP (1) JP5609520B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6340755B2 (en) * 2013-04-16 2018-06-13 カシオ計算機株式会社 Performance evaluation apparatus, performance evaluation method and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2522928Y2 (en) * 1990-08-30 1997-01-22 カシオ計算機株式会社 Electronic musical instrument
JP3266934B2 (en) * 1992-04-24 2002-03-18 カシオ計算機株式会社 Performance practice equipment
JPH0975551A (en) * 1995-09-12 1997-03-25 Konami Co Ltd Image distinguishing game device
JP2005031389A (en) * 2003-07-14 2005-02-03 Ricoh Co Ltd Image processing device, image display system, program, and storage medium
JP4626307B2 (en) * 2005-01-12 2011-02-09 ヤマハ株式会社 Performance practice device and program
JP4525591B2 (en) * 2005-12-27 2010-08-18 カシオ計算機株式会社 Performance evaluation apparatus and program

Also Published As

Publication number Publication date
JP2012083540A (en) 2012-04-26

Similar Documents

Publication Publication Date Title
US20160253915A1 (en) Music instruction system
Dittmar et al. Music information retrieval meets music education
US20040044487A1 (en) Method for analyzing music using sounds instruments
CN108028040B (en) Musical performance assisting apparatus and method
JP2001154668A (en) Methods for synthesizing musical sound, selecting playing information, controlling playing, recording playing information, evaluating playing information, playing practice device and recording medium
JP3744366B2 (en) Music symbol automatic determination device based on music data, musical score display control device based on music data, and music symbol automatic determination program based on music data
CN112258932A (en) Auxiliary exercise device, method and system for musical instrument playing
US5990404A (en) Performance data editing apparatus
JP3509545B2 (en) Performance information evaluation device, performance information evaluation method, and recording medium
JP3577561B2 (en) Performance analysis apparatus and performance analysis method
JP5609520B2 (en) Performance evaluation apparatus and performance evaluation program
WO2014025041A1 (en) Device and method for pronunciation allocation
JP6701864B2 (en) Sound evaluation device and sound evaluation method
JP4614307B2 (en) Performance data processing apparatus and program
JP5347854B2 (en) Performance learning apparatus and performance learning program
KR20130057293A (en) Apparatus and method for providing electronic musical note using midi file
JP5847048B2 (en) Piano roll type score display apparatus, piano roll type score display program, and piano roll type score display method
JP6073618B2 (en) Karaoke equipment
JP5969421B2 (en) Musical instrument sound output device and musical instrument sound output program
WO2022190453A1 (en) Fingering presentation device, training device, fingering presentation method, and training method
JP4093000B2 (en) Storage medium storing score display data, score display apparatus and program using the score display data
WO2023182005A1 (en) Data output method, program, data output device, and electronic musical instrument
JP2614532B2 (en) Music data correction device
JP7107720B2 (en) fingering display program
JP3752956B2 (en) PERFORMANCE GUIDE DEVICE, PERFORMANCE GUIDE METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING PERFORMANCE GUIDE PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140513

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140818

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5609520

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150