JP5272900B2 - Music difficulty calculation device and music difficulty calculation program - Google Patents

Music difficulty calculation device and music difficulty calculation program Download PDF

Info

Publication number
JP5272900B2
JP5272900B2 JP2009133018A JP2009133018A JP5272900B2 JP 5272900 B2 JP5272900 B2 JP 5272900B2 JP 2009133018 A JP2009133018 A JP 2009133018A JP 2009133018 A JP2009133018 A JP 2009133018A JP 5272900 B2 JP5272900 B2 JP 5272900B2
Authority
JP
Japan
Prior art keywords
difficulty
value
fingering
music
tonality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009133018A
Other languages
Japanese (ja)
Other versions
JP2010281882A (en
Inventor
純一 南高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009133018A priority Critical patent/JP5272900B2/en
Priority to US12/782,914 priority patent/US8106281B2/en
Priority to DE102010029365A priority patent/DE102010029365B4/en
Priority to CN201010192940.7A priority patent/CN101901299B/en
Publication of JP2010281882A publication Critical patent/JP2010281882A/en
Application granted granted Critical
Publication of JP5272900B2 publication Critical patent/JP5272900B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To appropriately calculate a music difficulty level by considering various elements constituting music. <P>SOLUTION: A CPU 11 calculates individual difficulty levels for a plurality of elements (fingering, rhythm, and tonality) necessary for performing music based on pitch information, fingering information and time information in music sound data, multiplies each of the plurality of calculated difficulty levels by a weight coefficient, and calculates the overall difficulty level of the music by accumulating the weighted difficulty levels. The CPU 11 optimizes the weight coefficient so that a correlation is largest between a music difficulty level calculation value calculated based on the individual difficulty levels and a difficulty level evaluation value of the same music by a specialist, the evaluation value having been given to the music beforehand. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、楽曲の難易度を評価する楽曲難易度算出装置および楽曲難易度算出プログラムに関する。   The present invention relates to a music difficulty level calculation device and a music difficulty level calculation program for evaluating the difficulty level of music.

従来、楽曲の難易度を評価するときに、音楽教育の専門家や演奏家が、その楽曲における種々の要素、たとえば、音符の連なりなどに基づいて、主観的な評価を行なっていた。従来の主観的な評価では、たとえば、楽曲の構成要素についての客観的な難易度は存在せず、楽曲全体としての評価(たとえば、10段階評価など)がなされているに過ぎない場合が多かった。   Conventionally, when evaluating the difficulty level of a music piece, music education specialists and performers have made subjective evaluations based on various elements in the music piece, for example, a series of musical notes. In the conventional subjective evaluation, for example, there is no objective difficulty level regarding the constituent elements of the music, and the evaluation of the entire music (for example, 10-level evaluation, etc.) is often performed. .

これに対して、楽曲を鍵盤楽器にて演奏する際の運指情報に基づいて、当該運指の難易度を算出する装置が提案されている。特許文献1には、ある音程の2音を2つの指にて押さえるような全ての場合を想定し、当該全ての場合のコストを定義し、運指情報が示す運指を行なう上での難易度を算出する難易度算出方法が提案されている。   On the other hand, an apparatus for calculating the degree of difficulty of fingering based on fingering information when playing a musical piece with a keyboard instrument has been proposed. In Patent Document 1, assuming all cases where two sounds of a certain pitch are pressed with two fingers, it is difficult to define the costs in all the cases and perform the fingering indicated by the fingering information. A difficulty level calculation method for calculating the degree has been proposed.

特開2006−78656号公報JP 2006-78656 A

しかしながら、従来の難易度を算出する装置では、2音を2つの指にて押さえるような全ての場合の全てについてコスト値を定義するのが容易ではないという問題点があった。また、楽曲の難易度は運指のみではなく、他にも種々の要素が存在する。したがって、他の要素も考慮したうえで難易度を算出することが望ましい。   However, the conventional apparatus for calculating the difficulty level has a problem that it is not easy to define cost values for all cases where two sounds are pressed with two fingers. In addition, the degree of difficulty of music is not limited to fingering, but includes various other elements. Therefore, it is desirable to calculate the difficulty level in consideration of other factors.

また、種々の要素を考慮して算出された難易度が、上記音楽教育の専門家や演奏家が同じ楽曲に対して出した評価と逸脱していることは望ましくなく、算出された難易度も、専門家の評価とほぼ同様であることが望ましい。   In addition, it is not desirable that the difficulty calculated in consideration of various factors deviates from the evaluation given to the same music by the music education specialists and performers, and the calculated difficulty is also It is desirable that it is almost the same as an expert's evaluation.

本発明は、楽曲を構成する種々の要素を考慮して、適切に楽曲の難易度を算出する楽曲難易度算出装置および楽曲難易度算出プログラムを提供することを目的とする。   An object of the present invention is to provide a music difficulty level calculation device and a music difficulty level calculation program that appropriately calculate the difficulty level of a music in consideration of various elements constituting the music.

本発明の目的は、楽曲を構成する音符ごとの音高情報、当該音符を押鍵する際の運指情報、および、当該音符についての時間情報を含む楽音データを格納した記憶手段と、
前記音高情報および運指情報に基づいて、隣接する音符を押鍵する運指に関する運指難易度を算出する運指難易度算出手段と、
前記音符についての時間情報に基づいて、当該音符長および音符のタイミングに関するリズム難易度を算出するリズム難易度算出手段と、
前記音符の音高情報に基づいて、当該楽曲の調性に関する調性難易度を算出する調性難易度算出手段と、
算出された運指難易度、リズム難易度及び調性難易度の夫々に重み係数を乗じて、重みが付与された運指難易度、リズム難易度及び調性難易度の夫々を累算することにより楽曲全体の難易度を算出し、算出された難易度を記憶手段に格納する全体難易度算出手段と、
前記運指難易度、リズム難易度及び調性難易度の夫々に乗じる重み係数を最適化する重み係数最適化手段と、を備え、
前記重み係数最適化手段が、
前記運指難易度、リズム難易度及び調性難易度ごとに、重み係数の基礎値の周辺値である重み係数候補値を取得する重み係数候補値取得手段と、
前記算出された運指難易度、リズム難易度及び調性難易度と、当該各難易度夫々の重み係数候補値の組み合わせて作った重み係数候補値との組み合わせを用いて難易度演算値を演算するとともに、当該組み合わせを変更して新たな重み係数候補値の組を作って再度難易度演算値を演算する、という動作を全ての組み合わせについて行う難易度演算値演算手段と、
この難易度演算値演算手段により演算された難易度演算値夫々と前記記憶手段に格納されていた専門家による難易度評価値との相関係数を算出し、この算出された相関係数が最大となる重み係数候補値の組み合わせを構成する重み係数候補値を、前記運指難易度、リズム難易度及び調性難易度夫々の重み係数とする相関算出手段と、
を有することを特徴とする楽曲難易度算出装置。
An object of the present invention is to store musical tone data including pitch information for each note constituting a musical piece, fingering information for pressing the note, and time information about the note;
Based on the pitch information and fingering information, a fingering difficulty calculating means for calculating a fingering difficulty relating to fingering for pressing an adjacent note;
Rhythm difficulty calculating means for calculating a rhythm difficulty related to the note length and the timing of the note based on time information about the note;
Based on the pitch information of the notes, a tonality difficulty calculating means for calculating a tonality difficulty relating to the tonality of the music,
Multiply each of the calculated fingering difficulty, rhythm difficulty, and tonality difficulty by a weighting factor to accumulate each of the weighted fingering difficulty, rhythm difficulty, and tonality difficulty. To calculate the difficulty level of the entire music, and to store the calculated difficulty level in the storage means,
Weight coefficient optimization means for optimizing a weight coefficient for multiplying each of the fingering difficulty, the rhythm difficulty, and the tonality difficulty;
The weight coefficient optimization means comprises:
Weight coefficient candidate value acquisition means for acquiring a weight coefficient candidate value that is a peripheral value of the basic value of the weight coefficient for each of the fingering difficulty, the rhythm difficulty, and the tonality difficulty;
The difficulty calculation value is calculated using a combination of the calculated fingering difficulty, rhythm difficulty and tonality difficulty, and a weighting factor candidate value created by combining the respective weighting factor candidate values. In addition, a difficulty calculation value calculation means for performing the operation of changing the combination and creating a new weight coefficient candidate value pair and calculating the difficulty calculation value again for all combinations;
A correlation coefficient between each of the difficulty calculation values calculated by the difficulty calculation value calculation means and the difficulty evaluation value by the expert stored in the storage means is calculated, and the calculated correlation coefficient is the maximum. Correlation calculating means that sets the weighting factor candidate values constituting the combination of weighting factor candidate values to be the weighting factors of the fingering difficulty, the rhythm difficulty, and the tonality difficulty,
Music difficulty level calculating device characterized in that it comprises a.

より好ましい実施態様においては、前記重み係数最適化手段が、前記重み係数候補値を、基礎値に、所定範囲で変化する係数を乗じることにより算出する。   In a more preferred embodiment, the weighting factor optimizing means calculates the weighting factor candidate value by multiplying the basic value by a factor that changes within a predetermined range.

また、本発明の目的は、楽曲を構成する音符ごとの音高情報、当該音符を押鍵する際の運指情報、および、当該音符についての時間情報を含む楽音データを格納した記憶手段を備えたコンピュータに、
前記音高情報および運指情報に基づいて、隣接する音符を押鍵する運指に関する運指難易度を算出する運指難易度算出ステップと、
前記音符についての時間情報に基づいて、当該音符長および音符のタイミングに関するリズム難易度を算出するリズム難易度算出ステップと、
前記音符の音高情報に基づいて、当該楽曲の調性に関する調性難易度を算出する調性難易度算出ステップと、
算出された運指難易度、リズム難易度及び調性難易度のそれぞれに重み係数を乗じて、重みが付与された運指難易度、リズム難易度及び調性難易度の夫々を累算することにより楽曲全体の難易度を算出し、算出された難易度を前記記憶手段に格納する全体難易度算出ステップと、
前記運指難易度、リズム難易度及び調性難易度の夫々に乗じる重み係数を最適化する重み係数最適化ステップと、を実行させ、
前記重み係数最適化ステップは、
前記運指難易度、リズム難易度及び調性難易度ごとに、重み係数の基礎値の周辺値である重み係数候補値を取得する重み係数候補値取得ステップと、
前記算出された運指難易度、リズム難易度及び調性難易度と、当該各難易度夫々の重み係数候補値の組み合わせて作った重み係数候補値との組み合わせを用いて難易度演算値を演算するとともに、当該組み合わせを変更して新たな重み係数候補値の組を作って再度難易度演算値を演算する、という動作を全ての組み合わせについて行う難易度演算値演算ステップと、
この演算された難易度演算値夫々と前記記憶手段に格納されていた専門家による難易度評価値との相関係数を算出し、この算出された相関係数が最大となる重み係数候補値の組み合わせを構成する重み係数候補値を、前記運指難易度、リズム難易度及び調性難易度夫々の重み係数とする相関算出ステップと、
を実行させることを特徴とする楽曲難易度算出プログラムにより達成される。
Another object of the present invention is to provide storage means for storing musical tone data including pitch information for each note constituting a musical piece, fingering information for pressing the note, and time information about the note. Computer
Based on the pitch information and fingering information, a fingering difficulty calculation step for calculating a fingering difficulty for a finger pressing a neighboring note;
A rhythm difficulty calculation step for calculating a rhythm difficulty related to the note length and the timing of the note based on time information about the note;
Based on the pitch information of the notes, a tonality difficulty calculating step for calculating a tonality difficulty relating to the tonality of the music,
Multiply each of the calculated fingering difficulty, rhythm difficulty, and tonality difficulty by a weighting factor to accumulate the weighted fingering difficulty, rhythm difficulty, and tonality difficulty, respectively. Calculating the degree of difficulty of the entire music, and storing the calculated degree of difficulty in the storage means; and
Performing a weighting factor optimization step of optimizing a weighting factor that multiplies each of the fingering difficulty, the rhythm difficulty, and the tonality difficulty ;
The weighting factor optimization step includes:
A weighting coefficient candidate value acquisition step for acquiring a weighting coefficient candidate value that is a peripheral value of a basic value of the weighting coefficient for each of the fingering difficulty, the rhythm difficulty, and the tonality difficulty;
The difficulty calculation value is calculated using a combination of the calculated fingering difficulty, rhythm difficulty and tonality difficulty, and a weighting factor candidate value created by combining the respective weighting factor candidate values. In addition, a difficulty calculation value calculation step for changing the combination to create a new weight coefficient candidate value pair and calculating the difficulty calculation value again for all combinations;
A correlation coefficient between each of the calculated difficulty calculation values and a difficulty evaluation value by a specialist stored in the storage unit is calculated, and a weight coefficient candidate value that maximizes the calculated correlation coefficient is calculated. A correlation calculation step in which the weighting factor candidate values constituting the combination are weighting factors of the fingering difficulty, the rhythm difficulty, and the tonality difficulty;
It is accomplished by the music difficulty level calculation program for causing the execution.

本発明によれば、楽曲を構成する種々の要素を考慮して、適切に楽曲の難易度を算出する楽曲難易度算出装置および楽曲難易度算出プログラムを提供することが可能となる。   According to the present invention, it is possible to provide a music difficulty level calculation device and a music difficulty level calculation program that appropriately calculate the difficulty level of music in consideration of various elements constituting the music.

図1は、本発明の実施の形態にかかる楽曲難易度算出装置の構成を示すブロックダイヤグラムである。FIG. 1 is a block diagram showing a configuration of a music difficulty level calculating device according to an embodiment of the present invention. 図2は、本実施の形態にかかる楽曲難易度算出装置10において実行される処理の概略を示すフローチャートである。FIG. 2 is a flowchart showing an outline of processing executed in the music difficulty level calculation device 10 according to the present embodiment. 図3は、本実施の形態にかかる楽曲データのデータ構成例を示す図である。FIG. 3 is a diagram illustrating a data configuration example of music data according to the present embodiment. 図4は、本実施の形態にかかる難易度評価処理の例を概略的に示すフローチャートである。FIG. 4 is a flowchart schematically showing an example of the difficulty level evaluation process according to the present embodiment. 図5は、本実施の形態にかかる運指難易度評価処理の例を示すフローチャートである。FIG. 5 is a flowchart showing an example of the fingering difficulty evaluation process according to the present embodiment. 図6は、本実施の形態にかかる運指難易度評価処理の例を示すフローチャートである。FIG. 6 is a flowchart showing an example of the fingering difficulty evaluation process according to the present embodiment. 図7は、本実施の形態にかかるテクニック分類処理の例を示すフローチャートである。FIG. 7 is a flowchart showing an example of technique classification processing according to the present embodiment. 図8は、本実施の形態にかかるテクニック分類処理の例を示すフローチャートである。FIG. 8 is a flowchart showing an example of technique classification processing according to the present embodiment. 図9は、本実施の形態にかかる指開き特定処理の例を詳細に示すフローチャートである。FIG. 9 is a flowchart showing in detail an example of the finger opening specifying process according to the present embodiment. 図10は、本実施の形態にかかるリズム難易度評価処理の例を示すフローチャートである。FIG. 10 is a flowchart showing an example of the rhythm difficulty level evaluation process according to the present embodiment. 図11は、本実施の形態にかかるリズム難易度評価処理の例を示すフローチャートである。FIG. 11 is a flowchart showing an example of the rhythm difficulty evaluation process according to the present embodiment. 図12は、本実施の形態にかかるリズムコスト算出処理の例を示すフローチャートである。FIG. 12 is a flowchart showing an example of rhythm cost calculation processing according to the present embodiment. 図13は、本実施の形態にかかるリズムコスト算出処理の例を示すフローチャートである。FIG. 13 is a flowchart showing an example of rhythm cost calculation processing according to the present embodiment. 図14は、本実施の形態にかかる調性難易度評価処理の例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of tonality difficulty level evaluation processing according to the present embodiment. 図15は、本実施の形態にかかる調性難易度評価処理の例を示すフローチャートである。FIG. 15 is a flowchart illustrating an example of tonality difficulty level evaluation processing according to the present embodiment. 図16は、本実施の形態において鍵位置情報を説明するための図である。FIG. 16 is a diagram for explaining the key position information in the present embodiment. 図17(a)は、本実施の形態にかかるベーススケール配列iBaseScale[]の例を示す図、図17(b)は、本実施の形態にかかる非ベーススケール配列iATonal[]の例を示す図である。FIG. 17A is a diagram illustrating an example of the base scale array iBaseScale [] according to the present embodiment, and FIG. 17B is a diagram illustrating an example of the non-base scale array iATonal [] according to the present embodiment. It is. 図18は、本実施の形態にかかる長音階との一致度iSumの算出を説明するための図である。FIG. 18 is a diagram for explaining the calculation of the degree of coincidence iSum with the major scale according to the present embodiment. 図19は、本実施の形態にかかる長音階との不一致度iATonalityの算出を説明するための図である。FIG. 19 is a diagram for explaining the calculation of the inconsistency iATonality with the major scale according to the present embodiment. 図20は、本実施の形態にかかる係数最適化処理の例を示すフローチャートである。FIG. 20 is a flowchart illustrating an example of the coefficient optimization process according to the present embodiment. 図21は、本実施の形態にかかる最適値算出処理の例を示すフローチャートである。FIG. 21 is a flowchart showing an example of optimum value calculation processing according to the present embodiment. 図22は、本実施の形態にかかる最適値算出処理の例を示すフローチャートである。FIG. 22 is a flowchart showing an example of the optimum value calculation process according to the present embodiment. 図23は、本実施の形態にかかる難易度算出処理の例を示すフローチャートである。FIG. 23 is a flowchart illustrating an example of the difficulty level calculation process according to the present embodiment.

以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、本発明の実施の形態にかかる楽曲難易度算出装置の構成を示すブロックダイヤグラムである。図1に示すように、本実施の形態にかかる楽曲難易度算出装置10は、CPU11、ROM12、RAM13、大規模記憶装置14、入力装置15、表示装置16、サウンドシステム17および鍵盤18を有している。   Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a block diagram showing a configuration of a music difficulty level calculating device according to an embodiment of the present invention. As shown in FIG. 1, the music difficulty level calculation device 10 according to this embodiment includes a CPU 11, a ROM 12, a RAM 13, a large-scale storage device 14, an input device 15, a display device 16, a sound system 17, and a keyboard 18. ing.

CPU11は、後述する楽曲の難易度を評価するための種々の処理(運指難易度評価処理、リズム難易度評価処理、調性難易度評価処理、全体難易度の算出処理)を実行する。ROM12は、楽音難易度を評価するための種々の処理(運指難易度評価処理、リズム難易度評価処理、調性難易度評価処理、全体難易度の算出処理)のプログラムや、処理に使用するパラメータなどを格納する。RAM13は、プログラムの実行の過程で生じたパラメータ、入力データ、出力データなどを一時的に記憶する。大規模記憶装置14は、ハードディスク装置やメモリカードなどであり、楽曲データなどを格納する。   The CPU 11 executes various processes (a fingering difficulty evaluation process, a rhythm difficulty evaluation process, a tonality difficulty evaluation process, and an overall difficulty calculation process) for evaluating the difficulty level of the music described later. The ROM 12 is used for programs and processes of various processes (fingering difficulty evaluation process, rhythm difficulty evaluation process, tonality difficulty evaluation process, and overall difficulty calculation process) for evaluating the musical sound difficulty level. Stores parameters and so on. The RAM 13 temporarily stores parameters, input data, output data and the like generated in the course of program execution. The large-scale storage device 14 is a hard disk device or a memory card, and stores music data and the like.

入力装置15は、スイッチ類、キーボード、マウスなどを含み、操作者のスイッチ操作、キー操作、マウスの操作に基づく種々の指示などをCPU11に与える。表示装置12の画面上には、楽曲データに基づく楽譜、楽曲難易度の評価結果などを含む画像データが表示される。サウンドシステム40は、楽音生成回路、増幅器、スピーカなどを含み、楽曲データにしたがって、或いは、操作者による鍵盤18の押鍵操作にしたがって所定の楽音を生成して、楽音に基づく音響信号を出力する。なお、上記実施の形態において、鍵盤18は必須ではない。   The input device 15 includes switches, a keyboard, a mouse, and the like, and gives the CPU 11 various instructions based on an operator's switch operation, key operation, and mouse operation. On the screen of the display device 12, image data including a score based on the music data, the evaluation result of the music difficulty, and the like are displayed. The sound system 40 includes a musical sound generation circuit, an amplifier, a speaker, and the like, generates a predetermined musical sound according to music data or according to a key pressing operation of the keyboard 18 by an operator, and outputs an acoustic signal based on the musical sound. . In the above embodiment, the keyboard 18 is not essential.

また、本実施の形態にかかる楽曲難易度評価装置10は、鍵盤楽器の形態であっても良いし、或いは、パーソナルコンピュータのような形態であっても良い。鍵盤楽器の形態であれば、操作者は、表示装置16の画面上に表示された楽譜を参照して、鍵盤18の鍵を押鍵し、サウンドシステム17が、操作者の押鍵に応答して、押鍵された鍵の音高に対応する楽音データを生成することで、サウンドシステム17から楽音を出力することができる。   Further, the music difficulty level evaluation device 10 according to the present embodiment may be in the form of a keyboard instrument, or may be in the form of a personal computer. In the form of a keyboard instrument, the operator refers to the score displayed on the screen of the display device 16 and presses the key on the keyboard 18, and the sound system 17 responds to the key pressed by the operator. Thus, the musical sound can be output from the sound system 17 by generating musical tone data corresponding to the pitch of the pressed key.

図2は、本実施の形態にかかる楽曲難易度評価装置10において実行される処理の概略を示すフローチャートである。図2に示すように、本実施の形態にかかる楽曲難易度評価装置10のCPU11は、RAM13に格納されたパラメータ等のクリア、表示装置16の画面上に表示された画像のクリアなどを含むイニシャライズを実行する(ステップ201)。次いで、CPU11は、操作者が入力装置15を操作して楽曲指定の入力があったかを判断する(ステップ202)。たとえば、楽曲指定の入力は、楽曲データの番号を入力することにより実現される。   FIG. 2 is a flowchart showing an outline of processing executed in the music difficulty evaluation device 10 according to the present embodiment. As shown in FIG. 2, the CPU 11 of the music difficulty level evaluation apparatus 10 according to the present embodiment initializes including clearing parameters stored in the RAM 13, clearing the image displayed on the screen of the display device 16, and the like. Is executed (step 201). Next, the CPU 11 determines whether the operator has operated the input device 15 to input a music designation (step 202). For example, input of music designation is realized by inputting a music data number.

ステップ202でYesと判断された場合には、CPU11は、大規模記憶装置14に格納された楽曲データ群から、指定された楽曲の楽曲データを読み出して、RAM13に一時的に記憶する(ステップ203)。次いで、CPU11は、難易度評価処理を実行して、データを読み出された楽曲の難易度を示す値iCostを算出する(ステップ204)。ステップ202でNoと判断されると、CPU11は、操作者が入力装置15を操作して、係数最適化の指示を入力しているかを判断する(ステップ205)。ステップ205でYesと判断された場合には、CPU11は、係数最適化処理を実行する(ステップ206)。難易度評価処理および係数最適化処理については、以下に詳述する。   If it is determined Yes in step 202, the CPU 11 reads the music data of the designated music from the music data group stored in the large-scale storage device 14, and temporarily stores it in the RAM 13 (step 203). ). Next, the CPU 11 executes a difficulty level evaluation process, and calculates a value iCost indicating the difficulty level of the music whose data has been read (step 204). If it is determined No in step 202, the CPU 11 determines whether the operator operates the input device 15 to input a coefficient optimization instruction (step 205). When it is determined Yes in step 205, the CPU 11 executes a coefficient optimization process (step 206). The difficulty level evaluation process and the coefficient optimization process will be described in detail below.

図3は、本実施の形態にかかる楽曲データのデータ構成例を示す図である。図3に示すように、ある楽曲の楽曲データは、音符(ノート)ごとに、発音すべき楽音を示す楽音データのレコード(符号301、302参照)を有する。楽音データのレコード(たとえば、先頭のノートのレコードNote[0]:符号301)は、音高情報「Pit」、鍵盤位置情報「Pos」、運指情報「Fig」、発音時刻「Time」、発音時間「Gate」、次のノートのレコードへのポインタ「*Next」および前のノートのレコードへのポインタ「*prev」という項目を含む。   FIG. 3 is a diagram illustrating a data configuration example of music data according to the present embodiment. As shown in FIG. 3, the music data of a certain music has a record of musical sound data (see reference numerals 301 and 302) indicating the musical sound to be generated for each note (note). A record of musical sound data (for example, record Note [0] of the first note: code 301) includes pitch information “Pit”, keyboard position information “Pos”, fingering information “Fig”, pronunciation time “Time”, and pronunciation. It includes items of a time “Gate”, a pointer “* Next” to the record of the next note, and a pointer “* prev” to the record of the previous note.

音高情報「Pit」は、たとえば、音名「C−1」を「0」として、音高が1つ高くなるごとに「1」を増分させた値である。鍵盤位置情報「Pos」は、当該音高に対応する鍵の横方向の中心位置を示す座標値である。たとえば、図16に示すように、ある位置のC(たとえば、C4:Pit=60)の鍵盤位置情報Pos=Xとすると、C#4〜C5までの鍵盤位置情報は、それぞれ、X〜X12で示すような値となる。図16から理解できるように、隣接する白鍵と黒鍵、黒鍵と白鍵との間の座標値の差は「1」である。その一方、連続する白鍵(EとF、BとC)との間の座標値の差は「2」となる。 The pitch information “Pit” is, for example, a value obtained by incrementing “1” every time the pitch is increased by setting the pitch name “C-1” to “0”. The keyboard position information “Pos” is a coordinate value indicating the lateral center position of the key corresponding to the pitch. For example, as shown in FIG. 16, if the keyboard position information Pos = X 0 of C at a certain position (for example, C4: Pit = 60), the keyboard position information from C # 4 to C5 is X 1 to the values as shown in X 12. As can be understood from FIG. 16, the difference in coordinate values between the adjacent white key and black key, and between the black key and white key is “1”. On the other hand, the difference in coordinate values between consecutive white keys (E and F, B and C) is “2”.

図4は、本実施の形態にかかる難易度評価処理の例を概略的に示すフローチャートである。図4に示すように、CPU11は、運指難易度評価処理(ステップ401)、リズム難易度評価処理(ステップ402)、調性難易度評価(ステップ403)、全体難易度の算出処理(ステップ404)を実行する。運指難易度評価処理において、CPU11は、楽音データ中の運指情報などに基づいて、運指難易度iFCostを算出する。リズム難易度評価処理において、CPU11は、楽音データ中の発音時刻、発音時間などに基づいて、リズム難易度RCostを算出する。また、調性難易度評価処理において、CPU11は、楽音データの音高情報などに基づいて、調性難易度iTCostを算出する。ステップ401〜403において算出された運指難易度、リズム難易度および調性難易度が、それぞれ個別難易度に相当する。   FIG. 4 is a flowchart schematically showing an example of the difficulty level evaluation process according to the present embodiment. As shown in FIG. 4, the CPU 11 performs a fingering difficulty evaluation process (step 401), a rhythm difficulty evaluation process (step 402), a tonality difficulty evaluation (step 403), and an overall difficulty calculation process (step 404). ). In the fingering difficulty evaluation process, the CPU 11 calculates the fingering difficulty iFCost based on the fingering information in the musical sound data. In the rhythm difficulty level evaluation process, the CPU 11 calculates the rhythm difficulty level RCost based on the sound generation time and sound generation time in the musical sound data. In the tonality difficulty level evaluation process, the CPU 11 calculates the tonality difficulty level iTCost based on the pitch information of the musical tone data. The fingering difficulty level, the rhythm difficulty level, and the tonality difficulty level calculated in steps 401 to 403 respectively correspond to individual difficulty levels.

CPU11は、算出した運指難易度iFCost、リズム難易度iRCost、調性難易度iTCostおよび楽曲データ中のノート数(iCnt)に基づいて、それぞれに、重み係数RF、RR、RTおよびRCを乗じて加算することで楽曲の難易度iCostを算出する(ステップ404)。すなわち、難易度iCostは以下の数式のようになる。   The CPU 11 multiplies the weighting factors RF, RR, RT, and RC based on the calculated fingering difficulty iFCost, rhythm difficulty iRCost, tonality difficulty iTCost, and the number of notes (iCnt) in the music data, respectively. The degree of difficulty iCost of the music is calculated by adding (step 404). That is, the difficulty level iCost is expressed by the following formula.

iCost=iFCost×RF+iRCost×RR
+iTCost×RT+iCnt×RC
以下、運指難易度評価処理、リズム難易度評価処理および調性難易度評価処理について詳細に説明する。図5および図6は、本実施の形態にかかる運指難易度評価処理の例を示すフローチャートである。なお、本実施の形態においては、楽曲データは、右手で演奏する楽曲(メロディ)の音符についての楽音データから構成される。したがって、運指難易度においては、右手で演奏する場合の運指難易度が算出され。楽曲データ中、楽音データのレコードの運指情報は、右手のどの指で押鍵するかを示している。また、指番号「1」〜「5」は、それぞれ、親指〜小指で押鍵すべきことを示している。
iCost = iFCost × RF + iRCost × RR
+ ITCost x RT + iCnt x RC
Hereinafter, the fingering difficulty evaluation process, the rhythm difficulty evaluation process, and the tonality difficulty evaluation process will be described in detail. 5 and 6 are flowcharts showing an example of the fingering difficulty evaluation process according to the present embodiment. In the present embodiment, the music data is composed of musical tone data for musical notes of a music piece (melody) played with the right hand. Therefore, in the fingering difficulty level, the fingering difficulty level when playing with the right hand is calculated. In the music data, the fingering information of the musical sound data record indicates with which finger the right hand is pressed. Finger numbers “1” to “5” indicate that the keys should be pressed with the thumb to the little finger, respectively.

図5に示すように、CPU11は、楽音データに示す楽曲のノート(音符)数を示すパラメータiCntを「0」に初期化するとともに(ステップ501)、RAM13の楽曲データ中、最初の楽音データのレコードNote[0]を、配列me[]に格納する(ステップ502)。CPU11は、楽曲データにおいて全ての楽音データのレコードについて処理が終了するまで(ステップ503でYes)、ステップ504〜515を繰り返す。   As shown in FIG. 5, the CPU 11 initializes a parameter iCnt indicating the number of notes (musical notes) of the music indicated in the musical sound data to “0” (step 501), and the first musical sound data in the musical piece data in the RAM 13. Record Note [0] is stored in array me [] (step 502). The CPU 11 repeats steps 504 to 515 until the processing is completed for all musical sound data records in the music data (Yes in step 503).

まず、CPU11は、配列me[]に格納された楽音データのレコードの、一つ前の楽音でデータのレコードを特定し、それを配列prev[]に格納する(ステップ504)。次いで、CPU11は、配列me[]および配列prev[]に格納された値に基づいて、テクニック分類処理を実行する(ステップ505)。テクニック分類処理においては、楽曲の隣接する音符間の運指について、ポジションタイプ(PosType)、指開きタイプ(iSpreadType)、リバースタイプ(RevType)、および、指使いテクニック(Tech)という4つの分類項目のそれぞれの何れに該当するかを判断する。   First, the CPU 11 specifies a record of data with the previous musical sound of the musical sound data stored in the array me [], and stores it in the array prev [] (step 504). Next, the CPU 11 executes technique classification processing based on the values stored in the array me [] and the array prev [] (step 505). In the technique classification process, the fingering between adjacent notes of the music is classified into four classification items: position type (PosType), finger opening type (iSpreadType), reverse type (RevType), and finger usage technique (Tech). It is judged which of each corresponds.

ここで、ポジションタイプ(PosType)という分類項目は、どのような指のポジションで運指が行なわれるかを示す。また、指開きタイプ(iSpreadType)は、隣接する音符を押鍵する指の開き具合を示す。また、リバースタイプ(RevType)は、後述する指くぐり、或いは、指返し(乗り越え)の存在を示す。さらに、指使いテクニック(Tech)は、隣接する音符を押鍵するときにどのような指使い(指換え)がなされているかを示す。   Here, the classification item of position type (PosType) indicates at what kind of finger position fingering is performed. The finger opening type (iSpreadType) indicates the opening degree of the finger pressing the adjacent note. The reverse type (RevType) indicates the presence of a finger penetration or a finger turn (getting over) described later. Further, the fingering technique (Tech) indicates what kind of fingering (finger change) is performed when the adjacent note is pressed.

テクニック分類処理では、それぞれの分類項目について、当該分類項目における具体的提要を示す分類値が算出される。図7および図8は、本実施の形態にかかるテクニック分類処理の例を示すフローチャートである。CPU11は、配列me[]中の運指情報「Fig」、音高情報「Pit」および鍵盤位置情報「Pos」について、f1=Fig、p1=Pit、ps1=Posとする。また、音高情報「Pit」に基づき、鍵が白鍵か黒鍵かを判断し、白鍵、黒鍵の何れかを示す情報をb1とする。値b1は、鍵が黒鍵であることを示す値「1」或いは鍵が白鍵であることを示す値「0」の何れかをとる。これら値f1、p1、ps1、b1は、RAM13に格納される。   In the technique classification process, for each classification item, a classification value indicating a specific requirement in the classification item is calculated. 7 and 8 are flowcharts showing an example of technique classification processing according to the present embodiment. The CPU 11 sets f1 = Fig, p1 = Pit, and ps1 = Pos for fingering information “Fig”, pitch information “Pit”, and keyboard position information “Pos” in the array me []. Further, based on the pitch information “Pit”, it is determined whether the key is a white key or a black key, and information indicating either the white key or the black key is b1. The value b1 takes either a value “1” indicating that the key is a black key or a value “0” indicating that the key is a white key. These values f1, p1, ps1, and b1 are stored in the RAM 13.

また、CPU11は、配列prev[]中の運指情報「Fig」、音高情報「Pit」および鍵盤位置情報「Pos」について、f2=Fig、p2=Pit、ps2=Posとする。また、音高情報「Pit」に基づき、鍵が白鍵か黒鍵かを判断し、白鍵、黒鍵の何れかを示す情報をb2とする。これら値f2、p2、ps2、b2は、RAM13に格納される。CPU11は、p1、p2、f1およびf2に基づき、音高差を示す指標iDistを算出する(ステップ703)。   The CPU 11 sets f2 = Fig, p2 = Pit, and ps2 = Pos for the fingering information “Fig”, pitch information “Pit”, and keyboard position information “Pos” in the array prev []. Further, based on the pitch information “Pit”, it is determined whether the key is a white key or a black key, and information indicating either the white key or the black key is b2. These values f2, p2, ps2, and b2 are stored in the RAM 13. The CPU 11 calculates an index iDist indicating a pitch difference based on p1, p2, f1, and f2 (step 703).

音高差を示す指標iDistは、楽曲において音符の進行が上行であったときに、指番号が増大あるいは減少しているか、また、進行が下行であったときに、指番号が減少或いは増大しているかを示す指標である。本実施の形態においては、iDistは以下のように求められる。   The index iDist indicating the pitch difference indicates that the finger number is increased or decreased when the progress of the note is upward in the music, and the finger number is decreased or increased when the progress is downward. It is an index indicating whether or not In the present embodiment, iDist is obtained as follows.

iDist=(p1−p2)*(f1−f2)
したがって、iDist>0である場合には、音符の進行が上行かつ指番号が増大するような指使いである場合、或いは、音符の進行が下行かつ指番号が減少するような指使いである場合を意味している。すなわち、iDist>0である場合には、指が開く形態で運指が行なわれる(指くぐりや指返しが行なわれない)ことを示している。
iDist = (p1-p2) * (f1-f2)
Therefore, when iDist> 0, the finger is used to increase the finger number and increase the number of notes, or the finger is used to increase the finger number and decrease the number of fingers. Means. That is, when iDist> 0, it is indicated that fingering is performed in a form in which the finger is opened (no finger penetration or finger turning is performed).

CPU11は、f2=f1かつp2=p1であるかを判断する(ステップ704)。ステップ704でYesとなる場合とは、隣接する音符間で、同じ音高の鍵が同じ指で押鍵されることを示す。ステップ704でYesと判断された場合には、CPU11は、指使いテクニック(Tech)という分類項目について、分類値Techとして、「Tech=3」という値を与える(ステップ705)。与えられた値は、RAM13に格納される。次いで、CPU11は、f2≠f1かつp2=p1であるかを判断する(ステップ706)。ステップ706でYesとなる場合とは、隣接する音符間で、同じ音高の鍵が異なる指で押鍵されることを示す。ステップ706でYesと判断された場合には、CPU11は、指使いテクニック(Tech)という分類項目について、「Tech=2」という値を与える(ステップ707)。   The CPU 11 determines whether f2 = f1 and p2 = p1 (step 704). The case of “Yes” in step 704 indicates that keys having the same pitch are pressed with the same finger between adjacent notes. If it is determined as Yes in step 704, the CPU 11 gives a value of “Tech = 3” as the classification value Tech for the classification item “finger use technique (Tech)” (step 705). The given value is stored in the RAM 13. Next, the CPU 11 determines whether f2 ≠ f1 and p2 = p1 (step 706). The case of “Yes” in step 706 indicates that keys having the same pitch are pressed with different fingers between adjacent notes. If it is determined Yes in step 706, the CPU 11 gives a value of “Tech = 2” for the classification item “finger use technique (Tech)” (step 707).

次いで、CPU11は、f2=f1かつp2≠p1であるかを判断する(ステップ708)。ステップ708でYesとなる場合とは、隣接する音符間で異なる音高の鍵が同じ指で押鍵されることを示す。ステップ708でYesと判断された場合には、CPU11は、指使いテクニック(Tech)という分類項目について、「Tech=4」という値を与える(ステップ709)。ステップ708でNoと判断された場合には、CPU11は、指使いテクニック(Tech)という分類項目について、「Tech=1」という値を与える(ステップ710)。   Next, the CPU 11 determines whether f2 = f1 and p2 ≠ p1 (step 708). The case of Yes in step 708 indicates that keys having different pitches between adjacent notes are pressed with the same finger. When it is determined Yes in step 708, the CPU 11 gives a value of “Tech = 4” for the classification item “finger use technique (Tech)” (step 709). When it is determined No in step 708, the CPU 11 gives a value of “Tech = 1” for the classification item “finger use technique (Tech)” (step 710).

次に、CPU11は、iDist>0であるかを判断する(ステップ801)。上述したように、iDist>0であることは、指が開く形態で運指が行なわれる(指くぐりや指返しが行なわれない)ことを示している。ステップ801でYesと判断された場合には、CPU11は、b2、b1、f2およびf1に基づいて、所定のテーブルiPType[][][][]に基づいて、分類値PosTypeとして、PosType=iPType[b2][b1][f2][f1]を取得する(ステップ802)。テーブルiPType[][][][]は、隣接する音符について、指番号および白鍵/黒鍵の種別に基づく値を含み、RAM13に格納される。   Next, the CPU 11 determines whether iDist> 0 is satisfied (step 801). As described above, iDist> 0 indicates that fingering is performed in such a manner that the finger is opened (no finger penetration or finger turning is performed). When it is determined Yes in step 801, the CPU 11 sets PosType = iPType as the classification value PoType based on the predetermined table iPType [] [] [] [] based on b2, b1, f2, and f1. [B2] [b1] [f2] [f1] are acquired (step 802). The table iPType [] [] [] [] includes values based on the finger number and the type of white key / black key for adjacent notes, and is stored in the RAM 13.

テーブルiPType[][][][]における値について以下に簡単に説明する。テーブルiPtype[][][][]は、隣接する音符に配置すべき指の指番号およびその位置(白鍵或いは黒鍵)の関係に基づいて、その指のポジションタイプを格納したテーブルである。たとえば、現在の音符および一つ前の音符の双方が白鍵であれば、iPType[0][0][f2][f1]=1となる。また、一つ前の音符が親指でかつ白鍵が押鍵されていれば、現在の音符が黒鍵であった場合に、iPType[0][1][1][f1]=2となる。また、一つ前の音符が親指でかつ黒鍵が押鍵されていれば、現在の音符が黒鍵であった場合に、iPType[1][1][1][f1]=3となる。   The values in the table iPType [] [] [] [] will be briefly described below. The table iPtype [] [] [] [] is a table that stores the position type of a finger based on the relationship between the finger number of the finger to be placed on an adjacent note and its position (white key or black key). . For example, if both the current note and the previous note are white keys, iPType [0] [0] [f2] [f1] = 1. If the previous note is a thumb and a white key is pressed, iPType [0] [1] [1] [f1] = 2 when the current note is a black key. . If the previous note is a thumb and a black key is pressed, iPType [1] [1] [1] [f1] = 3 when the current note is a black key. .

このように、テーブルiPtypeにおいては、隣接する音符を押鍵するときの手のむきや指の位置の難易度が高まるのに応じて、値が大きくなるようになっている。   As described above, in the table iPtype, the value increases as the difficulty of the peeling of the hand or the position of the finger when pressing adjacent notes is increased.

ステップ802が実行された後、CPU11は、指開き特定処理を実行する(ステップ803)。図9は、本実施の形態にかかる指開き特定処理の例を詳細に示すフローチャートである。   After step 802 is executed, the CPU 11 executes finger opening identification processing (step 803). FIG. 9 is a flowchart showing in detail an example of the finger opening specifying process according to the present embodiment.

図9に示すように、CPU11は、指開きの度合いを示すパラメータであるiMin、iL1およびiL2(iMin<iL1<iL2)をRAM13から取得する(ステップ901)。たとえば、iMinは、白鍵での長2度の幅に相当する「2」、iL1は、白鍵での長3度に相当する「4」、iL1は、白鍵での完全8度に相当する「14」である。指開き特定処理においては、iDistと、iMin、iL1およびiL2とを比較して、指開きタイプ(iSpreadType)の分類値を決定していく。   As shown in FIG. 9, the CPU 11 acquires iMin, iL1 and iL2 (iMin <iL1 <iL2), which are parameters indicating the degree of finger opening, from the RAM 13 (step 901). For example, iMin is “2” corresponding to a width of 2 degrees in the white key, iL1 is “4” corresponding to 3 degrees in the white key, and iL1 is completely 8 degrees in the white key. It is “14”. In the finger opening specifying process, iDist is compared with iMin, iL1, and iL2, and the classification value of the finger opening type (iSpreadType) is determined.

CPU11は、鍵盤位置に基づく距離iKDist=|ps2−ps1|を算出する(ステップ902)。   The CPU 11 calculates a distance iKDist = | ps2-ps1 | based on the keyboard position (step 902).

ステップ703において算出されたiDist<0である場合には(ステップ903でYes)、CPU11は、指開きタイプ(iSpreadType)という分類項目について、分類値iSpreadTypeとして、「iSpreadType=0」という値を与える(ステップ904)。なお、図9が実行されるときには、iDist>0であることが前提である(図8のステップ801参照)。したがって、これは実際には起こりえないことであるため、ステップ904はエラー処理となる。   When iDist <0 calculated in Step 703 (Yes in Step 903), the CPU 11 gives a value of “iSpreadType = 0” as a classification value iSpreadType for the classification item of the finger opening type (iSpreadType) ( Step 904). When FIG. 9 is executed, it is assumed that iDist> 0 (see step 801 in FIG. 8). Therefore, since this cannot actually occur, step 904 is an error process.

iKDist=iMinである場合(ステップ905でYes)、CPU11は、指開きタイプ(iSpreadType)という分類項目について、分類値iSpreadTypeとして、「iSpreadType=1」という値を与える(ステップ906)。iMin<iKDist≦iL1である場合(ステップ907でYes)、CPU11は、指開きタイプ(iSpreadType)という分類項目について、「iSpreadType=2」という値を与える(ステップ908)。iKDist<iMinである場合(ステップ909でYes)、CPU11は、指開きタイプ(iSpreadType)という分類項目について、「iSpreadType=3」という値を与える(ステップ910)。   When iKDist = iMin (Yes in Step 905), the CPU 11 gives a value of “iSpreadType = 1” as the classification value iSpreadType for the classification item of the finger opening type (iSpreadType) (Step 906). When iMin <iKDist ≦ iL1 (Yes in Step 907), the CPU 11 gives a value of “iSpreadType = 2” to the classification item of the finger opening type (iSpreadType) (Step 908). When iKDist <iMin (Yes in Step 909), the CPU 11 gives a value of “iSpreadType = 3” to the classification item of the finger opening type (iSpreadType) (Step 910).

iKDist<iL2である場合(ステップ911でYes)、CPU11は、指開きタイプ(iSpreadType)という分類項目について、「iSpreadType=4」という値を与える(ステップ912)。その一方、iKDist≧iL2である場合(ステップ911でNo)、CPU11は、指開きタイプ(iSpreadType)という分類項目について、「iSpreadType=5」という値を与える(ステップ913)。   When iKDist <iL2 (Yes in Step 911), the CPU 11 gives a value of “iSpreadType = 4” to the classification item of the finger opening type (iSpreadType) (Step 912). On the other hand, if iKDist ≧ iL2 (No in step 911), the CPU 11 gives a value of “iSpreadType = 5” to the classification item of the finger opening type (iSpreadType) (step 913).

指開き特定処理によって、iKDistの値にしたがって、以下のようなiSpreadTypeの値が付与される。   By the finger opening specifying process, the following iSpreadType values are assigned according to the iKDist value.

0≦iKDist<Min iSpreadType=3
iKDist=iMin iSpreadType=1
iMin<iKDist≦iL1 iSpreadType=2
iL1<iKDist<iL2 iSpreadType=4
iL2≦iKDist iSpreadType=5
指開き特定処理が終了すると、CPU11は、リバースタイプ(RevType)という分類項目について、分類値RevTypeとして、「RevType=1」という分類値を与える(ステップ804)。その後、CPU11は、配列me[]に格納された楽音データについて算出されたPosType、iSpreadType、RevTypeおよびTechという分類値を、当該楽音データと関連付けて記憶装置(RAM13)に格納する(ステップ805)。
0 ≦ iKDist <Min iSpreadType = 3
iKDist = iMin iSpreadType = 1
iMin <iKDist ≦ iL1 iSpreadType = 2
iL1 <iKDist <iL2 iSpreadType = 4
iL2 ≦ iKDist iSpreadType = 5
When the finger opening identification process ends, the CPU 11 gives a classification value “RevType = 1” as the classification value RevType for the classification item of the reverse type (RevType) (step 804). Thereafter, the CPU 11 stores the classification values calculated for the musical tone data stored in the array me [], such as PosType, iSpreadType, RevType, and Tech, in the storage device (RAM 13) in association with the musical tone data (step 805).

ステップ801でNoと判断された場合には、所定のテーブルiRType[][][][]に基づいて、RevType=iRType[p2][p1][f2][f1]を取得する(ステップ806)。テーブルiRType[][][][]は、隣接する音符について、指番号および音高に基づく値を含み、RAM13に格納される。   If it is determined No in step 801, RevType = iRTtype [p2] [p1] [f2] [f1] is acquired based on a predetermined table iRTType [] [] [] [] (step 806). . The table iRTType [] [] [] [] includes values based on finger numbers and pitches for adjacent notes, and is stored in the RAM 13.

テーブルiRType[][][][]における値について以下に簡単に説明する。テーブルiRtype[][][][]は、隣接する音符に配置すべき指の指番号および音高の関係に基づいて、運指における指くぐりや指返し(乗り越え)を示す情報を格納したテーブルである。本実施の形態において、iDist≦0のときには、上行音形において、「1」より大きな指番号の指から指番号「1」の指に移行すること(いわゆる「指くぐり」)、或いは、下行音形において、指番号「1」の指から「1」より大きな指番号の指に移行すること(いわゆる「指返し」ないし「指の乗り越え」)が行なわれ得ることを意味している。   The values in the table iRTType [] [] [] [] will be briefly described below. The table iRtype [] [] [] [] stores information indicating finger penetration and finger turn-over (overcoming) in fingering based on the relationship between finger numbers and pitches of fingers to be placed on adjacent notes. It is. In the present embodiment, when iDist ≦ 0, in the ascending sound form, the finger having the finger number larger than “1” is shifted to the finger having the finger number “1” (so-called “finger penetration”), or the descending sound In terms of shape, it means that a finger having a finger number “1” can be shifted to a finger having a finger number larger than “1” (so-called “finger turn” or “finger over”).

本実施の形態においては、指くぐりのとき、つまり、p2<p1,f2>1、f1=1のときには、iRType[p2][p1][f2][f1]=3となる。また、指返しのとき、つまり、p2>p1、f2=1、f1>1のときには、iRType[p2][p1][f2][f1]=2となる。一般的に、運指において、指返しより指くぐりの方が難しいといわれているため、指くぐりについて、RevType=3、指返しについてRevType=2となるようにしている。   In the present embodiment, iRtype [p2] [p1] [f2] [f1] = 3 in the case of finger penetration, that is, when p2 <p1, f2> 1 and f1 = 1. When the finger is turned back, that is, when p2> p1, f2 = 1, and f1> 1, iRTtype [p2] [p1] [f2] [f1] = 2. In general, it is said that fingering is more difficult for fingering than fingering, so RevType = 3 for fingering and RevType = 2 for fingering.

ステップ806の後、CPU11は、ポジションタイプ(PosType)という分類項目について、「PosType=1」という分類値、指開きタイプ(iSpreadType)という分類項目について、「iSpreadType=1」という分類値を与える(ステップ807)。その後、CPU11は、配列me[]に格納された楽音データについて算出されたPosType、iSpreadType、RevTypeおよびTechという分類値を、当該楽音データと関連付けて記憶装置(RAM13)に格納する(ステップ805)。   After step 806, the CPU 11 gives a classification value of “PosType = 1” for the classification item of position type (PosType), and a classification value of “iSpreadType = 1” for the classification item of the finger opening type (iSpreadType) (step 806). 807). Thereafter, the CPU 11 stores the classification values calculated for the musical tone data stored in the array me [], such as PosType, iSpreadType, RevType, and Tech, in the storage device (RAM 13) in association with the musical tone data (step 805).

次に、2次元マップiFMap[i][j](iは分類項目、jは分類項目において付与された値)において、テクニック分類処理により得られた分類項目に対応する値をインクリメントする処理を実行する(図5のステップ506〜512)。本実施の形態においては、ポジションタイプ(PosType)、指開きタイプ(iSpreadType)、リバースタイプ(RevType)、および、指使いテクニック(Tech)という4つの分類項目が存在する。したがって、2次元のマップMap[i][j]のそれぞれの要素は以下の分類項目に対応する。   Next, in the two-dimensional map iFMap [i] [j] (i is a classification item, j is a value assigned to the classification item), a process of incrementing a value corresponding to the classification item obtained by the technique classification process is executed. (Steps 506 to 512 in FIG. 5). In the present embodiment, there are four classification items: a position type (PosType), a finger opening type (iSpreadType), a reverse type (RevType), and a fingering technique (Tech). Accordingly, each element of the two-dimensional map Map [i] [j] corresponds to the following classification item.

iFMap[0][j]:jが「PosType」の値
iFMap[1][j]:jが「iSpreadType」の値
iFMap[2][j]:jが「RevType」の値
iFMap[3][j]:jが「Tech」の値
なお、以下のステップ506、508、510、512から理解できるように、j=0、2のときの値は存在せず、j>1のみについて値を有する。
iFMap [0] [j]: j is a value of “PosType” iFMap [1] [j]: j is a value of “iSpreadType” iFMMap [2] [j]: j is a value of “RevType” iFMMap [3] [ j]: j is a value of “Tech” Note that, as can be understood from the following steps 506, 508, 510, 512, there is no value when j = 0, 2 and there is a value only for j> 1. .

CPU11は、PosType>1である場合には(ステップ506でYes)、対応するマップの値であるiFMap[0][PosType]をインクリメントする(ステップ507)。また、CPU11は、iSpreadType>1である場合には(ステップ508でYes)、対応するマップの値であるiFMap[1][iSpreadType]をインクリメントする(ステップ509)。CPU11は、RevType>1である場合には(ステップ510でYes)、対応するマップの値であるiFMap[2][RevType]をインクリメントする(ステップ511)。さらに、CPU11は、Tech>1である場合には(ステップ512でYes)、対応するマップの値であるiFMap[3][Tech]をインクリメントする(ステップ513)。   If PosType> 1 (Yes in Step 506), the CPU 11 increments iFMap [0] [PosType], which is the value of the corresponding map (Step 507). If iSpreadType> 1 (Yes in Step 508), the CPU 11 increments iFMap [1] [iSpreadType], which is the value of the corresponding map (Step 509). If RevType> 1 (Yes in Step 510), the CPU 11 increments iFMap [2] [RevType], which is the value of the corresponding map (Step 511). Further, when Tech> 1 (Yes in step 512), the CPU 11 increments iFMap [3] [Tech], which is the value of the corresponding map (step 513).

次いで、CPU11は、ノート数(音符数)を示すパラメータiCntをインクリメントして(ステップ514)、配列me[]に、次の楽音データのレコードを格納し(ステップ515)、その後、ステップ503に戻る。   Next, the CPU 11 increments the parameter iCnt indicating the number of notes (number of notes) (step 514), stores the record of the next musical sound data in the array me [] (step 515), and then returns to step 503. .

ステップ503でYesと判断された場合には、CPU11は、パラメータiおよびiFCostを「0」に初期化する(ステップ601)。CPU11は、パラメータiが「4」以上であるかを判断する(ステップ602)。上記パラメータiは、iFMap[i][j]の「i」を特定するためのものである。ステップ602でNoと判断された場合には、パラメータjを「0」に初期化して(ステップ603)、jが所定数より大きくなるまで(ステップ604)、ステップ605〜607の処理を繰り返す。   If it is determined Yes in step 503, the CPU 11 initializes the parameters i and iFCost to “0” (step 601). The CPU 11 determines whether the parameter i is “4” or more (step 602). The parameter i is for specifying “i” of iFMap [i] [j]. If it is determined No in step 602, the parameter j is initialized to “0” (step 603), and the processes in steps 605 to 607 are repeated until j becomes larger than a predetermined number (step 604).

CPU11は、マップの値iFMap[i][j]が「0」より大きいかを判断する(ステップ605)。ステップ605でYesと判断された場合には、CPU11は、マップの値iFMap[i][j]に対応付けられたコスト値iFCost[i][j]を、運指難易度の値iFCostに加算する(ステップ606)。   The CPU 11 determines whether the map value iFMap [i] [j] is greater than “0” (step 605). If it is determined Yes in step 605, the CPU 11 adds the cost value iFCost [i] [j] associated with the map value iFMap [i] [j] to the fingering difficulty value iFCost. (Step 606).

以下、コスト値iFCost[i][j]を格納したコストテーブル(iFCost[][][])について説明する。コストテーブルは、コスト値iFCost[i][j]のそれぞれに対応する、「i×j」個のコスト値iFCost[i][j]を格納している。たとえば、iFCost[0][j]は、テクニック分類処理(図8)のステップ802で取得された「PosType」の値のそれぞれに対応するコスト値であり、ポジションタイプのそれぞれの値に固有の値となっている。i=1以上の他のコスト値も同様である。   Hereinafter, the cost table (iFCost [] [] []) storing the cost value iFCost [i] [j] will be described. The cost table stores “i × j” number of cost values iFCost [i] [j] corresponding to each of the cost values iFCost [i] [j]. For example, iFCost [0] [j] is a cost value corresponding to each value of “PosType” acquired in step 802 of the technique classification process (FIG. 8), and is a value unique to each value of the position type. It has become. The same applies to other cost values of i = 1 or more.

本実施の形態においては、ポジションタイプ「PosType」、指開きタイプ「iSpreadType」、リバースタイプ「RevType」および指使いテクニック「Tech」のそれぞれにおいて、値が大きくなるのにしたがって、それぞれの分類項目において運指の困難度が高まるようになっている。したがって、コスト値iFCost[i][j]も、jが増大するのにしたがって、コスト値が増大するようになっている。   In the present embodiment, as the value increases in each of the position type “PosType”, the finger opening type “iSpreadType”, the reverse type “RevType”, and the fingering technique “Tech”, the operation is performed for each classification item. The difficulty level of fingers is increasing. Therefore, the cost value iFCost [i] [j] also increases as j increases.

また、本実施の形態においては,マップの値iFMap[i][j]が幾つであるかは考慮せず、「0」より大きければ(すなわち「1」以上であれば)、コスト値iFCost[i][j]を、運指難易度の値iFCostに加算している。すなわち、マップの値の多寡にかかわらず、加算される値はコスト値iFCost[i][j]である。これは、分類項目「i」(例えば、ポジションタイプや指開きタイプ)において、iFMap[i][j]において1より大きい値を有する音符が1つあれば、その場合には、当該iFMap[i][j]に対応する難易度を含むため、そのノートの数は、難易度を示すコスト値にそれほど大きく影響しないであろうという知見に基づく。   Also, in the present embodiment, the number of map values iFMap [i] [j] is not considered, and if it is greater than “0” (ie, “1” or more), the cost value iFCost [ i] [j] is added to the fingering difficulty value iFCost. That is, regardless of the number of map values, the added value is the cost value iFCost [i] [j]. This is because if there is one note having a value greater than 1 in iFMap [i] [j] in the classification item “i” (for example, position type or finger-open type), in this case, the iFMap [i ] [J] is included, the number of notes is based on the knowledge that the cost value indicating the difficulty level will not be significantly affected.

無論、マップの値iFMap[i][j]に応じて、加算されるiFCost[i][j]に重みを与えても良い。つまりこの場合には、
iCost=iCost+
f(iFCost[i][j])×iFCost[i][j]
となる。ここで、f(iFCost[i][j])は、変数iFCost[i][j]が増大するのにしたがって増大するが、変数iFCost[i][j]が増大するのにしたがって、関数値fの増分は小さくなっていく関数である。たとえば、fとして対数関数を使用しても良い。
Of course, iFCost [i] [j] to be added may be given a weight according to the map value iFMap [i] [j]. In this case,
iCost = iCost +
f (iFCost [i] [j]) × iFCost [i] [j]
It becomes. Here, f (iFCost [i] [j]) increases as the variable iFCost [i] [j] increases, but the function value increases as the variable iFCost [i] [j] increases. The increment of f is a decreasing function. For example, a logarithmic function may be used as f.

ステップ605でNoと判断された場合、或いは、ステップ606が実行された後、CPU11は、jをインクリメントして(ステップ607)、ステップ604に戻る。また、ステップ604でYesと判断された場合には、CPU11は、iをインクリメントして(ステップ608)、ステップ602に戻る。   When it is determined No in step 605 or after step 606 is executed, the CPU 11 increments j (step 607) and returns to step 604. If YES is determined in step 604, the CPU 11 increments i (step 608) and returns to step 602.

このように本実施の形態においては、楽曲に含まれるあるノートが、運指に関する分類項目の具体的態様についてのマップ値iMap[i][j]が「0」でない場合には、当該分類項目の具体的態様に対応するコスト値iFCost[i][j]が、運指難易度iFCostに加算される。   As described above, in the present embodiment, when a note included in a musical piece has a map value iMap [i] [j] for a specific aspect of the classification item related to fingering, the classification item is not “0”. The cost value iFCost [i] [j] corresponding to the specific mode is added to the fingering difficulty iFCost.

次に、リズム難易度評価処理について説明する。図10および図11は、本実施の形態にかかるリズム難易度評価処理の例を示すフローチャートである。図10に示すように、CPU11は、RAM13の楽曲データ中、最初の楽音データのレコードNote[0]を、配列me[]に格納する(ステップ1001)。CPU11は、楽曲データにおいて全ての楽音データのレコードについて処理が終了するまで(ステップ1002でYes)、ステップ1003〜1007を繰り返す。   Next, the rhythm difficulty level evaluation process will be described. 10 and 11 are flowcharts showing an example of the rhythm difficulty evaluation process according to the present embodiment. As shown in FIG. 10, the CPU 11 stores the record Note [0] of the first musical sound data in the music data in the RAM 13 in the array me [] (step 1001). The CPU 11 repeats steps 1003 to 1007 until the processing is completed for all musical sound data records in the music data (Yes in step 1002).

CPU11は、RAM13に格納された、リズム評価処理用のパラメータ(リズムパラメータ)を取得する(ステップ1003)。リズムパラメータには、1小節の長さを示すiMeasLen、リズムの分解能を示すResolutionなどが含まれ、これらは、次のリズムコスト算出処理において利用される。CPU11は、リズムコスト算出処理を実行する(ステップ1004)。図12および図13は、本実施の形態にかかるリズムコスト算出処理の例を示すフローチャートである。リズムコスト算出処理においては、音符の音符長(次の音符までの間隔に基づく音符長)に相当する分類項目であるステップタイム(iStepTime)についての分類値と、音符の小節中の位置に相当する分類項目であるポジション(iPos)についての分類値とが得られる。   The CPU 11 acquires a rhythm evaluation process parameter (rhythm parameter) stored in the RAM 13 (step 1003). The rhythm parameter includes iMeasLen indicating the length of one measure, Resolution indicating the resolution of the rhythm, and the like, which are used in the next rhythm cost calculation process. The CPU 11 executes a rhythm cost calculation process (step 1004). 12 and 13 are flowcharts showing an example of rhythm cost calculation processing according to the present embodiment. In the rhythm cost calculation process, it corresponds to the classification value for the step time (iStepTime), which is the classification item corresponding to the note length of the note (note length based on the interval to the next note), and the position in the measure of the note. A classification value for the position (iPos), which is a classification item, is obtained.

図12に示すように、CPU11は、配列me[]に示す楽音データのレコードの、次のレコードを参照して、その発音時刻Timeを取得する(ステップ1201)。次いで、CPU11は、配列me[]中の発音時刻Timeと、ステップ1201で取得した次の発音データのレコードにおける発音時刻Timeとに基づいて、次の音符までの間隔iTを算出する(ステップ1202)。CPU11は、時間間隔iTと、1小節の長さiMeasLenとに基づいて、上記時間間隔の小節内での音符長iStepTimeを算出する(ステップ1203)。得られたiStepTimeが、音符長という分類項目についての分類値となる。   As shown in FIG. 12, the CPU 11 refers to the next record of the musical sound data records shown in the array me [], and acquires the pronunciation time Time (step 1201). Next, the CPU 11 calculates the interval iT to the next note based on the pronunciation time Time in the array me [] and the pronunciation time Time in the record of the next pronunciation data acquired in step 1201 (step 1202). . Based on the time interval iT and the length iMeasLen of one measure, the CPU 11 calculates the note length iStepTime within the measure of the time interval (step 1203). The obtained iStepTime is a classification value for the classification item of note length.

本実施の形態において、音符長iStepTimeは以下のように求められる。   In the present embodiment, the note length iStepTime is obtained as follows.

iStepTime=32×iT/iMeasLen
本実施の形態においては、楽曲は4/4拍子としており、iStepTimeは、iTが32分音符いくつ分に相当するかを示している。
iStepTime = 32 × iT / iMeasLen
In this embodiment, the music has a 4/4 time signature, and iStepTime indicates how many 32nd notes correspond to iT.

次いで、CPU11は、配列me[]中の発音時刻Timeに基づき、小節内の音符位置iTickInMeas、拍内での音符位置iTickInBeatおよび当該音符の属する拍iBeatを算出する(ステップ1304)。iTickInMeasは、1小節を32分割したときの音符の位置、つまり、小節の先頭から32分音符でいくつ目に位置しているかを示す。また、iTickInBeatは、拍の先頭から32分音符でいくつ目に位置しているかを示す。   Next, the CPU 11 calculates the note position iTickInMeas within the measure, the note position iTickInBeat within the beat, and the beat iBeat to which the note belongs based on the sound generation time Time in the array me [] (step 1304). iTickInMeas indicates the position of a note when a measure is divided into 32 parts, that is, the number of 32nd notes from the beginning of the measure. ITickInBeat indicates the number of the 32nd note from the beginning of the beat.

CPU11は、パラメータiおよびiPosを「0」に初期化して(ステップ1205)、iが8未満である限り(ステップ1206でYes)、ステップ1207から1210の処理を実行する。CPU11は、iTickInBeatの位置を特定するために、a=iTickInBeat−iResolution×i/8を算出する(ステップ1207)。ここで、iTickInBeatは、「0」〜「7」の何れかの値をとる。したがって、いずれかのiについて、a=0となり、次のステップ1208でYesと判断される。ステップ1208でNoと判断された場合には、CPU11は、パラメータiをインクリメントして(ステップ1209)、ステップ1206に戻る。ステップ1208でYesと判断された場合には、CPU11は、パラメータiPos=iとする(ステップ1210)。   The CPU 11 initializes the parameters i and iPos to “0” (step 1205), and executes the processing of steps 1207 to 1210 as long as i is less than 8 (Yes in step 1206). The CPU 11 calculates a = iTickInBeat-iResolution × i / 8 in order to specify the position of iTickInBeat (step 1207). Here, iTickInBeat takes any value from “0” to “7”. Therefore, for any i, a = 0 and it is determined Yes in the next step 1208. If it is determined No in step 1208, the CPU 11 increments the parameter i (step 1209) and returns to step 1206. If YES is determined in step 1208, the CPU 11 sets the parameter iPos = i (step 1210).

ステップ1206でNoと判断された場合、或いは、ステップ1210の処理が終了した後、図13のステップ1301に進む。なお、本実施の形態においては、ステップ1204においてiTickInBeatの算出の際に、32分音符の分解能にクォンタイズされる。したがって、ステップ1210においてNoと判断されることは本来ありえない。したがって、この場合は、演算において何らかのエラーが生じたことになる。   If it is determined No in step 1206, or after the processing in step 1210 is completed, the process proceeds to step 1301 in FIG. In this embodiment, when iTickInBeat is calculated in step 1204, it is quantized to the resolution of a 32nd note. Therefore, it is impossible to determine No in step 1210. Therefore, in this case, an error has occurred in the calculation.

このようにして得られたiPosは、音符が、拍の頭から32分音符で何番目の位置にあるかを示すものである。これをそのまま使って良いが、本実施の形態においては、小節の先頭、小節の中央および拍の先頭として、iPosとして異なる値を与える。iTickInMeas=0の場合、すなわち、音符が拍の先頭に位置している場合には(ステップ1301でYes)、CPU11は、iPos=32とする(ステップ1302)。また、iTickInBeat=0かつiBeat=2、つまり、音符が3拍目の先頭(小節の中央)に位置している場合には(ステップ1303でYes)、CPU11は、iPos=16とする(ステップ1304)。さらに、iTickInBeat=0、つまり、音符が2拍目或いは4拍目の先頭に位置している場合には(ステップ1305でYes)、CPU11は、iPos=8とする(ステップ1306)。   The iPos obtained in this way indicates the position of the note at the 32nd note from the beginning of the beat. Although this may be used as it is, in the present embodiment, different values are given as iPos as the beginning of the measure, the center of the measure, and the beginning of the beat. If iTickInMeas = 0, that is, if the note is located at the beginning of the beat (Yes in step 1301), the CPU 11 sets iPos = 32 (step 1302). If iTickInBeat = 0 and iBeat = 2, that is, if the note is located at the beginning of the third beat (the center of the measure) (Yes in step 1303), the CPU 11 sets iPos = 16 (step 1304). ). Furthermore, if iTickInBeat = 0, that is, if the note is positioned at the beginning of the second or fourth beat (Yes in step 1305), the CPU 11 sets iPos = 8 (step 1306).

リズムコスト算出処理によって得られる分類項目の1つであるポジション(iPos)の分類値は、音符の小節中の位置によって以下のような値をとる。   The classification value of the position (iPos), which is one of the classification items obtained by the rhythm cost calculation process, takes the following values depending on the position in the measure of the note.

音符の位置が、小節の先頭:iPos=32
音符の位置が、3拍目の先頭:iPos=16
音符の位置が、他の拍(2拍目、4拍目)の先頭:iPos=8
音符の位置が他の場合:iPos=拍を8等分した場合の位置を示す値
上記iPosは、楽曲が4/4拍子の場合の例であり、他の拍子(たとえば、3/4)の場合には、iPosは異なる。楽曲が3/4拍子であれば、分類値「iPos」は以下の値をとり得る。
The note position is the beginning of the measure: iPos = 32
Note position is at the beginning of the third beat: iPos = 16
The position of the note is the beginning of another beat (2nd beat, 4th beat): iPos = 8
When the position of the note is other: iPos = a value indicating the position when the beat is divided into eight equal parts The above-mentioned iPos is an example in the case where the music has 4/4 time, and other time signatures (for example, 3/4) In some cases, iPos is different. If the music is 3/4 time, the classification value “iPos” can take the following values.

音符の位置が、小節の先頭:iPos=32
音符の位置が、他の拍(2拍目、3拍目)の先頭:iPos=8
音符の位置が他の場合:iPos=拍を8等分した場合の位置を示す値
リズムコスト算出処理が終了すると、CPU11は、2次元マップの値であるiRMa[0][iStepTime]をインクリメントする(ステップ1005)とともに、iRMap[1][iPos]をインクリメントする(ステップ1006)。その後、CPU11は、配列me[]に、次の楽音データのレコードを格納し(ステップ1007)、その後、ステップ1002に戻る。
The note position is the beginning of the measure: iPos = 32
Note position is the beginning of other beats (2nd beat, 3rd beat): iPos = 8
When the position of the note is other: iPos = a value indicating the position when the beat is divided into eight equal parts When the rhythm cost calculation process is completed, the CPU 11 increments iRMa [0] [iStepTime] which is the value of the two-dimensional map At the same time as (Step 1005), iRMMap [1] [iPos] is incremented (Step 1006). Thereafter, the CPU 11 stores a record of the next musical sound data in the array me [] (step 1007), and then returns to step 1002.

ステップ1002でYesと判断された場合には、CPU11は、パラメータiおよびiRCostを「0」に初期化する(ステップ1101)。CPU11は、パラメータiが「2」以上であるかを判断する(ステップ1102)。上記パラメータiは、iRMap[i][j]の「i」を特定するためのものである。ステップ1102でNoと判断された場合には、パラメータjを「0」に初期化して(ステップ1103)、jが所定数より大きくなるまで(ステップ1104)、ステップ1105〜1107の処理を繰り返す。   When it is determined Yes in step 1002, the CPU 11 initializes the parameters i and iRCost to “0” (step 1101). The CPU 11 determines whether the parameter i is “2” or more (step 1102). The parameter i is for specifying “i” of iRMMap [i] [j]. When it is determined No in step 1102, the parameter j is initialized to “0” (step 1103), and the processing of steps 1105 to 1107 is repeated until j becomes larger than a predetermined number (step 1104).

CPU11は、マップ値iRMap[i][j]が「0」より大きいかを判断する(ステップ1105)。ステップ1105でYesと判断された場合には、CPU11は、マップの値iRMap[i][j]に対応付けられたコスト値iRCost[i][j]を、運指難易度の値iRCostに加算する(ステップ1106)。   The CPU 11 determines whether the map value iRMMap [i] [j] is greater than “0” (step 1105). When it is determined Yes in step 1105, the CPU 11 adds the cost value iRCost [i] [j] associated with the map value iRMMap [i] [j] to the fingering difficulty value iRCost. (Step 1106).

以下、コスト値iRCost[i][j]を格納したコストテーブルiRCost[][]について説明する。運指難易度についてのコスト値iR[i][j]を格納したコストテーブルと同様に、コストテーブルiRCost[][]は、コスト値iRCost[i][j]のそれぞれに対応する、「i×j」個のコスト値iRCost[i][j]を格納している。たとえば、iRCost[0][j]は、リズムコスト算出処理(図12)のステップ1203で取得された音符長iStepTimeのそれぞれに対応するコスト値であり、音符長のそれぞれに固有の値となっている。また、iRCost[1][j]は、ステップ1210、ステップ1302、1304、1306で得られた拍内の音符位置iPosのそれぞれに対応するコスト値であり、音符位置のそれぞれに固有の値となっている。   Hereinafter, the cost table iRCost [] [] storing the cost value iRCost [i] [j] will be described. Similar to the cost table storing the cost values iR [i] [j] for the fingering difficulty, the cost table iRCost [] [] corresponds to each of the cost values iRCost [i] [j]. Xj ”cost values iRCost [i] [j] are stored. For example, iRCost [0] [j] is a cost value corresponding to each note length iStepTime acquired in step 1203 of the rhythm cost calculation process (FIG. 12), and is a value specific to each note length. Yes. IRCost [1] [j] is a cost value corresponding to each note position iPos in the beat obtained in steps 1210, 1302, 1304, and 1306, and is a unique value for each note position. ing.

たとえば、iRCost[0][iStepTime]においては、iStepTime=32、16、8、4、および、それら以外の値、について、コスト値iRCost[0][iStepTime]が増大するようになっている。つまり、音符長が、全音符であるとき、そのコスト値iRCost[0][32]がもっとも小さく、2分音符、4分音符、8分音符、その他の音符となるのにしたがって、コスト値は大きくなる。   For example, in iRCost [0] [iStepTime], the cost value iRCost [0] [iStepTime] increases for iStepTime = 32, 16, 8, 4, and other values. That is, when the note length is a full note, its cost value iRCost [0] [32] is the smallest, and the cost value becomes as the second note, quarter note, eighth note, and other notes become. growing.

また、iRCost[1][iPod]においても、iPos=32、16、8、それら以外の値、について、コスト値iRCost[1][iPos]が増大するようになっている。つまり、音符が小節の先頭に位置するとき、そのコスト値iRCost[1][32]がもっとも小さく、3拍目の先頭、2拍目或いは4拍目の先頭、その他の位置となるのにしたがって、コスト値は大きくなる。   Also in iRCost [1] [iPod], the cost value iRCost [1] [iPos] increases for iPos = 32, 16, 8 and other values. That is, when the note is positioned at the beginning of the measure, the cost value iRCost [1] [32] is the smallest, and the beginning of the third beat, the beginning of the second beat, the beginning of the fourth beat, and other positions. The cost value will increase.

運指難易度コストの算出と同様に、マップの値iRMap[i][j]が幾つであるかは考慮せず、0より大きければ(すなわち1以上であれば)、コスト値iRCost[i][j]を、リズム難易度の値iRCostに加算している。すなわち、マップの値の多寡にかかわらず、加算される値はコスト値iRCost[i][j]である。   Similar to the calculation of the fingering difficulty level cost, the number of map values iRMMap [i] [j] is not considered, and if it is greater than 0 (that is, 1 or more), the cost value iRCost [i] [J] is added to the rhythm difficulty value iRCost. That is, regardless of the number of map values, the added value is the cost value iRCost [i] [j].

ステップ1105でNoと判断された場合、或いは、ステップ1106が実行された後、CPU11は、jをインクリメントして(ステップ1107)、ステップ1104に戻る。また、ステップ1104でYesと判断された場合には、CPU11は、iをインクリメントして(ステップ1108)、ステップ1102に戻る。   When it is determined No in step 1105 or after step 1106 is executed, the CPU 11 increments j (step 1107) and returns to step 1104. If YES is determined in step 1104, the CPU 11 increments i (step 1108) and returns to step 1102.

このように本実施の形態においては、音符についてのリズム、特に、音符長および音符位置のそれぞれについて、対応するコスト値iRCost[i][j]が、リズム難易度iRCostに加算される。   Thus, in the present embodiment, the corresponding cost value iRCost [i] [j] is added to the rhythm difficulty iRCost for each of the rhythms of the notes, particularly the note length and note position.

次に、本実施の形態にかかる調性難易度評価処理について説明する。図14および図15は、本実施の形態にかかる調性難易度評価処理の例を示すフローチャートである。図15に示すように、CPU11は、配列me[]に先頭の楽音データのレコードを格納する(ステップ1401)。CPU11は、楽曲データにおいて全ての楽音データのレコードについて処理が終了するまで(ステップ1402でYes)、ステップ1403、1404を繰り返す。   Next, the tonality difficulty level evaluation process according to the present embodiment will be described. 14 and 15 are flowcharts showing an example of the tonality difficulty level evaluation process according to the present embodiment. As shown in FIG. 15, the CPU 11 stores a record of the first musical sound data in the array me [] (step 1401). The CPU 11 repeats steps 1403 and 1404 until the processing is completed for all musical sound data records in the music data (Yes in step 1402).

CPU11は、配列me[]中の音高情報「Pit」に基づいて、カウント値iPC[Pit mod 12]をインクリメントする(ステップ1403)。ステップ1403においては、音符の、CからBまでの何れかの音名に対応するカウント値iPCがインクリメントされる。次いで、CPU11は、配列me[]に次の楽音データのレコードを格納して(ステップ1404)、ステップ1402に戻る。ステップ1402〜1404の処理によって、楽曲に含まれるノート(音符)の音名のそれぞれについて、累算値を格納した配列iPC[]が取得される。   The CPU 11 increments the count value iPC [Pit mod 12] based on the pitch information “Pit” in the array me [] (step 1403). In step 1403, the count value iPC corresponding to any note name from C to B of the note is incremented. Next, the CPU 11 stores the record of the next musical sound data in the array me [] (step 1404), and returns to step 1402. Through the processing in steps 1402 to 1404, an array iPC [] storing the accumulated values is obtained for each note name of notes (notes) included in the music.

ステップ1402でYesと判断された場合には、CPU11は、パラメータiTonality、iMax,iATMaxおよびiを「0」に初期化する(ステップ1405〜1407)。CPU11は、パラメータiが12以上になるまで(ステップ1408でNo)、図15のステップ1501〜1512を実行する。   If it is determined as Yes in step 1402, the CPU 11 initializes the parameters iTonality, iMax, iATMax and i to “0” (steps 1405 to 1407). The CPU 11 executes steps 1501 to 1512 in FIG. 15 until the parameter i becomes 12 or more (No in step 1408).

図15に示すように、CPU11は、パラメータiSumおよびiATonalityを「0」に初期化する。ここに、iSumは、楽曲が含んでいたノート(音符)の音名の累算値と、各調の長音階との一致度を示すパラメータであり、iATonalityは、上記音名の累算値と、各調の長音階との不一致度を示すパラメータである。なお、本実施の形態においては、長音階の楽曲について、各調の長音階との一致度、不一致度を見出しているが、これに限定されるものではない。短音階の楽曲については、各調の短音階との一致度や不一致度を見出せば良い。   As shown in FIG. 15, the CPU 11 initializes parameters iSum and iATonality to “0”. Here, iSum is a parameter indicating the degree of coincidence between the pitch value of notes (notes) included in the music and the major scale of each key, and iATonality is the cumulative value of the pitch name, This is a parameter indicating the degree of inconsistency with the major scale of each key. In the present embodiment, the degree of coincidence and inconsistency with the major scale of each key is found for the music of the major scale, but the present invention is not limited to this. As for the music of minor scales, it is only necessary to find the degree of coincidence or inconsistency with the minor scale of each key.

CPU11は、パラメータjを「0」に初期化して(ステップ1504)、iSumに、iPC[(j+i) mod 12]×iBaseScale[j]を加算する。また、CPU11は、iATonalityに、iPC[(j+i) mod 12]×iATonal[j]を加算する(ステップ1505)。その後、CPU11はjをインクリメントしてステップ1503に戻る。   The CPU 11 initializes the parameter j to “0” (step 1504), and adds iPC [(j + i) mod 12] × iBaseScale [j] to iSum. The CPU 11 adds iPC [(j + i) mod 12] × iATonal [j] to iATonality (step 1505). Thereafter, the CPU 11 increments j and returns to step 1503.

図17(a)は、本実施の形態にかかるベーススケール配列iBaseScale[]の例を示す図である。図17(a)に示すように、iBaseScale[](符号1701)は、11個の要素(j=0〜11)を有し、長音階の音名に相当する要素(j=0、2、4、5、7、9、11)が「1」となり、それ以外が「0」となっている。なお、図17(a)において、配列の要素の上に配置された数字、♭(フラット)、#(シャープ)は、最も左のj=0の要素(根音)に対する間隔(度)を示している。また、図17(b)は、本実施の形態にかかる非ベーススケール配列iATonal[]の例を示す図である。iATonal[](符号1702参照)は、iBaseScale[]1701と同様に、11個の要素(j=0〜11)を有し、その値は、iBaseScaleと逆となっている。すなわち、長音階の音名に該当しない要素(j=1、3、6、8、10)が「1」となり、それ以外が「0」となっている。   FIG. 17A is a diagram illustrating an example of the base scale array iBaseScale [] according to the present embodiment. As shown in FIG. 17A, iBaseScale [] (reference numeral 1701) has 11 elements (j = 0 to 11), and elements corresponding to the major scale pitch names (j = 0, 2, 4). 5, 7, 9, 11) is “1”, and the others are “0”. In FIG. 17A, numbers, 数字 (flat), and # (sharp) arranged on the elements of the array indicate the interval (degree) with respect to the leftmost element (root sound) of j = 0. ing. FIG. 17B is a diagram illustrating an example of the non-base scale array iATonal [] according to the present embodiment. iATonal [] (see reference numeral 1702) has 11 elements (j = 0 to 11), similar to iBaseScale [] 1701, and its value is the reverse of iBaseScale. That is, the elements (j = 1, 3, 6, 8, 10) that do not correspond to the note names of the major scale are “1”, and other elements are “0”.

以下、ステップ1504における、iSumに加算される値iPC[(j+i) mod 12]×iBaseScale[j]について説明する。たとえば、図18において、符号1801は、ステップ1402〜1404で得られた配列iPC[]の例を示す図、符号1802は、ベーススケール配列iBaseScale[]の例を示す図である。   The value iPC [(j + i) mod 12] × iBaseScale [j] added to iSum in step 1504 will be described below. For example, in FIG. 18, reference numeral 1801 is a diagram illustrating an example of the array iPC [] obtained in steps 1402 to 1404, and reference numeral 1802 is a diagram illustrating an example of the base scale array iBaseScale [].

iPC[j+i mod 12]×iBaseScale[j]において、i=0のときには、j=0、2、4、5、7、9において、0以外の値をとり、全てのjについて処理が実行された場合のiSumの最終値は、
iSum=Σ(iPC[j mod 12]×iBaseScale[j])
=7+2+3+10+4+5=31となる。
In iPC [j + i mod 12] × iBaseScale [j], when i = 0, j = 0, 2, 4, 5, 7, and 9 take values other than 0, and processing is performed for all j The final value of iSum is
iSum = Σ (iPC [j mod 12] × iBaseScale [j])
= 7 + 2 + 3 + 10 + 4 + 5 = 31.

i=1のときには、j=4、5、9、11において、0以外の値をとり、全てのjについて処理が実行された場合のiSumの最終値は、
iSum=1+3+5+8=17となる。
When i = 1, j = 4, 5, 9, 11 takes a value other than 0, and when the process is executed for all j, the final value of iSum is
iSum = 1 + 3 + 5 + 8 = 17.

また、i=5のときには、j=0、2、4、5、7、9、22において、0以外の値をとり、全てのjについて処理が実行された場合のiSumの最終値は、
iSum=10+4+5+8+7+2+3=39となる。
Further, when i = 5, j = 0, 2, 4, 5, 7, 9, 22 takes a value other than 0, and the final value of iSum when processing is executed for all j is
iSum = 10 + 4 + 5 + 8 + 7 + 2 + 3 = 39.

さらに、i=7のときには、j=0、2、5、7、9において、0以外の値をとり、全てのjについて処理が実行された場合のiSumの最終値は、
iSum=4+5+7+2+3=22となる。
Further, when i = 7, when j = 0, 2, 5, 7, and 9, a value other than 0 is taken, and the final value of iSum when processing is executed for all j is
iSum = 4 + 5 + 7 + 2 + 3 = 22.

iATonalityにiPC(j+i mod 12)×iATonal[j]を加算する演算も、iSumの演算と同様に実行され得る。   The operation of adding iPC (j + i mod 12) × iATonal [j] to iATonality can be performed in the same manner as the iSum operation.

図19において、符号1901は、ステップ1402〜1404で得られた配列iPC[]の例を示す図、符号1902は、非ベーススケール配列iATonlity[]の例を示す図である。配列iPC[]は、図18の符号1801と同様である。   In FIG. 19, reference numeral 1901 is a diagram illustrating an example of the array iPC [] obtained in steps 1402 to 1404, and reference numeral 1902 is a diagram illustrating an example of the non-base scale array iATonity []. The array iPC [] is the same as the reference numeral 1801 in FIG.

i=0のときには、iATonalityの最終値
iATonality=Σ(iPC[j mod 12]×iATonal[j]
=1+5+8=14となる。
When i = 0, the final value of iATonality is iATonality = Σ (iPC [j mod 12] × iATonal [j]
= 1 + 5 + 8 = 14.

また、i=1のときのiATonalityの最終値は、
iATonality=7+2+10+4+5=28(符号1903参照)
i=5のときのiATonalityの最終値は、
iATonality=5+1=6(符号1904参照)
i=7のときのiATonalityの最終値は、
iATonality=5+8+1+10=24(符号1905参照)となる。
Also, the final value of iATonality when i = 1 is
iATonality = 7 + 2 + 10 + 4 + 5 = 28 (see reference numeral 1903)
The final value of iATonality when i = 5 is
iATonality = 5 + 1 = 6 (see reference numeral 1904)
The final value of iATonality when i = 7 is
iATonality = 5 + 8 + 1 + 10 = 24 (see reference numeral 1905).

ステップ1503でNoと判断された場合、つまり、特定のiについて、j=0〜11のiSumおよびiATonalityが算出された場合には、CPU11は、一致度iSumと不一致度iATonalityの差分値a(=iSum−iATonality)を算出する(ステップ1507)。   When it is determined No in step 1503, that is, when iSum and iATonality of j = 0 to 11 are calculated for a specific i, the CPU 11 calculates the difference value a (== the matching degree iSum and the mismatching degree iATonality. iSum-iATonality) is calculated (step 1507).

CPU11は、ステップ1507において得られた差分値aが、RAM13に記憶された差分値aの最大値iMaxより大きいかを判断する(ステップ1508)。ステップ1508でYesと判断された場合には、CPU11は、差分値aを最大値iMaxとしてセットし(ステップ1509)、かつ、最大値iMaxを得たときの調性を示すパラメータiTonalityにiをセットする(ステップ1510)。また、CPU11は、得られた不一致度iATonalityを、iSumの最大値が得られたときの対応する不一致度iATMaxとしてセットする(ステップ1511)。   The CPU 11 determines whether or not the difference value a obtained in step 1507 is larger than the maximum value iMax of the difference value a stored in the RAM 13 (step 1508). If it is determined Yes in step 1508, the CPU 11 sets the difference value a as the maximum value iMax (step 1509) and sets i to the parameter iTonality indicating the tonality when the maximum value iMax is obtained. (Step 1510). Further, the CPU 11 sets the obtained inconsistency degree iATonality as the corresponding inconsistency degree iAMax when the maximum value of iSum is obtained (step 1511).

ステップ1508でNoと判断された場合、または、ステップ1511が実行された後に、CPU11は、iをインクリメントして、ステップ1408に戻る。ステップ1408でNoと判断された場合には、CPU11は、調性難易度を示すiTCostを以下のように算出する(ステップ1409)。   When it is determined No in step 1508 or after step 1511 is executed, the CPU 11 increments i and returns to step 1408. When it is determined No in step 1408, the CPU 11 calculates iTCost indicating the tonality difficulty level as follows (step 1409).

iTCost=(iATMax×A)/iMax
ここに、Aは所定の定数である。したがって、iTCostは、調性の一致度が最大となったときの、音符の音階との一致度iSumとそのときの不一致度iATonalityとの差分値に対する、そのときの不一致度の比に、定数Aを乗じたものとなる。
iTCost = (iATMax × A) / iMax
Here, A is a predetermined constant. Therefore, iTCost is a constant A based on the ratio of the degree of mismatch at this time to the difference value between the degree of coincidence iSum with the musical note scale and the degree of mismatch iATonality at the time when the degree of coincidence of tonality is maximized. Multiplied by.

先に説明したように、運指難易度iFCost、リズム難易度iRCostおよび調性難易度iTCostが算出されると、これら難易度および楽曲のノート数iCntに基づいて、以下のように楽曲の難易度iCostが算出される。   As described above, when the fingering difficulty iFCost, the rhythm difficulty iRCost, and the tonality difficulty iTCost are calculated, the difficulty of the music is as follows based on the difficulty and the number of notes iCnt of the music. iCost is calculated.

iCost=iFCost×RF+iRCost×RR
+iTCost×RT+iCnt×RC
iCost = iFCost × RF + iRCost × RR
+ ITCost x RT + iCnt x RC

次に、本実施の形態にかかる係数最適化処理(図2のステップ206)についてより詳細に説明する。係数最適化処理において、楽曲の難易度iCostを算出する際に、運指難易度、リズム難易度および調性難易度の各要素に乗算される重み係数RF、RRおよびRTを最適化する。概略的には、楽曲における各要素の難易度を、人が評価する場合と同様の結果となるように重み係数を算出している。図20は、本実施の形態にかかる係数最適化処理の例を示すフローチャート出る。図20に示すように、CPU11は、処理の繰り返し回数を示すパラメータoptを「0」に初期化し(ステップ2001)、パラメータoptが定められた所定数より大きくなるまで(ステップ2002でYes)、ステップ2003〜2010を繰り返す。   Next, the coefficient optimization process (step 206 in FIG. 2) according to the present embodiment will be described in more detail. In the coefficient optimization process, when calculating the difficulty level iCost of the music, the weighting coefficients RF, RR, and RT multiplied by each element of the fingering difficulty level, the rhythm difficulty level, and the tonality difficulty level are optimized. Schematically, the weighting coefficient is calculated so that the degree of difficulty of each element in the music becomes the same result as when a person evaluates. FIG. 20 is a flowchart showing an example of coefficient optimization processing according to this embodiment. As shown in FIG. 20, the CPU 11 initializes a parameter opt indicating the number of repetitions of the process to “0” (step 2001), and until the parameter opt exceeds a predetermined number (Yes in step 2002), step Repeat 2003-2010.

CPU11は、楽曲の難易度の要素を特定するためのパラメータiを「0」に初期化する(ステップ2003)。ここで、i=0は、運指難易度を示し、i=1はリズム難易度を示し、また、i=2は調性難易度を示す。CPU11は、パラメータiが要素数Emax(この場合には「3」)未満である限り(ステップ2004)、ステップ2005〜2008を繰り返す。   The CPU 11 initializes a parameter i for specifying the element of the difficulty level of the music to “0” (step 2003). Here, i = 0 indicates a fingering difficulty, i = 1 indicates a rhythm difficulty, and i = 2 indicates a tonality difficulty. The CPU 11 repeats steps 2005 to 2008 as long as the parameter i is less than the element number Emax (in this case, “3”) (step 2004).

次いで、CPU11は、繰り返し回数を示すパラメータoptが「0」、つまり、1回目の処理であるかを判断する(ステップ2005)。ステップ2005でYesと判断された場合には、重み係数の基礎値a[i]を、予め定められた初期値ini[i]とする(ステップ2006)。初期値ini[i]は任意の値(たとえば、ini[i]=1)で良い。ステップ2005でNoと判断された場合には、上記基礎値a[i]を、先の処理で得られた重み係数の候補値の最大値bmax[i]とする(ステップ2007)。なお、最終的に得られたbmax[0]が運指難易度についての重み係数RF、bmax[1]がリズム難易度についての重み係数RR、bmax[2]が調性難易度についての重み係数RTとなる。ステップ2006、2007が実行されると、CPU11は、パラメータiをインクリメントして(ステップ2008)、ステップ2004に戻る。   Next, the CPU 11 determines whether or not the parameter opt indicating the number of repetitions is “0”, that is, the first process (step 2005). When it is determined Yes in step 2005, the basic value a [i] of the weighting coefficient is set to a predetermined initial value ini [i] (step 2006). The initial value ini [i] may be an arbitrary value (for example, ini [i] = 1). If it is determined No in step 2005, the basic value a [i] is set as the maximum value bmax [i] of the candidate weight coefficient values obtained in the previous processing (step 2007). Note that finally obtained bmax [0] is a weighting factor RF for the fingering difficulty, bmax [1] is a weighting factor RR for the rhythm difficulty, and bmax [2] is a weighting factor for the tonality difficulty. RT. When steps 2006 and 2007 are executed, the CPU 11 increments the parameter i (step 2008) and returns to step 2004.

ステップ2004でNoと判断された場合には、CPU11は、最適値算出処理を実行する(ステップ2009)。その後、CPU11は、繰り返し回数を示すパラメータoptをインクリメントして(ステップ2010)、ステップ2002に戻る。   When it is determined No in step 2004, the CPU 11 executes an optimum value calculation process (step 2009). Thereafter, the CPU 11 increments the parameter opt indicating the number of repetitions (step 2010), and returns to step 2002.

図21、22は、本実施の形態にかかる最適値算出処理の例を示すフローチャートである。基礎値a[i]は、求める重み係数の中心値と考える。最適値算出処理においては、パラメータi、jおよびkを用いた三重ループによって、基礎値a[]の周辺の値iVarの全ての組み合わせについて、候補値b[]が求められる。また、候補値b[]を用いた難易度(難易度算出値)が求められ、当該難易度と、専門家による難易度評価値との相関が算出され、求められた相関値の最大値rmaxが得られる。以下、最適値算出処理をより詳細に説明する。   21 and 22 are flowcharts showing an example of the optimum value calculation process according to the present embodiment. The basic value a [i] is considered as the center value of the weighting coefficient to be obtained. In the optimum value calculation process, candidate values b [] are obtained for all combinations of values iVar around the basic value a [] by a triple loop using the parameters i, j, and k. Further, the difficulty level (difficulty level calculation value) using the candidate value b [] is obtained, the correlation between the difficulty level and the difficulty level evaluation value by the expert is calculated, and the maximum value rmax of the obtained correlation values. Is obtained. Hereinafter, the optimum value calculation process will be described in more detail.

図21に示すように、CPU11は、相関値の最大値rmaxを初期化するとともに(ステップ2101)、パラメータiを初期化する(ステップ2102)。次いで、CPU11は、パラメータiが所定の周辺値数を示すパラメータiVarより小さい限り(ステップ2103でYes)、ステップ2104以下の処理を実行する。なお、i≧iVarとなった場合に(ステップ2103でNo)には処理を終了する。   As shown in FIG. 21, the CPU 11 initializes the maximum correlation value rmax (step 2101) and initializes the parameter i (step 2102). Next, as long as the parameter i is smaller than the parameter iVar indicating the predetermined number of peripheral values (Yes in step 2103), the CPU 11 executes the processing from step 2104 onward. If i ≧ iVar (No in step 2103), the process ends.

ステップ2103でYesと判断された場合には、CPU11は、パラメータjを初期化して(ステップ2104)、パラメータjが所定のパラメータiVarより小さい限り(ステップ2105でYes)、ステップ2106以下の処理を実行する。なお、j≧iVarとなった場合に(ステップ2105でNo)には、CPU11は、パラメータiをインクリメントして(ステップ2112)、ステップ2103に戻る。   If it is determined Yes in step 2103, the CPU 11 initializes the parameter j (step 2104), and executes the processing from step 2106 onward as long as the parameter j is smaller than the predetermined parameter iVar (Yes in step 2105). To do. If j ≧ iVar (No in step 2105), the CPU 11 increments the parameter i (step 2112) and returns to step 2103.

ステップ2105でYesと判断された場合には、CPU11は、パラメータkを初期化して(ステップ2106)、パラメータkが所定のパラメータiVarより小さい限り(ステップ2107でYes)、ステップ2108以下の処理を実行する。なお、k≧iVarとなった場合に(ステップ2107でNo)には、CPU11は、パラメータjをインクリメントして(ステップ2111)、ステップ2105に戻る。   If it is determined Yes in step 2105, the CPU 11 initializes the parameter k (step 2106), and executes the processing from step 2108 onward as long as the parameter k is smaller than the predetermined parameter iVar (Yes in step 2107). To do. If k ≧ iVar (No in step 2107), the CPU 11 increments the parameter j (step 2111) and returns to step 2105.

ステップ2107でYesと判断された場合には、CPU11は、候補値b[0]からb[2]のそれぞれに値をセットする(ステップ2108〜2110)。ステップ2108〜2110においては、以下のように候補値b[]が算出される。   If it is determined as Yes in step 2107, the CPU 11 sets a value for each of the candidate values b [0] to b [2] (steps 2108 to 2110). In steps 2108 to 2110, a candidate value b [] is calculated as follows.

b[0]=a[0]×d[i]
b[1]=a[1]×d[j]
b[2]=a[2]×d[k]
d[i]、d[j]、d[k]は、それぞれ、候補値b[]を算出するために、基礎値a[]に乗じるための定められた係数であり、本実施の形態においては、0.0〜9.9の値をとるようになっている。たとえば、d[0]=0.0、d[1]=0.2、d[2]=0.6・・・d[6]=9.9というように、パラメータi、j、kが増大するのにしたがって係数が増大するようになっている。
b [0] = a [0] × d [i]
b [1] = a [1] × d [j]
b [2] = a [2] × d [k]
d [i], d [j], and d [k] are predetermined coefficients for multiplying the basic value a [] in order to calculate the candidate value b []. Takes a value between 0.0 and 9.9. For example, parameters i, j, and k are set such that d [0] = 0.0, d [1] = 0.2, d [2] = 0.6... D [6] = 9.9. The coefficient increases as it increases.

ステップ2110の後、CPU11は、難易度算出処理を実行する(ステップ2201)。難易度算出処理においては、予め難易度が算出されている所定数(SongN)の楽曲の難易度に基づいて、相関値算出のための難易度算出値out[]を算出する。図23は、本実施の形態にかかる難易度算出処理の例を示すフローチャートである。図23に示すように、難易度算出処理において、CPU11は、楽曲を特定するためのパラメータpを「0」に初期化して(ステップ2301)、パラメータpが楽曲総数SongN未満である限り(ステップ2302でYes)、ステップ2303〜2308の処理を繰り返す。   After step 2110, the CPU 11 executes difficulty level calculation processing (step 2201). In the difficulty level calculation process, a difficulty level calculation value out [] for calculating a correlation value is calculated based on the difficulty level of a predetermined number (SongN) of songs for which the difficulty level has been calculated in advance. FIG. 23 is a flowchart illustrating an example of the difficulty level calculation process according to the present embodiment. As shown in FIG. 23, in the difficulty level calculation process, the CPU 11 initializes a parameter p for specifying a song to “0” (step 2301), as long as the parameter p is less than the total number of songs SongN (step 2302). Yes), the processing of steps 2303 to 2308 is repeated.

CPU11は、難易度算出値out[p]を「0」に初期化して(ステップ2303)、難易度の要素(運指難易度、リズム難易度、調性難易度)を特定するためのパラメータjを「0」に初期化する(ステップ2304)。CPU11は、パラメータqが要素数Emax未満である限り(ステップ2305でYes)、ステップ2306〜2307を実行する。CPU11は、難易度算出値out[p]=out[p]+data[q][p]×b[q]を算出する(ステップ2306)。ここに、data[q][p]は、パラメータpで特定される楽曲について、パラメータqで特定される要素(q=0であれば運指、q=1であればリズム、q=2であれば調性)について算出された難易度である。data[q][p]は予め算出されRAM13に格納されている。その後、CPU11は、パラメータqをインクリメントして(ステップ2307)、ステップ2305に戻る。   The CPU 11 initializes the difficulty level calculation value out [p] to “0” (step 2303), and specifies parameters j for specifying the difficulty level elements (the fingering difficulty level, the rhythm difficulty level, the tonality difficulty level). Is initialized to “0” (step 2304). The CPU 11 executes steps 2306 to 2307 as long as the parameter q is less than the element number Emax (Yes in step 2305). The CPU 11 calculates the difficulty calculation value out [p] = out [p] + data [q] [p] × b [q] (step 2306). Here, data [q] [p] is an element specified by the parameter q (fingering if q = 0, rhythm if q = 1, and q = 2 for the music specified by the parameter p). The degree of difficulty calculated for the tonality if any. data [q] [p] is calculated in advance and stored in the RAM 13. Thereafter, the CPU 11 increments the parameter q (step 2307) and returns to step 2305.

また、ステップ2305でNoと判断された場合には、CPU11は、パラメータpをインクリメントして(ステップ2308)、ステップ2302に戻る。   If NO is determined in step 2305, the CPU 11 increments the parameter p (step 2308) and returns to step 2302.

難易度算出処理が終了すると、CPU11は、難易度算出処理において求めた難易度算出値out[k]と、予めRAM13に格納していた専門家による難易度評価値dat[k]との相関値rを求める(ステップ2202)。たとえば、相関値は以下のような一般的な相関係数を利用することができる。   When the difficulty level calculation process ends, the CPU 11 correlates the difficulty level calculation value out [k] obtained in the difficulty level calculation process with the expert difficulty level evaluation value dat [k] stored in the RAM 13 in advance. r is obtained (step 2202). For example, the correlation value can use the following general correlation coefficient.

Figure 0005272900
上記式において、xi=out[i]、yi=dat[i]、n=SongNである。CPU11は、ステップ2202で算出された相関値rが、以前の処理にて得られていた相関値の最大値rmaxより大きいかを判断する(ステップ2203)。ステップ2203でNoと判断された場合には、CPU11は、パラメータkをインクリメントして(ステップ2209)、ステップ2107に戻る。
Figure 0005272900
In the above formula, xi = out [i], yi = dat [i], and n = SongN. The CPU 11 determines whether the correlation value r calculated in step 2202 is larger than the maximum correlation value rmax obtained in the previous process (step 2203). If it is determined No in step 2203, the CPU 11 increments the parameter k (step 2209) and returns to step 2107.

その一方、ステップ2203でYesと判断された場合には、CPU11は、パラメータnを「0」に初期化して、nが要素数Emax未満である限り(ステップ2205でYes)、ステップ2206〜2208を実行する。CPU11は、現在の候補値b[n]を最大値bmax[n]としてRAM13に一時的に記憶するとともに(ステップ2206)、現在の相関値rを相関値の最大値rmaxとしてRAM13に一時的に記憶する(ステップ2207)。その後、CPU11は、パラメータnをインクリメントして(ステップ2208)、ステップ2205に戻る。ステップ2205でNoと判断された場合には、CPU11は、パラメータkをインクリメントして(ステップ2209)、ステップ2109に戻る。ステップ2205〜2208によって、難易度の要素のそれぞれについての係数の候補値b[0]〜b[2]および相関値rの最大値rmaxが取得される。   On the other hand, if it is determined Yes in step 2203, the CPU 11 initializes the parameter n to “0”, and as long as n is less than the number of elements Emax (Yes in step 2205), steps 2206 to 2208 are performed. Run. The CPU 11 temporarily stores the current candidate value b [n] as the maximum value bmax [n] in the RAM 13 (step 2206) and temporarily stores the current correlation value r as the maximum correlation value rmax in the RAM 13. Store (step 2207). Thereafter, the CPU 11 increments the parameter n (step 2208) and returns to step 2205. If it is determined No in step 2205, the CPU 11 increments the parameter k (step 2209) and returns to step 2109. Through the steps 2205 to 2208, candidate values b [0] to b [2] of the coefficient and the maximum value rmax of the correlation value r are obtained for each difficulty level element.

前述したように、最適値算出処理(ステップ2209)は所定回数だけ実行されて、処理が繰り返されることにより、bmax[0]〜bmax[2]が、専門家の判断による値に徐々に近づいていく。得られたbmax[0]、bmax[1]およびbmax[2]は、RAM13などの記憶装置に格納され、難易度評価処理(図4)の全体難易度の算出(ステップ404)において、それぞれ、調性難易度iFCostに乗じる重み係数RF、リズム難易度iRCostに乗じる重み係数RR、および、調性難易度iTCostに乗じる重み係数RTとして用いられる。   As described above, the optimum value calculation process (step 2209) is executed a predetermined number of times, and the process is repeated, so that bmax [0] to bmax [2] gradually approach the value determined by the expert. Go. The obtained bmax [0], bmax [1], and bmax [2] are stored in a storage device such as the RAM 13, and in the calculation of the total difficulty (step 404) in the difficulty evaluation process (FIG. 4), respectively. The weighting factor RF multiplied by the tonality difficulty level iFCost, the weighting factor RR multiplied by the rhythm difficulty level iRCost, and the weighting factor RT multiplied by the tonality difficulty level iTCost.

本実施の形態においては、楽曲の演奏に必要な、運指、リズム、調性という要素について、CPU11は、個別難易度を算出し、算出された複数の個別難易度のそれぞれに重み係数を乗じて、重みが付与された個別難易度を累算することにより楽曲全体の難易度を算出する。また、CPU11は、予め算出され記憶手段に格納された個別難易度に基づいて算出される楽曲の難易度演算値と、予め楽曲に対して付与された専門家による同一の楽曲の難易度評価値との相関が最大となるように、個別難易度に乗じる重み係数を最適化する。   In the present embodiment, the CPU 11 calculates individual difficulty levels for elements such as fingering, rhythm, and tonality necessary for the performance of a music, and multiplies each of the calculated individual difficulty levels by a weight coefficient. Then, the difficulty level of the entire music is calculated by accumulating the individual difficulty levels assigned with weights. In addition, the CPU 11 calculates the difficulty level calculation value of the music calculated based on the individual difficulty level calculated in advance and stored in the storage unit, and the difficulty evaluation value of the same music by an expert previously assigned to the music. The weighting factor by which the individual difficulty level is multiplied is optimized so as to maximize the correlation with.

したがって、客観的な要素ごとの個別難易度の加算を行ないつつ、その結果が、専門家の評価から逸脱しないような難易度の算出が可能となる。   Therefore, it is possible to calculate the difficulty level so that the result does not deviate from the expert evaluation while adding the individual difficulty levels for each objective element.

また、本実施の形態においては、運指、リズム、調性という要素ごとに、重み係数の基礎値a[i]の周辺値である、重み係数候補値b[i]を求め、全ての要素についての重み係数の候補値b[0]〜b[2]の組を用いて、前記難易度演算値を算出する。組み合わせを変更して、新たな重み係数の組を作って、難易度演算値を算出することにより、最も難易度評価値との相関が大きかったときの難易度演算値を算出した重み係数候補値を適切に取得することができる。   In the present embodiment, for each element of fingering, rhythm, and tonality, a weight coefficient candidate value b [i] that is a peripheral value of the basic value a [i] of the weight coefficient is obtained, and all elements The difficulty calculation value is calculated using a set of weight coefficient candidate values b [0] to b [2] for. By changing the combination, creating a new set of weighting factors, and calculating the difficulty level calculation value, the weighting factor candidate value that calculated the difficulty level calculation value when the correlation with the difficulty evaluation value was the largest Can be acquired properly.

また、本実施の形態においては、CPU11は、重み係数候補値b[i]を、基礎値a[i]に、所定範囲で変化する係数d[j]を乗じることにより算出する。すなわち、基礎値a[i]の周辺で変化する候補値b[i]の組み合わせから最大値bmax[i]を得ていく。   In the present embodiment, the CPU 11 calculates the weighting coefficient candidate value b [i] by multiplying the basic value a [i] by the coefficient d [j] that changes within a predetermined range. That is, the maximum value bmax [i] is obtained from the combination of candidate values b [i] that change around the basic value a [i].

さらに、本実施の形態においては、CPU11は、音高情報および運指情報に基づいて、隣接する音符を押鍵する運指に関する運指難易度と、音符についての時間情報に基づいて、音符長および音符のタイミングに関するリズム難易度と、音符の音高情報に基づいて、当該楽曲の調性に関する調性難易度と、を算出する。したがって、楽曲を構成する種々の要素を考慮して、適切に楽曲の難易度を算出することが可能となる。   Further, in the present embodiment, the CPU 11 determines the note length based on the fingering difficulty regarding fingering for pressing an adjacent note based on the pitch information and the fingering information, and the time information about the note. Based on the rhythm difficulty relating to the timing of the note and the pitch information of the note, the tonality difficulty relating to the tonality of the music is calculated. Therefore, it is possible to appropriately calculate the difficulty level of the music in consideration of various elements constituting the music.

本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。   The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.

10 楽曲難易度算出装置
11 CPU
12 ROM
13 RAM
14 大規模記憶装置
15 入力装置
16 表示装置
17 サウンドシステム
18 鍵盤
10 Music difficulty calculation device 11 CPU
12 ROM
13 RAM
14 Large-scale storage device 15 Input device 16 Display device 17 Sound system 18 Keyboard

Claims (3)

楽曲を構成する音符ごとの音高情報、当該音符を押鍵する際の運指情報、および、当該音符についての時間情報を含む楽音データを格納した記憶手段と、
前記音高情報および運指情報に基づいて、隣接する音符を押鍵する運指に関する運指難易度を算出する運指難易度算出手段と、
前記音符についての時間情報に基づいて、当該音符長および音符のタイミングに関するリズム難易度を算出するリズム難易度算出手段と、
前記音符の音高情報に基づいて、当該楽曲の調性に関する調性難易度を算出する調性難易度算出手段と、
算出された運指難易度、リズム難易度及び調性難易度の夫々に重み係数を乗じて、重みが付与された運指難易度、リズム難易度及び調性難易度の夫々を累算することにより楽曲全体の難易度を算出し、算出された難易度を記憶手段に格納する全体難易度算出手段と、
前記運指難易度、リズム難易度及び調性難易度の夫々に乗じる重み係数を最適化する重み係数最適化手段と、を備え、
前記重み係数最適化手段が、
前記運指難易度、リズム難易度及び調性難易度ごとに、重み係数の基礎値の周辺値である重み係数候補値を取得する重み係数候補値取得手段と、
前記算出された運指難易度、リズム難易度及び調性難易度と、当該各難易度夫々の重み係数候補値の組み合わせて作った重み係数候補値との組み合わせを用いて難易度演算値を演算するとともに、当該組み合わせを変更して新たな重み係数候補値の組を作って再度難易度演算値を演算する、という動作を全ての組み合わせについて行う難易度演算値演算手段と、
この難易度演算値演算手段により演算された難易度演算値夫々と前記記憶手段に格納されていた専門家による難易度評価値との相関係数を算出し、この算出された相関係数が最大となる重み係数候補値の組み合わせを構成する重み係数候補値を、前記運指難易度、リズム難易度及び調性難易度夫々の重み係数とする相関算出手段と、
を有することを特徴とする楽曲難易度算出装置。
Storage means for storing musical tone data including pitch information for each note constituting the musical piece, fingering information for pressing the note, and time information about the note;
Based on the pitch information and fingering information, a fingering difficulty calculating means for calculating a fingering difficulty relating to fingering for pressing an adjacent note;
Rhythm difficulty calculating means for calculating a rhythm difficulty related to the note length and the timing of the note based on time information about the note;
Based on the pitch information of the notes, a tonality difficulty calculating means for calculating a tonality difficulty relating to the tonality of the music,
Multiply each of the calculated fingering difficulty, rhythm difficulty, and tonality difficulty by a weighting factor to accumulate each of the weighted fingering difficulty, rhythm difficulty, and tonality difficulty. To calculate the difficulty level of the entire music, and to store the calculated difficulty level in the storage means,
Weight coefficient optimization means for optimizing a weight coefficient for multiplying each of the fingering difficulty, the rhythm difficulty, and the tonality difficulty;
The weight coefficient optimization means comprises:
Weight coefficient candidate value acquisition means for acquiring a weight coefficient candidate value that is a peripheral value of the basic value of the weight coefficient for each of the fingering difficulty, the rhythm difficulty, and the tonality difficulty;
The difficulty calculation value is calculated using a combination of the calculated fingering difficulty, rhythm difficulty and tonality difficulty, and a weighting factor candidate value created by combining the respective weighting factor candidate values. In addition, a difficulty calculation value calculation means for performing the operation of changing the combination and creating a new weight coefficient candidate value pair and calculating the difficulty calculation value again for all combinations;
A correlation coefficient between each of the difficulty calculation values calculated by the difficulty calculation value calculation means and the difficulty evaluation value by the expert stored in the storage means is calculated, and the calculated correlation coefficient is the maximum. Correlation calculating means that sets the weighting factor candidate values constituting the combination of weighting factor candidate values to be the weighting factors of the fingering difficulty, the rhythm difficulty, and the tonality difficulty,
Music difficulty level calculating device characterized in that it comprises a.
前記重み係数最適化手段が、前記重み係数候補値を、基礎値に、所定範囲で変化する係数を乗じることにより算出することを特徴とする請求項に記載の楽曲難易度算出装置。 2. The music difficulty level calculation device according to claim 1 , wherein the weight coefficient optimization unit calculates the weight coefficient candidate value by multiplying a basic value by a coefficient that changes within a predetermined range. 楽曲を構成する音符ごとの音高情報、当該音符を押鍵する際の運指情報、および、当該音符についての時間情報を含む楽音データを格納した記憶手段を備えたコンピュータに、
前記音高情報および運指情報に基づいて、隣接する音符を押鍵する運指に関する運指難易度を算出する運指難易度算出ステップと、
前記音符についての時間情報に基づいて、当該音符長および音符のタイミングに関するリズム難易度を算出するリズム難易度算出ステップと、
前記音符の音高情報に基づいて、当該楽曲の調性に関する調性難易度を算出する調性難易度算出ステップと、
算出された運指難易度、リズム難易度及び調性難易度のそれぞれに重み係数を乗じて、重みが付与された運指難易度、リズム難易度及び調性難易度の夫々を累算することにより楽曲全体の難易度を算出し、算出された難易度を前記記憶手段に格納する全体難易度算出ステップと、
前記運指難易度、リズム難易度及び調性難易度の夫々に乗じる重み係数を最適化する重み係数最適化ステップと、を実行させ、
前記重み係数最適化ステップは、
前記運指難易度、リズム難易度及び調性難易度ごとに、重み係数の基礎値の周辺値である重み係数候補値を取得する重み係数候補値取得ステップと、
前記算出された運指難易度、リズム難易度及び調性難易度と、当該各難易度夫々の重み係数候補値の組み合わせて作った重み係数候補値との組み合わせを用いて難易度演算値を演算するとともに、当該組み合わせを変更して新たな重み係数候補値の組を作って再度難易度演算値を演算する、という動作を全ての組み合わせについて行う難易度演算値演算ステップと、
この演算された難易度演算値夫々と前記記憶手段に格納されていた専門家による難易度評価値との相関係数を算出し、この算出された相関係数が最大となる重み係数候補値の組み合わせを構成する重み係数候補値を、前記運指難易度、リズム難易度及び調性難易度夫々の重み係数とする相関算出ステップと、
を実行させることを特徴とする楽曲難易度算出プログラム。
A computer comprising storage means for storing musical tone data including pitch information for each note constituting the music, fingering information for pressing the note, and time information about the note,
Based on the pitch information and fingering information, a fingering difficulty calculation step for calculating a fingering difficulty for a finger pressing a neighboring note;
A rhythm difficulty calculation step for calculating a rhythm difficulty related to the note length and the timing of the note based on time information about the note;
Based on the pitch information of the notes, a tonality difficulty calculating step for calculating a tonality difficulty relating to the tonality of the music,
Multiply each of the calculated fingering difficulty, rhythm difficulty, and tonality difficulty by a weighting factor to accumulate the weighted fingering difficulty, rhythm difficulty, and tonality difficulty, respectively. Calculating the degree of difficulty of the entire music, and storing the calculated degree of difficulty in the storage means; and
Performing a weighting factor optimization step of optimizing a weighting factor that multiplies each of the fingering difficulty, the rhythm difficulty, and the tonality difficulty ;
The weighting factor optimization step includes:
A weighting coefficient candidate value acquisition step for acquiring a weighting coefficient candidate value that is a peripheral value of a basic value of the weighting coefficient for each of the fingering difficulty, the rhythm difficulty, and the tonality difficulty;
The difficulty calculation value is calculated using a combination of the calculated fingering difficulty, rhythm difficulty and tonality difficulty, and a weighting factor candidate value created by combining the respective weighting factor candidate values. In addition, a difficulty calculation value calculation step for changing the combination to create a new weight coefficient candidate value pair and calculating the difficulty calculation value again for all combinations;
A correlation coefficient between each of the calculated difficulty calculation values and a difficulty evaluation value by a specialist stored in the storage unit is calculated, and a weight coefficient candidate value that maximizes the calculated correlation coefficient is calculated. A correlation calculation step in which the weighting factor candidate values constituting the combination are weighting factors of the fingering difficulty, the rhythm difficulty, and the tonality difficulty;
A program for calculating the degree of difficulty of music.
JP2009133018A 2009-05-29 2009-06-02 Music difficulty calculation device and music difficulty calculation program Active JP5272900B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009133018A JP5272900B2 (en) 2009-06-02 2009-06-02 Music difficulty calculation device and music difficulty calculation program
US12/782,914 US8106281B2 (en) 2009-05-29 2010-05-19 Music difficulty level calculating apparatus and music difficulty level calculating method
DE102010029365A DE102010029365B4 (en) 2009-05-29 2010-05-27 Method and apparatus for calculating the difficulty level of the music
CN201010192940.7A CN101901299B (en) 2009-05-29 2010-05-28 Music difficulty level calculation apparatus and music difficulty level calculating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009133018A JP5272900B2 (en) 2009-06-02 2009-06-02 Music difficulty calculation device and music difficulty calculation program

Publications (2)

Publication Number Publication Date
JP2010281882A JP2010281882A (en) 2010-12-16
JP5272900B2 true JP5272900B2 (en) 2013-08-28

Family

ID=43538694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009133018A Active JP5272900B2 (en) 2009-05-29 2009-06-02 Music difficulty calculation device and music difficulty calculation program

Country Status (1)

Country Link
JP (1) JP5272900B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6090644B2 (en) * 2012-08-01 2017-03-08 カシオ計算機株式会社 Performance difficulty evaluation device, program, and electronic musical instrument
JP6248415B2 (en) * 2013-05-23 2017-12-20 ヤマハ株式会社 Music evaluation device
JP7398812B2 (en) * 2021-04-16 2023-12-15 株式会社コナミアミューズメント Game system, computer program used therefor, and control method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3915428B2 (en) * 2001-04-25 2007-05-16 カシオ計算機株式会社 Music analysis apparatus and program
AU2003275236A1 (en) * 2002-09-23 2004-04-08 Optimum Power Technology, L.P. Optimization expert system
JP2004163446A (en) * 2002-09-24 2004-06-10 Japan Science & Technology Agency Method and program for automatic generation of tablature and recording medium where same program is recorded
JP4742288B2 (en) * 2006-11-16 2011-08-10 カシオ計算機株式会社 Practice procedure generation device and practice procedure generation processing program

Also Published As

Publication number Publication date
JP2010281882A (en) 2010-12-16

Similar Documents

Publication Publication Date Title
US8106281B2 (en) Music difficulty level calculating apparatus and music difficulty level calculating method
US9607593B2 (en) Automatic composition apparatus, automatic composition method and storage medium
US9460694B2 (en) Automatic composition apparatus, automatic composition method and storage medium
JP5799977B2 (en) Note string analyzer
US9558726B2 (en) Automatic composition apparatus, automatic composition method and storage medium
US9257111B2 (en) Music analysis apparatus
JP5071441B2 (en) Music difficulty evaluation device and music difficulty evaluation program
JP2008275975A (en) Rhythm detector and computer program for detecting rhythm
JP6671245B2 (en) Identification device
JP5196550B2 (en) Code detection apparatus and code detection program
CN113763913A (en) Music score generation method, electronic device and readable storage medium
JP5272900B2 (en) Music difficulty calculation device and music difficulty calculation program
WO2010043258A1 (en) Method for analyzing a digital music audio signal
JP4698606B2 (en) Music processing device
JP5272899B2 (en) Music difficulty calculation device and music difficulty calculation program
JP7033365B2 (en) Music processing system, music processing program, and music processing method
Meredith Computing pitch names in tonal music: a comparative analysis of pitch spelling algorithms
US12118968B2 (en) Non-transitory computer-readable storage medium stored with automatic music arrangement program, and automatic music arrangement device
JP2019109357A (en) Feature analysis method for music information and its device
JP2006201278A (en) Method and apparatus for automatically analyzing metrical structure of piece of music, program, and recording medium on which program of method is recorded
JP2007101780A (en) Automatic analysis method for time span tree of musical piece, automatic analysis device, program, and recording medium
Ryan Mathematical harmony analysis
JP2018072444A (en) Chord detection device, chord detection program and chord detection method
WO2022202199A1 (en) Code estimation device, training device, code estimation method, and training method
Lanz Automatic Chord Recognition in Audio Recording

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111025

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120724

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130429

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5272900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150