JP6179188B2 - Music analyzer - Google Patents
Music analyzer Download PDFInfo
- Publication number
- JP6179188B2 JP6179188B2 JP2013108743A JP2013108743A JP6179188B2 JP 6179188 B2 JP6179188 B2 JP 6179188B2 JP 2013108743 A JP2013108743 A JP 2013108743A JP 2013108743 A JP2013108743 A JP 2013108743A JP 6179188 B2 JP6179188 B2 JP 6179188B2
- Authority
- JP
- Japan
- Prior art keywords
- performance
- string data
- note string
- unit
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、演奏された楽曲を特定する技術に関する。 The present invention relates to a technique for specifying a played music piece.
鍵盤の操作内容を表す演奏情報を記録する装置として特許文献1に開示された演奏記録装置がある。この演奏記録装置は、演奏情報記録モードにおいては、鍵盤の操作に基いて時系列的に生成されて音高を表す演奏情報と、時刻情報とを組にして一時記憶領域に記憶させる。演奏記録装置は、演奏が所定時間を超えて行われないと、演奏が終了したものとし、一時記憶した演奏情報を一まとめにした演奏記録ファイルを外部記憶装置に記憶させる。なお、この演奏記録装置においては、時刻情報に対して「レッスン」や「誕生日」などのマーク名を設定することも可能となっている。例えば、マーク名として曲名を設定すれば、どの時点からどの曲を演奏したかを知ることができる。
There is a performance recording device disclosed in
特許文献1の演奏記録装置によれば、ユーザは、マーク名を設定することにより、どの時点でどのような曲を演奏したかを知ることができる。しかしながら、この演奏記録装置においては、マーク名を設定する場合には、ユーザは、設定画面を表示させる操作を行い、マーク名を操作部で入力する必要があり、このような手間を繁雑と感じる者もある。
According to the performance recording apparatus of
本発明は、上述した背景の下になされたものであり、ユーザの手を煩わせることなく、演奏された曲を特定する技術を提供することを目的とする。 The present invention has been made under the above-described background, and an object of the present invention is to provide a technique for specifying a played song without bothering the user.
本発明は、演奏を示す演奏データを取得する演奏データ取得手段と、前記演奏データを時間軸上で複数の区間に区分する区分手段と、楽曲を示す楽曲データを複数取得する楽曲データ取得手段と、前記区分手段で区分された演奏データと、前記楽曲データ取得手段で取得された複数の楽曲データとに基いて、前記複数の区間毎に当該区間の演奏データに類似する楽曲データを特定する特定手段と、前記複数の区間において前記特定手段の特定結果が同一である区間が連続する場合、当該連続する区間を一つの区間に集約する集約手段と、前記集約された区間及び前記集約手段で集約されていない区間のそれぞれについて、類似と特定された楽曲データを示すタグ情報を付加する付加手段とを有する楽曲解析装置を提供する。 The present invention includes performance data acquisition means for acquiring performance data indicating a performance, classification means for dividing the performance data into a plurality of sections on a time axis, and music data acquisition means for acquiring a plurality of music data indicating music. And specifying the music data similar to the performance data of the section for each of the plurality of sections based on the performance data sorted by the sorting means and the plurality of music data obtained by the music data obtaining means And means for aggregating the consecutive sections into one section when the sections having the same identification result of the identifying means are continuous in the plurality of sections, and the aggregated section and the aggregation means Provided is a music analysis apparatus having an adding means for adding tag information indicating music data identified as similar for each of the sections that are not performed.
本発明においては、前記区分手段は、前記演奏データを演奏がなされていない期間で区分する構成としてもよい。 In the present invention, the sorting means may be configured to sort the performance data by a period in which performance is not performed.
また、本発明においては、前記集約された区間及び前記集約手段で集約されていない区間毎に前記演奏データを分割する分割手段を有する構成としてもよい。 Moreover, in this invention, it is good also as a structure which has a division means which divides | segments the said performance data for every area which is not aggregated by the said aggregated area and the said aggregation means.
本発明によれば、ユーザの手を煩わせることなく、演奏された曲を特定することができる。 ADVANTAGE OF THE INVENTION According to this invention, the performed music can be specified, without bothering a user's hand.
[第1実施形態]
図1は、本発明の実施形態に係る楽曲解析装置10のハードウェア構成を示したブロック図である。楽曲解析装置10は、電子楽器20で行われた演奏を表す演奏データの一例である音符列データ(以下、演奏音符列データQと称する)を電子楽器20から取得し、取得した演奏音符列データQを解析することにより、演奏された楽曲を特定するコンピュータ装置である。楽曲解析装置10は、例えば、パーソナルコンピュータ、スマートフォン、タブレット端末など、プログラムを実行可能な装置である。電子楽器20は、例えば電子ピアノであり、演奏者の演奏に応じて、演奏を表す演奏音符列データQを出力する。なお、本実施形態においては、演奏音符列データQは、MIDI(Musical Instrument Digital Interface:登録商標)形式のデータとなっている。演奏者が複数の楽曲を続けて演奏した場合には、演奏音符列データQにおいては、複数の楽曲のMIDIデータが含まれることとなる。
[First Embodiment]
FIG. 1 is a block diagram showing a hardware configuration of a
通信部105は、通信部105に接続された電子楽器20と通信を行う機能を有している。通信部105は、電子楽器20から供給される演奏音符列データQを取得し、取得した演奏音符列データQを制御部101へ供給する。表示部103は、液晶ディスプレイを備えており、楽曲解析装置10を操作するための画面や各種メッセージを表示する。操作部104は、表示部103の表面に設けられ、表示部103が表示した画像を透過し、指が触れた位置を検出するポインティングデバイスを備えている。制御部101は、検出した位置と表示部103に表示されている画面とに応じて各部を制御する。なお、楽曲解析装置10が、パーソナルコンピュータである場合、操作部104においてユーザに操作されるのはマウスやキーボードとなる。
記憶部102は、ハードディスク装置を備えており、電子楽器20から供給された演奏音符列データQを記憶する。また、記憶部102は、演奏音符列データQを解析するときに使用される複数の楽曲の音符列データ(以下、参照音符列データRと称する)を予め記憶している。参照音符列データRは、楽曲を表す楽曲データの一例である。本実施形態においては、参照音符列データRもMIDI形式のデータとなっている。なお、参照音符列データRにおいては、楽曲に固有に付与された識別子(例えば楽曲名)や、楽曲の演奏のテンポなどが含まれる。
The
The
制御部101は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備えている。CPUがROMに記憶されているプログラムを実行すると、演奏音符列データQを取得し、演奏音符列データQに含まれている楽曲を特定する機能や、特定した楽曲を表示する機能などが実現する。
The
図2は、制御部101において実現する機能の構成を示したブロック図である。解析部1001は、通信部105から演奏音符列データQを取得し、記憶部102から参照音符列データRを取得する。つまり、解析部1001は、音符列データを取得する取得手段として機能する。解析部1001は、演奏音符列データQと参照音符列データRとに基いて、演奏音符列データQが、どの参照音符列データRに類似しているか解析し、演奏された楽曲を特定する。
FIG. 2 is a block diagram illustrating a configuration of functions realized in the
解析部1001は、図3に示したように、音符列データ(演奏音符列データQ,参照音符列データR)を、時間軸上で複数の単位区間Fに区分する。つまり、解析部1001は、音符列データを区分する区分手段として機能する。単位区間Fは、例えば楽曲の1小節に相当する時間長に設定される。例えば、参照音符列データRが指定する演奏テンポに応じた1小節分が参照音符列データRの1個の単位区間Fとして画定される。また、電子楽器20に対する操作で演奏者が指示した演奏テンポに応じた1小節分が演奏音符列データQの1個の単位区間Fとして画定される。なお、演奏テンポが指定されていない場合、所定の演奏テンポおよび所定の拍子のもとで1小節に相当する区間が単位区間Fに設定される。例えば演奏テンポを120BPM(Beats Per Minute)と仮定して拍子を4/4拍子と仮定した場合には単位区間Fは2秒に設定される。
The analysis unit 1001 divides the note string data (performance note string data Q, reference note string data R) into a plurality of unit sections F on the time axis, as shown in FIG. That is, the analysis unit 1001 functions as a sorting unit that sorts the note string data. The unit section F is set to a time length corresponding to one measure of the music, for example. For example, one bar corresponding to the performance tempo specified by the reference note string data R is defined as one unit section F of the reference note string data R. In addition, one measure corresponding to the performance tempo designated by the performer by the operation on the electronic
解析部1001は、音符列の音楽的な特徴(特に和声的な特徴)を表現する特徴量系列X(参照音符列データRの特徴量系列XRおよび演奏音符列データQの特徴量系列XQ)を算定する。特徴量系列XRは参照音符列データRの単位区間F毎に算定され、特徴量系列XQは演奏音符列データQの単位区間F毎に算定される。 The analysis unit 1001 includes a feature amount sequence X (a feature amount sequence XR of the reference note sequence data R and a feature amount sequence XQ of the performance note sequence data Q) that expresses musical features (particularly harmony features) of the note sequence. Is calculated. The feature quantity series XR is calculated for each unit section F of the reference note string data R, and the feature quantity series XQ is calculated for each unit section F of the performance note string data Q.
特徴量系列Xの算出について、図3を用いて説明する。解析部1001は、図3に示したように、時間軸(横軸)と音高軸(縦軸)とが設定された座標平面に音符列データ(参照音符列データR,演奏音符列データQ)を展開する。図3に示したように、特徴量系列X(XR,XQ)は、複数の特徴量xmの時系列である。また、特徴量xmは、相異なるピッチクラス(音名)に対応する12個の特徴量dm[1]〜t[12]と、最高音TNm及び最低音BNmとを配列した14次元ベクトルである。このピッチクラスは、音名が共通する音高(ノートナンバ)の集合である。すなわち、周波数が2のべき乗倍の関係(相異なるオクターブにて音名が共通する関係)にある複数の音高は共通のピッチクラスに属する。12半音(C,C#,D,D#,E,F,F#,G,G#,A,A#,B)に対応する12個のピッチクラスについて特徴量dm[1]〜dm[12]が算定される。 The calculation of the feature amount series X will be described with reference to FIG. As shown in FIG. 3, the analysis unit 1001 performs note string data (reference note string data R, performance note string data Q on a coordinate plane in which a time axis (horizontal axis) and a pitch axis (vertical axis) are set. ). As shown in FIG. 3, the feature amount series X (XR, XQ) is a time series of a plurality of feature amounts xm. The feature quantity xm is a 14-dimensional vector in which twelve feature quantities dm [1] to t [12] corresponding to different pitch classes (pitch names), the highest sound TNm, and the lowest sound BNm are arranged. . This pitch class is a set of pitches (note numbers) having a common pitch name. That is, a plurality of pitches whose frequency is a power-of-two relationship (a relationship in which pitch names are different in different octaves) belong to a common pitch class. Features dm [1] to dm [12] for 12 pitch classes corresponding to 12 semitones (C, C #, D, D #, E, F, F #, G, G #, A, A #, B). 12] is calculated.
具体的には、c番目(c=1〜12)のピッチクラスに対応する特徴量dm[c]は、1個の単位区間F内に存在する複数の音符のうちそのピッチクラスに属する各音符の継続長(音価)の合計値τaと、その単位区間F内の全部の音符の継続長の合計値τbとの比(dm[c]=τa/τb)である。合計値τbによる除算は、特徴量dm[c]を0以上かつ1以下の範囲内の数値に正規化する演算である。例えば、図3に示すように、ピッチクラス(音名G)が共通する音高G2の音符(継続長2秒)と音高G3の音符(継続長0.2秒)とが単位区間F内に存在し(τa=2+0.2=2.2)、単位区間F内の全部の音符の継続長の合計値τbが8秒である場合、特徴量dmのうち音名Gのピッチクラス(c=8)に対応する特徴量dm[8]は、0.275(=2.2/8)となる。
Specifically, the feature quantity dm [c] corresponding to the c-th (c = 1 to 12) pitch class is a note belonging to the pitch class among a plurality of notes existing in one unit section F. Is a ratio (dm [c] = τa / τb) between the total value τa of the continuation lengths (tone values) of and the total value τb of the continuation lengths of all notes in the unit interval F. The division by the total value τb is an operation for normalizing the feature quantity dm [c] to a numerical value in the range of 0 to 1 inclusive. For example, as shown in FIG. 3, a note having a pitch G2 (
特徴量xm内の最高音TNm(TN:top note)は、音符列の第m番目の単位区間F内に存在する複数の音符のうち最も高い音符の音高(ノートナンバ)である。図3に例示された単位区間F内では音高G3が最も高音であるから、最高音TNmは、音高G3に対応するノートナンバ「67」に設定される。他方、特徴量xm内の最低音BNm(BN:bottom note)は、音符列の第m番目の単位区間F内に存在する複数の音符のうち最も低い音符の音高である。図3の単位区間Fでは音高C2が最も低音であるから、最低音BNmは、音高C2に対応するノートナンバ「48」に設定される。 The highest note TNm (TN: top note) in the feature amount xm is the pitch (note number) of the highest note among a plurality of notes existing in the m-th unit interval F of the note sequence. Since the pitch G3 is the highest pitch in the unit section F illustrated in FIG. 3, the highest pitch TNm is set to the note number “67” corresponding to the pitch G3. On the other hand, the lowest note BNm (BN: bottom note) in the feature amount xm is the pitch of the lowest note among a plurality of notes existing in the mth unit interval F of the note sequence. Since the pitch C2 is the lowest in the unit section F of FIG. 3, the lowest pitch BNm is set to the note number “48” corresponding to the pitch C2.
解析部1001は、算出した特徴量系列Xを用いて、単位区間F毎に演奏音符列データQに対する各参照音符列データRの類似度を求め、類似度行列を作成する。なお、類似度行列を作成する方法としては、本出願人の先願である特開2013−47938号公報に記載されている方法を用いることができる。例えば、演奏音符列データQの単位区間Fの数がM個であり、記憶部102に記憶されている参照音符列データRの数がN個である場合、図4に示したように、N行×M列の類似度行列が作成される。
The analysis unit 1001 obtains the similarity of each reference note string data R with respect to the performance note string data Q for each unit section F using the calculated feature amount series X, and creates a similarity matrix. As a method for creating the similarity matrix, the method described in Japanese Patent Application Laid-Open No. 2013-47938, which is the prior application of the present applicant, can be used. For example, when the number of unit intervals F of the performance note string data Q is M and the number of reference note string data R stored in the
解析部1001は、算出した類似度行列にDP(Dynamic Programming)マッチングを適用し、最初の単位区間Fから最後の単位区間Fまでの間で、最尤となるパスを求めることにより、単位区間F毎に、演奏音符列データQに対して類似する参照音符列データRを特定する。
これにより、例えば、図4において類似度行列の下に示したように、単位区間F毎に、演奏音符列データQの各単位区間Fが、どの参照音符列データRに類似しているかが特定される。つまり、解析部1001は、演奏音符列データQに類似する参照音符列データRを特定する特定手段として機能する。なお、図4においては、複数の参照音符列データRについて、演奏音符列データQに類似と特定された単位区間Fをハッチングで示している。例えば、図4においては、参照音符列データR3内にあるデータが、演奏音符列データQの1番目の単位区間Fから3番目の単位区間F内にあるデータに類似していることを示している。
The analysis unit 1001 applies DP (Dynamic Programming) matching to the calculated similarity matrix and obtains the maximum likelihood path from the first unit section F to the last unit section F, thereby obtaining the unit section F. For each, reference note string data R similar to the performance note string data Q is specified.
Thus, for example, as shown below the similarity matrix in FIG. 4, for each unit section F, it is specified which reference note string data R each unit section F of the performance note string data Q is similar to. Is done. That is, the analysis unit 1001 functions as a specifying unit that specifies the reference note string data R similar to the performance note string data Q. In FIG. 4, for a plurality of reference note string data R, the unit interval F identified as similar to the performance note string data Q is indicated by hatching. For example, FIG. 4 shows that the data in the reference note string data R3 is similar to the data in the third unit interval F from the first unit interval F of the performance note string data Q. Yes.
解析部1001は、演奏音符列データQの単位区間F毎に、類似の参照音符列データRを特定し終えると、特定結果に基いて演奏音符列データQ内を複数のブロックに分割し、分割した各ブロックにタグを付与する。 When the analysis unit 1001 finishes specifying similar reference note string data R for each unit section F of the performance note string data Q, the analysis unit 1001 divides the performance note string data Q into a plurality of blocks based on the specification result. A tag is assigned to each block.
具体的には、解析部1001は、連続する単位区間Fについて類似する参照音符列データRがいずれも同じ場合、これらの連続する単位区間Fに含まれるMIDIデータを一つの区間として集約する。つまり、解析部1001は、単位区間Fを集約する集約手段として機能する。以後、制御部101は、集約された区間を一つの区間として扱う。例えば、図4に示したように、演奏音符列データQの1番目の単位区間Fから3番目の単位区間Fが、複数の参照音符列データR1〜RNのうちの参照音符列データR3に類似していると特定された場合、解析部1001は、図4の下部に示したように、1番目の単位区間Fから3番目の単位区間Fに含まれるMIDIデータを一つの区間として集約し、集約された区間を一つの区間として扱う。また、図4に示したように、演奏音符列データQの4番目の単位区間Fと5番目の単位区間Fが、参照音符列データR2に類似していると特定された場合、図4の下部に示したように、解析部1001は、4番目の単位区間Fと5番目の単位区間Fに含まれるMIDIデータを一つの区間として集約し、集約された区間を一つの区間として扱う。
Specifically, when similar reference note string data R is the same for consecutive unit sections F, the analysis unit 1001 aggregates MIDI data included in these continuous unit sections F as one section. That is, the analysis unit 1001 functions as an aggregation unit that aggregates the unit sections F. Thereafter, the
次に解析部1001は、まとめられなかったMIDIデータのブロックと、まとめられたMIDIデータのブロックのそれぞれにタグを付与する。つまり、解析部1001は、タグ(タグ情報)を付加する付加手段として機能する。本実施形態においては、タグとして楽曲名を付与する。例えば、図4に示したように、演奏音符列データQにおいてまとめられた1番目の単位区間Fから3番目の単位区間Fは、参照音符列データR3に類似している。参照音符列データR3に含まれている楽曲名が「AAA」である場合、解析部1001は、このまとめられたブロックに対し、図4に示したように「楽曲名:AAA」というタグを付与する。また、解析部1001は、前後の区間Fにまとめられなかった区間Fについてもタグを付与する。 Next, the analysis unit 1001 attaches a tag to each of the MIDI data block that has not been grouped and the MIDI data block that has been grouped. That is, the analysis unit 1001 functions as an adding unit that adds a tag (tag information). In the present embodiment, a song name is assigned as a tag. For example, as shown in FIG. 4, the first unit section F to the third unit section F collected in the performance note string data Q are similar to the reference note string data R3. When the music name included in the reference note string data R3 is “AAA”, the analysis unit 1001 assigns a tag “music name: AAA” to the collected blocks as shown in FIG. To do. The analysis unit 1001 also gives a tag to the section F that is not grouped into the preceding and following sections F.
なお、算出した特徴量系列Xを用いて単位区間F毎に、演奏音符列データQに対して類似する楽曲を特定する構成は、上述した構成に限定されるものではない。例えば、本出願人の先願である特願2012−115064で提案されている技術や、特開2013−47938号公報に開示されている技術を用いるようにしてもよい。 In addition, the structure which specifies the music similar to the performance note sequence data Q for every unit area F using the calculated feature-value series X is not limited to the structure mentioned above. For example, the technique proposed in Japanese Patent Application No. 2012-11564, which is the prior application of the present applicant, or the technique disclosed in Japanese Patent Application Laid-Open No. 2013-47938 may be used.
表示制御部1002は、解析部1001の処理結果を表示部103に表示させる。図5は、表示部103に表示される解析結果の一例を示した図である。図5に示したように、演奏音符列データQは、横方向に時間軸をとって帯状に表示され、分割された各ブロックがブロックの時間長に応じた長さで表示される。また、ブロックの境界に対して、演奏音符列データQの再生開始からの経過時間が表示される。なお、この経過時間は、MIDIデータを解析することにより求められる。また、各ブロック内にはブロックに付与されたタグである楽曲名が表示される。
The
例えば、電子楽器20の演奏者が複数の楽曲の練習を順番に行い、演奏音符列データQが、この練習を表すものである場合、本実施形態の楽曲解析装置10によれば、図5に示したように、演奏音符列データQのどの部分がどの楽曲に相当するか表示されるため、ユーザは、手を煩わせることなく演奏音符列データQの内容を容易に知ることができる。
For example, when the player of the electronic
[第2実施形態]
次に、本発明の第2実施形態に係る楽曲解析装置について説明する。なお、以下の説明において、第1実施形態と同等の構成については、第1実施形態で用いた符号を用いて各々の詳細な説明は適宜省略する。
[Second Embodiment]
Next, a music analysis apparatus according to the second embodiment of the present invention will be described. In the following description, the same components as those in the first embodiment will be omitted as appropriate by using the reference numerals used in the first embodiment.
第2実施形態においては、解析部1001で行われる処理が第1実施形態と異なる。解析部1001は、演奏音符列データQを区分する際、演奏がなされていない期間を検出し、検出した期間を境界にして演奏音符列データQを区分する。なお、解析部1001は、演奏音符列データQに含まれるMIDIデータにおいてノートオフからノートオンまでの期間が予め定められた期間以上となっているところを、演奏がなされていない期間とする。 In the second embodiment, the processing performed by the analysis unit 1001 is different from the first embodiment. When classifying the performance note string data Q, the analysis unit 1001 detects a period in which the performance is not performed, and classifies the performance note string data Q with the detected period as a boundary. Note that the analysis unit 1001 sets a period in which the period from note-off to note-on in the MIDI data included in the performance note string data Q is equal to or longer than a predetermined period as a period during which no performance is performed.
図6は、演奏音符列データQの区分例を示した図である。解析部1001は、演奏音符列データQを時間軸上に展開し、演奏音符列データQにおいて演奏がされていない期間が複数ある場合、図6に示したように演奏音符列データQを複数の演奏音符列データQ1〜QMに区分する。なお、図6においては、帯状の部分が演奏がされている期間を示している。 FIG. 6 is a diagram showing an example of division of the performance note string data Q. The analysis unit 1001 expands the performance note string data Q on the time axis, and when there are a plurality of periods in which the performance note string data Q is not played, the performance note string data Q is converted into a plurality of pieces as shown in FIG. The musical note string data Q1 to QM are divided. FIG. 6 shows a period during which the band-like portion is played.
解析部1001は、演奏音符列データQ1〜QMを、さらに単位区間Fに区分する。解析部1001は、演奏音符列データQ1〜QMのそれぞれを、複数の参照音符列データRに対して時間軸上の位置を複数回相違させ、相違させた複数(B回)の場合の各々について基礎値x[b](x[1]〜x[B])を算定する(b=1〜B)。 The analysis unit 1001 further divides the performance note string data Q1 to QM into unit intervals F. The analysis unit 1001 makes the positions of the performance note string data Q1 to QM different from each other by a plurality of times on the time axis with respect to the plurality of reference note string data R. Base values x [b] (x [1] to x [B]) are calculated (b = 1 to B).
図7は、演奏音符列データQ1について、ある参照音符列データRとの間で基礎値x[b]を算定するときの動作例を示した図である。解析部1001は、演奏音符列データQ1を参照音符列データRに対して単位区間Fの1個分ずつ移動(シフト)した各場合について基礎値x[b]を算定する。すなわち、解析部1001は、演奏音符列データQ1の位置を相違させた各場合について、参照音符列データRにおいて演奏音符列データQ1に対応する対象区間σ[b](K個の単位区間Fの集合)を順次に選択し、演奏音符列データQ1と対象区間σ[b]とを比較することで基礎値x[b]を算定する。 FIG. 7 is a diagram showing an operation example when the basic value x [b] is calculated between the performance note string data Q1 and a certain reference note string data R. The analysis unit 1001 calculates a base value x [b] for each case where the performance note string data Q1 is moved (shifted) by one unit interval F with respect to the reference note string data R. That is, for each case where the position of the performance note string data Q1 is different, the analysis unit 1001 performs a target section σ [b] (of K unit sections F corresponding to the performance note string data Q1 in the reference note string data R). Set) is selected sequentially, and the performance note string data Q1 and the target section σ [b] are compared to calculate the basic value x [b].
ここで、基礎値x[b]を算定する具体的な動作について演奏音符列データQ1を例に説明する。解析部1001は、演奏音符列データQ1と参照音符列データRの対象区間σ[b]との間で相互に対応する単位区間F毎に類似度V[k](V[1]〜V[K])を算定する(k=1〜K)。具体的には、解析部1001は、演奏音符列データQ1および参照音符列データRの各々を、各音符に対応する文字の時系列(文字列)とみなし、演奏音符列データQ1内の第k番目の単位区間Fと対象区間σ[b]内の第k番目の単位区間Fとの間の編集距離(レーベンシュタイン距離)に応じて類似度V[k]を算定する。なお、編集距離の算定については、例えば、本出願人の先願である特願2012−115064で提案されている技術を用いる。
解析部1001は、参照音符列データR内の1個の対象区間σ[b]の相異なる単位区間Fについて算定したK個の類似度V[1]〜V[K]から基礎値x[b]を算定する。例えばK個の類似度V[1]〜V[K]の平均値や最大値が基礎値x[b]として算定される。
Here, a specific operation for calculating the basic value x [b] will be described with the performance note string data Q1 as an example. The analysis unit 1001 uses the similarity V [k] (V [1] to V [] for each unit section F corresponding to the target section σ [b] of the performance note string data Q1 and the reference note string data R. K]) is calculated (k = 1 to K). Specifically, the analysis unit 1001 regards each of the performance note string data Q1 and the reference note string data R as a time series (character string) of characters corresponding to each note, and kth in the performance note string data Q1. The degree of similarity V [k] is calculated according to the editing distance (Levenstein distance) between the th unit section F and the kth unit section F in the target section σ [b]. For the calculation of the edit distance, for example, the technique proposed in Japanese Patent Application No. 2012-1115064 which is the prior application of the present applicant is used.
The analysis unit 1001 calculates a base value x [b from the K similarity degrees V [1] to V [K] calculated for different unit sections F of one target section σ [b] in the reference note string data R. ] Is calculated. For example, an average value or a maximum value of K similarity degrees V [1] to V [K] is calculated as the basic value x [b].
解析部1001は、演奏音符列データQ1を参照音符列データRに対して単位区間Fの1個分ずつ移動させる毎に基礎値x[b]を算定すると、参照音符列データR内の相異なる対象区間σ[b]に対応するB個の基礎値x[1]〜x[B]に応じて類似指標値X[n]を算定する。具体的には、B個の基礎値x[1]〜x[B]のなかの最大値(すなわち参照音符列データRと演奏音符列データQ1との間の最大の類似を示す数値)が類似指標値X[n]として選択される。 When the analysis unit 1001 calculates the basic value x [b] every time the performance note string data Q1 is moved by one unit interval F with respect to the reference note string data R, the analysis unit 1001 differs in the reference note string data R. The similarity index value X [n] is calculated according to the B basic values x [1] to x [B] corresponding to the target section σ [b]. Specifically, the maximum value among the B basic values x [1] to x [B] (that is, a numerical value indicating the maximum similarity between the reference note string data R and the performance note string data Q1) is similar. It is selected as the index value X [n].
解析部1001は、演奏音符列データQ1(演奏データ)と、他に記憶部102に記憶されている複数の参照音符列データRとの間でも、上述した動作で類似指標値X[n]を算定する。複数の参照音符列データR毎に算定された類似指標値X[n]は、演奏音符列データQ1の音符の配列に類似する区間を含む参照音符列データRほど大きい値となる。解析部1001は、算定した類似指標値X[n]に基いて、演奏音符列データQ1に類似する参照音符列データR(楽曲データ)を特定する。解析部1001は、類似指標値X[n]が最大の値となった参照音符列データRに含まれている楽曲名を抽出し、抽出した楽曲名をタグとして演奏音符列データQ1に付与する。
The analysis unit 1001 obtains the similarity index value X [n] by the above-described operation between the performance note string data Q1 (performance data) and the plurality of reference note string data R stored in the
解析部1001は、演奏音符列データQ2〜QMのそれぞれについても、演奏音符列データQ1と同様に類似指標値X[n]を算定し、類似指標値X[n]が最大の値となった参照音符列データRに含まれている楽曲名をタグとして付与する。
表示制御部1002は、演奏音符列データQ1〜QMのそれぞれについてタグが付与されると、例えば、第1実施形態と同様に解析部1001の処理結果を表示部103に表示させる。なお、解析部1001は、連続する演奏音符列データQ1〜QMにおいて類似する参照音符列データRがいずれも同じ場合、これらの連続する演奏音符列データQ1〜QMに含まれるMIDIデータを一つにまとめるようにしてもよい。
The analysis unit 1001 calculates the similarity index value X [n] for each of the performance note string data Q2 to QM as well as the performance note string data Q1, and the similarity index value X [n] becomes the maximum value. The music name included in the reference note string data R is assigned as a tag.
When a tag is assigned to each of the performance note string data Q1 to QM, the
第2実施形態の楽曲解析装置10によれば、第1実施形態と同様に演奏音符列データQのどの部分がどの楽曲に相当するか表示されるため、ユーザは、手を煩わせることなく演奏音符列データQの内容を容易に知ることができる。
According to the
[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した実施形態及び以下の変形例は、各々を組み合わせてもよい。
[Modification]
As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, It can implement with another various form. For example, the present invention may be implemented by modifying the above-described embodiment as follows. In addition, you may combine each of embodiment mentioned above and the following modifications.
上述した実施形態においては、楽曲解析装置10は、電子楽器20から演奏音符列データQを取得しているが、この構成に限定されるものではない。例えば、楽曲解析装置10をネットワークに接続されたサーバ装置とした場合、電子楽器20から演奏音符列データQを取得したコンピュータ装置から、サーバ装置へ演奏音符列データQを送信し、サーバ装置が演奏音符列データQを解析するようにしてもよい。
また、複数の参照音符列データR(楽曲データ)をサーバ装置20に記憶させ、楽曲解析装置10は、サーバ装置から複数の参照音符列データRを取得するようにしてもよい。この場合、制御部101は、通信部105を介して参照音符列データを取得する。つまり、制御部101は、楽曲データを取得する楽曲データ取得手段として機能する。
In the embodiment described above, the
Further, a plurality of reference note string data R (music data) may be stored in the
上述した実施形態においては、解析の結果、演奏音符列データQを複数のブロックに区分した後、区分されたブロック毎に演奏音符列データQを分割して複数のファイルにするようにしてもよい。
また、上述した実施形態においては、解析がなされてタグが付された演奏音符列データQを再生する場合、付されたタグ、即ち楽曲名を表示するようにしてもよい。
In the above-described embodiment, as a result of analysis, the performance note string data Q may be divided into a plurality of blocks, and then the performance note string data Q may be divided into a plurality of files for each divided block. .
Further, in the above-described embodiment, when the performance note string data Q that has been analyzed and has been tagged is reproduced, the tag, that is, the music title may be displayed.
上述した第1実施形態においては、DPマッチングにより、演奏音符列データQに類似の参照音符列データRを特定しているが、DPマッチングを行わずに類似度だけで類似の参照音符列データRを特定するようにしてもよい。 In the first embodiment described above, the reference note string data R similar to the performance note string data Q is specified by DP matching. However, similar reference note string data R is determined only by the similarity without performing DP matching. May be specified.
上述した実施形態においては、演奏音符列データQに類似の参照音符列データRを特定しているが、参照音符列データRのうち、どの部分が類似しているかを特定するようにしてもよい。また、参照音符列データRのうち、どの部分が類似しているかを特定する構成にあっては、複数の演奏音符列データQについて統計処理を行い、特定した部分毎に演奏がなされた回数を計り、演奏回数を表示するようにしてもよい。このように演奏回数を表示する構成によれば、例えば、演奏の練習を行ったときの練習回数を表示することとなり、練習回数を解析して演奏の教習にも利用できる。 In the embodiment described above, the reference note string data R similar to the performance note string data Q is specified. However, it is possible to specify which part of the reference note string data R is similar. . Further, in the configuration for specifying which parts of the reference note string data R are similar, statistical processing is performed on a plurality of performance note string data Q, and the number of times the performance is performed for each specified part is calculated. You may make it measure and display the frequency | count of performance. Thus, according to the structure which displays the frequency | count of performance, for example, the frequency | count of practice when performance of practice is performed will be displayed, and it can utilize for the learning of performance by analyzing the frequency | count of practice.
上述した第2実施形態においては、演奏がなされていない期間で演奏音符列データQを複数の区間Q1〜QMに区分しているが、この構成に限定されるものではない。例えば、MIDIデータと共にマイクロフォンで演奏者の音声を取得し、演奏者の音声があるタイミングで演奏音符列データQを区分するようにしてもよい。また、楽曲解析装置10がスマートフォンやタブレット端末である場合、画面をタップしたタイミングを示すデータを演奏音符列データQに含め、画面がタップされたタイミングで演奏音符列データQを区分するようにしてもよい。また、スマートフォンやタブレット端末が有するカメラで演奏者を撮影し、特定の表示用が撮影されたタイミングを示すデータを演奏音符列データQに含め、当該タイミングで演奏音符列データQを区分するようにしてもよい。また、予め特定の音符列を定め、この音符列があるところで演奏音符列データQを区分するようにしてもよい。この構成によれば、演奏者がある特定の音符列を演奏するだけで、演奏音符列データQを区分することができる。
In the second embodiment described above, the performance note string data Q is divided into a plurality of sections Q1 to QM in a period in which the performance is not performed. However, the present invention is not limited to this configuration. For example, a performer's voice may be acquired by a microphone together with MIDI data, and the performance note string data Q may be divided at a certain timing. In addition, when the
上述した実施形態においては、区分された演奏音符列データQの各ブロックについて、類似と特定された参照音符列データRと比較して演奏の採点を行うようにしてもよい。なお、演奏音符列データQを採点する構成にあっては、採点結果の高かった演奏音符列データQをネットワークに接続されたサーバ装置に記憶させるようにしてもよい。また、上述した実施形態においては、複数の演奏音符列データQの解析結果を表示し、区分されたブロックを編集して複数の演奏音符列データQの間でブロックの結合を行い、新たに演奏音符列データQを作成するようにしてもよい。 In the above-described embodiment, each block of the divided performance note string data Q may be scored for performance in comparison with the reference note string data R identified as similar. In the configuration in which the performance note string data Q is scored, the performance note string data Q having a high scoring result may be stored in a server device connected to the network. In the above-described embodiment, the analysis result of the plurality of musical note string data Q is displayed, the divided blocks are edited, the blocks are combined among the plural musical note string data Q, and a new performance is recorded. Note string data Q may be created.
上述した実施形態においては、タグとして付与される内容は楽曲名であるが、楽曲名に限定されるものではない。例えば、楽曲の作曲者名、編曲者名、楽曲の作曲年月日、楽曲のジャンルなど、楽曲の特定に伴って特定される各種情報をタグとして付与するようにしてもよい。また、楽曲のどの部分かを示す情報(Aメロ、サビなど)を付与してもよい。また、上述した変形例のように、演奏回数を計る構成においては、演奏回数をタグとして付与してもよく、上述した変形例のように採点を行う構成においては、採点結果をタグとして付与してもよい。また、演奏日の情報をタグとして付与してもよい。 In the embodiment described above, the content given as a tag is a song name, but is not limited to a song name. For example, various types of information specified along with the specification of the music, such as the name of the music composer, the name of the composer, the composition date of the music, and the genre of the music, may be added as tags. Information (A melody, rust, etc.) indicating which part of the music may be given. Moreover, in the configuration in which the number of performances is measured as in the above-described modification, the number of performances may be assigned as a tag. In the configuration in which scoring is performed as in the above-described modification, the scoring result is assigned as a tag. May be. Further, performance date information may be given as a tag.
上述した実施形態においては、演奏音符列データQと参照音符列データRは、MIDIデータであるが、MIDIデータに限定されるものではない。例えば、演奏音の波形のスペクトルであってもよい。 In the embodiment described above, the performance note string data Q and the reference note string data R are MIDI data, but are not limited to MIDI data. For example, it may be a spectrum of a performance sound waveform.
10…楽曲解析装置、20…電子楽器、101…制御部、102…記憶部、103…表示部、104…操作部、105…通信部、1001…解析部、1002…表示制御部
DESCRIPTION OF
Claims (3)
前記演奏データを時間軸上で複数の区間に区分する区分手段と、
楽曲を示す楽曲データを複数取得する楽曲データ取得手段と、
前記区分手段で区分された演奏データと、前記楽曲データ取得手段で取得された複数の楽曲データとに基いて、前記複数の区間毎に当該区間の演奏データに類似する楽曲データを特定する特定手段と、
前記複数の区間において前記特定手段の特定結果が同一である区間が連続する場合、当該連続する区間を一つの区間に集約する集約手段と、
前記集約された区間及び前記集約手段で集約されていない区間のそれぞれについて、類似と特定された楽曲データを示すタグ情報を付加する付加手段と
を有する楽曲解析装置。 Performance data acquisition means for acquiring performance data indicating performance;
Classifying means for dividing the performance data into a plurality of sections on the time axis,
Music data acquisition means for acquiring a plurality of music data indicating music;
A specifying means for specifying music data similar to the performance data of the section for each of the plurality of sections based on the performance data sorted by the sorting means and the plurality of music data obtained by the music data obtaining means. When,
In the plurality of sections, when sections having the same identification result of the specifying unit are continuous, an aggregation unit that aggregates the continuous sections into one section;
A music analysis apparatus comprising: an adding means for adding tag information indicating music data identified as similar to each of the aggregated sections and sections not aggregated by the aggregation means.
請求項1に記載の楽曲解析装置。 The music analysis apparatus according to claim 1, wherein the sorting unit sorts the performance data by a period in which performance is not performed.
を有する請求項1又は請求項2に記載の楽曲解析装置。 The music analysis apparatus according to claim 1, further comprising a dividing unit that divides the performance data for each of the aggregated sections and sections not aggregated by the aggregation unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013108743A JP6179188B2 (en) | 2013-05-23 | 2013-05-23 | Music analyzer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013108743A JP6179188B2 (en) | 2013-05-23 | 2013-05-23 | Music analyzer |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014228720A JP2014228720A (en) | 2014-12-08 |
JP6179188B2 true JP6179188B2 (en) | 2017-08-16 |
Family
ID=52128602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013108743A Active JP6179188B2 (en) | 2013-05-23 | 2013-05-23 | Music analyzer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6179188B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007219178A (en) * | 2006-02-16 | 2007-08-30 | Sony Corp | Musical piece extraction program, musical piece extraction device, and musical piece extraction method |
JP5012120B2 (en) * | 2007-03-21 | 2012-08-29 | ヤマハ株式会社 | Performance recording apparatus and program |
JP6019858B2 (en) * | 2011-07-27 | 2016-11-02 | ヤマハ株式会社 | Music analysis apparatus and music analysis method |
-
2013
- 2013-05-23 JP JP2013108743A patent/JP6179188B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014228720A (en) | 2014-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5935503B2 (en) | Music analysis apparatus and music analysis method | |
EP2515296B1 (en) | Performance data search using a query indicative of a tone generation pattern | |
JP5799977B2 (en) | Note string analyzer | |
US8106281B2 (en) | Music difficulty level calculating apparatus and music difficulty level calculating method | |
US20080288095A1 (en) | Apparatus and Method of Creating Content | |
US7041888B2 (en) | Fingering guide displaying apparatus for musical instrument and computer program therefor | |
CN102760428B (en) | Use the such performance data search of the inquiry representing musical sound generation mode | |
JP6459378B2 (en) | Problem management apparatus and problem management program | |
CN108257588B (en) | Music composing method and device | |
US9098679B2 (en) | Raw sound data organizer | |
CN110867174A (en) | Automatic sound mixing device | |
US6323411B1 (en) | Apparatus and method for practicing a musical instrument using categorized practice pieces of music | |
CN113763913A (en) | Music score generation method, electronic device and readable storage medium | |
WO2022143679A1 (en) | Sheet music analysis and marking method and apparatus, and electronic device | |
Holder et al. | Musiplectics: computational assessment of the complexity of music scores | |
JP6179188B2 (en) | Music analyzer | |
TW201719628A (en) | Music score production method with fingering marks and system for the same allowing a player to perform by referring to fingering marks | |
KR101238113B1 (en) | System for Composing and Searching Accomplished Music Using Analysis of the Input Voice | |
Chiu et al. | Automatic system for the arrangement of piano reductions | |
CN114005424A (en) | Information processing method, information processing device, electronic equipment and storage medium | |
JP5272899B2 (en) | Music difficulty calculation device and music difficulty calculation program | |
Huang et al. | The evolution of Western tonality: a corpus analysis of 24,000 songs from 190 composers over six centuries | |
JP6565529B2 (en) | Automatic arrangement device and program | |
JP2007240552A (en) | Musical instrument sound recognition method, musical instrument annotation method and music piece searching method | |
Fiore | Tuning Theory and Practice in James Tenney’s Works for Guitar |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160322 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170703 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6179188 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |