JP6179188B2 - Music analyzer - Google Patents

Music analyzer Download PDF

Info

Publication number
JP6179188B2
JP6179188B2 JP2013108743A JP2013108743A JP6179188B2 JP 6179188 B2 JP6179188 B2 JP 6179188B2 JP 2013108743 A JP2013108743 A JP 2013108743A JP 2013108743 A JP2013108743 A JP 2013108743A JP 6179188 B2 JP6179188 B2 JP 6179188B2
Authority
JP
Japan
Prior art keywords
performance
string data
note string
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013108743A
Other languages
Japanese (ja)
Other versions
JP2014228720A (en
Inventor
康平 須見
康平 須見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2013108743A priority Critical patent/JP6179188B2/en
Publication of JP2014228720A publication Critical patent/JP2014228720A/en
Application granted granted Critical
Publication of JP6179188B2 publication Critical patent/JP6179188B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、演奏された楽曲を特定する技術に関する。   The present invention relates to a technique for specifying a played music piece.

鍵盤の操作内容を表す演奏情報を記録する装置として特許文献1に開示された演奏記録装置がある。この演奏記録装置は、演奏情報記録モードにおいては、鍵盤の操作に基いて時系列的に生成されて音高を表す演奏情報と、時刻情報とを組にして一時記憶領域に記憶させる。演奏記録装置は、演奏が所定時間を超えて行われないと、演奏が終了したものとし、一時記憶した演奏情報を一まとめにした演奏記録ファイルを外部記憶装置に記憶させる。なお、この演奏記録装置においては、時刻情報に対して「レッスン」や「誕生日」などのマーク名を設定することも可能となっている。例えば、マーク名として曲名を設定すれば、どの時点からどの曲を演奏したかを知ることができる。   There is a performance recording device disclosed in Patent Document 1 as a device for recording performance information representing the operation contents of a keyboard. In the performance information recording mode, this performance recording device stores performance information, which is generated in time series based on the operation of the keyboard and representing the pitch, and time information in a temporary storage area. When the performance recording device does not perform for a predetermined time, the performance recording device assumes that the performance has ended, and stores a performance recording file in which performance information temporarily stored is collected in an external storage device. In this performance recording apparatus, mark names such as “lesson” and “birthday” can be set for the time information. For example, if a song name is set as a mark name, it is possible to know which song has been played from which point.

特開2008−233574号公報JP 2008-233574 A

特許文献1の演奏記録装置によれば、ユーザは、マーク名を設定することにより、どの時点でどのような曲を演奏したかを知ることができる。しかしながら、この演奏記録装置においては、マーク名を設定する場合には、ユーザは、設定画面を表示させる操作を行い、マーク名を操作部で入力する必要があり、このような手間を繁雑と感じる者もある。   According to the performance recording apparatus of Patent Document 1, the user can know what kind of music was played at which time by setting the mark name. However, in this performance recording apparatus, when setting a mark name, the user needs to perform an operation for displaying a setting screen and input the mark name on the operation unit, and such trouble is felt complicated. Some people.

本発明は、上述した背景の下になされたものであり、ユーザの手を煩わせることなく、演奏された曲を特定する技術を提供することを目的とする。   The present invention has been made under the above-described background, and an object of the present invention is to provide a technique for specifying a played song without bothering the user.

本発明は、演奏を示す演奏データを取得する演奏データ取得手段と、前記演奏データを時間軸上で複数の区間に区分する区分手段と、楽曲を示す楽曲データを複数取得する楽曲データ取得手段と、前記区分手段で区分された演奏データと、前記楽曲データ取得手段で取得された複数の楽曲データとに基いて、前記複数の区間毎に当該区間の演奏データに類似する楽曲データを特定する特定手段と、前記複数の区間において前記特定手段の特定結果が同一である区間が連続する場合、当該連続する区間を一つの区間に集約する集約手段と、前記集約された区間及び前記集約手段で集約されていない区間のそれぞれについて、類似と特定された楽曲データを示すタグ情報を付加する付加手段とを有する楽曲解析装置を提供する。   The present invention includes performance data acquisition means for acquiring performance data indicating a performance, classification means for dividing the performance data into a plurality of sections on a time axis, and music data acquisition means for acquiring a plurality of music data indicating music. And specifying the music data similar to the performance data of the section for each of the plurality of sections based on the performance data sorted by the sorting means and the plurality of music data obtained by the music data obtaining means And means for aggregating the consecutive sections into one section when the sections having the same identification result of the identifying means are continuous in the plurality of sections, and the aggregated section and the aggregation means Provided is a music analysis apparatus having an adding means for adding tag information indicating music data identified as similar for each of the sections that are not performed.

本発明においては、前記区分手段は、前記演奏データを演奏がなされていない期間で区分する構成としてもよい。   In the present invention, the sorting means may be configured to sort the performance data by a period in which performance is not performed.

また、本発明においては、前記集約された区間及び前記集約手段で集約されていない区間毎に前記演奏データを分割する分割手段を有する構成としてもよい。   Moreover, in this invention, it is good also as a structure which has a division means which divides | segments the said performance data for every area which is not aggregated by the said aggregated area and the said aggregation means.

本発明によれば、ユーザの手を煩わせることなく、演奏された曲を特定することができる。   ADVANTAGE OF THE INVENTION According to this invention, the performed music can be specified, without bothering a user's hand.

本発明に係る楽曲解析装置のハードウェア構成を示したブロック図。The block diagram which showed the hardware constitutions of the music analysis apparatus which concerns on this invention. 楽曲解析装置において実現する機能の構成を示したブロック図。The block diagram which showed the structure of the function implement | achieved in a music analysis apparatus. 特徴量系列を説明するための図。The figure for demonstrating a feature-value series. 解析部の動作を説明するための図。The figure for demonstrating operation | movement of an analysis part. 楽曲解析装置において表示される画面の一例を示した図。The figure which showed an example of the screen displayed in a music analysis apparatus. 演奏音符列データの区分例を示した図。The figure which showed the example of a division of performance note string data. 類似指標値X[n]を説明するための図。The figure for demonstrating the similarity index value X [n].

[第1実施形態]
図1は、本発明の実施形態に係る楽曲解析装置10のハードウェア構成を示したブロック図である。楽曲解析装置10は、電子楽器20で行われた演奏を表す演奏データの一例である音符列データ(以下、演奏音符列データQと称する)を電子楽器20から取得し、取得した演奏音符列データQを解析することにより、演奏された楽曲を特定するコンピュータ装置である。楽曲解析装置10は、例えば、パーソナルコンピュータ、スマートフォン、タブレット端末など、プログラムを実行可能な装置である。電子楽器20は、例えば電子ピアノであり、演奏者の演奏に応じて、演奏を表す演奏音符列データQを出力する。なお、本実施形態においては、演奏音符列データQは、MIDI(Musical Instrument Digital Interface:登録商標)形式のデータとなっている。演奏者が複数の楽曲を続けて演奏した場合には、演奏音符列データQにおいては、複数の楽曲のMIDIデータが含まれることとなる。
[First Embodiment]
FIG. 1 is a block diagram showing a hardware configuration of a music analysis apparatus 10 according to an embodiment of the present invention. The music analysis apparatus 10 acquires note string data (hereinafter referred to as performance note string data Q), which is an example of performance data representing a performance performed by the electronic musical instrument 20, from the electronic musical instrument 20, and the acquired musical note string data. It is a computer device that identifies a played music piece by analyzing Q. The music analysis device 10 is a device that can execute a program, such as a personal computer, a smartphone, or a tablet terminal. The electronic musical instrument 20 is, for example, an electronic piano, and outputs performance note string data Q representing the performance according to the performance of the performer. In the present embodiment, the musical note string data Q is data in the MIDI (Musical Instrument Digital Interface: registered trademark) format. When the performer performs a plurality of music pieces in succession, the performance note string data Q includes MIDI data of a plurality of music pieces.

通信部105は、通信部105に接続された電子楽器20と通信を行う機能を有している。通信部105は、電子楽器20から供給される演奏音符列データQを取得し、取得した演奏音符列データQを制御部101へ供給する。表示部103は、液晶ディスプレイを備えており、楽曲解析装置10を操作するための画面や各種メッセージを表示する。操作部104は、表示部103の表面に設けられ、表示部103が表示した画像を透過し、指が触れた位置を検出するポインティングデバイスを備えている。制御部101は、検出した位置と表示部103に表示されている画面とに応じて各部を制御する。なお、楽曲解析装置10が、パーソナルコンピュータである場合、操作部104においてユーザに操作されるのはマウスやキーボードとなる。
記憶部102は、ハードディスク装置を備えており、電子楽器20から供給された演奏音符列データQを記憶する。また、記憶部102は、演奏音符列データQを解析するときに使用される複数の楽曲の音符列データ(以下、参照音符列データRと称する)を予め記憶している。参照音符列データRは、楽曲を表す楽曲データの一例である。本実施形態においては、参照音符列データRもMIDI形式のデータとなっている。なお、参照音符列データRにおいては、楽曲に固有に付与された識別子(例えば楽曲名)や、楽曲の演奏のテンポなどが含まれる。
The communication unit 105 has a function of communicating with the electronic musical instrument 20 connected to the communication unit 105. The communication unit 105 acquires the performance note string data Q supplied from the electronic musical instrument 20 and supplies the acquired performance note string data Q to the control unit 101. The display unit 103 includes a liquid crystal display, and displays a screen and various messages for operating the music analysis apparatus 10. The operation unit 104 includes a pointing device that is provided on the surface of the display unit 103 and transmits an image displayed on the display unit 103 and detects a position touched by a finger. The control unit 101 controls each unit according to the detected position and the screen displayed on the display unit 103. When the music analysis device 10 is a personal computer, the user operates the operation unit 104 with a mouse or a keyboard.
The storage unit 102 includes a hard disk device, and stores performance note string data Q supplied from the electronic musical instrument 20. The storage unit 102 stores in advance musical note string data (hereinafter referred to as reference note string data R) of a plurality of musical pieces used when analyzing the musical note string data Q. The reference note string data R is an example of music data representing a music. In the present embodiment, the reference note string data R is also MIDI format data. Note that the reference note string data R includes an identifier (for example, a song name) uniquely assigned to a song, a tempo of the performance of the song, and the like.

制御部101は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備えている。CPUがROMに記憶されているプログラムを実行すると、演奏音符列データQを取得し、演奏音符列データQに含まれている楽曲を特定する機能や、特定した楽曲を表示する機能などが実現する。   The control unit 101 includes a central processing unit (CPU), a read only memory (ROM), and a random access memory (RAM). When the CPU executes a program stored in the ROM, a function of acquiring performance note string data Q, specifying a song included in the performance note string data Q, a function of displaying the specified song, and the like are realized. .

図2は、制御部101において実現する機能の構成を示したブロック図である。解析部1001は、通信部105から演奏音符列データQを取得し、記憶部102から参照音符列データRを取得する。つまり、解析部1001は、音符列データを取得する取得手段として機能する。解析部1001は、演奏音符列データQと参照音符列データRとに基いて、演奏音符列データQが、どの参照音符列データRに類似しているか解析し、演奏された楽曲を特定する。   FIG. 2 is a block diagram illustrating a configuration of functions realized in the control unit 101. The analysis unit 1001 acquires the performance note string data Q from the communication unit 105 and the reference note string data R from the storage unit 102. That is, the analysis unit 1001 functions as an acquisition unit that acquires note string data. Based on the performance note string data Q and the reference note string data R, the analysis unit 1001 analyzes which reference note string data R the performance note string data Q is similar to, and identifies a played music piece.

解析部1001は、図3に示したように、音符列データ(演奏音符列データQ,参照音符列データR)を、時間軸上で複数の単位区間Fに区分する。つまり、解析部1001は、音符列データを区分する区分手段として機能する。単位区間Fは、例えば楽曲の1小節に相当する時間長に設定される。例えば、参照音符列データRが指定する演奏テンポに応じた1小節分が参照音符列データRの1個の単位区間Fとして画定される。また、電子楽器20に対する操作で演奏者が指示した演奏テンポに応じた1小節分が演奏音符列データQの1個の単位区間Fとして画定される。なお、演奏テンポが指定されていない場合、所定の演奏テンポおよび所定の拍子のもとで1小節に相当する区間が単位区間Fに設定される。例えば演奏テンポを120BPM(Beats Per Minute)と仮定して拍子を4/4拍子と仮定した場合には単位区間Fは2秒に設定される。   The analysis unit 1001 divides the note string data (performance note string data Q, reference note string data R) into a plurality of unit sections F on the time axis, as shown in FIG. That is, the analysis unit 1001 functions as a sorting unit that sorts the note string data. The unit section F is set to a time length corresponding to one measure of the music, for example. For example, one bar corresponding to the performance tempo specified by the reference note string data R is defined as one unit section F of the reference note string data R. In addition, one measure corresponding to the performance tempo designated by the performer by the operation on the electronic musical instrument 20 is defined as one unit section F of the performance note string data Q. When the performance tempo is not designated, a section corresponding to one measure is set as the unit section F under a predetermined performance tempo and a predetermined time signature. For example, when the performance tempo is assumed to be 120 BPM (Beats Per Minute) and the time signature is assumed to be 4/4 time, the unit interval F is set to 2 seconds.

解析部1001は、音符列の音楽的な特徴(特に和声的な特徴)を表現する特徴量系列X(参照音符列データRの特徴量系列XRおよび演奏音符列データQの特徴量系列XQ)を算定する。特徴量系列XRは参照音符列データRの単位区間F毎に算定され、特徴量系列XQは演奏音符列データQの単位区間F毎に算定される。   The analysis unit 1001 includes a feature amount sequence X (a feature amount sequence XR of the reference note sequence data R and a feature amount sequence XQ of the performance note sequence data Q) that expresses musical features (particularly harmony features) of the note sequence. Is calculated. The feature quantity series XR is calculated for each unit section F of the reference note string data R, and the feature quantity series XQ is calculated for each unit section F of the performance note string data Q.

特徴量系列Xの算出について、図3を用いて説明する。解析部1001は、図3に示したように、時間軸(横軸)と音高軸(縦軸)とが設定された座標平面に音符列データ(参照音符列データR,演奏音符列データQ)を展開する。図3に示したように、特徴量系列X(XR,XQ)は、複数の特徴量xmの時系列である。また、特徴量xmは、相異なるピッチクラス(音名)に対応する12個の特徴量dm[1]〜t[12]と、最高音TNm及び最低音BNmとを配列した14次元ベクトルである。このピッチクラスは、音名が共通する音高(ノートナンバ)の集合である。すなわち、周波数が2のべき乗倍の関係(相異なるオクターブにて音名が共通する関係)にある複数の音高は共通のピッチクラスに属する。12半音(C,C#,D,D#,E,F,F#,G,G#,A,A#,B)に対応する12個のピッチクラスについて特徴量dm[1]〜dm[12]が算定される。   The calculation of the feature amount series X will be described with reference to FIG. As shown in FIG. 3, the analysis unit 1001 performs note string data (reference note string data R, performance note string data Q on a coordinate plane in which a time axis (horizontal axis) and a pitch axis (vertical axis) are set. ). As shown in FIG. 3, the feature amount series X (XR, XQ) is a time series of a plurality of feature amounts xm. The feature quantity xm is a 14-dimensional vector in which twelve feature quantities dm [1] to t [12] corresponding to different pitch classes (pitch names), the highest sound TNm, and the lowest sound BNm are arranged. . This pitch class is a set of pitches (note numbers) having a common pitch name. That is, a plurality of pitches whose frequency is a power-of-two relationship (a relationship in which pitch names are different in different octaves) belong to a common pitch class. Features dm [1] to dm [12] for 12 pitch classes corresponding to 12 semitones (C, C #, D, D #, E, F, F #, G, G #, A, A #, B). 12] is calculated.

具体的には、c番目(c=1〜12)のピッチクラスに対応する特徴量dm[c]は、1個の単位区間F内に存在する複数の音符のうちそのピッチクラスに属する各音符の継続長(音価)の合計値τaと、その単位区間F内の全部の音符の継続長の合計値τbとの比(dm[c]=τa/τb)である。合計値τbによる除算は、特徴量dm[c]を0以上かつ1以下の範囲内の数値に正規化する演算である。例えば、図3に示すように、ピッチクラス(音名G)が共通する音高G2の音符(継続長2秒)と音高G3の音符(継続長0.2秒)とが単位区間F内に存在し(τa=2+0.2=2.2)、単位区間F内の全部の音符の継続長の合計値τbが8秒である場合、特徴量dmのうち音名Gのピッチクラス(c=8)に対応する特徴量dm[8]は、0.275(=2.2/8)となる。   Specifically, the feature quantity dm [c] corresponding to the c-th (c = 1 to 12) pitch class is a note belonging to the pitch class among a plurality of notes existing in one unit section F. Is a ratio (dm [c] = τa / τb) between the total value τa of the continuation lengths (tone values) of and the total value τb of the continuation lengths of all notes in the unit interval F. The division by the total value τb is an operation for normalizing the feature quantity dm [c] to a numerical value in the range of 0 to 1 inclusive. For example, as shown in FIG. 3, a note having a pitch G2 (duration 2 seconds) and a note having a pitch G3 (duration 0.2 seconds) having a common pitch class (pitch name G) are included in the unit interval F. (Τa = 2 + 0.2 = 2.2) and the total value τb of the durations of all the notes in the unit section F is 8 seconds, the pitch class (c = 8), the feature quantity dm [8] is 0.275 (= 2.2 / 8).

特徴量xm内の最高音TNm(TN:top note)は、音符列の第m番目の単位区間F内に存在する複数の音符のうち最も高い音符の音高(ノートナンバ)である。図3に例示された単位区間F内では音高G3が最も高音であるから、最高音TNmは、音高G3に対応するノートナンバ「67」に設定される。他方、特徴量xm内の最低音BNm(BN:bottom note)は、音符列の第m番目の単位区間F内に存在する複数の音符のうち最も低い音符の音高である。図3の単位区間Fでは音高C2が最も低音であるから、最低音BNmは、音高C2に対応するノートナンバ「48」に設定される。   The highest note TNm (TN: top note) in the feature amount xm is the pitch (note number) of the highest note among a plurality of notes existing in the m-th unit interval F of the note sequence. Since the pitch G3 is the highest pitch in the unit section F illustrated in FIG. 3, the highest pitch TNm is set to the note number “67” corresponding to the pitch G3. On the other hand, the lowest note BNm (BN: bottom note) in the feature amount xm is the pitch of the lowest note among a plurality of notes existing in the mth unit interval F of the note sequence. Since the pitch C2 is the lowest in the unit section F of FIG. 3, the lowest pitch BNm is set to the note number “48” corresponding to the pitch C2.

解析部1001は、算出した特徴量系列Xを用いて、単位区間F毎に演奏音符列データQに対する各参照音符列データRの類似度を求め、類似度行列を作成する。なお、類似度行列を作成する方法としては、本出願人の先願である特開2013−47938号公報に記載されている方法を用いることができる。例えば、演奏音符列データQの単位区間Fの数がM個であり、記憶部102に記憶されている参照音符列データRの数がN個である場合、図4に示したように、N行×M列の類似度行列が作成される。   The analysis unit 1001 obtains the similarity of each reference note string data R with respect to the performance note string data Q for each unit section F using the calculated feature amount series X, and creates a similarity matrix. As a method for creating the similarity matrix, the method described in Japanese Patent Application Laid-Open No. 2013-47938, which is the prior application of the present applicant, can be used. For example, when the number of unit intervals F of the performance note string data Q is M and the number of reference note string data R stored in the storage unit 102 is N, as shown in FIG. A row × M column similarity matrix is created.

解析部1001は、算出した類似度行列にDP(Dynamic Programming)マッチングを適用し、最初の単位区間Fから最後の単位区間Fまでの間で、最尤となるパスを求めることにより、単位区間F毎に、演奏音符列データQに対して類似する参照音符列データRを特定する。
これにより、例えば、図4において類似度行列の下に示したように、単位区間F毎に、演奏音符列データQの各単位区間Fが、どの参照音符列データRに類似しているかが特定される。つまり、解析部1001は、演奏音符列データQに類似する参照音符列データRを特定する特定手段として機能する。なお、図4においては、複数の参照音符列データRについて、演奏音符列データQに類似と特定された単位区間Fをハッチングで示している。例えば、図4においては、参照音符列データR3内にあるデータが、演奏音符列データQの1番目の単位区間Fから3番目の単位区間F内にあるデータに類似していることを示している。
The analysis unit 1001 applies DP (Dynamic Programming) matching to the calculated similarity matrix and obtains the maximum likelihood path from the first unit section F to the last unit section F, thereby obtaining the unit section F. For each, reference note string data R similar to the performance note string data Q is specified.
Thus, for example, as shown below the similarity matrix in FIG. 4, for each unit section F, it is specified which reference note string data R each unit section F of the performance note string data Q is similar to. Is done. That is, the analysis unit 1001 functions as a specifying unit that specifies the reference note string data R similar to the performance note string data Q. In FIG. 4, for a plurality of reference note string data R, the unit interval F identified as similar to the performance note string data Q is indicated by hatching. For example, FIG. 4 shows that the data in the reference note string data R3 is similar to the data in the third unit interval F from the first unit interval F of the performance note string data Q. Yes.

解析部1001は、演奏音符列データQの単位区間F毎に、類似の参照音符列データRを特定し終えると、特定結果に基いて演奏音符列データQ内を複数のブロックに分割し、分割した各ブロックにタグを付与する。   When the analysis unit 1001 finishes specifying similar reference note string data R for each unit section F of the performance note string data Q, the analysis unit 1001 divides the performance note string data Q into a plurality of blocks based on the specification result. A tag is assigned to each block.

具体的には、解析部1001は、連続する単位区間Fについて類似する参照音符列データRがいずれも同じ場合、これらの連続する単位区間Fに含まれるMIDIデータを一つの区間として集約する。つまり、解析部1001は、単位区間Fを集約する集約手段として機能する。以後、制御部101は、集約された区間を一つの区間として扱う。例えば、図4に示したように、演奏音符列データQの1番目の単位区間Fから3番目の単位区間Fが、複数の参照音符列データR1〜RNのうちの参照音符列データR3に類似していると特定された場合、解析部1001は、図4の下部に示したように、1番目の単位区間Fから3番目の単位区間Fに含まれるMIDIデータを一つの区間として集約し、集約された区間を一つの区間として扱う。また、図4に示したように、演奏音符列データQの4番目の単位区間Fと5番目の単位区間Fが、参照音符列データR2に類似していると特定された場合、図4の下部に示したように、解析部1001は、4番目の単位区間Fと5番目の単位区間Fに含まれるMIDIデータを一つの区間として集約し、集約された区間を一つの区間として扱う。   Specifically, when similar reference note string data R is the same for consecutive unit sections F, the analysis unit 1001 aggregates MIDI data included in these continuous unit sections F as one section. That is, the analysis unit 1001 functions as an aggregation unit that aggregates the unit sections F. Thereafter, the control unit 101 treats the aggregated sections as one section. For example, as shown in FIG. 4, the first unit section F to the third unit section F of the performance note string data Q are similar to the reference note string data R3 among the plurality of reference note string data R1 to RN. When it is specified that the data is included, the analysis unit 1001 aggregates the MIDI data included in the first unit section F to the third unit section F as one section as shown in the lower part of FIG. Treat aggregated sections as one section. Further, as shown in FIG. 4, when it is specified that the fourth unit interval F and the fifth unit interval F of the performance note string data Q are similar to the reference note string data R2, FIG. As shown in the lower part, the analysis unit 1001 aggregates the MIDI data included in the fourth unit section F and the fifth unit section F as one section, and handles the aggregated section as one section.

次に解析部1001は、まとめられなかったMIDIデータのブロックと、まとめられたMIDIデータのブロックのそれぞれにタグを付与する。つまり、解析部1001は、タグ(タグ情報)を付加する付加手段として機能する。本実施形態においては、タグとして楽曲名を付与する。例えば、図4に示したように、演奏音符列データQにおいてまとめられた1番目の単位区間Fから3番目の単位区間Fは、参照音符列データR3に類似している。参照音符列データR3に含まれている楽曲名が「AAA」である場合、解析部1001は、このまとめられたブロックに対し、図4に示したように「楽曲名:AAA」というタグを付与する。また、解析部1001は、前後の区間Fにまとめられなかった区間Fについてもタグを付与する。   Next, the analysis unit 1001 attaches a tag to each of the MIDI data block that has not been grouped and the MIDI data block that has been grouped. That is, the analysis unit 1001 functions as an adding unit that adds a tag (tag information). In the present embodiment, a song name is assigned as a tag. For example, as shown in FIG. 4, the first unit section F to the third unit section F collected in the performance note string data Q are similar to the reference note string data R3. When the music name included in the reference note string data R3 is “AAA”, the analysis unit 1001 assigns a tag “music name: AAA” to the collected blocks as shown in FIG. To do. The analysis unit 1001 also gives a tag to the section F that is not grouped into the preceding and following sections F.

なお、算出した特徴量系列Xを用いて単位区間F毎に、演奏音符列データQに対して類似する楽曲を特定する構成は、上述した構成に限定されるものではない。例えば、本出願人の先願である特願2012−115064で提案されている技術や、特開2013−47938号公報に開示されている技術を用いるようにしてもよい。   In addition, the structure which specifies the music similar to the performance note sequence data Q for every unit area F using the calculated feature-value series X is not limited to the structure mentioned above. For example, the technique proposed in Japanese Patent Application No. 2012-11564, which is the prior application of the present applicant, or the technique disclosed in Japanese Patent Application Laid-Open No. 2013-47938 may be used.

表示制御部1002は、解析部1001の処理結果を表示部103に表示させる。図5は、表示部103に表示される解析結果の一例を示した図である。図5に示したように、演奏音符列データQは、横方向に時間軸をとって帯状に表示され、分割された各ブロックがブロックの時間長に応じた長さで表示される。また、ブロックの境界に対して、演奏音符列データQの再生開始からの経過時間が表示される。なお、この経過時間は、MIDIデータを解析することにより求められる。また、各ブロック内にはブロックに付与されたタグである楽曲名が表示される。   The display control unit 1002 displays the processing result of the analysis unit 1001 on the display unit 103. FIG. 5 is a diagram illustrating an example of an analysis result displayed on the display unit 103. As shown in FIG. 5, the performance note string data Q is displayed in a band shape with the time axis in the horizontal direction, and each divided block is displayed in a length corresponding to the time length of the block. Further, the elapsed time from the start of reproduction of the performance note string data Q is displayed with respect to the block boundary. This elapsed time is obtained by analyzing the MIDI data. In addition, in each block, a music name that is a tag attached to the block is displayed.

例えば、電子楽器20の演奏者が複数の楽曲の練習を順番に行い、演奏音符列データQが、この練習を表すものである場合、本実施形態の楽曲解析装置10によれば、図5に示したように、演奏音符列データQのどの部分がどの楽曲に相当するか表示されるため、ユーザは、手を煩わせることなく演奏音符列データQの内容を容易に知ることができる。   For example, when the player of the electronic musical instrument 20 practices a plurality of pieces of music in order, and the musical note sequence data Q represents this practice, according to the music analysis apparatus 10 of this embodiment, FIG. As shown, which part of the musical note string data Q corresponds to which musical piece is displayed, the user can easily know the contents of the musical note string data Q without bothering the user.

[第2実施形態]
次に、本発明の第2実施形態に係る楽曲解析装置について説明する。なお、以下の説明において、第1実施形態と同等の構成については、第1実施形態で用いた符号を用いて各々の詳細な説明は適宜省略する。
[Second Embodiment]
Next, a music analysis apparatus according to the second embodiment of the present invention will be described. In the following description, the same components as those in the first embodiment will be omitted as appropriate by using the reference numerals used in the first embodiment.

第2実施形態においては、解析部1001で行われる処理が第1実施形態と異なる。解析部1001は、演奏音符列データQを区分する際、演奏がなされていない期間を検出し、検出した期間を境界にして演奏音符列データQを区分する。なお、解析部1001は、演奏音符列データQに含まれるMIDIデータにおいてノートオフからノートオンまでの期間が予め定められた期間以上となっているところを、演奏がなされていない期間とする。   In the second embodiment, the processing performed by the analysis unit 1001 is different from the first embodiment. When classifying the performance note string data Q, the analysis unit 1001 detects a period in which the performance is not performed, and classifies the performance note string data Q with the detected period as a boundary. Note that the analysis unit 1001 sets a period in which the period from note-off to note-on in the MIDI data included in the performance note string data Q is equal to or longer than a predetermined period as a period during which no performance is performed.

図6は、演奏音符列データQの区分例を示した図である。解析部1001は、演奏音符列データQを時間軸上に展開し、演奏音符列データQにおいて演奏がされていない期間が複数ある場合、図6に示したように演奏音符列データQを複数の演奏音符列データQ1〜QMに区分する。なお、図6においては、帯状の部分が演奏がされている期間を示している。   FIG. 6 is a diagram showing an example of division of the performance note string data Q. The analysis unit 1001 expands the performance note string data Q on the time axis, and when there are a plurality of periods in which the performance note string data Q is not played, the performance note string data Q is converted into a plurality of pieces as shown in FIG. The musical note string data Q1 to QM are divided. FIG. 6 shows a period during which the band-like portion is played.

解析部1001は、演奏音符列データQ1〜QMを、さらに単位区間Fに区分する。解析部1001は、演奏音符列データQ1〜QMのそれぞれを、複数の参照音符列データRに対して時間軸上の位置を複数回相違させ、相違させた複数(B回)の場合の各々について基礎値x[b](x[1]〜x[B])を算定する(b=1〜B)。   The analysis unit 1001 further divides the performance note string data Q1 to QM into unit intervals F. The analysis unit 1001 makes the positions of the performance note string data Q1 to QM different from each other by a plurality of times on the time axis with respect to the plurality of reference note string data R. Base values x [b] (x [1] to x [B]) are calculated (b = 1 to B).

図7は、演奏音符列データQ1について、ある参照音符列データRとの間で基礎値x[b]を算定するときの動作例を示した図である。解析部1001は、演奏音符列データQ1を参照音符列データRに対して単位区間Fの1個分ずつ移動(シフト)した各場合について基礎値x[b]を算定する。すなわち、解析部1001は、演奏音符列データQ1の位置を相違させた各場合について、参照音符列データRにおいて演奏音符列データQ1に対応する対象区間σ[b](K個の単位区間Fの集合)を順次に選択し、演奏音符列データQ1と対象区間σ[b]とを比較することで基礎値x[b]を算定する。   FIG. 7 is a diagram showing an operation example when the basic value x [b] is calculated between the performance note string data Q1 and a certain reference note string data R. The analysis unit 1001 calculates a base value x [b] for each case where the performance note string data Q1 is moved (shifted) by one unit interval F with respect to the reference note string data R. That is, for each case where the position of the performance note string data Q1 is different, the analysis unit 1001 performs a target section σ [b] (of K unit sections F corresponding to the performance note string data Q1 in the reference note string data R). Set) is selected sequentially, and the performance note string data Q1 and the target section σ [b] are compared to calculate the basic value x [b].

ここで、基礎値x[b]を算定する具体的な動作について演奏音符列データQ1を例に説明する。解析部1001は、演奏音符列データQ1と参照音符列データRの対象区間σ[b]との間で相互に対応する単位区間F毎に類似度V[k](V[1]〜V[K])を算定する(k=1〜K)。具体的には、解析部1001は、演奏音符列データQ1および参照音符列データRの各々を、各音符に対応する文字の時系列(文字列)とみなし、演奏音符列データQ1内の第k番目の単位区間Fと対象区間σ[b]内の第k番目の単位区間Fとの間の編集距離(レーベンシュタイン距離)に応じて類似度V[k]を算定する。なお、編集距離の算定については、例えば、本出願人の先願である特願2012−115064で提案されている技術を用いる。
解析部1001は、参照音符列データR内の1個の対象区間σ[b]の相異なる単位区間Fについて算定したK個の類似度V[1]〜V[K]から基礎値x[b]を算定する。例えばK個の類似度V[1]〜V[K]の平均値や最大値が基礎値x[b]として算定される。
Here, a specific operation for calculating the basic value x [b] will be described with the performance note string data Q1 as an example. The analysis unit 1001 uses the similarity V [k] (V [1] to V [] for each unit section F corresponding to the target section σ [b] of the performance note string data Q1 and the reference note string data R. K]) is calculated (k = 1 to K). Specifically, the analysis unit 1001 regards each of the performance note string data Q1 and the reference note string data R as a time series (character string) of characters corresponding to each note, and kth in the performance note string data Q1. The degree of similarity V [k] is calculated according to the editing distance (Levenstein distance) between the th unit section F and the kth unit section F in the target section σ [b]. For the calculation of the edit distance, for example, the technique proposed in Japanese Patent Application No. 2012-1115064 which is the prior application of the present applicant is used.
The analysis unit 1001 calculates a base value x [b from the K similarity degrees V [1] to V [K] calculated for different unit sections F of one target section σ [b] in the reference note string data R. ] Is calculated. For example, an average value or a maximum value of K similarity degrees V [1] to V [K] is calculated as the basic value x [b].

解析部1001は、演奏音符列データQ1を参照音符列データRに対して単位区間Fの1個分ずつ移動させる毎に基礎値x[b]を算定すると、参照音符列データR内の相異なる対象区間σ[b]に対応するB個の基礎値x[1]〜x[B]に応じて類似指標値X[n]を算定する。具体的には、B個の基礎値x[1]〜x[B]のなかの最大値(すなわち参照音符列データRと演奏音符列データQ1との間の最大の類似を示す数値)が類似指標値X[n]として選択される。   When the analysis unit 1001 calculates the basic value x [b] every time the performance note string data Q1 is moved by one unit interval F with respect to the reference note string data R, the analysis unit 1001 differs in the reference note string data R. The similarity index value X [n] is calculated according to the B basic values x [1] to x [B] corresponding to the target section σ [b]. Specifically, the maximum value among the B basic values x [1] to x [B] (that is, a numerical value indicating the maximum similarity between the reference note string data R and the performance note string data Q1) is similar. It is selected as the index value X [n].

解析部1001は、演奏音符列データQ1(演奏データ)と、他に記憶部102に記憶されている複数の参照音符列データRとの間でも、上述した動作で類似指標値X[n]を算定する。複数の参照音符列データR毎に算定された類似指標値X[n]は、演奏音符列データQ1の音符の配列に類似する区間を含む参照音符列データRほど大きい値となる。解析部1001は、算定した類似指標値X[n]に基いて、演奏音符列データQ1に類似する参照音符列データR(楽曲データ)を特定する。解析部1001は、類似指標値X[n]が最大の値となった参照音符列データRに含まれている楽曲名を抽出し、抽出した楽曲名をタグとして演奏音符列データQ1に付与する。   The analysis unit 1001 obtains the similarity index value X [n] by the above-described operation between the performance note string data Q1 (performance data) and the plurality of reference note string data R stored in the storage unit 102. Calculate. The similarity index value X [n] calculated for each of the plurality of reference note string data R becomes larger as the reference note string data R including a section similar to the note arrangement of the performance note string data Q1. The analysis unit 1001 specifies reference note string data R (music data) similar to the performance note string data Q1 based on the calculated similarity index value X [n]. The analysis unit 1001 extracts the song name included in the reference note string data R having the maximum similarity index value X [n], and assigns the extracted song name as a tag to the performance note string data Q1. .

解析部1001は、演奏音符列データQ2〜QMのそれぞれについても、演奏音符列データQ1と同様に類似指標値X[n]を算定し、類似指標値X[n]が最大の値となった参照音符列データRに含まれている楽曲名をタグとして付与する。
表示制御部1002は、演奏音符列データQ1〜QMのそれぞれについてタグが付与されると、例えば、第1実施形態と同様に解析部1001の処理結果を表示部103に表示させる。なお、解析部1001は、連続する演奏音符列データQ1〜QMにおいて類似する参照音符列データRがいずれも同じ場合、これらの連続する演奏音符列データQ1〜QMに含まれるMIDIデータを一つにまとめるようにしてもよい。
The analysis unit 1001 calculates the similarity index value X [n] for each of the performance note string data Q2 to QM as well as the performance note string data Q1, and the similarity index value X [n] becomes the maximum value. The music name included in the reference note string data R is assigned as a tag.
When a tag is assigned to each of the performance note string data Q1 to QM, the display control unit 1002 displays the processing result of the analysis unit 1001 on the display unit 103 as in the first embodiment, for example. The analysis unit 1001 combines the MIDI data included in the continuous performance note string data Q1 to QM into one when the similar reference note string data R is the same in the continuous performance note string data Q1 to QM. You may make it collect.

第2実施形態の楽曲解析装置10によれば、第1実施形態と同様に演奏音符列データQのどの部分がどの楽曲に相当するか表示されるため、ユーザは、手を煩わせることなく演奏音符列データQの内容を容易に知ることができる。   According to the music analysis device 10 of the second embodiment, which part of the performance note string data Q corresponds to which music is displayed as in the first embodiment, the user can perform the performance without bothering the hand. The contents of the note string data Q can be easily known.

[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した実施形態及び以下の変形例は、各々を組み合わせてもよい。
[Modification]
As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, It can implement with another various form. For example, the present invention may be implemented by modifying the above-described embodiment as follows. In addition, you may combine each of embodiment mentioned above and the following modifications.

上述した実施形態においては、楽曲解析装置10は、電子楽器20から演奏音符列データQを取得しているが、この構成に限定されるものではない。例えば、楽曲解析装置10をネットワークに接続されたサーバ装置とした場合、電子楽器20から演奏音符列データQを取得したコンピュータ装置から、サーバ装置へ演奏音符列データQを送信し、サーバ装置が演奏音符列データQを解析するようにしてもよい。
また、複数の参照音符列データR(楽曲データ)をサーバ装置20に記憶させ、楽曲解析装置10は、サーバ装置から複数の参照音符列データRを取得するようにしてもよい。この場合、制御部101は、通信部105を介して参照音符列データを取得する。つまり、制御部101は、楽曲データを取得する楽曲データ取得手段として機能する。
In the embodiment described above, the music analysis apparatus 10 acquires the performance note string data Q from the electronic musical instrument 20, but is not limited to this configuration. For example, when the music analysis device 10 is a server device connected to a network, the musical note string data Q is sent from the electronic musical instrument 20 to the server device, and the server device performs the performance. The musical note string data Q may be analyzed.
Further, a plurality of reference note string data R (music data) may be stored in the server device 20, and the music analysis device 10 may acquire a plurality of reference note string data R from the server device. In this case, the control unit 101 acquires reference note string data via the communication unit 105. That is, the control unit 101 functions as music data acquisition means for acquiring music data.

上述した実施形態においては、解析の結果、演奏音符列データQを複数のブロックに区分した後、区分されたブロック毎に演奏音符列データQを分割して複数のファイルにするようにしてもよい。
また、上述した実施形態においては、解析がなされてタグが付された演奏音符列データQを再生する場合、付されたタグ、即ち楽曲名を表示するようにしてもよい。
In the above-described embodiment, as a result of analysis, the performance note string data Q may be divided into a plurality of blocks, and then the performance note string data Q may be divided into a plurality of files for each divided block. .
Further, in the above-described embodiment, when the performance note string data Q that has been analyzed and has been tagged is reproduced, the tag, that is, the music title may be displayed.

上述した第1実施形態においては、DPマッチングにより、演奏音符列データQに類似の参照音符列データRを特定しているが、DPマッチングを行わずに類似度だけで類似の参照音符列データRを特定するようにしてもよい。   In the first embodiment described above, the reference note string data R similar to the performance note string data Q is specified by DP matching. However, similar reference note string data R is determined only by the similarity without performing DP matching. May be specified.

上述した実施形態においては、演奏音符列データQに類似の参照音符列データRを特定しているが、参照音符列データRのうち、どの部分が類似しているかを特定するようにしてもよい。また、参照音符列データRのうち、どの部分が類似しているかを特定する構成にあっては、複数の演奏音符列データQについて統計処理を行い、特定した部分毎に演奏がなされた回数を計り、演奏回数を表示するようにしてもよい。このように演奏回数を表示する構成によれば、例えば、演奏の練習を行ったときの練習回数を表示することとなり、練習回数を解析して演奏の教習にも利用できる。   In the embodiment described above, the reference note string data R similar to the performance note string data Q is specified. However, it is possible to specify which part of the reference note string data R is similar. . Further, in the configuration for specifying which parts of the reference note string data R are similar, statistical processing is performed on a plurality of performance note string data Q, and the number of times the performance is performed for each specified part is calculated. You may make it measure and display the frequency | count of performance. Thus, according to the structure which displays the frequency | count of performance, for example, the frequency | count of practice when performance of practice is performed will be displayed, and it can utilize for the learning of performance by analyzing the frequency | count of practice.

上述した第2実施形態においては、演奏がなされていない期間で演奏音符列データQを複数の区間Q1〜QMに区分しているが、この構成に限定されるものではない。例えば、MIDIデータと共にマイクロフォンで演奏者の音声を取得し、演奏者の音声があるタイミングで演奏音符列データQを区分するようにしてもよい。また、楽曲解析装置10がスマートフォンやタブレット端末である場合、画面をタップしたタイミングを示すデータを演奏音符列データQに含め、画面がタップされたタイミングで演奏音符列データQを区分するようにしてもよい。また、スマートフォンやタブレット端末が有するカメラで演奏者を撮影し、特定の表示用が撮影されたタイミングを示すデータを演奏音符列データQに含め、当該タイミングで演奏音符列データQを区分するようにしてもよい。また、予め特定の音符列を定め、この音符列があるところで演奏音符列データQを区分するようにしてもよい。この構成によれば、演奏者がある特定の音符列を演奏するだけで、演奏音符列データQを区分することができる。   In the second embodiment described above, the performance note string data Q is divided into a plurality of sections Q1 to QM in a period in which the performance is not performed. However, the present invention is not limited to this configuration. For example, a performer's voice may be acquired by a microphone together with MIDI data, and the performance note string data Q may be divided at a certain timing. In addition, when the music analysis device 10 is a smartphone or a tablet terminal, data indicating the timing at which the screen is tapped is included in the performance note string data Q, and the performance note string data Q is divided at the timing at which the screen is tapped. Also good. Further, the player is photographed with a camera of a smartphone or a tablet terminal, and data indicating the timing at which a specific display is photographed is included in the performance note string data Q, and the performance note string data Q is divided at the timing. May be. Alternatively, a specific note string may be determined in advance, and the performance note string data Q may be divided where this note string exists. According to this configuration, the performance note string data Q can be segmented simply by playing a specific note string.

上述した実施形態においては、区分された演奏音符列データQの各ブロックについて、類似と特定された参照音符列データRと比較して演奏の採点を行うようにしてもよい。なお、演奏音符列データQを採点する構成にあっては、採点結果の高かった演奏音符列データQをネットワークに接続されたサーバ装置に記憶させるようにしてもよい。また、上述した実施形態においては、複数の演奏音符列データQの解析結果を表示し、区分されたブロックを編集して複数の演奏音符列データQの間でブロックの結合を行い、新たに演奏音符列データQを作成するようにしてもよい。   In the above-described embodiment, each block of the divided performance note string data Q may be scored for performance in comparison with the reference note string data R identified as similar. In the configuration in which the performance note string data Q is scored, the performance note string data Q having a high scoring result may be stored in a server device connected to the network. In the above-described embodiment, the analysis result of the plurality of musical note string data Q is displayed, the divided blocks are edited, the blocks are combined among the plural musical note string data Q, and a new performance is recorded. Note string data Q may be created.

上述した実施形態においては、タグとして付与される内容は楽曲名であるが、楽曲名に限定されるものではない。例えば、楽曲の作曲者名、編曲者名、楽曲の作曲年月日、楽曲のジャンルなど、楽曲の特定に伴って特定される各種情報をタグとして付与するようにしてもよい。また、楽曲のどの部分かを示す情報(Aメロ、サビなど)を付与してもよい。また、上述した変形例のように、演奏回数を計る構成においては、演奏回数をタグとして付与してもよく、上述した変形例のように採点を行う構成においては、採点結果をタグとして付与してもよい。また、演奏日の情報をタグとして付与してもよい。   In the embodiment described above, the content given as a tag is a song name, but is not limited to a song name. For example, various types of information specified along with the specification of the music, such as the name of the music composer, the name of the composer, the composition date of the music, and the genre of the music, may be added as tags. Information (A melody, rust, etc.) indicating which part of the music may be given. Moreover, in the configuration in which the number of performances is measured as in the above-described modification, the number of performances may be assigned as a tag. In the configuration in which scoring is performed as in the above-described modification, the scoring result is assigned as a tag. May be. Further, performance date information may be given as a tag.

上述した実施形態においては、演奏音符列データQと参照音符列データRは、MIDIデータであるが、MIDIデータに限定されるものではない。例えば、演奏音の波形のスペクトルであってもよい。   In the embodiment described above, the performance note string data Q and the reference note string data R are MIDI data, but are not limited to MIDI data. For example, it may be a spectrum of a performance sound waveform.

10…楽曲解析装置、20…電子楽器、101…制御部、102…記憶部、103…表示部、104…操作部、105…通信部、1001…解析部、1002…表示制御部 DESCRIPTION OF SYMBOLS 10 ... Music analysis apparatus, 20 ... Electronic musical instrument, 101 ... Control part, 102 ... Memory | storage part, 103 ... Display part, 104 ... Operation part, 105 ... Communication part, 1001 ... Analysis part, 1002 ... Display control part

Claims (3)

演奏を示す演奏データを取得する演奏データ取得手段と、
前記演奏データを時間軸上で複数の区間に区分する区分手段と、
楽曲を示す楽曲データを複数取得する楽曲データ取得手段と、
前記区分手段で区分された演奏データと、前記楽曲データ取得手段で取得された複数の楽曲データとに基いて、前記複数の区間毎に当該区間の演奏データに類似する楽曲データを特定する特定手段と、
前記複数の区間において前記特定手段の特定結果が同一である区間が連続する場合、当該連続する区間を一つの区間に集約する集約手段と、
前記集約された区間及び前記集約手段で集約されていない区間のそれぞれについて、類似と特定された楽曲データを示すタグ情報を付加する付加手段と
を有する楽曲解析装置。
Performance data acquisition means for acquiring performance data indicating performance;
Classifying means for dividing the performance data into a plurality of sections on the time axis,
Music data acquisition means for acquiring a plurality of music data indicating music;
A specifying means for specifying music data similar to the performance data of the section for each of the plurality of sections based on the performance data sorted by the sorting means and the plurality of music data obtained by the music data obtaining means. When,
In the plurality of sections, when sections having the same identification result of the specifying unit are continuous, an aggregation unit that aggregates the continuous sections into one section;
A music analysis apparatus comprising: an adding means for adding tag information indicating music data identified as similar to each of the aggregated sections and sections not aggregated by the aggregation means.
前記区分手段は、前記演奏データを演奏がなされていない期間で区分する
請求項1に記載の楽曲解析装置。
The music analysis apparatus according to claim 1, wherein the sorting unit sorts the performance data by a period in which performance is not performed.
前記集約された区間及び前記集約手段で集約されていない区間毎に前記演奏データを分割する分割手段
を有する請求項1又は請求項2に記載の楽曲解析装置。
The music analysis apparatus according to claim 1, further comprising a dividing unit that divides the performance data for each of the aggregated sections and sections not aggregated by the aggregation unit.
JP2013108743A 2013-05-23 2013-05-23 Music analyzer Active JP6179188B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013108743A JP6179188B2 (en) 2013-05-23 2013-05-23 Music analyzer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013108743A JP6179188B2 (en) 2013-05-23 2013-05-23 Music analyzer

Publications (2)

Publication Number Publication Date
JP2014228720A JP2014228720A (en) 2014-12-08
JP6179188B2 true JP6179188B2 (en) 2017-08-16

Family

ID=52128602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013108743A Active JP6179188B2 (en) 2013-05-23 2013-05-23 Music analyzer

Country Status (1)

Country Link
JP (1) JP6179188B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219178A (en) * 2006-02-16 2007-08-30 Sony Corp Musical piece extraction program, musical piece extraction device, and musical piece extraction method
JP5012120B2 (en) * 2007-03-21 2012-08-29 ヤマハ株式会社 Performance recording apparatus and program
JP6019858B2 (en) * 2011-07-27 2016-11-02 ヤマハ株式会社 Music analysis apparatus and music analysis method

Also Published As

Publication number Publication date
JP2014228720A (en) 2014-12-08

Similar Documents

Publication Publication Date Title
JP5935503B2 (en) Music analysis apparatus and music analysis method
EP2515296B1 (en) Performance data search using a query indicative of a tone generation pattern
JP5799977B2 (en) Note string analyzer
US8106281B2 (en) Music difficulty level calculating apparatus and music difficulty level calculating method
US20080288095A1 (en) Apparatus and Method of Creating Content
US7041888B2 (en) Fingering guide displaying apparatus for musical instrument and computer program therefor
CN102760428B (en) Use the such performance data search of the inquiry representing musical sound generation mode
JP6459378B2 (en) Problem management apparatus and problem management program
CN108257588B (en) Music composing method and device
US9098679B2 (en) Raw sound data organizer
CN110867174A (en) Automatic sound mixing device
US6323411B1 (en) Apparatus and method for practicing a musical instrument using categorized practice pieces of music
CN113763913A (en) Music score generation method, electronic device and readable storage medium
WO2022143679A1 (en) Sheet music analysis and marking method and apparatus, and electronic device
Holder et al. Musiplectics: computational assessment of the complexity of music scores
JP6179188B2 (en) Music analyzer
TW201719628A (en) Music score production method with fingering marks and system for the same allowing a player to perform by referring to fingering marks
KR101238113B1 (en) System for Composing and Searching Accomplished Music Using Analysis of the Input Voice
Chiu et al. Automatic system for the arrangement of piano reductions
CN114005424A (en) Information processing method, information processing device, electronic equipment and storage medium
JP5272899B2 (en) Music difficulty calculation device and music difficulty calculation program
Huang et al. The evolution of Western tonality: a corpus analysis of 24,000 songs from 190 composers over six centuries
JP6565529B2 (en) Automatic arrangement device and program
JP2007240552A (en) Musical instrument sound recognition method, musical instrument annotation method and music piece searching method
Fiore Tuning Theory and Practice in James Tenney’s Works for Guitar

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170703

R151 Written notification of patent or utility model registration

Ref document number: 6179188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151