JP6179188B2 - 楽曲解析装置 - Google Patents

楽曲解析装置 Download PDF

Info

Publication number
JP6179188B2
JP6179188B2 JP2013108743A JP2013108743A JP6179188B2 JP 6179188 B2 JP6179188 B2 JP 6179188B2 JP 2013108743 A JP2013108743 A JP 2013108743A JP 2013108743 A JP2013108743 A JP 2013108743A JP 6179188 B2 JP6179188 B2 JP 6179188B2
Authority
JP
Japan
Prior art keywords
performance
string data
note string
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013108743A
Other languages
English (en)
Other versions
JP2014228720A (ja
Inventor
康平 須見
康平 須見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2013108743A priority Critical patent/JP6179188B2/ja
Publication of JP2014228720A publication Critical patent/JP2014228720A/ja
Application granted granted Critical
Publication of JP6179188B2 publication Critical patent/JP6179188B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Description

本発明は、演奏された楽曲を特定する技術に関する。
鍵盤の操作内容を表す演奏情報を記録する装置として特許文献1に開示された演奏記録装置がある。この演奏記録装置は、演奏情報記録モードにおいては、鍵盤の操作に基いて時系列的に生成されて音高を表す演奏情報と、時刻情報とを組にして一時記憶領域に記憶させる。演奏記録装置は、演奏が所定時間を超えて行われないと、演奏が終了したものとし、一時記憶した演奏情報を一まとめにした演奏記録ファイルを外部記憶装置に記憶させる。なお、この演奏記録装置においては、時刻情報に対して「レッスン」や「誕生日」などのマーク名を設定することも可能となっている。例えば、マーク名として曲名を設定すれば、どの時点からどの曲を演奏したかを知ることができる。
特開2008−233574号公報
特許文献1の演奏記録装置によれば、ユーザは、マーク名を設定することにより、どの時点でどのような曲を演奏したかを知ることができる。しかしながら、この演奏記録装置においては、マーク名を設定する場合には、ユーザは、設定画面を表示させる操作を行い、マーク名を操作部で入力する必要があり、このような手間を繁雑と感じる者もある。
本発明は、上述した背景の下になされたものであり、ユーザの手を煩わせることなく、演奏された曲を特定する技術を提供することを目的とする。
本発明は、演奏を示す演奏データを取得する演奏データ取得手段と、前記演奏データを時間軸上で複数の区間に区分する区分手段と、楽曲を示す楽曲データを複数取得する楽曲データ取得手段と、前記区分手段で区分された演奏データと、前記楽曲データ取得手段で取得された複数の楽曲データとに基いて、前記複数の区間毎に当該区間の演奏データに類似する楽曲データを特定する特定手段と、前記複数の区間において前記特定手段の特定結果が同一である区間が連続する場合、当該連続する区間を一つの区間に集約する集約手段と、前記集約された区間及び前記集約手段で集約されていない区間のそれぞれについて、類似と特定された楽曲データを示すタグ情報を付加する付加手段とを有する楽曲解析装置を提供する。
本発明においては、前記区分手段は、前記演奏データを演奏がなされていない期間で区分する構成としてもよい。
また、本発明においては、前記集約された区間及び前記集約手段で集約されていない区間毎に前記演奏データを分割する分割手段を有する構成としてもよい。
本発明によれば、ユーザの手を煩わせることなく、演奏された曲を特定することができる。
本発明に係る楽曲解析装置のハードウェア構成を示したブロック図。 楽曲解析装置において実現する機能の構成を示したブロック図。 特徴量系列を説明するための図。 解析部の動作を説明するための図。 楽曲解析装置において表示される画面の一例を示した図。 演奏音符列データの区分例を示した図。 類似指標値X[n]を説明するための図。
[第1実施形態]
図1は、本発明の実施形態に係る楽曲解析装置10のハードウェア構成を示したブロック図である。楽曲解析装置10は、電子楽器20で行われた演奏を表す演奏データの一例である音符列データ(以下、演奏音符列データQと称する)を電子楽器20から取得し、取得した演奏音符列データQを解析することにより、演奏された楽曲を特定するコンピュータ装置である。楽曲解析装置10は、例えば、パーソナルコンピュータ、スマートフォン、タブレット端末など、プログラムを実行可能な装置である。電子楽器20は、例えば電子ピアノであり、演奏者の演奏に応じて、演奏を表す演奏音符列データQを出力する。なお、本実施形態においては、演奏音符列データQは、MIDI(Musical Instrument Digital Interface:登録商標)形式のデータとなっている。演奏者が複数の楽曲を続けて演奏した場合には、演奏音符列データQにおいては、複数の楽曲のMIDIデータが含まれることとなる。
通信部105は、通信部105に接続された電子楽器20と通信を行う機能を有している。通信部105は、電子楽器20から供給される演奏音符列データQを取得し、取得した演奏音符列データQを制御部101へ供給する。表示部103は、液晶ディスプレイを備えており、楽曲解析装置10を操作するための画面や各種メッセージを表示する。操作部104は、表示部103の表面に設けられ、表示部103が表示した画像を透過し、指が触れた位置を検出するポインティングデバイスを備えている。制御部101は、検出した位置と表示部103に表示されている画面とに応じて各部を制御する。なお、楽曲解析装置10が、パーソナルコンピュータである場合、操作部104においてユーザに操作されるのはマウスやキーボードとなる。
記憶部102は、ハードディスク装置を備えており、電子楽器20から供給された演奏音符列データQを記憶する。また、記憶部102は、演奏音符列データQを解析するときに使用される複数の楽曲の音符列データ(以下、参照音符列データRと称する)を予め記憶している。参照音符列データRは、楽曲を表す楽曲データの一例である。本実施形態においては、参照音符列データRもMIDI形式のデータとなっている。なお、参照音符列データRにおいては、楽曲に固有に付与された識別子(例えば楽曲名)や、楽曲の演奏のテンポなどが含まれる。
制御部101は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備えている。CPUがROMに記憶されているプログラムを実行すると、演奏音符列データQを取得し、演奏音符列データQに含まれている楽曲を特定する機能や、特定した楽曲を表示する機能などが実現する。
図2は、制御部101において実現する機能の構成を示したブロック図である。解析部1001は、通信部105から演奏音符列データQを取得し、記憶部102から参照音符列データRを取得する。つまり、解析部1001は、音符列データを取得する取得手段として機能する。解析部1001は、演奏音符列データQと参照音符列データRとに基いて、演奏音符列データQが、どの参照音符列データRに類似しているか解析し、演奏された楽曲を特定する。
解析部1001は、図3に示したように、音符列データ(演奏音符列データQ,参照音符列データR)を、時間軸上で複数の単位区間Fに区分する。つまり、解析部1001は、音符列データを区分する区分手段として機能する。単位区間Fは、例えば楽曲の1小節に相当する時間長に設定される。例えば、参照音符列データRが指定する演奏テンポに応じた1小節分が参照音符列データRの1個の単位区間Fとして画定される。また、電子楽器20に対する操作で演奏者が指示した演奏テンポに応じた1小節分が演奏音符列データQの1個の単位区間Fとして画定される。なお、演奏テンポが指定されていない場合、所定の演奏テンポおよび所定の拍子のもとで1小節に相当する区間が単位区間Fに設定される。例えば演奏テンポを120BPM(Beats Per Minute)と仮定して拍子を4/4拍子と仮定した場合には単位区間Fは2秒に設定される。
解析部1001は、音符列の音楽的な特徴(特に和声的な特徴)を表現する特徴量系列X(参照音符列データRの特徴量系列XRおよび演奏音符列データQの特徴量系列XQ)を算定する。特徴量系列XRは参照音符列データRの単位区間F毎に算定され、特徴量系列XQは演奏音符列データQの単位区間F毎に算定される。
特徴量系列Xの算出について、図3を用いて説明する。解析部1001は、図3に示したように、時間軸(横軸)と音高軸(縦軸)とが設定された座標平面に音符列データ(参照音符列データR,演奏音符列データQ)を展開する。図3に示したように、特徴量系列X(XR,XQ)は、複数の特徴量xmの時系列である。また、特徴量xmは、相異なるピッチクラス(音名)に対応する12個の特徴量dm[1]〜t[12]と、最高音TNm及び最低音BNmとを配列した14次元ベクトルである。このピッチクラスは、音名が共通する音高(ノートナンバ)の集合である。すなわち、周波数が2のべき乗倍の関係(相異なるオクターブにて音名が共通する関係)にある複数の音高は共通のピッチクラスに属する。12半音(C,C#,D,D#,E,F,F#,G,G#,A,A#,B)に対応する12個のピッチクラスについて特徴量dm[1]〜dm[12]が算定される。
具体的には、c番目(c=1〜12)のピッチクラスに対応する特徴量dm[c]は、1個の単位区間F内に存在する複数の音符のうちそのピッチクラスに属する各音符の継続長(音価)の合計値τaと、その単位区間F内の全部の音符の継続長の合計値τbとの比(dm[c]=τa/τb)である。合計値τbによる除算は、特徴量dm[c]を0以上かつ1以下の範囲内の数値に正規化する演算である。例えば、図3に示すように、ピッチクラス(音名G)が共通する音高G2の音符(継続長2秒)と音高G3の音符(継続長0.2秒)とが単位区間F内に存在し(τa=2+0.2=2.2)、単位区間F内の全部の音符の継続長の合計値τbが8秒である場合、特徴量dmのうち音名Gのピッチクラス(c=8)に対応する特徴量dm[8]は、0.275(=2.2/8)となる。
特徴量xm内の最高音TNm(TN:top note)は、音符列の第m番目の単位区間F内に存在する複数の音符のうち最も高い音符の音高(ノートナンバ)である。図3に例示された単位区間F内では音高G3が最も高音であるから、最高音TNmは、音高G3に対応するノートナンバ「67」に設定される。他方、特徴量xm内の最低音BNm(BN:bottom note)は、音符列の第m番目の単位区間F内に存在する複数の音符のうち最も低い音符の音高である。図3の単位区間Fでは音高C2が最も低音であるから、最低音BNmは、音高C2に対応するノートナンバ「48」に設定される。
解析部1001は、算出した特徴量系列Xを用いて、単位区間F毎に演奏音符列データQに対する各参照音符列データRの類似度を求め、類似度行列を作成する。なお、類似度行列を作成する方法としては、本出願人の先願である特開2013−47938号公報に記載されている方法を用いることができる。例えば、演奏音符列データQの単位区間Fの数がM個であり、記憶部102に記憶されている参照音符列データRの数がN個である場合、図4に示したように、N行×M列の類似度行列が作成される。
解析部1001は、算出した類似度行列にDP(Dynamic Programming)マッチングを適用し、最初の単位区間Fから最後の単位区間Fまでの間で、最尤となるパスを求めることにより、単位区間F毎に、演奏音符列データQに対して類似する参照音符列データRを特定する。
これにより、例えば、図4において類似度行列の下に示したように、単位区間F毎に、演奏音符列データQの各単位区間Fが、どの参照音符列データRに類似しているかが特定される。つまり、解析部1001は、演奏音符列データQに類似する参照音符列データRを特定する特定手段として機能する。なお、図4においては、複数の参照音符列データRについて、演奏音符列データQに類似と特定された単位区間Fをハッチングで示している。例えば、図4においては、参照音符列データR3内にあるデータが、演奏音符列データQの1番目の単位区間Fから3番目の単位区間F内にあるデータに類似していることを示している。
解析部1001は、演奏音符列データQの単位区間F毎に、類似の参照音符列データRを特定し終えると、特定結果に基いて演奏音符列データQ内を複数のブロックに分割し、分割した各ブロックにタグを付与する。
具体的には、解析部1001は、連続する単位区間Fについて類似する参照音符列データRがいずれも同じ場合、これらの連続する単位区間Fに含まれるMIDIデータを一つの区間として集約する。つまり、解析部1001は、単位区間Fを集約する集約手段として機能する。以後、制御部101は、集約された区間を一つの区間として扱う。例えば、図4に示したように、演奏音符列データQの1番目の単位区間Fから3番目の単位区間Fが、複数の参照音符列データR1〜RNのうちの参照音符列データR3に類似していると特定された場合、解析部1001は、図4の下部に示したように、1番目の単位区間Fから3番目の単位区間Fに含まれるMIDIデータを一つの区間として集約し、集約された区間を一つの区間として扱う。また、図4に示したように、演奏音符列データQの4番目の単位区間Fと5番目の単位区間Fが、参照音符列データR2に類似していると特定された場合、図4の下部に示したように、解析部1001は、4番目の単位区間Fと5番目の単位区間Fに含まれるMIDIデータを一つの区間として集約し、集約された区間を一つの区間として扱う。
次に解析部1001は、まとめられなかったMIDIデータのブロックと、まとめられたMIDIデータのブロックのそれぞれにタグを付与する。つまり、解析部1001は、タグ(タグ情報)を付加する付加手段として機能する。本実施形態においては、タグとして楽曲名を付与する。例えば、図4に示したように、演奏音符列データQにおいてまとめられた1番目の単位区間Fから3番目の単位区間Fは、参照音符列データR3に類似している。参照音符列データR3に含まれている楽曲名が「AAA」である場合、解析部1001は、このまとめられたブロックに対し、図4に示したように「楽曲名:AAA」というタグを付与する。また、解析部1001は、前後の区間Fにまとめられなかった区間Fについてもタグを付与する。
なお、算出した特徴量系列Xを用いて単位区間F毎に、演奏音符列データQに対して類似する楽曲を特定する構成は、上述した構成に限定されるものではない。例えば、本出願人の先願である特願2012−115064で提案されている技術や、特開2013−47938号公報に開示されている技術を用いるようにしてもよい。
表示制御部1002は、解析部1001の処理結果を表示部103に表示させる。図5は、表示部103に表示される解析結果の一例を示した図である。図5に示したように、演奏音符列データQは、横方向に時間軸をとって帯状に表示され、分割された各ブロックがブロックの時間長に応じた長さで表示される。また、ブロックの境界に対して、演奏音符列データQの再生開始からの経過時間が表示される。なお、この経過時間は、MIDIデータを解析することにより求められる。また、各ブロック内にはブロックに付与されたタグである楽曲名が表示される。
例えば、電子楽器20の演奏者が複数の楽曲の練習を順番に行い、演奏音符列データQが、この練習を表すものである場合、本実施形態の楽曲解析装置10によれば、図5に示したように、演奏音符列データQのどの部分がどの楽曲に相当するか表示されるため、ユーザは、手を煩わせることなく演奏音符列データQの内容を容易に知ることができる。
[第2実施形態]
次に、本発明の第2実施形態に係る楽曲解析装置について説明する。なお、以下の説明において、第1実施形態と同等の構成については、第1実施形態で用いた符号を用いて各々の詳細な説明は適宜省略する。
第2実施形態においては、解析部1001で行われる処理が第1実施形態と異なる。解析部1001は、演奏音符列データQを区分する際、演奏がなされていない期間を検出し、検出した期間を境界にして演奏音符列データQを区分する。なお、解析部1001は、演奏音符列データQに含まれるMIDIデータにおいてノートオフからノートオンまでの期間が予め定められた期間以上となっているところを、演奏がなされていない期間とする。
図6は、演奏音符列データQの区分例を示した図である。解析部1001は、演奏音符列データQを時間軸上に展開し、演奏音符列データQにおいて演奏がされていない期間が複数ある場合、図6に示したように演奏音符列データQを複数の演奏音符列データQ1〜QMに区分する。なお、図6においては、帯状の部分が演奏がされている期間を示している。
解析部1001は、演奏音符列データQ1〜QMを、さらに単位区間Fに区分する。解析部1001は、演奏音符列データQ1〜QMのそれぞれを、複数の参照音符列データRに対して時間軸上の位置を複数回相違させ、相違させた複数(B回)の場合の各々について基礎値x[b](x[1]〜x[B])を算定する(b=1〜B)。
図7は、演奏音符列データQ1について、ある参照音符列データRとの間で基礎値x[b]を算定するときの動作例を示した図である。解析部1001は、演奏音符列データQ1を参照音符列データRに対して単位区間Fの1個分ずつ移動(シフト)した各場合について基礎値x[b]を算定する。すなわち、解析部1001は、演奏音符列データQ1の位置を相違させた各場合について、参照音符列データRにおいて演奏音符列データQ1に対応する対象区間σ[b](K個の単位区間Fの集合)を順次に選択し、演奏音符列データQ1と対象区間σ[b]とを比較することで基礎値x[b]を算定する。
ここで、基礎値x[b]を算定する具体的な動作について演奏音符列データQ1を例に説明する。解析部1001は、演奏音符列データQ1と参照音符列データRの対象区間σ[b]との間で相互に対応する単位区間F毎に類似度V[k](V[1]〜V[K])を算定する(k=1〜K)。具体的には、解析部1001は、演奏音符列データQ1および参照音符列データRの各々を、各音符に対応する文字の時系列(文字列)とみなし、演奏音符列データQ1内の第k番目の単位区間Fと対象区間σ[b]内の第k番目の単位区間Fとの間の編集距離(レーベンシュタイン距離)に応じて類似度V[k]を算定する。なお、編集距離の算定については、例えば、本出願人の先願である特願2012−115064で提案されている技術を用いる。
解析部1001は、参照音符列データR内の1個の対象区間σ[b]の相異なる単位区間Fについて算定したK個の類似度V[1]〜V[K]から基礎値x[b]を算定する。例えばK個の類似度V[1]〜V[K]の平均値や最大値が基礎値x[b]として算定される。
解析部1001は、演奏音符列データQ1を参照音符列データRに対して単位区間Fの1個分ずつ移動させる毎に基礎値x[b]を算定すると、参照音符列データR内の相異なる対象区間σ[b]に対応するB個の基礎値x[1]〜x[B]に応じて類似指標値X[n]を算定する。具体的には、B個の基礎値x[1]〜x[B]のなかの最大値(すなわち参照音符列データRと演奏音符列データQ1との間の最大の類似を示す数値)が類似指標値X[n]として選択される。
解析部1001は、演奏音符列データQ1(演奏データ)と、他に記憶部102に記憶されている複数の参照音符列データRとの間でも、上述した動作で類似指標値X[n]を算定する。複数の参照音符列データR毎に算定された類似指標値X[n]は、演奏音符列データQ1の音符の配列に類似する区間を含む参照音符列データRほど大きい値となる。解析部1001は、算定した類似指標値X[n]に基いて、演奏音符列データQ1に類似する参照音符列データR(楽曲データ)を特定する。解析部1001は、類似指標値X[n]が最大の値となった参照音符列データRに含まれている楽曲名を抽出し、抽出した楽曲名をタグとして演奏音符列データQ1に付与する。
解析部1001は、演奏音符列データQ2〜QMのそれぞれについても、演奏音符列データQ1と同様に類似指標値X[n]を算定し、類似指標値X[n]が最大の値となった参照音符列データRに含まれている楽曲名をタグとして付与する。
表示制御部1002は、演奏音符列データQ1〜QMのそれぞれについてタグが付与されると、例えば、第1実施形態と同様に解析部1001の処理結果を表示部103に表示させる。なお、解析部1001は、連続する演奏音符列データQ1〜QMにおいて類似する参照音符列データRがいずれも同じ場合、これらの連続する演奏音符列データQ1〜QMに含まれるMIDIデータを一つにまとめるようにしてもよい。
第2実施形態の楽曲解析装置10によれば、第1実施形態と同様に演奏音符列データQのどの部分がどの楽曲に相当するか表示されるため、ユーザは、手を煩わせることなく演奏音符列データQの内容を容易に知ることができる。
[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した実施形態及び以下の変形例は、各々を組み合わせてもよい。
上述した実施形態においては、楽曲解析装置10は、電子楽器20から演奏音符列データQを取得しているが、この構成に限定されるものではない。例えば、楽曲解析装置10をネットワークに接続されたサーバ装置とした場合、電子楽器20から演奏音符列データQを取得したコンピュータ装置から、サーバ装置へ演奏音符列データQを送信し、サーバ装置が演奏音符列データQを解析するようにしてもよい。
また、複数の参照音符列データR(楽曲データ)をサーバ装置20に記憶させ、楽曲解析装置10は、サーバ装置から複数の参照音符列データRを取得するようにしてもよい。この場合、制御部101は、通信部105を介して参照音符列データを取得する。つまり、制御部101は、楽曲データを取得する楽曲データ取得手段として機能する。
上述した実施形態においては、解析の結果、演奏音符列データQを複数のブロックに区分した後、区分されたブロック毎に演奏音符列データQを分割して複数のファイルにするようにしてもよい。
また、上述した実施形態においては、解析がなされてタグが付された演奏音符列データQを再生する場合、付されたタグ、即ち楽曲名を表示するようにしてもよい。
上述した第1実施形態においては、DPマッチングにより、演奏音符列データQに類似の参照音符列データRを特定しているが、DPマッチングを行わずに類似度だけで類似の参照音符列データRを特定するようにしてもよい。
上述した実施形態においては、演奏音符列データQに類似の参照音符列データRを特定しているが、参照音符列データRのうち、どの部分が類似しているかを特定するようにしてもよい。また、参照音符列データRのうち、どの部分が類似しているかを特定する構成にあっては、複数の演奏音符列データQについて統計処理を行い、特定した部分毎に演奏がなされた回数を計り、演奏回数を表示するようにしてもよい。このように演奏回数を表示する構成によれば、例えば、演奏の練習を行ったときの練習回数を表示することとなり、練習回数を解析して演奏の教習にも利用できる。
上述した第2実施形態においては、演奏がなされていない期間で演奏音符列データQを複数の区間Q1〜QMに区分しているが、この構成に限定されるものではない。例えば、MIDIデータと共にマイクロフォンで演奏者の音声を取得し、演奏者の音声があるタイミングで演奏音符列データQを区分するようにしてもよい。また、楽曲解析装置10がスマートフォンやタブレット端末である場合、画面をタップしたタイミングを示すデータを演奏音符列データQに含め、画面がタップされたタイミングで演奏音符列データQを区分するようにしてもよい。また、スマートフォンやタブレット端末が有するカメラで演奏者を撮影し、特定の表示用が撮影されたタイミングを示すデータを演奏音符列データQに含め、当該タイミングで演奏音符列データQを区分するようにしてもよい。また、予め特定の音符列を定め、この音符列があるところで演奏音符列データQを区分するようにしてもよい。この構成によれば、演奏者がある特定の音符列を演奏するだけで、演奏音符列データQを区分することができる。
上述した実施形態においては、区分された演奏音符列データQの各ブロックについて、類似と特定された参照音符列データRと比較して演奏の採点を行うようにしてもよい。なお、演奏音符列データQを採点する構成にあっては、採点結果の高かった演奏音符列データQをネットワークに接続されたサーバ装置に記憶させるようにしてもよい。また、上述した実施形態においては、複数の演奏音符列データQの解析結果を表示し、区分されたブロックを編集して複数の演奏音符列データQの間でブロックの結合を行い、新たに演奏音符列データQを作成するようにしてもよい。
上述した実施形態においては、タグとして付与される内容は楽曲名であるが、楽曲名に限定されるものではない。例えば、楽曲の作曲者名、編曲者名、楽曲の作曲年月日、楽曲のジャンルなど、楽曲の特定に伴って特定される各種情報をタグとして付与するようにしてもよい。また、楽曲のどの部分かを示す情報(Aメロ、サビなど)を付与してもよい。また、上述した変形例のように、演奏回数を計る構成においては、演奏回数をタグとして付与してもよく、上述した変形例のように採点を行う構成においては、採点結果をタグとして付与してもよい。また、演奏日の情報をタグとして付与してもよい。
上述した実施形態においては、演奏音符列データQと参照音符列データRは、MIDIデータであるが、MIDIデータに限定されるものではない。例えば、演奏音の波形のスペクトルであってもよい。
10…楽曲解析装置、20…電子楽器、101…制御部、102…記憶部、103…表示部、104…操作部、105…通信部、1001…解析部、1002…表示制御部

Claims (3)

  1. 演奏を示す演奏データを取得する演奏データ取得手段と、
    前記演奏データを時間軸上で複数の区間に区分する区分手段と、
    楽曲を示す楽曲データを複数取得する楽曲データ取得手段と、
    前記区分手段で区分された演奏データと、前記楽曲データ取得手段で取得された複数の楽曲データとに基いて、前記複数の区間毎に当該区間の演奏データに類似する楽曲データを特定する特定手段と、
    前記複数の区間において前記特定手段の特定結果が同一である区間が連続する場合、当該連続する区間を一つの区間に集約する集約手段と、
    前記集約された区間及び前記集約手段で集約されていない区間のそれぞれについて、類似と特定された楽曲データを示すタグ情報を付加する付加手段と
    を有する楽曲解析装置。
  2. 前記区分手段は、前記演奏データを演奏がなされていない期間で区分する
    請求項1に記載の楽曲解析装置。
  3. 前記集約された区間及び前記集約手段で集約されていない区間毎に前記演奏データを分割する分割手段
    を有する請求項1又は請求項2に記載の楽曲解析装置。
JP2013108743A 2013-05-23 2013-05-23 楽曲解析装置 Active JP6179188B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013108743A JP6179188B2 (ja) 2013-05-23 2013-05-23 楽曲解析装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013108743A JP6179188B2 (ja) 2013-05-23 2013-05-23 楽曲解析装置

Publications (2)

Publication Number Publication Date
JP2014228720A JP2014228720A (ja) 2014-12-08
JP6179188B2 true JP6179188B2 (ja) 2017-08-16

Family

ID=52128602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013108743A Active JP6179188B2 (ja) 2013-05-23 2013-05-23 楽曲解析装置

Country Status (1)

Country Link
JP (1) JP6179188B2 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219178A (ja) * 2006-02-16 2007-08-30 Sony Corp 楽曲抽出プログラム、楽曲抽出装置及び楽曲抽出方法
JP5012120B2 (ja) * 2007-03-21 2012-08-29 ヤマハ株式会社 演奏記録装置及びプログラム
JP6019858B2 (ja) * 2011-07-27 2016-11-02 ヤマハ株式会社 楽曲解析装置および楽曲解析方法

Also Published As

Publication number Publication date
JP2014228720A (ja) 2014-12-08

Similar Documents

Publication Publication Date Title
JP5935503B2 (ja) 楽曲解析装置および楽曲解析方法
EP2515296B1 (en) Performance data search using a query indicative of a tone generation pattern
JP5799977B2 (ja) 音符列解析装置
US8106281B2 (en) Music difficulty level calculating apparatus and music difficulty level calculating method
EP1791111A1 (en) Content creating device and content creating method
US7041888B2 (en) Fingering guide displaying apparatus for musical instrument and computer program therefor
CN102760428B (zh) 使用表示乐音生成模式的查询的演奏数据搜索
JP6459378B2 (ja) 課題管理装置および課題管理プログラム
CN108257588B (zh) 一种谱曲方法及装置
US20120300950A1 (en) Management of a sound material to be stored into a database
Cantareira et al. Moshviz: A detail+ overview approach to visualize music elements
JP5071441B2 (ja) 楽曲難易度評価装置および楽曲難易度評価プログラム
US9098679B2 (en) Raw sound data organizer
CN110867174A (zh) 自动混音装置
US6323411B1 (en) Apparatus and method for practicing a musical instrument using categorized practice pieces of music
Holder et al. Musiplectics: computational assessment of the complexity of music scores
JP6179188B2 (ja) 楽曲解析装置
Chiu et al. Automatic system for the arrangement of piano reductions
TW201719628A (zh) 具有指法標示之樂譜產生方法及其系統
KR101238113B1 (ko) 입력 음성의 분석을 이용한 작곡 및 기성곡 검색 시스템
CN114005424A (zh) 信息处理方法、装置、电子设备及存储介质
JP5272899B2 (ja) 楽曲難易度算出装置および楽曲難易度算出プログラム
Huang et al. The evolution of Western tonality: a corpus analysis of 24,000 songs from 190 composers over six centuries
JP6565529B2 (ja) 自動アレンジ装置及びプログラム
JP2007240552A (ja) 楽器音認識方法、楽器アノテーション方法、及び楽曲検索方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170703

R151 Written notification of patent or utility model registration

Ref document number: 6179188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151