JP3908221B2 - 楽譜追跡方法およびその装置 - Google Patents

楽譜追跡方法およびその装置 Download PDF

Info

Publication number
JP3908221B2
JP3908221B2 JP2003504053A JP2003504053A JP3908221B2 JP 3908221 B2 JP3908221 B2 JP 3908221B2 JP 2003504053 A JP2003504053 A JP 2003504053A JP 2003504053 A JP2003504053 A JP 2003504053A JP 3908221 B2 JP3908221 B2 JP 3908221B2
Authority
JP
Japan
Prior art keywords
frequency
model
matching
information
note
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003504053A
Other languages
English (en)
Other versions
JP2004533016A (ja
JP2004533016A5 (ja
Inventor
ジョン,ドイル
Original Assignee
アミューズテック カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アミューズテック カンパニー リミテッド filed Critical アミューズテック カンパニー リミテッド
Publication of JP2004533016A publication Critical patent/JP2004533016A/ja
Publication of JP2004533016A5 publication Critical patent/JP2004533016A5/ja
Application granted granted Critical
Publication of JP3908221B2 publication Critical patent/JP3908221B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G3/00Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
    • G10G3/04Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music

Description

本発明は、楽譜の演奏位置を自動に追跡するための楽譜追跡方法およびその装置に関する。
一般に、ピアノやバイオリンなどの楽器の練習または演奏時は、楽譜が使用される。即ち、実技試験などのように特別な場合を除いては、音楽を演奏または練習する時は楽譜を参照する。例えば、音楽を勉強する者は、楽譜に書かれた先生からの教えを参照しながら勉強し、交響楽団の演奏者は、指揮者の指示に従う演奏方法などを楽譜に記録しておき、演奏の時に参照するようになる。
なお、楽器の演奏時には、多くの演奏者は、両手を用いて演奏しているため、演奏者は、他人の助けを借りて楽譜をめくるか、または、演奏途中に適切なタイミングで直接片手で楽譜をめくるのが普通である。これによって、演奏者が、演奏中に演奏に没頭できなくなるという問題点があった。
このような問題点を解決するため、従来は、楽譜を置くための譜面台に、タイマーやペダルのような別の装置を付加し、演奏者が両手を使用することなく楽譜をめくることができるようにし、また、自動に楽譜をめくる方法に関する研究が主に行われていた。しかし、このような方法は、演奏者別の演奏速度の差などによって楽譜をめくるタイミングの適切な設定が困難であるという短所がある。
また、現在演奏されている単音の音の高さ情報を導出し、これを楽譜上の音符とマッチングすることによって、実際演奏情報により楽譜をめくるタイミングを判断する方法が知られている。しかし、このような方法は、単音だけを演奏する場合に適用する技術であって、バイオリンやギター、そして鍵盤楽器などを用いて複音を演奏する場合、または、協奏曲の場合には、適用できないという短所がある。
本発明は、上記の従来の問題点を解決するためになされたものであって、本発明の第1の目的は、楽譜情報から予想される周波数モデルと外部から入力された音の周波数成分とをマッチングして楽譜上の演奏位置を追跡することにより、複音の演奏や協奏曲の演奏時においても、楽譜上の演奏位置を正確に追跡することができる、楽譜追跡方法およびその装置を提供することにある。
本発明の第2の目的は、前述の楽譜追跡方法を実現させるための制御命令を記録した記録媒体を提供することにある。
本発明の第3の目的は、前述の方法により楽譜の演奏位置を自動に追跡するためのコンピュータ実行方法を提供することにある。
前述の第1の目的を達成するための本発明の楽譜追跡方法は、楽譜の演奏位置を追跡する楽譜追跡装置における楽譜追跡方法であって、上記楽譜追跡装置が、周波数モデリング部において、楽譜情報からその楽譜を参照した音楽の演奏時に発生されるものと思われる周波数モデル(XFM)リストを導出する第1の過程と、演奏位置判断部において、前記周波数モデル(XFM)リストに基づき、ある一時点において外部から入力される音情報(AI)に含まれるものと思われる周波数成分で構成されたマッチングモデル(M)を生成する第2の過程と、周波数分析部において、外部から音情報(AI)が入力されると、その音情報(AI)をデジタル信号(DA)に変換した後、そのデジタル信号(DA)に含まれた周波数成分(CPFD)を導出する第3の過程と、その周波数成分(CPFD)に新しい周波数成分が含まれている(Onset)か否かを判断する第4の過程と、演奏位置判断部において、前記周波数成分(CPFD)に新しい周波数成分が含まれている場合、前記周波数成分(CPFD)とマッチングモデル(M)とがマッチングされるか否かを判別する第5の過程と、前記第5の過程を行った結果、前記マッチングモデル(M)と前記周波数成分(CPFD)とがマッチングされる場合、実際演奏情報と楽譜情報とが一致することを示す同期情報を発生させた後、前記マッチングモデル(M)を更新する第6の過程とを含み、前記第2の過程は、前記ある時点の以前に演奏された音符に関する周波数モデルである経過音符周波数モデルと、現在時点に演奏中の音符に関する周波数モデルである現在音符周波数モデルと、次の時点に演奏されるものと思われる音符に関する予想音符周波数モデルとの和をマッチングモデルとして生成することを特徴とする。
また、前記第1の目的を達成するための本発明の楽譜追跡装置は、外部で演奏される音楽をデジタル信号に変換して入力するデジタル信号入力部と、前記デジタル信号に含まれた周波数成分(CPFD)を抽出する周波数分析部と、演奏される楽譜に含まれた音符の音の高さおよび長さ情報含む楽譜情報を入力する楽譜情報入力部と、前記楽譜情報に関する周波数モデリングにより新しい音符が演奏されるものと思われる時点ごとに、その時点に同時に演奏される音符の周波数モデル(XFM)を導出し、その周波数モデル(XFM)のリストを生成する周波数モデリング部と、前記周波数モデル(XFM)リストを格納管理する格納部と、前記周波数分析部から現在演奏中のデジタル信号の周波数成分(CPFD)が入力されると、その周波数成分(CPFD)と前記格納部に格納された周波数モデル(XFM)リストとの間のマッチング作業によって現在演奏位置を識別する演奏位置判断部と、前記演奏位置判断部の判断結果を使用者に提供する判断結果出力部とを備え、前記演奏位置判断部は、ある時点の以前に演奏された音符に関する周波数モデルと、現在時点に演奏中の音符に関する周波数モデルと、次の時点に演奏されるものと思われる音符に関する周波数モデルとを導出し、その周波数モデルの和で構成されたマッチングモデルを生成することを特徴とする。
前述の第2の目的を達成するための本発明の記録媒体は、コンピュータで読み取り可能である必要があり、その記録媒体がコンピュータにて駆動される時、前記楽譜追跡方法を実現させるための制御命令を記録したことを特徴とする。
前述の第3の目的を達成するための本発明に係るコンピュータ実行方法は、楽譜の演奏位置を自動に追跡するためのコンピュータ実行方法であって、実行命令を受信する第1の過程と、前記実行命令により演奏される楽譜の楽譜情報から音楽の演奏時に発生されるものと思われる周波数モデル(XFM)リストを導出する第2の過程と、外部で演奏され前記コンピュータの音入力部を介して入力されるデジタル信号の周波数成分(CPFD)を分析する第3の過程と、前記第2の過程で導出された周波数モデル(XFM)リストに基づき、音楽の演奏時にある時点に発生されるものと思われる周波数成分に関するマッチングモデル(M)を生成する第4の過程と、前記第3の過程で分析された周波数成分(CPFD)と前記第4の過程で生成されたマッチングモデル(M)とを比較して現在演奏位置を追跡する第5の過程とを含むことを特徴とする。
以下、本発明の楽譜追跡方法およびその装置について詳述する。なお、本発明の一実施例を説明するための用語を簡略に説明すると、次の通りである。
周波数モデル(XFM:eXtracted Frequency Model):周波数モデル(XFM)とは、楽譜情報から導出され、その楽譜を参照しながら音楽を演奏する時に発生されるものと予測される周波数に関するモデルをいう。
経過音符周波数モデル(PNFM:Passed Notes Frequency Model):経過音符周波数モデル(PNFM)とは、ある時点の以前に演奏された音符に関する周波数モデルをいう。経過音符周波数モデル(PNFM)は、実際演奏情報と楽譜情報とがマッチングするか否かを判断する時、既に経過した音符であるがまだ音が残っている周波数成分をマッチング対象に含めるために使用される。
現在音符周波数モデル(CNFM:Current Notes Frequency Model):現在音符周波数モデル(CNFM)とは、現在演奏中の音符に関する周波数モデルをいう。
予想音符周波数モデル(ENFM:Expected Notes Frequency Model):予想音符周波数モデル(ENFM)とは、次の時点に演奏されるものと思われる音符に関する周波数モデルをいう。
マッチングモデル(M:Matching Model):マッチングモデル(M)とは、実際演奏情報と楽譜情報とがマッチングするか否かを判断する時、ある時点における実際演奏情報と比較される対象をいう。マッチングモデル(M)は、PNFM、CNFM、そして、ENFMを合わせて生成する。
現在演奏周波数情報(CPFD:Current Performance Frequency Data):現在演奏周波数情報(CPFD)とは、現在入力されるデジタル信号の周波数成分を示すものである。換言すれば、ある時点における実際演奏情報をいう。
以前演奏周波数情報(PPFD:Previous Performance Frequency Data):以前演奏周波数情報(PPFD)とは、ある時点の直前のCPFDをいう。
楽譜待機時間(S_Time:Score_Time):楽譜待機時間(S_Time)とは、楽譜情報から導出された各周波数モデル(XFM)に割り当てられる値をいうもので、自分が演奏された時点から次順の周波数モデル(XFM)が演奏されるまでの予想される待機時間を意味し、マッチング待機時間(_Time)を導出するために使用される。
速さ比(T_Ratio:Tempo_Ratio):速さ比(T_Ratio)は、前記楽譜待機時間(S_Time)と実際演奏時間との比率を示すもので、マッチング待機時間(M_Time)を導出するために使用される。
速さ変化率(T_Variance:Tempo_Variance):速さ変化率(T_Variance)は、前記速さ比(T_Ratio)の変化率を示すもので、マッチング待機時間(M_Time)を導出するために使用される。
マッチング待機時間(M_Time:Matching_Time):マッチング待機時間(M_Time)とは、マッチングの発生した時点から次のマッチングが発生するものと予想される時点までの待機時間を意味し、S_Time、T_Ratio、そして、T_Varianceから導出される。
演奏進行時間(P_Time:Performance_Time):演奏進行時間(P_Time)とは、マッチングの発生した時点から経過した実際時間を意味し、現在音符に相当する演奏が持続した時間を示す。
以下、添付の図面を参照して本発明の楽譜追跡方法およびその装置について詳述する。
図1は、本発明の一実施例に係る楽譜追跡装置を示す概略的なブロック図である。同図に示されたように、本発明の楽譜追跡装置は、デジタル信号入力部(10)、周波数分析部(20)、楽譜情報入力部(30)、周波数モデリング部(40)、格納部(50)、演奏位置判断部(60)および判断結果出力部(70)を備えてなる。
デジタル信号入力部(10)は、外部で演奏される音楽をデジタル信号に変換して入力する装置であって、マイクを介して入力される音楽の場合、A/Dコンバータを介してデジタル信号に変換し、CD、MP3、ウェーブファイルなどの音楽ファイルとして入力される場合は、ウェーブ形式にファイル形式を変換して入力する。一般のコンピュータにおいては、サウンドカードがA/Dコンバータの機能を果たす。
周波数分析部(20)は、デジタル信号入力部(10)を介して入力されるデジタル信号からある時点において演奏中の現在演奏周波数情報(CPFD)を抽出する。この時、デジタル信号を周波数に分解する方法は、一般的に高速フーリエ変換(FFT:Fast Fourier Transformation)を利用しているが、ウェーブレット(Wavelet)変換のような他の方法を利用することもできる。
楽譜情報入力部(30)は、演奏される楽譜から楽譜情報を入力する装置であって、スキャニングによりその楽譜に含まれた各音符の高さおよび長さ情報を入力するなどの方法で作成されたデータである、各音符の高さおよび長さ情報を含むデジタル楽譜データを入力する働きをする。
周波数モデリング部(40)は、楽譜情報入力部(30)を介して入力された楽譜情報に関する周波数モデリングにより周波数モデル(XFM)リストを導出する。即ち、周波数モデリング部(40)は、その楽譜情報に基づき、新しい音符が演奏されるものと予想される時点毎に、その時点に同時に演奏される音符の周波数(XFM)を導出し、その周波数モデル(XFM)のリストを生成する。このように、楽譜情報から周波数モデル(XFM)リストを導出する過程については、図9A乃至図9Cを参照した説明においてより詳述する。
格納部(50)は、周波数モデリング部(40)で生成された周波数モデル(XFM)リストを格納して管理する。
演奏位置判断部(60)は、周波数分析部(20)を介して現在演奏中のデジタル信号の周波数成分(CPFD)が入力されると、その周波数成分(CPFD)と前記格納部に格納された周波数モデル(XFM)リストとの間のマッチング作業を行うによって現在演奏位置を識別する。
このため、演奏位置判断部(60)は、格納部(50)に格納された周波数モデル(XFM)リストに基づき、音楽演奏時、ある時点に発生するものと思われる周波数成分に関わるマッチングモデル(M)を生成した後、周波数分析部(20)を介して伝達される現在演奏周波数情報(CPFD)とマッチングモデル(M)との間のマッチング作業を行う。そして、その結果に基づいて現在演奏位置を識別する。
この時、マッチングモデル(M)は、ある時点の以前に演奏された音符に関する周波数モデル(PNFM)と、現在演奏中の音符に関する周波数モデル(CNFM)と、次の時点に演奏されるものと思われる音符に関する周波数モデル(ENFM)との和で構成され、各周波数モデル(PNFM、CNFM、ENFM)は、周波数モデル(XFM)リストから抽出される値を用いる。
判断結果出力部(70)は、演奏位置判断部(60)の判断結果を使用者に提供する。この時、その結果を使用者に提供する方法は、電子楽譜上に当該演奏位置を直接表示するなど、種々の方法が可能である。このような位置識別機能により演奏位置と当該ページの最後位置との距離関係を判別し、適切な時点に楽譜めくり信号を発生させることができる。
図2は、本発明の一実施例に係る楽譜追跡方法を示す処理フローチャートである。同図に基づいて一実施例に係る楽譜追跡方法を説明する。先ず、楽譜情報からその楽譜を参照する音楽の演奏時に発生されるものと思われる周波数モデル(XFM)リストを導出する(S110)。この時、演奏される楽器の音情報を予め持っていると、その音情報に基づいて周波数モデル(XFM)リストを導出し、そうでない場合は、楽器の種類による音符別のハーモニック周波数に基づいて周波数モデル(XFM)リストを導出する。
また、その周波数モデル(XFM)リストに基づき、ある一時点において外部から入力される音情報(AI:Audio Information)に含まれるものと思われる周波数成分で構成されたマッチングモデル(M)を生成する(S120)。
この時、マッチングモデル(M)は、以前に既に演奏された音符に関する周波数モデルである経過音符周波数モデル(PNFM)と、現時点に演奏中の音符に関する周波数モデルである現在音符周波数モデル(CNFM)と、次の時点に演奏されるものと予想される音符に関する予想音符周波数モデル(ENFM)との和で構成する(数式1参照)。
[数式1]
M=PNFM+CNFM+ENFM
また、外部から音情報(AI)が入力されると、その音情報(AI)をデジタル信号(DA:Digital Audio signal)に変換した後、そのデジタル信号(DA)に含まれた現在演奏周波数情報(CPFD)を導出する(S130、S140)。この時、デジタル信号から周波数成分を導出するため、一般に高速フーリエ変換(FFT)を用いるが、ウェーブレット(Wavelet)変換のような他の方法を用いることもできる。
次いで、前記導出された現在演奏周波数情報(CPFD)に新しい周波数成分が含まれているか(Onset)否かを判断し(S150、S160)、新しい周波数成分が含まれた場合、マッチングするか否かを判別する。即ち、新しい周波数成分が含まれている場合、マッチングモデル(M)と前記現在演奏周波数情報(CPFD)とを比較してマッチングするか否かを判別するが(S170)、マッチングモデル(M)に含まれた周波数成分が前記現在演奏周波数情報(CPFD)に全て含まれているか否かを判別する。この時、マッチングモデル(M)が多数である場合は、最初のマッチングモデル(M)(例えば、その発生時点が最も早いマッチングモデル(M))を選択して前記現在演奏周波数情報(CPFD)との比較を行う。
前記過程(S170)を行った結果、マッチングモデル(M)と現在演奏周波数情報(CPFD)とがマッチングされる場合(S180)、実際演奏情報と楽譜情報とが一致することを示す同期情報を発生させた後(S190)、そのマッチングモデル(M)を更新する(S200)。このようにマッチングモデル(M)の更新または追加を行う時は、楽譜追跡のために活用されるマッチング待機時間(M_Time)を共に設定する。前記マッチング待機時間(M_Time)は、マッチングモデル(M)と現在演奏周波数情報(CPFD)とがマッチングされた時点からそのマッチングモデル(M)の予想音符周波数モデル(ENFM)が演奏される時点まで予想される待機時間である楽譜待機時間(S_Time)を基準にして決定される。より詳しくは、前記楽譜待機時間(S_Time)に当該演奏者の演奏速度を加味するための速さ比(T_Ratio)および速さ変化率(T_Variance)をかけた値をマッチング待機時間(M_Time)として算出する(数式2参照)。
[数式2]
M_Time=S_Time*T_Ratio*T_Variance
なお、前記過程(S170)を行った結果、マッチングモデル(M)と現在演奏周波数情報(CPFD)とがマッチングされない場合、以前に生成されてマッチングされずに残っている残余マッチングモデルのうちの最初に生成されたマッチングモデルから順次選択し、前記現在演奏周波数情報(CPFD)とマッチングするか否かを判別する(S210、S220)。その結果、残余マッチングモデルのうち前記現在演奏周波数情報(CPFD)とマッチングされるマッチングモデル(M)がある場合、実際演奏情報と楽譜情報とが一致することを示す同期情報を発生させた後(S190)、そのマッチングモデル(M)を除いた他の残余マッチングモデルを全て削除し、そのマッチングモデル(M)を更新する(S200)。
また、現在演奏周波数情報(CPFD)に含まれた現在演奏音が進行された演奏進行時間(P_time)が、現在演奏周波数情報(CPFD)と比較するために生成されたマッチングモデル(M)のマッチング待機時間(M_time)を超過するまで、現在演奏周波数情報(CPFD)と前記マッチングモデル(M)との間のマッチングが行われない場合、新しいマッチングモデル(N_M)を追加する(S230、S240)。即ち、当該マッチングモデル(M)に含まれた予想周波数モデル(ENFM)の次の時点に演奏されるものと予想される周波数モデル(N_ENFM)が含まれた新しいマッチングモデル(N_M)を追加する(S240)。これは、演奏者が楽譜に表示された音符のいずれかを抜けして演奏した場合、これを補償するためである。
図3は、本発明の一実施例に係る周波数モデル(XFM)リストの導出過程(S110)を示す処理フローチャートである。同図に示されたように、周波数モデル(XFM)リストを導出するため、先ず、演奏される楽譜の情報を読み取った後(S111)、その楽譜を演奏する演奏楽器に関わる音情報があるか否かを確認する(S112)。
前記確認の結果(S112)、当該演奏楽器に関わる音情報が存在する場合、その音情報から楽譜情報に含まれた各音符の音情報を取り出した後(S113)、その音情報の周波数成分のうちのピーク値を用いて周波数モデルリストを導出する(S114)。
当該演奏楽器に関わる音情報が存在しない場合、楽譜情報に含まれた各音符の楽器種類別のハーモニック周波数情報を取り出した後(S115)、そのハーモニック周波数成分のうちのピーク値を用いて周波数モデルリストを導出する(S116)。
図4は、本発明の一実施例に係るマッチングモデル(M)の生成過程(S120)を示す処理フローチャートである。
同図に示されたように、最初に生成されるマッチングモデル(M)の場合、未だ演奏が進行されていない状態であるため、マッチングモデル(M)を構成する経過音符周波数モデル(PNFM)および現在音符周波数モデル(CNFM)は、無効値(NULL)として設定し(S121)、予想音符周波数モデル(ENFM)は、前記周波数モデル(XFM)リストから最初に演奏されるものと思われる周波数モデル(XFM)と設定する(S122)。また、前記周波数モデル(PNFM、CNFM、ENFM)を合わせてマッチングモデル(M)を生成する(S123)。
また、演奏者または再生機器の特性による演奏音楽の進行速度に応じて楽譜追跡速度を調節するようにするため、その演奏音楽の進行速度を識別するための変数(M_Time、P_Time、T_Ratio、T_Variance)の初期値を設定する(S124)。
マッチング待機時間(M_Time)とは、マッチングモデルのマッチング待機時間を意味する。初めには演奏状態でないため、マッチング待機時間(M_Time)を有効でない任意の値(例えば、NULL)として設定する。
演奏進行時間(P_Time)とは、現在演奏音の進行時間を意味する。演奏進行時間(P_Time)の初期値は、「0」であり、その値を増加させながら、マッチングモデルのマッチングを待つ。
速さ比(T_Ratio)とは、演奏の速さ比率をいう。換言すれば、速さ比(T_Ratio)は、マッチング待機時間(M_Time)と、実際マッチングされた時間との比率をいい、初期値は「1」である。例えば、速さ比(T_Ratio)値が「2」であれば、2倍遅く演奏されることを意味する。
速さ変化率(T_Variance)とは、演奏の速さ変化率をいう。速さ変化率(T_Variance)の初期値は、「1」であり、例えば、速さ変化率(T_Variance)が「1.1」の時は、だんだん遅く演奏されることを意味する。
図5は、本発明の一実施例に係るデジタル信号入力過程(S130)を示す処理フローチャートである。同図に示されたように、デジタル信号入力過程(S130)は、外部から終了命令が入力されるまでに継続して行われ(S131)、外部から入力される音情報(AI)の入力方式により処理過程が変化する。即ち、音情報(AI)がマイクを介して入力される場合、アナログ(A)/デジタル(D)変換を行い、前記音情報(AI)が音楽ファイルとして入力される場合、そのファイル形式を変換する(S132、S133、S134)。
また、前記変換された信号をフレーム単位に区分して入力する(S135)。なお、演奏速度を識別するために現在演奏音の進行時間を示す演奏進行時間(P_Time)を増加させる(S136)。
図6は、本発明の一実施例に係る新しい周波数入力(Onset)があるかの判断過程(S150)を示す処理フローチャートである。同図に示されたように、Onsetがあるか否かを判断するため、先ず、現時点において消滅した周波数成分を導出した後、マッチングモデル(M)に含まれた周波数情報のうちその消滅した周波数成分を除去する(S151)。このため、現在入力される音情報(AI)に含まれた現在演奏周波数情報(CPFD)と、以前に入力された音情報(AI)に含まれた以前演奏周波数情報(PPFD)とを比較し、以前演奏周波数情報(PPFD)には含まれているが現在演奏周波数情報(CPFD)には含まれていない周波数成分を導出し、これを除去するようにする。
そして、前記現在演奏周波数情報(CPFD)と以前演奏周波数情報(PPFD)との強さおよび周波数成分値を比較し、前記現在演奏周波数情報(CPFD)に新しい周波数成分が含まれているか(Onset)か否かを判別する(S152乃至S155)。この時、次の音符が演奏されるか否かを判断するためのOnset導出過程において、第1のステップ(S152、S153)では、音の急激な強さ増加を用いてOnsetを判断し、第2のステップ(S154、S155)では、管楽器など音の強さ変化はなく高さ変化のみがある場合に備え、周波数成分が新規に含まれているか否かによってOnsetを判断する。
前記判断の結果(S152乃至S155)、Onsetと判断される場合、Onsetフラグをセッティングし(S158)、Onsetでない場合は、Non−Onsetフラグをセッティングする(S157)。
なお、現在演奏音の進行時間(P_Time)が現在マッチングモデル(M)のマッチング待機時間(M_Time)を経過した場合、Onsetが発生したものとみなし、Onsetフラグをセッティングする(S156、S158)。
図7は、本発明の一実施例に係るマッチングモデル(M)更新過程(S200)を示す処理フローチャートである。例えば、マッチングモデル(M、M=PNFM+CNFM+ENFM、S_time)をマッチングモデル(M、M=PNFM+CNFM+ENFM、S_time)に更新する過程を示す処理フローチャートである。
同図に示されたように、マッチングモデル更新過程(S200)は、先ず、周波数モデル(XFM)リストが空いているか否かを確認し(S201)、周波数モデル(XFM)リストが空いていない場合に進行され、その過程は、以下の通りである。
即ち、マッチングモデル(M)に対する周波数移行過程によりマッチングモデル(M)を生成するが、これについて具体的に説明する。
先ず、マッチングモデル(M)に含まれた経過音符周波数モデル(PNFM)と現在音符周波数モデル(CNFM)とを合わせて新しい経過音符周波数モデル(PNFM)を生成し(PNFM←PNFM+CNFM)、マッチングモデル(M)に含まれた予想音符周波数モデル(ENFM)をもって新しい現在音符周波数モデル(CNFM)を生成し(CNFM←ENFM)、周波数モデル(XFM)リストから次の時点に演奏されるものと予想される周波数モデル(XFM)を選択して新しい予想音符周波数モデル(ENFM)を生成する(S202)。
また、その周波数モデル(PNFM、CNFM、ENFM)を全て合わせて新しいマッチングモデル(M)を生成する(S203)。
このようにマッチングモデル(M)が生成されると、そのマッチングモデル(M)のマッチング待機時間(M_time)を導出する過程を行う(S204乃至S209)。
このため、先ず、現在演奏の速さ比(T_Ratio)および速さ変化率(T_Variance)値を算出する(S204)。次いで、その速さ比(T_Ratio)および速さ変化率(T_Variance)に基づいて新しいマッチングモデル(M)のマッチング待機時間(M_Time)を算出し、マッチングモデル(M)に対するマッチングが行われたので、演奏進行時間(P_Time)値を再度初期化する(S209)。
なお、エラーまたは誤ったマッチングなどによるマッチング予想時間の急な変化などを防止するため、速さ変化率(T_Variance)の範囲を限定(MAX、MIN)し、速さ変化率がその範囲内で設定されるようにする(S205乃至S208)。
図8は、本発明の一実施例に係るマッチングモデル(M)の追加過程(S240)を示す処理フローチャートである。即ち、マッチングモデル(M、M=PNFM+CNFM+ENFM、S_time)がマッチングされず、そのマッチングモデルに関わるマッチング待機時間(M_tim )を経過した場合、そのマッチングモデル(M)はそのままにして、新しいマッチングモデル(M、M=PNFM+CNFM+ENFM、S_time)を追加する過程を示す処理フローチャートである。
同図に示されたように、マッチングモデルの追加過程(S240)は、先ず、周波数モデル(XFM)リストが空いているか否かを確認し(S241)、周波数モデル(XFM)リストが空いておらず、マッチングされずに残っているマッチングモデルの数が既に設定された限界値以下である場合、進行される(S242)。
先ず、マッチングモデル(M)を構成する周波数モデルのうち経過音符周波数モデル(PNFM)と現在音符周波数モデル(CNFM)とはそのままに取り、予想音符周波数モデル(ENFM)のみを新しい予想音符周波数モデル(ENFM)、即ち、次の時点に演奏されるものと予想される周波数モデル(XFM)として生成する(S243)。言い換えると、新しい経過音符周波数モデル(PNFM)と、新しい現在音符周波数モデル(CNFM)に経過音符周波数モデル(PNFM)および現在音符周波数モデル(CNFM)をそのまま適用し、新しい予想音符周波数モデル(ENFM)のみを新しく選択された周波数モデル(XFM)に変更する。
また、その周波数モデル(PNFM、CNFM、ENFM)を全て合わせて新しいマッチングモデル(M)を生成する(S244)。
このようにマッチングモデル(M)が生成されると、そのマッチングモデル(M)に含まれた予想音符周波数モデル(ENFM)が演奏されるものと予想されるマッチング待機時間(M_time)を導出する過程を行う(S245、S246)。この時、速さの変化がないため、前記マッチングモデル(M)の速さ情報(T_Ratio)に基づいて、新しいマッチングモデル(M)のマッチング待機時間(M_time)を算出する。その算出式が図面に示されている(S246)。
なお、演奏音楽の誤りが一定時間以上継続して発生する場合は、楽譜追跡を継続して行うことが無意味となるため、以前に生成されてマッチングされずに残っている残余マッチングモデルの個数を限定し、残余マッチングモデルの個数が既に設定された限界値以上である場合、新しいマッチングモデルを追加することなく終了するようにする(S242)。
図9A乃至図9Cは、本発明の一実施例によって楽譜情報から周波数モデルリストを導出する過程を説明するための例示図である。
即ち、周波数モデリング部(40)(図1に図示)に図9Aのような楽譜情報が入力される場合、周波数モデリング(40)(図1に図示)は、先ず、その楽譜情報から図9Bのように各音符の高さおよび長さ情報を導出し、その音符別の高さ情報によって図9Cのような周波数モデルを導出する。
この時、図9Bに示された各区間(A、B、C、D、E)は、その区間に属する音符が演奏され、次の音符による演奏音が入力されるのを待つための区間である。例えば、「A」区間は、(1/4)D5音符と、(1/2)B3音符と、(1/2)G3音符とが同時に演奏され、(1/8)G4音符が演奏されるのを待つ区間である。また、各区間(A、B、C、D、E)の長さは、その区間においてのみ演奏される音符の長さと決定されるのが一般的である。例えば、「A」区間の長さを「t」とすると、その他の区間(B、C、D、E)は、「1/2t」となる。
なお、図9Cは、このような楽譜情報に含まれた各音符の高さおよび長さ情報に基づいて導出された周波数モデルを示す。図9Cの(a)は、「A」区間に含まれた音符の周波数モデルを示し、図9Cの(b)は、「B」区間に含まれた音符の周波数モデルを示し、図9Cの(c)は、「C」区間に含まれた音符の周波数モデルを示し、図9Cの(d)は、「D」区間に含まれた音符の周波数モデルを示し、図9Cの(e)は、「E」区間に含まれた音符の周波数モデルを示す。図9Cの(a)または図9Cの(d)のように1区間に多数の音符情報が含まれた場合、それらの各周波数モデルを全て合わせた値が格納部(50)に格納される。
図10は、本発明の一実施例に係るマッチングモデルの生成および更新過程を説明するための例示図である。
同図に示されたように、(a)、(d)、(g)は、ある時点における経過音符周波数モデル(PNFM)を示し、(b)、(e)、(h)は、ある時点における現在音符周波数モデル(CNFM)を示し、(c)、(f)、(i)は、ある時点における予想音符周波数モデル(ENFM)を示す。
また、(a)、(b)、(c)は、初期に設定されたマッチングモデル(M)を構成する周波数モデルを示し、(d)、(e)、(f)は、マッチングモデル(M)とある一時点における現在演奏周波数成分(CPFD)とのマッチングが行われ、周波数移行過程が行われ、これによって、新しく生成されたマッチングモデル(M)を構成する周波数モデルを示す。なお、(g)、(h)、(i)は、マッチングモデル(M)と前記時点以後の時点における現在演奏周波数成分(CPFD)とのマッチングが行われ、周波数移行過程が行われ、これによって、新しく生成されたマッチングモデル(M)を構成する周波数モデルを示す。
本発明によれば、前述の過程を一般のコンピュータで動作されるようにするため、前記過程を実現させるための制御命令をコンピュータで読み取り可能な記録媒体に記録して使用することができる。
以上の説明は、本発明の一実施例を説明したものにすぎないものであり、本発明の保護範囲は、前述の実施例に限定されず、添付の請求の範囲を逸脱しない範囲で種々の変更が可能である。例えば、本発明の実施例を具体的に示した各構成要素の形状および構造を変形して実施することができる。
上記のような本発明の楽譜追跡方法およびその装置は、実際演奏される単音または複音の演奏情報に基づいて自動に楽譜上の演奏位置を追跡することができる。従って、その位置追跡の結果を基にして適切な時点に自動にページめくり信号を発生することにより、演奏者がタイマーや他のスイッチを用いて楽譜をめくる必要がないという長所がある。これによって、演奏者は、演奏に没頭できるようになる。
本発明の一実施例に係る楽譜追跡装置を示す概略的なブロック図である。 本発明の一実施例に係る楽譜追跡方法に関する処理フローチャートである。 本発明の一実施例に係る周波数モデル(XFM)リストの導出過程に関する処理フローチャートである。 本発明の一実施例に係るマッチングモデル(M)の生成過程に関する処理フローチャートである。 本発明の一実施例に係るデジタル信号入力過程に関する処理フローチャートである。 本発明の一実施例に係る新しい周波数入力(Onset)があるか否かの判断過程に関する処理フローチャートである。 本発明の一実施例に係るマッチングモデル(M)の更新過程に関する処理フローチャートである。 本発明の一実施例に係るマッチングモデル(M)の追加過程に関する処理フローチャートである。 本発明の一実施例によって楽譜情報から周波数モデルリストを導出する過程を説明するための例示図である。 本発明の一実施例によって楽譜情報から周波数モデルリストを導出する過程を説明するための例示図である。 本発明の一実施例によって楽譜情報から周波数モデルリストを導出する過程を説明するための例示図である。 本発明の一実施例に係るマッチングモデルの生成および更新過程を説明するための例示図である。

Claims (14)

  1. 楽譜の演奏位置を追跡する楽譜追跡装置における楽譜追跡方法であって、
    上記楽譜追跡装置が、
    周波数モデリング部において、楽譜情報からその楽譜を参照した音楽の演奏時に発生されるものと思われる周波数モデルリストを導出する第1の過程と、
    演奏位置判断部において、前記周波数モデルリストに基づき、ある一時点において外部から入力される音情報に含まれるものと思われる周波数成分で構成されたマッチングモデルを生成する第2の過程と、
    周波数分析部において、外部から音情報が入力されると、その音情報をデジタル信号に変換した後、そのデジタル信号に含まれた現在演奏周波数情報を導出する第3の過程と、
    その現在演奏周波数情報に新しい周波数成分が含まれているか否かを判断する第4の過程と、
    演奏位置判断部において、前記現在演奏周波数情報に新しい周波数成分が含まれている場合、前記現在演奏周波数情報とマッチングモデルとがマッチングされるか否かを判別する第5の過程と、
    前記第5の過程を行った結果、前記マッチングモデルと前記周波数成分とがマッチングされる場合、実際演奏情報と楽譜情報とが一致することを示す同期情報を発生させた後、前記マッチングモデルを更新する第6の過程と、
    を含み、
    前記第2の過程は、
    前記ある時点の以前に演奏された音符に関する周波数モデルである経過音符周波数モデルと、現在時点に演奏中の音符に関する周波数モデルである現在音符周波数モデルと、次の時点に演奏されるものと思われる音符に関する予想音符周波数モデルとの和をマッチングモデルとして生成することを特徴とする楽譜追跡方法。
  2. 記第1の過程は、
    演奏する楽譜の情報を読み出す第1−1の過程と、
    その楽譜を演奏する演奏楽器に関する音情報があるか否かを確認する第1−2の過程と、
    前記演奏楽器に関する音情報が存在する場合、その音情報から楽譜情報に含まれた各音符の音情報を抽出した後、その音情報の周波数成分のうちのピーク値を用いて周波数モデルリストを導出する第1−3の過程と、
    前記演奏楽器に関する音情報が存在しない場合、楽譜情報に含まれた各音符の楽器種類別のハーモニック周波数成分を抽出した後、そのハーモニック周波数成分のうちのピーク値を用いて周波数モデルリストを導出する第1−4の過程と、
    を含むことを特徴とする請求項1に記載の楽譜追跡方法。
  3. 前記第2の過程は、
    前記経過音符周波数モデルおよび現在音符周波数モデルは、無効値として設定し、前記予想音符周波数モデルは、前記周波数モデルリストから最初に演奏されるものと思われる周波数モデルとして設定する第2−1の過程と、
    前記経過音符周波数モデル、現在音符周波数モデルおよび予想音符周波数モデルを合わせてマッチングモデルを生成する第2−2の過程と、
    前記マッチングモデルのマッチング待機時間を有効でない任意の値として設定する第2−3の過程と、
    を含むことを特徴とする請求項1に記載の楽譜追跡方法。
  4. 前記第3の過程は、
    前記音情報がマイクを介して入力される場合、アナログ/デジタル変換を行い、前記音情報が音楽ファイルとして入力される場合、そのファイルの形式を変換してデジタル信号に変換することを特徴とする請求項1に記載の楽譜追跡方法。
  5. 前記第4の過程は、
    現在入力される音情報に含まれた現在演奏周波数情報と、以前の時点に入力された音情報に含まれた以前演奏周波数情報とを比較し、現在時点において消滅した周波数成分を導出する第4−1の過程と、
    マッチングモデルに含まれた周波数情報から前記消滅した周波数成分を除去する第4−2の過程をと、
    前記現在演奏周波数情報と以前演奏周波数情報との強さおよび周波数成分値を比較し、前記現在演奏周波数情報に新しい周波数成分が含まれているか否かを判別する第4−3の過程と、
    前記第4−3の過程を行った結果、前記現在演奏周波数情報に新しい周波数成分が含まれるか、新しい周波数成分が含まれていない状態で以前のマッチングが行われた時点から現在選択されるマッチングモデルのマッチング待機時間が経過した場合は、新しい周波数成分が含まれているものと判断する第4−4の過程と、
    を含むことを特徴とする請求項1に記載の楽譜追跡方法。
  6. 前記第6の過程は、
    前記マッチングモデルに含まれた経過音符周波数モデルと現在音符周波数モデルとを合わせて新しい経過音符周波数モデルを生成する第6−1の過程と、
    前記マッチングモデルに含まれた予想音符周波数モデルをもって新しい現在音符周波数モデルを生成する第6−2の過程と、
    前記周波数モデルリストから次の時点において演奏されるものと思われる周波数モデルを選択して新しい予想音符周波数モデルを生成する第6−3の過程と、
    前記新しい経過音符周波数モデル、新しい現在音符周波数モデルおよび新しい予想音符周波数モデルを合わせて新しいマッチングモデルを生成する第6−4の過程と、
    前記マッチングモデルのマッチング待機時間と前記マッチングモデルを生成してから実際にマッチングが行われるまでの時間情報とを比較して現在演奏速度を判別し、その演奏速度に基づいて新しいマッチングモデルのマッチング待機時間を導出する第6−5の過程と、
    を含むことを特徴とする請求項5に記載の楽譜追跡方法。
  7. 前記第5の過程を行った結果、前記マッチングモデルと前記周波数成分とがマッチングされない場合、
    以前に生成された後、マッチングされずに残っている残余マッチングモデルのうち、最初に生成されたマッチングモデルから順次選択して前記周波数成分とマッチングするか否かを判別する第7の過程と、
    前記残余マッチングモデルのうち、前記周波数成分とマッチングされるマッチングモデルが存在する場合、実際演奏情報と楽譜情報とが一致することを示す同期情報を発生させた後、そのマッチングモデルを除いた他の残余マッチングモデルを全て削除し、そのマッチングモデルを更新する第8の過程と、
    をさらに含むことを特徴とする請求項1に記載の楽譜追跡方法。
  8. 前記第8の過程は、
    前記マッチングモデルに含まれた経過音符周波数モデルと現在音符周波数モデルとを合わせて新しい経過音符周波数モデルを生成する第8−1の過程と、
    前記マッチングモデルに含まれた予想音符周波数モデルをもって新しい現在音符周波数モデルを生成する第8−2の過程と、
    前記周波数モデルリストから次の時点において演奏されるものと思われる周波数モデルを選択して新しい予想音符周波数モデルを生成する第8−3の過程と、
    前記新しい経過音符周波数モデル、新しい現在音符周波数モデルおよび新しい予想音符周波数モデルを合わせて新しいマッチングモデルを生成する第8−4の過程と、
    前記マッチングモデルのマッチング待機時間と、前記マッチングモデルを生成してから実際にマッチングが行われるまでの時間情報とを比較して現在演奏速度を判別し、その演奏速度に基づいて新しいマッチングモデルのマッチング待機時間を導出する第8−5の過程と、
    を含むことを特徴とする請求項7に記載の楽譜追跡方法。
  9. 前記マッチング待機時間を超過するまで前記周波数成分とマッチングモデルとのマッチングが行われない場合、前記マッチングモデルに含まれた予想周波数モデルの次の時点において演奏されるものと思われる周波数モデルが含まれた新しいマッチングモデルを追加する第9の過程をさらに含むことを特徴とする請求項1に記載の楽譜追跡方法。
  10. 前記第9の過程は、
    前記マッチングモデルに含まれた経過音符周波数モデルをもって新しい経過音符周波数モデルを生成する第9−1の過程と、
    前記マッチングモデルに含まれた現在音符周波数モデルをもって新しい現在音符周波数モデルを生成する第9−2の過程と、
    前記周波数モデルリストから次の時点において演奏されるものと思われる周波数モデルを選択して新しい予想音符周波数モデルを生成する第9−3の過程と、
    前記新しい経過音符周波数モデル、新しい現在音符周波数モデルおよび新しい予想音符周波数モデルを合わせて新しいマッチングモデルを生成する第9−4の過程と、
    前記マッチングモデルの速さ情報に基づいて新しいマッチングモデルのマッチング待機時間を導出する第9−5の過程と、
    を含むことを特徴とする請求項9に記載の楽譜追跡方法。
  11. 前記第9の過程は、
    以前に生成された後、マッチングされずに残っている残余マッチングモデルの個数が既に設定された限界値以上である場合、新しいマッチングモデルを追加せずに終了することを特徴とする請求項10に記載の楽譜追跡方法。
  12. 請求項1から11のいずれか1項に記載の楽譜追跡方法の各過程をコンピュータに実行させるための制御命令を記録したことを特徴とするコンピュータで読み取り可能な記録媒体。
  13. 外部で演奏される音楽をデジタル信号に変換して入力するデジタル信号入力部と、
    前記デジタル信号に含まれた周波数成分を抽出する周波数分析部と、
    演奏される楽譜に含まれた音符の音の高さおよび長さ情報を含む楽譜情報を入力する楽譜情報入力部と、
    前記楽譜情報に関する周波数モデリングにより新しい音符が演奏されるものと思われる時点ごとに、その時点に同時に演奏される音符の周波数モデルを導出し、その周波数モデルのリストを生成する周波数モデリング部と、
    前記生成された周波数モデルリストを格納管理する格納部と、
    前記周波数分析部から現在演奏中のデジタル信号の周波数成分が入力されると、その周波数成分と前記格納部に格納された周波数モデルリストとの間のマッチング作業によって現在演奏位置を識別する演奏位置判断部と、
    前記演奏位置判断部の判断結果を使用者に提供する判断結果出力部と、
    を備え、
    前記演奏位置判断部は、
    ある時点の以前に演奏された音符に関する周波数モデルと、現在時点に演奏中の音符に関する周波数モデルと、次の時点に演奏されるものと思われる音符に関する周波数モデルとを導出し、その周波数モデルの和で構成されたマッチングモデルを生成することを特徴とする楽譜追跡装置。
  14. 前記演奏位置判断部は、
    前記格納部に格納された周波数モデルリストに基づき、演奏の進行に応じてある時点に発生するものと思われる周波数成分に関するマッチングモデルを生成した後、前記周波数分析部から伝達される現在演奏中のデジタル信号の周波数成分と前記マッチングモデルとの間のマッチング作業を行うことを特徴とする請求項13に記載の楽譜追跡装置。
JP2003504053A 2001-05-21 2002-05-21 楽譜追跡方法およびその装置 Expired - Fee Related JP3908221B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2001-0027695A KR100412196B1 (ko) 2001-05-21 2001-05-21 악보 추적 방법 및 그 장치
PCT/KR2002/000952 WO2002101338A1 (en) 2001-05-21 2002-05-21 Method and apparatus for tracking musical score

Publications (3)

Publication Number Publication Date
JP2004533016A JP2004533016A (ja) 2004-10-28
JP2004533016A5 JP2004533016A5 (ja) 2005-07-21
JP3908221B2 true JP3908221B2 (ja) 2007-04-25

Family

ID=19709713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003504053A Expired - Fee Related JP3908221B2 (ja) 2001-05-21 2002-05-21 楽譜追跡方法およびその装置

Country Status (6)

Country Link
US (1) US7189912B2 (ja)
EP (1) EP1405048A4 (ja)
JP (1) JP3908221B2 (ja)
KR (1) KR100412196B1 (ja)
CN (1) CN1284962C (ja)
WO (1) WO2002101338A1 (ja)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4771323B2 (ja) * 2001-05-17 2011-09-14 新世代株式会社 音階認識方法、音階認識装置、及び、記録媒体
KR100418563B1 (ko) * 2001-07-10 2004-02-14 어뮤즈텍(주) 동기정보에 의한 미디음악 재생 방법 및 장치
KR100455751B1 (ko) * 2001-12-18 2004-11-06 어뮤즈텍(주) 연주악기의 소리정보를 이용한 음악분석장치
WO2005022509A1 (en) * 2003-09-03 2005-03-10 Koninklijke Philips Electronics N.V. Device for displaying sheet music
WO2005062289A1 (ja) * 2003-12-18 2005-07-07 Kashioka, Seiji コンピュータを用いた楽譜の表示方法
JP4530199B2 (ja) * 2004-02-24 2010-08-25 株式会社河合楽器製作所 自然楽器の楽音判定装置におけるモデル作成装置およびモデル作成用プログラム
US7598447B2 (en) * 2004-10-29 2009-10-06 Zenph Studios, Inc. Methods, systems and computer program products for detecting musical notes in an audio signal
US7459624B2 (en) 2006-03-29 2008-12-02 Harmonix Music Systems, Inc. Game controller simulating a musical instrument
US20100095828A1 (en) * 2006-12-13 2010-04-22 Web Ed. Development Pty., Ltd. Electronic System, Methods and Apparatus for Teaching and Examining Music
US8678895B2 (en) 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for online band matching in a rhythm action game
US8678896B2 (en) 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for asynchronous band interaction in a rhythm action game
US20090173213A1 (en) * 2008-01-09 2009-07-09 Ming Jiang Music Score Recognizer and Its Applications
US7482529B1 (en) * 2008-04-09 2009-01-27 International Business Machines Corporation Self-adjusting music scrolling system
US8017854B2 (en) * 2009-05-29 2011-09-13 Harmonix Music Systems, Inc. Dynamic musical part determination
US8026435B2 (en) * 2009-05-29 2011-09-27 Harmonix Music Systems, Inc. Selectively displaying song lyrics
US20100304810A1 (en) * 2009-05-29 2010-12-02 Harmonix Music Systems, Inc. Displaying A Harmonically Relevant Pitch Guide
US8076564B2 (en) * 2009-05-29 2011-12-13 Harmonix Music Systems, Inc. Scoring a musical performance after a period of ambiguity
US7935880B2 (en) 2009-05-29 2011-05-03 Harmonix Music Systems, Inc. Dynamically displaying a pitch range
US8465366B2 (en) 2009-05-29 2013-06-18 Harmonix Music Systems, Inc. Biasing a musical performance input to a part
US7923620B2 (en) * 2009-05-29 2011-04-12 Harmonix Music Systems, Inc. Practice mode for multiple musical parts
US7982114B2 (en) * 2009-05-29 2011-07-19 Harmonix Music Systems, Inc. Displaying an input at multiple octaves
US8449360B2 (en) 2009-05-29 2013-05-28 Harmonix Music Systems, Inc. Displaying song lyrics and vocal cues
US20100304811A1 (en) * 2009-05-29 2010-12-02 Harmonix Music Systems, Inc. Scoring a Musical Performance Involving Multiple Parts
US8080722B2 (en) * 2009-05-29 2011-12-20 Harmonix Music Systems, Inc. Preventing an unintentional deploy of a bonus in a video game
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
US10357714B2 (en) 2009-10-27 2019-07-23 Harmonix Music Systems, Inc. Gesture-based user interface for navigating a menu
JP5654897B2 (ja) * 2010-03-02 2015-01-14 本田技研工業株式会社 楽譜位置推定装置、楽譜位置推定方法、及び楽譜位置推定プログラム
US8568234B2 (en) 2010-03-16 2013-10-29 Harmonix Music Systems, Inc. Simulating musical instruments
JP2011242560A (ja) * 2010-05-18 2011-12-01 Yamaha Corp セッション端末及びネットワークセッションシステム
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
US8562403B2 (en) 2010-06-11 2013-10-22 Harmonix Music Systems, Inc. Prompting a player of a dance game
EP2579955B1 (en) 2010-06-11 2020-07-08 Harmonix Music Systems, Inc. Dance game and tutorial
US9024166B2 (en) 2010-09-09 2015-05-05 Harmonix Music Systems, Inc. Preventing subtractive track separation
JP5924968B2 (ja) * 2011-02-14 2016-05-25 本田技研工業株式会社 楽譜位置推定装置、及び楽譜位置推定方法
CN103870164A (zh) * 2012-12-17 2014-06-18 联想(北京)有限公司 一种处理方法及电子设备
KR20150072597A (ko) 2013-12-20 2015-06-30 삼성전자주식회사 멀티미디어 장치 및 이의 음악 작곡 방법, 그리고 노래 보정 방법
FR3022051B1 (fr) * 2014-06-10 2016-07-15 Weezic Procede de suivi d'une partition musicale et procede de modelisation associe
US20160189694A1 (en) * 2014-10-08 2016-06-30 Richard Lynn Cowan Systems and methods for generating presentation system page commands
JP6467887B2 (ja) * 2014-11-21 2019-02-13 ヤマハ株式会社 情報提供装置および情報提供方法
KR101675911B1 (ko) * 2015-02-25 2016-11-14 주식회사 와이오즈 외부음향에 따른 맞춤 정보를 표시하는 전자책
JP6801225B2 (ja) 2016-05-18 2020-12-16 ヤマハ株式会社 自動演奏システムおよび自動演奏方法
CN106448630B (zh) * 2016-09-09 2020-08-04 腾讯科技(深圳)有限公司 歌曲的数字乐谱文件的生成方法和装置
CN106340286B (zh) * 2016-09-27 2020-05-19 华中科技大学 一种通用的实时乐器演奏评价系统
JP6776788B2 (ja) * 2016-10-11 2020-10-28 ヤマハ株式会社 演奏制御方法、演奏制御装置およびプログラム
CN106485983B (zh) * 2016-10-19 2020-05-12 长江大学 乐器演奏分析和评测方法
CN106683650B (zh) * 2017-02-28 2023-10-24 湖北工程学院 钢琴自动演奏测试装置及方法
JP6737300B2 (ja) * 2018-03-20 2020-08-05 ヤマハ株式会社 演奏解析方法、演奏解析装置およびプログラム
JP7147384B2 (ja) * 2018-09-03 2022-10-05 ヤマハ株式会社 情報処理方法および情報処理装置
CN110111761B (zh) * 2019-03-28 2022-03-11 深圳市芒果未来科技有限公司 对乐音演奏进行实时跟随的方法及相关产品
CN113674584B (zh) * 2021-08-24 2023-04-28 北京金三惠科技有限公司 多种乐谱综合转换方法和综合转换系统
KR102569219B1 (ko) * 2022-06-03 2023-08-22 클레브레인 주식회사 악기 연주 추적 시스템 및 방법
KR20240039404A (ko) * 2022-09-19 2024-03-26 삼성전자주식회사 전자 장치 및 그의 제어 방법

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS603518A (ja) * 1983-06-21 1985-01-09 Victor Co Of Japan Ltd 音符の表示装置
JP2522928Y2 (ja) * 1990-08-30 1997-01-22 カシオ計算機株式会社 電子楽器
JP3216143B2 (ja) * 1990-12-31 2001-10-09 カシオ計算機株式会社 楽譜解釈装置
JP3077269B2 (ja) * 1991-07-24 2000-08-14 ヤマハ株式会社 楽譜表示装置
JPH05181464A (ja) * 1991-12-27 1993-07-23 Sony Corp 楽音認識装置
US5521323A (en) * 1993-05-21 1996-05-28 Coda Music Technologies, Inc. Real-time performance score matching
JP2636685B2 (ja) * 1993-07-22 1997-07-30 日本電気株式会社 音楽イベントインデックス作成装置
US5690496A (en) * 1994-06-06 1997-11-25 Red Ant, Inc. Multimedia product for use in a computer for music instruction and use
US5760323A (en) * 1996-06-20 1998-06-02 Music Net Incorporated Networked electronic music display stands
US5952597A (en) * 1996-10-25 1999-09-14 Timewarp Technologies, Ltd. Method and apparatus for real-time correlation of a performance to a musical score
US6166314A (en) * 1997-06-19 2000-12-26 Time Warp Technologies, Ltd. Method and apparatus for real-time correlation of a performance to a musical score
KR100216297B1 (ko) * 1997-07-07 1999-08-16 양원모 디지탈 전자악기의 악보표시장치 및 방법
US5913259A (en) * 1997-09-23 1999-06-15 Carnegie Mellon University System and method for stochastic score following
JP3437421B2 (ja) * 1997-09-30 2003-08-18 シャープ株式会社 楽音符号化装置及び楽音符号化方法並びに楽音符号化プログラムを記録した記録媒体
JPH11153991A (ja) 1997-11-20 1999-06-08 Hisao Shirato 電子譜めくり装置
JP3519984B2 (ja) 1999-04-19 2004-04-19 三洋電機株式会社 テンポ検出装置及び電子譜面装置並びに媒体
US6156964A (en) * 1999-06-03 2000-12-05 Sahai; Anil Apparatus and method of displaying music
JP2001067068A (ja) * 1999-08-25 2001-03-16 Victor Co Of Japan Ltd 音楽パートの識別方法
JP4302837B2 (ja) * 1999-10-21 2009-07-29 ヤマハ株式会社 音声信号処理装置および音声信号処理方法
JP4389330B2 (ja) * 2000-03-22 2009-12-24 ヤマハ株式会社 演奏位置検出方法および楽譜表示装置
KR20010097723A (ko) * 2000-04-25 2001-11-08 손희두 음성 인식을 이용한 자동 작곡 시스템 및 방법
KR20000072127A (ko) * 2000-08-02 2000-12-05 한창호 전자악보 시스템 및 이를 이용한 악보추적방법
JP3832266B2 (ja) * 2001-03-22 2006-10-11 ヤマハ株式会社 演奏データ作成方法および演奏データ作成装置
JP3801029B2 (ja) * 2001-11-28 2006-07-26 ヤマハ株式会社 演奏情報生成方法、演奏情報生成装置およびプログラム

Also Published As

Publication number Publication date
KR100412196B1 (ko) 2003-12-24
WO2002101338A1 (en) 2002-12-19
KR20020088742A (ko) 2002-11-29
CN1284962C (zh) 2006-11-15
EP1405048A1 (en) 2004-04-07
JP2004533016A (ja) 2004-10-28
US20050115382A1 (en) 2005-06-02
US7189912B2 (en) 2007-03-13
EP1405048A4 (en) 2006-07-26
CN1531644A (zh) 2004-09-22

Similar Documents

Publication Publication Date Title
JP3908221B2 (ja) 楽譜追跡方法およびその装置
JP2012532340A (ja) 音楽教育システム
US10504498B2 (en) Real-time jamming assistance for groups of musicians
JP2008275975A (ja) リズム検出装置及びリズム検出用コンピュータ・プログラム
Jonason The control-synthesis approach for making expressive and controllable neural music synthesizers
JP3730144B2 (ja) 類似音楽検索装置ならびにその方法、および類似音楽検索プログラムならびにその記録媒体
JP5311069B2 (ja) 歌唱評価装置及び歌唱評価プログラム
JP3750533B2 (ja) 波形データ録音装置および録音波形データ再生装置
Jie et al. A violin music transcriber for personalized learning
JP2007178697A (ja) 演奏評価装置、及びプログラム
CN114267318A (zh) Midi音乐文件的生成方法、存储介质和终端
JP4048249B2 (ja) カラオケ装置
JP3879524B2 (ja) 波形生成方法、演奏データ処理方法および波形選択装置
JP4089447B2 (ja) 演奏データ処理装置および演奏データ処理用プログラム
JP5561263B2 (ja) 楽音再生装置及びプログラム
JP2001067068A (ja) 音楽パートの識別方法
JP2005107332A (ja) カラオケ装置
JP2008257020A (ja) メロディーの類似度算出方法及び類似度算出装置
JP2007240552A (ja) 楽器音認識方法、楽器アノテーション方法、及び楽曲検索方法
CN113744760B (zh) 一种音高识别方法、装置、电子设备及存储介质
JP2012118234A (ja) 信号処理装置,及びプログラム
JP2010224430A (ja) 自動採譜装置、音階識別プログラム、音階判別プログラム、エレクトリック伝統的弦楽器自動採譜システムおよびエレクトリック三味線自動採譜システム
JP2010032809A (ja) 自動演奏装置及び自動演奏用コンピュータ・プログラム
JP6424907B2 (ja) 演奏情報検索方法を実現するためのプログラム、当該演奏情報検索方法および演奏情報検索装置
JP5747974B2 (ja) 情報処理装置及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060509

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20060802

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20060809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061107

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20061107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20061108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070117

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110126

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110126

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120126

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees