JP2016071291A - 写像推定装置 - Google Patents

写像推定装置 Download PDF

Info

Publication number
JP2016071291A
JP2016071291A JP2014203353A JP2014203353A JP2016071291A JP 2016071291 A JP2016071291 A JP 2016071291A JP 2014203353 A JP2014203353 A JP 2014203353A JP 2014203353 A JP2014203353 A JP 2014203353A JP 2016071291 A JP2016071291 A JP 2016071291A
Authority
JP
Japan
Prior art keywords
data
mapping
score
subset
score data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014203353A
Other languages
English (en)
Other versions
JP6481319B2 (ja
Inventor
陽 前澤
Akira Maezawa
陽 前澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2014203353A priority Critical patent/JP6481319B2/ja
Priority to US14/871,047 priority patent/US9478200B2/en
Publication of JP2016071291A publication Critical patent/JP2016071291A/ja
Application granted granted Critical
Publication of JP6481319B2 publication Critical patent/JP6481319B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/015Musical staff, tablature or score displays, e.g. for score reading during a performance

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

【課題】 全体集合データと複数の部分集合データとの間で各集合データ内における集合の元の位置(例えば時間位置)を共有する。
【解決手段】 記憶部10には、複数の部分集合データであるパート譜データP(i=1〜N)と、パート譜データP(i=1〜N)の和集合を示す総譜データSが記憶されている。写像調整部21は、総譜データSが和集合となる複数の終域データを総譜データSから選択し、かつ、パート譜データP(i=1〜N)を各々始域として写像A(i=1〜N)を各々施した各データが複数の終域データを各々示す確率が最大となるように、総譜データSから複数の終域データを選択する態様およびパート譜データP(i=1〜N)に施す各写像A(i=1〜N)の態様の調整を繰り返す。
【選択図】図1

Description

本発明は、パート譜の総譜への写像等、部分集合データの全体集合データへの写像を推定する写像推定装置に関する。
通常、合奏では、指揮者は総譜を見て指揮を行い、各パートの演奏者はパート毎に作成されたパート譜を見て楽器演奏を行う。この合奏の練習の際には、指揮者が各パートの演奏者に演奏位置を指示することが必要になる。その際の演奏位置の指示方法として、総譜と各パート譜に点在するリハーサルマークと呼ばれるマーカを利用する方法がある。すなわち、例えば「リハーサルマークAの27小節前から」という具合に指揮者が各パートの演奏者に演奏位置を指示するのである。また、楽譜に小節番号が記載されている場合には、この小節番号により演奏位置を指示することも可能である。特許文献1は、総譜を表示する親機と、パート譜を表示する子機とからなるシステムにおいて、親機における総譜のページめくりに子機におけるパート譜のページめくりを同期させる技術を開示している。この特許文献1に開示の技術では、ページめくりを同期させるために、ページめくり後のページを示す情報が親機から子機に送られる。この技術によれば、演奏位置を含むページを子機に表示させることができる。
国際公開第2012/090279号 特開2009−216769号公報 特開2009−223078号公報
しかしながら、リハーサルマークを利用して演奏位置を指示した場合、各パートの演奏者は、パート譜のページをめくることにより、指示されたリハーサルマークの記載されたページを見つけ、そのページのリハーサルマークから指示された小節数を数えて演奏位置を見つける必要がある。また、小節番号は譜表の先頭のみに記載されている。従って、譜表の途中の小節番号が指示された場合に、各パートの演奏者は指示された小節番号の小節を見つけるのに手間が掛かる。特許文献1の技術では、親機と子機とで楽譜のページめくりを同期させることができる。しかし、この技術を利用したとしても、親機の使用者によって指示された総譜上の任意の位置に対応した位置を子機の使用者がパート譜の中から見つけ出すのは困難である。このように、現状、各パートの演奏者は、指揮者から指示された演奏位置を見つけるのに手間が掛かるという問題がある。以上、総譜とパート譜を例に説明したが、この問題は、楽譜以外の情報を取り扱う場合にも起こり得る。例えば各々時系列データである複数の部分集合データ(音符の部分集合である複数のパート譜に対応)と、それらの部分集合データの和集合である全体集合データ(総譜に対応)を各々別個のユーザが使用する場合において、全体集合データを使用するユーザがその全体集合データにおける特定の時間位置を複数の部分集合データのユーザに伝えたい場合がある。この場合において、全体集合データおよび各部分集合データが時間軸に相当する情報を含んでいないと、全体集合データにおける特定の時間位置が指定されても、各部分集合データにおいてその時間位置に位置する集合の元(楽譜の例では音符)を見つけることは困難である。
この発明は、以上説明した事情に鑑みてなされたものであり、全体集合データと複数の部分集合データとの間で各集合データ内における集合の元の位置(上記の例では時間位置)を共有することを可能にする技術的手段を提供することにある。
この発明は、複数の部分集合データと、前記複数の部分集合データの和集合を示す全体集合データとに基づいて、前記複数の部分集合データを前記全体集合データの各部に対応付ける写像を各々推定する写像推定装置であって、前記全体集合データが和集合となる複数の終域データを前記全体集合データから選択し、かつ、前記複数の部分集合データを各々始域として写像を各々施した各データが前記複数の終域データを各々示す確率が最大となるように、前記全体集合データから複数の終域データを選択する態様および前記複数の部分集合データに施す各写像の態様を推定することを特徴とする写像推定装置を提供する。
かかる発明によれば、複数の部分集合データを各々始域とし、全体集合データが和集合となる複数の終域データを各々終域とする写像であって、複数の部分集合データに写像を各々施したデータが複数の終域データを示す確率が最大となるような各写像を推定することができる。従って、これらの写像に基づいて、全体集合データと複数の部分集合データとの間で各集合データ内における集合の元の位置を共有することを可能になる。
この発明の第1実施形態である写像推定装置を利用した楽譜表示システムの構成を示すブロック図である。 同実施形態におけるパート譜データと総譜データとの対応付けの例を示す図である。 同実施形態において使用するTDWの処理内容を例示する図である。 同実施形態の動作例を示す図である。 同実施形態において使用するマスクを説明する図である。 同実施形態の動作を示すフローチャートである。 この発明の第2実施形態である写像推定装置の動作例を示す図である。 同写像推定装置の他の動作例を示す図である。 同写像推定装置の他の動作例を示す図である。 この発明の他の実施形態である写像推定装置の動作例を示す図である。 同写像推定装置の他の動作例を示す図である。 同写像推定装置の他の動作例を示す図である。
以下、図面を参照し、この発明の実施の形態を説明する。
<第1実施形態>
図1はこの発明の第1実施形態である写像推定装置20を利用した楽譜表示システムの構成例を示すブロック図である。この楽譜表示システムは、マスタ譜面台1と、このマスタ譜面台1にネットワーク2を介して接続された複数のスレーブ譜面台3とにより構成されている。ここで、マスタ譜面台1は、例えばオーケストラの指揮者によって使用され、スレーブ譜面台3は、例えば複数のパートから構成されたアンサンブルの各パートを演奏する演奏者によって使用される。
マスタ譜面台1は、記憶部10と、本実施形態による写像推定装置20と、操作部30と、表示制御部40と、表示部50と、通信制御部60とを有する。記憶部10は、図示の例では、総譜データSと、複数のパート譜データP(i=1〜N)を記憶している。ここで、パート譜データP(i=1〜N)は、アンサンブルを構成する各パートの各音符を示す時系列の部分集合データである。総譜データSは、パート譜データP(i=1〜N)が示す各部分集合の和集合である総譜の各音符を示す時系列の全体集合データである。総譜データSおよびパート譜データP(i=1〜N)は、光学楽譜認識(OMR)などの手段により総譜やパート譜の音符の音高、音長、発生順序を認識することにより生成したデータであってもよいし、例えばSMAF(Standard MIDI File)形式の楽譜データであってもよい。
表示制御部40は、操作部30の操作に従って、記憶部10内の総譜データSが示す総譜の画像やパート譜データP(i=1〜N)が示すパート譜の画像を表示部50に表示させる。また、表示制御部40は、通信制御部60を介してパート譜データP(i=1〜N)を複数のスレーブ譜面台3に送信し、パート譜データP(i=1〜N)が示すパート譜の画像を各スレーブ譜面台3に表示させる。
さらに本実施形態において、表示制御部40は、表示部50に例えば総譜が表示されている状態において、この総譜上の任意の時間位置が操作部30の操作により指示された場合に、この総譜上の指示時間位置に対応した各パート譜上の時間位置を写像推定装置20により求める。そして、表示制御部40は、通信制御部60により、そのパート譜上の時間位置を示す位置データを各パート譜を表示しているスレーブ譜面台3に送信する。この位置データを受信したスレーブ譜面台3は、パート譜において位置データによって指示された位置を表示する。また、本実施形態では、例えばスレーブ譜面台3を使用する演奏者がスレーブ譜面台3に表示されたパート譜上の任意の時間位置を指示した場合、スレーブ譜面台3はこのパート譜上の指示時間位置を示す位置データをマスタ譜面台1に送信する。この場合、マスタ譜面台1では、通信制御部60がこの位置データを受信すると、表示制御部40は、その位置データが示すパート譜上の指示時間位置に対応した総譜上の時間位置を写像推定装置20により求め、この総譜上の時間位置を表示部50に表示された総譜に重ね表示する。
このように本実施形態では、総譜上での時間位置とパート譜上での時間位置との間の相互の変換を行うための手段が写像推定装置20に備わっており、表示制御部40は、この写像推定装置20を利用して、総譜および複数のパート譜間の時間軸の共有化(同期化)を図っている。
図1に示すように、写像推定装置20は、写像調整部21と、位置変換部22を有する。写像調整部21は、記憶部10に記憶された全体集合データである総譜データSおよび部分集合データであるパート譜データP(i=1〜N)を参照し、パート譜データP(i=1〜N)に写像A(i=1〜N)を施したデータA(P)(i=1〜N)の和集合が総譜データSとなる確率が最大となるような写像A(i=1〜N)を推定する手段である。位置変換部22は、写像調整部21により推定された写像A(i=1〜N)に従い、表示制御部40から供給される総譜上の時間位置を示す位置データnsを任意のパート譜上の時間位置を示す位置データnpに変換し、あるいは表示制御部40から供給されるパート譜上の時間位置を示す位置データnpを総譜上の位置を示す位置データnsに変換する手段である。
ここで、写像調整部21の詳細について説明する。まず、写像調整部21の処理対象となる総譜データSおよびパート譜データP(i=1〜N)について説明する。
図2(a)、(b)および(c)は写像調整部21の処理対象である総譜データS、パート譜データPおよびPを各々例示する図である。これらの図では、総譜データまたはパート譜データが示す各音符が時刻軸(n軸)と音高軸(p軸)からなる座標平面に各々マッピングされている。図2(a)に示すように、この例では総譜データSがパート1のデータとパート2のデータにより構成されている。
理想的には、総譜データSにおけるパート1のデータは図2(b)に示すパート譜データPに対応し、総譜データSにおけるパート2のデータは図2(c)に示すパート譜データPに対応する。しかしながら、本実施形態では、総譜データおよびパート譜データについて次のことを前提としている。
前提1:総譜データおよびパート譜データでは、音長情報に誤り、欠落が発生する可能がある。従って、総譜データおよびパート譜データでは、音符の発生時刻(発音開始時刻)に誤りが発生する可能性がある。
図2(b)に示すパート譜データPでは、左から4番目の2個の音符の音長を図2(a)に示す総譜データSよりも短く誤推定している。このため、それ以降のパート1の音符の発生時刻が総譜データSとパート譜データPとでずれている。また、図2(c)に示すパート譜データPでは、最初の音符の音長を図2(a)に示す総譜データSよりも長く誤推定している。このため、それ以降のパート2の音符の発生時刻が総譜データSとパート譜データPとでずれている。
前提2:総譜データおよびパート譜データでは、音符の音高情報に誤りが発生する可能性がある。
前提3:総譜データは、パート間の区切りを示す情報を含んでいない。例えば図2(a)では、パート1とパート2を区切る破線が示されているが、総譜データは、この破線に相当する情報を含んでいない。従って、総譜データから各パートのデータを分離して取り出すことができない。
ここで、仮に総譜データから任意のパートiのデータを分離して取り出すことができれば、パートiのパート譜データPを総譜データSから取り出したデータに対応付ける写像AをDTW(Dynamic Time Warping)等のツールにより容易に推定することができる。
図3はDTWの処理内容を例示する図である。このDTWでは、各時刻nsにおいて総譜データSが示すパートiの音高pと、各時刻npにおいてパート譜データPが示すパートiの音高pとが与えられた場合に、図示のように、総譜データSが存在する時間軸上の各時刻nsとパート譜データPが存在する時間軸上の各時刻npとを対応付ける写像Aを生成する。
総譜データSから各パートiのデータを分離して取り出すことができれば、このようなDTWを活用して、写像Aを推定することができる。しかしながら、本実施形態において総譜データSは、各パートを区別する情報を含んでいない。そこで、本実施形態における写像調整部21は、次のようにして総譜データSとパート譜データP(i=1〜N)から写像A(i=1〜N)を推定する。
まず、本実施形態における写像調整部21の処理は、図4(a)に示すように、総譜データSが各終域データの和集合となるようなNパートの終域データを総譜データSから選択する第1ステップと、図4(b)に示すように、パート譜データP(i=1〜N)を始域として写像A(i=1〜N)を施したデータA(P)(i=1〜N)がNパートの終域データとなる確率が最大となる写像A(i=1〜N)を推定する第2ステップの2段構成になっている。
これらの第1および第2ステップは同時に進行させる必要がある。何故ならば、第2ステップにおいてパート譜データP(i=1〜N)に写像A(i=1〜N)を施したデータA(P)(i=1〜N)がNパートの終域データとなる確率を高めるためには、第1ステップの選択が適切であることが必要である一方、第1ステップでは、総譜データがパートの区分に関する情報を含まないため、第2ステップにおいて求められる確率によってしか第1ステップにおけるNパートの終域データの選択の適否を判断することができないからである。
そこで、本実施形態では、パートi毎にマスクZ(n,p)を仮定する。このマスクZ(n,p)は、図5に示すように、総譜データS(n,p)が存在するn軸p軸座標系の各グリッド(n,p)において、パートiの終域データが占めるグリッド(n,p)についてはZ(n,p)=1となり、それ以外のグリッド(n,p)についてはZ(n,p)=0となるマスクである。
また、本実施形態において、総譜データS(n,p)は、n軸p軸座標系の各グリッド(n,p)に発音(あるいは音符)がある場合はS(n,p)=1、発音がない場合はS(n,p)=0となる。パート譜データP(i=1〜N)に写像A(i=1〜n)を施したデータA(P)(n,p)(i=1〜N)も同様である。
マスクZ(n,p)を利用すると、総譜データS(n,p)において値が1であるパートiの終域データS(n,p)が、パートiのパート譜データPに写像Aを施したデータA(P)(n,p)であって、値が1のA(P)(n,p)である確率p(A,P,S,Z)を次式により算出することができる。
Figure 2016071291
総譜データS(n,p)が存在するn軸p軸座標系の各グリッド(n,p)において、パートiの終域データが占める領域では、上記式(1)においてp(S(n,p)|(A(P)(n,p))Zi(n,p)=p(S(n,p)|(A(P)(n,p))となり、それ以外の領域では、p(S(n,p)|(A(P)(n,p))Zi(n,p)=1となる。従って、上記式(1)の右辺は、総譜データS(n,p)において値が1であるパートiの終域データS(n,p)が、パートiのパート譜データPに写像Aを施したデータA(P)(n,p)であって、値が1のA(P)(n,p)である確率を示す。
なお、音高の推定誤りに対する頑健性を高めたい場合は、上記式(1)に代えて、下記式(2)を使用してもよい。
Figure 2016071291
上記式(2)において、U(p)は、パート譜データPにおけるピッチpが総譜データSにおけるピッチqと混同されるか否かを示す2値関数であり、c(p)は、ピッチpがピッチqと混同される確率である。この場合、c(p)は、|p−q|が大きくなるほど小さくなるように設定するか、楽譜のスキャン技術の特性に基づいて算出することが望ましい。
確率p(A,P,S,Z)を算出するための式として、上記式(1)を使用する場合、本実施形態では、次式によりマスクZ(n,p)の期待値<Z(n,p)>を算出する。
Figure 2016071291
すなわち、マスクZ(n,p)の期待値<Z(n,p)>として、パート譜データPに写像Aを施したデータA(P)がグリッド(n,p)の総譜データS(n,p)である場合に、グリッド(n,p)の総譜データS(n,p)が1となる確率p(S(n,p)|A(P)(n,p))に比例した値を算出する。
そして、このマスクZ(n,p)の期待値<Z(n,p)>を利用し、次式によりパート譜データPに写像Aを施したデータA(P)が総譜データSのパートiの終域データである確率が最大となる写像Aを推定することが可能である。
Figure 2016071291
すなわち、総譜データS(n,p)の存在するn軸p軸座標系の各グリッド(n,p)について、パート譜データPに写像A’を施したデータA’(P)があることを前提とした場合に、当該グリッド(p,n)の総譜データS(n,p)が1となる確率の対数値logp(S(n,p)|A’(Pi)(n、p))を求め、この対数値にグリッド(n,p)に対応したマスクの期待値<Z(n,p)>を乗算し、この乗算結果の全グリッド(n,p)についての総和を求め、この総和が最大となる写像A’を写像Aとする。
ここで、logp(S|X)∝SXと仮定すると、上記式(4)は次式のように変形することができる。
Figure 2016071291
そこで、本実施形態では、上記式(4)に示す演算の代わりに式(5)に示す演算を行う。すなわち、本実施形態では、総譜データS(n,p)の存在するn軸p軸座標系において、パート譜データPに写像A’を施したデータA’(P)(n,p)が1となるグリッド(n,p)についてのマスクの期待値<Z(n,p)>の総和を求め、この総和が最大となる写像A’を写像Aとする。
そして、本実施形態において、写像調整部21は、EMアルゴリズムにより写像A(i=1〜N)の最尤推定を行う。さらに詳述すると、写像調整部21は、図6に示すように、写像A(i=1〜N)等の各種のデータの初期化を行った後、パートi=1〜Nの各々について上記式(3)の演算を行うEステップと上記式(5)の演算を行うMステップを実行する。また、写像調整部21は、全パートi(i=1〜N)についてのEステップおよびMステップの実行を所定回数繰り返す。
この全パートについてのEステップおよびMステップの実行が繰り返される結果、Eステップにおいて得られるマスクZ(n,p)と、Mステップにおいて得られる写像A(i=1〜N)が逐次改善され、総譜データSから選択されたパートi(i=1〜N)の終域データが、パート譜データP(i=1〜N)に写像A(i=1〜N)を施したデータA(P)(n,p)(i=1〜N)である確率が次第に高まって行く。
これにより各パート譜データP(i=1〜N)を総譜データSが和集合となる各パートの終域データに対応付ける最適な写像A(i=1〜N)が得られる。従って、本実施形態によれば、この写像A(i=1〜N)を利用して総譜および複数のパート譜間の時間軸の共有化(同期化)を図ることができる。
<第2実施形態>
上記第1実施形態では、EステップにおいてマスクZ(n,p)を算出し、このマスクZ(n,p)を利用してMステップを実行した。ここでは、マスクZを利用せず、その代わりに次式に示すM(n,p)を利用する。
Figure 2016071291
上記式(6)では、n軸p軸座標系の各グリッド(n,p)において、総譜データS(n,p)が1であり、かつ、パート譜データPに写像Aを施したデータA(P)(n,p)が1であるパートiをM(n,p)とする。
ここで、複数種類のiにおいて、S(n,p)(A(P))(n,p)が1となる場合があり得る。このような場合、S(n,p)(A(P))(n,p)が1となる複数種類のiの中から選択した1つのiをM(n,p)とする。
また、Mステップにおいて、このM(n,p)を利用し、次式に従って写像Aを算出することを検討する。
Figure 2016071291
ここで、δ(M(n,p),i)はM(n,p)=iである場合に1となり、M(n,p)≠iである場合に0となる。従って、パートiに対応したMステップの実行時、上記式(7)では、M(n,p)=iであるグリッド(n,p)のうち、総譜データS(n,p)が1であり、かつ、パート譜データPに写像Aを施したデータA(P)(n,p)が1であるグリッド(n,p)の個数が最大となる写像A’を写像Aとすることとなる。
ところで、上記式(6)において、M(n,p)がi=1〜Nのいずれになるかは、S(n,p)は依存しない。従って、上記式(6)を次式のように簡略化することができる。
Figure 2016071291
また、上記式(6)におけるM(n,p)へのiの割り振りを次のようなルールに従って行うものとする。すなわち、パートiに対応したMステップでは、S(n,p)=1ならば、i以外のインデックスをM(n,p)に割り振り、S(n,p)=0ならばiをM(n,p)に割り振る。この場合、上記式(7)におけるδ(M(n,p),i)S(n,p)を次のように表すことができる。
Figure 2016071291
上記式(9)において、右辺の大括弧[]の中の演算子1(c)は、条件cが満たされた場合に1、そうでない場合に0となる演算子である。この演算子1(c)の括弧内のcは、パートi以外の全てのパートj(j≠i)のパート譜データPに写像Aを施したデータA(P)(n,p)において、A(P)(n,p)=1となっているデータの和集合となっている。従って、上記式(9)の右辺において、S(n,p)に乗算される数値は、パートi以外の全てのパートj(j≠i)のパート譜データPに写像Aを施したデータA(P)が1となっているグリッド(n,p)において0となり、それ以外のグリッド(n,p)において1となる。
そこで、本実施形態における写像調整部21は、インデックスiを1〜Nまで切り換えつつ次式に示す演算を繰り返すことにより写像A(i=1〜N)を推定する処理を所定回数繰り返す。
Figure 2016071291
上記式(10)では、パートiに対応した演算において、パートi以外の全てのパートj(j≠i)のパート譜データPに写像Aを施したデータA(P)(n,p)のうち値が1であるものの和集合を求める。そして、総譜データSにおいて、この和集合に属しない残差データS(n,p)が1であり、かつ、パート譜データPに写像A’を施したデータA’(P)(n,p)が1であるグリッド(n,p)の個数が最大となる写像A’を推定し、この写像A’を写像Aとする。この式(10)の演算は、上記第1実施形態のEステップとMステップを合わせたものに相当する。
本実施形態においても、全パートi=1〜Nについての式(10)の演算が繰り返される過程において、写像A’(i=1〜N)が次第に改善され、総譜データSから選択されたパートi(i=1〜N)の終域データが、パート譜データP(i=1〜N)に写像A(i=1〜N)を施したデータA(P)(n,p)(i=1〜N)である確率が次第に高まって行く。従って、本実施形態においても上記第1実施形態と同様の効果が得られる。
図7〜図9は各々本実施形態の動作例を示すものである。これらの図において、横軸はn軸(時間軸)、縦軸はp軸(音高軸)である。
図7(a)には総譜データSと、この総譜データSに含まれるヴァイオリンパートのデータP’が示されている。図7(b)には、総譜データSからピアノパートのデータP’を除外したデータUPと、このデータUPから推定されたヴァイオリンパートのデータP’が示されている。この例では、データUPが不適切であるため、ヴァイオリンパートのデータP’の推定が誤っている。
図8(a)には総譜データSと、この総譜データSにおけるピアノパート以外のデータUPが示されている。図8(b)には、総譜データSからデータUPを差し引いたデータの中から推定されたピアノパートのデータP’が示されている。この例では、ピアノパート以外のデータUPの指定が適切であったため、ほぼ正確にピアノパートのデータP’が推定されている。
図9(a)には総譜データSと、この総譜データSに含まれるヴァイオリンパートのデータP’が示されている。図9(b)には、総譜データSから図8(b)において推定されたピアノパートのデータP’を差し引き、残ったデータから推定されたヴァイオリンパートのデータP’が示されている。この例では、ピアノパートのデータP’の推定が適切であったため、ほぼ正確にヴァイオリンパートのデータP’が推定されている。
以上のように、本実施形態では、パート譜データから推定されたデータを総譜データから差し引く処理と、パート譜データに対応した総譜データ内のデータを推定する処理を交互に繰り返すので、パート譜データに対応した総譜データ内のデータを推定する精度を高めることができる。
<他の実施形態>
以上、この発明の第1および第2実施形態について説明したが、この発明には他にも実施形態が考えられる。
(1)楽譜に示されたリハーサル記号や小節線を光学認識により正確に読み取れる場合、DTWの計算においてリハーサル記号や小節線の情報を活用してもよい。具体的には、総譜データSの時間軸nsの領域とパート譜データPの時間軸npの領域のうち対応づけてよい領域間でのみDTWを実行する。
例えば図10に示す例において、総譜データSおよびパート譜データPは、リハーサルマークAを示す情報を各々含んでいる。この場合、総譜データSのリハーサルマークAと、パート譜データPのリハーサルマークAは、曲中の同じタイミングを示している。従って、パート譜データPのリハーサルマークA以前の時間位置を総譜データSにおけるリハーサルマークA以後の時間位置に対応付け、あるいはパート譜データPのリハーサルマークA以後の時間位置を総譜データSにおけるリハーサルマークA以前の時間位置に対応付ける写像Aは不適切である。そこで、DTWでは、図10においてハッチングを施した領域内の対応付け、すなわち、パート譜データPのリハーサルマークA以前の時間位置を総譜データSにおけるリハーサルマークA以前の時間位置に対応付け、パート譜データPのリハーサルマークA以後の時間位置を総譜データSにおけるリハーサルマークA以後の時間位置に対応付ける写像Aのみを推定する。
また、図11に示す例において、総譜データSは、小節情報Bar10、Bar15、Bar20を含み、パート譜データPは、小節情報Bar8、Bar12、Bar18、Bar25を含んでいる。ここで、小節情報Barkは、小節番号kの小節線の位置を示す情報である。図11に示す例においても、不適切な写像が算出されるのを防ぐため、DTWでは、ハッチング領域内の写像Aのみを評価する。例えばパート譜データPにおける小節番号12〜18の区間内の時間位置については、総譜データSの小節番号10〜15の区間内の時間位置に対応付ける写像Aのみを推定する。他の区間も同様である。
また、総譜データSおよびパート譜データPが小節情報を含む場合には、総譜データSおよびパート譜データPの一方の時間位置が小節線を跨いだ場合には、他方の時間位置も小節線を跨いでよいというルールに従って、一方の時間位置を他方の時間位置に対応付ける写像Aiを推定してもよい。図12はその例を示すものである。この図12では、総譜データSにおけるデータの時間位置とパート譜データPにおけるデータの時間位置とを対応付ける写像Aにおいて、写像Aの始域の時間位置と終域の時間位置の対に関して許される変化が矢印により示されている。このような写像の始域と終域の対に関して許容される範囲を示す写像推定制御情報を総譜データSおよびパート譜データP内の小節情報に基づいて生成し、この写像推定制御情報に従って、写像の推定の制御を行ってもよい。
このように総譜データSおよびパート譜データP間で対応付けの許可される範囲に制限を設けることにより、不適切な写像Aが算出されるのを防止することができ、かつ、DTWの演算時間を短縮することができる。
(2)この発明は、五線譜に記載された楽譜のみならず、コード進行とメロディが記載された楽譜やタブ譜といった楽譜にも適用可能である。また、この発明は、バンドスコアのように、ドラムやギターパートが記載されているような楽譜にも適用可能である。
(3)この発明は、楽譜だけでなく、演奏を収録したデータに対しても適用可能である。例えば上記実施形態のパート譜データに代えて、MIDI対応電子楽器によってパート譜を演奏することにより得られたパート譜のMIDIデータを使用してもよい。あるいはアコースティック楽器によりパート譜を演奏し、その際の演奏音を収音して解析してパート譜のMIDIデータを生成し、上記実施形態のパート譜データとして使用してもよい。また、総譜データとしても、上記のようなMIDIデータの集合や、全楽器のオーディオデータを解析することにより得られるMIDIデータを用いても良い。なお、演奏音のオーディオ信号をMIDIデータに変換する技術は例えば特許文献2および3に開示されている。
(4)上記実施形態では、全体集合データおよび部分集合データとして、楽譜データを取り扱う写像推定装置を説明したが、全体集合データおよび部分集合データは、例えば画像データ等、楽譜データ以外のデータであってもよい。
(5)上記実施形態において、位置変換部22は、総譜データSにおけるデータの時間位置nsとパート譜データPにおけるデータの時間位置npとの相互変換を行ったが、これに加えて、異種のパート譜データP間の時間位置の相互変換を行ってもよい。例えば、まず、写像Aを利用してパート譜データPのデータの時間位置npを総譜データSのデータの時間位置nsに変換する。次に、写像Aを利用して総譜データSのデータの時間位置nsをパート譜データPのデータの時間位置npに変換する。このようにすることにより、パート譜データPのデータの時間位置npをパート譜データPのデータの時間位置npに変換することができ、パート1とパート2とで時間位置を共有することが可能になる。
(6)上記実施形態では、全体集合データが和集合となる複数の終域データを全体集合データから選択し、かつ、複数の部分集合データを各々始域として写像を各々施した各データが複数の終域データを各々示す確率が最大となるように、全体集合データから複数の終域データを選択する態様および複数の部分集合データに施す各写像の態様の調整を繰り返した。しかし、このような調整の繰り返しを行うことなく、上記確率が最大となる複数の終域データの選択の態様および複数の部分集合データに施す各写像の態様の推定を行ってもよい。例えば、総譜データ(全体集合データ)から全てのパート譜データ(部分集合データ)への全ての分解の態様を検討し、かつ、それらの全ての分解方法の各々において全ての写像の可能性について評価関数を評価する総当たり法を実行し、最も優れた評価関数値の得られる上記選択の態様および写像の態様を選択してもよい。
(7)この発明は、上記実施形態の写像推定装置20が実行する処理をコンピュータに実行させるプログラムとして実現してもよい。
1…マスタ譜面台、2…ネットワーク、3…スレーブ譜面台、10…記憶部、20…写像推定装置、30…操作部、40…表示制御部、50…表示部、60…通信制御部、21…写像調整部、22…位置変換部。

Claims (5)

  1. 複数の部分集合データと、前記複数の部分集合データの和集合を示す全体集合データとに基づいて、前記複数の部分集合データを前記全体集合データの各部に対応付ける写像を各々推定する写像推定装置であって、
    前記全体集合データが和集合となる複数の終域データを前記全体集合データから選択し、かつ、前記複数の部分集合データを各々始域として写像を各々施した各データが前記複数の終域データを各々示す確率が最大となるように、前記全体集合データから複数の終域データを選択する態様および前記複数の部分集合データに施す各写像の態様を推定することを特徴とする写像推定装置。
  2. 前記写像推定装置は、前記複数の部分集合データから1つの部分集合データを選択しつつ、選択した部分集合データについて写像の推定を行うものであり、写像の推定を終えた各部分集合データに対して推定した各写像を各々施したデータの和集合を前記全体集合データから差し引いた残差データを求め、選択した部分集合データについて写像の推定を行う際には、選択した部分集合データに写像を施したデータが前記残差データを示す確率が最大となる写像を推定することを特徴とする請求項1に記載の写像推定装置。
  3. 前記全体集合データおよび前記複数の部分集合データは各々時系列データであり、前記写像推定装置は、前記部分集合データの各データの時間軸の位置を前記全体集合データの各データの時間軸上の位置に対応付ける写像を推定することを特徴とする請求項1または2に記載の写像推定装置。
  4. 前記複数の部分集合データは、複数の演奏パートの楽譜を示すパート譜データであり、前記全体集合データは前記複数の演奏パートの楽譜の和集合を示す総譜データであることを特徴とする請求項3に記載の写像推定装置。
  5. 前記複数の部分集合データについて得られた各写像に基づいて、前記全体集合データにおける位置と前記複数の部分集合データにおける各位置との相互変換を行う位置変換手段を具備することを特徴とする請求項1〜4のいずれか1の請求項に記載の写像推定装置。
JP2014203353A 2014-10-01 2014-10-01 楽譜表示装置および楽譜表示方法 Expired - Fee Related JP6481319B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014203353A JP6481319B2 (ja) 2014-10-01 2014-10-01 楽譜表示装置および楽譜表示方法
US14/871,047 US9478200B2 (en) 2014-10-01 2015-09-30 Mapping estimation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014203353A JP6481319B2 (ja) 2014-10-01 2014-10-01 楽譜表示装置および楽譜表示方法

Publications (2)

Publication Number Publication Date
JP2016071291A true JP2016071291A (ja) 2016-05-09
JP6481319B2 JP6481319B2 (ja) 2019-03-13

Family

ID=55633205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014203353A Expired - Fee Related JP6481319B2 (ja) 2014-10-01 2014-10-01 楽譜表示装置および楽譜表示方法

Country Status (2)

Country Link
US (1) US9478200B2 (ja)
JP (1) JP6481319B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017507346A (ja) * 2013-12-31 2017-03-16 トナラ リミテッド 光学的音楽認識のためのシステムおよび方法
JP6699677B2 (ja) * 2018-02-06 2020-05-27 ヤマハ株式会社 情報処理方法、情報処理装置およびプログラム
JP6737300B2 (ja) * 2018-03-20 2020-08-05 ヤマハ株式会社 演奏解析方法、演奏解析装置およびプログラム
US11145283B2 (en) * 2019-01-10 2021-10-12 Harmony Helper, LLC Methods and systems for vocalist part mapping
US11922911B1 (en) * 2022-12-02 2024-03-05 Staffpad Limited Method and system for performing musical score

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003288075A (ja) * 2002-03-27 2003-10-10 Ricoh Co Ltd 楽譜編集装置
JP2007011220A (ja) * 2005-07-04 2007-01-18 Toshiba Plant Systems & Services Corp 電子楽譜表示装置
US20080011149A1 (en) * 2006-06-30 2008-01-17 Michael Eastwood Synchronizing a musical score with a source of time-based information
WO2012090279A1 (ja) * 2010-12-27 2012-07-05 キャスティングメディア株式会社 楽譜表示システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7423213B2 (en) * 1996-07-10 2008-09-09 David Sitrick Multi-dimensional transformation systems and display communication architecture for compositions and derivations thereof
US6084168A (en) * 1996-07-10 2000-07-04 Sitrick; David H. Musical compositions communication system, architecture and methodology
JP5088179B2 (ja) 2008-03-07 2012-12-05 ヤマハ株式会社 音処理装置およびプログラム
JP5024136B2 (ja) 2008-03-18 2012-09-12 ヤマハ株式会社 音処理装置およびプログラム
US9224129B2 (en) * 2011-05-06 2015-12-29 David H. Sitrick System and methodology for multiple users concurrently working and viewing on a common project
JP6123995B2 (ja) * 2013-03-14 2017-05-10 ヤマハ株式会社 音響信号分析装置及び音響信号分析プログラム
EP2924685A3 (en) * 2014-03-26 2016-01-13 Yamaha Corporation Score displaying method and computer program
JP6274132B2 (ja) * 2014-03-26 2018-02-07 ヤマハ株式会社 楽譜表示装置および楽譜表示方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003288075A (ja) * 2002-03-27 2003-10-10 Ricoh Co Ltd 楽譜編集装置
JP2007011220A (ja) * 2005-07-04 2007-01-18 Toshiba Plant Systems & Services Corp 電子楽譜表示装置
US20080011149A1 (en) * 2006-06-30 2008-01-17 Michael Eastwood Synchronizing a musical score with a source of time-based information
WO2012090279A1 (ja) * 2010-12-27 2012-07-05 キャスティングメディア株式会社 楽譜表示システム

Also Published As

Publication number Publication date
US20160098977A1 (en) 2016-04-07
JP6481319B2 (ja) 2019-03-13
US9478200B2 (en) 2016-10-25

Similar Documents

Publication Publication Date Title
JP6481319B2 (ja) 楽譜表示装置および楽譜表示方法
JP7448053B2 (ja) 学習装置、自動採譜装置、学習方法、自動採譜方法及びプログラム
JP2007322598A (ja) 楽曲分類装置、楽曲分類方法、及び楽曲分類プログラム
US20150068389A1 (en) Music piece order determination device, music piece order determination method, and music piece order determination
JP2017507346A (ja) 光学的音楽認識のためのシステムおよび方法
CN108369800B (zh) 声处理装置
JP2021128297A (ja) 推定モデル構築方法、演奏解析方法、推定モデル構築装置、演奏解析装置、およびプログラム
US20130284000A1 (en) Music note position detection apparatus, electronic musical instrument, music note position detection method and storage medium
TW201719628A (zh) 具有指法標示之樂譜產生方法及其系統
JP5153517B2 (ja) コード名検出装置及びコード名検出用コンピュータ・プログラム
JP6601109B2 (ja) 楽器類識別装置
JP2015200685A (ja) アタック位置検出プログラムおよびアタック位置検出装置
JP6496998B2 (ja) 演奏情報編集装置および演奏情報編集プログラム
JP2013003205A (ja) 楽譜表示装置、楽譜表示プログラム及び楽譜
JP6788560B2 (ja) 歌唱評価装置、歌唱評価プログラム、歌唱評価方法及びカラオケ装置
JP6838357B2 (ja) 音響解析方法および音響解析装置
JP6690446B2 (ja) 音響解析装置および音響解析方法
JP6565529B2 (ja) 自動アレンジ装置及びプログラム
JP2007240552A (ja) 楽器音認識方法、楽器アノテーション方法、及び楽曲検索方法
JP7176114B2 (ja) 楽曲解析装置、プログラムおよび楽曲解析方法
JP2015001586A (ja) 弦楽器演奏評価装置及び弦楽器演奏評価プログラム
WO2022244403A1 (ja) 楽譜作成装置、訓練装置、楽譜作成方法および訓練方法
JP6252421B2 (ja) 採譜装置、及び採譜システム
WO2022172732A1 (ja) 情報処理システム、電子楽器、情報処理方法および機械学習システム
JP5960488B2 (ja) 楽譜演奏装置及び楽譜演奏プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190128

R151 Written notification of patent or utility model registration

Ref document number: 6481319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees