CN107077836A - 用于跟踪乐谱的方法以及相关的建模方法 - Google Patents
用于跟踪乐谱的方法以及相关的建模方法 Download PDFInfo
- Publication number
- CN107077836A CN107077836A CN201580038678.1A CN201580038678A CN107077836A CN 107077836 A CN107077836 A CN 107077836A CN 201580038678 A CN201580038678 A CN 201580038678A CN 107077836 A CN107077836 A CN 107077836A
- Authority
- CN
- China
- Prior art keywords
- chromatic scale
- scale vector
- music score
- estimation
- theoretic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
- G10H1/0058—Transmission between separate instruments or between individual components of a musical system
- G10H1/0066—Transmission between separate instruments or between individual components of a musical system using a MIDI interface
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B15/00—Teaching music
- G09B15/02—Boards or like means for providing an indication of notes
- G09B15/023—Electrically operated
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G1/00—Means for the representation of music
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/38—Chord
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/066—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/091—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/375—Tempo or beat alterations; Music timing control
- G10H2210/391—Automatic tempo adjustment, correction or control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/005—Non-interactive screen display of musical or status data
- G10H2220/015—Musical staff, tablature or score displays, e.g. for score reading during a performance.
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/011—Files or data streams containing coded musical information, e.g. for transmission
- G10H2240/046—File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
- G10H2240/056—MIDI or other note-oriented file format
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/005—Algorithms for electrophonic musical instruments or musical processing, e.g. for automatic composition or resource allocation
- G10H2250/015—Markov chains, e.g. hidden Markov models [HMM], for musical processing, e.g. musical analysis or musical composition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/005—Algorithms for electrophonic musical instruments or musical processing, e.g. for automatic composition or resource allocation
- G10H2250/015—Markov chains, e.g. hidden Markov models [HMM], for musical processing, e.g. musical analysis or musical composition
- G10H2250/021—Dynamic programming, e.g. Viterbi, for finding the most likely or most desirable sequence in music analysis, processing or composition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/131—Mathematical functions for musical analysis, processing, synthesis or composition
- G10H2250/161—Logarithmic functions, scaling or conversion, e.g. to reflect human auditory perception of loudness or frequency
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/131—Mathematical functions for musical analysis, processing, synthesis or composition
- G10H2250/215—Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
- G10H2250/235—Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Abstract
本发明涉及一种用于跟踪乐谱(10)的方法,包括实时执行的以下步骤:记录(23)由表演者发出的至少一种声音(12),估算(24)至少一个半音阶矢量(Vx),将该半音阶矢量(Vx)与乐谱(10)的理论上的半音阶矢量进行比较(26),将该半音阶矢量(Vx)和在前的半音阶矢量(Vx‑1)之间的转变(Tx)与乐谱(10)的理论转变进行比较(27),根据半音阶矢量(Vx)的比较(26)、转变(Tx)的比较(27)以及在前的演奏位置(Px‑1),估算(28)表演者的演奏位置,根据转变(Tx)的时长(Dx)和参考时长(Dref)之间的比例,在一个合适的时长(Di)内执行记录步骤(23)。
Description
技术领域
本发明涉及一种用于跟踪乐谱的方法以及相关的建模方法。本发明涉及数字乐谱的读取领域。
本发明尤其有利地应用于学习、练习乐器或者引导收听演奏等方面。
背景技术
存在用于跟踪数字乐谱的软件,对于该数字乐谱,其活动区(音符、小节、五线谱等)可从该乐谱的节奏或从表演者手动提供的演绎节奏中推导出来。这些软件通常包括用于标记该乐谱的元素,例如上划线或点状指示符。在代表开始读取的一个时延之后,标记元素以对应于该乐谱节奏的速度移动。因此,当音乐家可以随着乐谱的节奏演奏乐谱时,这些乐谱的活动区(音符、小节、五线谱等)被显示出来,考虑到乐谱的节奏,音乐家应该在理论上处于这些活动区。
这些软件的读取时间性是预先定义的,而并没有考虑音乐家演奏时的实际节奏。音乐家必须“跟踪乐谱上的光标”,而不能用他们自己的演奏来定义乐谱上光标的位置。因此,音乐家无法降低他们难以弹奏的一部分乐谱的滚动速度。同样地,当音乐家被现有的软件跟踪时,他们也无法重奏他们希望完美演奏的一部分乐谱。
发明内容
本发明意在通过提出一种用于跟踪乐谱同时收听表演者的演奏的方法来弥补现有技术的缺点,其适于随表演者的演奏来改变乐滚动的速度或乐谱显示的位置。
为此目的,从第一个方面,本发明涉及一种用于跟踪乐谱的方法,包括以下步骤:在添加和移动标记步骤中,在该乐谱上显示标记元素并移动该标记元素,该方法还包括实时执行以下步骤:在记录声音步骤中,以持续时间的数据帧的形式记录表演者发出的至少一个声音;在估算步骤中,基于该数据帧的内容估算至少一个半音阶矢量;在半音阶矢量比较步骤中,比较该半音阶矢量与乐谱的理论上的半音阶矢量;在转变比较步骤中,比较该半音阶矢量与具有该乐谱理论上的转变的在前半音阶矢量;以及在估算步骤中,依据在前的演奏位置、对半音阶矢量进行比较的结果、以及对上述转变的比较结果,估算演奏位置表演者的演奏位置;上述添加和移动标记步骤是根据表演者的演奏位置实现的;在记录步骤中,依据该转变的持续时长与参考持续时长的比例选择一个持续时长,并在该选择的持续市场内执行记录步骤。
因此,本发明使得可以识别表演者弹奏的音符或和弦,并将该识别与该乐谱的和弦相关联。这种关联可以使跟踪方法实时地适应演奏。
例如,依据该乐谱原始节奏,提供与音符或和弦有关的持续时间,但表演者不一定对此完全遵从。表演者可能希望在某些部分加快或减慢演奏速度。本发明可以增强对表演者个人特定节奏的跟踪。对节奏进行建模还可以获得对表演者当前节奏的估算,这可能对高级同步应用非常有用。
根据另一个示例,存在一个强烈的假设,根据该假设,表演者按照从第一个到最后一个的顺序演奏所有的音符或和弦。事实上,表演者很少有这个规律;相反,他们可能希望训练自己,在他们正在演奏的片段中来回移动、停止、然后在别处重新开始演奏。为了回应这种需求,本发明的方法可以在乐谱内执行“跳跃”,打破乐谱的连续性。因此,在模型中允许演奏的中断,并且当这种中断出现时,算法只需很少的时间即收敛到新的位置。
所实施的方法在适用于一个乐谱,从总体上来讲,这个乐谱包括具有时间性而不只是图形的形式的和弦。例如,该方法可以在乐器数字接口(MIDI)形式的乐谱文件中指示位置。
本发明还适用于引导收听演奏。例如,听众可以收听对应于乐谱演奏的音轨,该音轨经由具有扬声器的音频系统播放,并且可以观察与音轨相关联的乐谱的正在演奏的活动区域。
根据一个实施方式,该方法包括归一化步骤,即用该乐谱的该理论上的半音阶矢量对该半音阶矢量进行归一化。该归一化步骤可以使理论上的半音阶矢量适应于估算的半音阶矢量,从而提高识别和关联表演者所演奏的和弦的性能。
根据一个实施方式,将该半音阶矢量与该乐谱的理论上的半音阶矢量进行比较的步骤包括以下子步骤:估算该半音阶矢量和每个理论上的半音阶矢量之间的欧几里德距离,归一化所获得的欧几里德距离总和,以及估算该半音阶矢量隶属于每个理论上的半音阶矢量的概率。该实施方式在性能比较和能够允许实时处理的必要计算资源之间做出了很好的折衷。
根据一个实施方式,在转变步骤中:通过泊松定律的方法完成比较该半音阶矢量与在前半音阶矢量之间转变。该实施方式也在性能比较和能够允许实时处理的必要计算资源之间做出了良好的折衷。
根据一个实施方式,至少一个估算在对数尺度下完成。本发明涉及很多乘法,经常涉及接近于0的数值。因此,由于可能超过与所采用的计算设备中浮点数字相关的精度,计算可能会变得不稳定。为了补救这一点,本实施方式可以在“对数概率”领域中执行所有的计算,因此,所有乘法都变成加法,计算的精度仍然是可接受的。
根据一个实施方式,通过维特比(Viterbi)解码算法执行记录步骤中对持续时间的估算。该实施方式也在性能和能够允许实时处理的必要计算资源之间做出了良好的折衷。
根据一个实施方式,至少一个估算包括阈值,低于该阈值的估算被判断为不相关,并且其结果将不被采用。由于其概率性质,根据本发明的乐谱跟踪方法可能有误,并且给表演者错误的指示。当表演者在演奏中犯一些错误在或者在对乐谱的演奏很自由时,这种情况会发生。为了以最好方式管理由本发明方法提供的信息不可靠的情况,本实施方式可以实施判断估算的相关性的一个评估标准。
根据第二个方面,本发明涉及一种用于对乐谱建模的方法,包括以下步骤:将乐谱分隔成至少一个系列具有内容和持续时间的理论上的和弦,以理论上的半音阶矢量的形式表示每个理论上的和弦的内容,并对各种理论上的和弦之间的理论上的转变进行建模。本发明的第二个方面使得可以获得一个对数字乐谱的表示。半音阶矢量是数字乐谱的更“结构化”的表示,其可以使和弦之间的比较更简单。
根据一个实施方式,在建模步骤中,通过隐马尔可夫模型实现对各种理论上的和弦之间的理论转变的建模。该实施方式还在比较性能和能够允许实时处理的必要计算资源之间做出了良好的折中。
根据一个实施方式,该理论上的半音阶矢量由至少一个具有12个标量的音阶构成,其中标量数值均位于0和1之间,并且每个标量与半音音阶的半音调(do、do#,re、re#、mi、fa、fa#、sol、sol#、la、la#、si)之一相关联。作为变型例,半音阶矢量包括更多的标量数,例如以便整合阿拉伯音乐中的四分之一音。
附图说明
借助于下文中仅以说明方式对本发明实施方式的描述,可以更好地理解本发明,其中附图:
·图1所示为根据本发明的一种实施方式对乐谱建模的方法的步骤;
·图2所示为根据本发明的一种实施方式跟踪乐谱的方法的步骤;以及
·图3所示为根据本发明的一种实施方式跟踪乐谱的界面。
具体实施方式
图1所示为用于对乐谱10进行建模的方法的步骤,其中在步骤30,乐谱10被切分为一系列理论上的和弦S={S0,S1,...,Si,SI-1}。S的每个理论上的弦与一个内容Ci、一个可能为零的音调组、以及一个具有开始和结束的持续时长Di相关联。和弦的开始和结束分别是内容Ci改变之前的最小和最大的时刻值。
在步骤31中,以半音阶矢量Vi的形式表示每个理论上的和弦Si的内容Ci。优选地,半音阶矢量Vi由一个具有12个标量的音阶构成,其中标量数值均位于0和1之间,并且每个标量与半音音阶的半音调(do、do#、re、re#、mi、fa、fa#、sol、sol#、la、la#、si)之一相关联。优选地,每个半音阶矢量Vi的范数等于1。通过这种半音阶矢量Vi的表示,八度音的差异不被显示,因此不再考虑和弦的绝对音高。半音阶矢量Vi使得可以获得理论上的和弦Si的和声内容Ci的紧凑版本。半音阶矢量Vi也是更“结构化”的表示,其可以使S的理论上的和弦之间的比较更简单,并且还能够集中使用欧几里德距离。
数字乐谱10的S的理论上的和弦之间的理论上的转变T0、Ti、TI-1也优选地通过具有显式持续时间的隐马尔可夫模型来建模。因此,每个理论上的和弦Si被认为是马尔科夫状态,并且每个状态Si与离散时间线相关联,其表达式如下:
Li=[Li,0Li,1…Li,j…Li,J-1],
其中J是半音阶矢量的大小,L和P是时间线的采样周期,Li,j是表演者已经处于Si状态达jP毫秒的概率。一旦构建了时间线,可以对表演者在不同和弦之间转变的调式进行建模。
因此,对于S的每个理论上的和弦,数据库15内有半音阶矢量Vi、当前理论上的和弦与S的和弦之间的理论上的转变T0、Ti、TI-1。
图2示出了用于跟踪乐谱10并且实时分析表演者的表现的方法的步骤,其中实时是指在确定的时间内。
在第一步骤23中,以由表演者演奏发出的声音12以数据帧Tr的形式持续记录时间Dx(例如200ms)记录。基于该数据帧Tr的内容Cx,步骤24包括估算半音阶矢量Vx。例如,该估算可以通过能够识别表演者所演奏的所有可能的和弦的神经网络来执行。此后,在步骤25中,执行半音阶矢量Vx的归一化,以对应于存储在数据库15中的半音阶矢量V0、V1、...Vi、...VI-1的格式。
此后,步骤26包括将半音阶矢量Vx与乐谱10的半音阶矢量V0,V1,...Vi,...VI-1进行比较。为此,计算半音阶矢量Vx和每个半音阶矢量Vi之间的欧几里德距离Ei。保存这些距离值,并且使这些距离值归一化,使得欧几里德距离Ei总和等于1。然后,欧几里德距离Ei表示当前帧Tr“非隶属”于S的各种理论上的和弦中。最后一个步骤中将这些“非隶属”的概率转换成一个“隶属”的概率,即执行以下操作:
Ei:=1-Ej。
另一步骤27在于分析半音阶矢量Vx和在前由表演者演奏的半音阶矢量Vx-1之间的转变Tx。因此,具有显式持续时间的隐马尔可夫模型被用作存储在数据库15中的理论上的转变T0、...、Ti、Tl-1的函数。根据以下等式进行转变的计算:
Li,0:=maxj(Poisson(j,λi)Li-1,j),
其中λ表示与离散时间线的每个元素j相关联的期望值。术语泊松(Poisson)是指描述在乐谱10中出现的S的理论上的和弦的数量特性的离散概率分布。
此后对于i和j的所有数值,根据以下等式计算离散时间线的发出概率:
Li,j:=Li,jEi。
保存这些计算所得值,并且将这些值归一化,使得离散时间线Li,j总和等于1。i和j的最大参数分别表示表演者最可能演奏的和弦以及在和弦内的进度。
上述计算涉及许多乘法运算,通常涉及接近于0的数值。因此,由于可能超过与考虑的计算设备中的浮点数相关的精度,计算可能变得不稳定。为了克服这一点,所有的计算可以在“对数概率”域中执行;并且所有乘法运算都变成加法运算,计算的精度仍然是可接受的。从而修改上述公式。因此,根据以下等式来执行转变的计算:
Li,0:=maxj(log(Poisson(j,λi))+Li-1,j),
并根据以下等式考虑发出概率:
Li,j=Li,j+log(Ei)。
根据以下等式,用离散时间线的重定基础来代替归一化:
Li,j=Li,j-maxn,m(Ln,m)。
对数概率因此被补偿,使得其最大值等于0。
依据在前演奏位置Px-1、半音阶矢量Vx的比较和转变Tx的比较,所有这些信息使得可以在步骤28中估算表演者的演奏位置Px演奏位置。该演奏位置Px使得可以在步骤20中显示一个数字乐谱10上的标记元素11,并且在步骤21中将该标记元素11移动。
图3表示用于跟踪包括标记元素11的乐谱10的界面16。标记元素11采取离散线的形式,其中离散线表示理论上的和弦S1、S2、Si、SI-1。优选地,理论上的和弦S1、S2、Si、SI-1所处于的节拍Mes_i也被突出显示。用于跟踪乐谱10的界面16还包括可由表演者控制的命令控制器17,例如以便调整本发明方法中的设置,从而选择由表演者演奏的声音和由界面播放的(多种)声音。
在该实施方式中,当表演者演奏到页面底部时,可以自动翻页而不需要表演者手动翻页。作为变型例,例如由于数字平板电脑的屏幕的尺寸,乐谱10可以根据演奏位置Px而在屏幕上滚动。
此外,根据乐谱10的原始节奏Tpo,对与理论上的和弦S1、S2、Si、SI-1有关的持续时间Di进行估算,而表演者不一定对此完全遵从。表演者可能希望在某些部分加快或减慢演奏。本发明实施一种加强跟踪,而该加强跟踪并不包括与表演者的演奏速度相关的任何不适当的推定。对节奏V进行建模可以获得对表演者的当前节奏Tpo_inter的估算。该估算对于高级同步应用程序可能十分有用。节奏Di可以在乐谱10内显著变化;由于该原因,不必考虑表演者的精确节奏Tpo_inter,而依据以下等式对节奏V进行估算:
对节奏V的这种估算给出了表演者相对于乐谱10的相对演奏速度。为了对该速度作出估算,可以使用一种适用于马尔可夫链的算法---维特比解码(Viterbi decoding)。维特比解码是一种动态编程技术,可以跟踪导致目标状态的最可能的状态序列。在具有显式持续时间的马尔科夫链的情况下,目标并不是状态,而是在概率Li,j的一个状态Si内的时间偏移jP。具体地,每个目标具有存储其历史信息的大小为K的向量Mi,i。在转变步骤中,根据以下等式向量Mi,j进行更新:
其中shift(Mi,j)为指定操作运算,对于所有k:
向量Mi,i总结在最后K个状态中花费的时间,因此可以根据以下等式获得对给定目标的节奏的估算:
基于由(i,j)=arg maxi,jLi,j索引的该最可能的目标,通过评估来获得最终节奏。一旦计算得出节奏的估算,与理论上的弦Si相关联的持续时间Di就被修改。持续时间Di的这种改变允许对表演者播放的下一音频帧Tr进行更合适的处理。
由于其概率性质,根据本发明的乐谱跟踪方法可能有误,并且给表演者不佳指示。当表演者在演奏中或者在对乐谱的自由演奏期间犯一些错误时,这种情况可能会发生。为了以最好方式管理由本发明方法提出的信息不可靠的情况(例如提示演奏者),落实判断估算的相关性的评估标准(例如使用上述的“重定基础”步骤),则可能是有益的。在该过程期间,项maxn,m(Ln,m)可以被解释为由最后的帧Tr引起的全局补偿。通过在最后N个帧上平均maxn,m(Ln,m),可能获得与最后NP毫秒的播放相关的补偿。因此,可以设定一个阈值,高于该阈值的估算判定为可靠。
关于跟踪乐谱10,在一个第一近似中,可以认为表演者仅能从状态Si-1(乐谱10的在前理论上的和弦)达到状态Si。即,表演者演奏所有的和弦。事实上,表演者很少遵守这个规律;相反,表演者可能希望训练自己,在正在演奏的片段中前后移动、停止、然后在其他地方继续。为了处理这个推测,本发明的方法可以在乐谱10内执行“跳跃”,打破由转换概率的选择引起的连续性。在“对数概率”空间中,值0对应于概率1,值-1对应于概率0(严格不可能性)。该方法将小于0或甚至等于-1的“对数概率”与乐谱10的某些区域相关联。基于表演者的表演历史建立的这样的值几乎肯定限制了考虑所讨论的区域作为新表演段的开始点的算法的可能性,即使随后分析的帧这样暗示。
为了克服这一点,可以重建已经变得非常小的概率Li,j。实际上,这由根据以下等式执行的阈值操作表示:
其中Z是期望的阈值。所讨论的阈值应该慎重选择:阈值不应过高,其效果是使得乐谱中的每个区域在任何情况下等概率:阈值也不应过低,以便保持有效。因此,演奏的不连续性在模型内被允许,当出现这种不连续时,该方法仅需要几秒钟即可收敛到新的位置Px。
因此,根据表演者对数字乐谱10的演奏情况,本发明可以将表演者的节奏和读取线的变化考虑在内,对其表演者进行有效地引导。
Claims (7)
1.一种用于跟踪乐谱(10)的方法,包括以下步骤:
- 显示标记步骤(20):在所述乐谱(10)上显示一个标记元素(11),以及
- 移动标记步骤(21):移动所述标记元素(11),
其特征在于,所述方法还包括实时执行的以下步骤:
- 记录步骤(23):以一段持续时间(Di)的一个数据帧(Tr)的形式记录由一个表演者发出的至少一个声音(12),
- 半音阶矢量估算步骤(24):基于所述数据帧(Tr)的一个内容(Ci),估算至少一个半音阶矢量(Vx),
- 半音阶矢量比较步骤(26):比较所述半音阶矢量(Vx)与所述乐谱(10)的理论上的半音阶矢量(V1、V2、Vi、VI-1),
- 转变比较步骤(27):比较所述半音阶矢量(Vx)与在前半音阶矢量(Vx-1)之间的转变和所述乐谱(10)的理论上的转变(T1、Ti、TI-1),以及
- 演奏位置估算步骤(28):依据在前的演奏位置(Px-1),对所述半音阶矢量Vx进行的比较和对所述转变(Tx)进行的比较,估算所述表演者的一个演奏位置(Px),
其中,
与所述标记元素(11)相关的显示标记步骤(20)和移动标记步骤(21)是根据所述表演者的所述演奏位置(Px)实现的,以及
依据所述转变(Tx)的一段持续时长(Dx)与一段参考持续时长(Dref)的比例选择一个持续时长(Di),在该持续时长(Di)内执行记录步骤(23)。
2.根据权利要求1所述的方法,其特征在于,其包括归一化步骤:将所述半音阶矢量(Vx)与所述乐谱(10)的所述理论上的半音阶矢量(V1、V2、Vi、VI-1)进行归一化(25)。
3.根据权利要求1或2所述的方法,其特征在于,在半音阶矢量比较步骤中,即比较(26)所述半音阶矢量(Vx)与所述乐谱(10)的理论上的半音阶矢量(V1、V2、Vi、VI-1)的步骤包括以下子步骤:
- 估算所述半音阶矢量(Vx)和每个理论上的半音阶矢量(V1、V2、Vi、VI-1)之间的欧几里德距离(Ei),
- 对所获得的所述欧几里德距离(Ei)之和进行归一化,
- 对所述半音阶矢量(Vx)属于每个理论上的半音阶矢量(V1、V2、Vi、VI-1)的概率进行估算。
4.根据前述权利要求中任一项所述的方法,其特征在于,所述半音阶矢量(Vx)和在前的半音阶矢量(Vx-1)之间的所述转变(Tx)比较步骤(27)是通过泊松定律的方法进行的。
5.根据前述权利要求中任一项所述的方法,其特征在于,所述至少一个估算在对数标度上执行。
6.根据前述权利要求中任一项所述的方法,其特征在于,对所述记录步骤(23)的所述持续时长(Di)的估算是通过维特比(Viterbi)解码算法执行的。
7.根据前述权利要求中任一项所述的方法,其特征在于,所述至少一个估算包括一个阈值,低于所述阈值的所述估算被判断为不相关,并且其结果将不被采用。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1455248A FR3022051B1 (fr) | 2014-06-10 | 2014-06-10 | Procede de suivi d'une partition musicale et procede de modelisation associe |
FR1455248 | 2014-06-10 | ||
PCT/EP2015/062735 WO2015189157A1 (fr) | 2014-06-10 | 2015-06-08 | Procede de suivi d'une partition musicale et procede de modelisation associe |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107077836A true CN107077836A (zh) | 2017-08-18 |
Family
ID=52450217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580038678.1A Pending CN107077836A (zh) | 2014-06-10 | 2015-06-08 | 用于跟踪乐谱的方法以及相关的建模方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US9865241B2 (zh) |
EP (1) | EP3155608B1 (zh) |
JP (1) | JP2017519255A (zh) |
CN (1) | CN107077836A (zh) |
CA (1) | CA2950816A1 (zh) |
FR (2) | FR3022051B1 (zh) |
WO (1) | WO2015189157A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110111761A (zh) * | 2019-03-28 | 2019-08-09 | 深圳芒果未来教育科技有限公司 | 对乐音演奏进行实时跟随的方法及相关产品 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2919228B1 (en) * | 2014-03-12 | 2016-10-19 | NewMusicNow, S.L. | Method, device and computer program for scrolling a musical score. |
US10665124B2 (en) * | 2017-03-25 | 2020-05-26 | James Wen | System and method for linearizing musical scores |
JP6708179B2 (ja) * | 2017-07-25 | 2020-06-10 | ヤマハ株式会社 | 情報処理方法、情報処理装置およびプログラム |
US10586519B2 (en) * | 2018-02-09 | 2020-03-10 | Yamaha Corporation | Chord estimation method and chord estimation apparatus |
EP3579223B1 (en) * | 2018-06-04 | 2021-01-13 | NewMusicNow, S.L. | Method, device and computer program product for scrolling a musical score |
CN108711415B (zh) * | 2018-06-11 | 2021-10-08 | 广州酷狗计算机科技有限公司 | 纠正伴奏和干音之间的时延的方法、装置及存储介质 |
US10460712B1 (en) * | 2018-12-10 | 2019-10-29 | Avid Technology, Inc. | Synchronizing playback of a digital musical score with an audio recording |
US10748515B2 (en) * | 2018-12-21 | 2020-08-18 | Electronic Arts Inc. | Enhanced real-time audio generation via cloud-based virtualized orchestra |
US10790919B1 (en) | 2019-03-26 | 2020-09-29 | Electronic Arts Inc. | Personalized real-time audio generation based on user physiological response |
US10799795B1 (en) | 2019-03-26 | 2020-10-13 | Electronic Arts Inc. | Real-time audio generation for electronic games based on personalized music preferences |
US10657934B1 (en) * | 2019-03-27 | 2020-05-19 | Electronic Arts Inc. | Enhancements for musical composition applications |
US10643593B1 (en) * | 2019-06-04 | 2020-05-05 | Electronic Arts Inc. | Prediction-based communication latency elimination in a distributed virtualized orchestra |
US11017751B2 (en) * | 2019-10-15 | 2021-05-25 | Avid Technology, Inc. | Synchronizing playback of a digital musical score with an audio recording |
US10885891B2 (en) * | 2020-01-23 | 2021-01-05 | Pallavi Ekaa Desai | System, method and apparatus for directing a presentation of a musical score via artificial intelligence |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6084168A (en) * | 1996-07-10 | 2000-07-04 | Sitrick; David H. | Musical compositions communication system, architecture and methodology |
CN1531644A (zh) * | 2001-05-21 | 2004-09-22 | �����ּ�����˾ | 用于跟踪音乐乐谱的方法和装置 |
CN101310327A (zh) * | 2005-12-27 | 2008-11-19 | 三菱电机株式会社 | 乐曲区间检测方法及其装置、及数据记录方法及其装置 |
CN101383149A (zh) * | 2008-10-27 | 2009-03-11 | 哈尔滨工业大学 | 弦乐音乐颤音自动检测方法 |
CN101740010A (zh) * | 2008-11-21 | 2010-06-16 | 索尼株式会社 | 信息处理设备、声音分析方法和程序 |
CN101740013A (zh) * | 2008-11-21 | 2010-06-16 | 索尼株式会社 | 信息处理设备、声音分析方法和程序 |
US20110036231A1 (en) * | 2009-08-14 | 2011-02-17 | Honda Motor Co., Ltd. | Musical score position estimating device, musical score position estimating method, and musical score position estimating robot |
CN103354092A (zh) * | 2013-06-27 | 2013-10-16 | 天津大学 | 一种带检错功能的音频乐谱比对方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007241181A (ja) * | 2006-03-13 | 2007-09-20 | Univ Of Tokyo | 自動伴奏システム及び楽譜追跡システム |
WO2009001202A1 (en) * | 2007-06-28 | 2008-12-31 | Universitat Pompeu Fabra | Music similarity systems and methods using descriptors |
-
2014
- 2014-06-10 FR FR1455248A patent/FR3022051B1/fr active Active
- 2014-11-03 FR FR1460572A patent/FR3022048A1/fr active Pending
-
2015
- 2015-06-08 EP EP15732555.6A patent/EP3155608B1/fr active Active
- 2015-06-08 WO PCT/EP2015/062735 patent/WO2015189157A1/fr active Application Filing
- 2015-06-08 US US15/317,404 patent/US9865241B2/en active Active
- 2015-06-08 CN CN201580038678.1A patent/CN107077836A/zh active Pending
- 2015-06-08 CA CA2950816A patent/CA2950816A1/fr not_active Abandoned
- 2015-06-08 JP JP2017517192A patent/JP2017519255A/ja active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6084168A (en) * | 1996-07-10 | 2000-07-04 | Sitrick; David H. | Musical compositions communication system, architecture and methodology |
CN1531644A (zh) * | 2001-05-21 | 2004-09-22 | �����ּ�����˾ | 用于跟踪音乐乐谱的方法和装置 |
CN1284962C (zh) * | 2001-05-21 | 2006-11-15 | 娱乐技术有限公司 | 用于跟踪音乐乐谱的方法和装置 |
CN101310327A (zh) * | 2005-12-27 | 2008-11-19 | 三菱电机株式会社 | 乐曲区间检测方法及其装置、及数据记录方法及其装置 |
CN101383149A (zh) * | 2008-10-27 | 2009-03-11 | 哈尔滨工业大学 | 弦乐音乐颤音自动检测方法 |
CN101740010A (zh) * | 2008-11-21 | 2010-06-16 | 索尼株式会社 | 信息处理设备、声音分析方法和程序 |
CN101740013A (zh) * | 2008-11-21 | 2010-06-16 | 索尼株式会社 | 信息处理设备、声音分析方法和程序 |
US20110036231A1 (en) * | 2009-08-14 | 2011-02-17 | Honda Motor Co., Ltd. | Musical score position estimating device, musical score position estimating method, and musical score position estimating robot |
CN103354092A (zh) * | 2013-06-27 | 2013-10-16 | 天津大学 | 一种带检错功能的音频乐谱比对方法 |
Non-Patent Citations (1)
Title |
---|
山本龙一 等: "组合了隐式半马尔可夫模型和线形动态系统的音乐音响信号和乐谱的实时对齐方法", 《情报处理学会研究报告》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110111761A (zh) * | 2019-03-28 | 2019-08-09 | 深圳芒果未来教育科技有限公司 | 对乐音演奏进行实时跟随的方法及相关产品 |
CN110111761B (zh) * | 2019-03-28 | 2022-03-11 | 深圳市芒果未来科技有限公司 | 对乐音演奏进行实时跟随的方法及相关产品 |
Also Published As
Publication number | Publication date |
---|---|
US9865241B2 (en) | 2018-01-09 |
FR3022051A1 (fr) | 2015-12-11 |
EP3155608B1 (fr) | 2018-06-06 |
JP2017519255A (ja) | 2017-07-13 |
WO2015189157A1 (fr) | 2015-12-17 |
FR3022048A1 (fr) | 2015-12-11 |
EP3155608A1 (fr) | 2017-04-19 |
FR3022051B1 (fr) | 2016-07-15 |
CA2950816A1 (fr) | 2015-12-17 |
US20170110102A1 (en) | 2017-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107077836A (zh) | 用于跟踪乐谱的方法以及相关的建模方法 | |
JP4640407B2 (ja) | 信号処理装置、信号処理方法及びプログラム | |
JPWO2008004666A1 (ja) | 音声認識装置、音声認識方法、および音声認識用プログラム | |
US11557269B2 (en) | Information processing method | |
US10013963B1 (en) | Method for providing a melody recording based on user humming melody and apparatus for the same | |
US10504498B2 (en) | Real-time jamming assistance for groups of musicians | |
JP2007241181A (ja) | 自動伴奏システム及び楽譜追跡システム | |
Nakamura et al. | Real-time audio-to-score alignment of music performances containing errors and arbitrary repeats and skips | |
Pauwels et al. | Combining musicological knowledge about chords and keys in a simultaneous chord and local key estimation system | |
JP6481319B2 (ja) | 楽譜表示装置および楽譜表示方法 | |
JP3961544B2 (ja) | ゲームの制御方法およびゲーム装置 | |
Sako et al. | Ryry: A real-time score-following automatic accompaniment playback system capable of real performances with errors, repeats and jumps | |
CN110959172B (zh) | 演奏解析方法、演奏解析装置以及存储介质 | |
JP5126055B2 (ja) | 歌唱採点システムおよびプログラム | |
JP4170279B2 (ja) | 歌詞表示方法および装置 | |
Lin et al. | Implementation and evaluation of real-time interactive user interface design in self-learning singing pitch training apps | |
JP4613817B2 (ja) | 運指表示装置、及びプログラム | |
JP6597048B2 (ja) | アライメント装置およびプログラム | |
JP6838357B2 (ja) | 音響解析方法および音響解析装置 | |
US20230245636A1 (en) | Device, system and method for providing auxiliary information to displayed musical notations | |
CN112632401A (zh) | 推荐装置、信息提供系统、推荐方法及存储介质 | |
US20240013754A1 (en) | Performance analysis method, performance analysis system and non-transitory computer-readable medium | |
US20230410676A1 (en) | Information processing system, electronic musical instrument, information processing method, and machine learning system | |
JP6077492B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP5786624B2 (ja) | 演奏評価装置、プログラム及び演奏評価方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170818 |
|
WD01 | Invention patent application deemed withdrawn after publication |