CN113724741A - 一种乐器演奏或演唱测评方法及系统 - Google Patents
一种乐器演奏或演唱测评方法及系统 Download PDFInfo
- Publication number
- CN113724741A CN113724741A CN202110616599.1A CN202110616599A CN113724741A CN 113724741 A CN113724741 A CN 113724741A CN 202110616599 A CN202110616599 A CN 202110616599A CN 113724741 A CN113724741 A CN 113724741A
- Authority
- CN
- China
- Prior art keywords
- singing
- playing
- music score
- performance
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 43
- 238000000034 method Methods 0.000 claims abstract description 54
- 230000005236 sound signal Effects 0.000 claims abstract description 42
- 230000033764 rhythmic process Effects 0.000 claims abstract description 23
- 239000011295 pitch Substances 0.000 claims description 43
- 238000001914 filtration Methods 0.000 claims description 33
- 230000008569 process Effects 0.000 claims description 25
- 238000013527 convolutional neural network Methods 0.000 claims description 16
- 239000013598 vector Substances 0.000 claims description 14
- 238000005070 sampling Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 8
- 238000001228 spectrum Methods 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000009432 framing Methods 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 claims description 5
- 230000006835 compression Effects 0.000 claims description 4
- 238000007906 compression Methods 0.000 claims description 4
- 125000004122 cyclic group Chemical group 0.000 claims description 4
- 239000002245 particle Substances 0.000 claims description 4
- 230000007704 transition Effects 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000003672 processing method Methods 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 5
- 239000010410 layer Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/32—Constructional details
- G10H1/34—Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/45—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of analysis window
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
- G10L2025/906—Pitch tracking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
本发明公开了一种乐器演奏或演唱测评方法及系统,方法包括:获取演奏或演唱的音频信号的特征并进行音高估计;将音频信号和乐谱参考信号实时对齐,并将实时对齐结果以以光标方式实时指示在乐谱对应音符位置上;判断测评是否结束,若测评结束则获取演奏或演唱音频同时确定演奏或演唱在乐谱上的结尾点;根据演奏或演唱的结尾点,将已录到的音频与乐谱参考信号计算离线对齐路径;统计演奏或演唱中的节奏错误;比较演奏或演唱音频中音符的音高与乐谱参考信号的音高是否一致,统计音符不一致的结果作为音准错误;根据节奏错误和音准错误对演奏或演唱打分。本发明实现了演奏或演唱的自动化测评打分,提高了测评的准确度和效率。
Description
技术领域
本发明涉及音频信号处理技术领域,更具体地,涉及一种乐器演奏或演唱测评方法及系统。
背景技术
随着近年来音乐教育的日益普及,越来越多的人参与到乐器演奏或者演唱的活动中来。在乐器考级、比赛、音乐教育、唱歌娱乐等很多场景中人们十分需要对自己/他人的表演或者日常练习进行评测,包含演奏中是否出现错音、节奏是否稳定、音高是否准确,演奏力度是否符合乐谱要求等一系列指标来对演奏进行评价。这些评测工作通常由音乐教师、专家评委或者陪练老师来完成,存在以下弊端:1.音乐培训费用不菲;2.绝大多数情况下仅凭人耳和记忆力是无法准确发现或记录演奏中所有出现过的错音、节奏不准、音准偏差,力度等问题;3.评价较为主观,没有经过科学的数据量化,有时难以服众。
现有技术中,公开号为CN201710912292.X中国发明专利公开了一种智能钢琴演奏测评方法,包括:采集用户的MIDI音频数字信号转换成演奏数据;将用户演奏时间序列和大师演奏时间序列在时间轴上匹配;将用户演奏的音符组和大师演奏的音符组进行音准判定;将用户演奏的音符相对时值与大师演奏的音符相对时值进行节奏判定;计算用户演奏速度和大师演奏速度的相对速度进行速度判定;将用户演奏的音符力度与大师演奏的音符力度进行力度判定;将演奏音准、演奏节奏、演奏速度和演奏力度进行综合评估;将综合评估的结果在智能终端的五线谱上进行标识。该方案是针对电钢琴场景采用蓝牙或者接线的方式采集的是电钢琴的MIDI信号,无法使用于更多的传统主流乐器,同时没有实现乐谱跟随(对齐)和实时音高估计。
发明内容
本发明为克服上述现有技术中乐器演奏或个人演唱测评依靠人工效率低、测评结果不客观、不准确的缺陷,提供一种乐器演奏或演唱测评方法及系统。
本发明的首要目的是为解决上述技术问题,本发明的技术方案如下:
本发明第一方面提供了一种乐器演奏或演唱测评方法,包括以下步骤:
获取演奏/演唱的音频信号的特征并进行音高估计;
检测演奏或演唱音频信号的起始点,从起始点开始将获取的音频信号和乐谱参考信号进行实时对齐,并将实时对齐结果以光标的方式实时指示在乐谱对应音符位置上;
判断测评是否结束,若测评结束,则获取演奏或演唱音频同时确定演奏或演唱在乐谱上的结尾点;
根据演奏或演唱在乐谱上的结尾点,将已录到的演奏或演唱音频与乐谱参考信号计算离线对齐路径;
根据离线对齐路径统计演奏或演唱中的节奏错误;
根据离线对齐路径比较演奏或演唱音频中音符的音高与乐谱参考信号的音高是否一致,统计音符不一致的结果作为音准错误;
根据节奏错误和音准错误进行演奏或演唱打分。
进一步的,所述音频信号的特征为频域特征或通过神经网络将音频信号变换到未知的域上提取的特征。
进一步的,通过对齐算法将音频信号和乐谱参考信号进行实时对齐,所述对齐算法为基于贝叶斯概率模型的滤波方法,具体为:卡尔曼滤波、扩展卡尔曼滤波、无迹卡尔曼滤波、粒子滤波、动态时间规整算法。
进一步的,所述基于贝叶斯概率模型的滤波方法包括有贝叶斯概率模型,所述贝叶斯概率模型包括状态方程和观测方程,所述状态方程为:
z(t)=f(z(t-1),w(t))
所述观测方程为:
x(t)=h(z(t),v(t))
其中,x为观测数据,z对应系统的状态空间,包含当前时刻所在乐谱的位置、演奏速度;f表示系统的状态转移函数,w(t)表示系统的过程噪声;h表示观测方程,v(t)表示观测方法的测量噪声。
进一步的,贝叶斯概率模型的求解即利用1到t时刻所有的观测值求t时刻系统对应的状态值,即求后验概率p(zt|x1:t);
具体求解过程为:
假设状态之间的关系服从观测独立假设和高阶马尔科夫假设,所述观测独立假设表示系统当前时刻的观测值只与系统当前时刻的系统状态有关,与其他状态和观测数据无关,通常称之为发射概率,即p(xt|z1:t,x1:t-1)=p(xt|zt);
所述高阶马尔科夫假设是指系统当前的状态只与系统当前时刻之前的N个状态有关,与其他值无关;
根据观测独立假设和高阶马尔科夫假设每次新进来一个新的数据就可以利用上一时刻的计算结果进行递推计算,而不需要每次都重新计算整个联合分布的概率,从而达到实时场景的计算要求;
基于贝叶斯概率模型的滤波过程具体为:
系统初始化:p(x0)
预测步:p(zt-1|x1:t-1)→p(zt|x1:t-1)
p(zt|x1:t-1)=∫p(zt|xt-1)p(zt-1|x1:t-1)dxt-1
更新步:p(zt|x1:t-1)→p(zt|x1:t)
其中:Kk=∫p(zt|xt)p(zt|x1:t-1)dxt
其中,p(x0)表示初始系统状态,x0为初始参数,预测步是利用当前系统状态值,通过状态方程对下一时刻的系统状态进行预测,使用的是t-1时刻的更新值p(zt-1|x1:t-1)和状态转移概率p(zt|xt-1);更新步骤是当获取下一时刻的观测数据后对预测步中预测的系统状态进行校正,使用的是预测步的预测值p(zt|x1:t-1)和发射概率p(zt|xt);
通过预测和更新的循环步骤,直到没有了新的观测数据后结束,其中每一步计算过程仅依赖于上一步的结果和系统状态方程和观测方程,从而实现了实时滤波的过程。
进一步的,当系统状态方程、观测方程以及噪声是线性高斯的情况下,预测步积分和更新步积分才有解析解,此时是卡尔曼滤波也是最优滤波;
当系统状态方程、观测方程以及噪声是非线性高斯的时候,预测步积分和更新步积分没有解析解,此时只能通过近似的手段进行求解,获得次优解。
进一步的,所述音高估计包括有:单音的音高高估计和多音的音高估计,其中单音的音高估计采用信号处理方法或训练概率模型参数的方法进行估计;所述多音的音高估计采用训练深度神经网络模型的方法进行估计。
进一步的,多音的音高估计采用的深度神经网络模型为卷积神经网络模型,卷积神经网络模型的处理流程为:
对演奏或演唱的音频信号进行分帧;
根据预设的帧长和帧跳选取采样点并进行傅里叶变换和log-mel谱压缩成待输入采样点;
将待输入采样点转化为符合卷积神经网络输入要求的特征向量并输入卷积神经网络;
卷积神经网络的Sigmoid函数将输出结果压缩至0-1之间的概率值,最终输出M维向量,M维向量分别对应乐器M个音高出现的概率,当某个音的概率超过一定阈值,则认为当前音频演奏了该音。
进一步的,利用中断控制程序判断测评是否结束,中断控制程序判断条件为:当满足N秒内没有演奏或者演奏进行到参考信号的结尾处即为测评结束。
本发明第二方面提供了一种乐器演奏或演唱测评系统,该系统包括:存储器,存储有计算机可执行指令;
处理器,所述处理器运行所述存储器中的计算机可执行指令,执行以下步骤:
获取演奏/演唱的音频信号的特征并进行音高估计;
检测演奏或演唱音频信号的起始点,从起始点开始将获取的音频信号和乐谱参考信号进行实时对齐,并将实时对齐结果以光标的方式实时指示在乐谱对应音符位置上;
判断测评是否结束,若测评结束,则获取演奏或演唱音频同时确定演奏或演唱在乐谱上的结尾点;
根据演奏或演唱在乐谱上的结尾点,将已录到的演奏或演唱音频与乐谱参考信号计算离线对齐路径;
根据离线对齐路径统计演奏或演唱中的节奏错误;
根据离线对齐路径比较演奏或演唱音频中音符的音高与乐谱参考信号的音高是否一致,统计音符不一致的结果作为音准错误;
根据节奏错误和音准错误进行演奏或演唱打分。
与现有技术相比,本发明技术方案的有益效果是:
本发明通过获取演奏或演唱的音频信号特征进行音高估计,同时利用对齐算法将音频信号和乐谱参考信号实时对齐,根据演奏/演唱的结尾点回溯两个信号的对齐路径,分别统计音准和节奏错误并打分,本发明实现了演奏或演唱的自动化测评打分,提高了测评的准确度和效率。
附图说明
图1为本申请一种乐器演奏或演唱测评方法流程图。
图2为本申请实施例演奏测评分数及综合结果展示图。
图3为本申请实施例音准测评结果在乐谱上的展示图。
图4为本申请实施例节奏测评结果在乐谱上的展示图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
实施例1
如图1所示,本发明第一方面提供了一种乐器演奏或演唱测评方法,包括以下步骤:
S1:获取演奏或演唱的音频信号的特征并进行音高估计;
需要说明的是,演奏的音频信号可以通过外部收音装置获取或者通过连接乐器的数字接口获取,演唱的音频可以通过麦克风获取。本发明中演奏或演唱的音频信号优选的采用麦克风获取,通过麦克风获取音频信号对于用户更加方便,无需电钢琴键盘/钢琴条等传感器以蓝牙/连线的方式来传输MIDI信号。在一个具体的实施例中测评的启动可以包括有多种方式,如演奏特定的音符来启动测评,也可以直接点击预设的按钮启动测评。
进一步的,所述音频信号的特征为频域特征或通过神经网络将音频信号变换到未知的域上提取的特征。
需要说明的是,所述音频信号的特征为频域特征时,其提取过程是将该时域信号通过分帧和加窗的操作后逐帧进行傅里叶变换,得到该音频信号的时频谱X(f,k),由X(f,k)继续生成各类特征信号,包含且不限于log-mel谱,CQT等特征;所述音频信号的特征为通过神经网络将音频信号变换到未知的域上提取的特征时,所述的神经网络可以是卷积神经网络也可以是循环神经网络,可以是单层也可以多层,层数可根据实际应用场景来选定。
S2:检测演奏或演唱音频信号的起始点,从起始点开始将获取的音频信号和乐谱参考信号进行实时对齐,并将实时对齐结果以光标方式实时指示在乐谱对应音符位置上,通过光标实时指示能够实现音符级的乐谱跟随效果;
需要说明的是,音频信号和乐谱参考信号对齐,首先检演奏/演唱音频的起始点,从起始点开始计算音频帧和乐谱帧,利用对齐算法对齐,两路信号对齐的结果可以以光标的形式实时的输出并显示到终端设备的乐谱上,也就是说可用光标实时指出当前演奏在乐谱上对应的实际位置,所述终端设备可以为手机或平板电脑等。
根据本发明实施例,通过对齐算法将音频信号和乐谱参考信号进行实时对齐,所述对齐算法为基于贝叶斯概率模型的滤波方法,具体包括:卡尔曼滤波、扩展卡尔曼滤波、无迹卡尔曼滤波、粒子滤波、动态时间规整算法。
需要说明的是,从最小粒度层面,如果如果从状态角度看待帧到帧的规划过程,动态时间规整(DTW)也属于贝叶斯概率模型框架下的特例。
根据本发明实施例,所述基于贝叶斯概率模型的滤波方法包括有贝叶斯概率模型,所述贝叶斯概率模型包括状态方程和观测方程,所述状态方程为:
z(t)=f(z(t-1),w(t))
所述观测方程为:
x(t)=h(z(t),v(t))
其中,x为观测数据,z对应系统的状态空间,包含当前时刻所在乐谱的位置、演奏速度;f表示系统的状态转移函数,w(t)表示系统的过程噪声;h表示观测方程,v(t)表示观测方法(比如传感器)的测量噪声。
贝叶斯概率模型的求解即利用1到t时刻所有的观测值求t时刻系统对应的状态值,即求后验概率p(zt|x1:t);
具体求解过程为:
假设状态之间的关系服从观测独立假设和高阶马尔科夫假设,所述观测独立假设表示系统当前时刻的观测值只与系统当前时刻的系统状态有关,与其他状态和观测数据无关,通常称之为发射概率,即p(xt|z1:t,x1:t-1)=p(xt|zt);
所述高阶马尔科夫假设是指系统当前的状态只与系统当前时刻之前的N个状态有关,与其他值无关;以一阶为例,当前时刻的系统状态只与上一时刻有关,p(zt|z1:t-1,x1:t-1)=p(zt|zt-1),称之为状态转移概率。
根据观测独立假设和高阶马尔科夫假设每次新进来一个新的数据就可以利用上一时刻的计算结果进行递推计算,而不需要每次都重新计算整个联合分布的概率,从而达到实时场景的计算要求;
基于贝叶斯概率模型的滤波过程具体为:
系统初始化:p(x0)
预测步:p(zt-1|x1:t-1)→p(zt|x1:t-1)
p(zt|x1:t-1)=∫p(zt|xt-1)p(zt-1|x1:t-1)dxt-1
更新步:p(zt|x1:t-1)→p(zt|x1:t)
其中:Kk=∫p(zt|xt)p(zt|x1:t-1)dxt
其中,p(x0)表示初始系统状态,x0为初始参数,预测步是利用当前系统状态值,通过状态方程对下一时刻的系统状态进行预测,使用的是t-1时刻的更新值p(zt-1|x1:t-1)和状态转移概率p(zt|xt-1);更新步骤是当获取下一时刻的观测数据后对预测步中预测的系统状态进行校正,使用的是预测步的预测值p(zt|x1:t-1)和发射概率p(zt|xt);
通过预测和更新的循环步骤,直到没有了新的观测数据后结束,其中每一步计算过程仅依赖于上一步的结果和系统状态方程和观测方程,从而实现了实时滤波的过程。
需要说明的是,当系统状态方程、观测方程以及噪声是线性高斯的情况下,预测步积分和更新步积分才有解析解,此时是卡尔曼滤波也是最优滤波;
当系统状态方程、观测方程以及噪声是非线性高斯的时候,预测步积分和更新步积分没有解析解,此时只能通过近似的手段进行求解,获得次优解。例如扩展卡尔曼滤波(EKF),原理是将非线性的的观测方程和状态方程用泰勒公式展开,得到一阶线性化的结果,这个过程抛弃了高阶项,得到的是近似解。同理无迹卡尔曼滤波(UKF)亦是一种次优的近似解。在很多实际应用中,系统都是非线性非高斯的,此时只能通过蒙特卡洛(MonteCarlo)采样的方法来近似求取一个连续的概率分布均值,这一类方法称为粒子滤波,它得到的也是次优解。类似近似求解概率密度的方法有很多,比如直方图滤波等。
需要说明的是,本发明并不仅限于上述基于贝叶斯概率模型的滤波方法,凡是基于贝叶斯模型求解预测步和更新步两个积分的滤波方法均在本发明的保护范围内。
S3:判断测评是否结束,若测评结束,则获取演奏或演唱音频同时确定演奏或演唱在乐谱上的结尾点;
进一步的,利用中断控制程序判断测评是否结束,中断控制程序判断条件为:当满足N秒内没有演奏或者演奏进行到参考信号的结尾处即为测评结束。在一个具体的实施例中,N的取值可以为8。
S4:根据演奏或演唱在乐谱上的结尾点,将已录到的演奏或演唱音频与乐谱参考信号计算离线对齐路径;
S5:根据离线对齐路径统计演奏或演唱中的节奏错误;
S6:根据离线对齐路径比较演奏或演唱音频中音符的音高与乐谱参考信号的音高是否一致,统计音符不一致的结果作为音准错误;
需要说明的,所述音高估计用于判断用户是否正确地演奏了当前音符,所述音高估计包括有:单音的音高高估计和多音的音高估计,其中单音(例如弦乐等单音较多的乐器)的音高估计采用信号处理方法或训练概率模型参数的方法进行估计;所述多音(例如钢琴、古筝等经常存在多个音符同时演奏的乐器)的音高估计采用训练深度神经网络模型的方法进行估计。
在一个具体的实施例中采用卷积神经网络模型对多音音高进行估计的处理流程为:
对演奏或演唱的音频信号进行分帧;其中分帧加窗的帧长控制在50ms以内,太长会引入时延,窗函数可以选择汉明窗,海宁窗等,以降低分帧过程中频谱泄露。
根据预设的帧长和帧跳选取采样点并进行傅里叶变换和log-mel谱压缩成待输入采样点;
在一个具体的实施例中,选取帧长为2048个采样点,帧跳为441个采样点,傅里叶变换和log-mel谱压缩成成229个采样点,考虑到算法的实时性,采用7帧信号为卷积神经网络的模型输入,即输入为7*229*1维度的特征向量。
将待输入采样点转化为符合卷积神经网络输入要求的特征向量并输入卷积神经网络;
卷积神经网络的Sigmoid函数将输出结果压缩至0-1之间的概率值,最终输出M维向量,M维向量分别对应乐器M个音高出现的概率,当某个音的概率超过一定阈值,则认为当前音频演奏了该音。
更具体的,将输入经过3x3的卷积核,最大池化后将数据摊平,最后通过全连接Dense层,用Sigmoid函数将输出结果压缩至0-1之间的概率值,最终输出88维向量,分别对应钢琴88个音高出现的概率,当某个音的概率超过一定阈值,则认为当前音频演奏了该音。
S7:根据节奏错误和音准错误进行演奏或演唱打分。
需要说明的,演奏或演唱打分数据包括:评价总分、错音数、错节奏数、以及速度等指标,如图2所示为本申请实施例演奏测评分数及综合结果展示图;更具体的,如图3所示为音准测评结果在乐谱上的展示图,当在演奏的过程中出现错音时,会在乐谱相应的音符出加以标记。比如红色表示演奏错,黄色表示没有演奏该音符等。如图4所示节奏测评结果在乐谱上的展示图,当演奏过程中出现抢拍或者滞后等节奏不稳定的情况,会在乐谱中相应的音符上显示节奏错误。比如红色表示实际演奏音符超前于该音符正常该出现的时刻,绿色表示实际演奏滞后于该音符正常出现的时刻等。
本发明第二方面提供了一种乐器演奏或演唱测评系统,该系统包括:存储器,存储有计算机可执行指令;
处理器,所述处理器运行所述存储器中的计算机可执行指令,执行以下步骤:
获取演奏/演唱的音频信号的特征并进行音高估计;
检测演奏或演唱音频信号的起始点,从起始点开始将获取的音频信号和乐谱参考信号进行实时对齐,并将实时对齐结果以光标的方式实时指示在乐谱对应音符位置上;
判断测评是否结束,若测评结束,则获取演奏或演唱音频同时确定演奏或演唱在乐谱上的结尾点;
根据演奏或演唱在乐谱上的结尾点,将已录到的演奏或演唱音频与乐谱参考信号计算离线对齐路径;
根据离线对齐路径统计演奏或演唱中的节奏错误;
根据离线对齐路径比较演奏或演唱音频中音符的音高与乐谱参考信号的音高是否一致,统计音符不一致的结果作为音准错误;
根据节奏错误和音准错误进行演奏或演唱打分。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (10)
1.一种乐器演奏或演唱测评方法,其特征在于,包括以下步骤:
获取演奏或演唱的音频信号的特征并进行音高估计;
检测演奏或演唱音频信号的起始点,从起始点开始将获取的音频信号和乐谱参考信号进行实时对齐,并将实时对齐结果以光标方式实时指示在乐谱对应音符位置上;
判断测评是否结束,若测评结束,则获取演奏或演唱音频同时确定演奏或演唱在乐谱上的结尾点;
根据演奏或演唱在乐谱上的结尾点,将已录到的演奏或演唱音频与乐谱参考信号计算离线对齐路径;
根据离线对齐路径统计演奏或演唱中的节奏错误;
根据离线对齐路径比较演奏或演唱音频中音符的音高与乐谱参考信号的音高是否一致,统计音符不一致的结果作为音准错误;
根据节奏错误和音准错误进行演奏或演唱打分。
2.根据权利要求1所述的一种乐器演奏或演唱测评方法,其特征在于,所述音频信号的特征为频域特征或通过神经网络将音频信号变换到未知的域上提取的特征。
3.根据权利要求1所述的一种乐器演奏或演唱测评方法,其特征在于,通过对齐算法将音频信号和乐谱参考信号进行实时对齐,所述对齐算法为基于贝叶斯概率模型的滤波方法,具体为:卡尔曼滤波、扩展卡尔曼滤波、无迹卡尔曼滤波、粒子滤波、动态时间规整算法。
4.根据权利要求1所述的一种乐器演奏或演唱测评方法,其特征在于,所述基于贝叶斯概率模型的滤波方法包括有贝叶斯概率模型,所述贝叶斯概率模型包括状态方程和观测方程,所述状态方程为:
z(t)=f(z(t-1),w(t))
所述观测方程为:
x(t)=h(z(t),v(t))
其中,x为观测数据,z对应系统的状态空间,包含当前时刻所在乐谱的位置、演奏速度;f表示系统的状态转移函数,w(t)表示系统的过程噪声;h表示观测方程,v(t)表示观测方法的测量噪声。
5.根据权利要求4所述的一种乐器演奏或演唱测评方法,其特征在于,贝叶斯概率模型的求解即利用1到t时刻所有的观测值求t时刻系统对应的状态值,即求后验概率p(zt|x1:t);
具体求解过程为:
假设状态之间的关系服从观测独立假设和高阶马尔科夫假设,所述观测独立假设表示系统当前时刻的观测值只与系统当前时刻的系统状态有关,与其他状态和观测数据无关,通常称之为发射概率,即p(xt|z1:t,x1:t-1)=p(xt|zt);
所述高阶马尔科夫假设是指系统当前的状态只与系统当前时刻之前的N个状态有关,与其他值无关;
根据观测独立假设和高阶马尔科夫假设每次新进来一个新的数据就可以利用上一时刻的计算结果进行递推计算,而不需要每次都重新计算整个联合分布的概率,从而达到实时场景的计算要求;
基于贝叶斯概率模型的滤波过程具体为:
系统初始化:p(x0)
预测步:p(zt-1|x1:t-1)→p(zt|x1:t-1)
p(zt|x1:t-1)=∫p(zt|xt-1)p(zt-1|x1:t-1)dxt-1
更新步:p(zt|x1:t-1)→p(zt|x1:t)
其中:Kk=∫p(zt|xt)p(zt|x1:t-1)dxt
其中,p(x0)表示初始系统状态,x0为初始参数,预测步是利用当前系统状态值,通过状态方程对下一时刻的系统状态进行预测,使用的是t-1时刻的更新值p(zt-1|x1:t-1)和状态转移概率p(zt|xt-1);更新步骤是当获取下一时刻的观测数据后对预测步中预测的系统状态进行校正,使用的是预测步的预测值p(zt|x1:t-1)和发射概率p(zt|xt);
通过预测和更新的循环步骤,直到没有了新的观测数据后结束,其中每一步计算过程仅依赖于上一步的结果和系统状态方程和观测方程,从而实现了实时滤波的过程。
6.根据权利要求4所述的一种乐器演奏或演唱测评方法,其特征在于,当系统状态方程、观测方程以及噪声是线性高斯的情况下,预测步积分和更新步积分才有解析解,此时是卡尔曼滤波也是最优滤波;
当系统状态方程、观测方程以及噪声是非线性高斯的时候,预测步积分和更新步积分没有解析解,此时只能通过近似的手段进行求解,获得次优解。
7.根据权利要求1所述的一种乐器演奏或演唱测评方法,其特征在于,所述音高估计包括有:单音的音高高估计和多音的音高估计,其中单音的音高估计采用信号处理方法或训练概率模型参数的方法进行估计;所述多音的音高估计采用训练深度神经网络模型的方法进行估计。
8.根据权利要求1所述的一种乐器演奏或演唱测评方法,其特征在于,多音的音高估计采用的深度神经网络模型为卷积神经网络模型,卷积神经网络模型的处理流程为:
对演奏或演唱的音频信号进行分帧;
根据预设的帧长和帧跳选取采样点并进行傅里叶变换和log-mel谱压缩成待输入采样点;
将待输入采样点转化为符合卷积神经网络输入要求的特征向量并输入卷积神经网络;
卷积神经网络的Sigmoid函数将输出结果压缩至0-1之间的概率值,最终输出M维向量,M维向量分别对应乐器M个音高出现的概率,当某个音的概率超过一定阈值,则认为当前音频演奏了该音。
9.根据权利要求1所述的一种乐器演奏或演唱测评方法,其特征在于,利用中断控制程序判断测评是否结束,中断控制程序判断条件为:当满足N秒内没有演奏或者演奏进行到参考信号的结尾处即为测评结束。
10.一种乐器演奏或演唱测评系统,其特征在于,该系统包括:存储器,存储有计算机可执行指令;
处理器,所述处理器运行所述存储器中的计算机可执行指令,执行以下步骤:
获取演奏/演唱的音频信号的特征并进行音高估计;
检测演奏或演唱音频信号的起始点,从起始点开始将获取的音频信号和乐谱参考信号进行实时对齐,并将实时对齐结果以光标的方式实时指示在乐谱对应音符位置上;
判断测评是否结束,若测评结束,则获取演奏或演唱音频同时确定演奏或演唱在乐谱上的结尾点;
根据演奏或演唱在乐谱上的结尾点,将已录到的演奏或演唱音频与乐谱参考信号计算离线对齐路径;
根据离线对齐路径统计演奏或演唱中的节奏错误;
根据离线对齐路径比较演奏或演唱音频中音符的音高与乐谱参考信号的音高是否一致,统计音符不一致的结果作为音准错误;
根据节奏错误和音准错误进行演奏或演唱打分。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110616599.1A CN113724741A (zh) | 2021-06-02 | 2021-06-02 | 一种乐器演奏或演唱测评方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110616599.1A CN113724741A (zh) | 2021-06-02 | 2021-06-02 | 一种乐器演奏或演唱测评方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113724741A true CN113724741A (zh) | 2021-11-30 |
Family
ID=78672862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110616599.1A Pending CN113724741A (zh) | 2021-06-02 | 2021-06-02 | 一种乐器演奏或演唱测评方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113724741A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090074038A1 (en) * | 2007-09-18 | 2009-03-19 | Michael Lentmaier | Method for estimating hidden channel parameters of a received GNNS navigation signal |
CN109615860A (zh) * | 2018-12-26 | 2019-04-12 | 银江股份有限公司 | 一种基于非参数贝叶斯框架的信号交叉口状态估计方法 |
CN110070847A (zh) * | 2019-03-28 | 2019-07-30 | 深圳芒果未来教育科技有限公司 | 乐音测评方法及相关产品 |
CN112669798A (zh) * | 2020-12-15 | 2021-04-16 | 深圳芒果未来教育科技有限公司 | 一种对音乐信号主动跟随的伴奏方法及相关设备 |
-
2021
- 2021-06-02 CN CN202110616599.1A patent/CN113724741A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090074038A1 (en) * | 2007-09-18 | 2009-03-19 | Michael Lentmaier | Method for estimating hidden channel parameters of a received GNNS navigation signal |
CN109615860A (zh) * | 2018-12-26 | 2019-04-12 | 银江股份有限公司 | 一种基于非参数贝叶斯框架的信号交叉口状态估计方法 |
CN110070847A (zh) * | 2019-03-28 | 2019-07-30 | 深圳芒果未来教育科技有限公司 | 乐音测评方法及相关产品 |
CN112669798A (zh) * | 2020-12-15 | 2021-04-16 | 深圳芒果未来教育科技有限公司 | 一种对音乐信号主动跟随的伴奏方法及相关设备 |
Non-Patent Citations (1)
Title |
---|
陈金广;张曼;王伟;马丽丽;: "欠观测条件下的高斯和增量卡尔曼滤波算法", 计算机应用研究, no. 05 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109478399B (zh) | 演奏分析方法、自动演奏方法及自动演奏系统 | |
US7711560B2 (en) | Speech recognition device and speech recognition method | |
Ryynänen et al. | Transcription of the Singing Melody in Polyphonic Music. | |
KR101521368B1 (ko) | 다중 채널 오디오 신호를 분해하는 방법, 장치 및 머신 판독가능 저장 매체 | |
JP4640407B2 (ja) | 信号処理装置、信号処理方法及びプログラム | |
CN106847260B (zh) | 一种基于特征融合的英语口语自动评分方法 | |
CN111680187B (zh) | 乐谱跟随路径的确定方法、装置、电子设备及存储介质 | |
CN107767847B (zh) | 一种智能钢琴演奏测评方法及系统 | |
CN109920449B (zh) | 节拍分析方法、音频处理方法及装置、设备、介质 | |
US8660678B1 (en) | Automatic score following | |
Klapuri | Musical meter estimation and music transcription | |
CN111640456B (zh) | 叠音检测方法、装置和设备 | |
Fan et al. | Singing voice separation and pitch extraction from monaural polyphonic audio music via DNN and adaptive pitch tracking | |
CN108630200A (zh) | 声音关键字检测装置以及声音关键字检测方法 | |
JP2004310098A (ja) | スイッチング状態空間型モデルによる変分推論を用いた音声認識の方法 | |
CN112530407B (zh) | 一种语种识别方法及系统 | |
CN109346107B (zh) | 一种基于lstm的独立说话人语音发音逆求解的方法 | |
WO2022052940A1 (zh) | 基于音频识别被弹奏琴键的方法及系统 | |
CN113724741A (zh) | 一种乐器演奏或演唱测评方法及系统 | |
JP5924968B2 (ja) | 楽譜位置推定装置、及び楽譜位置推定方法 | |
JP2002358097A (ja) | 音声認識装置 | |
JP5126055B2 (ja) | 歌唱採点システムおよびプログラム | |
CN107025902B (zh) | 数据处理方法及装置 | |
US20230335090A1 (en) | Information processing device, information processing method, and program | |
CN115394317A (zh) | 一种音频评测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
CB02 | Change of applicant information |
Address after: 518102 No. a819.a821, floor 8, block a, Mingyou procurement center, labor community, Xixiang street, Bao'an District, Shenzhen, Guangdong Applicant after: Shenzhen mango Future Technology Co.,Ltd. Address before: 518102 No. a819.a821, floor 8, block a, Mingyou procurement center, labor community, Xixiang street, Bao'an District, Shenzhen, Guangdong Applicant before: Shenzhen Mango Future Education Technology Co.,Ltd. |
|
CB02 | Change of applicant information | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |