CN103824565B - 一种基于音符和时值建模的哼唱识谱方法及系统 - Google Patents
一种基于音符和时值建模的哼唱识谱方法及系统 Download PDFInfo
- Publication number
- CN103824565B CN103824565B CN201410066451.5A CN201410066451A CN103824565B CN 103824565 B CN103824565 B CN 103824565B CN 201410066451 A CN201410066451 A CN 201410066451A CN 103824565 B CN103824565 B CN 103824565B
- Authority
- CN
- China
- Prior art keywords
- note
- model
- pitch
- duration
- humming
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
本发明适用于计算机应用技术领域,提供了一种基于音符和时值建模的哼唱识谱方法,本发明建立有包括音符音高模型集和音符时值模型集在内的乐理高斯混合模型库,所述乐理高斯混合模型库中的所有模型均事先通过乐理高斯混合模型训练单元进行模型参数训练,并可选用乐理高斯混合模型重估训练单元进行模型参数的重估训练,哼唱识谱时,对采集的用户哼唱语音分别进行音高特征提取、乐理信息解码识别、节拍提取、乐理处理与变换,最后输出成标准乐谱。本发明方法设计的哼唱识谱系统识别率高、稳定性好,还能适应个人的唱歌行为特点,可作为专业人员或音乐爱好者的创作助手和备用工具,具有推广应用价值和产业化前景。
Description
技术领域
本发明属于计算机应用技术领域,尤其涉及一种基于音符和时值建模的哼唱识谱方法及系统,具体对对音乐的音符和时值进行建模,通过模型训练和解码识别两个关键过程实现哼唱识谱的功能。
背景技术
随着计算机与网络技术的发展,人们越来越多地利用数字技术提供音乐服务,如卡啦OK、音乐检索、歌唱评价、哼唱搜歌、音乐合成等,既丰富了人们的娱乐生活,也推动了音乐创作活动的发展。对于资深的音乐爱好者,常常会即兴哼唱出一些旋律,希望能够找到专业软件把这些旋律转化成歌谱保存起来,以用于今后的音乐原创活动。而对于专业的音乐创作人,在生活中随时会突发灵感,唱出自己新构思的旋律,这时也迫切需要具有哼唱识谱功能的专业软件把歌唱语音自动转化成歌谱,以便后续的加工润色工作。
与音乐合成、哼唱识别技术相比,哼唱识谱方面的研究工作开展得较少。现有的技术主要是对哼唱录音数据在时域上进行自相关等技术提取基频信号,获取音高数值,然后直接利用单一的音高参数去进行音符切分,通过与标准的音符音高及标准时值进行比对,得出音符及时值序列作为识别结果。
然而,上述哼唱识谱方法在实际应用中存在不足,表现在准确性不高。由于噪音的影响,自相关提取基频的技术抗干扰能力差,往往出现倍频或半频的错误,造成音符识别的不准确。歌唱或哼唱过程中,协同发音现象普遍存在,造成音符切分上的困难,多切和遗漏现象严重,影响时值判别的准确性。更为重要的是,对音乐爱好者来说,每个人的发音系统和发音习惯不尽相同,歌唱时音高和时值的把握与国际标准音高和时值有差异。即便是专业人士,也存在这种差异。况且,相邻音符之间的音高还存在一定区域的重叠,也给音符判别过程带来难度。直接以个性化的音高及时长数值去与标准音高和时值进行匹配,软件系统的适应性强很差。
总之,现有的哼唱识谱技术存在不足,推广应用存在困难,需要采用新的思路研究精度高、稳定性好、适应性强的方法。
发明内容
鉴于上述原因,本发明所要解决的技术问题在于提供一种基于音符和时值建模的哼唱识谱方法,该方法识别率高、稳定性好、适应性广,能够针对多数人的唱歌行为特点保持高识别率和运算性能,具有推广应用价值和产业化前景。
本发明是这样实现的,一种基于音符和时值建模的哼唱识谱方法,包括下述步骤:
步骤A,于用户的哼唱语音中,提取当前语音帧的音高;
步骤B,根据预先建立的音符音高模型集,利用步骤A提取的音高分别计算出当前语音帧属于所述音符音高模型集中各个音符音高模型的概率值,根据计算的概率值以及音符音高模型集对当前语音帧进行音符音高模型匹配识别,若当前语音帧与其前一相邻语音帧分属不同的音符音高模型时,记录下当前语音帧号;
步骤C,重复步骤A到步骤B,当哼唱语音依序逐语音帧全部处理完毕后,确定出哼唱语音所对应的音符音高模型序列以及序列中各个音符音高模型的起始语音帧号,计算出所述各个音符音高模型各自所持续的语音帧数,并累积分析语音帧的音高变化情况,判断出其中包含的旋律段后提取该旋律段的节拍信息;
步骤D,根据预先建立的音符时值模型集,从步骤C确定的音符音高模型序列中依次选取出一个音符音高模型,利用其所持续的语音帧数分别计算出所选取的音符音高模型属于所述音符时值模型集中各个音符时值模型的概率值,根据计算的概率值以及音符时值模型集对选取的音符音高模型进行音符时值模型匹配识别;
步骤E,重复步骤D,当步骤C中确定的全部音符音高模型序列处理完毕后,得出哼唱语音所包含的各个音符音高模型序列以及各个音符音高模型持续语音帧数所对应的音符时值模型,形成一组<音符音高模型,音符时值模型>序列;
步骤F,根据步骤A提取的音高和步骤C提取的节拍信息,对步骤E确定的哼唱语音的<音符音高模型,音符时值模型>序列进行乐理转换处理,得到对应的<标准音符,标准时值>序列,据此生成对应的乐谱。
本发明还提供了一种基于音符和时值建模的哼唱识谱系统,包括:
哼唱输入采集器,用于采集用户的哼唱语音;
音高提取器,用于从用户的哼唱语音中逐语音帧提取音高;
节拍提取器,用于从音高提取器获取哼唱语音各语音帧的音高,累积分析语音帧的音高变化情况,判断出其中包含的旋律段后提取该旋律段的节拍信息;
乐理信息解码识别器,用于根据预先建立的音符音高模型集,利用提取的音高分别计算出当前语音帧属于所述音符音高模型集中各个音符音高模型的概率值,根据计算的概率值以及音符音高模型集对当前语音帧进行音符音高模型匹配识别,若当前语音帧与其前一相邻语音帧分属不同的音符音高模型时,记录下当前语音帧号;在按照上述方式依序处理完哼唱语音的所有语音帧后,确定出哼唱语音所对应的音符音高模型序列以及序列中各个音符音高模型的起始语音帧号,计算出所述各个音符音高模型各自所持续的语音帧数,并通过节拍提取器提取哼唱语音包含的节拍信息;根据预先建立的音符时值模型集,从确定的音符音高模型序列中依次选取出一个音符音高模型,利用其所持续的语音帧数分别计算出所述音符音高模型属于所述音符时值模型集中各个音符时值模型的概率值,进行音符时值模型匹配识别;在按照上述方式依序处理完所确定的全部音符音高模型序列后,得出哼唱语音所包含的各个音符音高模型序列以及各个音符音高模型持续语音帧数所对应的音符时值模型,形成一组<音符音高模型,音符时值模型>序列;
乐理处理与变换器,用于根据音高提取器提取的音高和节拍提取器提取的节拍信息,对确定出的哼唱语音的<音符音高模型,音符时值模型>序列进行乐理转换处理,得到对应的<标准音符,标准时值>序列;
标准乐谱生成器,用于根据所述<标准音符,标准时值>序列生成对应的乐谱。
本发明与现有技术相比,通过抗噪音的音高特征提取、音符音高模型集及音符时值模型集参数训练、乐理信息解码识别,具有较高的识别率和计算速度,适应性强。实验结果表明,本发明方法设计的哼唱识谱系统抗噪音干扰能力强,能够满足不同歌唱水平人员的使用需求,能够针对多数人的唱歌行为特点保持高识别率,具有推广应用价值和产业化前景。
附图说明
图1是本发明提供的基于音符和时值建模的哼唱识谱方法的实现流程图;
图2是本发明提供的基于音符和时值建模的哼唱识谱系统的结构原理图。具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明采用统计模型对音乐中的音符和时值进行声学建模,采集有代表性的哼唱语料,以高精度抗干扰的音高提取方法计算出音符的观察样本数据,通过迭代的方法训练出稳定的模型参数。提供模型参数重估的方法,允许将个人的哼唱语音作为样本参与模型参数的再训练,使得模型参数反映出个人的发音特点和习惯,使哼唱识谱系统具有很好的适应性。
图1示出了本发明提供的基于音符和时值建模的哼唱识谱方法的实现流程,详述如下:
在步骤A中,于用户的哼唱语音中,提取当前语音帧的音高。
本发明中,采用一种高精度、抗干扰的方法提取哼唱语音帧音高,具体步骤是:首先针对哼唱语音帧在数字信号经典功率谱估计方法的基础上进行自相关运算,快速提取若干基音周期候选值。然后针对这些候选值实施多重后处理方法,具体为:先利用通过预设的峰值阈参数对候选值进行初步的筛选,接着利用通过预设的一次均值参数将语音分为不同的音高段,再使用通过预设的二次均值参数为每个音高段确定合适的频率范围,最后提取出基音周期作为该哼唱语音帧的音高。上述峰值阈参数、一次均值参数、二次均值参数均可以通过实验预先确定。
在步骤B中,根据预先建立的音符音高模型集,利用步骤A提取的音高分别计算出当前语音帧属于所述音符音高模型集中各个音符音高模型的概率值,根据计算的概率值以及音符音高模型集对当前语音帧进行音符音高模型匹配识别,若当前语音帧与其前一相邻语音帧分属不同的音符音高模型时,记录下当前语音帧号。
本发明中,根据歌谱均由处于不同八度区间的CDEFGAB七个基本音符组成这一乐理常识,并考虑到的大众歌曲的特点和人们的发音规律,主要对处于低八度、中八度、高八度这一区段的各个音符进行建模。实施例中,对国际标准音符中的CDEFGABC1D1E1F1G1A1B1C2D2E2F2G2A2B2,也就是简谱中这21个音符进行建模,还增加一个静音模型。针对这些音符模型,基于高斯混合模型技术进行建模,即采用多个单高斯分布进行混合,通过如下公式对音符音高模型的概率密度输出函数Gf(x)进行加权混合计算:
其中,M为包含的单高斯分布的个数,αj为各个单高斯分布的概率密度函数的混合权重,μ为均值向量,Σ是协方差矩阵,Ρj(x,μj,Σj)是单高斯分布的概率密度函数,其计算方法如下:
其中,T表示矩阵的转置,x为待估算的哼唱语音帧的音高特征列向量,μ为模型期望,Σ为模型方差,μ、Σ均由若干训练样本音符语音帧的音高特征列向量cj得出,为均值向量,是协方差矩阵,n为训练样本的个数。
训练音符音高模型参数的具体过程是:
首先,进行音符音高模型高斯混合概率密度输出函数工作参数的初始化,对于每一个音符音高模型,将该音符的国际标准音高看作先验知识,作为模型工作参数的初始期望均值,以便加快训练速度,稳定模型参数。
然后,进行音符音高模型高斯混合概率密度输出函数工作参数的训练,对于每一个音符音高模型,在音符音高模型参数初始化的基础上,利用从哼唱语料中提取出来的该音符的音高值作为观察样本值,利用期望最大化算法进行最大似然估计,确定音符音高模型高斯混合概率密度输出函数的各个工作参数,即确定模型的期望、方差和混合权重等参数。核心过程就是通过迭代计算,不断更新权值αj、均值μj和方差矩阵Σj,满足的要求,使期望值最大。
最后,进行音符音高模型的拒识阈值参数的训练。依次对按照以上方式训练得到的每一个音符音高模型,将哼唱语料中提取出来的所有音高观察样本值划分成两类,一类是属于该音符音高模型的接受域,另一类是不属于该音符音高模型的拒绝域,利用后验概率和似然比分析的方法确定该音符音高模型的拒识阈值。
在事先完成各音符音高模型参数训练的基础上,才可以实施步骤B中的哼唱语音帧匹配识别过程,具体方法是:首先,根据预先建立的音符音高模型集,对步骤A提取的当前语音帧的音高分别代入所述音符音高模型集中各个音符音高模型的混合概率密度输出函数计算出所述语音帧属于各个音符音高模型的概率值;然后,将当前语音帧与所述概率值中最大者所对应的音符音高模型进行匹配,当该最大概率值低于相应音符音高模型的拒识阈值时进行拒识处理;最后,若匹配结果为当前语音帧与前一语音帧分属不同的音符音高模型时,记录当前语音帧号。
在步骤C中,重复步骤A到步骤B,当哼唱语音依序逐语音帧全部处理完毕后,确定出哼唱语音所对应的音符音高模型序列以及序列中各个音符音高模型的起始语音帧号,计算出所述各个音符音高模型各自所持续的语音帧数,并累积分析语音帧的音高变化情况,判断出其中包含的旋律段后提取该旋律段的节拍信息。
本发明中,通过跟踪分析哼唱语音音高的连续变化情况,判断出旋律段和非旋律段,针对其中的旋律段采用自相关相位-熵序列分析的方法提取其哼唱的节拍速度,供后续处理过程使用。
在步骤D中,根据预先建立的音符时值模型集,从步骤C确定的音符音高模型序列中依次选取出一个音符音高模型,利用其所持续的语音帧数分别计算出所选取的音符音高模型属于所述音符时值模型集中各个音符时值模型的概率值,根据计算的概率值以及音符时值模型集对选取的音符音高模型进行音符时值模型匹配识别。
本发明中,根据音符发音时长方面的乐理常识以及人们的歌唱发音规律,主要为标准全音符、二分音符、四分音符、八分音符、十六分音符、三十二分音符、六十四分音符等这些音符歌唱时的标准时值进行建模。实施例中,基于高斯混合模型技术对音符时值进行建模,采用多个单高斯分布进行混合,通过如下公式对音符时值模型的概率密度输出函数Gt(x)进行加权混合计算:
其中,M为包含的单一高斯分布的个数,αj为各个单一高斯分布的概率密度函数的混合权重,μ为均值向量,Σ是协方差矩阵,Ρj(x,μj,Σj)是单高斯分布的概率密度函数,其定义和计算方法见公式(2)。
训练音符时值模型参数的具体过程是:
首先,进行音符时值模型高斯混合概率密度输出函数工作参数的初始化,对于每一个音符时值模型,将该音符时值的国际标准时长看作先验知识,作为模型工作参数的初始期望均值,以便加快训练速度,稳定模型参数。
然后,进行音符时值模型高斯混合概率密度输出函数工作参数的训练,对于每一个音符时值模型,在音符时值模型参数初始化的基础上,利用从哼唱语料中提取出来的该音符的哼唱时长所对应的语音帧数作为观察样本值,利用期望最大化算法进行最大似然估计,确定音符时值模型高斯混合概率密度输出函数的各个工作参数,即确定模型的期望、方差和混合权重等参数。核心过程就是通过迭代计算,不断更新权值αj、均值μj和方差矩阵Σj,满足的要求,使期望值最大。
最后,进行音符时值模型的拒识阈值参数的训练。依次对按照以上方式训练得到的每一个音符时值模型,将哼唱语料中提取出来的所有时值观察样本值划分成两类,一类是属于该音符时值模型的接受域,另一类是不属于该音符时值模型的拒绝域,利用后验概率和似然比分析的方法确定该音符时值模型的拒识阈值。
进一步地,为使哼唱识谱系统能够适应每个用户的个性发音特点和发音习惯,即当用户歌唱时音符的音高、音符的时值与国际标准音高及国际标准时值存在差异时,识谱系统仍具有较为稳定的识别能力,本发明提供根据用户的哼唱特征对音符音高模型及音符时值模型的高斯混合概率密度输出函数工作参数进行重估训练的方法。在所述步骤A之前,用户可以选择利用自己的发音样本对音符音高模型集及音符时值模型集里的模型参数进行重估再训练,从而得到反映该用户自己发音特点的新的乐理高斯混合模型参数。重估的具体步骤如下:
首先,设定若干旋律片段作为固定哼唱模板,每一个哼唱模板由一组特定的<音符,时值>序列组成,用户按照哼唱模板逐一进行哼唱,采集哼唱语音;然后,对以上步骤中采集到的哼唱语音逐帧提取音高,根据哼唱模板的乐理知识得到该用户哼唱各个音符时的个性音高值,作为新的观察样本值,重新利用期望最大化算法进行最大似然估计,分别对音符音高模型集中的各个音符音高模型参数进行重估训练。
同时,对以上步骤中逐帧提取到的音高特征进行连续分析,根据哼唱模板的乐理知识得到该用户哼唱各个音符时,相对于标准时值所表现出的个性时长,作为新的观察样本值,重新利用期望最大化算法进行最大似然估计,分别对音符时值模型集中的各个音符时值模型参数进行重估训练。
在事先完成各音符时值模型参数训练的基础上,才可以实施步骤D中为哼唱中已经匹配出来的音符模型序列片段进行时值匹配识别过程,具体方法是:首先,根据预先建立的音符时值模型集,利用步骤C中得出的音符模型序列及其它们各自所持续的语音帧数,逐音符音高模型将其所持续的语音帧数分别代入所述音符时值模型集中各个音符时值模型的概率密度输出函数计算出对各个音符时值模型的概率值;然后,将当前语音帧与所述概率值中最大者所对应的音符时值模型进行匹配,当该最大概率值低于相应音符时值模型的拒识阈值时进行拒识处理。
步骤E的具体处理过程为:重复步骤D,当步骤C中确定的全部音符音高模型序列处理完毕后,得出哼唱语音所包含的各个音符音高模型序列以及各个音符音高模型持续语音帧数所对应的音符时值模型,形成一组<音符音高模型,音符时值模型>序列。
在步骤F中,根据步骤A提取的音高和步骤C提取的节拍信息,对步骤E确定的哼唱语音的<音符音高模型,音符时值模型>序列进行乐理转换处理,得到对应的<标准音符,标准时值>序列,据此生成对应的乐谱。
本发明中,针对已经识别出来的哼唱语音所包含的<音符音高模型,音符时值模型>序列,进行乐理转换处理的具体过程为:
根据提取的哼唱语音节拍特征,与中速标准歌唱速度下的节拍特征作对比分析,得出哼唱节拍与中速标准节拍之间快慢程度比率,将步骤E中识别出的各音符时值模型均转化成对应的标准时值;根据步骤C对哼唱语音音高变化情况的分析结果,得出哼唱语音的整体音高特点,对步骤E中识别出的各音符音高模型进行纠正处理,最终将所述各音符音高模型一一转化成对应的标准音符;根据以上两步出来的结果,形成哼唱语音所对应的<音符,时值>序列,按照乐理常识以及哼唱语音中提取的与音阶相关的节拍音乐信息将所述<音符,时值>序列自动转化成五线谱或者简谱。生成的五线谱或者简谱可以在计算机屏幕展现出来,并可保存为外部文件。
本领域普通技术人员可以理解实现上述各实施例提供的方法中的全部或部分步骤可以通过程序来指令相关的硬件来完成,所述的程序可以存储于一计算机可读取存储介质中,该存储介质可以为ROM/RAM、磁盘、光盘等。
图2示出了本发明提供的基于音符和时值建模的哼唱识谱系统的结构原理,为了便于描述,仅示出了与本发明相关的部分。
参照图2,该系统至少包括哼唱输入采集器1、节拍提取器2、音高特征提取器3、乐理信息解码识别器4、乐理处理与变换器5、标准乐谱生成器6。其中,哼唱输入采集器1用于采集用户的哼唱语音,音高特征提取器3从用户的哼唱语音中逐语音帧提取音高,节拍提取器2用于音高提取器获3取哼唱语音各语音帧的音高,累积分析语音帧的音高变化情况,判断出其中包含的旋律段后提取该旋律段的节拍信息。
然后,乐理信息解码识别器4根据预先建立的音符音高模型集,利用提取的音高分别计算出当前语音帧属于所述音符音高模型集中各个音符音高模型的概率值,根据计算的概率值以及音符音高模型集对当前语音帧进行音符音高模型匹配识别,若当前语音帧与其前一相邻语音帧分属不同的音符音高模型时,记录下当前语音帧号;在按照上述方式依序处理完哼唱语音的所有语音帧后,确定出哼唱语音所对应的音符音高模型序列以及序列中各个音符音高模型的起始语音帧号,计算出所述各个音符音高模型各自所持续的语音帧数,并通过节拍提取器3提取哼唱语音包含的节拍信息;根据预先建立的音符时值模型集,从确定的音符音高模型序列中依次选取出一个音符音高模型,利用其所持续的语音帧数分别计算出所述音符音高模型属于所述音符时值模型集中各个音符时值模型的概率值,进行音符时值模型匹配识别;在按照上述方式依序处理完所确定的全部音符音高模型序列后,得出哼唱语音所包含的各个音符音高模型序列以及各个音符音高模型持续语音帧数所对应的音符时值模型,形成一组<音符音高模型,音符时值模型>序列。
乐理处理与变换器5用于根据音高提取器2提取的音高和节拍提取器3提取的节拍信息,对确定出的哼唱语音的<音符音高模型,音符时值模型>序列进行乐理转换处理,得到对应的<标准音符,标准时值>序列,最后,标准乐谱生成器6根据乐理处理与变换器5处理后得到的哼唱语音所对应的<标准音符,标准时值>序列生成对应的乐谱。
本发明中,音符音高模型集和音符时值模型集均包含在乐理高斯混合模型参数库7中。音符音高模型和音符时值模型均基于高斯混合模型技术进行建模,采用多个单高斯分布进行混合,每个单高斯分布的概率密度函数按照公式(2)进行定义和计算,音符音高模型的概率密度输出函数按照公式(1)进行定义以及进行加权混合计算,音符时值模型的概率密度输出函数按照公式(3)进行定义以及进行加权混合计算。
与上述任一实施例相结合,本系统还包括一乐理高斯混合模型训练单元8,用于进行音符音高模型工作参数的训练,对于每一个音符音高模型,在音符音高模型参数初始化的基础上,利用从哼唱语料中提取出来的该音符的音高值作为观察样本值,利用期望最大化算法进行最大似然估计,确定音符音高模型高斯混合概率密度输出函数的各个工作参数,然后依次对按照上述方式训练得到的每一个音符音高模型,将哼唱语料中提取出来的所有音高观察样本值划分成两类,一类是属于该音符音高模型的接受域,另一类是不属于该音符音高模型的拒绝域,利用后验概率和似然比分析的方法确定该音符音高模型的拒识阈值;还用于进行音符时值模型工作参数的训练,对于每一个音符时值模型,在音符时值模型参数初始化的基础上,利用从哼唱语料中提取出来的该音符的哼唱时长所对应的语音帧数作为观察样本值,利用期望最大化算法进行最大似然估计,确定音符时值模型高斯混合概率密度输出函数的各个工作参数,然后依次对按照上述方式训练得到的每一个音符时值模型,将哼唱语料中提取出来的所有时值观察样本值划分成两类,一类是属于该音符时值模型的接受域,另一类是不属于该音符时值模型的拒绝域,利用后验概率和似然比分析的方法确定该音符时值模型的拒识阈值。
与上述任一实施例相结合,本系统还包括乐理高斯混合模型重估训练单元9,用于采集某哼唱人按照固定哼唱模板的歌谱的个性哼唱信息,进行音高、时值特征的提取,将提取的特征作为新的观察样本值分别对音符音高模型集、音符时值模型集中的各个模型参数进行再训练,得到反映该哼唱人发音特点的新的乐理高斯混合模型参数。具体方法是:首先,选取若干旋律片段作为固定哼唱模板,每一个哼唱模板由一组特定的<音符,时值>序列组成,用户按照哼唱模板逐一进行哼唱,采集哼唱语音;然后对采集到的哼唱语音逐帧提取音高,根据哼唱模板的乐理知识得到该用户哼唱各个音符时的个性音高值,作为新的观察样本值,重新利用期望最大化算法进行最大似然估计,分别对音符音高模型集中的各个音符音高模型参数进行重估训练;再对逐帧提取到的音高特征进行连续分析,根据哼唱模板的乐理知识得到该用户哼唱各个音符时,相对于标准时值所表现出的个性时长,作为新的观察样本值,重新利用期望最大化算法进行最大似然估计,分别对音符时值模型集中的各个音符时值模型参数进行重估训练;最后将通过重估训练得到的各个音符音高模型的新参数以及通过重估训练得到的各个音符时值模型的新参数,更新到乐理高斯混合模型库,得到反映该用户发音特点的新的乐理高斯混合模型参数。
与上述任一实施例相结合,乐理信息解码识别器4根据音符音高模型集,逐帧计算哼唱语音对各音符音高高斯混合模型的匹配度,对匹配度低的语音帧进行拒识,解码出音符模型序列,同时记录下音符发生变化的语音帧号,确定出各个音符模型的起始语音帧号;然后依次取出音符模型序列中每一个音符模型持续的语音帧数去计算对各个音符时值模型的匹配度,取最优的结果作为该音符的时值。最终得出哼唱语音所包含的各个音符模型序列以及各个音符模型持续时长所对应的时值模型,形成一组<音符,时值>序列。
与上述任一实施例相结合,乐理处理与变换器5将根据音高差特征识别出的音符与对应的音高绝对值做比较,进行八度处理,并根据旋律的音高变化情况,进行节拍分析,确定可能的节拍信息,得到最终的音符及其时值序列。然后,标准乐谱生成器6根据所述最终的音符及其时值序列以及与音阶相关的节拍音乐信息。
综上所述,本发明提出的哼唱识谱技术可以作为专业音乐人员的音乐创作助手,也可以作为业余音乐爱好者的备用工具,促进更大范围的音乐原创活动,也可以设计成声乐教学软件应用在艺术学院、社会培训机构的教学培训活动中,还可以设计成数字娱乐软件应用在唱歌练歌等社会娱乐活动中,弥补自动记谱软件市场的空白,解决目前音乐创作过程的许多不便之处,具有独特的市场前景。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (11)
1.一种基于音符和时值建模的哼唱识谱方法,其特征在于,所述方法包括下述步骤:
步骤A,于用户的哼唱语音中,提取当前语音帧的音高;
步骤B,根据预先建立的音符音高模型集,利用步骤A提取的音高分别计算出当前语音帧属于所述音符音高模型集中各个音符音高模型的概率值,根据计算的概率值以及音符音高模型集对当前语音帧进行音符音高模型匹配识别,若当前语音帧与其前一相邻语音帧分属不同的音符音高模型时,记录下当前语音帧号;
步骤C,重复步骤A到步骤B,当哼唱语音依序逐语音帧全部处理完毕后,确定出哼唱语音所对应的音符音高模型序列以及序列中各个音符音高模型的起始语音帧号,计算出所述各个音符音高模型各自所持续的语音帧数,并累积分析语音帧的音高变化情况,判断出其中包含的旋律段后提取该旋律段的节拍信息;
步骤D,根据预先建立的音符时值模型集,从步骤C确定的音符音高模型序列中依次选取出一个音符音高模型,利用其所持续的语音帧数分别计算出选取的音符音高模型属于所述音符时值模型集中各个音符时值模型的概率值,根据计算的概率值以及音符时值模型集对选取的音符音高模型进行音符时值模型匹配识别;
步骤E,重复步骤D,当步骤C中确定的全部音符音高模型序列处理完毕后,得出哼唱语音所包含的各个音符音高模型序列以及各个音符音高模型持续语音帧数所对应的音符时值模型,形成一组<音符音高模型,音符时值模型>序列;
步骤F,根据步骤A提取的音高和步骤C提取的节拍信息,对步骤E确定的哼唱语音的<音符音高模型,音符时值模型>序列进行乐理转换处理,得到对应的<标准音符,标准时值>序列,据此生成对应的乐谱。
2.如权利要求1所述的方法,其特征在于,所述音符音高模型集包含分别为处于低八度、中八度、高八度区段中的各个标准音符以及一个静音所建立的模型,其基于高斯混合模型技术进行建模,采用多个单高斯分布进行混合,通过如下公式对音符音高模型的概率密度输出函数Gf(x)进行加权混合计算:
其中,M为包含的单高斯分布的个数,αj为各个单高斯分布的概率密度函数的混合权重,Ρj(x,μj,Σj)的定义如下:
其中,T表示矩阵的转置,x为待估算的哼唱语音帧的音高特征列向量,μ为模型期望,Σ为模型方差,μ、Σ均由若干训练样本音符语音帧的音高特征列向量cj得出,为均值向量,是协方差矩阵,n为训练样本的个数;
所述音符时值模型集包含分别为各种标准音符时值基于高斯混合模型技术所建立的模型,采用多个单高斯分布进行混合,通过如下公式对音符时值模型的概率密度输出函数Gt(x)进行加权混合计算:
其中,M为包含的单一高斯分布的个数,αj为各个单一高斯分布的概率密度函数的混合权重,Ρj(x,μj,Σj)的定义如下:
其中,T表示矩阵的转置,x为待估算的某音符持续哼唱时长所对应的语音帧数,μ为模型期望,Σ为模型方差,μ、Σ均由若干训练样本时值所对应的语音帧数cj得出,为均值向量,是协方差矩阵,n为训练样本的个数。
3.如权利要求1所述的方法,其特征在于,所述音符音高模型集的参数通过如下步骤G1至G3训练得到:
步骤G1,进行音符音高模型高斯混合概率密度输出函数工作参数的初始化,对于每一个音符音高模型,将该音符的国际标准音高作为所述工作参数的初始期望均值;
步骤G2,在步骤G1音符音高模型参数初始化的基础上,利用从哼唱语料中提取出来的该音符的音高作为观察样本值,利用期望最大化算法进行最大似然估计,确定音符音高模型高斯混合概率密度输出函数的各个工作参数;
步骤G3,依次根据步骤G1和G2训练得到的每一个音符音高模型,将哼唱语料中提取出来的所有音高观察样本值划分成两类,一类是属于该音符音高模型的接受域,另一类是不属于该音符音高模型的拒绝域,利用后验概率和似然比分析的方法对所述接受域和拒绝域所包含的观察样本值进行处理以确定该音符音高模型的拒识阈值;
所述音符时值模型集的参数通过如下步骤H1至H3训练得到:
步骤H1,进行音符时值模型高斯混合概率密度输出函数工作参数的初始化,对于每一个音符时值模型,将该音符时值的国际标准时长转化成语音帧数作为所述工作参数的初始期望均值;
步骤H2,在步骤H1音符时值模型参数初始化的基础上,以从哼唱语料中提取出来的该音符的哼唱时长所对应的语音帧数作为观察样本值,利用期望最大化算法进行最大似然估计,确定音符时值模型高斯混合概率密度输出函数的各个工作参数;
步骤H3,依次根据步骤H1和H2训练得到的每一个音符时值模型,将哼唱语料中提取出来的所有时值观察样本值划分成两类,一类是属于该音符时值模型的接受域,另一类是不属于该音符时值模型的拒绝域,利用后验概率和似然比分析的方法对所述接受域和拒绝域所包含的观察样本值进行处理以确定该音符时值模型的拒识阈值。
4.如权利要求1所述的方法,其特征在于,在所述步骤A之前,根据用户的哼唱特征对所述音符音高模型及音符时值模型的高斯混合概率密度输出函数工作参数进行重估,重估步骤如下:
步骤I1,采集用户按照预先设定好的固定哼唱模板逐一进行哼唱的哼唱语音;其中,每一固定哼唱模板个哼唱模板由一组特定的<音符,时值>序列组成;
步骤I2,对步骤I1采集到的哼唱语音逐帧提取音高,根据哼唱模板的乐理知识得到该用户哼唱各个音符时的个性音高值,作为新的观察样本值,重新利用期望最大化算法进行最大似然估计,分别对音符音高模型集中的各个音符音高模型参数进行重估训练;
步骤I3,对步骤I2逐帧提取到的音高特征进行连续分析,根据哼唱模板的乐理知识得到该用户哼唱各个音符时,相对于标准时值所表现出的个性时长,作为新的观察样本值,重新利用期望最大化算法进行最大似然估计,分别对音符时值模型集中的各个音符时值模型参数进行重估训练;
步骤I4,将通过步骤I2重估训练得到的各个音符音高模型的新参数以及通过步骤I3重估训练得到的各个音符时值模型的新参数,更新到乐理高斯混合模型库,得到反映该用户发音特点的新的乐理高斯混合模型参数。
5.如权利要求1所述的方法,其特征在于,所述步骤B具体包括如下步骤:
步骤B1,根据预先建立的音符音高模型集,对步骤A提取的当前语音帧的音高分别代入所述音符音高模型集中各个音符音高模型的混合概率密度输出函数,计算出所述语音帧属于各个音符音高模型的概率值;
步骤B2,将当前语音帧与所述概率值中最大者所对应的音符音高模型进行匹配,当该最大概率值低于相应音符音高模型的拒识阈值时进行拒识处理;
步骤B3,若匹配结果为当前语音帧与前一语音帧分属不同的音符音高模型时,记录当前语音帧号;
所述步骤D具体包括如下步骤:
步骤D1,根据预先建立的音符时值模型集,逐音符音高模型将其所持续的语音帧数分别代入所述音符时值模型集中各个音符时值模型的概率密度输出函数,计算出对各个音符时值模型的概率值;
步骤D2,将当前音符音高模型与所述概率值中最大者所对应的音符时值模型进行匹配,当该最大概率值低于相应音符时值模型的拒识阈值时进行拒识处理。
6.如权利要求1所述的方法,其特征在于,所述步骤F包括如下步骤:
步骤F1,根据提取的哼唱语音节拍特征,与中速标准歌唱速度下的节拍特征作对比分析,得出哼唱节拍与中速标准节拍之间快慢程度比率,将步骤E中识别出的各音符时值模型均转化成对应的标准时值;
步骤F2,根据步骤C对哼唱语音音高变化情况的分析结果,得出哼唱语音的整体音高特点,对步骤E中识别出的各音符音高模型进行纠正处理,最终将所述各音符音高模型一一转化成对应的标准音符;
步骤F3,根据步骤F1和步骤F2的结果,形成哼唱语音所对应的<音符,时值>序列,按照乐理常识将所述<音符,时值>序列自动转化成五线谱或者简谱。
7.一种基于音符和时值建模的哼唱识谱系统,其特征在于,包括:
哼唱输入采集器,用于采集用户的哼唱语音;
音高提取器,用于从用户的哼唱语音中逐语音帧提取音高;
节拍提取器,用于从音高提取器获取哼唱语音各语音帧的音高,累积分析语音帧的音高变化情况,判断出其中包含的旋律段后提取该旋律段的节拍信息;
乐理信息解码识别器,用于根据预先建立的音符音高模型集,利用提取的音高分别计算出当前语音帧属于所述音符音高模型集中各个音符音高模型的概率值,根据计算的概率值以及音符音高模型集对当前语音帧进行音符音高模型匹配识别,若当前语音帧与其前一相邻语音帧分属不同的音符音高模型时,记录下当前语音帧号;在按照上述方式依序处理完哼唱语音的所有语音帧后,确定出哼唱语音所对应的音符音高模型序列以及序列中各个音符音高模型的起始语音帧号,计算出所述各个音符音高模型各自所持续的语音帧数,并通过节拍提取器提取哼唱语音包含的节拍信息;根据预先建立的音符时值模型集,从确定的音符音高模型序列中依次选取出一个音符音高模型,利用其所持续的语音帧数分别计算出所述音符音高模型属于所述音符时值模型集中各个音符时值模型的概率值,进行音符时值模型匹配识别;在按照上述方式依序处理完所确定的全部音符音高模型序列后,得出哼唱语音所包含的各个音符音高模型序列以及各个音符音高模型持续语音帧数所对应的音符时值模型,形成一组<音符音高模型,音符时值模型>序列;
乐理处理与变换器,用于根据音高提取器提取的音高和节拍提取器提取的节拍信息,对确定出的哼唱语音的<音符音高模型,音符时值模型>序列进行乐理转换处理,得到对应的<标准音符,标准时值>序列;
标准乐谱生成器,用于根据所述<标准音符,标准时值>序列生成对应的乐谱。
8.如权利要求7所述的系统,其特征在于,所述音符音高模型集包含分别为处于低八度、中八度、高八度区段中的各个标准音符以及一个静音所建立的模型,其基于高斯混合模型技术进行建模,采用多个单高斯分布进行混合,通过如下公式对音符音高模型的概率密度输出函数Gf(x)进行加权混合计算:
其中,M为包含的单高斯分布的个数,αj为各个单高斯分布的概率密度函数的混合权重,Ρj(x,μj,Σj)的定义如下:
其中,T表示矩阵的转置,x为待估算的哼唱语音帧的音高特征列向量,μ为模型期望,Σ为模型方差,μ、Σ均由若干训练样本音符语音帧的音高特征列向量cj得出,为均值向量,是协方差矩阵,n为训练样本的个数;
所述音符时值模型集包含分别为各种标准音符时值基于高斯混合模型技术所建立的模型采用多个单高斯分布进行混合,通过如下公式对音符时值模型的概率密度输出函数Gt(x)进行加权混合计算:
其中,M为包含的单一高斯分布的个数,αj为各个单一高斯分布的概率密度函数的混合权重,Ρj(x,μj,Σj)的定义如下:
其中,T表示矩阵的转置,x为待估算的某音符持续哼唱时长所对应的语音帧数,μ为模型期望,Σ为模型方差,μ、Σ均由若干训练样本时值所对应的语音帧数cj得出,为均值向量,是协方差矩阵,n为训练样本的个数。
9.如权利要求7所述的系统,其特征在于,所述系统还包括一个乐理高斯混合模型训练单元,所述乐理高斯混合模型训练单元包括:
音符及时长信息标注器,用于将训练语料库中采集的每一个哼唱样本参照其对应的歌谱标注好其中的音符名称以及该音符时值被哼唱的时长,保存到标注文件中;
音高及时值特征提取器,用于从哼唱语料中,根据标注文件的定义为每个标注好的音符名称提取其对应语音帧的音高,按照音符名称进行分类保存,并根据标注文件的定义为每个标注好的音符时值提取其对应的语音帧数,作为该音符时值的哼唱时长,按照音符时值名称进行分类保存;
先验知识导入器,用于进行音符音高模型及音符时值模型的高斯混合概率密度函数工作参数的初始化,对于每一个音符音高模型,将该音符的国际标准音高作为所述工作参数的初始期望均值,对于每一个音符时值模型,将该音符时值的国际标准时长作为所述工作参数的初始期望均值;
乐理高斯混合模型训练器,用于进行音符音高模型工作参数的训练,对于每一个音符音高模型,在音符音高模型参数初始化的基础上,利用从哼唱语料中提取出来的该音符的音高值作为观察样本值,利用期望最大化算法进行最大似然估计,确定音符音高模型高斯混合概率密度输出函数的各个工作参数,然后依次根据上述方式训练得到的每一个音符音高模型,将哼唱语料中提取出来的所有音高观察样本值划分成两类,一类是属于该音符音高模型的接受域,另一类是不属于该音符音高模型的拒绝域,利用后验概率和似然比分析的方法对所述接受域和拒绝域进行处理以确定该音符音高模型的拒识阈值;还用于进行音符时值模型工作参数的训练,对于每一个音符时值模型,在音符时值模型参数初始化的基础上,利用从哼唱语料中提取出来的该音符的哼唱时长所对应的语音帧数作为观察样本值,利用期望最大化算法进行最大似然估计,确定音符时值模型高斯混合概率密度输出函数的各个工作参数,然后依次对按照上述方式训练得到的每一个音符时值模型,将哼唱语料中提取出来的所有时值观察样本值划分成两类,一类是属于该音符时值模型的接受域,另一类是不属于该音符时值模型的拒绝域,利用后验概率和似然比分析的方法对所述接受域和拒绝域进行处理以确定该音符时值模型的拒识阈值。
10.如权利要求7所述的系统,其特征在于,所述系统还包括一个乐理高斯混合模型重估训练单元,所述乐理高斯混合模型重估训练单元包括:
旋律模板加载器,用于加载预先设定好的若干旋律模板,以便用户按照所述旋律模板中约定的音符及时值序列进行哼唱;
个性哼唱采集器,用于采集用户按照上述旋律模板约定的内容进行哼唱的语音;
音高及时值提取器,用于从通过个性哼唱采集器采集的哼唱语音中,根据旋律模板的定义为每个音符名称提取其对应语音帧的音高,并根据旋律模板的定义为每个音符时值提取其对应的语音帧数;
乐理高斯混合模型重估训练器,用于选取若干旋律片段作为固定哼唱模板,每一个哼唱模板由一组特定的<音符,时值>序列组成,用户按照哼唱模板逐一进行哼唱,采集哼唱语音;然后对采集到的哼唱语音逐帧提取音高,根据哼唱模板的乐理知识得到该用户哼唱各个音符时的个性音高值,作为新的观察样本值,重新利用期望最大化算法进行最大似然估计,分别对音符音高模型集中的各个音符音高模型参数进行重估训练;再对逐帧提取到的音高特征进行连续分析,根据哼唱模板的乐理知识得到该用户哼唱各个音符时,相对于标准时值所表现出的个性时长,作为新的观察样本值,重新利用期望最大化算法进行最大似然估计,分别对音符时值模型集中的各个音符时值模型参数进行重估训练;最后将通过重估训练得到的各个音符音高模型的新参数以及通过重估训练得到的各个音符时值模型的新参数,更新到乐理高斯混合模型库,得到反映该用户发音特点的新的乐理高斯混合模型参数。
11.如权利要求7所述的系统,其特征在于,所述乐理处理与变换器用于根据提取的哼唱语音节拍特征,与中速标准歌唱速度下的节拍特征作对比分析,得出哼唱节拍与中速标准节拍之间快慢程度比率,将识别出的各音符时值模型均转化成对应的标准时值;然后根据对哼唱语音音高变化情况的分析结果,得出哼唱语音的整体音高特点,对识别出的各音符音高模型进行纠正处理,最终将所述各音符音高模型一一转化成对应的标准音符;最后根据转化的标准时值与标准音符,形成哼唱语音所对应的<音符,时值>序列,以使所述标准乐谱生成器按照乐理常识将所述<音符,时值>序列自动转化成五线谱或者简谱。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410066451.5A CN103824565B (zh) | 2014-02-26 | 2014-02-26 | 一种基于音符和时值建模的哼唱识谱方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410066451.5A CN103824565B (zh) | 2014-02-26 | 2014-02-26 | 一种基于音符和时值建模的哼唱识谱方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103824565A CN103824565A (zh) | 2014-05-28 |
CN103824565B true CN103824565B (zh) | 2017-02-15 |
Family
ID=50759587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410066451.5A Expired - Fee Related CN103824565B (zh) | 2014-02-26 | 2014-02-26 | 一种基于音符和时值建模的哼唱识谱方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103824565B (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104992712B (zh) * | 2015-07-06 | 2019-02-12 | 成都云创新科技有限公司 | 能识别音乐自动成谱的方法 |
CN104978884A (zh) * | 2015-07-18 | 2015-10-14 | 呼和浩特职业学院 | 一种学前教育专业学生学习乐理视唱练耳课程的教学系统 |
CN105244021B (zh) * | 2015-11-04 | 2019-02-12 | 厦门大学 | 哼唱旋律到midi旋律的转换方法 |
CN107146631B (zh) * | 2016-02-29 | 2020-11-10 | 北京搜狗科技发展有限公司 | 音乐识别方法、音符识别模型建立方法、装置及电子设备 |
CN106097828B (zh) * | 2016-08-12 | 2019-05-07 | 淮阴师范学院 | 一种声乐教学演唱技能检测系统 |
CN106375780B (zh) * | 2016-10-20 | 2019-06-04 | 腾讯音乐娱乐(深圳)有限公司 | 一种多媒体文件生成方法及其设备 |
CN106782460B (zh) * | 2016-12-26 | 2018-10-30 | 广州酷狗计算机科技有限公司 | 生成乐谱的方法和装置 |
CN108257588B (zh) * | 2018-01-22 | 2022-03-01 | 姜峰 | 一种谱曲方法及装置 |
CN110379400B (zh) * | 2018-04-12 | 2021-09-24 | 森兰信息科技(上海)有限公司 | 一种用于生成乐谱的方法及系统 |
WO2019196052A1 (en) | 2018-04-12 | 2019-10-17 | Sunland Information Technology Co., Ltd. | System and method for generating musical score |
CN109801645B (zh) * | 2019-01-21 | 2021-11-26 | 深圳蜜蜂云科技有限公司 | 一种乐音识别方法 |
CN109920449B (zh) * | 2019-03-18 | 2022-03-04 | 广州市百果园网络科技有限公司 | 节拍分析方法、音频处理方法及装置、设备、介质 |
CN110211553B (zh) * | 2019-06-06 | 2023-04-11 | 哈尔滨工业大学 | 一种基于变邻域搜索与掩蔽效应的音乐生成方法 |
CN113744764B (zh) * | 2019-09-02 | 2024-04-26 | 深圳市平均律科技有限公司 | 一种演奏时值信息与曲谱时值信息最优比对路径的获得方法 |
CN110675845A (zh) * | 2019-09-25 | 2020-01-10 | 杨岱锦 | 人声哼唱精确识别算法及数字记谱方法 |
CN111863026B (zh) * | 2020-07-27 | 2024-05-03 | 北京世纪好未来教育科技有限公司 | 键盘乐器弹奏音乐的处理方法、装置、电子装置 |
CN112071287A (zh) * | 2020-09-10 | 2020-12-11 | 北京有竹居网络技术有限公司 | 用于生成歌谱的方法、装置、电子设备和计算机可读介质 |
CN113658481B (zh) * | 2021-08-06 | 2023-02-14 | 安徽多效信息科技有限公司 | 一种基于深度学习的钢琴弹奏识别方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5038658A (en) * | 1988-02-29 | 1991-08-13 | Nec Home Electronics Ltd. | Method for automatically transcribing music and apparatus therefore |
CN1607575A (zh) * | 2003-10-16 | 2005-04-20 | 扬智科技股份有限公司 | 哼唱编曲系统及其方法 |
CN101093661A (zh) * | 2006-06-23 | 2007-12-26 | 凌阳科技股份有限公司 | 一种音高跟踪和播放方法及其系统 |
CN101471074A (zh) * | 2007-12-28 | 2009-07-01 | 英华达(南京)科技有限公司 | 电子装置将语音转为乐谱的方法 |
CN101916250A (zh) * | 2010-04-12 | 2010-12-15 | 电子科技大学 | 一种基于哼唱的音乐检索方法 |
CN102664016A (zh) * | 2012-04-23 | 2012-09-12 | 安徽科大讯飞信息科技股份有限公司 | 唱歌评测方法及系统 |
CN102682752A (zh) * | 2011-03-07 | 2012-09-19 | 卡西欧计算机株式会社 | 乐谱信息生成装置及其方法、乐音生成控制装置及其方法 |
CN102956224A (zh) * | 2011-08-26 | 2013-03-06 | 雅马哈株式会社 | 乐曲生成装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8468014B2 (en) * | 2007-11-02 | 2013-06-18 | Soundhound, Inc. | Voicing detection modules in a system for automatic transcription of sung or hummed melodies |
-
2014
- 2014-02-26 CN CN201410066451.5A patent/CN103824565B/zh not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5038658A (en) * | 1988-02-29 | 1991-08-13 | Nec Home Electronics Ltd. | Method for automatically transcribing music and apparatus therefore |
CN1607575A (zh) * | 2003-10-16 | 2005-04-20 | 扬智科技股份有限公司 | 哼唱编曲系统及其方法 |
CN101093661A (zh) * | 2006-06-23 | 2007-12-26 | 凌阳科技股份有限公司 | 一种音高跟踪和播放方法及其系统 |
CN101471074A (zh) * | 2007-12-28 | 2009-07-01 | 英华达(南京)科技有限公司 | 电子装置将语音转为乐谱的方法 |
CN101916250A (zh) * | 2010-04-12 | 2010-12-15 | 电子科技大学 | 一种基于哼唱的音乐检索方法 |
CN102682752A (zh) * | 2011-03-07 | 2012-09-19 | 卡西欧计算机株式会社 | 乐谱信息生成装置及其方法、乐音生成控制装置及其方法 |
CN102956224A (zh) * | 2011-08-26 | 2013-03-06 | 雅马哈株式会社 | 乐曲生成装置 |
CN102664016A (zh) * | 2012-04-23 | 2012-09-12 | 安徽科大讯飞信息科技股份有限公司 | 唱歌评测方法及系统 |
Non-Patent Citations (1)
Title |
---|
"一种高效的基于CHMM的哼唱式旋律检索方法";徐明等;《第三届全国数字误乐与艺术暨数字家庭交互应用技术与设计学术研讨会论文集》;20071031;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN103824565A (zh) | 2014-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103824565B (zh) | 一种基于音符和时值建模的哼唱识谱方法及系统 | |
CN103823867B (zh) | 一种基于音符建模的哼唱式音乐检索方法及系统 | |
Fan et al. | Example-based automatic music-driven conventional dance motion synthesis | |
CN109166564A (zh) | 为歌词文本生成乐曲的方法、装置及计算机可读存储介质 | |
CN102664016B (zh) | 唱歌评测方法及系统 | |
CN105070298B (zh) | 复调乐器的评分方法和装置 | |
Wang et al. | LyricAlly: automatic synchronization of acoustic musical signals and textual lyrics | |
CN106649644B (zh) | 一种歌词文件生成方法及装置 | |
CN107316638A (zh) | 一种诗词背诵评测方法及系统、一种终端及存储介质 | |
CN106991163A (zh) | 一种基于演唱者声音特质的歌曲推荐方法 | |
CN104978884A (zh) | 一种学前教育专业学生学习乐理视唱练耳课程的教学系统 | |
CN103915093B (zh) | 一种实现语音歌唱化的方法和装置 | |
CN102253976B (zh) | 一种用于口语学习的元数据处理方法和系统 | |
CN107993636B (zh) | 基于递归神经网络的乐谱建模与生成方法 | |
CN109326280B (zh) | 一种歌唱合成方法及装置、电子设备 | |
CN107704631B (zh) | 一种基于众包的音乐标注原子库的构建方法 | |
Liang et al. | Procedural content generation of rhythm games using deep learning methods | |
CN113192471A (zh) | 一种基于神经网络的乐曲主旋律音轨识别方法 | |
CN101968958A (zh) | 一种音频数据的比较方法和装置 | |
CN105895079B (zh) | 语音数据的处理方法和装置 | |
CN107507627B (zh) | 语音数据热度分析方法及系统 | |
Schramm et al. | Automatic Solfège Assessment. | |
Holzapfel et al. | Bayesian meter tracking on learned signal representations | |
CN110299049A (zh) | 一种电子乐谱的智能展现方法 | |
Kohlsdorf et al. | Feature Learning and Automatic Segmentation for Dolphin Communication Analysis. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170215 Termination date: 20200226 |
|
CF01 | Termination of patent right due to non-payment of annual fee |