CN110956870A - 一种视唱练耳教学方法及装置 - Google Patents
一种视唱练耳教学方法及装置 Download PDFInfo
- Publication number
- CN110956870A CN110956870A CN201911163379.7A CN201911163379A CN110956870A CN 110956870 A CN110956870 A CN 110956870A CN 201911163379 A CN201911163379 A CN 201911163379A CN 110956870 A CN110956870 A CN 110956870A
- Authority
- CN
- China
- Prior art keywords
- determining
- sound
- difficulty level
- exercise
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000002194 synthesizing effect Effects 0.000 claims description 11
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 description 20
- 230000002950 deficient Effects 0.000 description 19
- 238000001514 detection method Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 13
- 239000000919 ceramic Substances 0.000 description 12
- 238000012549 training Methods 0.000 description 12
- 210000001260 vocal cord Anatomy 0.000 description 12
- 230000007547 defect Effects 0.000 description 8
- 238000003062 neural network model Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 5
- 230000001755 vocal effect Effects 0.000 description 5
- 210000005069 ears Anatomy 0.000 description 4
- 239000002985 plastic film Substances 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B15/00—Teaching music
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
本发明公开了一种视唱练耳教学方法及装置,属于音乐器械技术领域。该方法包括:进入练习模式,播放目标难度等级对应的练习曲目,练习曲目由音色库中不同的音符构成;接收用户反馈的哼唱声音;根据预设模型,确定哼唱声音与练习曲目之间的偏差值,并给出指导意见。本发明可以针对每一个练习者,确定适合他的难度等级,进而播放适合他水平的练习曲目,这样既可以适用于初级音乐练习者,又可以适用于有一定音乐基础的练习者,适用范围广,针对性强。
Description
技术领域
本发明涉及音乐器械技术领域,特别涉及一种视唱练耳教学方法及装置。
背景技术
音乐是反映人类现实生活情感的一种艺术,可以陶冶情操,让人赏心悦目,并为大家带来听觉的享受。音乐可以分为声乐和器乐两大类型,声乐亦称艺术歌唱,是运用艺术化的语言与科学化的歌喉相结合,塑造出鲜明生动、悦耳动听的听觉形象——歌声,来表现语意高度凝炼的歌词,简言之,声乐是用人声唱出的带有语言的音乐。声乐教学,尤其是专业声乐教学,是通过基本技能及艺术实践知识的传授培养高等技术应用型人才,教学的一个最终目的是使学生具有较强的声乐、器乐表演能力和音乐鉴赏及辨别能力,掌握音乐作品的分析方法。
声乐教学不同于其他的学科,它是一种非常抽象性的教学。在声乐教学中,视唱练耳教学是非常重要的一个部分,视唱练耳就是学生聆听一个新的乐曲,学会并哼唱出来。现有技术中都是通过老师现场教学,对学生进行一对一的指导,也即是,学生先聆听新的乐曲,然后学会并唱出自己听到的乐曲,老师依靠自身的专业知识判断学生反馈的乐曲是否存在问题,并对学生进行指导。
然而,上述视唱练耳教学方法需要老师自己确定学生视唱练耳的缺陷并进行指导,不仅对老师的专业要求极高,且准确度不够;另外,当听课人员过多时,老师无法对每一个学生反馈的乐曲进行认真的评判,不能有针对性地对每个学生进行单独指导,影响教学质量和教学效果,且老师对学生一对一指导的效率极低。
发明内容
为了解决相关技术中视唱练耳教学的准确率较低和效率较低的问题,本发明实施例提供了一种视唱练耳教学方法及装置。所述技术方案如下:
根据本发明实施例的第一方面,提供一种视唱练耳教学方法,应用于视唱练耳教学装置中,所述方法包括:
进入练习模式,播放目标难度等级对应的练习曲目,所述练习曲目由音色库中不同的音符构成;
接收用户反馈的哼唱声音;
根据预设模型,确定所述哼唱声音与所述练习曲目之间的偏差值,并给出指导意见。
可选地,所述播放目标难度等级对应的练习曲目之前,还包括:
根据历史记录确定所述目标难度等级;或者,
接收用户选择的难度等级,并将所述用户选择的难度等级确定为所述目标难度等级;或者,
随机播放预设难度等级的试练曲目,接收用户反馈的试练声音,根据预设模型,确定所述试练声音与对应的试练曲目之间的偏差值,根据所述偏差值,确定出目标难度等级。
可选地,所述进入练习模式,播放目标难度等级对应的练习曲目之前,还包括:
接收用户录入的单个音符声音,并提取所述单个音符声音中的音频特征。
可选地,所述播放目标难度等级对应的练习曲目,包括:
根据所述目标难度等级,确定所需的目标音符;
从所述音色库中选择所述目标音符,即时合成音频流,并实时播放所述音频流,播放的每个所述音频流组合成所述练习曲目。
可选地,所述根据预设模型,确定所述哼唱声音与所述练习曲目之间的偏差值,并给出指导意见,包括:
将所述哼唱声音与所述音频特征共同输入预设音高确定模型,得到所述哼唱声音的音高;
将所述哼唱声音的音高和所述练习曲目共同输入预设声音比较模型,并将所述预设声音比较模型的输出确定为所述哼唱声音与所述练习曲目之间的偏差值;
根据预先存储的偏差值和指导意见之间的对应关系,确定出所述偏差值对应的指导意见。
根据本发明实施例的第二方面,提供一种视唱练耳教学装置,应用上述第一方面提供的视唱练耳教学方法,所述装置包括:
播放模块,用于进入练习模式,播放目标难度等级对应的练习曲目,所述练习曲目由音色库中不同的音符构成;
第一接收模块,用于接收用户反馈的哼唱声音;
第一确定模块,用于根据预设模型,确定所述哼唱声音与所述练习曲目之间的偏差值,并给出指导意见。
可选地,所述装置还包括:
第二确定模块,用于根据历史记录确定所述目标难度等级;
第三确定模块,用于接收用户选择的难度等级,并将所述用户选择的难度等级确定为所述目标难度等级;
第四确定模块,用于随机播放预设难度等级的试练曲目,接收用户反馈的试练声音,根据预设模型,确定所述试练声音与对应的试练曲目之间的偏差值,根据所述偏差值,确定出目标难度等级。
可选地,所述装置还包括:
第二接收模块,用于接收用户录入的单个音符声音,并提取所述单个音符声音中的音频特征。
可选地,所述播放模块包括:
第一确定子模块,用于根据所述目标难度等级,确定所需的目标音符;
合成子模块,用于从所述音色库中选择所述目标音符,即时合成音频流,并实时播放所述音频流,播放的每个所述音频流组合成所述练习曲目。
可选地,所述第一确定模块包括:
第一输入子模块,用于将所述哼唱声音与所述音频特征共同输入预设音高确定模型,得到所述哼唱声音的音高;
第二输入子模块,用于将所述哼唱声音的音高和所述练习曲目共同输入预设声音比较模型,并将所述预设声音比较模型的输出确定为所述哼唱声音与所述练习曲目之间的偏差值;
第二确定子模块,用于根据预先存储的偏差值和指导意见之间的对应关系,确定出所述偏差值对应的指导意见。
根据本发明实施例的第三方面,提供了一种装置,所述装置包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序代码,所述处理器执行所述程序代码时实现上述第一方面所述的方法。
根据本发明实施例的第四方面,提供了一种计算机可读存储介质,所述存储介质上存储有指令,所述指令被处理器执行时实现上述第一方面所述的方法的步骤。
本发明实施例提供的技术方案带来的有益效果是:
本发明实施例中采用的是即时合成音频流,以播放练习曲目的方法,并不直接合成完整的练习曲目,这样既可以根据练习者的不同水平,有针对性地即时合成练习曲目,又可以边合成边播放,练习者不需要等待过长的时间。其次,本发明实施例可以针对每一个练习者,确定适合他的难度等级,进而播放适合他水平的练习曲目,这样既可以适用于初级音乐练习者,又可以适用于有一定音乐基础的练习者,适用范围广,针对性强。另外,本发明实施例中在检测用户反馈的哼唱声音部分,采用了压电陶瓷片和音频检测相结合的方式,可以得到另外一些音频检测得不到的信息,避免了单个传感器检测声音所带来的不精确问题,使得最终检测到的用户反馈的哼唱声音更为准确。再者,本发明实施例中预先获取了练习者的音频特征,可以通过对比用户的音频特征、用户反馈的哼唱声音和练习曲目,确定哼唱声音与练习曲目之间的差距,加大了反馈声音识别的准确率,从而提高了视唱练耳的准确性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种视唱练耳教学方法的流程图;
图2是本发明实施例提供的另一种视唱练耳教学方法的流程图;
图3是本发明实施例提供的一种检测部分的结构示意图;
图4是本发明实施例提供的第一种视唱练耳教学装置的结构示意图;
图5是本发明实施例提供的第二种视唱练耳教学装置的结构示意图;
图6是本发明实施例提供的第三种视唱练耳教学装置的结构示意图;
图7是本发明实施例提供的一种播放模块的结构示意图;
图8是本发明实施例提供的一种第一确定模块的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
为了便于理解,在对本发明实施例进行详细的解释说明之前,先对本发明实施例涉及的应用场景进行介绍。
在声乐教学中,视唱练耳教学是非常重要的一个部分,现有的教学方式都是通过老师现场教学,对学生进行一对一的指导,但是这种一对一的指导,对教师的要求极高,且效率较低。因此需要一种自动指导学生视唱练耳的方法及装置,本发明力图引入人工智能技术,通过神经网络分析用户反馈的声音和试练曲目之间的差距,从而得知每个用户视唱练耳的缺点,并给与相应的指导。
接下来将结合图1对本发明实施例提供的一种视唱练耳教学方法进行详细介绍。
图1是本发明实施例提供的一种视唱练耳教学方法的流程图。应用于视唱练耳教学装置中,参见图1,该方法包括以下步骤:
步骤101:进入练习模式,播放目标难度等级对应的练习曲目,练习曲目由音色库中不同的音符构成。
步骤102:接收用户反馈的哼唱声音。
步骤103:根据预设模型,确定哼唱声音与练习曲目之间的偏差值,并给出指导意见。
本发明实施例可以针对每一个练习者,确定适合他的难度等级,进而播放适合他水平的练习曲目,这样既可以适用于初级音乐练习者,又可以适用于有一定音乐基础的练习者,适用范围广,针对性强。
可选地,播放目标难度等级对应的练习曲目之前,还包括:
根据历史记录确定目标难度等级;或者,
接收用户选择的难度等级,并将用户选择的难度等级确定为目标难度等级;或者,
随机播放预设难度等级的试练曲目,接收用户反馈的试练声音,根据预设模型,确定试练声音与对应的试练曲目之间的偏差值,根据该偏差值,确定出目标难度等级。
可选地,进入练习模式,播放目标难度等级对应的练习曲目之前,还包括:
接收用户录入的单个音符声音,并提取单个音符声音中的音频特征。
可选地,播放目标难度等级对应的练习曲目,包括:
根据目标难度等级,确定所需的目标音符;
从音色库中选择目标音符,即时合成音频流,并实时播放该音频流,播放的每个音频流组合成练习曲目。
可选地,根据预设模型,确定哼唱声音与练习曲目之间的偏差值,并给出指导意见,包括:
将哼唱声音与音频特征共同输入预设音高确定模型,得到哼唱声音的音高;
将哼唱声音的音高和练习曲目共同输入预设声音比较模型,并将预设声音比较模型的输出确定为哼唱声音与练习曲目之间的偏差值;
根据预先存储的偏差值和指导意见之间的对应关系,确定出偏差值对应的指导意见。
上述所有可选技术方案,均可按照任意结合形成本发明的可选实施例,本发明实施例对此不再一一赘述。
图2是本发明实施例提供的一种视唱练耳教学方法的流程图。本发明实施例将结合图2对图1提供的实施例进行展开论述。应用于视唱练耳教学装置中,参见图2,该方法包括以下步骤:
步骤201:接收用户录入的单个音符声音,并提取单个音符声音中的音频特征。
具体地,视唱练耳教学装置先播放单个音符,并接收用户录入的单个音符的声音,将该声音输入预设特征提取模型,该预设特征提取模型的输出就是用户录入的单个音符声音中的音频特征。
其中,预设特征提取模型是一种深度神经网络模型,将用户录入的单个音符声音输入该深度神经网络模型后,通过该深度神经网络模型中的各个分析层对输入的声音进行分析,可以提取得用户输入的单个音符声音的音频特征。
需要说明的是,深度神经网络模型是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型,由大量的节点(或称神经元)相互联接构成,这种网络模型依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的,并具有自学习和自适应的能力。
另外,在将该声音输入预设特征提取模型之前,还可以先对神经网络进行训练,以得到该预设特征提取模型,具体的训练过程和后述训练预设声音比较模型、预设音高确定模型的具体过程相类似,后续再进行详细论述。
步骤202:进入练习模式,播放目标难度等级对应的练习曲目,练习曲目由音色库中不同的音符构成。
具体地,当进入练习模式,并确定目标难度等级之后,视唱练耳教学装置可以根据目标难度等级,确定所需的目标音符,然后从音色库中选择目标音符,即时合成音频流,并实时播放该音频流,播放的每个音频流组合成练习曲目。
需要说明的是,视唱练耳教学装置可以预先存储有音色库和MIDI(MusicalInstrument Digital Interface,乐器数字接口)指令,音色库中存储有各个音符,当需要合成练习曲目时,对MIDI进行即时合成形成音频流,按序播放每个音频流,播放的每个音频流组合起来就是练习曲目。
其中,MIDI指令属于二进制文件,这种文件一般都包括文件头和数据描述,与波形文件不同,MIDI文件不对音乐进行抽样,而是对音乐的每个音符记录为一个数字,所以与波形文件相比,文件要小得多,可以满足长时间音乐的需要;另外,MIDI标准规定了各种音调的混合及发音,通过输出装置可以将这些数字重新合成为音乐。
另外,根据目标难度等级,确定所需的目标音符的具体实现过程可以为:根据预先存储的难度等级和音符之间的对应关系,确定出目标难度等级对应的目标音符。
示例的,假设确定出的目标难度等级为A,预先存储的难度等级和音符之间的对应关系如下表1所示,通过下述表1,查找到难度等级A对应的音符为音符组合X,也即难度等级A对应的目标音符为音符组合X。
表1难度等级和音符之间的对应关系
难度等级 | 音符 |
A | 音符组合X |
B | 音符组合Y |
C | 音符组合Z |
需要说明的是,本发明实施例仅以上述表1所示的难度等级和音符之间的对应关系为例进行说明,上述表1并不对本发明实施例构成限定。
值得说明的是,现有技术中通常是先合成好多首曲目作为练习曲目,再以WAV或MP3的形式播放,这种方式合成的曲目有限,只能在有限固定好的曲目中进行挑选,具有很大的限制,不能根据练习者的水平灵活调整播放的练习曲目;或者,现有技术中往往是合成完整首曲目之后,再完整播放合成好的曲目,合成一首完整的曲目是需要大量的时间的,因而练习者需要长时间的等待,不利于练习者练习。而本发明中则是采用即时合成音频流的方法,具体地,本发明并不直接合成完整的练习曲目,而是合成多个小的音频流,合成一个小的音频流花费的时间较少,当第一个音频流合成后,就会直接先播放该音频流,在播放该音频流的同时继续合成第二个音频流,当第一个音频流播放完毕后,第二个音频流也刚好合成完毕,可以接着播放,如此就可以播放完整的练习曲目,这样既可以根据练习者的不同水平,有针对性地即时合成练习曲目,又可以边合成边播放,练习者也不需要等待过长的时间。
进一步地,在播放目标难度等级对应的练习曲目之前,还可以确定目标难度等级,具体地,根据历史记录确定目标难度等级;或者,接收用户选择的难度等级,并将用户选择的难度等级确定为目标难度等级;或者,随机播放预设难度等级的试练曲目,接收用户反馈的试练声音,根据预设模型,确定试练声音与对应的试练曲目之间的偏差值,根据该偏差值,确定出目标难度等级。
需要说明的是,当用户之前使用过该视唱练耳教学装置时,该视唱练耳教学装置中会有历史记录,可以根据历史记录清楚的知道该练习者上次的练习情况,获知其之前练习的难度等级,以及其练习成果,判断本次是直接继续练习上次的难度等级,还是直接进行下一难度等级的练习,进而确定出本次练习的目标难度等级。
其中,根据历史记录确定目标难度等级的具体实现过程可以为:调用练习者上次的练习数据,从该练习数据中获取上次练习的难度等级,并查看用户最后反馈的哼唱声音与练习曲目之间的偏差值,当该偏差值小于预设数值时,说明上次难度等级对应的练习曲目,练习者已经练习好了,需要开始练习更难一点的曲目,此时将比上次的难度等级难一级的等级确定为本次的目标难度等级,当该偏差值大于预设数值时,说明上次难度等级对应的练习曲目,练习者并没有练习好,需要再进一步进行练习巩固,此时直接将上一次的难度等级确定为本次的目标难度等级。
需要说明的是,不仅可以根据历史记录确定目标难度等级,用户还可以手动选择相应的难度等级,此时视唱练耳教学装置可以直接接收用户选择的难度等级,并将用户选择的难度等级确定为目标难度等级。
另外,当用户之前从未使用过该视唱练耳教学装置时,该视唱练耳教学装置中不会有历史记录,因而必须要先进行分析,才能确定出练习者的水平,进而确定相应的目标难度等级,所以当练习者第一次使用该视唱练耳教学装置时,视唱练耳教学装置会先随机播放预设难度等级的试练曲目,并接收用户反馈的试练声音,然后就可以根据预设模型,确定出试练声音与对应的试练曲目之间的偏差值,再根据该偏差值,确定出目标难度等级。
其中,随机播放预设难度等级的试练曲目的具体实现过程和上述播放目标难度等级对应的练习曲目的具体实现过程相类似,本发明在此不再赘述。另外,接收用户反馈的试练声音,根据预设模型,确定试练声音与对应的试练曲目之间的偏差值的具体实现过程与接收用户反馈的哼唱声音,根据预设模型,确定该哼唱声音与练习曲目之间的偏差值的具体实现过程也相类似,本发明后续再进行详细介绍。
再者,根据偏差值,确定出目标难度等级的具体实现过程可以为:根据预先存储的偏差值和难度等级之间的对应关系,确定出该偏差值对应的目标难度等级。
示例的,假设确定出的偏差值为a,预先存储的偏差值和难度等级之间的对应关系如下表2所示,通过下述表2,查找到偏差值a对应的难度等级为A,也即偏差值a对应的难度等级为A。
表2偏差值和难度等级之间的对应关系
偏差值 | 难度等级 |
a | A |
b | B |
k | C |
需要说明的是,本发明实施例仅以上述表2所示的偏差值和难度等级之间的对应关系为例进行说明,上述表2并不对本发明实施例构成限定。
值得说明的是,当练习者第一次使用该视唱练耳教学装置时,本发明可以通过试练曲目,测试练习者的水平,以确定出适合难度的练习曲目,供练习者练习;当练习者不是第一次使用该视唱练耳教学装置时,可以直接根据历史记录确定本次练习的目标难度等级,进而可以播放适合练习者练习进度的练习曲目,且练习者不需要每次使用都进行试练,使得该视唱练耳教学装置具有记忆功能,方便练习者长期进行练习;再者,如果该视唱练耳装置自动确定出的目标难度等级不符合练习者的要求,练习者也可以自行选择,灵活度和实用度均大大提高。总而言之,本发明提供的视唱练耳教学方法,可以针对每一个练习者,确定适合他的难度等级,进而播放适合他水平的练习曲目,这样既可以适用于初级音乐练习者,又可以适用于有一定音乐基础的练习者,适用范围广,针对性强。
步骤203:接收用户反馈的哼唱声音。
具体地,通过压电陶瓷片检测用户在视唱练耳时声带产生的振动信息,并通过mic检测用户在视唱练耳时产生的音频信息,将该振动信息和该音频信息共同确定为用户反馈的哼唱声音。
其中,参见图3,检测振动部分由一块弧形塑料片构成,该塑料片上有多个压电陶瓷片,需要进行视唱练耳的用户将该检测振动部分佩戴在声带的位置处,当声带产生振动时,振动会传递到该弧形塑料片上,进而传递到该弧形塑料片上的压电陶瓷片上,使得压电陶瓷片可以准确检测到用户在视唱练耳时,声带产生的振动信息。
需要说明的是,压电陶瓷片具有敏感的特性,可以将极其微弱的机械振动转换成电信号,因而将由压电陶瓷片组成的检测部分佩戴在声带上之后,检测部分上的压电陶瓷片就可以检测到声带的振动,并将其检测到的振动转换成电信号,从而得到振动信息。
其中,通过mic检测用户在视唱练耳时产生的音频信息的具体实现过程可以为:用户可以手握mic,并将mic靠近嘴巴发音的位置处,以便用户在视唱练耳时产生的音频信息可以被mic收录。其中,mic收录用户产出的音频信息的原理可以参考现有技术中mic的工作原理,本发明在此不再进行赘述。
需要说明的是,由于用户在视唱练耳时,声带振动产生声音,也即声带振动和产生声音基本上是同时发生的,因而通过压电陶瓷片检测用户在视唱练耳时声带产生的振动信息和通过mic检测用户在视唱练耳时产生的音频信息是同步执行的,不分先后顺序。也就是说,在检测声带产生的振动信息的同时,通过mic检测用户视唱练耳产生的音频信息。
值得说明的是,声音本是由物体的振动产生的,振动信息往往可以反映音频信息中没有的其他信息,因而本发明实施例中在检测音频信号的同时,还检测了声带产生的振动信息,将音频信息和振动信息共同作为用户反馈的哼唱声音。相较于现有技术中仅仅使用mic录制成音频文件来检测用户视唱练耳反馈的声音,然后通过音频算法进行处理的方法,本发明实施例中直接检测声带的振动可以得到另外一些音频检测得不到的信息,避免了单个传感器检测声音所带来的不精确问题,使得最终检测到用户反馈的哼唱声音更为准确。
步骤204:根据预设模型,确定哼唱声音与练习曲目之间的偏差值,并给出指导意见。
具体地,将哼唱声音与音频特征共同输入预设音高确定模型,得到哼唱声音的音高,然后再将哼唱声音的音高和练习曲目共同输入预设声音比较模型,并将预设声音比较模型的输出确定为哼唱声音与练习曲目之间的偏差值,最后根据预先存储的偏差值和指导意见之间的对应关系,确定出偏差值对应的指导意见。
其中,预设音高确定模型和预设声音比较模型都是一种深度神经网络模型,将哼唱声音和音频特征一起输入预设音高确定模型后,通过该深度神经网络模型中的各个分析层对输入的声音进行分析,可以确定哼唱声音的音高,然后将该哼唱声音的音高和练习曲目一起输入预设声音比较模型后,通过该深度神经网络模型中的各个分析层对输入的声音进行分析,可以得到输入的哼唱声音的音高和练习曲目之间的差距,输出哼唱声音的音高与练习曲目之间的偏差值。
进一步地,将哼唱声音的音高和练习曲目共同输入预设声音比较模型之前,还可以先对神经网络进行训练,以得到该预设声音比较模型。具体地,先获取缺陷视唱练耳声音集和对应的练习曲目;然后通过该缺陷视唱练耳声音集和对应的练习曲目对神经网络的参数进行训练,将训练完成后得到的神经网络模型确定为该预设声音比较模型。
具体地,先对该缺陷视唱练耳声音集中的各个缺陷视唱练耳声音与对应的练习曲目之间的偏差值进行标注,然后将该缺陷视唱练耳声音集中的各个缺陷视唱练耳声音输入神经网络,根据该神经网络的输出与标注的偏差值之间的差值,调整该神经网络的参数,当该缺陷视唱练耳声音集中的各个缺陷视唱练耳声音输入该神经网络后,该神经网络的输出均与标注的偏差值之间的差值小于预设参数阈值时,将该神经网络确定为预设声音比较模型。
其中,预设参数阈值是判断神经网络参数训练程度的一个标准,该预设参数阈值可以预先进行设置,其值越小,最后训练出的预设声音比较模型对输入的哼唱声音的音高和练习曲目之间的差别分析比较的准确率就越高。另外,为了保证预设声音比较模型分析比较输入的哼唱声音的音高和练习曲目之间的差别的准确率,需要大量的缺陷视唱练耳声音对神经网络进行训练,也即,用于训练神经网络的缺陷视唱练耳声音集中应该包含有大量的缺陷视唱练耳声音,且该缺陷视唱练耳声音集中包含的缺陷视唱练耳声音越多,最后训练出的预设声音比较模型分析的准确率就越高。
例如,事先获取到3种有缺陷的视唱练耳声音分别为缺陷视唱练耳声音1、缺陷视唱练耳声音2、缺陷视唱练耳声音3,假设标注缺陷视唱练耳声音1与练习曲目之间的偏差值为0.7,缺陷视唱练耳声音2与练习曲目之间的偏差值为0.5,缺陷视唱练耳声音3与练习曲目之间的偏差值为0.1,将上述缺陷视唱练耳声音1、缺陷视唱练耳声音2、缺陷视唱练耳声音3分别多次输入神经网络中,调节该神经网络的参数,假设预设参数阈值为0.01,则当缺陷视唱练耳声音1输入该神经网络中,输出值的范围在0.69-0.71之间,当缺陷视唱练耳声音2输入该神经网络中,输出值的范围在0.49-0.51之间,当缺陷视唱练耳声音3输入该神经网络中,输出值的范围在0.09-0.11之间,即说明该神经网络训练完成。
需要说明的是,将哼唱声音与音频特征共同输入预设音高确定模型之前,也可以先对神经网络进行训练,以得到该预设声音比较模型,具体的训练过程与上述训练预设声音比较模型的过程相类似,本发明在此不再赘述。
另外,哼唱声音的音高与练习曲目之间的偏差值即代表了用户视唱练耳反馈的声音与试练曲目之间的差距,不同的差距对应有不同的指导意见。音乐专家可以预先给出偏差值与指导意见之间的对应关系。
例如,预先存储的偏差值与指导意见之间的对应关系如下表3所示,假设得到的偏差值为0.3,则根据表3确定出对应的指导意见为意见Y。
表3偏差值与指导意见之间的对应关系
偏差值 | 指导意见 |
0.0~0.2(包括上限值,不包括下限值) | 意见X |
0.2~0.4(包括上限值,不包括下限值) | 意见Y |
0.4~0.6(包括上限值,不包括下限值) | 意见Z |
0.6~0.8(包括上限值,不包括下限值) | 意见W |
0.8~1.0(包括上限值,不包括下限值) | 意见P |
需要说明的是,本发明实施例仅以上述表3所示的偏差值与指导意见之间的对应关系为例进行说明,上述表3并不对本发明实施例构成限定。
值得说明的是,传统的声音反馈机制,是通过一定的音频算法进行特征提取,忽略了用户的音频特征,本发明中在进行视唱练耳前,首先采集了用户录入的单个音符声音,并提取了音频特征,在接收到用户反馈的哼唱声音后,可以对比用户的音频特征以及当前反馈的哼唱声音,准确确定出用户反馈的哼唱声音的音高,然后再基于该音高确定与练习曲目的音高之间的差距,通过对比用户的音频特征和用户反馈的哼唱声音,加大了反馈声音识别的准确率,从而提高了视唱练耳的准确性。
本发明实施例中采用的是即时合成音频流,以播放练习曲目的方法,并不直接合成完整的练习曲目,这样既可以根据练习者的不同水平,有针对性地即时合成练习曲目,又可以边合成边播放,练习者不需要等待过长的时间。其次,本发明实施例可以针对每一个练习者,确定适合他的难度等级,进而播放适合他水平的练习曲目,这样既可以适用于初级音乐练习者,又可以适用于有一定音乐基础的练习者,适用范围广,针对性强。另外,本发明实施例中在检测用户反馈的哼唱声音部分,采用了压电陶瓷片和音频检测相结合的方式,可以得到另外一些音频检测得不到的信息,避免了单个传感器检测声音所带来的不精确问题,使得最终检测到的用户反馈的哼唱声音更为准确。再者,本发明实施例中预先获取了练习者的音频特征,可以通过对比用户的音频特征、用户反馈的哼唱声音和练习曲目,确定哼唱声音与练习曲目之间的差距,加大了反馈声音识别的准确率,从而提高了视唱练耳的准确性。
接下来对本发明实施例提供的一种视唱练耳教学装置进行介绍。
图4是本发明实施例提供的一种视唱练耳教学装置的结构示意图。参见图4,该装置应用上述图1-图2所述的视唱练耳教学方法,该装置包括播放模块401、第一接收模块402和第一确定模块403。
播放模块401,用于进入练习模式,播放目标难度等级对应的练习曲目,练习曲目由音色库中不同的音符构成。
第一接收模块402,用于接收用户反馈的哼唱声音。
第一确定模块403,用于根据预设模型,确定哼唱声音与练习曲目之间的偏差值,并给出指导意见。
可选地,参见图5,该装置还包括:
第二确定模块404,用于根据历史记录确定目标难度等级。
第三确定模块405,用于接收用户选择的难度等级,并将用户选择的难度等级确定为目标难度等级。
第四确定模块406,用于随机播放预设难度等级的试练曲目,接收用户反馈的试练声音,根据预设模型,确定试练声音与对应的试练曲目之间的偏差值,根据偏差值,确定出目标难度等级。
可选地,参见图6,该装置还包括:
第二接收模块407,用于接收用户录入的单个音符声音,并提取单个音符声音中的音频特征。
可选地,参见图7,播放模块401包括:
第一确定子模块4011,用于根据目标难度等级,确定所需的目标音符。
合成子模块4012,用于从音色库中选择目标音符,即时合成音频流,并实时播放音频流,播放的每个音频流组合成练习曲目。
可选地,参见图8,第一确定模块403包括:
第一输入子模块4031,用于将哼唱声音与音频特征共同输入预设音高确定模型,得到哼唱声音的音高。
第二输入子模块4032,用于将哼唱声音的音高和练习曲目共同输入预设声音比较模型,并将预设声音比较模型的输出确定为哼唱声音与练习曲目之间的偏差值。
第二确定子模块4033,用于根据预先存储的偏差值和指导意见之间的对应关系,确定出偏差值对应的指导意见。
本发明实施例中采用的是即时合成音频流,以播放练习曲目的方法,并不直接合成完整的练习曲目,这样既可以根据练习者的不同水平,有针对性地即时合成练习曲目,又可以边合成边播放,练习者不需要等待过长的时间。其次,本发明实施例可以针对每一个练习者,确定适合他的难度等级,进而播放适合他水平的练习曲目,这样既可以适用于初级音乐练习者,又可以适用于有一定音乐基础的练习者,适用范围广,针对性强。另外,本发明实施例中在检测用户反馈的哼唱声音部分,采用了压电陶瓷片和音频检测相结合的方式,可以得到另外一些音频检测得不到的信息,避免了单个传感器检测声音所带来的不精确问题,使得最终检测到的用户反馈的哼唱声音更为准确。再者,本发明实施例中预先获取了练习者的音频特征,可以通过对比用户的音频特征、用户反馈的哼唱声音和练习曲目,确定哼唱声音与练习曲目之间的差距,加大了反馈声音识别的准确率,从而提高了视唱练耳的准确性。
需要说明的是:上述实施例提供的视唱练耳教学装置在对反馈的哼唱声音进行分析以达到教学目的时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的视唱练耳教学装置与视唱练耳教学方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器,上述指令可由装置的处理器执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
也即是,该计算机可读存储介质中的指令由装置的处理器执行时,可以实现上述图1或图2实施例提供的视唱练耳教学方法。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种视唱练耳教学方法,应用于视唱练耳教学装置中,其特征在于,所述方法包括:
进入练习模式,播放目标难度等级对应的练习曲目,所述练习曲目由音色库中不同的音符构成;
接收用户反馈的哼唱声音;
根据预设模型,确定所述哼唱声音与所述练习曲目之间的偏差值,并给出指导意见。
2.根据权利要求1所述的视唱练耳教学方法,其特征在于,所述播放目标难度等级对应的练习曲目之前,还包括:
根据历史记录确定所述目标难度等级;或者,
接收用户选择的难度等级,并将所述用户选择的难度等级确定为所述目标难度等级;或者,
随机播放预设难度等级的试练曲目,接收用户反馈的试练声音,根据预设模型,确定所述试练声音与对应的试练曲目之间的偏差值,根据所述偏差值,确定出目标难度等级。
3.根据权利要求1所述的视唱练耳教学方法,其特征在于,所述进入练习模式,播放目标难度等级对应的练习曲目之前,还包括:
接收用户录入的单个音符声音,并提取所述单个音符声音中的音频特征。
4.根据权利要求1所述的视唱练耳教学方法,其特征在于,所述播放目标难度等级对应的练习曲目,包括:
根据所述目标难度等级,确定所需的目标音符;
从所述音色库中选择所述目标音符,即时合成音频流,并实时播放所述音频流,播放的每个所述音频流组合成所述练习曲目。
5.根据权利要求3所述的视唱练耳教学方法,其特征在于,所述根据预设模型,确定所述哼唱声音与所述练习曲目之间的偏差值,并给出指导意见,包括:
将所述哼唱声音与所述音频特征共同输入预设音高确定模型,得到所述哼唱声音的音高;
将所述哼唱声音的音高和所述练习曲目共同输入预设声音比较模型,并将所述预设声音比较模型的输出确定为所述哼唱声音与所述练习曲目之间的偏差值;
根据预先存储的偏差值和指导意见之间的对应关系,确定出所述偏差值对应的指导意见。
6.一种视唱练耳教学装置,应用上述权利要求1-5所述的视唱练耳教学方法,其特征在于,所述装置包括:
播放模块,用于进入练习模式,播放目标难度等级对应的练习曲目,所述练习曲目由音色库中不同的音符构成;
第一接收模块,用于接收用户反馈的哼唱声音;
第一确定模块,用于根据预设模型,确定所述哼唱声音与所述练习曲目之间的偏差值,并给出指导意见。
7.根据权利要求6所述的视唱练耳教学装置,其特征在于,所述装置还包括:
第二确定模块,用于根据历史记录确定所述目标难度等级;
第三确定模块,用于接收用户选择的难度等级,并将所述用户选择的难度等级确定为所述目标难度等级;
第四确定模块,用于随机播放预设难度等级的试练曲目,接收用户反馈的试练声音,根据预设模型,确定所述试练声音与对应的试练曲目之间的偏差值,根据所述偏差值,确定出目标难度等级。
8.根据权利要求6所述的视唱练耳教学装置,其特征在于,所述装置还包括:
第二接收模块,用于接收用户录入的单个音符声音,并提取所述单个音符声音中的音频特征。
9.根据权利要求6所述的视唱练耳教学装置,其特征在于,所述播放模块包括:
第一确定子模块,用于根据所述目标难度等级,确定所需的目标音符;
合成子模块,用于从所述音色库中选择所述目标音符,即时合成音频流,并实时播放所述音频流,播放的每个所述音频流组合成所述练习曲目。
10.根据权利要求8所述的视唱练耳教学装置,其特征在于,所述第一确定模块包括:
第一输入子模块,用于将所述哼唱声音与所述音频特征共同输入预设音高确定模型,得到所述哼唱声音的音高;
第二输入子模块,用于将所述哼唱声音的音高和所述练习曲目共同输入预设声音比较模型,并将所述预设声音比较模型的输出确定为所述哼唱声音与所述练习曲目之间的偏差值;
第二确定子模块,用于根据预先存储的偏差值和指导意见之间的对应关系,确定出所述偏差值对应的指导意见。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911163379.7A CN110956870A (zh) | 2019-11-25 | 2019-11-25 | 一种视唱练耳教学方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911163379.7A CN110956870A (zh) | 2019-11-25 | 2019-11-25 | 一种视唱练耳教学方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110956870A true CN110956870A (zh) | 2020-04-03 |
Family
ID=69978231
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911163379.7A Pending CN110956870A (zh) | 2019-11-25 | 2019-11-25 | 一种视唱练耳教学方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110956870A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112598961A (zh) * | 2020-12-18 | 2021-04-02 | 上海妙克信息科技有限公司 | 钢琴演奏学习方法、电子设备及计算机可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101474481A (zh) * | 2009-01-12 | 2009-07-08 | 北京科技大学 | 情感机器人系统 |
CN105427708A (zh) * | 2015-12-10 | 2016-03-23 | 华北水利水电大学 | 一种声乐发音训练系统 |
CN108419096A (zh) * | 2018-02-26 | 2018-08-17 | 浙江创课教育科技有限公司 | 语音智能播放方法及系统 |
US20180308382A1 (en) * | 2015-10-25 | 2018-10-25 | Morel KOREN | A system and method for computer-assisted instruction of a music language |
CN109191995A (zh) * | 2018-10-29 | 2019-01-11 | 程建玲 | 一种钢琴练习系统 |
CN110489454A (zh) * | 2019-07-29 | 2019-11-22 | 北京大米科技有限公司 | 一种自适应测评方法、装置、存储介质及电子设备 |
-
2019
- 2019-11-25 CN CN201911163379.7A patent/CN110956870A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101474481A (zh) * | 2009-01-12 | 2009-07-08 | 北京科技大学 | 情感机器人系统 |
US20180308382A1 (en) * | 2015-10-25 | 2018-10-25 | Morel KOREN | A system and method for computer-assisted instruction of a music language |
CN105427708A (zh) * | 2015-12-10 | 2016-03-23 | 华北水利水电大学 | 一种声乐发音训练系统 |
CN108419096A (zh) * | 2018-02-26 | 2018-08-17 | 浙江创课教育科技有限公司 | 语音智能播放方法及系统 |
CN109191995A (zh) * | 2018-10-29 | 2019-01-11 | 程建玲 | 一种钢琴练习系统 |
CN110489454A (zh) * | 2019-07-29 | 2019-11-22 | 北京大米科技有限公司 | 一种自适应测评方法、装置、存储介质及电子设备 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112598961A (zh) * | 2020-12-18 | 2021-04-02 | 上海妙克信息科技有限公司 | 钢琴演奏学习方法、电子设备及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10964298B2 (en) | Network musical instrument | |
Corey | Audio production and critical listening: Technical ear training | |
Yamada et al. | A rhythm practice support system with annotation-free real-time onset detection | |
CN106531185B (zh) | 基于语音相似度的语音评测方法及系统 | |
Gupta et al. | Perceptual evaluation of singing quality | |
US9613542B2 (en) | Sound source evaluation method, performance information analysis method and recording medium used therein, and sound source evaluation apparatus using same | |
Williamson et al. | Musicians’ memory for verbal and tonal materials under conditions of irrelevant sound | |
Atkins | Focus of attention in singing: Expert listeners' descriptions of change in trained singers' tone quality. | |
JP5346114B1 (ja) | 音楽表現力の教育装置及び方法並びに音楽演奏評価装置 | |
CN110956870A (zh) | 一种视唱练耳教学方法及装置 | |
CN115331648A (zh) | 音频数据处理方法、装置、设备、存储介质及产品 | |
Mang | Effects of musical experience on singing achievement | |
Jiang | Using pitch feature matching to design a music tutoring system based on deep learning | |
Mitchell et al. | Can experts identify “open throat” technique as a perceptual phenomenon? | |
Stavropoulou et al. | The Effectiveness of visual feedback singing vocal technology in Greek Elementary School | |
JP2008040258A (ja) | 楽曲練習支援装置、動的時間整合モジュールおよびプログラム | |
Lazoryszczak | Spectral features in the singing voice evaluation using simulated imperfections | |
Daffern | Distinguishing characteristics of vocal techniques in the specialist performance of early music | |
Arora et al. | Automatic Detection and Analysis of Singing Mistakes for Music Pedagogy | |
JP2004334164A (ja) | 英語の音素「l」及び「r」の発音及び識別学習装置 | |
Gupta | Comprehensive evaluation of singing quality | |
Tsabary | Electroacoustic ear training | |
CN114758560B (zh) | 一种基于动态时间规整的哼唱音准评价方法 | |
JPS60201376A (ja) | 発声訓練機 | |
CN110648566A (zh) | 一种演唱教学方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |