CN110648566A - 一种演唱教学方法及装置 - Google Patents
一种演唱教学方法及装置 Download PDFInfo
- Publication number
- CN110648566A CN110648566A CN201910868956.6A CN201910868956A CN110648566A CN 110648566 A CN110648566 A CN 110648566A CN 201910868956 A CN201910868956 A CN 201910868956A CN 110648566 A CN110648566 A CN 110648566A
- Authority
- CN
- China
- Prior art keywords
- singing
- user
- voice
- singing voice
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 230000007547 defect Effects 0.000 claims description 51
- 238000001514 detection method Methods 0.000 claims description 29
- 239000000919 ceramic Substances 0.000 claims description 18
- 210000001260 vocal cord Anatomy 0.000 claims description 18
- 230000001755 vocal effect Effects 0.000 abstract description 21
- 230000000694 effects Effects 0.000 abstract description 6
- 230000002950 deficient Effects 0.000 description 52
- 238000013528 artificial neural network Methods 0.000 description 40
- 238000012549 training Methods 0.000 description 26
- 238000003062 neural network model Methods 0.000 description 17
- 238000004458 analytical method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 5
- 239000002985 plastic film Substances 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000012958 reprocessing Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B15/00—Teaching music
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
本发明公开了一种演唱教学方法及装置,属于音乐器械技术领域。该方法包括:检测用户演唱声音,并获取对应的标准演唱声音;根据预设声音比较模型,确定用户演唱声音与标准演唱声音之间的偏差值;通过预设声音补偿模型,补偿用户演唱声音,得到用户最终演唱声音,并播放该用户最终演唱声音。本发明可以自动对用户演唱声音进行分析比较,得到用户演唱声音和标准演唱声音之间的差距,并自动对用户演唱声音进行补偿,得到完美的演唱声音进行播放,用户不需要聘请专业的声乐老师,即可得到专业的指导,降低了用户学习声乐的成本,提高了学习声乐的效果和乐趣。
Description
技术领域
本发明涉及音乐器械技术领域,特别涉及一种演唱教学方法及装置。
背景技术
音乐是反映人类现实生活情感的一种艺术,可以陶冶情操,让人赏心悦目,并为大家带来听觉的享受。音乐可以分为声乐和器乐两大类型,声乐亦称艺术歌唱,是运用艺术化的语言与科学化的歌喉相结合,塑造出鲜明生动、悦耳动听的听觉形象——歌声,来表现语意高度凝炼的歌词,简言之,声乐是用人声唱出的带有语言的音乐。声乐教学,尤其是专业声乐教学,是通过基本技能及艺术实践知识的传授培养高等技术应用型人才,教学的一个最终目的是使学生具有较强的声乐、器乐表演能力和音乐鉴赏及辨别能力,掌握音乐作品的分析方法。
声乐教学不同于其他的学科,它是一种非常抽象性的教学。在声乐教学中,演唱教学是非常重要的一个部分,现有技术中都是通过老师现场教学,对学生进行一对一的指导,也即是,学生先聆听音乐的标准唱法,然后跟随音乐练习唱歌,老师依靠自身的专业知识去寻找学生演唱的声音和标准唱法的声音之间的差别,并对学生进行指导。
然而,上述声乐教学方法需要老师自己确定学生演唱的缺陷并进行指导,不仅对老师的专业要求极高,且准确度不够;另外,当听课人员过多时,老师无法对每一个学生的演唱进行认真的收听,不能有针对性地对每个学生进行单独指导,影响教学质量和教学效果,且老师对学生一对一指导的效率极低。
发明内容
为了解决相关技术中演唱教学的准确率较低和效率较低的问题,本发明实施例提供了一种演唱教学方法及装置。所述技术方案如下:
根据本发明实施例的第一方面,提供一种演唱教学方法,所述方法包括:
检测用户演唱声音,并获取对应的标准演唱声音;
根据预设声音比较模型,确定所述用户演唱声音与所述标准演唱声音之间的偏差值;
通过预设声音补偿模型,补偿所述用户演唱声音,得到用户最终演唱声音,并播放所述用户最终演唱声音。
可选地,所述检测用户演唱声音,包括:
通过压电陶瓷片检测用户在演唱时声带产生的振动信息;
通过mic(microphone,麦克风)检测用户演唱的音频信息;
将所述振动信息和所述音频信息确定为所述用户演唱声音。
可选地,所述获取对应的标准演唱声音,包括:
分析所述用户演唱声音,确定所述用户演唱声音所属的目标唱法,并将所述目标唱法对应的标准声音确定为标准演唱声音。
可选地,所述根据预设声音比较模型,确定所述用户演唱声音与所述标准演唱声音之间的偏差值,包括:
将所述用户演唱声音和所述标准演唱声音输入所述预设声音比较模型;
将所述预设声音比较模型的输出确定为所述用户演唱声音与所述标准演唱声音之间的偏差值。
可选地,所述根据预设声音比较模型,分析所述用户演唱声音与标准演唱声音之间的偏差值之前,还包括:
获取缺陷演唱声音集和对应的标准演唱声音;
通过所述缺陷演唱声音集和所述标准演唱声音对第一神经网络的参数进行训练,将训练完成后得到的第一神经网络模型确定为所述预设声音比较模型。
可选地,所述通过预设声音补偿模型,补偿所述用户演唱声音,得到用户最终演唱声音,包括:
将所述用户演唱声音和所述标准演唱声音输入所述预设声音补偿模型;
将所述预设声音补偿模型的输出确定为所述用户最终演唱声音。
可选地,所述通过预设声音补偿模型,补偿所述用户演唱声音之前,还包括:
获取缺陷演唱声音集和对应的标准演唱声音;
通过所述缺陷演唱声音集和所述标准演唱声音对第二神经网络的参数进行训练,将训练完成后得到的第二神经网络模型确定为所述预设声音补偿模型。
可选地,根据预设声音比较模型,确定所述用户演唱声音与所述标准演唱声音之间的偏差值之后,还包括:
根据所述偏差值,确定所述用户演唱声音的缺陷类型;
根据所述缺陷类型,确定对应的指导意见。
根据本发明实施例的第二方面,提供一种演唱教学装置,所述装置包括:
检测模块,用于检测用户演唱声音,并获取对应的标准演唱声音;
第一确定模块,用于根据预设声音比较模型,确定所述用户演唱声音与所述标准演唱声音之间的偏差值;
补偿模块,用于通过预设声音补偿模型,补偿所述用户演唱声音,得到用户最终演唱声音,并播放所述用户最终演唱声音。
可选地,所述检测模块包括:
第一检测子模块,用于通过压电陶瓷片检测用户在演唱时声带产生的振动信息;
第二检测子模块,用于通过mic检测用户演唱的音频信息;
第一确定子模块,用于将所述振动信息和所述音频信息确定为所述用户演唱声音。
可选地,所述检测模块还包括:
分析子模块,用于分析所述用户演唱声音,确定所述用户演唱声音所属的目标唱法,并将所述目标唱法对应的标准声音确定为标准演唱声音。
可选地,所述第一确定模块包括:
第一输入子模块,用于将所述用户演唱声音和所述标准演唱声音输入所述预设声音比较模型;
第二确定子模块,用于将所述预设声音比较模型的输出确定为所述用户演唱声音与所述标准演唱声音之间的偏差值。
可选地,所述装置还包括:
第一获取模块,用于获取缺陷演唱声音集和对应的标准演唱声音;
第一训练模块,用于通过所述缺陷演唱声音集和所述标准演唱声音对第一神经网络的参数进行训练,将训练完成后得到的第一神经网络模型确定为所述预设声音比较模型。
可选地,所述补偿模块包括:
第二输入子模块,用于将所述用户演唱声音和所述标准演唱声音输入所述预设声音补偿模型;
第三确定子模块,用于将所述预设声音补偿模型的输出确定为所述用户最终演唱声音。
可选地,所述装置还包括:
第二获取模块,用于获取缺陷演唱声音集和对应的标准演唱声音;
第二训练模块,用于通过所述缺陷演唱声音集和所述标准演唱声音对第二神经网络的参数进行训练,将训练完成后得到的第二神经网络模型确定为所述预设声音补偿模型。
可选地,所述装置还包括:
第二确定模块,用于根据所述偏差值,确定所述用户演唱声音的缺陷类型;
第三确定模块,用于根据所述缺陷类型,确定对应的指导意见。
根据本发明实施例的第三方面,提供了一种装置,所述装置包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序代码,所述处理器执行所述程序代码时实现上述第一方面所述的方法。
根据本发明实施例的第四方面,提供了一种计算机可读存储介质,所述存储介质上存储有指令,所述指令被处理器执行时实现上述第一方面所述的方法的步骤。
本发明实施例提供的技术方案带来的有益效果是:
本发明实施例中在检测用户演唱声音部分,采用了压电陶瓷片和音频检测相结合的方式,可以得到另外一些音频检测得不到的信息,避免了单个传感器检测声音所带来的不精确问题,使得最终检测到的用户演唱声音更为准确;进一步地,后续可以根据振动信息和音频信息综合确定用户演唱声音的缺陷,使得对用户演唱声音的分析更为准确;另外,本发明中对于用户演唱声音中的缺陷部分,并不是采用声音美化,而是采用声音补偿,即直接用标准唱法替换掉有缺陷的部分,从而使得得到的用户最终演唱声音更加贴近于标准演唱声音。综上所述,本发明可以自动对用户演唱声音进行分析比较,得到用户演唱声音和标准演唱声音之间的差距,告诉用户其演唱问题所在,并对用户演唱声音进行补偿,用户不需要聘请专业的声乐老师即可得到专业的指导,降低了用户学习声乐的成本,提高了学习声乐的效果和乐趣。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种演唱教学方法的流程图;
图2是本发明实施例提供的另一种演唱教学方法的流程图;
图3是本发明实施例提供的一种检测部分的结构示意图;
图4是本发明实施例提供的第一种演唱教学装置的结构示意图;
图5是本发明实施例提供的一种检测模块的结构示意图;
图6是本发明实施例提供的另一种检测模块的结构示意图;
图7是本发明实施例提供的一种第一确定模块的结构示意图;
图8是本发明实施例提供的第二种演唱教学装置的结构示意图;
图9是本发明实施例提供的一种补偿模块的结构示意图;
图10是本发明实施例提供的第三种演唱教学装置的结构示意图;
图11是本发明实施例提供的第四种演唱教学装置的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
为了便于理解,在对本发明实施例进行详细的解释说明之前,先对本发明实施例涉及的应用场景进行介绍。
在声乐教学中,演唱教学是非常重要的一个部分,现有的教学方式都是通过老师现场教学,对学生进行一对一的指导,但是这种一对一的指导,对教师的要求极高,且效率较低。因此需要一种自动指导学生演唱的方法及装置,本发明力图引入人工智能技术,通过神经网络分析用户不同的演唱缺陷和标准演唱的差距,从而得知每个用户的演唱缺点,并给与相应的指导。
接下来将结合图1对本发明实施例提供的演唱教学方法进行详细介绍。
图1是本发明实施例提供的一种演唱教学方法的流程图。参见图1,该方法包括以下步骤:
步骤101:检测用户演唱声音,并获取对应的标准演唱声音。
步骤102:根据预设声音比较模型,确定用户演唱声音与标准演唱声音之间的偏差值。
步骤103:通过预设声音补偿模型,补偿用户演唱声音,得到用户最终演唱声音,并播放该用户最终演唱声音。
在本发明实施例中,可以自动对用户演唱声音进行分析比较,得到用户演唱声音和标准演唱声音之间的差距,告诉用户其演唱问题所在,并对用户演唱声音进行补偿,用户不需要聘请专业的声乐老师即可得到专业的指导,降低了用户学习声乐的成本,提高了学习声乐的效果和乐趣。
可选地,检测用户演唱声音,包括:
通过压电陶瓷片检测用户在演唱时声带产生的振动信息;
通过mic检测用户演唱的音频信息;
将该振动信息和该音频信息确定为用户演唱声音。
可选地,根据预设声音比较模型,分析用户演唱声音与标准演唱声音之间的偏差值,包括:
将用户演唱声音和标准演唱声音输入预设声音比较模型;
将预设声音比较模型的输出确定为用户演唱声音与标准演唱声音之间的偏差值。
可选地,根据预设声音比较模型,分析用户演唱声音与标准演唱声音之间的偏差值之前,还包括:
获取缺陷演唱声音集和对应的标准演唱声音;
通过缺陷演唱声音集和标准演唱声音对第一神经网络的参数进行训练,将训练完成后得到的第一神经网络模型确定为预设声音比较模型。
可选地,通过预设声音补偿模型,补偿用户演唱声音,得到用户最终演唱声音,包括:
将用户演唱声音和标准演唱声音输入预设声音补偿模型;
将预设声音补偿模型的输出确定为用户最终演唱声音。
可选地,通过预设声音补偿模型,补偿用户演唱声音之前,还包括:
获取缺陷演唱声音集和对应的标准演唱声音;
通过缺陷演唱声音集和标准演唱声音对第二神经网络的参数进行训练,将训练完成后得到的第二神经网络模型确定为预设声音补偿模型。
可选地,根据预设声音比较模型,确定用户演唱声音与标准演唱声音之间的偏差值之后,还包括:
根据偏差值,确定用户演唱声音的缺陷类型;
根据缺陷类型,确定对应的指导意见。
上述所有可选技术方案,均可按照任意结合形成本发明的可选实施例,本发明实施例对此不再一一赘述。
图2是本发明实施例提供的一种演唱教学方法的流程图。本发明实施例将结合图2对图1提供的实施例进行展开论述。参见图2,该方法包括以下步骤:
步骤201:通过压电陶瓷片检测用户在演唱时声带产生的振动信息,并通过mic检测用户演唱的音频信息,将该振动信息和该音频信息确定为用户演唱声音。
其中,参见图3,检测振动部分由一块弧形塑料片构成,该塑料片上有多个压电陶瓷片,需要进行演唱的用户将该检测振动部分佩戴在声带的位置处,当声带产生振动时,振动会传递到该弧形塑料片上,进而传递到该弧形塑料片上的压电陶瓷片上,使得压电陶瓷片可以准确检测到用户在演唱歌曲时,声带产生的振动信息。
需要说明的是,压电陶瓷片具有敏感的特性,可以将极其微弱的机械振动转换成电信号,因而将由压电陶瓷片组成的检测部分佩戴在声带上之后,检测部分上的压电陶瓷片就可以检测到声带的振动,并将其检测到的振动转换成电信号,从而得到振动信息。
其中,通过mic检测用户演唱的音频信息的具体实现过程可以为:用户可以手握mic,并将mic靠近嘴巴发音的位置处,以便用户演唱出的音频信息可以被mic收录。其中,mic收录用户演唱出的音频信息的原理可以参考现有技术中mic的工作原理,本发明在此不再进行赘述。
需要说明的是,由于用户在演唱歌曲时,声带振动产生声音,也即声带振动和产生声音基本上是同时发生的,因而通过压电陶瓷片检测用户在演唱时声带产生的振动信息和通过mic检测用户演唱的音频信息是同步执行的,不分先后顺序。也就是说,在检测声带产生的振动信息的同时,通过mic检测用户演唱的音频信息。
值得说明的是,声音本是由物体的振动产生的,振动信息往往可以反映音频信息中没有的其他信息,因而本发明实施例中在检测音频信号的同时,还检测了声带产生的振动信息,将音频信息和振动信息共同作为用户演唱声音。相较于现有技术中仅仅使用mic录制成音频文件来检测用户演唱声音,然后通过音频算法进行处理的方法,本发明实施例中直接检测声带的振动可以得到另外一些音频检测得不到的信息,避免了单个传感器检测声音所带来的不精确问题,使得最终检测到的用户演唱声音更为准确。
步骤202:分析用户演唱声音,确定用户演唱声音所属的目标唱法,并将目标唱法对应的标准声音确定为标准演唱声音。
具体地,提取用户演唱声音中的声音特征,根据预先存储的声音特征和唱法之间的对应关系,确定出用户演唱声音中的声音特征对应的目标唱法。
示例的,用户演唱声音的声音特征为特征1,预先存储的声音特征和唱法之间的对应关系如下表1所示,通过下述表1,查找到特征1对应的目标唱法为美声唱法,也即用户演唱声音所属的目标唱法为美声唱法,其对应的标准声音为美声标准演唱声音。
表1声音特征和唱法之间的对应关系
声音特征 | 唱法 |
特征1 | 美声唱法 |
特征2 | 民族唱法 |
特征3 | 流行唱法 |
需要说明的是,本发明实施例仅以上述表1所示的声音特征和唱法之间的对应关系为例进行说明,上述表1并不对本发明实施例构成限定。
步骤203:将用户演唱声音和标准演唱声音输入预设声音比较模型,并将预设声音比较模型的输出确定为用户演唱声音与标准演唱声音之间的偏差值。
其中,预设声音比较模型是一种深度神经网络模型,将用户演唱声音和标准演唱声音输入该深度神经网络模型后,通过该深度神经网络模型中的各个分析层对输入的声音进行分析,可以得到输入的用户演唱声音和标准演唱声音之间的差距,输出用户演唱声音与标准演唱声音之间的偏差值。
需要说明的是,深度神经网络模型是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型,由大量的节点(或称神经元)相互联接构成,这种网络模型依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的,并具有自学习和自适应的能力。
还需要说明的是,本发明中的预设声音比较模型中可以包括有CNN(Convolutional Neural Network,卷积神经网络)和/或RNN(RecurrentNeural Network,循环神经网络)和/或LSTM(Long Short-Term Memory,长短期记忆网络),也就是说,本发明中可以单独通过CNN对输入的用户演唱声音和标准演唱声音进行分析比较,也可以单独通过RNN对输入的用户演唱声音和标准演唱声音进行分析比较,也可以单独通过LSTM对输入的用户演唱声音和标准演唱声音进行分析比较,还可以通过CNN和RNN相结合对输入的用户演唱声音和标准演唱声音进行分析比较,还可以通过CNN和LSTM相结合对输入的用户演唱声音和标准演唱声音进行分析比较,还可以通过RNN和LSTM相结合对输入的用户演唱声音和标准演唱声音进行分析比较。
其中,当通过两种神经网络相结合对输入的用户演唱声音和标准演唱声音进行分析比较时,两种神经网络模型分别作为预设声音比较模型中的一个分析层,以结合对输入的声音进行分析比较。
值得说明的是,本发明中采用了预设声音比较模型(即深度神经网络)对用户演唱声音进行分析,使得确定出的用户演唱声音与标准演唱声音之间的差距更为准确。
进一步地,将该用户演唱声音和标准演唱声音输入预设声音比较模型之前,还可以先对神经网络进行训练,以得到该预设声音比较模型。具体地,先获取缺陷演唱声音集和对应的标准演唱声音;然后通过该缺陷演唱声音集和标准演唱声音对第一神经网络的参数进行训练,将训练完成后得到的第一神经网络模型确定为该预设声音比较模型。
具体地,先对该缺陷演唱声音集中的各个缺陷演唱声音与标准演唱声音之间的偏差值进行标注,然后将该缺陷演唱声音集中的各个缺陷演唱声音输入神经网络,根据该神经网络的输出与标注的偏差值之间的差值,调整该神经网络的参数,当该缺陷演唱声音集中的各个缺陷演唱声音输入该神经网络后,该神经网络的输出均与标注的偏差值之间的差值小于预设参数阈值时,将该神经网络确定为预设声音比较模型。
其中,预设参数阈值是判断神经网络参数训练程度的一个标准,该预设参数阈值可以预先进行设置,其值越小,最后训练出的预设声音比较模型对输入的用户演唱声音和标准演唱声音之间的差别分析比较的准确率就越高。另外,为了保证预设声音比较模型分析比较输入的用户演唱声音和标准演唱声音之间的差别的准确率,需要大量的缺陷演唱声音对神经网络进行训练,也即,用于训练神经网络的缺陷演唱声音集中应该包含有大量的缺陷演唱声音,且该缺陷演唱声音集中包含的缺陷演唱声音越多,最后训练出的预设声音比较模型分析比较输入的用户演唱声音和标准演唱声音之间的差别的准确率就越高。
例如,需要对美声唱法进行教学,那么标准演唱声音就是美声标准演唱声音,事先获取到3种有缺陷的美声演唱声音分别为缺陷演唱声音1、缺陷演唱声音2、缺陷演唱声音3,假设标注缺陷演唱声音1与标准演唱声音之间的偏差值为0.7,缺陷演唱声音2与标准演唱声音之间的偏差值为0.5,缺陷演唱声音3与标准演唱声音之间的偏差值为0.1,将上述缺陷演唱声音1、缺陷演唱声音2、缺陷演唱声音3分别多次输入神经网络中,调节该神经网络的参数,假设预设参数阈值为0.01,则当缺陷演唱声音1输入该神经网络中,输出值的范围在0.69-0.71之间,当缺陷演唱声音2输入该神经网络中,输出值的范围在0.49-0.51之间,当缺陷演唱声音3输入该神经网络中,输出值的范围在0.09-0.11之间,即说明该神经网络训练完成。
进一步地,将预设声音比较模型的输出确定为用户演唱声音与标准演唱声音之间的偏差值之后,还包括根据偏差值,确定用户演唱声音的缺陷类型,并根据该缺陷类型,确定对应的指导意见。
具体地,得到偏差值之后,通过预先存储的偏差值与缺陷类型之间的对应关系,确定对应的缺陷类型,然后再通过预先存储的缺陷类型与指导意见之间的对应关系,确定对应的指导意见,并将缺陷类型和指导意见反馈给用户。
需要说明的是,用户演唱声音与标准演唱声音之间的偏差值即代表用户演唱声音与标准演唱声音之间的差距,不同的差距代表了不同的缺陷类型,不同的缺陷类型对应有不同的指导意见。音乐专家可以预先给出偏差值与缺陷类型之间的对应关系,以及缺陷类型与指导意见之间的对应关系。
例如,预先存储的偏差值与缺陷类型之间的对应关系如下表2所示,预先存储的缺陷类型与指导意见之间的对应关系如下表3所示,假设得到的偏差值为0.3,则根据表2确定出对应的缺陷类型为类型2,再根据表3确定出类型2对应的指导意见为意见Y。
表2偏差值与缺陷类型之间的对应关系
偏差值 | 缺陷类型 |
0.0~0.2(包括上限值,不包括下限值) | 类型1 |
0.2~0.4(包括上限值,不包括下限值) | 类型2 |
0.4~0.6(包括上限值,不包括下限值) | 类型3 |
0.6~0.8(包括上限值,不包括下限值) | 类型4 |
0.8~1.0(包括上限值,不包括下限值) | 类型5 |
表3缺陷类型与指导意见之间的对应关系
缺陷类型 | 指导意见 |
类型1 | 意见X |
类型2 | 意见Y |
类型3 | 意见Z |
类型4 | 意见W |
类型5 | 意见P |
需要说明的是,本发明实施例仅以上述表2所示的偏差值与缺陷类型之间的对应关系为例进行说明,上述表2并不对本发明实施例构成限定。且本发明实施例仅以上述表3所示的缺陷类型与指导意见之间的对应关系为例进行说明,上述表3并不对本发明实施例构成限定。
步骤204:将用户演唱声音和标准演唱声音输入预设声音补偿模型,将预设声音补偿模型的输出确定为用户最终演唱声音,并播放该用户最终演唱声音。
其中,预设声音补偿模型也是一种深度神经网络模型,将该用户演唱声音和标准演唱声音输入该深度神经网络模型后,通过该深度神经网络模型中的各个分析层对有缺陷的用户演唱声音叠加标准演唱声音,从而对输入的用户演唱声音进行美化,输出即为美化后的用户最终演唱声音。
需要说明的是,此处的预设声音补偿模型和步骤203中的预设声音比较模型不是同一模型,其内部应该包括有减法滤除层,以对用户演唱声音中有缺陷的地方进行滤除,还应该包括有叠加层,当滤除掉有缺陷的部分后,在该部分上叠加标准演唱声音。但此处的预设声音补偿模型和步骤203中的预设声音比较模型的定义及相关原理均类似,并且此步骤与步骤203的具体实现过程也类似,因而本发明在此均不再进行赘述。
值得说明的是,本发明实施例中是对用户演唱声音叠加另一个声音(标准演唱声音),从而对用户演唱声音进行补偿,两个声音的叠加,会使得原有用户演唱声音的缺陷得到弥补,由于补偿中会使用到减法滤波层,因而一些有缺陷的部分会被过滤掉,叠加成标准的唱法。相较于现有技术中,通过使用变速变调等技术,重新处理声音,以对声音进行美化的方法,本发明中并不是对用户演唱声音中有缺陷的部分进行修改,而是直接用标准唱法替换掉有缺陷的地方,从而使得得到的用户最终演唱声音更加贴近于标准演唱声音。
进一步地,将该用户演唱声音和该标准演唱声音输入预设声音补偿模型之前,还可以先对神经网络进行训练,以得到该预设声音补偿模型。具体地,先获取缺陷演唱声音集和对应的标准演唱声音,然后通过该缺陷演唱声音集和对应的标准演唱声音对第二神经网络的参数进行训练,将训练完成后得到的第二神经网络模型确定为该预设声音补偿模型。
具体地,将该缺陷演唱声音集中的各个缺陷演唱声音和标准演唱声音共同输入神经网络,根据该神经网络输出的演唱声音与标准演唱声音之间的差距,调整该神经网络的参数,当该缺陷演唱声音集中的各个缺陷演唱声音输入该神经网络后,该神经网络输出的演唱声音均与标准演唱声音之间的差距小于预设差距时,将该神经网络确定为预设声音补偿模型。
其中,预设差距是判断神经网络参数训练程度的一个标准,该预设差距可以预先进行设置,其值越小,最后训练出的预设声音补偿模型对输入的用户演唱声音进行补偿的准确率就越高。另外,为了保证预设声音补偿模型对输入的用户演唱声音进行补偿的准确率,需要大量的缺陷演唱声音对神经网络进行训练,也即,用于训练神经网络的缺陷演唱声音集中应该包含有大量的缺陷演唱声音,且该缺陷演唱声音集中包含的缺陷演唱声音越多,最后训练出的预设声音补偿模型对输入的用户演唱声音进行补偿的准确率就越高。
本发明实施例中在检测用户演唱声音部分,采用了压电陶瓷片和音频检测相结合的方式,可以得到另外一些音频检测得不到的信息,避免了单个传感器检测声音所带来的不精确问题,使得最终检测到的用户演唱声音更为准确;进一步地,后续可以根据振动信息和音频信息综合确定用户演唱声音的缺陷,使得对用户演唱声音的分析更为准确;另外,本发明中对于用户演唱声音中的缺陷部分,并不是采用声音美化,而是采用声音补偿,即直接用标准唱法替换掉有缺陷的部分,从而使得得到的用户最终演唱声音更加贴近于标准演唱声音。综上所述,本发明可以自动对用户演唱声音进行分析比较,得到用户演唱声音和标准演唱声音之间的差距,告诉用户其演唱问题所在,并对用户演唱声音进行补偿,用户不需要聘请专业的声乐老师即可得到专业的指导,降低了用户学习声乐的成本,提高了学习声乐的效果和乐趣。
接下来对本发明实施例提供的演唱教学装置进行介绍。
图4是本发明实施例提供的一种演唱教学装置的结构示意图。参见图4,该装置包括检测模块401、第一确定模块402和补偿模块403。
检测模块401,用于检测用户演唱声音,并获取对应的标准演唱声音。
第一确定模块402,用于根据预设声音比较模型,确定用户演唱声音与标准演唱声音之间的偏差值。
补偿模块403,用于通过预设声音补偿模型,补偿用户演唱声音,得到用户最终演唱声音,并播放该用户最终演唱声音。
可选地,参见图5,检测模块401包括:
第一检测子模块4011,用于通过压电陶瓷片检测用户在演唱时声带产生的振动信息;
第二检测子模块4012,用于通过mic检测用户演唱的音频信息;
第一确定子模块4013,用于将该振动信息和该振动信息确定为用户演唱声音。
可选地,参见图6,检测模块401还包括:
分析子模块4014,用于分析用户演唱声音,确定用户演唱声音所属的目标唱法,并将目标唱法对应的标准声音确定为标准演唱声音。
可选地,参见图7,第一确定模块402包括:
第一输入子模块4021,用于将用户演唱声音和标准演唱声音输入预设声音比较模型;
第二确定子模块4022,用于将预设声音比较模型的输出确定为用户演唱声音与标准演唱声音之间的偏差值。
可选地,参见图8,该装置还包括:
第一获取模块404,用于获取缺陷演唱声音集和对应的标准演唱声音;
第一训练模块405,用于通过缺陷演唱声音集和标准演唱声音对第一神经网络的参数进行训练,将训练完成后得到的第一神经网络模型确定为预设声音比较模型。
可选地,参见图9,补偿模块403包括:
第二输入子模块4031,用于将用户演唱声音和标准演唱声音输入预设声音补偿模型;
第三确定子模块4032,用于将预设声音补偿模型的输出确定为用户最终演唱声音。
可选地,参见图10,该装置还包括:
第二获取模406,用于获取缺陷演唱声音集和对应的标准演唱声音;
第二训练模块407,用于通过缺陷演唱声音集和标准演唱声音对第二神经网络的参数进行训练,将训练完成后得到的第二神经网络模型确定为预设声音补偿模型。
可选地,参见图11,该装置还包括:
第二确定模408,用于根据偏差值,确定用户演唱声音的缺陷类型;
第三确定模块409,用于根据缺陷类型,确定对应的指导意见。
本发明实施例中在检测用户演唱声音部分,采用了压电陶瓷片和音频检测相结合的方式,可以得到另外一些音频检测得不到的信息,避免了单个传感器检测声音所带来的不精确问题,使得最终检测到的用户演唱声音更为准确;进一步地,后续可以根据振动信息和音频信息综合确定用户演唱声音的缺陷,使得对用户演唱声音的分析更为准确;另外,本发明中对于用户演唱声音中的缺陷部分,并不是采用声音美化,而是采用声音补偿,即直接用标准唱法替换掉有缺陷的部分,从而使得得到的用户最终演唱声音更加贴近于标准演唱声音。综上所述,本发明可以自动对用户演唱声音进行分析比较,得到用户演唱声音和标准演唱声音之间的差距,告诉用户其演唱问题所在,并对用户演唱声音进行补偿,用户不需要聘请专业的声乐老师即可得到专业的指导,降低了用户学习声乐的成本,提高了学习声乐的效果和乐趣。
需要说明的是:上述实施例提供的演唱教学装置在对演唱声音进行分析以达到教学目的时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的演唱教学装置与演唱教学方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器,上述指令可由装置的处理器执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
也即是,该计算机可读存储介质中的指令由装置的处理器执行时,可以实现上述图1或图2实施例提供的演唱教学方法。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种演唱教学方法,其特征在于,所述方法包括:
检测用户演唱声音,并获取对应的标准演唱声音;
根据预设声音比较模型,确定所述用户演唱声音与所述标准演唱声音之间的偏差值;
通过预设声音补偿模型,补偿所述用户演唱声音,得到用户最终演唱声音,并播放所述用户最终演唱声音。
2.根据权利要求1所述的演唱教学方法,其特征在于,所述检测用户演唱声音,包括:
通过压电陶瓷片检测用户在演唱时声带产生的振动信息;
通过麦克风mic检测用户演唱的音频信息;
将所述振动信息和所述音频信息确定为所述用户演唱声音。
3.根据权利要求1所述的演唱教学方法,其特征在于,所述根据预设声音比较模型,确定所述用户演唱声音与所述标准演唱声音之间的偏差值,包括:
将所述用户演唱声音和所述标准演唱声音输入所述预设声音比较模型;
将所述预设声音比较模型的输出确定为所述用户演唱声音与所述标准演唱声音之间的偏差值。
4.根据权利要求1所述的演唱教学方法,其特征在于,所述通过预设声音补偿模型,补偿所述用户演唱声音,得到用户最终演唱声音,包括:
将所述用户演唱声音和所述标准演唱声音输入所述预设声音补偿模型;
将所述预设声音补偿模型的输出确定为所述用户最终演唱声音。
5.根据权利要求1或3所述的演唱教学方法,其特征在于,所述根据预设声音比较模型,确定所述用户演唱声音与标准演唱声音之间的偏差值之后,还包括:
根据所述偏差值,确定所述用户演唱声音的缺陷类型;
根据所述缺陷类型,确定对应的指导意见。
6.一种演唱教学装置,其特征在于,所述装置包括:
检测模块,用于检测用户演唱声音,并获取对应的标准演唱声音;
第一确定模块,用于根据预设声音比较模型,确定所述用户演唱声音与所述标准演唱声音之间的偏差值;
补偿模块,用于通过预设声音补偿模型,补偿所述用户演唱声音,得到用户最终演唱声音,并播放所述用户最终演唱声音。
7.根据权利要求6所述的演唱教学装置,其特征在于,所述检测模块包括:
第一检测子模块,用于通过压电陶瓷片检测用户在演唱时声带产生的振动信息;
第二检测子模块,用于通过mic检测用户演唱的音频信息;
第一确定子模块,用于将所述振动信息和所述音频信息确定为所述用户演唱声音。
8.根据权利要求6所述的演唱教学装置,其特征在于,所述第一确定模块包括:
第一输入子模块,用于将所述用户演唱声音和所述标准演唱声音输入所述预设声音比较模型;
第二确定子模块,用于将所述预设声音比较模型的输出确定为所述用户演唱声音与所述标准演唱声音之间的偏差值。
9.根据权利要求6所述的演唱教学装置,其特征在于,所述补偿模块包括:
第二输入子模块,用于将所述用户演唱声音和所述标准演唱声音输入所述预设声音补偿模型;
第三确定子模块,用于将所述预设声音补偿模型的输出确定为所述用户最终演唱声音。
10.根据权利要求6或8所述的演唱教学装置,其特征在于,所述装置还包括:
第二确定模块,用于根据所述偏差值,确定所述用户演唱声音的缺陷类型;
第三确定模块,用于根据所述缺陷类型,确定对应的指导意见。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910868956.6A CN110648566A (zh) | 2019-09-16 | 2019-09-16 | 一种演唱教学方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910868956.6A CN110648566A (zh) | 2019-09-16 | 2019-09-16 | 一种演唱教学方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110648566A true CN110648566A (zh) | 2020-01-03 |
Family
ID=69010568
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910868956.6A Pending CN110648566A (zh) | 2019-09-16 | 2019-09-16 | 一种演唱教学方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110648566A (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1162167A (zh) * | 1996-01-18 | 1997-10-15 | 雅马哈株式会社 | 修正演唱声以模仿标准声的共振峰转换装置 |
CN102214462A (zh) * | 2011-06-08 | 2011-10-12 | 北京爱说吧科技有限公司 | 用于发音评估的方法和系统 |
CN102497468A (zh) * | 2011-11-18 | 2012-06-13 | 上海华勤通讯技术有限公司 | 手机及演唱自评方法 |
CN105989842A (zh) * | 2015-01-30 | 2016-10-05 | 福建星网视易信息系统有限公司 | 对比声纹相似度的方法、装置及其在数字娱乐点播系统中的应用 |
CN106601227A (zh) * | 2016-11-18 | 2017-04-26 | 北京金锐德路科技有限公司 | 音频采集方法和装置 |
CN109741723A (zh) * | 2018-12-29 | 2019-05-10 | 广州小鹏汽车科技有限公司 | 一种卡拉ok音效优化方法及卡拉ok装置 |
CN109830221A (zh) * | 2019-01-24 | 2019-05-31 | 深圳市赛亿科技开发有限公司 | 一种唱歌指导方法及系统 |
CN109841201A (zh) * | 2017-11-28 | 2019-06-04 | 刘铸 | 基于实时音频比较的声乐教唱系统 |
-
2019
- 2019-09-16 CN CN201910868956.6A patent/CN110648566A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1162167A (zh) * | 1996-01-18 | 1997-10-15 | 雅马哈株式会社 | 修正演唱声以模仿标准声的共振峰转换装置 |
CN102214462A (zh) * | 2011-06-08 | 2011-10-12 | 北京爱说吧科技有限公司 | 用于发音评估的方法和系统 |
CN102497468A (zh) * | 2011-11-18 | 2012-06-13 | 上海华勤通讯技术有限公司 | 手机及演唱自评方法 |
CN105989842A (zh) * | 2015-01-30 | 2016-10-05 | 福建星网视易信息系统有限公司 | 对比声纹相似度的方法、装置及其在数字娱乐点播系统中的应用 |
CN106601227A (zh) * | 2016-11-18 | 2017-04-26 | 北京金锐德路科技有限公司 | 音频采集方法和装置 |
CN109841201A (zh) * | 2017-11-28 | 2019-06-04 | 刘铸 | 基于实时音频比较的声乐教唱系统 |
CN109741723A (zh) * | 2018-12-29 | 2019-05-10 | 广州小鹏汽车科技有限公司 | 一种卡拉ok音效优化方法及卡拉ok装置 |
CN109830221A (zh) * | 2019-01-24 | 2019-05-31 | 深圳市赛亿科技开发有限公司 | 一种唱歌指导方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Corey | Audio production and critical listening: Technical ear training | |
Lynch et al. | Listening | |
Moylan | Understanding and crafting the mix: The art of recording | |
Moylan | The art of recording: Understanding and crafting the mix | |
CN106531185B (zh) | 基于语音相似度的语音评测方法及系统 | |
Sendra et al. | Perceiving incredulity: The role of intonation and facial gestures | |
Dobson | Performing your self? Autonomy and self-expression in the work of jazz musicians and classical string players. | |
Hernández | Online learning in higher music education: Benefits, challenges and drawbacks of one-to-one videoconference instrumental lessons | |
Walzer | Sonic thinking as a tool for creativity, communication, and sensory awareness in music production | |
Brandmeyer et al. | Learning expressive percussion performance under different visual feedback conditions | |
Elmosnino | A review of literature in critical listening education | |
CN110956870A (zh) | 一种视唱练耳教学方法及装置 | |
CN110853457B (zh) | 可互动的音乐教学指导方法 | |
Bordonné et al. | Assessing sound perception through vocal imitations of sounds that evoke movements and materials | |
CN110648566A (zh) | 一种演唱教学方法及装置 | |
CN110782866A (zh) | 一种演唱声音转换器 | |
Shen et al. | Solfeggio Teaching Method Based on MIDI Technology in the Background of Digital Music Teaching | |
Rennoll et al. | Project-based learning through sensor characterization in a musical acoustics course | |
Zhang | Violin teaching improvement strategy in the context of intelligent internet of things | |
Mitchell | Perception, evaluation and communication of singing voices | |
CN110808066B (zh) | 教学环境安全分析方法 | |
JP6155102B2 (ja) | 学習支援装置 | |
KR101141793B1 (ko) | 음 높이 가변 어학학습시스템 | |
Lazoryszczak | Spectral features in the singing voice evaluation using simulated imperfections | |
MacArthur et al. | Slow Listening: Digital Tools for Voice Studies. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |