CN105244041B - 歌曲试唱的评价方法及装置 - Google Patents

歌曲试唱的评价方法及装置 Download PDF

Info

Publication number
CN105244041B
CN105244041B CN201510608235.3A CN201510608235A CN105244041B CN 105244041 B CN105244041 B CN 105244041B CN 201510608235 A CN201510608235 A CN 201510608235A CN 105244041 B CN105244041 B CN 105244041B
Authority
CN
China
Prior art keywords
user speech
voice
libretto
original singer
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510608235.3A
Other languages
English (en)
Other versions
CN105244041A (zh
Inventor
李文根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201510608235.3A priority Critical patent/CN105244041B/zh
Publication of CN105244041A publication Critical patent/CN105244041A/zh
Application granted granted Critical
Publication of CN105244041B publication Critical patent/CN105244041B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例公开了一种歌曲试唱的评价方法及装置。所述方法包括:通过对原唱语音的识别,获取所述原唱语音的唱词声学信息及唱词关联信息;通过对用户语音的识别,获取所述用户语音的唱词声学信息及唱词关联信息;通过对所述原唱语音及所述用户语音的唱词声学信息及唱词关联信息的比较,生成对所述用户语音的评价报告。本发明实施例公开的歌曲试唱的评价方法和装置使得用户能够了解自己的演唱相对于原唱的不足之处。

Description

歌曲试唱的评价方法及装置
技术领域
本发明实施例涉及计算机数据处理技术领域,尤其涉及一种歌曲试唱的评价方法及装置。
背景技术
如今,卡拉OK已经成为世界性的自娱自乐和增进人与人之间交流的一种大众文艺形式。现在已经传播到欧、美、亚洲以及世界许多地方,并且和当地的文化紧密结合在一起,具有了各自的特色。
现有的卡拉OK系统中,用户在演唱的过程中能够通过系统显示观察到音高标准线和用户音高线。在演唱结束以后,卡拉OK系统会根据音高标准线和用户音高线之间的差异,给用户的演唱进行打分。用户通过这个打分能够知道自己的演唱的好坏。但是,这种评价方式的缺陷在于,用户只能了解到自己演唱的水平,无法了解应该如何对自己的演唱进行改进。
发明内容
针对上述技术问题,本发明实施例提供了一种歌曲试唱的评价方法及装置,以使用户了解自己的演唱相对于原唱的不足之处。
第一方面,本发明实施例提供了一种歌曲试唱的评价方法,所述方法包括:
通过对原唱语音的识别,获取所述原唱语音的唱词声学信息及唱词关联信息;
通过对用户语音的识别,获取所述用户语音的唱词声学信息及唱词关联信息;
通过对所述原唱语音及所述用户语音的唱词声学信息及唱词关联信息的比较,生成对所述用户语音的评价报告,所述评价报告中记录有对用户语音的改进建议。
第二方面,本发明实施例还提供了一种歌曲试唱的评价装置,所述装置包括:
第一识别模块,用于通过对原唱语音的识别,获取所述原唱语音的唱词声学信息及唱词关联信息;
第二识别模块,用于通过对用户语音的识别,获取所述用户语音的唱词声学信息及唱词关联信息;
比较模块,用于通过对所述原唱语音及所述用户语音的唱词声学信息及唱词关联信息的比较,生成对所述用户语音的评价报告,所述评价报告中记录有对用户语音的改进建议。
本发明实施例提供的歌曲试唱的评价方法和装置,通过对原唱语音的识别,获取所述原唱语音的唱词声学信息及唱词关联信息,通过对用户语音的识别,获取所述用户语音的唱词声学信息及唱词关联信息,以及通过对所述原唱语音及所述用户语音的唱词声学信息及唱词关联信息的比较,生成对所述用户语音的评价报告,使得用户能够了解自己的演唱相对于原唱的不足之处。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1是本发明第一实施例提供的歌曲试唱的评价方法的流程图;
图2是本发明第二实施例提供的歌曲试唱的评价方法中比较操作的流程图;
图3是本发明第三实施例提供的歌曲试唱的评价方法中比较操作的流程图;
图4是本发明第四实施例提供的歌曲试唱的评价装置的结构图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
第一实施例
本实施例提供了歌曲试唱的评价方法的一种技术方案。所述歌曲试唱的评价方法由歌曲试唱的评价装置执行。并且,所述歌曲试唱的评价装置通常集成在用户侧的计算设备中。
参见图1,所述歌曲试唱的评价方法包括:
S11,通过对原唱语音的识别,获取所述原唱语音的唱词声学信息及唱词关联信息。
所述原唱语音是歌曲本身附带的演唱语音。而且,所述原唱语音并不包含歌曲的背景音乐。由于所述原唱语音的来源一般比较单一,因此,在对所述原唱语音进行识别之前,不必对所述原唱语音进行预处理。
所述唱词声学信息主要是所述原唱语音的一些声学参数,包括:原唱语音的音高、音调。
所述唱词关联信息是指不同声学单元之间的时间距离。所述声学单元优选是音节。另外,所述声学单元还可以是音子。假设在原唱语音中两个音节之间的时间距离是0.02秒,那么这两个音节之间的唱词关联信息就是0.02秒。
具体的,可以通过语音识别过程中的各种特征提取算法获取所述原唱语音的唱词声学信息及唱词关联信息。
完成了对所述原唱语音的分析,获取到所述原唱语音的唱词声学信息及唱词关联信息之后,需要将所述唱词声学信息及所述唱词关联信息保存,以后续步骤中对两种信息的使用。
S12,通过对用户语音的识别,获取所述用户语音的唱词声学信息及唱词关联信息。
所述用户语音是用户个人对歌曲进行试唱的语音。与所述演唱语音相同,所述用户语音同样也不包含任何歌曲的背景音乐。在根据对原唱语音的识别,获取到所述原唱语音的唱词声学信息及唱词关联信息之后,相类似的,对所述用户语音进行识别,从而获取所述用户语音的唱词声学信息及唱词关联信息。
与获取原唱语音的唱词声学信息及唱词关联信息不同的是,由于所述用户语音的来源复杂,其很有可能包含有相当量的噪声及干扰。因此,在对素数用户语音进行识别之前,首先需要对所述用户语音进行预处理。所述预处理的目的主要在于滤除所述用户语音中包含的噪声及干扰。具体的,所述预处理可以是利用低通滤波器或者带阻滤波器对原始的原唱语音的过滤。所述低通滤波器能够滤除所述原唱语音中的高频噪声或者干扰,而所述带阻滤波器能够滤除所述原唱语音中设定频段的噪声或者干扰。
完成了对所述用户语音的预处理之后,从经过预处理的用户语音中提取唱词声学信息及唱词关联信息。具体的,可以利用语音识别过程中的各种特征提取算法获取所述唱词声学信息及所述唱词关联信息。
与对原唱语音的处理相类似,在获取到用户语音的唱词声学信息及唱词关联信息之后,也需要将所述用户语音的唱词声学信息及唱词关联信息保存。
S13,通过对所述原唱语音及所述用户语音的唱词声学信息及唱词关联信息的比较,生成对所述用户语音的评价报告,所述评价报告中记录有对用户语音的改进建议。
具体的,将所述原唱语音的唱词声学信息与所述用户语音的唱词声学信息进行比较,生成所述用户语音的声学信息评价报告。再将所述歌曲远程语音的唱词关联信息与所述用户语音的唱词关联信息进行比较,生成所述用户语音的关联信息评价报告。
所述声学信息评价报告中主要记录了用户语音与原唱语音在声学特征上的不同。比如,用户语音在一个或者一部分音节上的音调要高于原唱语音,或者,用户语音相对于原唱语音,缺少了若干个音节,再或者,用户语音在一个音节处的声学特征与原唱语音明显不符。
所述关联信息评价报告则记录了用户语音与原唱语音在时间序列上的不同。比如,在一个音节的出现时间上,相对于原唱语音,用户语音太晚或者太早。
有了上述两种评价报告,试唱用户再次演唱歌曲时对歌曲的演唱就有了改进的方向。根据声学信息评价报告的内容,用户在某一些音节上的音调过低,则用户再次试唱歌曲时,可以有意的将这些音节上的音调抬高,以保证自己的试唱语音与原唱语音之间的一致。
本实施例通过对原唱语音的识别,获取所述原唱语音的唱词声学信息及唱词关联信息,通过对用户语音的识别,获取所述用户语音的唱词声学信息及唱词关联信息,以及通过对所述原唱语音及所述用户语音的唱词声学信息及唱词关联信息的比较,生成对所述用户语音的评价报告,从而使得用户能够了解自己的演唱相对于原唱的不足之处。
第二实施例
本实施例以本发明上述实施例为基础,进一步的提供了歌曲试唱的评价方法中比较操作的一种技术方案。在该技术方案中,通过对所述原唱语音及所述用户语音的唱词声学信息及唱词关联信息的比较,生成所述用户语音的评价报告包括:通过对所述原唱语音及所述用户语音的唱词声学信息的语音识别,分别获取所述原唱语音及所述用户语音的识别文本;通过将所述用户语音的识别文本与所述原唱语音的识别文本对齐,获取所述用户语音的识别文本与所述原唱语音的识别文本之间的编辑距离;根据所述编辑距离,生成对所述用户语音的声学信息评价报告。
参见图2,通过对所述原唱语音及所述用户语音的唱词声学信息及唱词关联信息的比较,生成所述用户语音的评价报告包括:
S21,通过对所述原唱语音及所述用户语音的唱词声学信息的语音识别,分别获取所述原唱语音及所述用户语音的识别文本。
可以理解的是,通过对原唱语音及用户语音的语音识别,能够获取到原唱语音对应的识别文本,以及用户语音对应的识别文本。
S22,通过将所述用户语音的识别文本与所述原唱语音的识别文本对齐,获取所述用户语音的识别文本与所述原唱语音的识别文本之间的编辑距离。
所述编辑距离是指将所述用户语音的识别文本编辑成为所述原唱语音的识别文本所需要的编辑操作的次数。所述编辑操作包括:删除操作、替换操作以及增加操作。例如,从所述用户语音的识别文本中删除一个字符,这个操作被称为一个删除操作。从所述用户语音的识别文本中替换一个字符,这个操作被称为一个替换操作。在所述用户语音的识别文本中增加一个字符,这个操作被称为一个增加操作。每执行一次删除操作、替换操作或者增加操作,则所述编辑距离的数值加一。
举例来说,假设原唱语音对应的识别文本是:“百万雄师过大江”,而用户语音对应的识别文本是“百万雄师过大江啊”。通过对上述两个识别文本的对齐可以得到,二者之间的编辑距离是1。
S23,根据所述编辑距离,生成对所述用户语音的声学信息评价报告。
具体的,可以在生成的声学信息评价报告中记录所述编辑距离。进一步的,还可以在所生成的声学信息评价报告中记录产生上述编辑距离的字符的位置。在上面的一个例子中,用户语音对应的识别文本——“百万雄师过大江啊”中造成与原唱文本对应的识别文本之间的编辑距离的字符“啊”出现在用户语音对应的识别文本的末尾,那么可以将上述位置信息记录在上述声学信息评价报告中。
另外,除了在所述声学信息评价报告中记录与上述编辑距离相关的信息以外,还可以在所述声学信息评价报告中记录用户语音在声学特征上与原唱语音之间的区别。
本实施例通过对所述原唱语音及所述用户语音的唱词声学信息的语音识别,分别获取所述原唱语音及所述用户语音的识别文本,通过对所述用户语音的识别文本与所述原唱语音的识别文本对齐,获取所述用户语音的识别文本与所述原唱语音的识别文本之间的编辑距离,以及根据所述编辑距离,生成对所述用户语音的声学信息评价报告,从而根据原唱语音及用户语音在声学特征上的差别生成了声学信息评价报告,使得用户能够了解自己的演唱在声学特征上相对于原唱的不足之处。
第三实施例
本实施例以本发明的上述实施例为基础,进一步的提供了歌曲试唱的评价方法中比较操作的另一种技术方案。在该技术方案中,所述用户语音的识别文本与所述原唱语音之间的编辑距离不为零,并且,通过对所述原唱语音及所述用户语音的唱词声学信息及唱词关联信息的比较,生成所述用户语音的评价报告还包括:通过对所述原唱语音及所述用户语音的唱词关联信息之间的比较,获取所述原唱语音及所述用户语音中相同声学单元的出现时间的差值;根据所述差值,生成对所述用户语音的关联信息评价报告。
参见图3,通过对所述原唱语音及所述用户语音的唱词声学信息及唱词关联信息的比较,生成所述用户语音的评价报告包括:
S31,通过对所述原唱语音及所述用户语音的唱词声学信息的语音识别,分别获取所述原唱语音及所述用户语音的识别文本。
S32,通过将所述用户语音的识别文本与所述原唱语音的识别文本对齐,获取所述用户语音的识别文本与所述原唱语音的识别文本之间的编辑距离。
S33,根据所述编辑距离,生成对所述用户语音的声学信息评价报告。
S34,通过对所述原唱语音及所述用户语音的唱词关联信息之间的比较,获取所述原唱语音及所述用户语音中相同声学单元的出现时间的差值。
所述声学单元包括音节。但是,所述声学单元也可以是音子等其他一些声学单元,本发明对此不作限制。
由于所述唱词关联信息中记录了同一段语音中不同声学单元出现时间上的先后序列,所以通过比较原唱语音及用户语音各自的唱词关联信息,能够发现同一个声学单元在不同语音中的出现时间上的差异。这种差异在听觉上对应于语音的节奏快慢。比如,相对于原唱语音,用户语音中相同的声学单元总是较晚出现,则说明用户语音的节奏较慢。相反,相对于原唱语音,用户语音中相同的声学单元总是较早出现,则说明用户语音的节奏较快。
在技术实现上,相同声学单元在不同语音中的出现时间上的差异体现在相同的声学单元在用户语音以及原唱语音中出现时间的差值。比如,相同的声学单元在用户语音中的出现时间比在原唱语音中的出现时间早0.03秒,则所述差值是0.03秒。
S35,根据所述差值,生成对所述用户语音的关联信息评价报告。
得到上述差值以后,可以根据上述差值生成关联信息评价报告,以提醒用户在下次试唱时,何处应当加快节奏,何处应当放缓节奏。
本实施例通过当所述编辑距离不为零时,通过对原唱语音及所述用户语音的唱词关联信息之间的比较,获取所述原唱语音及所述用户语音中相同声学单元的出现时间的差值,并且根据所述差值,生成对所述用户语音的关联信息评价报告,从而根据原唱语音及用户语音在节奏快慢上的差别生成了声学信息评价报告,使得用户能够了解自己的演唱在节奏上相对于原唱的不足之处。
第四实施例
本实施例提供的歌曲试唱的评价装置的一种技术方案。在该技术方案中,歌曲试唱的评价装置包括:第一识别模块41、第二识别模块42以及比较模块43。
所述第一识别模块41用于通过对原唱语音的识别,获取所述原唱语音的唱词声学信息及唱词关联信息。
所述第二识别模块42用于通过对用户语音的识别,获取所述用户语音的唱词声学信息及唱词关联信息。
所述比较模块43用于通过对所述原唱语音及所述用户语音的唱词声学信息及唱词关联信息的比较,生成对所述用户语音的评价报告,所述评价报告中记录有对用户语音的改进建议。
进一步的,所述唱词声学信息包括:音高、音调,所述唱词关联信息是不同声学单元之间的时间距离。
进一步的,所述比较模块43包括:文本识别单元、文本对齐单元以及第一报告生成单元。
所述文本识别单元用于通过对所述原唱语音及所述用户语音的唱词声学信息的语音识别,分别获取所述原唱语音及所述用户语音的识别文本。
所述文本对齐单元用于通过将所述用户语音的识别文本与所述原唱语音的识别文本对齐,获取所述用户语音的识别文本与所述原唱语音的识别文本之间的编辑距离。
所述第一报告生成单元用于根据所述编辑距离,生成对所述用户语音的声学信息评价报告。
进一步的,若编辑距离不为零,所述比较模块43还包括:关联信息比较单元以及第二报告生成单元。
所述关联信息比较单元用于通过对所述原唱语音及所述用户语音的唱词关联信息之间的比较,获取所述原唱语音及所述用户语音中相同声学单元的出现时间的差值。
所述第二报告生成单元用于根据所述差值,生成对所述用户语音的关联信息评价报告。
本领域普通技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个计算装置上,或者分布在多个计算装置所组成的网络上,可选地,他们可以用计算机装置可执行的程序代码来实现,从而可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件的结合。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间的相同或相似的部分互相参见即可。
以上所述仅为本发明的优选实施例,并不用于限制本发明,对于本领域技术人员而言,本发明可以有各种改动和变化。凡在本发明的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种歌曲试唱的评价方法,其特征在于,包括:
通过对原唱语音的识别,获取所述原唱语音的唱词声学信息及唱词关联信息;
通过对用户语音的识别,获取所述用户语音的唱词声学信息及唱词关联信息;
通过对所述原唱语音及所述用户语音的唱词声学信息及唱词关联信息的比较,生成对所述用户语音的评价报告,所述评价报告中记录有对用户语音的改进建议;
其中,所述通过对所述原唱语音及所述用户语音的唱词声学信息及唱词关联信息的比较,生成对所述用户语音的评价报告,包括:
通过对所述原唱语音及所述用户语音的唱词声学信息的语音识别,分别获取所述原唱语音及所述用户语音的识别文本;
通过将所述用户语音的识别文本与所述原唱语音的识别文本对齐,获取所述用户语音的识别文本与所述原唱语音的识别文本之间的编辑距离;其中,所述编辑距离是指将所述用户语音的识别文本编辑成为所述原唱语音的识别文本所需要的编辑操作的次数,所述编辑操作包括删除操作、替换操作以及增加操作;
根据所述编辑距离关联的编辑操作次数、编辑操作类型以及产生所述编辑距离的字符的位置,生成对所述用户语音的声学信息评价报告;其中,所述声学信息评价报告记录所述编辑距离以及产生所述编辑距离的字符的位置,所述声学信息评价报告至少表征所述用户语音中出现的唱错词、唱漏词或唱多词的情况。
2.根据权利要求1所述的方法,其特征在于,所述唱词声学信息包括:音高和音调,所述唱词关联信息是不同声学单元之间的时间距离。
3.根据权利要求2所述的方法,其特征在于,若所述编辑距离不为零,通过对所述原唱语音及所述用户语音的唱词声学信息及唱词关联信息的比较,生成所述用户语音的评价报告还包括:
通过对所述原唱语音及所述用户语音的唱词关联信息之间的比较,获取所述原唱语音及所述用户语音中相同声学单元的出现时间的差值;
根据所述差值,生成对所述用户语音的关联信息评价报告。
4.一种歌曲试唱的评价装置,其特征在于,包括:
第一识别模块,用于通过对原唱语音的识别,获取所述原唱语音的唱词声学信息及唱词关联信息;
第二识别模块,用于通过对用户语音的识别,获取所述用户语音的唱词声学信息及唱词关联信息;
比较模块,用于通过对所述原唱语音及所述用户语音的唱词声学信息及唱词关联信息的比较,生成对所述用户语音的评价报告,所述评价报告中记录有对用户语音的改进建议;
其中,所述比较模块包括:
文本识别单元,用于通过对所述原唱语音及所述用户语音的唱词声学信息的语音识别,分别获取所述原唱语音及所述用户语音的识别文本;
文本对齐单元,用于通过将所述用户语音的识别文本与所述原唱语音的识别文本对齐,获取所述用户语音的识别文本与所述原唱语音的识别文本之间的编辑距离;其中,所述编辑距离是指将所述用户语音的识别文本编辑成为所述原唱语音的识别文本所需要的编辑操作的次数,所述编辑操作包括删除操作、替换操作以及增加操作;
第一报告生成单元,用于根据所述编辑距离关联的编辑操作次数、编辑操作类型以及产生所述编辑距离的字符的位置,生成对所述用户语音的声学信息评价报告;其中,所述声学信息评价报告记录所述编辑距离以及产生所述编辑距离的字符的位置,所述声学信息评价报告至少表征所述用户语音中出现的唱错词、唱漏词或唱多词的情况。
5.根据权利要求4所述的装置,其特征在于,所述唱词声学信息包括:音高和音调,所述唱词关联信息是不同声学单元之间的时间距离。
6.根据权利要求4所述的装置,其特征在于,若编辑距离不为零,所述比较模块还包括:
关联信息比较单元,用于通过对所述原唱语音及所述用户语音的唱词关联信息之间的比较,获取所述原唱语音及所述用户语音中相同声学单元的出现时间的差值;
第二报告生成单元,用于根据所述差值,生成对所述用户语音的关联信息评价报告。
CN201510608235.3A 2015-09-22 2015-09-22 歌曲试唱的评价方法及装置 Active CN105244041B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510608235.3A CN105244041B (zh) 2015-09-22 2015-09-22 歌曲试唱的评价方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510608235.3A CN105244041B (zh) 2015-09-22 2015-09-22 歌曲试唱的评价方法及装置

Publications (2)

Publication Number Publication Date
CN105244041A CN105244041A (zh) 2016-01-13
CN105244041B true CN105244041B (zh) 2019-10-01

Family

ID=55041660

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510608235.3A Active CN105244041B (zh) 2015-09-22 2015-09-22 歌曲试唱的评价方法及装置

Country Status (1)

Country Link
CN (1) CN105244041B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107818797B (zh) * 2017-12-07 2021-07-06 苏州科达科技股份有限公司 语音质量评价方法、装置及其系统
CN108877835A (zh) * 2018-05-31 2018-11-23 深圳市路通网络技术有限公司 评价语音信号的方法及系统
CN108831437B (zh) * 2018-06-15 2020-09-01 百度在线网络技术(北京)有限公司 一种歌声生成方法、装置、终端和存储介质
CN109903779A (zh) * 2019-01-08 2019-06-18 北京雷石天地电子技术有限公司 一种歌曲演唱评价方法及系统
CN110277106B (zh) * 2019-06-21 2021-10-22 北京达佳互联信息技术有限公司 音频质量确定方法、装置、设备及存储介质
CN110808069A (zh) * 2019-11-11 2020-02-18 上海瑞美锦鑫健康管理有限公司 一种演唱歌曲的评价系统及方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3567123B2 (ja) * 2000-07-26 2004-09-22 株式会社第一興商 歌詞文字を利用した歌唱採点装置
CN102664016B (zh) * 2012-04-23 2014-05-14 安徽科大讯飞信息科技股份有限公司 唱歌评测方法及系统
CN103165119B (zh) * 2013-01-31 2015-12-09 华为技术有限公司 K歌方法及系统
US9064484B1 (en) * 2014-03-17 2015-06-23 Singon Oy Method of providing feedback on performance of karaoke song
CN104064180A (zh) * 2014-06-06 2014-09-24 百度在线网络技术(北京)有限公司 演唱评分方法及装置
CN104715760B (zh) * 2015-02-13 2018-06-19 朱威 一种k歌匹配分析方法及系统

Also Published As

Publication number Publication date
CN105244041A (zh) 2016-01-13

Similar Documents

Publication Publication Date Title
CN105244041B (zh) 歌曲试唱的评价方法及装置
CN109065031B (zh) 语音标注方法、装置及设备
Maher Evaluation of a method for separating digitized duet signals
US20120290298A1 (en) System and method for optimizing speech recognition and natural language parameters with user feedback
CN101689225B (zh) 生成音乐小样和识别相关的歌曲结构
WO2016101577A1 (zh) 语音识别的方法、客户端及终端设备
CN106372059A (zh) 信息输入方法和装置
CN105741835A (zh) 一种音频信息处理方法及终端
CN104538011A (zh) 一种音调调节方法、装置及终端设备
Mittal et al. Study of characteristics of aperiodicity in Noh voices
CN107103915A (zh) 一种音频数据处理方法以及装置
CN108597538B (zh) 语音合成系统的评测方法和系统
WO2022105693A1 (zh) 样本生成方法及装置
CN110428811B (zh) 一种数据处理方法、装置及电子设备
CN106611603A (zh) 一种音频处理方法及装置
CN104252872A (zh) 歌词生成方法和智能终端
Shifas et al. A non-causal FFTNet architecture for speech enhancement
CN105895079A (zh) 语音数据的处理方法和装置
CN103616962B (zh) 一种信息处理方法和装置
CN110619886B (zh) 一种针对低资源土家语的端到端语音增强方法
Rosenzweig et al. Detecting Stable Regions in Frequency Trajectories for Tonal Analysis of Traditional Georgian Vocal Music.
CN108804474A (zh) 歌曲的音频信号处理方法、音频相似度匹配方法及装置
CN111785236A (zh) 一种基于动机提取模型与神经网络的自动作曲方法
CN108900886A (zh) 一种手绘视频智能配音生成以及同步方法
CN105630831A (zh) 哼唱检索方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant