CN106055659B - 一种歌词数据匹配方法及其设备 - Google Patents

一种歌词数据匹配方法及其设备 Download PDF

Info

Publication number
CN106055659B
CN106055659B CN201610387055.1A CN201610387055A CN106055659B CN 106055659 B CN106055659 B CN 106055659B CN 201610387055 A CN201610387055 A CN 201610387055A CN 106055659 B CN106055659 B CN 106055659B
Authority
CN
China
Prior art keywords
data
lyric
audio
audio data
performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610387055.1A
Other languages
English (en)
Other versions
CN106055659A (zh
Inventor
赵伟峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201610387055.1A priority Critical patent/CN106055659B/zh
Publication of CN106055659A publication Critical patent/CN106055659A/zh
Application granted granted Critical
Publication of CN106055659B publication Critical patent/CN106055659B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/685Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

本发明实施例公开一种歌词数据匹配方法及其设备,其中方法包括如下步骤:获取目标伴奏数据对应的音乐文件,所述音乐文件包括所述目标伴奏数据对应的音乐数据以及所述音乐数据对应的第一歌词数据;根据所述第一歌词数据所指示的歌词演唱时间信息,提取所述音乐数据中的至少一个演奏音频数据;对所述至少一个演奏音频数据中每个演奏音频数据与所述目标伴奏数据中的音频片段进行匹配;按照匹配结果对所述歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据。采用本发明,可以实现依据发行的音乐文件对伴奏数据的歌词数据进行自动匹配,提升歌词数据的编辑效率,保证歌词数据的准确性。

Description

一种歌词数据匹配方法及其设备
技术领域
本发明涉及计算机技术领域,尤其涉及一种歌词数据匹配方法及其设备。
背景技术
随着计算机技术不断的开发和完善,手机和平板电脑等终端已经成为了人们生活中不可或缺的一个部分,通过在终端中安装的各种应用功能,可以实现用户的不同需求,例如:通信、游戏、听音乐等
现有的音乐应用除了可以对所需的音乐文件进行下载以及播放外,还可以实现歌曲演唱的功能,因此需要获取演唱歌曲的伴奏数据,初始获取的伴奏数据中并不存在对应的歌词数据,需要通过人工编辑歌词的方式对伴奏数据写入歌词数据,或者直接匹配发行的原唱音乐文件中的歌词数据,然而通过人工编辑歌词的方式需要耗费较多的时间,影响了歌词数据的编辑效率,而采用直接匹配的方式,容易出现时长、编曲等不同原因所导致的歌词偏移,降低了歌词数据的准确性。
发明内容
本发明实施例提供一种歌词数据匹配方法及其设备,可以实现依据发行的音乐文件对伴奏数据的歌词数据进行自动匹配,提升歌词数据的编辑效率,保证歌词数据的准确性。
本发明实施例第一方面提供了一种歌词数据匹配方法,可包括:
获取目标伴奏数据对应的音乐文件,所述音乐文件包括所述目标伴奏数据对应的音乐数据以及所述音乐数据对应的第一歌词数据;
根据所述第一歌词数据所指示的歌词演唱时间信息,提取所述音乐数据中的至少一个演奏音频数据,所述至少一个演奏音频数据为所述音乐数据中除歌词演唱时间信息对应的演唱音频数据外的其余音频数据;
对所述至少一个演奏音频数据中每个演奏音频数据与所述目标伴奏数据中的音频片段进行匹配;
按照匹配结果对所述歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据。
本发明实施例第二方面提供了一种歌词数据匹配设备,可包括:
文件获取单元,用于获取目标伴奏数据对应的音乐文件,所述音乐文件包括所述目标伴奏数据对应的音乐数据以及所述音乐数据对应的第一歌词数据;
数据提取单元,用于根据所述第一歌词数据所指示的歌词演唱时间信息,提取所述音乐数据中的至少一个演奏音频数据,所述至少一个演奏音频数据为所述音乐数据中除歌词演唱时间信息对应的演唱音频数据外的其余音频数据;
数据匹配单元,用于对所述至少一个演奏音频数据中每个演奏音频数据与所述目标伴奏数据中的音频片段进行匹配;
数据生成单元,用于按照匹配结果对所述歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据。
在本发明实施例中,通过获取伴奏数据对应的音乐数据和音乐数据对应的歌词数据,根据歌词数据提取音乐数据中的演奏音频数据部分,并在伴奏数据中匹配出演奏音频数据部分对应的音频片段,最终根据匹配结果对歌词数据的时间信息进行调整生成伴奏数据的歌词数据。通过利用音乐数据和伴奏数据中相同的演奏音频部分进行匹配,进而完成歌词的匹配,实现了依据发行的音乐文件对伴奏数据的歌词数据的自动匹配,提升了歌词数据的编辑效率,保证了歌词数据的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种歌词数据匹配方法的流程示意图;
图2是本发明实施例提供的另一种歌词数据匹配方法的流程示意图;
图3是本发明实施例提供的一种歌词数据匹配设备的结构示意图;
图4是本发明实施例提供的数据提取单元的结构示意图;
图5是本发明实施例提供的数据匹配单元的结构示意图;
图6是本发明实施例提供的一种数据生成单元的结构示意图;
图7是本发明实施例提供的另一种数据生成单元的结构示意图;
图8是本发明实施例提供的另一种歌词数据匹配设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的歌词数据匹配方法可以应用于对音乐应用中伴奏音乐的歌词匹配的场景,例如:歌词数据匹配设备获取目标伴奏数据对应的音乐文件,所述音乐文件包括所述目标伴奏数据对应的音乐数据以及所述音乐数据对应的第一歌词数据,所述歌词数据匹配设备根据所述第一歌词数据所指示的歌词演唱时间信息,提取所述音乐数据中的至少一个演奏音频数据,所述歌词数据匹配设备对所述至少一个演奏音频数据中每个演奏音频数据与所述目标伴奏数据中的音频片段进行匹配,所述歌词数据匹配设备按照匹配结果对所述歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据的场景等,通过利用音乐数据和伴奏数据中相同的演奏音频部分进行匹配,进而完成歌词的匹配,实现了依据发行的音乐文件对伴奏数据的歌词数据的自动匹配,提升了歌词数据的编辑效率,保证了歌词数据的准确性。
本发明实施例涉及的歌词数据匹配设备可以为音乐应用的后台服务设备;所述音乐应用可以为音乐播放应用、K歌应用等;所述目标伴奏数据可以为当前需要匹配歌词数据的伴奏音乐;所述音乐数据为与所述目标伴奏数据对应的发行原唱音乐。
下面将结合附图1和附图2,对本发明实施例提供的歌词数据匹配方法进行详细介绍。
请参见图1,为本发明实施例提供了一种歌词数据匹配方法的流程示意图。如图1所示,本发明实施例的所述方法可以包括以下步骤S101-S104。
S101,获取目标伴奏数据对应的音乐文件;
具体的,歌词数据匹配设备可以获取目标伴奏数据对应的音乐文件,所述音乐文件可以包括所述目标伴奏数据对应的音乐数据以及所述音乐数据对应的第一歌词数据,进一步的,所述歌词数据匹配设备在获取到所述目标伴奏数据时,可以获取所述目标伴奏数据的音乐标识,所述音乐标识优选为所述目标伴奏数据的音乐名称,所述歌词数据匹配设备可以采用所述音乐标识查找所述目标伴奏数据对应的音乐文件,由于不同歌手演唱的同一首歌曲的歌词是相同的,因此通过采用音乐标识对音乐文件进行查找,可以对不同音乐文件中的歌词数据进行复用,进一步提升歌词数据的准确性。
需要说明的是,所述歌词数据匹配设备查找到的音乐文件可以为多个音乐文件,为了保证歌词匹配的准确性,可以将音乐数据的时长小于所述目标伴奏数据的时长的音乐文件进行滤除。
S102,根据所述第一歌词数据所指示的歌词演唱时间信息,提取所述音乐数据中的至少一个演奏音频数据;
具体的,所述歌词数据匹配设备可以根据所述第一歌词数据所指示的歌词演唱时间信息,提取所述音乐数据中的至少一个演奏音频数据,可以理解的是,所述歌词演唱时间信息可以表示所述音乐文件中歌词演唱部分的时间信息,具体可以包括至少一句歌词中每句歌词的起始时间点以及持续时间段,所述至少一个演奏音频数据优选为所述音乐数据中除歌词演唱时间信息对应的演唱音频数据外的其余音频数据,例如:音乐前奏、音乐尾声,相邻两句歌词之间的音乐间奏等。
S103,对所述至少一个演奏音频数据中每个演奏音频数据与所述目标伴奏数据中的音频片段进行匹配;
具体的,所述歌词数据匹配设备可以对所述至少一个演奏音频数据中每个演奏音频数据与所述目标伴奏数据中的音频片段进行匹配,可以理解的是,由于编曲的原因,所述目标伴奏数据中的演奏音频数据与所述音乐数据中的演奏音频数据必然存在相同或相似的可能性,因此通过定位音乐数据中的演奏音频数据在所述目标伴奏数据中对应的音频片段,可以锁定目标伴奏数据中演奏音频数据的位置,进而实现歌词数据的匹配。
S104,按照匹配结果对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据;
具体的,所述歌词数据匹配设备可以按照所述每个演奏音频数据与所述目标伴奏数据中的音频片段进行匹配的匹配结果,对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据。可以理解的是,所述匹配结果用于表示所述每个演奏音频数据在当前的所述目标伴奏数据中匹配到的音频片段的数量、匹配到的音频片段的时间信息以及前后匹配到的音频片段的时间间隔等,根据匹配结果,可以对应修改所述第一歌词数据中的歌词演唱时间信息,同时可以对应修改每句歌词的每个字段的演唱时间信息,将修改后的第一歌词数据确定为所述目标伴奏数据对应的第二歌词数据。
在本发明实施例中,通过获取伴奏数据对应的音乐数据和音乐数据对应的歌词数据,根据歌词数据提取音乐数据中的演奏音频数据部分,并在伴奏数据中匹配出演奏音频数据部分对应的音频片段,最终根据匹配结果对歌词数据的时间信息进行调整生成伴奏数据的歌词数据。通过利用音乐数据和伴奏数据中相同的演奏音频部分进行匹配,进而完成歌词的匹配,实现了依据发行的音乐文件对伴奏数据的歌词数据的自动匹配,提升了歌词数据的编辑效率,保证了歌词数据的准确性。
请参见图2,为本发明实施例提供了另一种歌词数据匹配方法的流程示意图。如图2所示,本发明实施例的所述方法可以包括以下步骤S201-步骤S214。
S201,获取目标伴奏数据对应的音乐文件;
具体的,歌词数据匹配设备可以获取目标伴奏数据对应的音乐文件,所述音乐文件可以包括所述目标伴奏数据对应的音乐数据以及所述音乐数据对应的第一歌词数据,进一步的,所述歌词数据匹配设备在获取到所述目标伴奏数据时,可以获取所述目标伴奏数据的音乐标识,所述音乐标识优选为所述目标伴奏数据的音乐名称,所述歌词数据匹配设备可以采用所述音乐标识查找所述目标伴奏数据对应的音乐文件,由于不同歌手演唱的同一首歌曲的歌词是相同的,因此通过采用音乐标识对音乐文件进行查找,可以对不同音乐文件中的歌词数据进行复用,进一步提升歌词数据的准确性。
需要说明的是,所述歌词数据匹配设备查找到的音乐文件可以为多个音乐文件,为了保证歌词匹配的准确性,可以将音乐数据的时长小于所述目标伴奏数据的时长的音乐文件进行滤除。
S202,根据所述每句歌词的起始时间点以及持续时间段计算所述每句歌词的结束时间点;
具体的,所述歌词演唱时间信息可以表示所述音乐文件中歌词演唱部分的时间信息,具体可以包括至少一句歌词中每句歌词的起始时间点以及持续时间段,所述至少一个演奏音频数据优选为所述音乐数据中除歌词演唱时间信息对应的演唱音频数据外的其余音频数据,例如:音乐前奏、音乐尾声,相邻两句歌词之间的音乐间奏等。所述歌词数据匹配设备可以根据所述每句歌词的起始时间点以及持续时间段计算所述每句歌词的结束时间点,例如:针对以下一段歌词:
(1030,1150)a(1030,320)b(1350,430)c(1780,400)
(2590,1170)d(2590,330)e(2920,450)f(3370,390)
(4200,1160)g(4200,390)h(4590,360)i(4950,410)
(5720,1140)j(5720,380)k(6100,420)l(6520,340)…
上述歌词中存在“abc”、“def”、“ghi”以及“jkl”四句歌词,分别对应的起始时间点为1.03秒、2.59秒、4.2秒以及5.72秒,分别对应的持续时间段为1.15秒、1.17秒、1.16秒以及1.14秒,计算得到的每句歌词的结束时间点分别为2.18秒、3.76秒、5.36秒以及6.86秒。
S203,分别记录所述每句歌词的结束时间点与所述每句歌词的下一句歌词的起始时间点、所述第一歌词数据的初始时间点与所述至少一句歌词中的第一句歌词的起始时间点,以及所述至少一句歌词中的最后一句歌词的结束时间点与所述第一歌词数据的末端时间点,以生成演奏音频时间点集合;
具体的,所述歌词数据匹配设备分别记录所述每句歌词的结束时间点与所述每句歌词的下一句歌词的起始时间点、所述第一歌词数据的初始时间点与所述至少一句歌词中的第一句歌词的起始时间点,以及所述至少一句歌词中的最后一句歌词的结束时间点与所述第一歌词数据的末端时间点,以生成演奏音频时间点集合,其中,所述第一歌词数据的初始时间点用于表示所述音乐数据开始播放的起始位置的时间点,即音乐前奏的开始时间点,例如0秒,所述第一歌词数据的末端时间点用于表示所述音乐数据结束播放的最终位置的时间点,即音乐尾声的结束时间点,例如5分钟13秒等。依据上述举例,记录到的时间点可以包括(0秒,1.03秒)、(2.18秒,2.59秒)、(3.76秒,4.2秒)以及(5.36秒,5.72秒)等,所述歌词数据匹配设备可以根据上述记录到的时间点生成演奏音频时间点集合。
S204,按照所述演奏音频时间点集合在所述音乐数据中提取至少一个演奏音频数据;
具体的,所述歌词数据匹配设备可以按照所述演奏音频时间点集合在所述音乐数据中提取至少一个演奏音频数据,即所述演奏音频时间点集合中的每个记录到的时间点间在所述音乐数据中均分别对应一个演奏音频数据,例如:(0秒,1.03秒)对应的演奏音频数据为音乐前奏,(2.18秒,2.59秒)对应的演奏音频数据为第一句歌词和第二句歌词间的音乐间奏等。
S205,对所述目标伴奏数据以及所述至少一个演奏音频数据中每个演奏音频数据进行分帧处理,并在分帧处理后获取所述每个演奏音频数据的至少一帧第一音频数据,以及所述目标伴奏数据的至少一帧第二音频数据;
具体的,所述歌词数据匹配设备可以对所述目标伴奏数据以及所述至少一个演奏音频数据中每个演奏音频数据进行分帧处理,并在分帧处理后获取所述每个演奏音频数据的至少一帧第一音频数据,以及所述目标伴奏数据的至少一帧第二音频数据,优选的,所述歌词数据匹配设备可以将所述目标伴奏数据以及所述至少一个演奏音频数据转换为统一音频格式的音频数据,例如:8K16bit格式的音频数据等,并可以按照时间顺序对所述每个演奏音频数据进行编码,例如:Xi,假设有N个演奏音频数据,则i=1,2,3,…N。所述歌词数据匹配设备可以以第一预设数量的采样点为一帧,以第二预设数据的采样点为帧移的方式,分别对所述目标伴奏数据以及所述至少一个演奏音频数据中每个演奏音频数据进行分帧处理,例如:以1024个采样点为一帧,以32个采样点为帧移的分帧方式对所述N个演奏音频数据以及所述目标伴奏数据进行分帧处理,并在分帧处理后得到所述N个演奏音频数据中每个演奏音频数据的至少一帧第一音频数据,以及所述目标伴奏数据的至少一帧第二音频数据。
S206,分别计算所述至少一帧第一音频数据中每帧第一音频数据在预设频段上的频带能量,以及所述至少一帧第二音频数据中每帧第二音频数据在所述预设频段上的频带能量;
具体的,所述歌词数据匹配设备可以分别计算所述至少一帧第一音频数据中每帧第一音频数据在预设频段上的频带能量,以及所述至少一帧第二音频数据中每帧第二音频数据在所述预设频段上的频带能量,优选的,所述歌词数据匹配设备可以对所述每个演奏音频数据的至少一帧第一音频数据以及所述目标伴奏数据的至少一帧第二音频数据进行傅里叶变换,分别得到所述至少一帧第一音频数据中每帧第一音频数据的频谱,以及所述至少一帧第二音频数据中每帧第二音频数据的频谱,可以预先设置在频谱中设置相应数量的频段,依据上述举例,一帧存在1024个采样点,得到的所有频谱均为4K的频谱,平均分配到32个预设频段上,则每个频谱在每个预设频段上存在32个采样点,每个采样点均存在对应的频带能量,则计算每帧音频数据(对第一音频数据和第二音频数据的总称)在每个预设频段上的32个采样点的平均频带能量,将所述平均频带能量作为所述每帧音频数据在该预设频段上的频带能量。
S207,根据所述每帧第一音频数据在预设频段上的频带能量生成所述每个演奏音频数据的特征序列,并根据所述每帧第二音频数据在所述预设频段上的频带能量生成所述目标伴奏数据的特征序列;
具体的,所述歌词数据匹配设备进一步可以分别计算所述至少一帧第一音频数据中每帧第一音频数据在预设频段上的频带能量,以及所述至少一帧第二音频数据中每帧第二音频数据在所述预设频段上的频带能量,优选的,所述歌词数据匹配设备获取每个演奏音频数据的每帧第一音频数据在每个预设频段上的频带能量,以及获取所述目标伴奏数据的每帧第二音频数据在每个预设频段上的频带能量,以帧为单位,在同个演奏音频数据中,分别比较每帧第一音频数据中每个预设频段的频带能量与所述每帧第一音频数据的前一帧第一音频数据对应的预设频段的频带能量,若当前该帧第一音频数据在当前预设频段的频带能量大于前一帧第一音频数据在当前预设频段的频带能量,则将该帧第一音频数据在当前预设频段上的bit值设置为1,若小于,则设置为0,依次得到所述每帧第一音频数据的所述相应数量的bit值,所述歌词数据匹配设备可以将所述每个演奏音频数据中的所有第一音频数据的所有bit值合成为所述每个演奏音频数据的特征序列,同理,所述歌词数据匹配设备可以生成目标伴奏数据的特征序列。
依据上述举例,预设频段的相应数量为32个,假设在N个演奏音频数据中存在Xi的演奏音频数据,Xi中存在3帧第一音频数据,则分别将第2帧第一音频数据中的32个预设频段上的频段能量与第1帧第一音频数据中的32个预设频段上的频段能量进行大小比较,若第2帧第一音频数据在当前比较的预设频段上的频段能量大于第1帧第一音频数据在该预设频段上的频段能量,则将第2帧第一音频数据在该预设频段的bit值设为1,否则设为0,以此得到第2帧第一音频数据的32个bit值,同理,将第3帧第一音频数据与第2帧第一音频数据进行比较,得到第3帧第一音频数据的32个bit值,可以理解的是,由于第1帧第一音频数据不存在前一帧第一音频数据,因此可以不获取第1帧第一音频数据的bit值,可以将第2帧第一音频数据的32个bit值与第3帧第一音频数据的32个bit值合并为Xi的特征序列,因此N个演奏音频数据则有N个特征序列,而目标演奏数据则只有1个特征序列。
S208,分别将所述每个演奏音频数据的特征序列与所述目标伴奏数据的特征序列进行匹配,并在匹配后生成所述每个演奏音频数据与所述目标伴奏数据中的音频片段的匹配结果;
具体的,所述歌词数据匹配设备可以分别将所述每个演奏音频数据的特征序列与所述目标伴奏数据的特征序列进行匹配,并在匹配后生成所述每个演奏音频数据与所述目标伴奏数据中的音频片段的匹配结果,优选的,所述歌词数据匹配设备可以将每个演奏音频数据的特征序列在所述目标伴奏数据的特征序列依次进行匹配,依据上述举例,将Xi的特征序列在所述目标伴奏数据的特征序列中进行匹配,Xi的特征序列中存在64个bit值,则可以在所述目标伴奏数据的特征序列中进行32的滑窗匹配,即与所述目标伴奏数据的特征序列中的第1-64个bit值进行匹配,再与第32-96个bit值进行匹配,以此类推,直至在所述目标伴奏数据的特征序列中得到bit值相同数量最多,且匹配比例大于预设匹配阈值(例如95%等)的特征序列片段,则将特征序列片段对应的音频片段确定为Xi在所述目标伴奏数据中匹配到的音频片段Yi,依次对N个特征序列进行匹配,依据最终匹配的情况生成匹配结果。
在本发明实施例中,音频片段的匹配结果优选的存在两种匹配结果,分别为完全匹配和基本匹配,所述歌词数据匹配设备可以对应设置两种预设匹配条件对匹配结果进行判断,分别为第一预设匹配条件和第二预设匹配条件。针对完全匹配的情况,可以执行本发明实施例的步骤S209-S210。
S209,当所述匹配结果满足第一预设匹配条件时,获取所述至少一个演奏音频数据中第一个演奏音频数据的结束时间点与所述第一个演奏音频数据在所述目标伴奏数据中匹配到的第一个音频片段的结束时间点间的绝对时差;
具体的,当所述匹配结果满足第一预设匹配条件时,所述歌词数据匹配设备可以获取所述至少一个演奏音频数据中第一个演奏音频数据的结束时间点与所述第一个演奏音频数据在所述目标伴奏数据中匹配到的第一个音频片段的结束时间点间的绝对时差,所述第一预设匹配条件可以包括:
所述每个演奏音频数据在所述目标伴奏数据中均存在匹配的音频片段,例如:N个演奏音频数据在目标伴奏数据中均存在匹配的N个音频片段;和
所述每个演奏音频数据按照时间排序的排序序列与所述音频片段按照时间排序的排序序列相同,例如:N个演奏音频数据中的排序序列为(X1,X2,X3,…,XN),在目标伴奏数据中匹配的N个音频片段的排序序列也为(Y1,Y2,Y3,…,YN);和
所述至少一个演奏音频数据中相邻的两个演奏音频数据间的时间间隔与匹配的相邻的两个音频片段间的时间间隔相同,例如:X1的结束时间点为1.03秒,X2的开始时间点为2.18秒,则X1和X2间的时间间隔为1.15秒,同时,X1和X2对应的音频片段Y1和Y2的时间间隔也为1.15秒。
当匹配结果满足上述三个条件时,可以确定所述匹配结果满足所述第一预设匹配条件,由于所述每个演奏音频数据在所述目标伴奏数据中均匹配到了的音频片段,且排序序列以及时间间隔均相同,则只需分别确定第一个演奏音频数据的结束时间点与对应的第一个音频片段的结束时间点之间的绝对时差,依据上述举例,第一个演奏音频数据的结果时间点为1.03秒,若对应的第一个音频片段的结束时间点为2.03秒,则说明后续每句歌词的起始时间点均需要延迟1秒。
S210,根据所述绝对时差对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据;
具体的,所述歌词数据匹配设备可以根据所述绝对时差对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据,依据上述举例,绝对时差为1秒,则可以对应调整所述第一歌词数据中的歌词演唱时间信息,则调整后的第一歌词数据为:
(2030,1150)a(2030,320)b(2350,430)c(2780,400)
(3590,1170)d(3590,330)e(3920,450)f(4370,390)
(5200,1160)g(5200,390)h(5590,360)i(5950,410)
(6720,1140)j(6720,380)k(7100,420)l(7520,340)…
所述歌词数据匹配设备可以将调整后的第一歌词数据确定为所述目标伴奏数据对应的第二歌词数据。
而针对基本匹配的情况,可以执行本发明实施例的步骤S211-S214。
S211,当所述匹配结果满足第二预设匹配条件时,获取所述至少一个演奏音频数据中已匹配到音频片段的演奏音频数据,并获取所述已匹配到音频片段的演奏音频数据的起始时间点和结束时间点;
S212,获取所述已匹配到音频片段的演奏音频数据在所述目标伴奏数据中匹配到的目标音频片段,并获取所述目标音频片段的起始时间点和结束时间点;
S213,获取所述已匹配到音频片段的演奏音频数据的起始时间点和结束时间点与所述目标音频片段的起始时间点和结束时间点间的相对时差;
具体的,当所述匹配结果满足第二预设匹配条件时,所述歌词数据匹配设备可以获取所述至少一个演奏音频数据中已匹配到音频片段的演奏音频数据,并获取所述已匹配到音频片段的演奏音频数据的起始时间点和结束时间点,同时获取所述已匹配到音频片段的演奏音频数据在所述目标伴奏数据中匹配到的目标音频片段,并获取所述目标音频片段的起始时间点和结束时间点,所述歌词数据匹配设备可以获取所述已匹配到音频片段的演奏音频数据的起始时间点和结束时间点与所述目标音频片段的起始时间点和结束时间点间的相对时差,所述第二预设匹配条件可以包括:
所述至少一个演奏音频数据在所述目标伴奏数据中存在匹配的音频片段的比例大于或等于预设比例阈值,例如:假设预设比例阈值为90%,即N个演奏音频数据中至少存在90%的演奏音频数据需要在目标伴奏数据中存在匹配的N个音频片段;和
在所述目标伴奏数据中未匹配到音频片段的演奏音频数据为不连续的演奏音频数据,例如:N个演奏音频数据中连续的演奏音频数据X1,X2,X3,存在X1和X3未匹配到对应的音频片段,则X2必须匹配到对应的音频片段Y2,不允许出现X1和X2未匹配到音频片段,或者X2和X3未匹配到音频片段等;和
在所述目标伴奏数据中已匹配到音频片段的演奏音频数据按照时间排序的排序序列与已匹配到的音频片段按照时间排序的排序序列相同,例如:N个演奏音频数据中已匹配到音频片段的演奏音频数据的排序序列为(X1,X2,X4,…,XN),在目标伴奏数据中匹配的音频片段的排序序列也为(Y1,Y2,Y4,…,YN);和
在所述目标伴奏数据中相邻且连续的两个已匹配到音频片段的演奏音频数据间的时间间隔与已匹配到的两个音频片段间的时间间隔相同,例如:X1和X2为相邻且连续的两个已匹配到音频片段的演奏音频数据,X1的结束时间点为1.03秒,X2的开始时间点为2.18秒,则X1和X2间的时间间隔为1.15秒,同时,X1和X2对应的音频片段Y1和Y2的时间间隔也为1.15秒。
当匹配结果满足上述四个条件时,可以确定所述匹配结果满足所述第二预设匹配条件,由于所述每个演奏音频数据在所述目标伴奏数据中非连续匹配到音频片段,因此需要结合已匹配到音频片段的演奏音频数据的起始时间点和结束时间点,以及对应匹配到的目标音频片段的起始时间点和结束时间点,计算两者之间的相对时差,依据上述举例,N个演奏音频数据中连续的前三个演奏音频数据X1,X2,X3,假设X1和X3均匹配到目标音频片段为Y1和Y3,X2未匹配到音频片段,X1的起始时间点和结束时间点为0秒和1.03秒,X3的起始时间点和结束时间点为3.76秒和4.2秒,对应的Y1的起始时间点和结束时间点为1秒和2.03秒,Y3的起始时间点和结束时间点为5.76秒和6.2秒,则X1和Y1的绝对时差为1秒,X3和Y3的绝对时差为2秒,则X1和Y1以及X3和Y3之间的相对时差为1秒。
S214,根据所述相对时差对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据;
具体的,所述歌词数据匹配设备可以根据所述相对时差对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据,依据上述举例,相对时差为1秒,则可以推算出X2在编曲过程中被增加了1秒的时间,对应调整所述第一歌词数据中的歌词演唱时间信息,则调整后的前两句歌词为:
(2030,1150)a(2030,320)b(2350,430)c(2780,400)
(4590,1170)d(4590,330)e(4920,450)f(5370,390)
所述歌词数据匹配设备可以将调整后的第一歌词数据确定为所述目标伴奏数据对应的第二歌词数据,由于不存在连续的未匹配到音频片段的演奏音频数据,因此可以采用上述方式逐一对应修改第一歌词数据中的歌词演唱时间信息,直至所有歌词修改完毕。
在本发明实施例中,通过获取伴奏数据对应的音乐数据和音乐数据对应的歌词数据,根据歌词数据提取音乐数据中的演奏音频数据部分,并在伴奏数据中匹配出演奏音频数据部分对应的音频片段,最终根据匹配结果对歌词数据的时间信息进行调整生成伴奏数据的歌词数据。通过利用音乐数据和伴奏数据中相同的演奏音频部分进行匹配,进而完成歌词的匹配,实现了依据发行的音乐文件对伴奏数据的歌词数据的自动匹配,提升了歌词数据的编辑效率,保证了歌词数据的准确性;由于不同歌手演唱的同一首歌曲的歌词是相同的,因此通过采用音乐标识对音乐文件进行查找,可以对不同音乐文件中的歌词数据进行复用,进一步提升歌词数据的准确性。
下面将结合附图3-附图7,对本发明实施例提供的歌词数据匹配设备进行详细介绍。需要说明的是,附图3-附图7所示的歌词数据匹配设备,用于执行本发明图1和图2所示实施例的方法,为了便于说明,仅示出了与本发明实施例相关的部分,具体技术细节未揭示的,请参照本发明图1和图2所示的实施例。
文件获取单元11,用于获取目标伴奏数据对应的音乐文件;
具体实现中,所述文件获取单元11可以获取目标伴奏数据对应的音乐文件,所述音乐文件可以包括所述目标伴奏数据对应的音乐数据以及所述音乐数据对应的第一歌词数据,进一步的,所述文件获取单元11在获取到所述目标伴奏数据时,可以获取所述目标伴奏数据的音乐标识,所述音乐标识优选为所述目标伴奏数据的音乐名称,所述文件获取单元11可以采用所述音乐标识查找所述目标伴奏数据对应的音乐文件,由于不同歌手演唱的同一首歌曲的歌词是相同的,因此通过采用音乐标识对音乐文件进行查找,可以对不同音乐文件中的歌词数据进行复用,进一步提升歌词数据的准确性。
需要说明的是,所述文件获取单元11查找到的音乐文件可以为多个音乐文件,为了保证歌词匹配的准确性,可以将音乐数据的时长小于所述目标伴奏数据的时长的音乐文件进行滤除。
数据提取单元12,用于根据所述第一歌词数据所指示的歌词演唱时间信息,提取所述音乐数据中的至少一个演奏音频数据;
具体实现中,所述数据提取单元12可以根据所述第一歌词数据所指示的歌词演唱时间信息,提取所述音乐数据中的至少一个演奏音频数据,可以理解的是,所述歌词演唱时间信息可以表示所述音乐文件中歌词演唱部分的时间信息,具体可以包括至少一句歌词中每句歌词的起始时间点以及持续时间段,所述至少一个演奏音频数据优选为所述音乐数据中除歌词演唱时间信息对应的演唱音频数据外的其余音频数据,例如:音乐前奏、音乐尾声,相邻两句歌词之间的音乐间奏等。
具体的,请一并参见图4,为本发明实施例提供了数据提取单元的结构示意图。如图4所示,所述数据提取单元12可以包括:
结束点计算子单元121,用于根据所述每句歌词的起始时间点以及持续时间段计算所述每句歌词的结束时间点;
具体实现中,所述歌词演唱时间信息可以表示所述音乐文件中歌词演唱部分的时间信息,具体可以包括至少一句歌词中每句歌词的起始时间点以及持续时间段,所述至少一个演奏音频数据优选为所述音乐数据中除歌词演唱时间信息对应的演唱音频数据外的其余音频数据,例如:音乐前奏、音乐尾声,相邻两句歌词之间的音乐间奏等。所述结束点计算子单元121可以根据所述每句歌词的起始时间点以及持续时间段计算所述每句歌词的结束时间点,例如:针对以下一段歌词:
(1030,1150)a(1030,320)b(1350,430)c(1780,400)
(2590,1170)d(2590,330)e(2920,450)f(3370,390)
(4200,1160)g(4200,390)h(4590,360)i(4950,410)
(5720,1140)j(5720,380)k(6100,420)l(6520,340)…
上述歌词中存在“abc”、“def”、“ghi”以及“jkl”四句歌词,分别对应的起始时间点为1.03秒、2.59秒、4.2秒以及5.72秒,分别对应的持续时间段为1.15秒、1.17秒、1.16秒以及1.14秒,计算得到的每句歌词的结束时间点分别为2.18秒、3.76秒、5.36秒以及6.86秒。
集合生成子单元122,用于分别记录所述每句歌词的结束时间点与所述每句歌词的下一句歌词的起始时间点、所述第一歌词数据的初始时间点与所述至少一句歌词中的第一句歌词的起始时间点,以及所述至少一句歌词中的最后一句歌词的结束时间点与所述第一歌词数据的末端时间点,以生成演奏音频时间点集合;
具体实现中,所述集合生成子单元122分别记录所述每句歌词的结束时间点与所述每句歌词的下一句歌词的起始时间点、所述第一歌词数据的初始时间点与所述至少一句歌词中的第一句歌词的起始时间点,以及所述至少一句歌词中的最后一句歌词的结束时间点与所述第一歌词数据的末端时间点,以生成演奏音频时间点集合,其中,所述第一歌词数据的初始时间点用于表示所述音乐数据开始播放的起始位置的时间点,即音乐前奏的开始时间点,例如0秒,所述第一歌词数据的末端时间点用于表示所述音乐数据结束播放的最终位置的时间点,即音乐尾声的结束时间点,例如5分钟13秒等。依据上述举例,记录到的时间点可以包括(0秒,1.03秒)、(2.18秒,2.59秒)、(3.76秒,4.2秒)以及(5.36秒,5.72秒)等,所述集合生成子单元122可以根据上述记录到的时间点生成演奏音频时间点集合。
数据提取子单元123,用于按照所述演奏音频时间点集合在所述音乐数据中提取至少一个演奏音频数据;
具体实现中,所述数据提取子单元123可以按照所述演奏音频时间点集合在所述音乐数据中提取至少一个演奏音频数据,即所述演奏音频时间点集合中的每个记录到的时间点间在所述音乐数据中均分别对应一个演奏音频数据,例如:(0秒,1.03秒)对应的演奏音频数据为音乐前奏,(2.18秒,2.59秒)对应的演奏音频数据为第一句歌词和第二句歌词间的音乐间奏等。
数据匹配单元13,用于对所述至少一个演奏音频数据中每个演奏音频数据与所述目标伴奏数据中的音频片段进行匹配;
具体实现中,所述数据匹配单元13可以对所述至少一个演奏音频数据中每个演奏音频数据与所述目标伴奏数据中的音频片段进行匹配,可以理解的是,由于编曲的原因,所述目标伴奏数据中的演奏音频数据与所述音乐数据中的演奏音频数据必然存在相同或相似的可能性,因此通过定位音乐数据中的演奏音频数据在所述目标伴奏数据中对应的音频片段,可以锁定目标伴奏数据中演奏音频数据的位置,进而实现歌词数据的匹配。
具体的,请一并参见图5,为本发明实施例提供了数据匹配单元的结构示意图。如图5所示,所述数据匹配单元13可以包括:
帧数据获取子单元131,用于对所述目标伴奏数据以及所述至少一个演奏音频数据中每个演奏音频数据进行分帧处理,并在分帧处理后获取所述每个演奏音频数据的至少一帧第一音频数据,以及所述目标伴奏数据的至少一帧第二音频数据;
具体实现中,所述帧数据获取子单元131可以对所述目标伴奏数据以及所述至少一个演奏音频数据中每个演奏音频数据进行分帧处理,并在分帧处理后获取所述每个演奏音频数据的至少一帧第一音频数据,以及所述目标伴奏数据的至少一帧第二音频数据,优选的,所述帧数据获取子单元131可以将所述目标伴奏数据以及所述至少一个演奏音频数据转换为统一音频格式的音频数据,例如:8K16bit格式的音频数据等,并可以按照时间顺序对所述每个演奏音频数据进行编码,例如:Xi,假设有N个演奏音频数据,则i=1,2,3,…N。所述歌帧数据获取子单元131可以以第一预设数量的采样点为一帧,以第二预设数据的采样点为帧移的方式,分别对所述目标伴奏数据以及所述至少一个演奏音频数据中每个演奏音频数据进行分帧处理,例如:以1024个采样点为一帧,以32个采样点为帧移的分帧方式对所述N个演奏音频数据以及所述目标伴奏数据进行分帧处理,并在分帧处理后得到所述N个演奏音频数据中每个演奏音频数据的至少一帧第一音频数据,以及所述目标伴奏数据的至少一帧第二音频数据。
能量计算子单元132,用于分别计算所述至少一帧第一音频数据中每帧第一音频数据在预设频段上的频带能量,以及所述至少一帧第二音频数据中每帧第二音频数据在所述预设频段上的频带能量;
具体实现中,所述能量计算子单元132可以分别计算所述至少一帧第一音频数据中每帧第一音频数据在预设频段上的频带能量,以及所述至少一帧第二音频数据中每帧第二音频数据在所述预设频段上的频带能量,优选的,所述能量计算子单元132可以对所述每个演奏音频数据的至少一帧第一音频数据以及所述目标伴奏数据的至少一帧第二音频数据进行傅里叶变换,分别得到所述至少一帧第一音频数据中每帧第一音频数据的频谱,以及所述至少一帧第二音频数据中每帧第二音频数据的频谱,可以预先设置在频谱中设置相应数量的频段,依据上述举例,一帧存在1024个采样点,得到的所有频谱均为4K的频谱,平均分配到32个预设频段上,则每个频谱在每个预设频段上存在32个采样点,每个采样点均存在对应的频带能量,则计算每帧音频数据(对第一音频数据和第二音频数据的总称)在每个预设频段上的32个采样点的平均频带能量,将所述平均频带能量作为所述每帧音频数据在该预设频段上的频带能量。
序列生成子单元133,用于根据所述每帧第一音频数据在预设频段上的频带能量生成所述每个演奏音频数据的特征序列,并根据所述每帧第二音频数据在所述预设频段上的频带能量生成所述目标伴奏数据的特征序列;
具体实现中,所述序列生成子单元133进一步可以分别计算所述至少一帧第一音频数据中每帧第一音频数据在预设频段上的频带能量,以及所述至少一帧第二音频数据中每帧第二音频数据在所述预设频段上的频带能量,优选的,所述序列生成子单元133获取每个演奏音频数据的每帧第一音频数据在每个预设频段上的频带能量,以及获取所述目标伴奏数据的每帧第二音频数据在每个预设频段上的频带能量,以帧为单位,在同个演奏音频数据中,分别比较每帧第一音频数据中每个预设频段的频带能量与所述每帧第一音频数据的前一帧第一音频数据对应的预设频段的频带能量,若当前该帧第一音频数据在当前预设频段的频带能量大于前一帧第一音频数据在当前预设频段的频带能量,则将该帧第一音频数据在当前预设频段上的bit值设置为1,若小于,则设置为0,依次得到所述每帧第一音频数据的所述相应数量的bit值,所述序列生成子单元133可以将所述每个演奏音频数据中的所有第一音频数据的所有bit值合成为所述每个演奏音频数据的特征序列,同理,所述序列生成子单元133可以生成目标伴奏数据的特征序列。
依据上述举例,预设频段的相应数量为32个,假设在N个演奏音频数据中存在Xi的演奏音频数据,Xi中存在3帧第一音频数据,则分别将第2帧第一音频数据中的32个预设频段上的频段能量与第1帧第一音频数据中的32个预设频段上的频段能量进行大小比较,若第2帧第一音频数据在当前比较的预设频段上的频段能量大于第1帧第一音频数据在该预设频段上的频段能量,则将第2帧第一音频数据在该预设频段的bit值设为1,否则设为0,以此得到第2帧第一音频数据的32个bit值,同理,将第3帧第一音频数据与第2帧第一音频数据进行比较,得到第3帧第一音频数据的32个bit值,可以理解的是,由于第1帧第一音频数据不存在前一帧第一音频数据,因此可以不获取第1帧第一音频数据的bit值,可以将第2帧第一音频数据的32个bit值与第3帧第一音频数据的32个bit值合并为Xi的特征序列,因此N个演奏音频数据则有N个特征序列,而目标演奏数据则只有1个特征序列。
匹配结果生成子单元134,用于分别将所述每个演奏音频数据的特征序列与所述目标伴奏数据的特征序列进行匹配,并在匹配后生成所述每个演奏音频数据与所述目标伴奏数据中的音频片段的匹配结果;
具体实现中,所述匹配结果生成子单元134可以分别将所述每个演奏音频数据的特征序列与所述目标伴奏数据的特征序列进行匹配,并在匹配后生成所述每个演奏音频数据与所述目标伴奏数据中的音频片段的匹配结果,优选的,所述匹配结果生成子单元134可以将每个演奏音频数据的特征序列在所述目标伴奏数据的特征序列依次进行匹配,依据上述举例,将Xi的特征序列在所述目标伴奏数据的特征序列中进行匹配,Xi的特征序列中存在64个bit值,则可以在所述目标伴奏数据的特征序列中进行32的滑窗匹配,即与所述目标伴奏数据的特征序列中的第1-64个bit值进行匹配,再与第32-96个bit值进行匹配,以此类推,直至在所述目标伴奏数据的特征序列中得到bit值相同数量最多,且匹配比例大于预设匹配阈值(例如95%等)的特征序列片段,则将特征序列片段对应的音频片段确定为Xi在所述目标伴奏数据中匹配到的音频片段Yi,依次对N个特征序列进行匹配,依据最终匹配的情况生成匹配结果。
数据生成单元14,用于按照匹配结果对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据;
具体实现中,所述数据生成单元14可以按照所述每个演奏音频数据与所述目标伴奏数据中的音频片段进行匹配的匹配结果,对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据。可以理解的是,所述匹配结果用于表示所述每个演奏音频数据在当前的所述目标伴奏数据中匹配到的音频片段的数量、匹配到的音频片段的时间信息以及前后匹配到的音频片段的时间间隔等,根据匹配结果,可以对应修改所述第一歌词数据中的歌词演唱时间信息,同时可以对应修改每句歌词的每个字段的演唱时间信息,将修改后的第一歌词数据确定为所述目标伴奏数据对应的第二歌词数据。
在本发明实施例中,音频片段的匹配结果优选的存在两种匹配结果,分别为完全匹配和基本匹配,所述歌词数据匹配设备1可以对应设置两种预设匹配条件对匹配结果进行判断,分别为第一预设匹配条件和第二预设匹配条件。针对完全匹配的情况,请一并参见图6,为本发明实施例提供了一种数据生成单元的结构示意图。如图6所示,所述数据生成单元14可以包括:
第一时差获取子单元141,用于当所述匹配结果满足第一预设匹配条件时,获取所述至少一个演奏音频数据中第一个演奏音频数据的结束时间点与所述第一个演奏音频数据在所述目标伴奏数据中匹配到的第一个音频片段的结束时间点间的绝对时差;
具体实现中,当所述匹配结果满足第一预设匹配条件时,所述第一时差获取子单元141可以获取所述至少一个演奏音频数据中第一个演奏音频数据的结束时间点与所述第一个演奏音频数据在所述目标伴奏数据中匹配到的第一个音频片段的结束时间点间的绝对时差,所述第一预设匹配条件可以包括:
所述每个演奏音频数据在所述目标伴奏数据中均存在匹配的音频片段,例如:N个演奏音频数据在目标伴奏数据中均存在匹配的N个音频片段;和
所述每个演奏音频数据按照时间排序的排序序列与所述音频片段按照时间排序的排序序列相同,例如:N个演奏音频数据中的排序序列为(X1,X2,X3,…,XN),在目标伴奏数据中匹配的N个音频片段的排序序列也为(Y1,Y2,Y3,…,YN);和
所述至少一个演奏音频数据中相邻的两个演奏音频数据间的时间间隔与匹配的相邻的两个音频片段间的时间间隔相同,例如:X1的结束时间点为1.03秒,X2的开始时间点为2.18秒,则X1和X2间的时间间隔为1.15秒,同时,X1和X2对应的音频片段Y1和Y2的时间间隔也为1.15秒。
当匹配结果满足上述三个条件时,可以确定所述匹配结果满足所述第一预设匹配条件,由于所述每个演奏音频数据在所述目标伴奏数据中均匹配到了的音频片段,且排序序列以及时间间隔均相同,则只需分别确定第一个演奏音频数据的结束时间点与对应的第一个音频片段的结束时间点之间的绝对时差,依据上述举例,第一个演奏音频数据的结果时间点为1.03秒,若对应的第一个音频片段的结束时间点为2.03秒,则说明后续每句歌词的起始时间点均需要延迟1秒。
第一数据生成子单元142,用于根据所述绝对时差对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据;
具体实现中,所述第一数据生成子单元142可以根据所述绝对时差对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据,依据上述举例,绝对时差为1秒,则可以对应调整所述第一歌词数据中的歌词演唱时间信息,则调整后的第一歌词数据为:
(2030,1150)a(2030,320)b(2350,430)c(2780,400)
(3590,1170)d(3590,330)e(3920,450)f(4370,390)
(5200,1160)g(5200,390)h(5590,360)i(5950,410)
(6720,1140)j(6720,380)k(7100,420)l(7520,340)…
所述第一数据生成子单元142可以将调整后的第一歌词数据确定为所述目标伴奏数据对应的第二歌词数据。
而针对基本匹配的情况,请一并参见图7,为本发明实施例提供了另一种数据生成单元的结构示意图。如图7所示,所述数据生成单元14可以包括:
时间点获取子单元143,用于当所述匹配结果满足第二预设匹配条件时,获取所述至少一个演奏音频数据中已匹配到音频片段的演奏音频数据,并获取所述已匹配到音频片段的演奏音频数据的起始时间点和结束时间点;
所述时间点获取子单元143,用于获取所述已匹配到音频片段的演奏音频数据在所述目标伴奏数据中匹配到的目标音频片段,并获取所述目标音频片段的起始时间点和结束时间点;
第二时差获取子单元144,用于获取所述已匹配到音频片段的演奏音频数据的起始时间点和结束时间点与所述目标音频片段的起始时间点和结束时间点间的相对时差;
具体实现中,当所述匹配结果满足第二预设匹配条件时,所述时间点获取子单元143可以获取所述至少一个演奏音频数据中已匹配到音频片段的演奏音频数据,并获取所述已匹配到音频片段的演奏音频数据的起始时间点和结束时间点,同时获取所述已匹配到音频片段的演奏音频数据在所述目标伴奏数据中匹配到的目标音频片段,并获取所述目标音频片段的起始时间点和结束时间点,所述第二时差获取子单元144可以获取所述已匹配到音频片段的演奏音频数据的起始时间点和结束时间点与所述目标音频片段的起始时间点和结束时间点间的相对时差,所述第二预设匹配条件可以包括:
所述至少一个演奏音频数据在所述目标伴奏数据中存在匹配的音频片段的比例大于或等于预设比例阈值,例如:假设预设比例阈值为90%,即N个演奏音频数据中至少存在90%的演奏音频数据需要在目标伴奏数据中存在匹配的N个音频片段;和
在所述目标伴奏数据中未匹配到音频片段的演奏音频数据为不连续的演奏音频数据,例如:N个演奏音频数据中连续的演奏音频数据X1,X2,X3,存在X1和X3未匹配到对应的音频片段,则X2必须匹配到对应的音频片段Y2,不允许出现X1和X2未匹配到音频片段,或者X2和X3未匹配到音频片段等;和
在所述目标伴奏数据中已匹配到音频片段的演奏音频数据按照时间排序的排序序列与已匹配到的音频片段按照时间排序的排序序列相同,例如:N个演奏音频数据中已匹配到音频片段的演奏音频数据的排序序列为(X1,X2,X4,…,XN),在目标伴奏数据中匹配的音频片段的排序序列也为(Y1,Y2,Y4,…,YN);和
在所述目标伴奏数据中相邻且连续的两个已匹配到音频片段的演奏音频数据间的时间间隔与已匹配到的两个音频片段间的时间间隔相同,例如:X1和X2为相邻且连续的两个已匹配到音频片段的演奏音频数据,X1的结束时间点为1.03秒,X2的开始时间点为2.18秒,则X1和X2间的时间间隔为1.15秒,同时,X1和X2对应的音频片段Y1和Y2的时间间隔也为1.15秒。
当匹配结果满足上述四个条件时,可以确定所述匹配结果满足所述第二预设匹配条件,由于所述每个演奏音频数据在所述目标伴奏数据中非连续匹配到音频片段,因此需要结合已匹配到音频片段的演奏音频数据的起始时间点和结束时间点,以及对应匹配到的目标音频片段的起始时间点和结束时间点,计算两者之间的相对时差,依据上述举例,N个演奏音频数据中连续的前三个演奏音频数据X1,X2,X3,假设X1和X3均匹配到目标音频片段为Y1和Y3,X2未匹配到音频片段,X1的起始时间点和结束时间点为0秒和1.03秒,X3的起始时间点和结束时间点为3.76秒和4.2秒,对应的Y1的起始时间点和结束时间点为1秒和2.03秒,Y3的起始时间点和结束时间点为5.76秒和6.2秒,则X1和Y1的绝对时差为1秒,X3和Y3的绝对时差为2秒,则X1和Y1以及X3和Y3之间的相对时差为1秒。
第二数据生成子单元145,用于根据所述相对时差对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据;
具体实现中,所述第二数据生成子单元145可以根据所述相对时差对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据,依据上述举例,相对时差为1秒,则可以推算出X2在编曲过程中被增加了1秒的时间,对应调整所述第一歌词数据中的歌词演唱时间信息,则调整后的前两句歌词为:
(2030,1150)a(2030,320)b(2350,430)c(2780,400)
(4590,1170)d(4590,330)e(4920,450)f(5370,390)
所述第二数据生成子单元145可以将调整后的第一歌词数据确定为所述目标伴奏数据对应的第二歌词数据,由于不存在连续的未匹配到音频片段的演奏音频数据,因此可以采用上述方式逐一对应修改第一歌词数据中的歌词演唱时间信息,直至所有歌词修改完毕。
在本发明实施例中,通过获取伴奏数据对应的音乐数据和音乐数据对应的歌词数据,根据歌词数据提取音乐数据中的演奏音频数据部分,并在伴奏数据中匹配出演奏音频数据部分对应的音频片段,最终根据匹配结果对歌词数据的时间信息进行调整生成伴奏数据的歌词数据。通过利用音乐数据和伴奏数据中相同的演奏音频部分进行匹配,进而完成歌词的匹配,实现了依据发行的音乐文件对伴奏数据的歌词数据的自动匹配,提升了歌词数据的编辑效率,保证了歌词数据的准确性;由于不同歌手演唱的同一首歌曲的歌词是相同的,因此通过采用音乐标识对音乐文件进行查找,可以对不同音乐文件中的歌词数据进行复用,进一步提升歌词数据的准确性。
请参见图8,为本发明实施例提供了另一种歌词数据匹配设备的结构示意图。如图8所示,所述歌词数据匹配设备1000可以包括:至少一个处理器1001,例如CPU,至少一个网络接口1004,用户接口1003,存储器1005,至少一个通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。其中,用户接口1003可以包括显示屏(Display)、键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器1005可选的还可以是至少一个位于远离前述处理器1001的存储装置。如图8所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及数据匹配应用程序。
在图8所示的歌词数据匹配设备1000中,用户接口1003主要用于为用户提供输入的接口,获取用户输入的数据;而处理器1001可以用于调用存储器1005中存储的数据匹配应用程序,并具体执行以下操作:
获取目标伴奏数据对应的音乐文件,所述音乐文件包括所述目标伴奏数据对应的音乐数据以及所述音乐数据对应的第一歌词数据;
根据所述第一歌词数据所指示的歌词演唱时间信息,提取所述音乐数据中的至少一个演奏音频数据,所述至少一个演奏音频数据为所述音乐数据中除歌词演唱时间信息对应的演唱音频数据外的其余音频数据;
对所述至少一个演奏音频数据中每个演奏音频数据与所述目标伴奏数据中的音频片段进行匹配;
按照匹配结果对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据。
在一个实施例中,所述处理器1001在执行获取目标伴奏数据对应的音乐文件时,具体执行以下操作:
获取目标伴奏数据的音乐标识,并采用所述音乐标识查找所述目标伴奏数据对应的音乐文件。
在一个实施例中,所述歌词演唱时间信息包括至少一句歌词中每句歌词的起始时间点以及持续时间段;
所述处理器1001在执行根据所述第一歌词数据所指示的歌词演唱时间信息,提取所述音乐数据中的至少一个演奏音频数据时,具体执行以下操作:
根据所述每句歌词的起始时间点以及持续时间段计算所述每句歌词的结束时间点;
分别记录所述每句歌词的结束时间点与所述每句歌词的下一句歌词的起始时间点、所述第一歌词数据的初始时间点与所述至少一句歌词中的第一句歌词的起始时间点,以及所述至少一句歌词中的最后一句歌词的结束时间点与所述第一歌词数据的末端时间点,以生成演奏音频时间点集合;
按照所述演奏音频时间点集合在所述音乐数据中提取至少一个演奏音频数据。
在一个实施例中,所述处理器1001在执行对所述至少一个演奏音频数据中每个演奏音频数据与所述目标伴奏数据中的音频片段进行匹配时,具体执行以下操作:
对所述目标伴奏数据以及所述至少一个演奏音频数据中每个演奏音频数据进行分帧处理,并在分帧处理后获取所述每个演奏音频数据的至少一帧第一音频数据,以及所述目标伴奏数据的至少一帧第二音频数据;
分别计算所述至少一帧第一音频数据中每帧第一音频数据在预设频段上的频带能量,以及所述至少一帧第二音频数据中每帧第二音频数据在所述预设频段上的频带能量;
根据所述每帧第一音频数据在预设频段上的频带能量生成所述每个演奏音频数据的特征序列,并根据所述每帧第二音频数据在所述预设频段上的频带能量生成所述目标伴奏数据的特征序列;
分别将所述每个演奏音频数据的特征序列与所述目标伴奏数据的特征序列进行匹配,并在匹配后生成所述每个演奏音频数据与所述目标伴奏数据中的音频片段的匹配结果。
在一个实施例中,所述处理器1001在执行按照匹配结果对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据时,具体执行以下操作:
当所述匹配结果满足第一预设匹配条件时,获取所述至少一个演奏音频数据中第一个演奏音频数据的结束时间点与所述第一个演奏音频数据在所述目标伴奏数据中匹配到的第一个音频片段的结束时间点间的绝对时差;
根据所述绝对时差对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据。
在一个实施例中,所述处理器1001在执行按照匹配结果对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据时,具体执行以下操作:
当所述匹配结果满足第二预设匹配条件时,获取所述至少一个演奏音频数据中已匹配到音频片段的演奏音频数据,并获取所述已匹配到音频片段的演奏音频数据的起始时间点和结束时间点;
获取所述已匹配到音频片段的演奏音频数据在所述目标伴奏数据中匹配到的目标音频片段,并获取所述目标音频片段的起始时间点和结束时间点;
获取所述已匹配到音频片段的演奏音频数据的起始时间点和结束时间点与所述目标音频片段的起始时间点和结束时间点间的相对时差;
根据所述相对时差对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据。
在一个实施例中,所述第一预设匹配条件包括:
所述每个演奏音频数据在所述目标伴奏数据中均存在匹配的音频片段;和
所述每个演奏音频数据按照时间排序的排序序列与所述音频片段按照时间排序的排序序列相同;和
所述至少一个演奏音频数据中相邻的两个演奏音频数据间的时间间隔与匹配的相邻的两个音频片段间的时间间隔相同。
在一个实施例中,所述第二预设匹配条件包括:
所述至少一个演奏音频数据在所述目标伴奏数据中存在匹配的音频片段的比例大于或等于预设比例阈值;和
在所述目标伴奏数据中未匹配到音频片段的演奏音频数据为不连续的演奏音频数据;和
在所述目标伴奏数据中已匹配到音频片段的演奏音频数据按照时间排序的排序序列与已匹配到的音频片段按照时间排序的排序序列相同;和
在所述目标伴奏数据中相邻且连续的两个已匹配到音频片段的演奏音频数据间的时间间隔与已匹配到的两个音频片段间的时间间隔相同。
在本发明实施例中,通过获取伴奏数据对应的音乐数据和音乐数据对应的歌词数据,根据歌词数据提取音乐数据中的演奏音频数据部分,并在伴奏数据中匹配出演奏音频数据部分对应的音频片段,最终根据匹配结果对歌词数据的时间信息进行调整生成伴奏数据的歌词数据。通过利用音乐数据和伴奏数据中相同的演奏音频部分进行匹配,进而完成歌词的匹配,实现了依据发行的音乐文件对伴奏数据的歌词数据的自动匹配,提升了歌词数据的编辑效率,保证了歌词数据的准确性;由于不同歌手演唱的同一首歌曲的歌词是相同的,因此通过采用音乐标识对音乐文件进行查找,可以对不同音乐文件中的歌词数据进行复用,进一步提升歌词数据的准确性。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。

Claims (18)

1.一种歌词数据匹配方法,其特征在于,包括:
获取目标伴奏数据对应的音乐文件,所述音乐文件包括所述目标伴奏数据对应的音乐数据以及所述音乐数据对应的第一歌词数据;
根据所述第一歌词数据所指示的歌词演唱时间信息,提取所述音乐数据中的至少一个演奏音频数据,所述至少一个演奏音频数据为所述音乐数据中除歌词演唱时间信息对应的演唱音频数据外的其余音频数据;
获取所述目标伴奏数据以及所述至少一个演奏音频数据中每个演奏音频数据的至少一帧第一音频数据在预设频段上的频带能量,以及所述目标伴奏数据的至少一帧第二音频数据在所述预设频段上的频带能量;
根据每帧第一音频数据在预设频段上的频带能量生成所述每个演奏音频数据的特征序列,并根据每帧第二音频数据在所述预设频段上的频带能量生成所述目标伴奏数据的特征序列;
分别将所述每个演奏音频数据的特征序列与所述目标伴奏数据的特征序列进行匹配,并在匹配后生成所述每个演奏音频数据与所述目标伴奏数据中的音频片段的匹配结果;
按照匹配结果对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据。
2.根据权利要求1所述的方法,其特征在于,所述获取目标伴奏数据对应的音乐文件,包括:
获取目标伴奏数据的音乐标识,并采用所述音乐标识查找所述目标伴奏数据对应的音乐文件。
3.根据权利要求1所述的方法,其特征在于,所述歌词演唱时间信息包括至少一句歌词中每句歌词的起始时间点以及持续时间段;
所述根据所述第一歌词数据所指示的歌词演唱时间信息,提取所述音乐数据中的至少一个演奏音频数据,包括:
根据所述每句歌词的起始时间点以及持续时间段计算所述每句歌词的结束时间点;
分别记录所述每句歌词的结束时间点与所述每句歌词的下一句歌词的起始时间点、所述第一歌词数据的初始时间点与所述至少一句歌词中的第一句歌词的起始时间点,以及所述至少一句歌词中的最后一句歌词的结束时间点与所述第一歌词数据的末端时间点,以生成演奏音频时间点集合;
按照所述演奏音频时间点集合在所述音乐数据中提取至少一个演奏音频数据。
4.根据权利要求3所述的方法,其特征在于,所述获取所述目标伴奏数据以及所述至少一个演奏音频数据中每个演奏音频数据的至少一帧第一音频数据在预设频段上的频带能量,以及所述目标伴奏数据的至少一帧第二音频数据在所述预设频段上的频带能量,包括:
对所述目标伴奏数据以及所述至少一个演奏音频数据中每个演奏音频数据进行分帧处理,并在分帧处理后获取所述每个演奏音频数据的至少一帧第一音频数据,以及所述目标伴奏数据的至少一帧第二音频数据;
分别计算所述至少一帧第一音频数据中每帧第一音频数据在预设频段上的频带能量,以及所述至少一帧第二音频数据中每帧第二音频数据在所述预设频段上的频带能量。
5.根据权利要求4所述的方法,其特征在于,所述按照匹配结果对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据,包括:
当所述匹配结果满足第一预设匹配条件时,获取所述至少一个演奏音频数据中第一个演奏音频数据的结束时间点与所述第一个演奏音频数据在所述目标伴奏数据中匹配到的第一个音频片段的结束时间点间的绝对时差;
根据所述绝对时差对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据。
6.根据权利要求4所述的方法,其特征在于,所述按照匹配结果对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据,包括:
当所述匹配结果满足第二预设匹配条件时,获取所述至少一个演奏音频数据中已匹配到音频片段的演奏音频数据,并获取所述已匹配到音频片段的演奏音频数据的起始时间点和结束时间点;
获取所述已匹配到音频片段的演奏音频数据在所述目标伴奏数据中匹配到的目标音频片段,并获取所述目标音频片段的起始时间点和结束时间点;
获取所述已匹配到音频片段的演奏音频数据的起始时间点和结束时间点与所述目标音频片段的起始时间点和结束时间点间的相对时差;
根据所述相对时差对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据。
7.根据权利要求5所述的方法,其特征在于,所述第一预设匹配条件包括:
所述每个演奏音频数据在所述目标伴奏数据中均存在匹配的音频片段;和
所述每个演奏音频数据按照时间排序的排序序列与所述音频片段按照时间排序的排序序列相同;和
所述至少一个演奏音频数据中相邻的两个演奏音频数据间的时间间隔与匹配的相邻的两个音频片段间的时间间隔相同。
8.根据权利要求6所述的方法,其特征在于,所述第二预设匹配条件包括:
所述至少一个演奏音频数据在所述目标伴奏数据中存在匹配的音频片段的比例大于或等于预设比例阈值;和
在所述目标伴奏数据中未匹配到音频片段的演奏音频数据为不连续的演奏音频数据;和
在所述目标伴奏数据中已匹配到音频片段的演奏音频数据按照时间排序的排序序列与已匹配到的音频片段按照时间排序的排序序列相同;和
在所述目标伴奏数据中相邻且连续的两个已匹配到音频片段的演奏音频数据间的时间间隔与已匹配到的两个音频片段间的时间间隔相同。
9.一种歌词数据匹配设备,其特征在于,包括:
文件获取单元,用于获取目标伴奏数据对应的音乐文件,所述音乐文件包括所述目标伴奏数据对应的音乐数据以及所述音乐数据对应的第一歌词数据;
数据提取单元,用于根据所述第一歌词数据所指示的歌词演唱时间信息,提取所述音乐数据中的至少一个演奏音频数据,所述至少一个演奏音频数据为所述音乐数据中除歌词演唱时间信息对应的演唱音频数据外的其余音频数据;
数据匹配单元,用于获取所述目标伴奏数据以及所述至少一个演奏音频数据中每个演奏音频数据的至少一帧第一音频数据在预设频段上的频带能量,以及所述目标伴奏数据的至少一帧第二音频数据在所述预设频段上的频带能量;根据每帧第一音频数据在预设频段上的频带能量生成所述每个演奏音频数据的特征序列,并根据每帧第二音频数据在所述预设频段上的频带能量生成所述目标伴奏数据的特征序列;分别将所述每个演奏音频数据的特征序列与所述目标伴奏数据的特征序列进行匹配,并在匹配后生成所述每个演奏音频数据与所述目标伴奏数据中的音频片段的匹配结果;
数据生成单元,用于按照匹配结果对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据。
10.根据权利要求9所述的设备,其特征在于,所述文件获取单元具体用于获取目标伴奏数据的音乐标识,并采用所述音乐标识查找所述目标伴奏数据对应的音乐文件。
11.根据权利要求9所述的设备,其特征在于,所述歌词演唱时间信息包括至少一句歌词中每句歌词的起始时间点以及持续时间段;
所述数据提取单元包括:
结束点计算子单元,用于根据所述每句歌词的起始时间点以及持续时间段计算所述每句歌词的结束时间点;
集合生成子单元,用于分别记录所述每句歌词的结束时间点与所述每句歌词的下一句歌词的起始时间点、所述第一歌词数据的初始时间点与所述至少一句歌词中的第一句歌词的起始时间点,以及所述至少一句歌词中的最后一句歌词的结束时间点与所述第一歌词数据的末端时间点,以生成演奏音频时间点集合;
数据提取子单元,用于按照所述演奏音频时间点集合在所述音乐数据中提取至少一个演奏音频数据。
12.根据权利要求11所述的设备,其特征在于,所述数据匹配单元包括:
帧数据获取子单元,用于对所述目标伴奏数据以及所述至少一个演奏音频数据中每个演奏音频数据进行分帧处理,并在分帧处理后获取所述每个演奏音频数据的至少一帧第一音频数据,以及所述目标伴奏数据的至少一帧第二音频数据;
能量计算子单元,用于分别计算所述至少一帧第一音频数据中每帧第一音频数据在预设频段上的频带能量,以及所述至少一帧第二音频数据中每帧第二音频数据在所述预设频段上的频带能量;
序列生成子单元,用于根据所述每帧第一音频数据在预设频段上的频带能量生成所述每个演奏音频数据的特征序列,并根据所述每帧第二音频数据在所述预设频段上的频带能量生成所述目标伴奏数据的特征序列;
匹配结果生成子单元,用于分别将所述每个演奏音频数据的特征序列与所述目标伴奏数据的特征序列进行匹配,并在匹配后生成所述每个演奏音频数据与所述目标伴奏数据中的音频片段的匹配结果。
13.根据权利要求12所述的设备,其特征在于,所述数据生成单元包括:
第一时差获取子单元,用于当所述匹配结果满足第一预设匹配条件时,获取所述至少一个演奏音频数据中第一个演奏音频数据的结束时间点与所述第一个演奏音频数据在所述目标伴奏数据中匹配到的第一个音频片段的结束时间点间的绝对时差;
第一数据生成子单元,用于根据所述绝对时差对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据。
14.根据权利要求12所述的设备,其特征在于,所述数据生成单元包括:
时间点获取子单元,用于当所述匹配结果满足第二预设匹配条件时,获取所述至少一个演奏音频数据中已匹配到音频片段的演奏音频数据,并获取所述已匹配到音频片段的演奏音频数据的起始时间点和结束时间点;
所述时间点获取子单元,用于获取所述已匹配到音频片段的演奏音频数据在所述目标伴奏数据中匹配到的目标音频片段,并获取所述目标音频片段的起始时间点和结束时间点;
第二时差获取子单元,用于获取所述已匹配到音频片段的演奏音频数据的起始时间点和结束时间点与所述目标音频片段的起始时间点和结束时间点间的相对时差;
第二数据生成子单元,用于根据所述相对时差对所述第一歌词数据中的歌词演唱时间信息进行调整,以生成所述目标伴奏数据对应的第二歌词数据。
15.根据权利要求13所述的设备,其特征在于,所述第一预设匹配条件包括:
所述每个演奏音频数据在所述目标伴奏数据中均存在匹配的音频片段;和
所述每个演奏音频数据按照时间排序的排序序列与所述音频片段按照时间排序的排序序列相同;和
所述至少一个演奏音频数据中相邻的两个演奏音频数据间的时间间隔与匹配的相邻的两个音频片段间的时间间隔相同。
16.根据权利要求14所述的设备,其特征在于,所述第二预设匹配条件包括:
所述至少一个演奏音频数据在所述目标伴奏数据中存在匹配的音频片段的比例大于或等于预设比例阈值;和
在所述目标伴奏数据中未匹配到音频片段的演奏音频数据为不连续的演奏音频数据;和
在所述目标伴奏数据中已匹配到音频片段的演奏音频数据按照时间排序的排序序列与已匹配到的音频片段按照时间排序的排序序列相同;和
在所述目标伴奏数据中相邻且连续的两个已匹配到音频片段的演奏音频数据间的时间间隔与已匹配到的两个音频片段间的时间间隔相同。
17.一种歌词数据匹配设备,其特征在于,所述歌词数据匹配设备包括处理器和存储器,其中,所述存储器用于存储程序代码,所述处理器用于调用所述程序代码,执行如权利要求1-8任一项所述的歌词数据匹配方法。
18.一种计算机可读取存储介质,其特征在于,所述计算机可读取存储介质存储有计算机程序,所述计算机程序包括程序指令;所述程序指令当被处理器执行时使所述处理器执行如权利要求1-8任一项所述的歌词数据匹配方法。
CN201610387055.1A 2016-06-01 2016-06-01 一种歌词数据匹配方法及其设备 Active CN106055659B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610387055.1A CN106055659B (zh) 2016-06-01 2016-06-01 一种歌词数据匹配方法及其设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610387055.1A CN106055659B (zh) 2016-06-01 2016-06-01 一种歌词数据匹配方法及其设备

Publications (2)

Publication Number Publication Date
CN106055659A CN106055659A (zh) 2016-10-26
CN106055659B true CN106055659B (zh) 2020-10-23

Family

ID=57172701

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610387055.1A Active CN106055659B (zh) 2016-06-01 2016-06-01 一种歌词数据匹配方法及其设备

Country Status (1)

Country Link
CN (1) CN106055659B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106649644B (zh) * 2016-12-08 2020-02-07 腾讯音乐娱乐(深圳)有限公司 一种歌词文件生成方法及装置
CN108831423B (zh) * 2018-05-30 2023-06-06 腾讯音乐娱乐科技(深圳)有限公司 提取音频数据中主旋律音轨的方法、装置、终端及存储介质
CN109145149B (zh) * 2018-08-16 2021-05-04 科大讯飞股份有限公司 一种信息对齐方法、装置、设备及可读存储介质
CN109547850B (zh) * 2018-11-22 2021-04-06 杭州秋茶网络科技有限公司 视频拍摄纠错方法及相关产品
CN111210850B (zh) * 2020-01-10 2021-06-25 腾讯音乐娱乐科技(深圳)有限公司 歌词对齐方法及相关产品
CN112906369A (zh) * 2021-02-19 2021-06-04 脸萌有限公司 一种歌词文件生成方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040266337A1 (en) * 2003-06-25 2004-12-30 Microsoft Corporation Method and apparatus for synchronizing lyrics
CN1288552C (zh) * 2003-07-16 2006-12-06 英业达股份有限公司 伴唱字幕的编辑系统及其编辑与显示的方法
CN101808202B (zh) * 2009-02-18 2013-09-04 联想(北京)有限公司 实现影音文件中声音与字幕同步的方法、设备和计算机
CN102568515A (zh) * 2010-12-10 2012-07-11 上海宽娱数码科技有限公司 一种在视频播放中音频和字幕自动匹配的方法
CN103647909B (zh) * 2013-12-16 2017-05-17 宇龙计算机通信科技(深圳)有限公司 字幕调节方法及装置
CN104142989B (zh) * 2014-07-28 2017-10-17 广州酷狗计算机科技有限公司 一种匹配检测方法及装置
CN104966527B (zh) * 2015-05-27 2017-04-19 广州酷狗计算机科技有限公司 K歌处理方法、装置以及k歌处理系统

Also Published As

Publication number Publication date
CN106055659A (zh) 2016-10-26

Similar Documents

Publication Publication Date Title
CN106055659B (zh) 一种歌词数据匹配方法及其设备
KR102110057B1 (ko) 노래 확정 방법과 장치, 기억 매체
US10776422B2 (en) Dual sound source audio data processing method and apparatus
CN107591149B (zh) 音频合成方法、装置及存储介质
CN106708990B (zh) 一种音乐片段提取方法和设备
KR101796580B1 (ko) 음악 하이라이트 구간 추출 장치 및 방법
CN104703043A (zh) 一种添加视频特效的方法和装置
US8892565B2 (en) Method and apparatus for accessing an audio file from a collection of audio files using tonal matching
JP2022541186A (ja) ビデオ処理方法、装置、電子装置及び記憶媒体
WO2014161282A1 (zh) 视频文件播放进度的调整方法及装置
TW200402654A (en) A system and method for providing user control over repeating objects embedded in a stream
CN105825850B (zh) 一种音频处理方法及装置
CN111640411B (zh) 音频合成方法、装置及计算机可读存储介质
CN110688518A (zh) 节奏点的确定方法、装置、设备及存储介质
WO2016197708A1 (zh) 一种录音方法及终端
US20180158469A1 (en) Audio processing method and apparatus, and terminal
WO2023040520A1 (zh) 视频配乐方法、装置、计算机设备和存储介质
CN104361883A (zh) 歌唱评测标准文件制作方法和装置
CN114339081A (zh) 一种字幕生成方法、电子设备及计算机可读存储介质
CN113923390A (zh) 视频录制方法、装置、设备及存储介质
CN113658594A (zh) 歌词识别方法、装置、设备、存储介质及产品
CN106503181B (zh) 一种音频数据处理方法及装置
CN106775567B (zh) 一种音效匹配方法及系统
CN104978961A (zh) 一种音频处理方法、装置及终端
CN112037739A (zh) 一种数据处理方法、装置、电子设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant