CN115033733A - 音频文本对生成方法、电子设备和存储介质 - Google Patents

音频文本对生成方法、电子设备和存储介质 Download PDF

Info

Publication number
CN115033733A
CN115033733A CN202210656019.6A CN202210656019A CN115033733A CN 115033733 A CN115033733 A CN 115033733A CN 202210656019 A CN202210656019 A CN 202210656019A CN 115033733 A CN115033733 A CN 115033733A
Authority
CN
China
Prior art keywords
audio
text
model
data
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210656019.6A
Other languages
English (en)
Inventor
吴梦玥
俞凯
徐薛楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sipic Technology Co Ltd
Original Assignee
Sipic Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sipic Technology Co Ltd filed Critical Sipic Technology Co Ltd
Priority to CN202210656019.6A priority Critical patent/CN115033733A/zh
Publication of CN115033733A publication Critical patent/CN115033733A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/64Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/685Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明公开一种音频文本对生成方法、电子设备和存储介质。具体地,该方法包括:获取原始音频;所述原始音频具有相应的音频事件标签;基于音频摘要模型,确定与所述音频事件标签相应的音频摘要;基于所述音频摘要和所述原始音频,生成音频文本对。由此,通过使用音频摘要模型,利用原始音频的音频事件标签来指导生成音频摘要,得到了匹配的平行音频文本数据。

Description

音频文本对生成方法、电子设备和存储介质
技术领域
本发明属于音频处理技术领域,尤其涉及一种音频文本对生成方法、电子设备和存储介质。
背景技术
近年来,随着深度神经网络和大规模数据集的成功,我们见证了多模态学习的快速发展。各种跨模态任务的最新技术(SOTA),如视觉问答(VQA)、图像文本检索、视觉常识推理(VCR)等跨模态业务已逐渐融入人们生活和工作的各个方面。
因此,多模态机器学习已经变得越来越流行,通过对大规模图像文本数据集进行预训练,学习视觉和语言模式的联合表示,然后对特定的下游视觉语言任务进行微调。
然而,与视觉语言训练前已存在的大量作品相比,与音频相关的多模态学习仍处于初级阶段。虽然音频是一种重要的形式,但很少有作品探讨涉及音频和语言的预训练。音频语言跨模态学习的瓶颈在于并行音频文本数据的匮乏。与大规模并行图像文本数据集(如COCO,约164万对)相比,目前的并行音频文本数据集仅包含约100K对。缺乏大规模并行音频文本数据集的原因可能是,不仅音频注释的成本远高于图像描述注释,而且在网络上的共现的音频文本也很少可用。
为了缓解上述数据稀缺的问题,关于音频-文本跨模态学习的主流著作大多采用了CLIP,这是一种支持图像-文本对齐的强大模型,有助于音频语言表征学习。由于大量视频数据中存在大量的视频-音频共生现象,因此视觉模态是连接音频和文本的枢纽。然而,通过声音和图像检测对象和事件时,通常会观察到音频和视频的模态是不匹配的。例如,视频中的可见对象不一定会发出声音,并且声音可能是由画面外的对象产生的。这种不匹配导致了基于视觉图像和音频文本对齐中的噪声。
针对上述问题,目前业界暂未提供较佳的解决方案。
发明内容
本发明实施例提供一种音频文本对生成方法、电子设备和存储介质,用于至少解决上述技术问题之一。
第一方面,本发明实施例提供一种音频文本对生成方法,包括:获取原始音频;所述原始音频具有相应的音频事件标签;基于音频摘要模型,确定与所述音频事件标签相应的音频摘要;基于所述音频摘要和所述原始音频,生成音频文本对。
第二方面,本发明实施例提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述方法的步骤。
第三方面,本发明实施例提供一种存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,所述执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本发明上述方法的步骤。
第四方面,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述方法的步骤。
本发明实施例的有益效果在于:
通过使用音频摘要模型,利用原始音频的音频事件标签来指导生成音频摘要,得到了匹配的平行音频文本数据(即,音频文本对)。此外,由于没有使用视觉信息作为辅助,不会出现视觉和文本匹配而音频和文本不匹配的情况,为实现大规模合成音频文本对提供了基础。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了根据本发明实施例的音频文本对生成方法的一示例的流程图;
图2示出了根据本发明实施例的用AudioSet音频事件作为引导的音频摘要模型来生成音频文本对的一示例的流程图;
图3示出了根据本发明实施例的具有双编码器结构的音频摘要模型的一示例的框架示意图;
图4示出了目前一些英文音频-文本数据集的统计参数的示例;
图5示出了根据本发明实施例的音频摘要模型处理下游跨模态和单模态任务的汇总设置的示例性图表;
图6示出了根据本发明实施例的音频摘要模型合成的平行音频文本数据和真实数据在音频摘要性能方面进行比较的示例性图表;
图7示出了根据本发明实施例的预训练模型的音频文本检索性能的示例性图表;
图8示出了根据本发明实施例的使用CLAP初始化微调的模型与从头开始训练的模型之间的音频文本检索性能比较的示例性图表;
图9示出了使用从PANNs和CLAP提取的音频特征之间的音频摘要的性能比较的示例性图表;
图10示出了在零样本推断、线性探测和微调三种不同设置下的音频分类和标签性能的示例性图表;
图11示出了AudioSet中出现注释错误状况的音频数据的示例;
图12为本发明的电子设备的一实施例的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
在本发明中,“模块”、“系统”等等指应用于计算机的相关实体,如硬件、硬件和软件的组合、软件或执行中的软件等。详细地说,例如,元件可以、但不限于是运行于处理器的过程、处理器、对象、可执行元件、执行线程、程序和/或计算机。还有,运行于服务器上的应用程序或脚本程序、服务器都可以是元件。一个或多个元件可在执行的过程和/或线程中,并且元件可以在一台计算机上本地化和/或分布在两台或多台计算机之间,并可以由各种计算机可读介质运行。元件还可以根据具有一个或多个数据包的信号,例如,来自一个与本地系统、分布式系统中另一元件交互的,和/或在因特网的网络通过信号与其它系统交互的数据的信号通过本地和/或远程过程来进行通信。
最后,还需要说明的是,在本文中,术语“包括”、“包含”,不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
为了实现自动生成音频-文本对,目前,一些专家和学者提出,可以使用视觉-语言多模态预训练方法或音频-视频-语言预训练方法。
视觉-语言预训练需要使用成对的图片-文本数据,其中文本描述了图片的内容。这些预训练方法的模型和损失函数均有不同,有的将两个模态融合编码,即让两个模态数据交互,有的将两个模态的数据分别编码;训练的任务也有所不同,有掩码语言模型任务、语言-文本匹配任务等等。
音频-视频-语言预训练将音频加入视觉-语言预训练中,因为视频和音频天然匹配,所以用这些平行数据进行预训练,方法和视觉-语言预训练相似,只是加入了音频相关的损失函数。
然而,音频-视频-语言预训练在音频相关的下游任务上表现不佳,没有体现出预训练的优势。此外,大多数音频-视频-语言预训练使用的假设是这些数据的视频和音频是平行数据,然而实际情况不一定是这样,就展现的事件而言,音频中和视频中能看到的很大概率有差异。
图1示出了根据本发明实施例的音频文本对生成方法的一示例的流程图。
如图1所示,在步骤110中,获取原始音频。这里,原始音频具有相应的音频事件标签。这里,原始音频可以采用第三方音频或市面上通用的音频数据集,例如可以采用AudioSet中的音频数据,AudioSet是Google在ICASSP上发布的大型音频数据集,AudioSet中的音频数据具有相应的标签。此外,除了AudioSet,原始音频还可以是从其他非限制性类型的数据集中确定的,例如VGGSound和FSD50K等数据集。
在步骤120中,基于音频摘要模型,确定与音频事件标签相应的音频摘要。
需说明的是,在确定音频摘要时,音频摘要模型的输入可以是单独的音频事件标签,还可以是标签特征与其他数据特征(例如,音频特征)的联合。
在本发明实施例的一个示例中,音频摘要模型是以含有“标签-摘要-音频”为样本而进行训练的,例如,可以采用AudioCaps中的音频数据为样本进行训练,AudioCaps是AudioSet的子集,其中的每个音频数据具有对应的文本摘要。
在本发明实施例的另一示例中,音频摘要模型是以含有标签-摘要对为样本而进行训练的,由此实现从文本到文本的模型输出关系。具体地,可以使用AudioSet的音频事件标签作为输入,以文本摘要为输出,训练一个输入文本输出也为文本的生成模型。因此,同样可以使用AudioCaps中的音频数据为样本进行训练。同样应理解的是,除了可以使用AudioCaps之外,还可以使用其他类型的已有数据集来对音频摘要模型进行训练,例如Clotho、MACS数据集等等。
在步骤130中,基于音频摘要和原始音频,生成音频文本对。由此,利用音频摘要模型,实现了自动为原始音频匹配相应的音频摘要,实现了音频文本对的扩充。
在一些业务场景下,可以针对大规模的音频数据集中的各个音频数据分别使用上述步骤110~步骤130的操作,以实现大规模地生成音频文本对。
虽然当前的音频文本数据集中有大约100K组音频文本对,但数据集的大小还远远不够。然而,AudioSet提供了大规模音频事件数据。为了充分利用没有摘要描述的大规模纯音频数据,需要为AudioSet中的音频片段生成摘要。
示例性地,可以首先在AudioCaps上训练一个以AudioSet事件标签引导的音频摘要模型,AudioSet里的音频数据都具有相应声音事件标签。AudioCaps是AudioSet的子集,除了具有声音事件标签之外,还具有对应的文本摘要,所以训完的模型可以给AudioSet中的所有音频生成对应的文本摘要,从而得到大规模的平行音频-文本数据(得益于AudioSet包含了大量的音频)。这样,因为没有用视觉信息作为中介,得到的音频-文本数据是匹配的,不会出现视觉和文本匹配而音频和文本不匹配的情况,同时也保证了数据量。
为了克服数据匮乏的瓶颈,同时避免来自其他模式的数据噪音来源,提出了一种基于音频摘要的方法,使用大规模的音频事件数据集AudioSet扩展平行音频文本数据。AudioSet在原始数据集中仅包含音频片段和相应的音频事件标记。基于提供的事件标签,训练了一个音频集标签引导的音频摘要模型。在人工注释的事件标签的指导下,生成的摘要预计将与音频内容更相关。因此,通过使用摘要模型为音频集音频片段生成摘要,构建了大规模合成的平行音频文本对语料库。
需说明的是与使用补充信息来引导摘要的预测系统不同,由于在推理过程中只能从输入音频推断出制导,因此这些预测系统的辅助信息预测精度往往很低。在AudioSet中,由音频片段中呈现的音频事件标签组成的标签可以作为有效的指导。因此,为了提高生成摘要的质量,本发明提出将事件标记合并到摘要生成中,该模型根据输入音频和AudioSet标签指导而生成摘要。
图2示出了根据本发明实施例的用AudioSet音频事件作为引导的音频摘要模型来生成音频文本对的一示例的流程图。这里,音频摘要模型的输入为原始音频和对应的音频事件标签,模型的输出为对这个音频事件的自然语言描述。
如图2所示,音频摘要模型包含音频编码器、文本编码器和Transformer模块。在上述步骤120的实施过程中,可以是基于音频编码器,确定与原始音频对应的音频特征序列。这里,可以采用PANNs来提取音频数据所对应的音频特征序列。
然后,基于文本编码器确定与原始音频对应的词嵌入和与音频事件标签对应的标签嵌入,得到相应的文本特征序列。这里,文本编码器可以融合输入音频所对应的词嵌入和标签嵌入来生成文本特征序列,使得文本特征更加丰富。
进而,基于Transformer模块,确定音频特征序列和文本特征序列所对应的音频摘要。这里,Transformer模块被配置层双层结构,即多头自注意力层和多头交叉注意力层。通过Transformer模块中的多头自注意力层,确定文本特征序列所对应的第一特征,以及通过Transformer模块中的多头交叉注意力层,融合第一特征和音频特征序列,以得到第二特征。继而,基于第二特征,确定相应的音频摘要。
继续参照图2中的示例,音频特征序列x被馈送到编码器,并被转换成高级表示序列ea
ea=Encoder(x)
以部分解码的词语
Figure BDA0003687789110000071
所提供的声音事件标签
Figure BDA0003687789110000072
(M是标签的数量)和ea为条件,解码器预测每个词语(token)在时间步t的概率:
Figure BDA0003687789110000073
Figure BDA0003687789110000074
Figure BDA0003687789110000075
其中,WE和TE分别表示词嵌入和标签嵌入,将
Figure BDA0003687789110000076
和gm转化为固定维向量。从特殊的“<BOS>”词语开始,解码器自回归地预测下一个词语,直到到达“<EOS>”词语。
在这项工作中,当输入音频x时,通过利用PANNs(也被称为CNN14变体)计算深度嵌入。编码器是一个三层双向门控递归单元(GRU),而解码器是一个两层Transformer,和一个最终的完全连接(FC)层。系统是通过词级交叉熵(CE)损失进行训练的:
Figure BDA0003687789110000081
其中,yt表示时间步长t上的真实词语标签。
在训练了AudioSet标签引导摘要模型之后,使用它为大规模AudioSet音频片段生成摘要。然而,AudioCaps的数据分布不同于AudioSet,因为在AudioCaps的构建过程中,带有特定事件标签的音频片段被排除在外。继而,使用增强摘要模型为每个音频片段生成一个摘要,从而产生约1.22M个音频文本对,这个大规模的合成平行音频文本数据后续可被用于进行模型的预训练操作。
需说明的是,与大量的视觉-文本预训练研究相比,很少有工作探索音频-文本预训练,主要是由于缺乏足够的平行音频-文本数据。在本发明实施例中,利用基于音频摘要的方法使用大规模声音事件数据集AudioSet扩展平行的音频-文本数据。
在本发明实施例的一些业务场景上,可以利用音频摘要模型来处理音频摘要生成任务、音频文本检索任务等等,并能保障较佳的处理性能。
进一步地,可以基于所生成的至少一个音频文本对,对音频摘要模型中的音频编码器和文本编码器进行对比训练优化。由此,经过预训练后的音频摘要模型在音频任务中对输出音频的微调处理,并具备了处理零样本推理任务的能力。以音频分类为例,预训练的模型既可以用于零样本推断,也可以用于微调。对于零样本推断,计算音频片段和所有文本标签之间的相似性分数作为估计概率。对于微调,在音频编码器之后附加一个全连接(FC)层,用于进一步分类微调以提高性能。
图3示出了根据本发明实施例的具有双编码器结构的音频摘要模型的一示例的框架示意图。
图3示出了从音频-文本对中学习对比音频-文本的双模态表征,模型是由两种模式的音频编码器和文本编码器组成。如图3所示,该模型通过对比学习进行预训练,预训练包括两个步骤:步骤1)利用合成的平行音频文本数据进行预训练;步骤2)基于真实数据进行深度预训练。由于真实数据和合成数据的质量存在差距,因此采用第二个预训练步骤来缓解合成数据造成的偏差。
这里,对比学习方法学习任意音频-文本对中文本内容与音频事件之间的对应关系。对于音频片段
Figure BDA0003687789110000091
和句子
Figure BDA0003687789110000092
音频编码器EncA和文本编码器EncT将它们分别转换为两个嵌入a和t。通过最大化匹配音频文本对的a和t之间的相似性,最小化不匹配音频文本对的相似性,以学习多模态嵌入空间。
给定小批次的N个音频文本对(A1,T1),(A2,T2)…(AN,TN),其嵌入是通过以下方式进行计算的:
Figure BDA0003687789110000093
Figure BDA0003687789110000094
训练损失是预测的余弦相似性分数和真实配对标签之间的对称交叉熵损失:
Figure BDA0003687789110000095
Figure BDA0003687789110000096
Figure BDA0003687789110000097
Figure BDA0003687789110000098
其中,τ是一个温度参数。
在本发明实施例的一些示例中,音频摘要模型可以选择将音频编码器使用CNN+NetRVLAD,将文本编码器使用Word2vec+NetRVLAD。具有配置简单的优点,但参数量较少,增大数据量无法带来性能的提升。
在本发明实施例的一些优选设置中,对音频编码器和文本编码器提出了更高的要求。
在音频编码器方面,与特征提取器类似,可以使用PANNs中预先训练的CNN14作为EncA,而不是从头开始训练模型。从输入音频中提取时频表示对数Mel谱图(LMS),并将其馈送至12个卷积块,然后每两个区块之间进行2×2最大池化操作,在块卷积之后,通过特征映射上的全局池和通过完全连接层的变换来获得音频嵌入a。另外,Transformer模块在不进行降采样的情况下处理嵌入序列,而导致了对高内存的需求。因此,通过采用预训练的CNN14,能够实现更大尺寸的批量训练。
在文本编码器方面,可以利用BERT将
Figure BDA0003687789110000101
转换为T。文本编码器是一个深度转换器,通过自监督学习在大规模语料库上预训练,包括图书语料库和英语维基百科。由于其强大的提取上下文语义表示的能力,BERT在一系列语言理解任务中表现出了优异的性能。在本方案中,可以使用BertMEDIUM作为EncT以更好地计算效率和更低的内存需求,具体地,它是由8个隐藏嵌入大小为512的Transformer层组成的。
在本发明实施例中,通过扩展而自动生成的平行音频-文本对,提出了针对音频-文本双编码器的语言-音频对比预训练(CLAP),其中对比学习用于预训练音频-文本双编码器。基于预训练双编码器而得到的音频摘要模型在一系列下游音频相关任务上取得了较佳的性能,包括音频分类和标记等单模态任务、以及跨模态任务、音频文本检索和基于音频的文本生成等任务。
综合来看。整体的模型预训练过程分为两个阶段:1)大规模合成数据预训练;2)对真实数据进行预训练,以适应真实分布。经过预训练后,CLAP可以进一步转移到跨模态和单模态任务中。示例性地,在处理跨模态检索任务时,可以获取待进行跨模态检索任务的第一音频数据,然后基于音频摘要模型,确定与第一音频数据所对应的第一文本摘要,进而从预设的数据资源库中确定与第一文本摘要相匹配的目标文本资源。这样,实现了跨模态的音频文本检索过程。
通过一些实验数据表明,在对一组任务的CLAP进行微调时,可以取得显著的成绩。在自然语言的监督下,CLAP在大多数数据集上实现了SOTA零样本分类性能。通过线性探测和微调CLAP的音频编码器,证明了CLAP是一种高效的音频特征提取工具,也还可以便捷地迁移到不同领域的音频分类任务中(具体实验数据将在下文中展开)。
需说明的是,交叉编码器模型在同一个编码器中处理多模式输入,以允许两种模态的完全交互,因此通常在理解任务中表现良好。双编码器模型使用不同的编码器对音频和文本输入进行编码,以获得单独的嵌入。由于嵌入可以预先计算并存储以供查询,因此有利于高效检索。编码模型在编码器中对单个或两个模态进行编码,并使用解码器进行生成,从而提供生成任务的能力。在本发明实施例中,模型主要采用双编码器模式,因此能够实现有竞争力的性能。
为了验证本发明实施例所提供的音频摘要模型的突出性能,本发明的发明人对音频摘要模型进行了多组有效实验。通过实验结果表明,在扩展的音频-文本数据上进行预训练的CLAP在大多数数据集上实现了最佳的零样本分类性能,这证明了从大量高质量合成数据中进行预训练的好处。此外,音频编码器还可以充当一个有效的模式识别模型,在与音频相关的任务上进行微调。需指出的是,这是迄今为止第一个通用的音频-文本多模态预训练工作,实现了在一系列单模态和跨模态下游任务上实现了最佳性能。
下面,将首先介绍用于训练音频摘要模型以生成合成的平行音频文本数据的实验设置,然后再详细介绍CLAP的预训练、微调和评估过程。
Ⅰ音频集标签引导音频摘要模型训练
以AudioSet标签引导的摘要模型在AudioCaps上进行了25轮的训练,每批量的大小为64,学习速度线性上升至5×10-4然后指数衰减到5×10-7直到训练结束。计划采样和标签平滑用于正则化,通过平均最后五个检查点使用随机权重平均作为最终模型。对于AudioSet音频剪辑的推断,可以使用波束大小为3的波束搜索。
ⅡCLAP预训练
在第一步骤的预训练中,批大小为128,训练模型进行200K轮,以从合成数据中随机选择约1200对音频文本,形成一个单独的验证集。该模型在验证集上每500轮验证一次,通过使用最大学习率为1×10-4的Adam优化器,学习率由余弦调度器衰减,在前10k迭代中进行线性预热。
在综合验证集上具有最佳性能的模型用于初始化第二步骤的预训练中的参数。该设置与第一步骤类似,对超参数进行了几次修改。总的训练迭代和预热迭代分别为15000次和750次,而模型每750次进行一次验证。在此步骤之后训练的音频-文本双编码器称为CLAP。
Ⅲ下游任务
预先训练的CLAP可以转移到一系列下游任务中,如图5所示的表格所示,能够对跨模态任务和单模态任务进行处理。
跨模态音频文本任务包括音频文本检索和音频摘要。对于音频文本检索,使用前K个结果的召回(R@K)作为评价指标。来自图像摘要的标准COCO评估指标用于评估音频摘要的性能。此外,还可以将FENSE纳入评估,此指标与人类判断具有更高的相关性。
单模态任务包括单标签(分类)和多标签(标记)音频分类。精度和平均精度(mAP)用于评估。在本次实验中,设置了几个大小从2K到1.93M的数据集,以与以前的模型进行比较。
Ⅳ零样本分类
通过预先训练的CLAP,可以执行零样本分类。如果文本标签包含“_”,则将用空白替换“_”。CLAP计算给定音频片段和所有这些文本标签之间的相似性分数,这些分数被视为评估每个音频事件的预测概率。
Ⅴ微调任务
微调任务通常用于将通用预训练模型转移到可能专注于特定领域的下游任务,分别说明了两个跨模态任务和单模态音频分类的微调过程。
1)音频文本检索任务。音频文本检索任务的微调使用与预训练步骤几乎相同的配置。对于AudioCaps和Clotho,通过使用批量大小为128的InfoNCE损失对预先训练的biencoder模型进行了20代的微调,学习率从第一代线性上升到最大值。AudioCaps和Clotho的最大学习率分别为5×10-5和2×10-6
2)音频摘要任务。音频摘要模型与1)中提到的模型类似,不同之处在于1)音频特征是通过CLAP而不是PANNs提取的;2)系统不接收来自AudioSet标签的指导。
3)音频分类和标记。对于单模态任务,可以进一步微调预先训练的音频编码器EncA,将额外的FC层添加到EncA以用于分类。另外,还可以执行两种设置的微调:线性探测和微调整个EncA。在线性探测中,EncA用作特征提取器,只训练最后的FC层;而在第二个设置中不冻结任何参数。交叉熵损失和二进制交叉熵损失分别用于分类和标签训练。
下面将全面介绍CLAP的性能。具体地,首先评估合成的平行音频文本数据的质量。然后,对于跨模态和单模态下游任务,可以揭示出预训练的影响。对于单模态任务,通过零样本分类和微调EncA完成推断。
1)合成平行音频文本数据的好处
摘要生成的合成数据质量比较。合成数据的质量首先根据摘要性能进行评估。在AudioCaps测试集上比较了合成摘要和人工注释摘要的性能。由于人工注释既用作待评估的候选项,也用作参考项,因此使用循环评估计划。
具体来说,在每一轮中排除一个参考注释,并基于左四个注释评估标题。这五个分数的平均值作为绩效指标。如图6所示的图表显示了比较结果。通过指标显示,合成数据的性能接近人工标注。合成数据在度量N-gram重叠(BLEU、Rouge和METEOR)的指标上比其他关注语义相似性的指标表现得更好。这表明,来自AudioSet标签的指导有助于模型生成准确的单词和短语,尽管就整体语义而言,合成数据和真实数据之间存在差距。此外,还提供了不带Audio Set标签指导的摘要系统,以通过比较而突出导入音频事件标签的效果。在所有指标上都可以看到显著的改进。在Audio Set标签的指导下,摘要模型能够基于Audio Set生成高质量的平行的音频文本数据。
音频文本检索中的合成数据质量比较。然后,在合成的并行音频文本数据上对双编码器模型进行预训练。结果见图7中表格的上半部分。
为了便于比较,本发明实施例还采用了源自VIP~ANT中的音频焦点(AC)文本,VIP~ANT使用ClIP并从Audio Caps和Closo训练语料库中检索摘要。这两个合成数据集的大小相近(1.22M和1.08M)。结果表明,基于本发明实施例的合成数据训练的模型显著优于VIP~ANT。在策展AC上的预训练表现不佳表明,使用视觉模态作为音频和文本之间的衡量点会导致数据噪音,也正如上文其他部分所描述的一样,噪声可能来自异步的音频和视频模式。虽然没有采用与VIP~ANT相同的零样本学习设置,是因为本方案使用音频文本对齐来训练摘要模型,所以重点是直接从音频和音频集标签生成摘要,以消除视觉模式引起的噪声。需注意的是,Clotho摘要也用于在VIP~ANT中整理音频文本数据,可以只使用AudioCaps来训练摘要模型。在Clotho上进行评估时,根据合成数据训练的模型可能会受到两个数据集之间分布差异的影响。
在预训练的第二阶段经过之后,模型学习了真实的数据分布,并在两个数据集(尤其是Clotho)上都取得了良好的性能。为了验证合成的平行音频文本数据的有效性,本发明还提出从头开始在真实数据上训练了一个bi编码器。图7表格的下半部分给出了比较结果。Clotho不参与合成数据生成这一事实仍然有负面影响。然而,通过对合成数据进行预训练,Clotho上的性能与从头开始训练的模型相当,而AudioCaps上的性能得到了显著改善,这已经说明了大规模预训练的好处。
2)跨模态音频和语言任务
如图8和9中的图表,示出了将CLAP转换为跨模态音频文本任务所取得的性能,包括音频文本检索和音频摘要生成。
对于音频文本检索任务,本发明比较了从CLAP进行微调的模型和从零开始训练的具有相同体系结构的模型。由于Clotho的尺寸较小,从零开始训练的模型性能较差。随着大规模预先训练的CLAP的初始化,AudioCaps和Clotho都有了显著的改进。
对于自动音频摘要任务,CLAP被用作音频特征提取器。摘要模型利用从CLAP中提取的特征生成摘要。本发明以PANNs CNN14所产生的特征作为输入,通过训练具有相同体系结构的模型来比较CLAP和PANNs。CLAP特征输出表现在CIDEr、SPICE和FENSE等语义内容方面均优于PANNs,而BLEU4和ROUGEL则没有改善。这意味着CLAP特征可以帮助模型生成更多与内容相关的音频描述。
3)单模态音频分类
a、零样本推断。首先对几个数据集进行零样本推断,以揭示CLAP的推断能力。以前的一些模型也支持零样本推理,包括AudioCLIP,、Wav2CLIP和VIP~ANT,它们都将在这里一同被用于比较。在这些模型中,CLIP被用于合成音频文本数据生成或预训练。AudioCLIP在带有音频事件标签的AudioSet上进行训练,而Wav2CLIP在不使用标签的情况下在VGSound上进行训练。VIP~ANT采用了与CLAP类似的预训练方案:首先对合成数据进行训练,然后对真实数据进行微调。我们还将目前的SOTA结果作为参考。
参照图10所示图表的上半部分中的结果,在ESC50和UrbanSound8K上,在将AudioSet或AudioCaps纳入预训练的情况下,CLAP的表现明显优于AudioCLIP和VIP~ANT在VGSOUND上的表现。尽管Wav2CLIP是在同一数据集上预先训练的,但CLAP的性能优于Wav2CLIP,这表明了CLAP的有效推断能力。然而,在对比预训练之前接受了听力训练,即使是EncA,CLAP在音频设备上的映射值也非常低。除了因创建AudioCaps而导致的数据分布偏差,还观察到AudioSet标签中的噪声加剧了问题。通过以前的工作发现,不注释音频片段中存在的事件的注释错误是AudioSet中很常见的现象。
图11显示了一个示例。在音频剪辑中可以清晰地听到女性的讲话,而鼓掌则很有可能是“女性演讲,女性讲话”,其没有注释。但是,该事件不会发生在AudioSet注释中。假设这种注释错误会导致某些音频事件类的结果不可靠。因而,在注释更可靠的FSD50K上,CLAP实现了更高的映射。
b、音频编码器微调。除了零样本推断外,通过微调EncA来评估CLAP针对这些音频分类任务的推断能力。通过将其与PANN进行比较,因为它们共享相同的CNN14体系结构。图10所示表格的下半部分显示了结果。在线性探测和微调设置中,CLAP在所有数据集上都优于PANN。由于只有一个FC层作为分类器,ESC50和UrbanSound8K上的线性探测CLAP的性能甚至接近当前的SOTA结果,这表明CLAP是一个强大的音频特征提取器。特别是对于小的音频事件数据集,CLAP能够提取高分辨的特征进行分类。
通过本发明实施例,提出了一个AudioSet标签引导的音频摘要模型,用于在AudioSet上生成大规模并行音频文本数据。音频文本数据生成方法不包含CLIP,以消除由视觉模态引起的噪声。基于大规模合成的并行音频文本数据,使用对比学习预训练了一个双编码器音频文本模型。在对合成数据和真实数据依次进行预训练后,得到了可以转移到一系列下游任务的CLAP。在跨模态和单模态任务(包括检索、生成和分类)上的实验结果验证了CLAP的有效性。因此,在没有可用训练数据的困难零样本条件下,CLAP在大多数数据集上表现出最先进的性能。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作合并,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在一些实施例中,本发明实施例提供一种非易失性计算机可读存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,所述执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本发明上述任一项音频文本对生成方法。
在一些实施例中,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任一项音频文本对生成方法。
在一些实施例中,本发明实施例还提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行音频文本对生成方法。
图12是本发明另一实施例提供的执行音频文本对生成方法的电子设备的硬件结构示意图,如图12所示,该设备包括:
一个或多个处理器1210以及存储器1220,图12中以一个处理器1210为例。
执行音频合成方法的设备还可以包括:输入装置1230和输出装置1240。
处理器1210、存储器1220、输入装置1230和输出装置1240可以通过总线或者其他方式连接,图12中以通过总线连接为例。
存储器1220作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本发明实施例中的音频合成方法对应的程序指令/模块。处理器1210通过运行存储在存储器1220中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例音频文本对生成方法。
存储器1220可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据语音交互设备的使用所创建的数据等。此外,存储器1220可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器1220可选包括相对于处理器1210远程设置的存储器,这些远程存储器可以通过网络连接至音频合成设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置1230可接收输入的数字或字符信息,以及产生与音频合成设备的用户设置以及功能控制有关的信号。输出装置1240可包括显示屏等显示设备。
所述一个或者多个模块存储在所述存储器1220中,当被所述一个或者多个处理器1210执行时,执行上述任意方法实施例中的音频文本对生成方法。
上述产品可执行本发明实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的方法。
本发明实施例的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器,掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)其他具有数据交互功能的机载电子装置,例如安装上车辆上的车机装置。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种音频文本对生成方法,包括:
获取原始音频;所述原始音频具有相应的音频事件标签;
基于音频摘要模型,确定与所述音频事件标签相应的音频摘要;
基于所述音频摘要和所述原始音频,生成音频文本对。
2.根据权利要求1所述的方法,其中,所述基于音频摘要模型,确定与所述音频事件标签相应的音频摘要,包括:
将所述音频事件标签和所述原始音频输入至所述音频摘要模型,以由所述音频摘要模型确定相应的音频摘要。
3.根据权利要求2所述的方法,其中,所述音频摘要模型包含音频编码器、文本编码器和Transformer模块,
其中,所述基于音频摘要模型,确定与所述音频事件标签相应的音频摘要,包括:
基于所述音频编码器,确定与所述原始音频对应的音频特征序列;
基于所述文本编码器确定与所述原始音频对应的词嵌入和与所述音频事件标签对应的标签嵌入,得到相应的文本特征序列;
基于所述Transformer模块,确定所述音频特征序列和所述文本特征序列所对应的音频摘要。
4.根据权利要求4所述的方法,其中,所述基于所述Transformer模块,确定所述音频特征序列和所述文本特征序列所对应的音频摘要,包括:
基于所述Transformer模块中的多头自注意力层,确定所述文本特征序列所对应的第一特征;
基于所述Transformer模块中的多头交叉注意力层,融合所述第一特征和所述音频特征序列,以得到第二特征;
基于所述第二特征,确定相应的音频摘要。
5.根据权利要求3所述的方法,其中,在基于所述音频摘要和所述原始音频,生成音频文本对之后,所述方法还包括:
基于所生成的至少一个音频文本对,对所述音频摘要模型中的音频编码器和文本编码器进行对比训练优化。
6.根据权利要求1所述的方法,其中,所述方法还包括:
获取待进行跨模态检索任务的第一音频数据;
基于所述音频摘要模型,确定与所述第一音频数据所对应的第一文本摘要;
从预设的数据资源库中,确定与所述第一文本摘要相匹配的目标文本资源。
7.根据权利要求1所述的方法,其中,所述基于音频摘要模型,确定与所述音频事件标签相应的音频摘要,包括:
将所述音频事件标签输入至所述音频摘要模型,以由所述音频摘要模型确定相应的音频摘要。
8.根据权利要求1所述的方法,其中,所述原始音频选自AudioSet数据集,以及所述音频摘要模型是基于AudioCaps数据集而构建的。
9.一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述方法的步骤。
10.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-8中任一项所述方法的步骤。
CN202210656019.6A 2022-06-10 2022-06-10 音频文本对生成方法、电子设备和存储介质 Pending CN115033733A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210656019.6A CN115033733A (zh) 2022-06-10 2022-06-10 音频文本对生成方法、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210656019.6A CN115033733A (zh) 2022-06-10 2022-06-10 音频文本对生成方法、电子设备和存储介质

Publications (1)

Publication Number Publication Date
CN115033733A true CN115033733A (zh) 2022-09-09

Family

ID=83122912

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210656019.6A Pending CN115033733A (zh) 2022-06-10 2022-06-10 音频文本对生成方法、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN115033733A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116884391A (zh) * 2023-09-06 2023-10-13 中国科学院自动化研究所 基于扩散模型的多模态融合音频生成方法及装置
CN117710533A (zh) * 2024-02-02 2024-03-15 江西师范大学 一种基于扩散模型的音乐条件化舞蹈动画生成方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116884391A (zh) * 2023-09-06 2023-10-13 中国科学院自动化研究所 基于扩散模型的多模态融合音频生成方法及装置
CN116884391B (zh) * 2023-09-06 2023-12-01 中国科学院自动化研究所 基于扩散模型的多模态融合音频生成方法及装置
CN117710533A (zh) * 2024-02-02 2024-03-15 江西师范大学 一种基于扩散模型的音乐条件化舞蹈动画生成方法
CN117710533B (zh) * 2024-02-02 2024-04-30 江西师范大学 一种基于扩散模型的音乐条件化舞蹈动画生成方法

Similar Documents

Publication Publication Date Title
CN109241524B (zh) 语义解析方法及装置、计算机可读存储介质、电子设备
US11972365B2 (en) Question responding apparatus, question responding method and program
US10592607B2 (en) Iterative alternating neural attention for machine reading
CN109840287A (zh) 一种基于神经网络的跨模态信息检索方法和装置
WO2017201195A1 (en) Machine comprehension of unstructured text
CN110909550B (zh) 文本处理方法、装置、电子设备和可读存储介质
CN111626062B (zh) 文本语义编码方法及系统
Mei et al. Automated audio captioning: an overview of recent progress and new challenges
CN115033733A (zh) 音频文本对生成方法、电子设备和存储介质
CN111310441A (zh) 基于bert的语音识别后文本修正方法、装置、终端及介质
CN111460115A (zh) 智能人机对话模型训练方法、模型训练装置及电子设备
CN114911892A (zh) 用于搜索、检索和排序的交互层神经网络
CN111898379B (zh) 槽填充模型训练方法、电子设备及存储介质
Henderson Discriminative methods for statistical spoken dialogue systems
CN110678882A (zh) 使用机器学习从电子文档选择回答跨距
CN114154487A (zh) 文本自动纠错方法、装置、电子设备及存储介质
CN112668333A (zh) 命名实体的识别方法和设备、以及计算机可读存储介质
CN116662502A (zh) 基于检索增强的金融问答文本生成方法、设备及存储介质
CN111858860B (zh) 搜索信息处理方法及系统、服务器、计算机可读介质
CN113704466B (zh) 基于迭代网络的文本多标签分类方法、装置及电子设备
CN116127316A (zh) 模型的训练方法、文本摘要生成方法及相关设备
CN113066510B (zh) 一种元音弱读检测方法及装置
CN115240712A (zh) 一种基于多模态的情感分类方法、装置、设备及存储介质
Yadav et al. Image Processing-Based Transliteration from Hindi to English
CN112966520B (zh) 自然语言生成方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination