CN112685594B - 基于注意力的弱监督语音检索方法及系统 - Google Patents
基于注意力的弱监督语音检索方法及系统 Download PDFInfo
- Publication number
- CN112685594B CN112685594B CN202011550159.2A CN202011550159A CN112685594B CN 112685594 B CN112685594 B CN 112685594B CN 202011550159 A CN202011550159 A CN 202011550159A CN 112685594 B CN112685594 B CN 112685594B
- Authority
- CN
- China
- Prior art keywords
- vector
- keyword
- voice
- attention
- vectors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明属于语音检索技术领域,特别涉及一种基于注意力的弱监督语音检索方法及系统,方法包含:提取文本关键词并转换为关键词特征向量,并对音频数据进行特征提取获取音频特征向量;使用注意力机制将关键词特征向量和音频特征向量进行融合,获取语音检索特征向量;将语音检索特征向量送入已训练优化的关键词识别模块识别,以检测文本关键词是否出现在语音数据中。本发明通过使用注意力机制来获得融合文本特征向量和音频特征向量的语音检索特征向量,使用弱监督标注数据即可训练优化识别模型,提升检索效率和准确性。
Description
技术领域
本发明属于语音检索技术领域,特别涉及一种基于注意力的弱监督语音检索方法及系统。
背景技术
语音检索的主要任务是从海量的语音数据库中找到感兴趣的关键词,并返回相应的位置。语音检索常用的方法有基于大词汇量连续语音识别的关键词搜索技术和基于神经网络的关键词搜索方法。使用基于大词汇量连续语音识别的关键词搜索技术进行语音检索需要两步。第一步是训练一个大词汇量连续语音识别系统,并利用训练好的系统将待搜索音频进行解码,生成对应的词格(Word lattice)。第二步是将解码器生成的待搜索音频库的词格转换成倒排索引,以便高效地进行搜索,得到关键词的位置及相应的置信度。基于神经网络的关键词搜索方法常用的有基于RNN-Transducer的使用注意力机制进行关键词搜索的方法,该方法在使用 RNN-Transducer进行语音识别的基础上,使用了注意力机制使得RNN-Transducer将识别重心转移到需要进行识别的关键词上面从而进行关键词检索。但以上两种方法都需要较多的训练标注数据。基于大词汇量连续语音识别的关键词搜索技术所需要的标注数据是字符级别的,而基于RNN-Transducer的使用注意力机制进行关键词搜索的方法所需要的标注数据是 phoneme级别的。对语音进行字符级别的标注需要耗费大量的资源,因此标注数据不足会成为了语音检索中很现实的一个问题,对注意力机制的使用方法不够丰富。
发明内容
为此,本发明提供一种基于注意力的弱监督语音检索方法及系统,通过使用注意力机制来获得融合文本特征向量和音频特征向量的语音检索特征向量,使用弱监督标注数据即可训练优化识别模型,提升检索效率和准确性。
按照本发明所提供的设计方案,一种基于注意力的弱监督语音检索方法,包含如下内容:
提取文本关键词并转换为关键词特征向量,并对音频数据进行特征提取获取音频特征向量;使用注意力机制将关键词特征向量和音频特征向量进行融合,获取语音检索特征向量;
将语音检索特征向量送入已训练优化的关键词识别模块识别,以检测文本关键词是否出现在语音数据中。
作为本发明基于注意力的弱监督语音检索方法,进一步的,利用关键词嵌入模块将文本关键词经过词嵌入操作转换来获取关键词特征向量。
作为本发明基于注意力的弱监督语音检索方法,进一步地,利用卷积循环神经网络提取音频数据的音频特征向量,首先对输入音频数据进行分帧,对每帧取多维滤波器组特征并通过一阶和二阶差分来获取每帧FBank特征;将获取到的FBank特征送入卷积循环神经网络中,依次经过多次卷积、最大池化操作及双向长短时记忆网络及线性变换后获取音频特征向量。
作为本发明基于注意力的弱监督语音检索方法,进一步地,使用注意力机制将关键词特征向量和音频特征向量进行点积运算来表示两个向量之间的相关性,通过向量融合来获取语音检索特征向量。
作为本发明基于注意力的弱监督语音检索方法,进一步地,向量融合中,利用关键词特征向量分别对语音特征向量中向量元素进行内积运算,将内积运算结果经过softmax处理得到权重向量;将权重向量中每一个权重乘上对应的语音特征向量特征元素得到加权向量;将加权向量中的每列特征向量进行相加得到融合关键词特征向量和语音特征向量的一个向量,将加权向量中的每行向量进行最大池化得到另一个向量;将该一个向量和另一个向量通过拼接获取语音检索特征向量,或者直接将这两个向量作为语音检索特征向量。
作为本发明基于注意力的弱监督语音检索方法,进一步地,关键词识别模块采用前馈神经网络结构,对输入数据经过前向传播获取置信分数;依据置信分数判断是否含有关键词,并结合权重向量选取最大权重数所在位置为关键词出现位置。
作为本发明基于注意力的弱监督语音检索方法,进一步地,关键词识别模块训练优化中,收集正负样本构成训练数据,结合标注标签并采用二分类交叉熵损失获取模型参数,其中,正负样本按照数值比例设置。
作为本发明基于注意力的弱监督语音检索方法,进一步地,针对给定若干关键词,收集含有若干关键词的句子和对应关键词形成标签为正的若干对实验数据,作为正样本数据元素,并从未出现在句子中的剩余关键词中选取相同数量的若干关键词,并与句子形成标签为负的若干对实验数据,作为负样本数据元素。
作为本发明基于注意力的弱监督语音检索方法,进一步地,正样本数据和负样本数据数值比例设定为1:1。
进一步地,本发明还提供一种基于注意力的弱监督语音检索系统,包含:提取模块和识别模块,其中,
提取模块,用于提取文本关键词并转换为关键词特征向量,并对音频数据进行特征提取获取音频特征向量;使用注意力机制将关键词特征向量和音频特征向量进行融合,获取语音检索特征向量;
识别模块,用于将语音检索特征向量送入已训练优化的关键词识别模块识别,以检测文本关键词是否出现在语音数据中。
本发明的有益效果:
本发明在使用弱监督数据的情况下,使用注意力机制得到了融合了关键词信息和音频信息的特征向量,并将特征向量进行处理得到最终的置信分数和关键词出现位置。在使用注意力机制的过程中,系统使用关键词嵌入向量和高层音频特征向量两者之间的点积运算结果来表示两个向量之间的相关性,并且该点积运算结果被用来判断关键词出现位置。在实际应用中,若获取音频文件对应的转录标注数据所对应的工作量较大,则可采用本发明的系统和方法,在只需标注音频文件是否有需要的关键词的情况下,就能得到一个完整的关键词检索系统,提升检索效率和准确性,具有较好的应用前景。
附图说明:
图1为实施例中基于注意力的弱监督语音检索方法流程示意;
图2为实施例中模型结构示意。
具体实施方式:
为使本发明的目的、技术方案和优点更加清楚、明白,下面结合附图和技术方案对本发明作进一步详细的说明。
本发明实施例,提供一种基于注意力的弱监督语音检索方法,包含如下内容:提取文本关键词并转换为关键词特征向量,并对音频数据进行特征提取获取音频特征向量;使用注意力机制将关键词特征向量和音频特征向量进行融合,获取语音检索特征向量;将语音检索特征向量送入已训练优化的关键词识别模块识别,以检测文本关键词是否出现在语音数据中。
通过使用注意力机制来获得融合文本特征向量和音频特征向量的语音检索特征向量,使用弱监督标注数据即可训练优化识别模型,提升检索效率和准确性。
作为本发明实施例中基于注意力的弱监督语音检索方法,进一步的,利用关键词嵌入模块将文本关键词经过词嵌入操作转换来获取关键词特征向量。
对给定的m个需要识别的关键词k1,k2...km经过tokenization后得到对应关键词表示 token1,token2...tokenm。对得到的对应关键词表示token1,token2...tokenm经过维度为d的嵌入矩阵E嵌入后得到对应的嵌入向量e1,e2...,eN-1,eN,然后使用变换q=g(We)来得到处理后的关键词嵌入向量q1,q2...,qN-1,qN,其中g为Leaky Relu(Leaky RectifiedLinear Unit) 函数,W为线性层。
作为本发明实施例中基于注意力的弱监督语音检索方法,进一步地,利用卷积循环神经网络提取音频数据的音频特征向量,首先对输入音频数据进行分帧,对每帧取多维滤波器组特征并通过一阶和二阶差分来获取每帧FBank特征;将获取到的FBank特征送入卷积循环神经网络中,依次经过多次卷积、最大池化操作及双向长短时记忆网络及线性变换后获取音频特征向量。
给定音频输入x后先对其进行分帧,然后对每帧取40维滤波器组特征(filterbank,fbank)并进行一阶和二阶差分后得到每帧120维的fbank特征X=x1,x2...xT-1,xT。将得到的音频特征 X=x1,x2...xT-1,xT送入CRNN模块中,其分别经过m次卷积和最大池化操作后又经过层数为n 单元个数为d的双向长短时记忆网络,最后又经过线性变换得到最终的维度为d的高层特征 V=v1,v2...vT′。
进一步地,向量融合中,利用关键词特征向量分别对语音特征向量中向量元素进行内积运算,将内积运算结果经过softmax处理得到权重向量;将权重向量中每一个权重乘上对应的语音特征向量特征元素得到加权向量;将加权向量中的每列特征向量进行相加得到融合关键词特征向量和语音特征向量的一个向量,将加权向量中的每行向量进行最大池化得到另一个向量;将该一个向量和另一个向量通过拼接获取语音检索特征向量,或者直接将这两个向量作为语音检索特征向量。进一步地,使用注意力机制将关键词特征向量和音频特征向量进行点积运算来表示两个向量之间的相关性,通过向量融合来获取语音检索特征向量。
给定关键词嵌入向量qi,i∈(1,2,...,N-1,N),用qi对V中的每一个特征向量分别做内积得到权重向量d=d1,d2...dT′,其中
di′=dot(vi′,qi),i′∈(1,2,...,T′)
将d经过softmax处理后得到对应的权重向量s=s1,s2...sT′:
然后将s中的每一个权重乘上对应的高层特征v得到加权后的C=c1,c2...cT′其中ci′=si′vi′,i′∈(1,2,...,T′),
对C(d×T′)进行了三种运算:
①将C中每列的特征向量ci,i∈(1,2,...,T′)进行相加得到融合了关键词嵌入向量和高层特征向量的向量β,即
②将C中每行的向量ck,k∈(1,2,...,d)进行最大池化后得到一个维度为d的向量α,即
α=(c1,c2,...,cd)
其中ck=max(ck),k∈(1,2,...,d)
③将①中得到的向量β和②中得到的向量α进行拼接得到维度为2d的向量γ。
作为本发明实施例中基于注意力的弱监督语音检索方法,进一步地,关键词识别模块采用前馈神经网络结构,对输入数据经过前向传播获取置信分数;依据置信分数判断是否含有关键词,并结合权重向量选取最大权重数所在位置为关键词出现位置。
根据具体的训练数据量和关键词个数来合适选择β或者α或者γ,然后将其送入由前馈神经网络构成的关键词识别模块中并得到网络输出的置信分数。在得到置信分数后,若结果判为含有关键词,则关键词出现在权重向量s=s1,s2...sT′中权重数值最大的位置。若结果判为不含有关键词,则无需判断关键词出现位置。
作为本发明实施例中基于注意力的弱监督语音检索方法,进一步地,关键词识别模块训练优化中,收集正负样本构成训练数据,结合标注标签并采用二分类交叉熵损失获取模型参数,其中,正负样本按照数值比例设置。
作为本发明实施例中基于注意力的弱监督语音检索方法,进一步地,针对给定若干关键词,收集含有若干关键词的句子和对应关键词形成标签为正的若干对实验数据,作为正样本数据元素,并从未出现在句子中的剩余关键词中选取相同数量的若干关键词,并与句子形成标签为负的若干对实验数据,作为负样本数据元素。进一步地,正样本数据和负样本数据数值比例设定为1∶1。
给定m个需要识别的关键词k1,k2...km,若确定训练数据中句子si中含有n(n<m)个关键词k1,k2...kn,则句子si分别与k1,k2...kn共构成n对标签全为1的实验数据集S1:(si,k1),(si,k2)...(si,kn)。未出现在句子si中的剩余(m-n)个关键词被随机地选出相同数量的n个关键词k′1,k′2,...,k′n,同样的,句子si分别与k′1,k′2...k′n共构成n对标签全为0的实验数据集 S0:(si,k′1),(si,k′2)...(si,k′n)。对训练数据中的每个句子s进行上述操作便得到标签1和标签0比例为1∶1的训练数据。
进一步地,基于上述的方法,本发明实施例还提供一种基于注意力的弱监督语音检索系统,包含:提取模块和识别模块,其中,
提取模块,用于提取文本关键词并转换为关键词特征向量,并对音频数据进行特征提取获取音频特征向量;使用注意力机制将关键词特征向量和音频特征向量进行融合,获取语音检索特征向量;
识别模块,用于将语音检索特征向量送入已训练优化的关键词识别模块识别,以检测文本关键词是否出现在语音数据中。
结合图1和图2,本案实施例可使用一个关键词识别模型在弱监督数据的情况下实现语音检索。该模型由关键词嵌入模块,声学模块和解码器模块三部分构成:关键词嵌入模块用来得到关键词的嵌入向量,声学模块使用注意力机制将关键词嵌入向量融合在音频特征中得到对应的特征向量,最后将特征向量送入关键词识别模块中来检测关键词是否出现在音频话语中。图1,在步骤S201中,对实验数据按照步骤S101的做法对其进行处理,然后得到正确的训练数据集。步骤S202即为图2中关键词嵌入模块对所输入的关键词所进行的操作:关键词k1,k2...,kN-1,kN经过嵌入矩阵E的嵌入后得到对应的嵌入向量e1,e2...,eN-1,eN,然后使用线性变化q=g(We)来得到处理后的关键词嵌入向量。步骤S203和S204即为图2中声学模块利用注意力机制对关键词嵌入向量和音频输入x进行融合的操作:对音频输入x取特征之后得到对应的fbank特征X=x1,x2...xT-1,xT,然后将特征X送入CRNN模块后得到高层特征V=v1,v2...vT′,然后将q和V送入注意力模块后经三种操作得到β或者α或者γ。步骤S205 和S206即为图2中的判别器模块输入β或者α或者γ后得到对应的置信分数并对模型参数进行估计:将β或者α或者γ送入神经网络后得到输出的置信分数,然后再将此分数与标签使用二分类损失函数得到对应的损失后再进行反向传播来更新模型中的参数。步骤S207即为整个模型的推理。详细过程可设计如下:
步骤S201:给定m个需要识别的关键词k1,k2...km,从AI-SHELL2数据集中挑选出含有关键词k1,k2...km的句子S=s1,s2...ss,对于其中的任一句子si,若句子si中含有n(n<m)个关键词k1,k2...kn,则句子si分别与k1,k2...kn共构成n对标签全为1的实验数据集S1:(si,k1),(si,k2)...(si,kn)。而对于未出现在句子si中的剩余(m-n)个关键词被随机地选出相同数量的n个关键词k′1,k′2,...,k′n,然后采用相同的操作得到n对标签为0的实验数据集S0: (si,k′1),(si,k′2)...(si,k′n)。对S中的全部句子进行标签标注后则得到标签1和0的比例为1∶1 的训练数据集。
步骤S202:对给定的m个需要识别的关键词k1,k2...km经过tokenization后得到对应关键词表示tokens=1,2,...,m,对得到的对应关键词表示tokens经过维度为256的嵌入矩阵E后得到对应的嵌入向量e1,e2...,eN-1,eN,然后使用变换q=g(We)来得到维度为256的处理后的关键词嵌入向量q1,q2...,qN-1,qN,其中g为Leaky Relu(Leaky Rectified LinearUnit)函数, W为256×256的线性层。
步骤S203:给定音频输入x后,先对其进行帧长为25ms,帧移为10ms的分帧,然后对每帧取40维滤波器组特征(filter bank,fbank)并进行一阶和二阶差分后得到每帧120维的fbank 特征X=x1,x2...xT-1,xT。然后将特征X送入CRNN模块中后,X依次经过卷积核大小为3×3 的卷积神经网络,批次归一化,leaky relu函数和3×3的最大池化层两次后,其中卷积核的大小依次为16和32,然后再经过两层单元个数为256的双向长短时记忆网络后又经过大小为 256×256的线性变换矩阵得到最终的维度为256的高层特征V=v1,v2...vT′。
步骤S204:给定关键词嵌入向量qi,i∈(1,2,...,N-1,N),用qi对V中的每一个特征向量分别做内积得到权重向量d=d1,d2...dT′,其中
di′=dot(vi′,qi),i′∈(1,2,...,T′)
d经过softmax处理后得到对应的权重向量s=s1,s2...sT′:
然后将s中的每一个权重乘上对应的高层特征v得到加权后的C=c1,c2...cT′其中ci′=si′vi′,i′∈(1,2,...,T′)。
根据实际的关键词个数和训练数据量的大小对C(236×T′)进行了三种运算:
①将C中每列的特征向量ci,i∈(1,2,...,T′)进行相加得到融合了关键词嵌入向量和高层特征向量的向量β,即
②将C中每行的向量ck,k∈(1,2,...,d)进行最大池化后得到一个维度为256的向量α,即
α=(c1,c2,...,cd)
其中ck=max(ck),k∈(1,2,...,d)
③将①中得到的向量β和②中得到的向量α进行拼接得到维度为512的向量γ。
步骤S205:根据实际的关键词个数和训练数据量的大小来合适的选择β或者α或者γ作为关键词识别模块的输入,关键词识别模块中隐含层单元个数依次为256,128,1,经过前向传播后得到置信分数,若根据置信分数的结果判为句子中含有关键词,则需找到权重向量 s=s1,s2...sT′中最大权重数值所在位置,此位置即为关键词出现的位置。若根据置信分数的结果判为句子中不含有关键词,则无需判断关键词出现位置。
步骤S206:在得到置信分数后,将置信分数与对应标签使用二分类损失函数求出对应损失,然后经过反向传播后对模型中的全部参数进行更新和估计。
步骤S207:在得到估计好的模型参数之后,按照步骤2至步骤5的顺序对模型进行推理即可得到最终的置信分数和出现位置。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对步骤、数字表达式和数值并不限制本发明的范围。
基于上述的方法或系统,本发明实施例还提供一种网络设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现上述的系统或执行上述的方法。
基于上述的系统,本发明实施例还提供一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现上述的系统。
本发明实施例所提供的装置,其实现原理及产生的技术效果和前述系统实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述系统实施例中相应内容。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述系统实施例中的对应过程,在此不再赘述。
在这里示出和描述的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制,因此,示例性实施例的其他示例可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
附图中的流程图和框图显示了根据本发明的多个实施例的系统、系统和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/ 或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备 (可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述系统的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (8)
1.一种基于注意力的弱监督语音检索方法,其特征在于,包含如下内容:
提取文本关键词并转换为关键词特征向量,并对音频数据进行特征提取获取音频特征向量;使用注意力机制将关键词特征向量和音频特征向量进行融合,获取语音检索特征向量;
将语音检索特征向量送入已训练优化的关键词识别模块识别,以检测文本关键词是否出现在语音数据中;
向量融合中,利用关键词特征向量分别对语音特征向量中向量元素进行内积运算,将内积运算结果经过softmax处理得到权重向量;将权重向量中每一个权重乘上对应的语音特征向量特征元素得到加权向量;将加权向量中的每列特征向量进行相加得到融合关键词特征向量和语音特征向量的一个向量,将加权向量中的每行向量进行最大池化得到另一个向量;将该一个向量和另一个向量通过拼接获取语音检索特征向量,或者直接将这两个向量作为语音检索特征向量;
关键词识别模块采用前馈神经网络结构,对输入数据经过前向传播获取置信分数;依据置信分数判断是否含有关键词,并结合权重向量选取最大权重数所在位置为关键词出现位置。
2.根据权利要求1所述的基于注意力的弱监督语音检索方法,其特征在于,利用关键词嵌入模块将文本关键词经过词嵌入操作转换来获取关键词特征向量。
3.根据权利要求1所述的基于注意力的弱监督语音检索方法,其特征在于,利用卷积循环神经网络提取音频数据的音频特征向量,首先对输入音频数据进行分帧,对每帧取多维滤波器组特征并通过一阶和二阶差分来获取每帧FBank特征;将获取到的FBank特征送入卷积循环神经网络中,依次经过多次卷积、最大池化操作及双向长短时记忆网络及线性变换后获取音频特征向量。
4.根据权利要求1所述的基于注意力的弱监督语音检索方法,其特征在于,使用注意力机制将关键词特征向量和音频特征向量进行点积运算来表示两个向量之间的相关性,通过向量融合来获取语音检索特征向量。
5.根据权利要求1所述的基于注意力的弱监督语音检索方法,其特征在于,关键词识别模块训练优化中,收集正负样本构成训练数据,结合标注标签并采用二分类交叉熵损失获取模型参数,其中,正负样本按照数值比例设置。
6.根据权利要求5所述的基于注意力的弱监督语音检索方法,其特征在于,针对给定若干关键词,收集含有若干关键词的句子和对应关键词形成标签为正的若干对实验数据,作为正样本数据元素,并从未出现在句子中的剩余关键词中选取相同数量的若干关键词,并与句子形成标签为负的若干对实验数据,作为负样本数据元素。
7.根据权利要求6所述的基于注意力的弱监督语音检索方法,其特征在于,正样本数据和负样本数据数值比例设定为1:1。
8.一种基于注意力的弱监督语音检索系统,其特征在于,基于权利要求1所述的方法实现,包含:提取模块和识别模块,其中,
提取模块,用于提取文本关键词并转换为关键词特征向量,并对音频数据进行特征提取获取音频特征向量;使用注意力机制将关键词特征向量和音频特征向量进行融合,获取语音检索特征向量;
识别模块,用于将语音检索特征向量送入已训练优化的关键词识别模块识别,以检测文本关键词是否出现在语音数据中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011550159.2A CN112685594B (zh) | 2020-12-24 | 2020-12-24 | 基于注意力的弱监督语音检索方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011550159.2A CN112685594B (zh) | 2020-12-24 | 2020-12-24 | 基于注意力的弱监督语音检索方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112685594A CN112685594A (zh) | 2021-04-20 |
CN112685594B true CN112685594B (zh) | 2022-10-04 |
Family
ID=75452390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011550159.2A Active CN112685594B (zh) | 2020-12-24 | 2020-12-24 | 基于注意力的弱监督语音检索方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112685594B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116453514B (zh) * | 2023-06-08 | 2023-08-25 | 四川大学 | 一种基于多视角的语音关键词检测与定位方法及装置 |
CN118296181B (zh) * | 2024-06-05 | 2024-08-02 | 欢乐互娱(成都)网络科技有限公司 | 基于人工智能和dsp的音频资源管理方法、系统及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6144799A (en) * | 1996-05-24 | 2000-11-07 | Hitachi Denshi Kabushiki Kaisha | Method and apparatus of retrieving voice coded data and moving image coded data |
CN108922521A (zh) * | 2018-08-15 | 2018-11-30 | 合肥讯飞数码科技有限公司 | 一种语音关键词检索方法、装置、设备及存储介质 |
CN110827806A (zh) * | 2019-10-17 | 2020-02-21 | 清华大学深圳国际研究生院 | 一种语音关键词检测方法及系统 |
WO2020077895A1 (zh) * | 2018-10-16 | 2020-04-23 | 深圳壹账通智能科技有限公司 | 签约意向判断方法、装置、计算机设备和存储介质 |
CN111462735A (zh) * | 2020-04-10 | 2020-07-28 | 网易(杭州)网络有限公司 | 语音检测方法、装置、电子设备及存储介质 |
CN111798840A (zh) * | 2020-07-16 | 2020-10-20 | 中移在线服务有限公司 | 语音关键词识别方法和装置 |
CN112000818A (zh) * | 2020-07-10 | 2020-11-27 | 中国科学院信息工程研究所 | 一种面向文本和图像的跨媒体检索方法及电子装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11295739B2 (en) * | 2018-08-23 | 2022-04-05 | Google Llc | Key phrase spotting |
-
2020
- 2020-12-24 CN CN202011550159.2A patent/CN112685594B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6144799A (en) * | 1996-05-24 | 2000-11-07 | Hitachi Denshi Kabushiki Kaisha | Method and apparatus of retrieving voice coded data and moving image coded data |
CN108922521A (zh) * | 2018-08-15 | 2018-11-30 | 合肥讯飞数码科技有限公司 | 一种语音关键词检索方法、装置、设备及存储介质 |
WO2020077895A1 (zh) * | 2018-10-16 | 2020-04-23 | 深圳壹账通智能科技有限公司 | 签约意向判断方法、装置、计算机设备和存储介质 |
CN110827806A (zh) * | 2019-10-17 | 2020-02-21 | 清华大学深圳国际研究生院 | 一种语音关键词检测方法及系统 |
CN111462735A (zh) * | 2020-04-10 | 2020-07-28 | 网易(杭州)网络有限公司 | 语音检测方法、装置、电子设备及存储介质 |
CN112000818A (zh) * | 2020-07-10 | 2020-11-27 | 中国科学院信息工程研究所 | 一种面向文本和图像的跨媒体检索方法及电子装置 |
CN111798840A (zh) * | 2020-07-16 | 2020-10-20 | 中移在线服务有限公司 | 语音关键词识别方法和装置 |
Non-Patent Citations (8)
Title |
---|
A new joint CTC-attention-based speech recognition model with multi-level multi-head attention;Qin chuxiong et al.;《EURASIP Journal on Audio, Speech, and Music Processing》;20191028;第1-12页 * |
Attention based End-to-End Models for Small-Footprint Keyword Spotting;Changhao Shan et al.;《Arxiv》;20180329;第1-5页 * |
Attention-Based Models for Speech Recognition;Jan Chorowski et al.;《Arxiv》;20150624;第429-439页 * |
End-to-end keywords spotting based on connectionist temporal classification for Mandarin;Ye Bai et al.;《2016 10th International Symposium on Chinese Spoken Language Processing (ISCSLP)》;20170504;第1-5页 * |
一种高效的语音关键词检索系统;罗骏等;《通信学报》;20060225(第02期);第113-118页 * |
低资源语言的无监督语音关键词检测技术综述;杨鹏等;《中国图象图形学报》;20150216(第02期);第211-218页 * |
基于流媒体语音关键词识别系统的研究;吕淑琴等;《北京机械工业学院学报》;20061228(第04期);第47-50页 * |
基于深层神经网络的多特征关联声学建模方法;范正光 等;《计算机研究与发展》;20170531;第1036-1044页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112685594A (zh) | 2021-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110298037B (zh) | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 | |
Wang et al. | Learning to extract attribute value from product via question answering: A multi-task approach | |
CN104834747B (zh) | 基于卷积神经网络的短文本分类方法 | |
CN111783462A (zh) | 基于双神经网络融合的中文命名实体识别模型及方法 | |
CN111950287B (zh) | 一种基于文本的实体识别方法及相关装置 | |
CN112115716A (zh) | 一种基于多维词向量下文本匹配的服务发现方法、系统及设备 | |
CN110502742B (zh) | 一种复杂实体抽取方法、装置、介质及系统 | |
CN112685594B (zh) | 基于注意力的弱监督语音检索方法及系统 | |
CN113516198B (zh) | 一种基于记忆网络和图神经网络的文化资源文本分类方法 | |
CN111078833A (zh) | 一种基于神经网络的文本分类方法 | |
CN111966812A (zh) | 一种基于动态词向量的自动问答方法和存储介质 | |
CN116304748B (zh) | 一种文本相似度计算方法、系统、设备及介质 | |
CN113282714B (zh) | 一种基于区分性词向量表示的事件检测方法 | |
CN110134950B (zh) | 一种字词结合的文本自动校对方法 | |
CN111930931A (zh) | 一种摘要评价方法及装置 | |
CN116756347B (zh) | 一种基于大数据的语义信息检索方法 | |
CN113761868A (zh) | 文本处理方法、装置、电子设备及可读存储介质 | |
CN116228383A (zh) | 风险预测方法及装置、存储介质和电子设备 | |
CN114925702A (zh) | 文本相似度识别方法、装置、电子设备及存储介质 | |
CN114742016A (zh) | 一种基于多粒度实体异构图的篇章级事件抽取方法及装置 | |
Prabhakar et al. | Performance analysis of hybrid deep learning models with attention mechanism positioning and focal loss for text classification | |
CN117708324A (zh) | 一种文本主题分类方法、装置、芯片及终端 | |
CN112347783A (zh) | 无触发词的警情笔录数据事件类型识别方法 | |
CN114648005B (zh) | 一种多任务联合学习的多片段机器阅读理解方法及装置 | |
CN115080748B (zh) | 一种基于带噪标签学习的弱监督文本分类方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |