CN116469392A - 基于并行分支结构的捕捉局部和全局特征说话人确认方法 - Google Patents

基于并行分支结构的捕捉局部和全局特征说话人确认方法 Download PDF

Info

Publication number
CN116469392A
CN116469392A CN202310360894.4A CN202310360894A CN116469392A CN 116469392 A CN116469392 A CN 116469392A CN 202310360894 A CN202310360894 A CN 202310360894A CN 116469392 A CN116469392 A CN 116469392A
Authority
CN
China
Prior art keywords
branch
module
feature
layer
global
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310360894.4A
Other languages
English (en)
Inventor
张晓雷
姚嘉迪
景瑞昊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Shenzhen Institute of Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Shenzhen Institute of Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University, Shenzhen Institute of Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202310360894.4A priority Critical patent/CN116469392A/zh
Publication of CN116469392A publication Critical patent/CN116469392A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/18Artificial neural networks; Connectionist approaches

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Complex Calculations (AREA)

Abstract

本发明公开了一种基于并行分支结构的捕捉局部和全局特征说话人确认方法,采用Branch模块来构建两个并行分支结构,分别捕获ASV任务中说话人的局部和全局特征信息;其中,一个分支采用多头自注意力机制来捕捉长范围依赖关系,另一个分支利用SE‑Res2Block模块提取局部特征,此外采用了不同的融合机制来增强Branch‑ECAPA‑TDNN的性能。最终在VoxCeleb和CN‑Celeb数据集上进行了大量实验,结果表明了提出的方法的有效性。

Description

基于并行分支结构的捕捉局部和全局特征说话人确认方法
技术领域
本发明属于模式识别技术领域,具体涉及一种说话人确认方法。
背景技术
自动说话人确认(Automatic Speaker Verification,ASV)是一项用于判断一段语音是否由特定说话人发出的任务。近年来,ASV得到了显著发展,广泛应用于智能住宅系统、基于语音的身份验证、银行交易和远程支付等真实世界的应用场景中。一般来说,该领域的研究主要集中在两个方面。第一个方面是说话人嵌入(speaker embedding)提取器,其目的是从可变长度的话语中提取具有固定维度的说话人向量,以表示说话人的声学特征,目前基于深度学习的嵌入提取器已经成为主流技术。另一个方面是后端评分模型,其目的是计算说话人嵌入向量之间的相似度,其中简单的余弦距离度量通常用于评分判断,此外还可以训练更为复杂的后端评分模型,如概率线性判别分析(Probabilistic LinearDiscriminant Analysis,PLDA)。
目前,基于卷积神经网络的模型已经在ASV上取得了非凡成就。基于一维卷积的x-vector是ASV中最流行的说话人嵌入提取框架,在此基础上,不同的网络结构已经被提出用于提取说话人嵌入,包括时延神经网络(Time-Delay Neural Network,TDNN)、ResNet及其变形。值得关注的是,ECAPA-TDNN系统将Res2Block与Squeeze-and-Excitation(SE)模块集成在SE-Res2Block中,并结合TDNN网络,在ASV上取得了显著的性能。
尽管ECAPA-TDNN取得了显著的成功,但其仍存在局限性。它主要关注局部特征建模,缺乏全局特征建模与融合。同时,卷积操作的机制是使用固定大小的卷积核来捕捉语音中局部的时域和频域说话人模式,但是,固定的卷积核大小限制了语音特征的感受野。因此,在缺乏全局上下文信息的情况下,说话人特征表征的提取受到限制。为了克服这个问题,许多基于Transformer的模型已经被引入。多头自注意机制具有捕捉长范围依赖关系的优点,使得Transformer具有强大的全局建模能力。然而,基于Transformer的结构在ASV任务性能方面仍有很大的提升空间。
发明内容
为了克服现有技术的不足,本发明提供了一种基于并行分支结构的捕捉局部和全局特征说话人确认方法,采用Branch模块来构建两个并行分支结构,分别捕获ASV任务中说话人的局部和全局特征信息;其中,一个分支采用多头自注意力机制来捕捉长范围依赖关系,另一个分支利用SE-Res2Block模块提取局部特征,此外采用了不同的融合机制来增强Branch-ECAPA-TDNN的性能。最终在VoxCeleb和CN-Celeb数据集上进行了大量实验,结果表明了提出的方法的有效性。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:构建Branch-ECAPA-TDNN框架:
所述Branch-ECAPA-TDNN框架中,首先输入特征经过一维卷积层、ReLU非线性层和批归一化BN层;其次经过三个Branch模块,将每个Branch模块的输出通过残差连接合并为该阶段的输出,该输出通过一个一维卷积层和ReLU非线性层得到帧级别的说话人特征,再经过一个基于自注意力机制的统计池化层得到句子级别的说话人特征,最终通过一个全连接层FC和批归一化BN层得到说话人嵌入,并采用AAM-Softmax损失函数进行训练;
步骤2:构建Branch模块;
所述Branch模块包括两个分支:全局特征建模分支和局部特征建模分支,从这两个分支中分别提取全局和局部特征信息;
步骤2-1:全局特征建模分支:
所述全局特征建模分支是多头自注意力模块,用于提取全局说话人特征,具体计算过程如下:
在多头自注意力中,表示输入,其中T和D分别表示特征的时间帧数和声学特征维度;假设自注意力的注意头数是h,对于每个注意头,输入特征X被投影到维度为E的查询Q、键K和值V子空间中,具体如下:
在上述公式中,Qi、Ki和Vi均在空间上,分别表示第i个注意力头的查询、键和值的嵌入;/>K,V是线性投影参数,且其中dk=E/h;
计算查询和所有键的点积,将结果除以并应用softmax函数以获得注意力矩阵/>
最后,将所有的自注意力头的输出在子空间中进行拼接,然后通过以下变换重新变回原始大小:
YA=concat[Z1,Z2,...,Zh]WO. (3)
其中是投影层的一个参数矩阵;
步骤2-2:局部特征建模分支:
局部特征建模分支是一个SE-Res2Block模块,它集成了Res2Net模块和Squeeze-and-Excitation块,用于进一步表示具有各种细粒度的多尺度局部特征;
首先,对于Res2Net模块,将由1×1卷积生成的特征映射分成s个子集其中所有通道具有相同的空间大小,每个通道都是输入特征映射通道的1/s,其中/>s被称为尺度;Res2Net模块的输出{m1,m2,...,ms}表示如下:
Res2Net模块的输出{m1,m2,...,ms}被拼接起来,经过后续的1×1卷积层,生成M,即多尺度特征融合向量;
接下来,输出通过Squeeze-and-Excitation模块进行特征响应的重新校准;压缩操作通过对时间域上的帧级特征映射层进行全局平均池化来获取特征映射的压缩向量u:
其中Mt是M的第t帧;
激励操作通过以下方式获得特征映射的每个通道的权重:
q=σ(W2(ReLU(W1u))). (6)
其中,σ(·)表示sigmoid函数,B是瓶颈层中所减少的维度数量;
最后,M的每个维度,表示为Mi,被重新调整为:
其中qi是q的第i个元素。进一步将所有YRi拼接成一个矩阵YR=[YR1,YR2,...,YRD];
步骤3:选择以下三种融合机制中的一种对局部和全局的说话人特征进行融合;
步骤3-1:并列:
将YA和YR并列拼接起来,然后将该特征投影回原始维度:
YMerge=Concat(YA,YR)Wcon, (8)
其中是线性投影的可学习参数矩阵;
步骤3-2:深度卷积:
将深度卷积应用到融合模块中;首先,将两个分支的输出YA和YR进行并列拼接,然后使用深度卷积来集成空间信息交换过程,最后使用残差连接从不同的角度聚合信息以增强融合过程;详细过程如下:
其中,DwConv表示深度卷积,是线性投影的可学习参数矩阵;
步骤3-3:Squeeze-and-Excitation操作:
在步骤3-2的基础上添加一个SE模块,实现过程如下:
将深度卷积应用到融合模块中,首先,将两个分支的输出YA和YR进行并列拼接,然后使用深度卷积来集成空间信息交换过程,之后通过Squeeze-and-Excitation模块进行输出特征的重新校准,最后使用残差连接从不同的角度聚合信息以增强融合过程;详细过程如下:
本发明的有益效果如下:
1.本发明提出了一种对现有先进的ECAPA-TDNN进行扩展的架构,称为Branch-ECAPA-TDNN。通过设计Branch模块中的自注意力分支和SE-Res2Block分支,并从每个分支中提取局部和全局特征信息,实现比ECAPA-TDNN更好的性能。
2.本发明采用不同的融合机制来充分利用局部和全局特征,以实现卓越的性能。
附图说明
图1为本发明提出的Branch-ECAPA-TDNN的网络结构框架图。
图2为本发明构建的Branch模块的网络结构。
图3为本发明构建的三种融合机制示意框图,其中图3(a)为本发明构建的融合模块框架;图3(b)为并列融合机制;图3(c)为深度卷积融合机制;图3(d)为SE融合机制。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
尽管ECAPA-TDNN取得了显著的成功,但仍存在局限性。它主要关注局部特征建模,缺乏全局特征融合。同时,卷积操作中固定的卷积核大小限制了语音特征的感受野。因此,在缺乏全局上下文信息的情况下,说话人特征表示的提取受到限制。为了克服现有技术的不足,本发明提出一种基于并行分支结构的捕捉局部和全局特征的说话人确认系统Branch-ECAPA-TDNN,采用两个并行的分支来捕获ASV中说话人的局部和全局特征信息,进一步提升ASV系统中说话人的特征建模能力。包括如下步骤:1)为了捕捉局部和全局说话人特征,提出Branch模块来构建两个并行分支结构,其中一个分支采用多头自注意力机制来捕捉长范围依赖关系,另一个分支利用SE-Res2Block模块提取局部特征;2)采用基于并列,基于深度卷积和基于Squeeze-and-Excitation的三种不同的特征融合机制来进一步增强Branch-ECAPA-TDNN系统的性能。在VoxCeleb数据集上的结果表明,Branch-ECAPA-TDNN系统实现了低于ECAPA-TDNN基线24.10%的等错误率(Equal Error Rate,EER);在CN-Celeb数据集上的结果表明,Branch-ECAPA-TDNN系统实现了低于ECAPA-TDNN基线7.92%的等错误率,实现了优越的性能。
一种基于并行分支结构的捕捉局部和全局特征说话人确认方法,包括如下步骤:
步骤1:构建Branch-ECAPA-TDNN框架:
所述Branch-ECAPA-TDNN框架中,首先输入特征经过一维卷积层,ReLU非线性层和批归一化(Batch Normalization,BN)层;其次经过三个Branch模块,为了充分利用多层特征信息,将每个Branch模块的输出通过残差连接合并为该阶段的输出,该输出通过一个一维卷积层和ReLU非线性层得到帧级别的说话人特征,再经过一个基于自注意力机制的统计池化层得到句子级别的说话人特征,最终通过一个全连接层(Fully Connected Layer,FC)和BN层得到说话人嵌入,并采用AAM-Softmax损失函数进行训练。
步骤2:构建Branch模块;
所述Branch模块包括两个分支:全局特征建模分支和局部特征建模分支,从这两个分支中分别提取全局和局部特征信息;
步骤2-1:全局特征建模分支:
所述全局特征建模分支是多头自注意力模块,用于提取全局说话人特征,具体计算过程如下:
在多头自注意力中,表示输入,其中T和D分别表示特征的时间帧数和声学特征维度;假设自注意力的注意头数是h,对于每个注意头,输入特征X被投影到维度为E的查询Q、键K和值V子空间中,具体如下:
在上述公式中,Qi、Ki和Vi均在空间上,分别表示第i个注意力头的查询、键和值的嵌入;/>K,V是线性投影参数,且其中dk=E/h;
计算查询和所有键的点积,将结果除以并应用softmax函数以获得注意力矩阵/>
最后,将所有的自注意力头的输出在子空间中进行拼接,然后通过以下变换重新变回原始大小:
YA=concat[Z1,Z2,...,Zh]WO. (12)
其中是投影层的一个参数矩阵;
步骤2-2:局部特征建模分支:
局部特征建模分支是一个SE-Res2Block模块,它集成了Res2Net模块和Squeeze-and-Excitation块,用于进一步表示具有各种细粒度的多尺度局部特征;
首先,对于Res2Net模块,将由1×1卷积生成的特征映射分成s个子集其中所有通道具有相同的空间大小,每个通道都是输入特征映射通道的1/s,其中/>s被称为尺度;Res2Net模块的输出{m1,m2,...,ms}表示如下:
Res2Net模块的输出{m1,m2,...,ms}被拼接起来,经过后续的1×1卷积层,生成M,即多尺度特征融合向量;
接下来,输出通过Squeeze-and-Excitation模块进行特征响应的重新校准;压缩操作通过对时间域上的帧级特征映射层进行全局平均池化来获取特征映射的压缩向量u:
其中Mt是M的第t帧;
激励操作通过以下方式获得特征映射的每个通道的权重:
q=σ(W2(ReLU(W1u))). (15)
其中,σ(·)表示sigmoid函数,B是瓶颈层中所减少的维度数量;
最后,M的每个维度,表示为Mi,被重新调整为:
其中qi是q的第i个元素。进一步将所有YRi拼接成一个矩阵YR=[YR1,YR2,...,YRD];
步骤3:选择以下三种融合机制中的一种对局部和全局的说话人特征进行融合;
步骤3-1:并列:
将YA和YR并列拼接起来,然后将该特征投影回原始维度:
YMerge=Concat(YA,YR)Wcon, (17)
其中是线性投影的可学习参数矩阵;
步骤3-2:深度卷积:
将深度卷积应用到融合模块中;首先,将两个分支的输出YA和YR进行并列拼接,然后使用深度卷积来集成空间信息交换过程,最后使用残差连接从不同的角度聚合信息以增强融合过程;详细过程如下:
其中,DwConv表示深度卷积,是线性投影的可学习参数矩阵;
步骤3-3:Squeeze-and-Excitation操作:
在步骤3-2的基础上添加一个SE模块,完整的实现过程如下:
将深度卷积应用到融合模块中,首先,将两个分支的输出YA和YR进行并列拼接,然后使用深度卷积来集成空间信息交换过程,之后通过Squeeze-and-Excitation模块进行输出特征的重新校准,最后使用残差连接从不同的角度聚合信息以增强融合过程,在融合过程中,引入SE操作可以广泛利用全局信息并增强深度卷积的输出。详细过程如下:
具体实施例:
(1)数据准备
本次实验中,在VoxCeleb和CN-Celeb数据集上证明了所提方法的有效性。
在VoxCeleb2的开发集上训练说话人确认模型,该数据集包含来自5,994个说话人的1,092,009个语音片段。使用VoxCeleb1的开发集和测试集进行评估。评估包含三种类型的试验,分别是VoxCelebl-O、VoxCeleb1-E和VoxCeleb1-H。
将来自CN-Celeb2的1,966个说话人和CN-Celeb1开发集中的797个说话人组合在一起作为训练集,并在CN-Celeb1测试集上进行评估。
在本实验中,使用数据增强来进行训练。数据增强中的噪声数据集来自MUSAN和RIRs。此外,在训练期间,应用了速度扰动,随机改变话语的速度比例为0.9或1.1,速度比例为0.9、1.0和1.1的比例设置为1:1:1。
(2)模型结构与训练细节
在搭建模型时,使用WeSpeaker工具包来实现所提出的Branch-ECAPA-TDNN和ECAPA-TDNN基线系统。输入特征为80维的对数梅尔特征(Fbank),使用25ms长度的汉明窗口和10ms窗移。所有训练数据都被分成200帧,并进行倒谱平均归一化。所有模型都使用AAM-Softmax损失进行训练,其中缩放因子为32,初始边缘为0,最终边缘为0.2。使用一种边缘策略来更新边缘。学习率使用warm-up和指数衰减策略来更新,其中初始学习率为0.1,最终学习率为5e-5。将SE-Block中的瓶颈维度B设置为128,Res2Net模块中的尺度s设置为8,并将全连接层的节点数设置为192。
除了ECAPA-TDNN结构之外,还使用了TDNN、Extended-TDNN(E-TDNN)和ResNet作为基线系统。
(3)评估指标
在测试阶段,采用余弦相似度作为评分标准。采用自适应分数归一化(AS-Norm)对得分进行归一化处理。使用前ntop个同组段进行得分归一化。采用标准的等错误率(EER)和最小检测代价函数(minDCF)作为评估指标。对于minDCF,设置Ptarget=0.01,Cmiss=Cfa=1。
(4)实验结果
表1为VoxCeleb和CN-Celeb数据集上的EER(%)和minDCF对比,其中参数C表示SE-Res2Block的卷积层中滤波器的数量。"(b)"、"(c)"和"(d)"分别表示三种特征融合机制,"AS-Norm300"指的是ntop=300
表1 VoxCeleb和CN-Celeb数据集上的EER(%)和minDCF对比
表1列出了所提出的Branch-ECAPA-TDNN与基准系统的性能比较。从表中可以看出,首先,所提出的方法均优于基准系统,这表明通过引入多头自注意力机制来提取全局说话人特征,全局建模能力得到了极大的提升。其次,两个分支共享相同的输入,但关注不同范围的空间关系,从而实现了彼此的优势互补。特别地,与ECAPA-TDNN架构相比,在不使用AS-Norm的情况下,所提出的架构在VoxCeleb数据集上实现了高达24.10%的相对EER降低,在CN-Celeb数据集上实现了高达7.92%的相对EER降低。第三,随着C值的增加,网络的复杂度也会增加,从而提高性能,但也会带来更大的参数计算和信息冗余。最后,使用AS-Norm的结果表明,通过对得分进行标准化,可以进一步提高性能并改善校准。
如表1所示,进行了融合方法的比较实验。首先,基于并列的合并方法是一种简单而有效的方法,它将局部和全局提取器的输出信息并列拼接起来,并沿着特征维度进行投影,而不交换相邻信息。因此,在较小的参数规模C=512下,并列拼接方法的性能改进受到限制,然而在更大的参数规模C=1024下,它显示出更具竞争力的效果。其次,实验结果表明,当将深度卷积添加到融合模块中时,所提出的模型在两个数据集上的性能显著提高,这也表明深度卷积可以有效地深度集成两个分支的输出特征。最后,可以看出,在并列和深度卷积中添加SE块可以带来显著的性能提升,分别在VoxCeleb-E和CN-Celeb数据集上实现0.899%和6.922%的EER,达到了先进的性能。这也表明,SE操作能够有效地关注深度卷积后的特征,从而提高特征融合的效率。

Claims (1)

1.一种基于并行分支结构的捕捉局部和全局特征说话人确认方法,其特征在于,包括如下步骤:
步骤1:构建Branch-ECAPA-TDNN框架:
所述Branch-ECAPA-TDNN框架中,首先输入特征经过一维卷积层、ReLU非线性层和批归一化BN层;其次经过三个Branch模块,将每个Branch模块的输出通过残差连接合并为该阶段的输出,该输出通过一个一维卷积层和ReLU非线性层得到帧级别的说话人特征,再经过一个基于自注意力机制的统计池化层得到句子级别的说话人特征,最终通过一个全连接层FC和批归一化BN层得到说话人嵌入,并采用AAM-Softmax损失函数进行训练;
步骤2:构建Branch模块;
所述Branch模块包括两个分支:全局特征建模分支和局部特征建模分支,从这两个分支中分别提取全局和局部特征信息;
步骤2-1:全局特征建模分支:
所述全局特征建模分支是多头自注意力模块,用于提取全局说话人特征,具体计算过程如下:
在多头自注意力中,表示输入,其中T和D分别表示特征的时间帧数和声学特征维度;假设自注意力的注意头数是h,对于每个注意头,输入特征X被投影到维度为E的查询Q、键K和值V子空间中,具体如下:
在上述公式中,Qi、Ki和Vi均在空间上,分别表示第i个注意力头的查询、键和值的嵌入;/>K,V是线性投影参数,且其中dk=E/h;
计算查询和所有键的点积,将结果除以并应用softmax函数以获得注意力矩阵/>
最后,将所有的自注意力头的输出在子空间中进行拼接,然后通过以下变换重新变回原始大小:
YA=concat[Z1,Z2,...,Zh]WO. (3)
其中是投影层的一个参数矩阵;
步骤2-2:局部特征建模分支:
局部特征建模分支是一个SE-Res2Block模块,它集成了Res2Net模块和Squeeze-and-Excitation块,用于进一步表示具有各种细粒度的多尺度局部特征;
首先,对于Res2Net模块,将由1×1卷积生成的特征映射分成s个子集其中所有通道具有相同的空间大小,每个通道都是输入特征映射通道的1/s,其中/>s被称为尺度;Res2Net模块的输出{m1,m2,...,ms}表示如下:
Res2Net模块的输出{m1,m2,...,ms}被拼接起来,经过后续的1×1卷积层,生成M,即多尺度特征融合向量;
接下来,输出通过Squeeze-and-Excitation模块进行特征响应的重新校准;压缩操作通过对时间域上的帧级特征映射层进行全局平均池化来获取特征映射的压缩向量u:
其中Mt是M的第t帧;
激励操作通过以下方式获得特征映射的每个通道的权重:
q=σ(W2(ReLU(W1u))). (6)
其中,σ(·)表示sigmoid函数,B是瓶颈层中所减少的维度数量;
最后,M的每个维度,表示为Mi,被重新调整为:
其中qi是q的第i个元素。进一步将所有YRi拼接成一个矩阵YR=[YR1,YR2,...,YRD];
步骤3:选择以下三种融合机制中的一种对局部和全局的说话人特征进行融合;
步骤3-1:并列:
将YA和YR并列拼接起来,然后将该特征投影回原始维度:
YMerge=Concat(YA,YR)Wcon, (8)
其中是线性投影的可学习参数矩阵;
步骤3-2:深度卷积:
将深度卷积应用到融合模块中;首先,将两个分支的输出YA和YR进行并列拼接,然后使用深度卷积来集成空间信息交换过程,最后使用残差连接从不同的角度聚合信息以增强融合过程;详细过程如下:
其中,DwConv表示深度卷积,是线性投影的可学习参数矩阵;
步骤3-3:Squeeze-and-Excitation操作:
在步骤3-2的基础上添加一个SE模块,实现过程如下:
将深度卷积应用到融合模块中,首先,将两个分支的输出YA和YR进行并列拼接,然后使用深度卷积来集成空间信息交换过程,之后通过Squeeze-and-Excitation模块进行输出特征的重新校准,最后使用残差连接从不同的角度聚合信息以增强融合过程;详细过程如下:
CN202310360894.4A 2023-04-06 2023-04-06 基于并行分支结构的捕捉局部和全局特征说话人确认方法 Pending CN116469392A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310360894.4A CN116469392A (zh) 2023-04-06 2023-04-06 基于并行分支结构的捕捉局部和全局特征说话人确认方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310360894.4A CN116469392A (zh) 2023-04-06 2023-04-06 基于并行分支结构的捕捉局部和全局特征说话人确认方法

Publications (1)

Publication Number Publication Date
CN116469392A true CN116469392A (zh) 2023-07-21

Family

ID=87176452

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310360894.4A Pending CN116469392A (zh) 2023-04-06 2023-04-06 基于并行分支结构的捕捉局部和全局特征说话人确认方法

Country Status (1)

Country Link
CN (1) CN116469392A (zh)

Similar Documents

Publication Publication Date Title
Li et al. Replay and synthetic speech detection with res2net architecture
CN108766419A (zh) 一种基于深度学习的非常态语音区别方法
CN113488058B (zh) 一种基于短语音的声纹识别方法
CN106952644A (zh) 一种基于瓶颈特征的复杂音频分割聚类方法
CN109192200A (zh) 一种语音识别方法
WO2021051628A1 (zh) 构建语音识别模型的方法、装置、设备和存储介质
Wu et al. Partially fake audio detection by self-attention-based fake span discovery
CN109559755A (zh) 一种基于dnn噪声分类的语音增强方法
Yu et al. Cam: Context-aware masking for robust speaker verification
CN114783418B (zh) 基于稀疏自注意力机制的端到端语音识别方法及系统
CN111048097A (zh) 一种基于3d卷积的孪生网络声纹识别方法
CN111243621A (zh) 一种用于合成语音检测的gru-svm深度学习模型的构造方法
Zheng et al. MSRANet: Learning discriminative embeddings for speaker verification via channel and spatial attention mechanism in alterable scenarios
CN114999525A (zh) 一种基于神经网络的轻量环境声音识别方法
Qin et al. Multi-branch feature aggregation based on multiple weighting for speaker verification
Li et al. A Convolutional Neural Network with Non-Local Module for Speech Enhancement.
CN116469392A (zh) 基于并行分支结构的捕捉局部和全局特征说话人确认方法
Li et al. Few-shot speaker identification using lightweight prototypical network with feature grouping and interaction
Li et al. Speaker embedding extraction with multi-feature integration structure
Zi et al. Joint filter combination-based central difference feature extraction and attention-enhanced Dense-Res2Block network for short-utterance speaker recognition
CN111816167B (zh) 说话者嵌入学习方法、说话者识别方法及系统
CN114360507A (zh) 基于跨层连接注意力的语音识别网络、方法、设备及介质
CN113488069A (zh) 基于生成式对抗网络的语音高维特征快速提取方法和装置
Hossan et al. Speaker recognition utilizing distributed DCT-II based Mel frequency cepstral coefficients and fuzzy vector quantization
CN116230012B (zh) 一种基于元数据对比学习预训练的两阶段异音检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination