CN111477221B - 采用双向时序卷积与自注意力机制网络的语音识别系统 - Google Patents

采用双向时序卷积与自注意力机制网络的语音识别系统 Download PDF

Info

Publication number
CN111477221B
CN111477221B CN202010468219.XA CN202010468219A CN111477221B CN 111477221 B CN111477221 B CN 111477221B CN 202010468219 A CN202010468219 A CN 202010468219A CN 111477221 B CN111477221 B CN 111477221B
Authority
CN
China
Prior art keywords
convolution
layer
network
self
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010468219.XA
Other languages
English (en)
Other versions
CN111477221A (zh
Inventor
郭武
孙健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202010468219.XA priority Critical patent/CN111477221B/zh
Publication of CN111477221A publication Critical patent/CN111477221A/zh
Application granted granted Critical
Publication of CN111477221B publication Critical patent/CN111477221B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种采用双向时序卷积与自注意力机制网络的语音识别系统,一方面,采用双向时序卷积与自注意力机制网络既保证语音时序的感知又提升:通过双向时序卷积(Bidirectional Temporal Convolution Network,BTCN)与自注意力机制网络,BTCN可以同时捕捉过去和未来的信息,既保留了序列信息,也更好的适应Self‑Attention的全局建模能力。从而既保证了对语音序列信号的刻画能力,又提高了运算的速度。另一方面,利用下采样和上采样来减少资源需求:设计了下采样模块去减少语音序列的长度,从而减少资源需求,在输出层由于需要每一帧语音对应的标签,又通过上采样模块来恢复语音的长度。

Description

采用双向时序卷积与自注意力机制网络的语音识别系统
技术领域
本发明涉及语音信号处理领域,尤其涉及一种采用双向时序卷积与自注意力机制网络的语音识别系统。
背景技术
目前,主流的大规模连续语音识别依据其识别原理可分为两类,一类是基于隐马尔可夫模型(Hidden Markov Model,HMM)的传统语音识别,另一类则是端到端的语音识别系统。而端到端的语音识别系统又主要分为基于链接时序分类(Connectionist temporalclassification,CTC)的语音识别系统,以及基于编码器——解码器(Encoder-Decoder)的语音识别系统。基于HMM框架的声学模型优化目标是最大化语音帧和帧级标注之间的似然概率,或者后验概率;而端到端的语音识别系统从全局出发,强调序列到序列的对应关系。相比于基于HMM框架的声学模型,端到端的语音识别系统更强调时序建模与长时建模,因此解决语音信号的长时依赖在端到端的语音识别系统中显得尤为重要。
循环神经网络(Recurrent Neural Networks,RNN)及其变体长短时记忆网络(Long Short-Term Memory,LSTM)广泛用于语音识别,在传统的HMM声学建模和端到端的识别模型中都表现出显著的性能提升。LSTM通过记忆单元解决了信号的长时依赖,同时在一定程度上,缓解了RNN训练过程中的梯度消失和梯度爆炸等问题,但是LSTM训练时间长,参数量大,训练难度大。与此同时,卷积神经网络(ConvolutionalNeural Network,CNN)通过加深网络层数,增大感受野,提高了网络对信号的长时建模能力,并在基于HMM框架下的声学建模发挥出显著的优势。很多学者将CNN用于CTC的声学模型,尽管训练速度相比LSTM获得明显提升,但是识别效果并不是十分理想。为了增强CNN的序列建模能力,并且进一步扩大其感受野,有学者提出一种新型的卷积神经网络——时序卷积网络(TemporalConvolution Networks,TCN)。TCN由因果卷积,空洞卷积和残差连接组成,在音乐建模和语言模型等序列任务上超越一般的循环网络结构,但是这个网络只考虑了因果的卷积,而语音实际上是一种上下文相关的序列,也就是包含反因果的过程,此外,CNN本身在提取长时信息方面存在一定缺陷。
近年来,编码器——解码器网络结构在多个领域表现出强大的优势,并成功应用到语音识别领域。LAS(Listen,Attend and Spell)模型通过金字塔形的RNN或LSTM对语音特征进行编码,并通过RNN的解码器和注意力机制将语音信号转换为目标端的文字。编码器——解码器结构省略发音词典,并且具有高效的训练流程和解码流程,也因此成为语音识别的重点研究方向。2017年谷歌提出新型编码——解码器网络Transformer用于机器翻译领域,利用自注意力机制(Self-Attention)代替RNN或LSTM,Transformer很快被应用达到语音识别上,这种前馈神经网络不仅在速度上超越LAS模型,并且获得了显著的性能提升,随后自注意力机制结合编码器——解码器框架成功应用于语音识别中。Self-Attention具有很强的全局信息捕捉能力,充分利用语音信号的长时信息,但是Self-Attention对局部信息的建模能力不足。谷歌在阅读理解任务上提出QANet(QuestionAnsweringNetworking,问答网络),结合CNN和Self-Attention,使得网络同时具有较好的局部建模能力和全局建模能力,在语音文本建模领域获得了广泛的应用,但仍然局部信息捕捉能力不够。
发明内容
本发明的目的是提供一种采用双向时序卷积与自注意力机制网络的语音识别系统,可以保证了对语音序列信号的刻画能力,又提高了运算的速度。
本发明的目的是通过以下技术方案实现的:
一种采用双向时序卷积与自注意力机制网络的语音识别系统,包括:依次设置的下采样模块、位置编码模块、堆叠的BTCSAN模块、上采样模块以及输出层;
所述下采样模块,用于对输入的原始语音特征序列进行下采样处理来降低序列长度;
位置编码模块,用于根据原始语音特征序列对应的时长以及系统模型维度来生成位置编码,再将位置编码与下采样结果叠加后输出至第一个BTCSAN模块;
所述BTCSAN模块即为双向时序卷积与自注意力机制网络,其包括:自注意力机制网络和堆叠的多个双向时序卷积网络;通过每一双向时序卷积网络对语音特征序列中的位置信息和局部信息进行建模,并结合自注意力机制网络实现全局建模,输出处理后的语音特征序列;
上采样模块,用于对最后一个BTCSAN模块输出的语义特征序列进行上采样,从而将序列长度还原;
输出层,用于对上采样模块的输出进行建模,获得语音识别结果。
由上述本发明提供的技术方案可以看出,1)采用双向时序卷积与自注意力机制网络既保证语音时序的感知又提升:通过双向时序卷积(Bidirectional TemporalConvolutionNetwork,BTCN)与自注意力机制网络,BTCN可以同时捕捉过去和未来的信息,既保留了序列信息,也更好的适应Self-Attention的全局建模能力。从而既保证了对语音序列信号的刻画能力,又提高了运算的速度。2)利用下采样和上采样来减少资源需求:设计了下采样模块去减少语音序列的长度,从而减少资源需求,在输出层由于需要每一帧语音对应的标签,又通过上采样模块来恢复语音的长度。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的一种采用双向时序卷积与自注意力机制网络的语音识别系统的示意图;
图2为本发明实施例提供的BTCSAN模块组成原理图;
图3为本发明实施例提供的多头自注意力机制原理图;
图4为本发明实施例提供的自注意力机制原理图;
图5为本发明实施例提供的BTCN结构图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
受背景技术介绍的各项工作的启发,本发明实施例提出一种双向时序卷积与自注意力机制网络(Bidirectional Temporal Convolution with Self-AttentionNetwork,BTCSAN),并将其成功应用到CTC和HMM的声学建模中。与传统编码器方法不同之处在于,本发明使用双向时序卷积网络(Bidirectional Temporal Convolution Network,BTCSAN)代替CNN模块去捕捉局部信息,BTCN可以同时捕捉过去和未来的信息,既保留了序列信息,也更好的适应Self-Attention的全局建模能力。从而既保证了对语音序列信号的刻画能力,又提高了运算的速度。除此之外,在训练过程中,自注意力机制需要计算每两帧语音帧的注意力系数,因此GPU显存的开销非常大,并且显存增长和语音序列的长度是平方关系;此外整个语音序列进行自注意力计算时,网络收敛速度慢,收敛效果差,考虑到这两个问题,还设计了对应的下采样和上采样模块,增强网络的建模能力。
如图1所示,为本发明实施例提供一种采用双向时序卷积与自注意力机制网络的语音识别系统,其主要包括:依次设置的下采样模块(Downsample)、位置编码模块(Position embedding)、堆叠的BTCSAN模块、上采样模块(upsample)以及输出层。
本发明实施例中,下采样模块输入原始语音特征序列(batch_size,time,108),输出(batch_size,time/4,dmodel),dmodel代表模型的节点数目(也即系统模型维度);位置编码层输入语音特征对应的时长和模型维度dmodel直接生成位置编码,与下采样模块的输出直接叠加;BTCN,位置前馈网络层和多头自注意力层的输入均为上一层网络输出(batch_size,time/4,dmodel),输出也相同。下面针对每一模块做详细的介绍。
一、下采样模块与上采样模块。
由于下采样模块和上采样模块是一对相反的过程,因此,一并进行介绍。
如之前所述,在训练过程中,自注意力机制需要计算每帧语音帧的注意力系数,因此GPU显存的开销非常大,并且显存增长和语音序列的长度是平方关系;此外整个语音序列进行自注意力计算时,网络收敛速度慢,收敛效果差,考虑到这两个问题,设计了下采样模块去减少语音特征序列的长度。
如图1所示,所述下采样模块包括两个依次连接的子模块;每一子模块都包含依次连接的二维卷积神经网络(CNN)、最大池化层(Max-pooling)、以及投影层(Projection),其中,池化操作在时间维度上执行,投影层将输出的特征图拉平以获得向量维度dmodel。在两次最大池化操作后,语音序列长度变为原来的1/4,考虑到HMM中语音帧和标签的关系,需要最终在上采样模块中通过反卷积(deconvolution)操作将语音特征序列长度还原,因此可以采用1×4的反卷积操作。
二、位置编码模块。
在Transformer及其一系列变体中,采用位置编码为网络提供时序信息。为了提高基线系统的性能,同时进一步加强时序建模能力,本发明实施例中同样参考这个算法,在系统中仍然加入了位置编码,根据原始语音特征序列对应的时长以及系统模型维度来生成位置编码,再将位置编码与下采样结果叠加后输出至第一个BTCSAN模块,为BTCSAN模块提供时序信息,PE表示位置编码,最简单的编码就是按照顺序1,2,3....,一直到最后一个特征;但是由于语音有长有短,这种编码就无法规整,也无法体现特征位置上的信息。因此,通过sin,cos函数将编码限制在[0,1]的范围内,其中分子代表的是特征时间上的信息,分母是特征第几维的信息,分母采用指数函数的形式,通过这种方式可以获得一个既有时间又有位置的编码。pos为语音特征所属语音帧在语音序列中的位置,2i和2i+1表示一个dmodel大小的特征中的每一维,比如dmodel是512,i的取值为[0,255]。
位置编码的公式为:
Figure BDA0002513360010000051
Figure BDA0002513360010000052
其中,dmodel为系统模型的维度,pos表示位置信息,2i与2i+1均表示语音特征中的一个维度。
三、BTCSAN模块。
如图1所示,系统设有连续堆叠的Ne层相同的BTCSAN模块(即双向时序卷积与自注意力机制网络)。
如图2所示,BTCSAN模块包括:自注意力机制网络(Self-Attention Network,SAN)和堆叠的多个双向时序卷积网络(Bidirectional Temporal Convolution Network,BTCN);通过每一双向时序卷积网络对语音序列序列中的位置信息和局部信息进行建模,并结合自注意力机制网络实现全局建模,输出处理后的语音特征序列。
其中,自注意力机制网络包括:多头自注意力层(MultiHead Self-Attention)与位置前馈网络层(Position-wise Feed-Forward Network,FFN)。所述多头自注意力层与最后一个双向时序卷积网络之间、多头自注意力层与位置前馈网络层之间、以及相邻两个双向时序卷积网络之间均设有归一化(LayerNorm)和残差连接,可以加速网络的收敛,提高训练精度。
1、多头自注意力层。
通过多头注意力机制,完成了输入语音帧和标签在模型训练中的对齐加权。
如图3所示,所述多头自注意力层中并联有若干个相同的子层,每一子层均为一个自注意力机制层,可通过如图4所示的缩放的点乘注意力来实现;自注意力是一种利用输入序列的不同位置间的联系来计算输入表示的机制。
具体来说,每一子层均有三个输入,分别为查询(query)、键(key)和值(value),可以理解为编码后的语音特征。query的输出由value加权求和得到,而每个value的权值通过query及与之相关的key的设计函数计算得到。如图4所示,设Q表示query,维度为tq×dq;K表示key,维度为tk×dk;V表示value,维度为tv×dv,其中,t表示时间维度,d表示特征维度。通常情况下,tq=tk=tv,dq=dk=dv,自注意力机制的输出通过下式计算:
Figure BDA0002513360010000061
其中,
Figure BDA0002513360010000062
为调节因子,防止Q与K的内积过大,导致softmax值非0即1。
“多头”机制用来联合多个层不同的自注意力表示,即计算h次自注意力,h表示“头”的数目,也即子层的数目。如图3所示,每一子层的Q、K与V各自经过一个线性投影层(linear)以增加彼此之间的区分性,所有子层的输出拼接(concatenate)在一起后,经过一个线性投影层作为多头自注意力层的输出,表示为:
MultiHead(Q,K,V)=Concat(head1,...,headh)WO
Figure BDA0002513360010000063
其中,Concat表示拼接操作,headi表示第i个子层的Q、K与V经过线性投影层后得到的点乘自注意力计算结果,
Figure BDA0002513360010000064
依次表示第i个子层的Q、K、V经过的线性投影层的权重;WO表示拼接结果后经过的线性投影层的权重。
本领域技术人员可以理解,线性投影层的目的是为了将原始的Q,K,V降维,上述式子headi
Figure BDA0002513360010000065
计算得到新的Q,K,V,直接带入之前提供的式子进行计算即可。
2、位置前馈网络层。
本发明实施例中,所述位置前馈网络层包含两个全连接的线性层,中间设有一个ReLU非线性激活函数;FN可用来增加网络深度和非线性,增强网络的表达能力。位置前馈网络层的处理过程表示为:
FFN(x')=max(0,x'W1+b1)W2+b2
其中,x'表示输入至位置前馈网络层的数据,W1与W2、b1与b2分别表示两个线性层的权重、偏置;
Figure BDA0002513360010000071
可设置dff=2dmodel
3、双向时序卷积网络
双向时序卷积网络(Bidirectional Temporal Convolution Network,BTCN)相比于传统的卷积神经网络,时序卷积网络有更大的感受野,同时加强了网络的序列信息建模能力,由于自注意力机制缺乏语音序列的相对或绝对位置信息,本发明实施例中,采用双向时序卷积网络对位置信息和局部信息进行建模。双向时序卷积网络包括因果卷积(causalconvolution)和反因果卷积(anticausal convolution)操作。因果卷积利用上一层过去到当前时刻的输出结果执行卷积操作,反因果卷积则与之相反,通过因果和反因果的卷积,实现了对语音上下文关系的捕获,从而提升了模型的时序建模能力。
在本发明实施例中,双向时序卷积采用一维卷积来使网络的输入输出信号长度保持一致,同时考虑到模型参数量的大小和GPU显存限制,采用深度可分离卷积代替传统网络。
为了获得更多的历史信息或未来信息,双向时序卷积网络采用空洞卷积操作(dilatedconvolution)与因果卷积以及反因果卷积的联合运算方式,对于输入的一维序列x(语音特征序列)和卷积核f:{0,1,...,k-1},时刻t空洞卷积与因果卷积以及反因果卷积的输出如下:
Figure BDA0002513360010000072
Figure BDA0002513360010000073
其中,d为空洞卷积因子,k为卷积核大小,Dilated_causal表示空洞卷积与因果卷积的联合运算,Dilated_anticausal表示空洞卷积与反因果卷积的联合运算,f(j)是卷积核参数,x的下标表示语音特征所对应的语音帧序号;
每一BTCSAN模块中堆叠了Nc个双向时序卷积网络,如图5所示,对于第l个双向时序卷积网络,其输出O按如下方式计算:
x_fw=Dilated_causal(layernorm(x),dl,k)
x_bw=Dilated_anticausal(layernorm(x),dl,k)
O=concat(x_fw,x_bw)+x
其中,layernorm(x)表示归一化后的x,dl是第l个双向时序卷积网络的空洞卷积因子,1≤l≤Nc,且dl=2l-1
Figure BDA0002513360010000081
T为时刻总数。在每一层空洞卷积之后,采用LeakyReLU作为非线性激活函数。
四、输出层。
本发明实施例中,输出层可通过全连接层FC+Softmax实现,用于对上采样模块的输出进行建模,获得语音识别结果。
相对于传统的端到端语音识别建模方法,本发明提出的采用双向时序卷积与自注意力机制网络的语音识别系统具有如下优点:
1、采用双向时序卷积与自注意力机制网络既保证语音时序的感知又提升。采用CNN结构替代RNN或LSTM可以加快运算的速度,但是CNN由于受卷积核大小的限制,对上下文感知能力不强。为了增强CNN的序列建模能力,并且进一步扩大其感受野,提出双向时序卷积(Bidirectional Temporal Convolution Network,BTCN)与自注意力机制网络,BTCN可以同时捕捉过去和未来的信息,既保留了序列信息,也更好的适应Self-Attention的全局建模能力。从而既保证了对语音序列信号的刻画能力,又提高了运算的速度。
2、利用下采样和上采样来减少资源需求。在训练过程中,自注意力机制需要计算每帧语音帧的注意力系数,因此GPU显存的开销非常大,并且显存增长和语音序列的长度是平方关系;此外整个语音序列进行自注意力计算时,网络收敛速度慢,收敛效果差,考虑到这两个问题,首先设计了下采样模块去减少语音序列的长度,从而减少资源需求,在输出层由于需要每一帧语音对应的标签,又通过上采样模块来恢复语音的长度。
本发明提出的方法解决了CNN在语音识别中声学建模的上下文感知能力,并通过下采样和上采样减少了资源需求,同时保证了识别准确率。为了验证本发明所提出方法的有效性,设计了如下实验。
1、实验设置
在对话式日语语音数据集King-ASR-222-2和King-ASR-222-3上进行实验。语音数据集均为8kHz,16bit,单通道的语音文件,由海天瑞声公司收集。数据集King-ASR-222-2包括120小时的语音,随机选择105h,12h,2h作为训练集,开发集,测试集,用于建立语音识别系统。为了进一步验证系统性能,将King-ASR-222-3整体作为另一个测试集,King-ASR-222-3包含200h的对话语音,涉及21个主题,可更好的展现语音识别的性能。所有实验采用pytorch,kaldi,eesen作为训练平台。
由于是日文,采用字符错误率(Character Error,CER)作为评价指标,CER数值越小说明系统性能越优越。
2、实验结果
1)基于HMM的语音识别系统
本实验建立了不同的声学模型(GMM-HMM,DNN-HMM,BLSTM-HMM,SAN-HMM,BTCSAN-HMM),通过多组实验探究声学模型对识别性能的影响。根据发音词典,King-ASR-222-2数据集共有237个单音素,经过决策树绑定之后的三音素状态共有13566个,以此作为我们的建模单元,之后通过GMM-HMM的模型强制对其得到帧级标注用于神经网络的训练。所有的HMM系统解码过程中均采用基于词的3-gram语言模型。实验结果通过WER(Word Error Rate)与CER(Character Error Rate)显示,如表2所示。
在GMM-HMM和DNN-HMM中,将39维的梅尔频率倒谱系数(MFCC,包括一阶、二阶差分并对其做均值方差归一化),作为输入声学信号,且对DNN采取拼帧操作。在其余神经网络的训练中,声学特征采用108维的filterbank特征(包括一阶、二阶差分,并对其做均值方差归一化)。
DNN-HMM采用5层隐藏层,每层有1024个隐藏节点;而BLSTM-HMM则采用3层隐藏层,每层1024个节点;SAN-HMM用来探究自注意力机制对声学建模的能力,且SAN-HMM与BTCSAN-HMM基本配置都相同,都采用了相同的下采样和上采样模块,具体配置可见表1,表1中参数(A,B,C,D)表示输入通道,输出通道,卷积操作沿着向量维度和时间轴的卷积核大小。步长(E,F)表示卷积操作沿着向量维度和时间轴的步长大小。
实验中,设置多头自注意力机制中头的数目h=8,模型维度dmodel=512,核心部分的SAN与BTCSAN模块数Ne均为6。与此同时,设置自注意力机制和残差连接的dropout均为0.1。对于模型中所有的LeakyReLU激活函数,负斜率设置为0.1。表格2展示了不同声学模型在King-ASR-222-2测试集上的识别结果。由表格可以看出,DNN-HMM由于缺乏记忆长时信息的能力,性能明显不如BLSTM-HMM和SAN-HMM。SAN-HMM相比于传统的BLSTM-HMM,在保持高性能的同时,极大减少了模型参数,同时得益于其前馈计算的方式,训练速度提高很多,可见自注意力机制声学建模的能力非常强大。
Figure BDA0002513360010000101
表1 SAN-HMM与BTCSAN-HMM系统中下采样和上采样模块参数配置
模型 WER% CER%
GMM-HMM 57.46 51.45
DNN-HMM 48.04 42.48
BLSTM-HMM 41.10 35.84
SAN-HMM 40.67 35.21
表2不同声学模型在King-ASR-222-2测试集上的识别结果
BTCSAN-HMM中所有的卷积核大小为3,其实验结果在表3中显示,可以看到BTCN层数设置为Nc=1时,在King-ASR-222-2测试集上的识别结果表现最好,WER达到了39.50%,CER达到了34.37%,可以作为HMM的最终系统。实验证明了BTCN对于SAN表达能力的补充,BTCSAN能够充分利用SAN的全局表达能力和BTCN的序列建模能力与局部建模能力,使得网络的性能进一步提升。
为进一步测试系统性能,在200h的语音数据集King-ASR-222-3上进行测试,实验结果如表4所示。在非同源数据集上,BTCSAN相对于BLSTM获得明显的性能提升,进一步展现了BTCSAN模型的鲁棒性。
Figure BDA0002513360010000102
表3 BTCSAN-HMM在King-ASR-222-2测试集上的识别结果
模型 WER% CER%
BLSTM-HMM 44.91 38.36
BTCSAN-HMM 41.45 35.25
表4不同HMM系统在King-ASR-222-3测试集上的识别结果
2)基于CTC的语音识别系统
在CTC系统中,采纳2488个不同的字(平假名、片假名、日语汉字)加上CTC中的blank,共2489个建模单元,在解码过程中采用基于字的3-gram语言模型。最后我们采用CER(Character Error Rate)作为评价指标。实验所涉及到的网络模型均与HMM系统保持一致,各语音识别系统在在King-ASR-222-2测试集上的表现如表5所示。尽管SAN相比BLSTM的性能有所下降,但是BTCSAN表现出优异的建模能力,并且提升幅度超过HMM系统,这是由于CTC准则本质上是一种端到端的思想,它与HMM不同,不强调每一帧语音帧的硬对齐,更加强调全局性和序列性,从源端序列到目标端序列的映射,而HMM系统强调每一帧的作用,因此BTCSAN能够发挥更大的作用。当BTCN层数设置为Nc=3时,在King-ASR-222-2测试集上的识别结果表现最好。
同样,为进一步测试不同CTC系统的性能,在语音数据集King-ASR-222-3上进行测试,实验结果如表6所示,BTCSAN模型依然获得明显的提升。
Figure BDA0002513360010000111
表5不同CTC声学模型在King-ASR-222-2测试集上的识别结果
模型 CER%
BLSTM-CTC 45.92
BTCSAN-CTC 39.79
表6不同CTC系统在King-ASR-222-3测试集上的识别结果
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例可以通过软件实现,也可以借助软件加必要的通用硬件平台的方式来实现。基于这样的理解,上述实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将系统的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (4)

1.一种采用双向时序卷积与自注意力机制网络的语音识别系统,其特征在于,包括:依次设置的下采样模块、位置编码模块、堆叠的BTCSAN模块、上采样模块以及输出层;
所述下采样模块,用于对输入的原始语音特征序列进行下采样处理来降低序列长度;
位置编码模块,用于根据原始语音特征序列对应的时长以及系统模型维度来生成位置编码,再将位置编码与下采样结果叠加后输出至第一个BTCSAN模块;
所述BTCSAN模块即为双向时序卷积与自注意力机制网络,其包括:自注意力机制网络和堆叠的多个双向时序卷积网络;通过每一双向时序卷积网络对语音特征序列中的位置信息和局部信息进行建模,并结合自注意力机制网络实现全局建模,输出处理后的语音特征序列;
上采样模块,用于对最后一个BTCSAN模块输出的语义特征序列进行上采样,从而将序列长度还原;
输出层,用于对上采样模块的输出进行建模,获得语音识别结果;
其中,所述自注意力机制网络包括:多头自注意力层与位置前馈网络层;所述多头自注意力层与最后一个双向时序卷积网络之间、多头自注意力层与位置前馈网络层之间、以及相邻两个双向时序卷积网络之间均设有归一化和残差连接;
所述多头自注意力层中并联有若干个相同的子层,每一子层均为一个自注意力机制层,通过缩放的点乘注意力来实现;每一子层均有三个输入,分别为查询、键和值,依次记为Q、K与V;自注意力机制的输出通过下式计算:
Figure FDA0003878583260000011
其中,
Figure FDA0003878583260000012
为调节因子;
每一子层的Q、K与V各自经过一个线性投影层以增加彼此之间的区分性,所有子层的输出拼接在一起后,经过一个线性投影层作为多头自注意力层的输出,表示为:
MultiHead(Q,K,V)=Concat(head1,...,headh)WO
Figure FDA0003878583260000013
其中,h为子层的数目,Concat表示拼接操作,headi表示第i个子层的Q、K与V经过线性投影层后得到的点乘自注意力计算结果,
Figure FDA0003878583260000021
依次表示第i个子层的Q、K、V经过的线性投影层的权重;WO表示拼接结果后经过的线性投影层的权重;上述式子headi
Figure FDA0003878583260000022
计算得到新的Q、K、V,直接带入式子Attention(Q,K,V)进行计算;
所述双向时序卷积网络采用空洞卷积与因果卷积以及反因果卷积的联合运算方式,对于输入的语音特征序列x和卷积核f:{0,1,...,k-1},时刻t空洞卷积与因果卷积以及反因果卷积的输出如下:
Figure FDA0003878583260000023
Figure FDA0003878583260000024
其中,d为空洞卷积因子,k为卷积核大小,Dilated_causal表示空洞卷积与因果卷积的联合运算,Dilated_anticausal表示空洞卷积与反因果卷积的联合运算,f(j)是卷积核参数,x的下标表示语音特征所对应的语音帧序号;
每一BTCSAN模块中堆叠了Nc个双向时序卷积网络,对于第l个双向时序卷积网络,其输出O按如下方式计算:
x_fw=Dilated_causal(layernorm(x),dl,k)
x_bw=Dilated_anticausal(layernorm(x),dl,k)
O=concat(x_fw,x_bw)+x
其中,layernorm(x)表示归一化后的x,dl是第l个双向时序卷积网络的空洞卷积因子,1≤l≤Nc
2.根据权利要求1所述的一种采用双向时序卷积与自注意力机制网络的语音识别系统,其特征在于,所述下采样模块包括两个依次连接的子模块;每一子模块都包含依次连接的二维卷积神经网络、最大池化层、以及投影层。
3.根据权利要求1所述的一种采用双向时序卷积与自注意力机制网络的语音识别系统,其特征在于,所述位置编码的公式为:
Figure FDA0003878583260000025
Figure FDA0003878583260000026
其中,dmodel为系统模型的维度,pos表示位置信息,2i与2i+1均表示语音特征中的一个维度。
4.根据权利要求1所述的一种采用双向时序卷积与自注意力机制网络的语音识别系统,其特征在于,所述位置前馈网络层包含两个全连接的线性层,中间设有一个ReLU非线性激活函数;位置前馈网络层的处理过程表示为:
FFN(x')=max(0,x'W1+b1)W2+b2
其中,x'表示输入至位置前馈网络层的数据,W1与W2、b1与b2分别表示两个线性层的权重、偏置。
CN202010468219.XA 2020-05-28 2020-05-28 采用双向时序卷积与自注意力机制网络的语音识别系统 Active CN111477221B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010468219.XA CN111477221B (zh) 2020-05-28 2020-05-28 采用双向时序卷积与自注意力机制网络的语音识别系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010468219.XA CN111477221B (zh) 2020-05-28 2020-05-28 采用双向时序卷积与自注意力机制网络的语音识别系统

Publications (2)

Publication Number Publication Date
CN111477221A CN111477221A (zh) 2020-07-31
CN111477221B true CN111477221B (zh) 2022-12-30

Family

ID=71765017

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010468219.XA Active CN111477221B (zh) 2020-05-28 2020-05-28 采用双向时序卷积与自注意力机制网络的语音识别系统

Country Status (1)

Country Link
CN (1) CN111477221B (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111968635B (zh) * 2020-08-07 2024-03-05 北京小米松果电子有限公司 语音识别的方法、装置及存储介质
CN111933111A (zh) * 2020-08-12 2020-11-13 北京猎户星空科技有限公司 语音唤醒方法、装置、电子设备和存储介质
CN112216271B (zh) * 2020-10-11 2022-10-14 哈尔滨工程大学 一种基于卷积块注意机制的视听双模态语音识别方法
CN112380949B (zh) * 2020-11-10 2024-03-26 大连理工大学 一种微震波到时点检测方法及系统
CN112466297B (zh) * 2020-11-19 2022-09-30 重庆兆光科技股份有限公司 一种基于时域卷积编解码网络的语音识别方法
CN112599122B (zh) * 2020-12-10 2022-10-14 平安科技(深圳)有限公司 基于自注意力机制和记忆网络的语音识别方法及装置
CN112836569B (zh) * 2020-12-15 2023-01-03 泰山学院 基于序列卷积网络的水声通信信号识别方法、系统及设备
CN112836048A (zh) * 2021-01-27 2021-05-25 天津大学 基于多头双向注意力的交互式Transformer的隐式篇章关系识别方法
CN112863550B (zh) * 2021-03-01 2022-08-16 德鲁动力科技(成都)有限公司 基于注意力残差学习的哭声检测方法及系统
CN113035178B (zh) * 2021-03-16 2024-01-05 华南理工大学 基于transformer的语音识别解码加速方法
CN112951239B (zh) * 2021-03-24 2023-07-28 平安科技(深圳)有限公司 基于注意力模型的佛乐生成方法、装置、设备及存储介质
CN113140220B (zh) * 2021-04-12 2023-04-18 西北工业大学 基于卷积自注意力变换网络的轻量级端到端语音识别方法
CN113269119B (zh) * 2021-06-07 2023-01-31 重庆大学 一种夜间车辆检测方法及装置
CN113409772A (zh) * 2021-06-15 2021-09-17 西北工业大学 一种编码器及采用该编码器的基于局部生成式注意力机制的端到端语音识别系统
CN113409827B (zh) * 2021-06-17 2022-06-17 山东省计算中心(国家超级计算济南中心) 基于局部卷积块注意力网络的语音端点检测方法及系统
CN113436615B (zh) * 2021-07-06 2023-01-03 南京硅语智能科技有限公司 语义识别模型及其训练方法、语义识别方法
CN113537416A (zh) * 2021-09-17 2021-10-22 深圳市安软科技股份有限公司 基于生成式对抗网络的文本转换图像的方法及相关设备
CN113869065B (zh) * 2021-10-15 2024-04-12 梧州学院 一种基于“单词-短语”注意力机制的情感分类方法和系统
CN114023316B (zh) * 2021-11-04 2023-07-21 匀熵科技(无锡)有限公司 基于TCN-Transformer-CTC的端到端中文语音识别方法
CN114169330B (zh) * 2021-11-24 2023-07-14 匀熵智能科技(无锡)有限公司 融合时序卷积与Transformer编码器的中文命名实体识别方法
CN114485037B (zh) * 2022-02-11 2024-04-05 海信冰箱有限公司 一种冰箱及其食材定位方法
CN115170638B (zh) * 2022-07-13 2023-04-18 东北林业大学 一种双目视觉立体匹配网络系统及其构建方法
CN117275484B (zh) * 2023-11-17 2024-02-20 深圳市友杰智新科技有限公司 命令词识别方法、装置、设备和介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108615036A (zh) * 2018-05-09 2018-10-02 中国科学技术大学 一种基于卷积注意力网络的自然场景文本识别方法
CN110211574A (zh) * 2019-06-03 2019-09-06 哈尔滨工业大学 基于瓶颈特征和多尺度多头注意力机制的语音识别模型建立方法
CN110223706A (zh) * 2019-03-06 2019-09-10 天津大学 基于注意力驱动循环卷积网络的环境自适应语音增强算法
CN110400579A (zh) * 2019-06-25 2019-11-01 华东理工大学 基于方向自注意力机制和双向长短时网络的语音情感识别

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10629193B2 (en) * 2018-03-09 2020-04-21 Microsoft Technology Licensing, Llc Advancing word-based speech recognition processing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108615036A (zh) * 2018-05-09 2018-10-02 中国科学技术大学 一种基于卷积注意力网络的自然场景文本识别方法
CN110223706A (zh) * 2019-03-06 2019-09-10 天津大学 基于注意力驱动循环卷积网络的环境自适应语音增强算法
CN110211574A (zh) * 2019-06-03 2019-09-06 哈尔滨工业大学 基于瓶颈特征和多尺度多头注意力机制的语音识别模型建立方法
CN110400579A (zh) * 2019-06-25 2019-11-01 华东理工大学 基于方向自注意力机制和双向长短时网络的语音情感识别

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于BPE和Transformer的汉语语音识别技术研究;栾效阳;《中国优秀硕士学位论文全文数据库(电子期刊)》;20200215;I136-444 *
基于改进混合CTC/attention架构的;杨鸿武等;《西北师范大学学报》;20190515;第48-53页 *
基于混合式注意力机制的语音识别研究;李业良等;《计算机应用研究》;20181201(第01期);第137-140页 *

Also Published As

Publication number Publication date
CN111477221A (zh) 2020-07-31

Similar Documents

Publication Publication Date Title
CN111477221B (zh) 采用双向时序卷积与自注意力机制网络的语音识别系统
Bhangale et al. Survey of deep learning paradigms for speech processing
Saon et al. The IBM 2015 English conversational telephone speech recognition system
Ferrer et al. Study of senone-based deep neural network approaches for spoken language recognition
CN112927682B (zh) 一种基于深度神经网络声学模型的语音识别方法及系统
CN111968629A (zh) 一种结合Transformer和CNN-DFSMN-CTC的中文语音识别方法
Zhang Unsupervised speech processing with applications to query-by-example spoken term detection
JP2019159058A (ja) 音声認識システム、音声認識方法、学習済モデル
Jati et al. Speaker2Vec: Unsupervised Learning and Adaptation of a Speaker Manifold Using Deep Neural Networks with an Evaluation on Speaker Segmentation.
CN108389575A (zh) 音频数据识别方法及系统
US11380315B2 (en) Characterizing accuracy of ensemble models for automatic speech recognition by determining a predetermined number of multiple ASR engines based on their historical performance
CN113257248A (zh) 一种流式和非流式混合语音识别系统及流式语音识别方法
CN113781995A (zh) 语音合成方法、装置、电子设备及可读存储介质
Yang et al. A novel pyramidal-FSMN architecture with lattice-free MMI for speech recognition
Alsayadi et al. Non-diacritized Arabic speech recognition based on CNN-LSTM and attention-based models
KR20240089276A (ko) 다중 언어 자동 스피치 인식을 위한 공동 비지도 및 지도 트레이닝
Mamatov et al. Speech recognition based on transformer neural networks
CN117037789B (zh) 一种客服语音识别方法、装置、计算机设备及存储介质
Dai et al. Improving audio-visual speech recognition by lip-subword correlation based visual pre-training and cross-modal fusion encoder
Liu et al. Learning phone recognition from unpaired audio and phone sequences based on generative adversarial network
CN115376547B (zh) 发音评测方法、装置、计算机设备和存储介质
US11024315B2 (en) Characterizing accuracy of ensemble models for automatic speech recognition
Svec et al. On the use of grapheme models for searching in large spoken archives
CN111128191B (zh) 一种在线端对端语音转写方法及系统
Lee et al. Phoneme segmentation using deep learning for speech synthesis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant