CN105960672B - 用于稳健语音识别的变量组件深度神经网络 - Google Patents
用于稳健语音识别的变量组件深度神经网络 Download PDFInfo
- Publication number
- CN105960672B CN105960672B CN201480075008.2A CN201480075008A CN105960672B CN 105960672 B CN105960672 B CN 105960672B CN 201480075008 A CN201480075008 A CN 201480075008A CN 105960672 B CN105960672 B CN 105960672B
- Authority
- CN
- China
- Prior art keywords
- vcdnn
- voice
- environmental variance
- speech recognition
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 8
- 230000007613 environmental effect Effects 0.000 claims abstract description 81
- 238000000034 method Methods 0.000 claims abstract description 42
- 230000006870 function Effects 0.000 claims description 63
- 230000004913 activation Effects 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 16
- 238000003860 storage Methods 0.000 description 29
- 238000012549 training Methods 0.000 description 15
- 239000011159 matrix material Substances 0.000 description 11
- 238000012360 testing method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 239000005441 aurora Substances 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 235000013399 edible fruits Nutrition 0.000 description 3
- 239000000047 product Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000004387 environmental modeling Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/24—Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Quality & Reliability (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
Abstract
提供了用于结合环境变量的语音识别的系统和方法。该系统包括:语音捕捉设备(202);特征提取模块(204);环境变量模块(206),其中所述环境变量模块确定环境变量的值;以及语音识别解码器(208),其中所述语音识别译码器利用深度神经网络(DNN)来识别由所述语音捕捉装置捕捉的语音,其中所述DNN的一个或多个组件被建模为环境变量的一组函数。
Description
背景
语音识别和利用语音识别技术的应用已变得常见并且越来越流行。许多这些应用也被纳入到个人计算机、膝上型计算机、移动设备、以及其它类似类型的装置中。这些设备通常位于不同的地方,或从一个地方移动到另一个地方。如此,背景噪声和其它环境因素将取决于位置而不同。这些环境因素中的一些对语音识别的质量和一致性具有影响。如此,当用户在不同的位置使用语音识别应用,所识别语音的质量往往较差或不一致。
各实施例正是对于这些和其它一般考虑事项而做出的。而且,尽管讨论了相对具体的问题,但是应当理解,各实施例不应被限于解决本背景技术中所标识的具体问题。
概述
该技术涉及用于结合环境变量的语音识别的系统和方法。所述系统和方法捕捉诸如来自用户的语音用于识别。然后,利用深度神经网络(DNN)(更具体地是变量组件DNN(VCDNN))来识别所述语音。VCDNN通过结合环境变量来处理并识别所捕捉的语音。环境变量可以是取决于环境条件或用户、客户端设备、以及环境的关系的任何变量。例如,所述环境变量可以基于环境噪声。一种这样的环境变量可以是信噪比。其它环境变量还可包括语音捕捉设备离用户的距离、用户的语速,讲话者的声道长度、以何角度接收来自用户的语音、用户的年龄、或其它类似的变量。环境变量可利用用户讲话被同时测量。
VCDNN可以不同的方式结合环境变量,并且几乎DNN的任何组件可被建模作为诸如环境变量的多项式函数之类的一组功能。例如,可利用变量参数DNN(VPNN),其中加权矩阵组件与偏置组件是环境变量相关的。在另一个例子中,可利用变量输出DNN(VODNN),其中每个隐藏层的输出是环境变量相关的。在又一示例中,可利用变量激活DNN(VADNN),其中在DNN节点的激活函数的参数被建模为环境变量相关。在每个示例中,可在识别期间使用它们的相关联的多项式函数计算变量相关组件,用于在测试或所测量的数据中被检测的环境条件。通过以这样的方式将环境变量结合于DNN,可跨多个不同的环境实现高质量语音识别结果。
提供本概述以便以简化的形式介绍将在以下的详细描述中进一步描述的一些概念。本发明内容并不旨在标识出所要求保护的主题的关键特征或必要特征,也不旨在用于限定所要求保护的主题的范围。
附图简述
参考以下附图描述非限制性和非穷尽的实施例。
图1描绘了用于语音识别的环境。
图2描绘了用于语音识别的系统。
图3示出VPDNN中一层的流程图。
图4示出VODNN中一层的框架。
图5描绘了VADNN中一层的流程图。
图6描绘了用于基于VCDNN的语音识别的方法。
图7是示出可用来实施本公开的各实施例的计算设备的示例物理组件的框图。
图8A和8B是可用来实施本公开的各实施例的移动计算设备的简化框图。
图9是可在其中实施本公开的各实施例的分布式计算系统的简化框图。
图10示出用于执行本公开的一个或多个实施例的平板计算设备。
详细描述
在下面的详细描述中,参考构成其一部分的附图,在附图中,通过例图,示出了具体的实施例或示例。可将这些方面组合起来,也可利用其它方面,并且可作出结构上的改变而不背离本公开的精神或范围。因此,下面的具体实施方式不应以限制性的意义来理解,而是本公开的范围是由所附权利要求及其等效方案来定义的。
本公开一般涉及改进语音识别的稳健性。在某种程度上,本公开涉及跨多种环境改进语音识别。例如,语音识别结果的质量通常在安静环境和有噪声的环境之间变化。本公开提供通过将环境变量纳入深度神经网络(DNN)的组件以供语音识别系统中使用来提供跨多个环境的较高质量结果的系统和方法。这样的语音识别系统和方法可在本文中被称为“噪声稳健”语音识别系统和方法。
先前对于创建噪声稳健的语音识别系统的尝试(尽管不断地比它们的前代产品更好)仍然留有改进的余地。例如,利用上下文相关的深度神经网络隐式马尔可夫模型(CD-DNN-HMM)的系统已在自动语音识别上显示出对传统高斯混合模型(GMM-HMM)的优越性。对于这两种DNN-HMM和GMM-HMM系统,基于模型的噪声稳健的方法是包括用于训练数据的在各种条件下的噪声语音,这被称作多条件训练。然而,利用过去GMM-HMM和DNN-HMM的多条件训练会遭受一些限制。例如,利用固定参数组建模各种训练环境导致“扁平”分布,这在区分环境中较不有用。如此,针对在特定环境中的识别语音,“扁平”模式不是最优匹配模型。而且,通常难以收集训练数据以覆盖所有可能类型的环境,这导致在未见的噪声环境中的性能不可预测。
变量参数HMM(VPHMM)系统寻求解决这些限制,但仍有其自身的限制。在基于VPHMM的语音识别中,诸如状态发射参数(GMM均值和方差)或适配矩阵的HMM参数,被建模为连续环境相关变量的多项式函数。在识别的时候,特定于给定环境变量值的一组GMM均值和方差(或适配矩阵)被实例化并用于识别。即使没在训练中看出测试环境,由于环境变量方面的均值和方差的改变可通过多项式来预测,因此所估计的GMM参数可仍然有效。
然而,对这些现有方法的改进是可能的,并在本公开中讨论。更具体地,本公开涉及被称为基于变量组件DNN(VCDNN)的语音识别系统的基于模型的噪声稳健语音识别系统。利用基于VCDNN的语音识别,DNN中的几乎任何组件可被建模作为一组环境变量的多项式函数。作为一个示例,可利用变量参数DNN(VPNN),其中加权矩阵组件与偏置组件是环境变量相关的。在另一个例子中,可利用变量输出DNN(VODNN),其中每个隐藏层的输出是环境变量相关的。在又一示例中,可利用变量激活DNN(VADNN),其中在DNN节点的激活函数的参数被建模为环境变量相关。在每个示例中,可在识别期间使用它们的相关联的多项式函数计算变量相关组件,用于在测试或所测量的数据中被检测的环境条件。
转向图1,图1描绘了包括用户102和客户端设备104的环境100。环境100中的用户102向客户端设备104说话。在接收到来自用户102的语音之际,客户端设备104利用基于VCDNN的语音识别来完成语音识别,如以下更加详细描述的。此外,如以下澄清的,使用VCDNN的语音识别可至少部分地采用附加的设备或应用(诸如服务器或基于云的应用)来执行。
环境100可随着用户102访问分开的客户端设备(诸如膝上型计算机或个人计算机)来改变。环境100还可随着用户102改变位置或随着环境100在用户102周围改变来改变。例如,客户端设备104可以是诸如智能电话的移动设备。用户102可希望使得客户端设备104上的语音识别功能能在多个环境中被执行。例如,用户可在噪杂的街道上来尝试使得语音识别功能被执行在客户端设备104上。稍后,用户可在安静的办公室中来尝试使得语音识别功能被执行在客户端设备上。由于语音识别过程中对VCDNN的利用,用户102将在两种环境上都接收到较高质量的结果。
图2描绘了用于噪声稳健语音识别的系统200。图2示出客户端设备104、语音识别解码器208、以及应用212的更详细示图。客户端设备104可包括语音捕捉设备202、特征提取模块204、和环境变量模块206。语音捕捉设备202捕捉由用户102所讲的语音。语音捕捉设备202可以是硬件和软件组件的组合,诸如话筒和数字化软件,以及其它公知的语音捕捉设备。在各实施例中,也可通过特征提取模块204提取特征向量。特征向量可以是表示语音输入的数字特征的n维向量集。用于提取特征向量的多种可接受方法对本领域技术人员而言是公知的,包括对数Mel过滤器组、Mel-频率倒谱技术(Mel-frequency cepstraltechnique)、线性预测、以及感知线性预测等等。在这些实施例中,特征向量被从语音捕捉设备202捕捉的语音输入中提取。然后,特征向量被发送到语音识别解码器208。
环境变量模块206确定在VCDNN中将使用的环境变量和环境变量值。环境变量可以是取决于环境条件或用户、客户端设备、以及环境的关系的任何变量。例如,所述环境变量可基于环境噪声。一种这样的环境变量是信噪比。其它环境变量包括语速或离语音捕捉设备202的距离。VCDNN利用SNR作为环境变量,该环境变量模块206在语音捕捉期间计算、测量和/或确定信噪比。可通过测量每个语音帧的噪声来确定SNR。可比较或从所捕捉的语音中减去所测量的噪声来确定信噪比。然后,所确定的信噪比可被VCDNN利用。在语速被用作环境变量的示例中,语度可被计算或从所捕捉的语音中直接确定。在利用离话筒的距离的示例中,该距离可通过视频分析或其它距离测量工具(诸如激光或基于光测量)来确定。另一个环境变量可以是以何角度接收来自用户的语音。可以用户的距离类似的方式来确定该角度。关于用户的特征还可作为环境变量被利用。例如,环境变量可以是讲话者的年龄。其它环境变量还可包括讲话者的声道长度。在实施例中,环境变量是可能对语音识别结果具有潜在影响的可在运行时被测量的任何标量值。
每个环境变量可被连续地或基本上连续地测量。当前的环境变量可作为标量值被测量。例如,当被测量时,信噪比的值是标量值。如此,环境变量适于近似以及结合于其它函数中的多项式函数。本领域的技术人员将理解,存在用于测量或确定上述环境变量的其它方法。
语音识别解码器208识别由用户102所讲的语音。语音识别解码器利用VCDNN模块210来完成识别。在一些示例中,VCDNN模块210可被结合或使用于语音识别解码器208的声学模型。VCDNN模块接收所捕捉的语音或特征向量以及利用相应的VCDNN处理语音或向量,诸如VPDNN、VODNN、或VADNN。VCDNN还纳入环境变量的值。一个或多个VCDNN部件可以被参数化作为标量值的函数。相应的VCDNN的操作将在下面进一步详细讨论。
可通过语音识别解码器208进一步处理所述VCDNN模块的输出。例如,语音识别解码器可进一步包括在其它模型或自动语音识别组件之间的语言模型、语音模型、和/或词法。这些模块中的每一个可被进一步利用于识别用户102所讲的语音。所讲的语音的识别之际,语音识别解码器208输出所识别的语音。所识别的语音输出可被发送给应用212以使用。应用212可以是任何能够以经识别的语音的形式接收输入的应用。例如,应用212可以是语音到文本应用,诸如消息应用或其组件。应用212还可以是智能个人助理的一部分,诸如来自华盛顿州雷蒙德市的微软公司的CORTANA智能个人助理。
虽然被描绘为跨多个设备发生,但可在诸如客户端和服务器的单个设备或跨多个设备上执行系统200的功能。例如,当使用多个设备时,语音捕捉设备202可以在客户端设备104上,且特征提取模块204也可由客户端设备104执行。在这样的示例中,语音识别解码器208可在服务器或其它网络或基于云的组件上操作。应用212还可驻留在客户端或服务器中。通过使语音识别解码器208在服务器上操作,更多资源可在解码和识别过程中使用。在其它示例中,除了捕捉语音输入之外的所有功能可均由服务器或其它网络或基于云的组件实现。替换地,所有特征可由一个设备(诸如客户端设备104)执行。本领域技术人员还将意识到适于与此处公开的方法和系统一起使用的用于自动语音识别的其它架构。
图3示出基于VPDNN语音识别中被利用的VPDNN中一层的流程图。在讨论图3中示出的流程图之前,CD-DNN-HMM和VPHMM的一般背景可有助于理解本公开。在CD-DNN-HMM的框架中,经绑定的上下文相关的HMM状态的对数似然(在此被称为“senone””)在传统的GMM-HMM系统中使用DNN而非GMM计算。DNN可被视为多层感知器(MLP),包括一个输入层、一个输出层以及许多隐藏层。输出层的每个节点代表一个senone。
双曲函数可被选为用于DNN的隐藏层,并且第l隐藏层ol的输出的激活函数可如下给出:
ol=fsigm(ul) (1)
ul=(Wl)Tol-1+bl (2)
其中ol-1是第l层的输入,Wl和bl相应的是加权矩阵和第l层的偏移,其中fsigm(x)=1/(1+ex)。
输出层(层L)的激活函数是softmax函数:
因此,senone后验概率p(sk|x)是:
其中x是DNN的输入特征向量,sk是响应于顶层的单元k的senone,以及S是senone的总数量。第一层的输入o0=x。然后根据下式计算HMM p(x|s)的senone发射似然性
p(x|s)=P(s|x)·p(x)/P(s) (5)
P(s)是senone s的先验概率。p(x)可独立于s,并且在HMM解码期间可被忽略。
在DNN训练中,可被使用的一个优化准则是由参考标记表示的后验分布与预测分布p(s|x)之间的交叉熵。目标函数为:
通常基于强制对齐结果来决定参考标记:
然后等式(6)可被简化为:
FCE=-log(p(s'|x)) (8)
其中s'是语音输入x的参考senone。
利用上述目标函数,可用D.Yu、L.Deng和G.Dahl在Proc中的“在用于现实世界语音识别的上下文相关DBN-HMM中预训练和微调的角色”中介绍的方法来训练DNN。关于深度学习和无监督特征学习的NIPS研讨会(2010),其包括无监督的预训练以及受监督的微调。还可利用其它训练方法。在微调阶段使用的算法可以是误差后向传播的,其中加权矩阵W和层l的偏移b被更新为:
a表示学习速率。ol-1和el相应的是层l的输入和误差向量。可通过传播来自其上层的误差来计算el。
是层l+1的第i行第k列中的加权矩阵Wl+1中的元素,而是层l+1的误差向量el+1中的第k元素。Nl+1是层l+1的单元号。顶层(例如输出层)的错误可以是在等式(8)中定义的目标函数的导数。
δss'是Kronecker增量函数。
在传统的GMM-HMM系统中,在不同环境下的语音分布由相同的参数集(高斯均值和方差)建模。因此,传统的GMM-HMM不完美,因为它不建模诸如SNR的任何声学环境变化。VPHMM尝试将GMM参数建模为SNR函数,例如高斯组件m被建模为N(y;μ(m,v),∑(m,v))。μ(m,v)和∑(m,v)是环境变量v的多项式函数。例如,μ(m,v)可被表示为
其中cj(m)是具有与输入特征向量一样维度的向量,并且对应于第j阶环境变量。多项式函数的选择是基于其用于连续函数的良好近似属性,其简单的求导操作,以及在环境方面的均值和方差平滑变化,并且可由低阶多项式建模的事实。还可利用附加函数类型。
在VPHMM的训练中,可基于具有EM算法的最大似然准则估计cj(m)(以及其它参数)。在测试阶段,用所确定的SNR值来计算高斯均值和方差。即使没有在训练中看出所确定的SNR,多项式函数可帮助计算适当的模型参数,所以基于VPHMM的语音识别能够在未见环境中比它的前代产品工作得更好。
回到图3和VCDNN,基于VCDNN的语音识别代表了通过针对环境建模它们变化的DNN组件,其没有被标准DNN考虑。在基于VPDNN的语音识别中,如图3中的流程图所示的,加权矩阵W以及层l的偏移b被建模为环境变量v的函数:
此处,可使用含有和两者的多项式函数。SNR可被选为环境变量,位于上述所讨论的其它环境变量中。因此导致下列等式:
J是多项式函数阶。是具有与Wl相同维度的矩阵,而是具有与bl相同维度的向量。
在图3中示出VPDNN的一层的流程图。输入向量302由加权函数接收,分别由加权函数指示符304A-C表示。虽然只描绘了三个加权函数,在这样描绘中的加权函数的数量取决于所选的多项式阶,如在加权函数指示符304C中指示的J。每个表示加权函数指示符的304A-C,分别表示在等式(15)和(16)中表示的从j=0到j=J的特定j值评估的总和。在加权函数之后,如乘法指示符306A-C指示的,加权函数的结果与相应环境变量v(例如vj)的第j次幂(power)(如环境变量指示符308A-C指示的)相乘。然后如求和指示符310指示的,将来自从j=0到j=J的每一级的结果相加。由激活函数指示符312表示的激活函数接收求和结果。继激活函数的评估之后,产生输出向量314。本领域技术人员将理解,图3只示出VPDNN中的一层,并且在各实施例中,利用了许多附加层。
在基于VPDNN的语音识别系统的训练中,确定和而非标准DNN中的Wl和bl。从等式(15)和(16)可以看出,如果J被设置为零(J=0),VPDNN等同于标准DNN,所以没有必要从头开始确定和 和可基于微调阶段中的标准DNN用以下的初始值更新:
和是标准DNN中层l的加权矩阵和偏移。
将上述的等式(15)和(16)以及误差后向传播算法合并,可确定更新公式和
在识别阶段中,根据诸如SNR的具有估计、计算或经测量的环境变量的等式(15)和(16)来实例化加权矩阵W以及每层的偏移b。可以与标准DNN相同的方式计算后验senone。
图4示出VODNN中一层的框架。在基于VODNN的语音识别中,由函数描述每个隐藏层的输出,诸如环境变量v的多项式函数。
其中
如在基于VPDNN的语音识别中,基于具有与等式(17)和(18)给定的相同初始值的标准DNN来更新和类似地,可通过合并等式(21)和(22)以及误差后向传播算法获得更新公式:
其中
是层l的误差向量的第i个元素,并且是层l+1的矩阵行k列的元素。
在基于VODNN的语音识别的识别阶段中,根据诸如SNR的具有估计、测量或经计算的环境变量的等式(21)来计算每个隐藏层的输出。根据具有环境独立参数WL和bL的等式(4)和(2)来计算例如后验senone的顶层输出。
如图4所示,表示VODNN中一层的框架,输入向量402被加权函数接收,分别由加权函数指示符404A-C表示。虽然只描绘了三个加权函数,在这样描绘中的加权函数的数量取决于所选的多项式阶,如在加权函数指示符404C中指示的J。每个表示加权函数指示器的404A-C,分别表示从j=0到j=J的特定j值的评估。在加权函数之后,激活函数评估加权函数的结果,分别由激活函数指示符406A-C表示。如乘法指示符408A-C指示的,激活函数的评估结果与相应环境变量v(例如vj)的第j次幂(power)(如环境变量指示符410A-C指示)相乘。然后如求和指示符412指示的,将来自从j=0到j=J的每一级的结果相加。利用求和结果来产生输出向量414。本领域技术人员将理解,图4只示出VODNN中的一层,并且在各实施例中,利用了许多附加层。
图5描绘了VADNN中一层的流程图,其中DNN节点的激活函数具有环境变量相关的参数。例如,隐藏层每个节点都使用双曲函数:
fsigm(x)=1/(1+ex) (26)
利用基于VADNN的语音识别,双曲函数具有通用形式
fsigm(x)=1/(1+eax+m) (27)
对于层l中的每个节点n,和两者都是环境变量相关的:
和可利用以下的误差后向传播算法来获得
如图5所示,由加权函数指示符504表示的加权函数接收输入向量502。逐元素线性变换(例如ax+m)的系数,被确定为j=0到j=J级。然后,如乘法指示符508A-C指示,所确定的系数与相应环境变量v(例如vj)的第j次幂(power)(如环境变量指示符510A-C指示的)相乘。然后如求和指示符512指示的,将来自从j=0到j=J的每一级的结果相加。由激活函数指示符514表示的激活函数接收求和结果。继激活函数的评估之后,产生输出向量516。本领域技术人员将理解,图5只示出VADNN中的一层,并且在各实施例中,利用了许多附加层。
在实施例中,可归一化诸如SNR的环境变量v用于VPDNN、VODNN、以及VADNN,因为与相应的DNN组件相比,环境变量的数值范围往往过大。例如,双曲函数可被用于环境变量归一化的目的。双曲函数不仅缩小的数值范围内,而且在相似环境中造成很高SNR的影响。这将是合理的,因为,例如,40dB和60dB的SNR不会在语音识别中造成明显的差异。同样的逻辑还适用于非常低SNR的情况。
图6描绘了利用基于VCDNN的语音识别的方法。尽管该方法被示出且被描述为顺序地执行的一系列动作,但可以理解并意识到,该方法不受该顺序的次序的限制。例如,一些动作可按与本文描述的次序不同的次序进行,如本领域技术人员所领会的。另外,一些动作可以与另一动作同时发生。例如,统计权重的调整可与该应用对所识别单词的处理同时进行。此外,在一些实例中,实现本文描述的方法并不需要所有动作。
此外,本文描述的动作可以是可由一个或多个处理器实现的和/或存储在一个或多个计算机可读介质上的计算机可执行指令。计算机可执行指令可包括例程、子例程、程序、执行的线程等。另外,该方法的动作的结果可以存储在计算机可读介质中,显示在显示设备上,等等。
如图6中描绘的,语音在操作602处捕捉。语音可由语音捕捉设备202捕捉。在操作604,特征向量可被从所捕捉的语音提取。特征向量可通过特征提取模块204被提取。在可选操作606,可接收环境变量的选择。例如,用户可选被用于基于VCDNN的语音识别的环境变量。作为另一示例,计算机应用还可指示将被利用的环境变量。在其它实施例中选择是不必要的,并且利用默认环境变量(诸如SNR)。在操作608,确定针对环境变量的值或多个值。环境变量的确定可由环境变量模块206执行。在各实施例中,环境变量被连续地测量,或环境变量的组件被连续地测量。例如,其中环境变量是SNR,可连续地对每个语音帧测定背景噪声。
在操作610,利用VCDNN来识别用户所讲的语音。在各实施例中,只有一种类型的VCDNN的被用于识别语音,如操作612、操作614、以及操作616的单独路径所指示的。如此,在那些实施例中只采取一个示出的路径。例如,在操作612,利用基于VPDNN的语音识别来识别语音。在另一个示例中,在操作614,利用基于VODNN的语音识别来识别语音。在又一个示例中,在操作616,利用基于VADNN的语音识别来识别语音。在这样的实施例中,只利用VPDNN、VODNN、以及VADNN中的一个来识别语音。
在识别语音之际,在操作618产生所识别的语音。所识别的语音输出可由诸如应用212的应用接收。然后,应用处理以取决于应用类型的方式处理所识别的语音。例如,当应用确定所识别的语音是命令,则该应用将响应于该命令。在另一个示例中,其中应用是语音到文本的应用,该应用可以文本形式显示所识别的语音。
本文中所公开的方法和系统也示出了令人满意的结果。所提出的方法已用Aurora4评估,(如2002年,密西西比州立大学的信号与信息处理研究所,N.Parihar和J.Picone在技术报告“Aurora工作组:DSR前端LVCSR评估AU/384/02”中所讨论的),Aurora 4是一项基于华尔街日报语料库(WSJ0)的噪声稳健的中等词汇表的任务。Aurora 4具有两个训练集:干净的以及多条件的。.它们每个都包括7138条话语(约14小时的语音数据)。对于多条件训练集,一半数据是用森海塞尔(Sennheiser)话筒记录的,而其它的是用次要话筒。此外,加入了具有从10到20dB SNR的6种类型的噪声(汽车、胡言乱语、餐馆、街道、机场以及火车)。用森海塞尔话筒记录的子集被称为信道wv1数据,而其它部分为信道wv2数据。
测试集包含14个子集。其中的两个是干净的,而其它12个是嘈杂的。如在多条件测试集中,使用相同类型的话筒来记录嘈杂测试集。此外,往多条件测试集中相同的6种类型的噪声加入5到15dB之间的SNR。
基线CD-DNN-HMM系统的声学特征是24维对数Mel过滤器组特征,再加上它们的一阶和二阶导数特征,总共72维。DNN输入层的维数为792,从11帧的上下文窗口形成。它的输出层包含1209个单位,这意味着在HMM系统中有1209个senone。DNN具有5个隐藏层,每层有2048个单元。
在实验中,按照多项式的阶检查基于VCDNN的语音识别的性能。标准DNN和VCDNN两者都用来自多条件训练集的wv1数据训练。测试数据是干净的和嘈杂wv1的子集。结果再现于下表1,其示出一阶VPDNN和基于VODNN的语音识别在标准DNN中相对单词错误率减少(WERR)分别达到6.53%和5.92%。然而与一阶比较,二阶和三阶VCDNN没有显示出显著增益。这结果指示,用于对由DNN框架内的SNR改变而引起的变化进行建模,尤其是当计算资源可能受限时,一阶多项式可以是好的选择。如此,一阶多项式被利用于下述实验鉴于在测试条件下基于VPDNN的语音识别比基于VODNN的语音识别执行得稍好,下述结果集中于基于VPDNN的语音识别。
下面的表2,示出不同噪声条件和SNR的一阶基于VPDNN的语音识别的分解结果。可以看出,在除汽车噪声的所有噪声种类中,基于VPDNN的语音识别基本上优于标准基于DNN的语音识别。此外,相比于可见条件(>10dB),在未见SNR条件(从5dB到10dB)下基于VPDNN的语音识别接收更好的效果(8.47%的相应WERR)。该结果指示,标准的基于DNN的语音识别能够对它可见的各种环境建模,但对于未见的环境,基于VPDNN的语音识别执行得更好。还在基于VODNN的语音识别中观察到类似的结果(5dB<SNR<10dB条件下7.08%的相应WERR,SNR>10dB条件下4.26%的相应WERR)。
表1.在多项式的阶数方面的VCDNN性能
表2.一阶VPDNN的分解结果
表3.具有不同大小的标准DNN与一阶VPDNN的比较
最后,基于DNN的语音识别性能与使用基于DNN的语音识别更少的参数检查。每个隐藏层具有1024个单位的VPDNN被评估比较于每个隐藏层具有2048个单位的标准DNN。结果在上表3中给出。用wv1数据评估所有的测试集,相比于每个隐藏层具有2048个单位的标准DNN,每个隐藏层具有1024个单位的一阶VPDNN相应的WERR达到3.22%,但是而计算和存储器成本降低了一半。
图7是示出可用来实施本公开的各实施例的计算设备700的物理组件(即硬件)的框图。以下描述的计算设备组件可具有可被执行来采用在此描述的方法的用于例如客户端的语音识别应用713的计算机可执行指令和/或用于例如客户端的VCDNN模块711的计算机可执行指令。在基本配置中,计算设备700可包括至少一个处理单元702以及系统存储器704。取决于计算设备的配置和类型,系统存储器704可包括但不限于易失性存储(例如,随机存取存储器)、非易失性存储(例如,只读存储器)、闪存、或者此类存储器的任何组合。系统存储器704可包括操作系统705和适合于运行诸如关于图1-6讨论的VCDNN语音识别的软件应用720(尤其是参考语音识别应用713或VCDNN模块711)的一个或多个程序模块706。语音识别应用713可包括诸如应用212等应用。VCDNN模块711和语音识别应用713可包括图1中描绘的特征中的多个。例如,操作系统705可适合于控制计算设备700的操作。此外,本发明的各实施例可以结合图形库、音频库、语音数据库、语音合成应用、其它操作系统、或任何其它应用程序来实践,且不限于任何特定应用程序或系统。该基本配置在图7中用虚线708内的那些组件示出。计算设备700可具有附加特征或功能。例如,计算设备700也可以包括附加的数据存储设备(可移动和/或不可移动),诸如磁盘、光盘或带。这种附加存储器在图7中用可移动存储设备709和不可移动存储设备710示出。
如上所声明的,大量程序模块和数据文件可被存储在系统存储器704中。尽管在处理单元702上执行,程序模块706(例如,VCDNN模块711或语音识别应用713)可执行包括但不限于在此描述的各实施例的过程。根据本发明的实施例可使用的、尤其用于生成屏幕内容和音频内容的其它程序模块可包括电子邮件和联系人应用、字处理应用、电子表格应用、数据库应用、幻灯片演示应用、绘图、消息收发应用、地图应用、语音到文本应用、文本到语音应用和/或计算机辅助应用程序、智能个人助理应用等。
此外,本公开的各实施例可在包括分立电子元件的电路、包含逻辑门的封装或集成电子芯片、利用微处理器的电路、或在包含电子元件或微处理器的单个芯片上实现。例如,可以通过片上系统(SOC)来实践本公开的各实施例,其中,可以将图7中示出的每个或许多组件集成到单个集成电路上。此类SOC设备可包括一个或多个处理单元、图形单元、通信单元、系统虚拟化单元、以及各种应用功能,所有这些单元被集成(或烧制)到芯片基板上,作为单个集成电路。当通过SOC操作时,在此所述的关于客户端切换协议的能力的功能可以通过在单个集成电路(芯片)上集成有计算设备700的其它组件的专用逻辑来操作。本发明的实施例还可使用能够执行诸如例如,AND(与)、OR(或)和NOT(非)的逻辑运算的其它技术来实践,包括但不限于,机械、光学、流体和量子技术。另外,本发明的各实施例可以在通用计算机或任何其它电路或系统中实现。
计算设备700还可具有一个或多个输入设备712,诸如键盘、鼠标、笔、声音或语音输入设备、触摸或滑动输入设备等。这些输入设备可结合或取代语音捕捉设备202使用。还可包括输出设备714,诸如显示器、扬声器、打印机等。前述设备是示例,并且可使用其它设备。计算设备700可包括允许与其它计算设备718通信的一个或多个通信连接716。合适的通信连接716的示例包括但不限于RF发射机、接收机、和/或收发机电路系统、通用串行总线(USB)、并行和/或串行端口。
如本文中所使用的术语计算机可读介质可包括计算机存储介质。计算机存储介质可包括以用于存储信息(诸如计算机可读指令、数据结构、或者程序模块)的任何方法和技术实现的易失性和非易失性、可移除和不可移除介质。系统存储器704、可移动存储设备709和不可移动存储设备710都是计算机存储介质(例如,存储器存储)的示例。计算机存储介质可包括RAM、ROM、电可擦除只读存储器(EEPROM)、闪存或其它存储器技术、CD-ROM、数字多功能盘(DVD)或其它光学存储、磁带盒、磁带、磁盘存储或其它磁存储设备、或者可用于存储信息且可由计算设备700访问的任何其它制品。任何此类计算机存储介质可以是计算设备700的一部分。计算机存储介质不包括载波或者其它经传播或经调制的数据信号。计算机存储介质可被存储、合并到或与计算机存储设备结合地使用。
通信介质可通过计算机可读指令、数据结构、程序模块、或者经调制的数据信号(诸如载波或者其他传送机制)中的其他数据体现,并且包括任何信息传递介质。术语“已调制数据信号”可以描述以对信号中的信息进行编码的方式来设置或改变其一个或多个特征的信号。通过示例而非限制,通信介质可包括诸如有线网络或直接有线连接之类的有线介质、以及诸如声、射频(RF)、红外和其它无线介质之类的无线介质。
图8A和8B示出可用来实施本公开的各实施例的移动计算设备800,例如移动电话、智能电话、可穿戴计算机(诸如智能手表)、平板计算机、膝上型计算机等。在一些实施例中,客户端可以是移动计算设备。参照图8A,解说用于实现各实施例的移动计算设备800的一个实施例。在基本配置中,移动计算设备800是具有输入元件和输出元件两者的手持计算机。移动计算设备800通常包括显示器805以及允许用户将信息输入移动计算设备800的一个或多个输入按钮810。移动计算设备800的显示器805还可用作输入设备(例如,触摸屏显示器)。如果被包括在内,任选的侧输入元件815允许进一步的用户输入。侧输入元件815可以是旋转开关、按钮、或者任何其它类型的手动输入元件。在替换实施例中,移动计算设备800可合并或多或少的输入元件。例如,在一些实施例中,显示器805可以不是触摸屏。在又一替换实施例中,移动计算设备800是便携式电话系统,诸如蜂窝电话。移动计算设备800还可包括任选的小键盘835。可选的小键盘835可以是物理小键盘或者在触摸屏显示器上生成的“软”键区。在各个实施例中,输出元件包括用于示出图形用户界面(GUI)的显示器805、视觉指示器820(例如,发光二极管)、和/或音频换能器825(例如,扬声器)。在一些实施例中,移动计算设备800合并用于向用户提供触觉反馈的振动换能器。在又一实施例中,移动计算设备800合并输入和/或输出端口,诸如音频输入(例如,话筒插孔)、音频输出(例如,头戴式耳机插孔)、以及用于发送信号或接收来自外部设备的信号的视频输出(例如,HDMI端口)。
图8B是解说移动计算设备的一个实施例的体系结构的框图。即,移动计算设备800可结合系统(例如,架构)802以实现某些实施例。在一个实施例中,系统802被实现为能够运行一个或多个应用(如浏览器、电子邮件、日历、联系人管理器、消息收发客户端、游戏、文本到语音应用以及媒体客户端/播放器)的“智能电话”。在一些实施例中,系统802被集成为计算设备,诸如集成个人数字助理(PDA)和无线电话。
一个或多个应用程序866可被加载到存储器862中,并且在操作系统864上或者与其相关联地运行。应用程序的示例包括电话拨号程序、电子邮件程序、个人信息管理(PIM)程序、文字处理程序、电子表格程序、因特网浏览器程序、消息通信程序、文本到语音应用等等。系统802还包括存储器862内的非易失性存储区域868。非易失性存储区域868可用于存储持久性信息,如果系统802断电,该持久性信息则不会丢失。应用程序866可使用和存储非易失性存储区域868中的信息,诸如电子邮件应用所使用的电子邮件或其它消息等。同步应用(未示出)还驻留在系统802上,并且被编程为与驻留在主机计算机上的相应同步应用交互以使存储在非易失性存储区域868中的信息保持与存储在主机计算机的相应信息同步。应当理解,其它应用可被加载到存储器862中并在移动计算设备800上运行,包括如在此描述的用于使用基于VCDNN的语音识别来识别语音的指令(例如,和/或任选地VCDNN模块711)。
系统802具有可被实现为一个或多个电池的电源870。电源870可能进一步包括外部电源,诸如补充电池或对电池再充电的AC适配器或供电底座(powered dockingcradle)。
系统802还可包括执行发射和接收射频通信的功能的无线电872。经由通信载体或服务供应者,无线电872促进系统802和“外部世界”之间的无线连接。在操作系统864的控制下进行与无线电872之间的传输。换句话说,可经由操作系统864将无线电872接收到的通信散布到应用程序866反之亦然。
视觉指示器820可用于提供视觉通知,和/或音频接口874可用于经由音频换能器825生成听得见的通知。在所解说的实施例中,视觉指示器820是发光二极管(LED)而音频换能器825是扬声器。这些设备可直接耦合到电源870以使它们在激活时保持开启达通知机制所陈述的持续时间,即使处理器860以及其它组件可能关闭以节约电池电量。LED可被编程为无限地保持开启,直至用户采取措施来指示该设备的开启状态。音频接口874用于向用户提供听得见的信号且接收来自用户的听得见的信号。例如,除了被耦合到音频换能器825之外,音频接口874还可被耦合到话筒来接收可听输入,例如促成电话通话或捕捉语音以供语音识别。根据本发明的实施例,话筒还可用作音频传感器以促进对通知的控制。系统802可进一步包括允许板载相机830的操作来记录静止图像、视频流等的视频接口876。
实现系统802的移动计算设备800可具有附加特征或功能。例如,移动计算设备800还可包括附加数据存储设备(可移除和/或不可移除),诸如磁盘、光盘或带。这种附加存储设备在图8B中用非易失性存储区868示出。
如上所述,通过移动计算设备800生成或捕捉且经由系统802存储的数据/信息可在本地被存储在移动计算设备800上,或者该数据可被存储在可由该设备经由无线电872或者经由移动计算设备800与关联于移动计算设备800的单独计算设备(例如,分布式计算网络中的服务器计算机(诸如因特网))之间的有线连接访问的任意数量的存储介质上。如应当领会的,可经由移动计算设备800、经由无线电872、或者经由分布式计算网络访问此类数据/信息。类似地,可以在根据熟知的数据/信息转移和存储装置(包括电子邮件和协同数据/信息共享系统)的用于存储和使用的计算设备之间容易地转移此类数据/信息。
图9示出了用于处理如以上描述的在计算系统处从远程源(诸如计算设备904、平板906或移动设备908)接收的数据的系统的架构的一个实施例。在服务器设备902处显示的内容可按不同的通信信道或其它存储类型来被存储。例如,可使用目录服务922、web门户924、邮箱服务926、即时消息存储928、或者社交网站930来存储各种文档。语音识别应用713可被与服务器902进行通信的客户端使用。服务器902可通过网络915向诸如个人计算机904、平板计算设备906和/或移动计算设备908(例如,智能电话)的客户端计算设备提供数据并接收来自该客户端计算设备的数据。作为示例,以上描述的计算机系统可被具体化在个人计算机904、平板计算设备906和/或移动计算设备908(例如,智能电话)中。除了接收被用于要在图形始发系统处预处理或在接收计算系统处后处理的图形数据之外,计算设备的这些实施例中的任意可获得来自存储916的内容。
图10示出可执行在此公开的一个或多个实施例的示例性平板计算设备1000。另外,本文中所描述的实施例和功能可在分布式系统(例如,基于云的计算系统)上操作,其中应用功能、存储器、数据存储和检索、以及各种处理功能可在分布式计算网络(诸如因特网或内联网)上彼此远程地操作。各种类型的用户界面和信息可经由板上计算设备显示器或者经由与一个或多个计算设备相关联的远程显示单元显示。例如,各种类型的用户界面和信息可显示并且在各种类型的用户界面和信息在其上投影的墙面上交互。与通过其可实践本发明的实施例的多个计算系统的交互包括按键输入、触摸屏输入、语音或其它音频输入、其中相关联的计算设备配备有用于捕捉和解释用户手势以控制计算设备的功能的检测(例如,相机)功能的手势输入等等。
以上参考例如根据本发明的各实施例的方法、系统和计算机程序产品的框图和/或操作图示描述了本发明的各实施例。框图中所注释的功能/动作可以不按照如任一流程图中所示的次序发生。例如,连续示出的两个框实际上可基本并发地执行,或者取决于所涉及的功能/动作,这些框有时可以相反的次序执行。
此外,为了保护用户的隐私,用户的、或来自用户的、或从用户的输入得到的可能私密的数据的任何聚集可在此处公开的系统或方法中使用之前首先被匿名化。这种匿名化可包括移除可将要利用的结果联系到个体用户的部分或全部元数据或其它数据。所期望匿名化程度可由用户选择或定制。
本申请中提供的一个或多个实施例的描述和说明不旨在以任何方式限制或约束如权利要求所要求保护的发明范围。本申请中提供的实施例、示例和细节被认为是足以传达所有权,且使得他人能够制作并使用所要求保护的发明的最佳模式。而且,术语示例性的“”以及“解说性的”仅意在指示示例,而不是指定一个示例必然相对于任何其它示例更有用或有益。所要求保护的发明不应被理解为限制于本申请中所提供的任何实施例、示例或细节。不管是组合还是单独地示出和描述,各个(结构和方法)特征旨在选择性地包括或省略以产生具有一组特定特征的实施例。在被提供本申请的描述和说明的情况下,本领域的技术人员能够想象到落在所要求保护的发明的更宽泛方面以及本申请中所具体化的一般发明概念的精神内的变体、修改和替换实施例并不背离该更宽泛的范围。
Claims (12)
1.一种用于识别语音的方法,所述方法包括:
捕捉语音输入;
确定与其中所述语音被捕捉的环境相关的环境变量的值;
接收所述语音输入和所述环境变量的值作为给变量组件深度神经网络VCDNN的一个或多个组件的输入,所述VCDNN的一个或多个组件具有一个或多个加权矩阵、一个或多个偏置、具有一个或多个输出的至少一个隐藏层,以及一个或多个节点的一个或多个激活函数,其中所述一个或多个加权矩阵、所述一个或多个偏置、所述隐藏层的一个或多个输出,以及所述一个或多个激活函数中的至少一者被建模为所述环境变量的函数;
基于执行所述VCDNN来从所述VCDNN生成所述语音输入的输出向量;以及
基于所述语音输入的输出向量产生经识别语音的输出。
2.如权利要求1所述的方法,其特征在于,所述VCDNN的一个或多个组件至少包括一个或多个加权矩阵和一个或多个VCDNN偏移中的一组。
3.如权利要求1所述的方法,其中所述VCDNN的一个或多个组件是所述VCDNN隐藏层的一个或多个输出。
4.如权利要求1所述的方法,其中所述VCDNN的一个或多个组件是所述VCDNN中一个或多个节点的一个或多个激活函数。
5.如权利要求1所述的方法,其中所述环境变量基于环境的噪声。
6.如权利要求5所述的方法,其特征在于,所述环境变量是信噪比。
7.一种用于识别语音的系统,所述系统包括:
语音捕捉设备;
至少一个处理器;
储存指令的存储器,所述指令在由所述至少一个处理器执行时,执行一组操作,包括:提取由所述语音捕捉设备捕捉的语音的一组特征向量;
确定与其中所述语音被捕捉的环境相关的环境变量的值;
接收所述一组特征向量和所述环境变量的值作为给变量组件深度神经网络VCDNN的输入,所述VCDNN具有一个或多个加权矩阵、一个或多个偏置、具有一个或多个输出的至少一个隐藏层,以及一个或多个节点的一个或多个激活函数,其中所述一个或多个加权矩阵、所述一个或多个偏置、所述隐藏层的一个或多个输出,以及所述一个或多个激活函数中的至少一者被建模为所述环境变量的函数;
基于执行所述VCDNN来从所述VCDNN生成所捕捉的语音的输出向量;以及
基于所捕捉的语音的输出向量产生经识别语音的输出。
8.如权利要求7所述的系统,其特征在于,所述VCDNN的一个或多个组件至少包括一个或多个加权矩阵和一个或多个VCDNN偏移中的一组。
9.如权利要求7所述的系统,其中所述VCDNN的一个或多个组件是所述VCDNN隐藏层的一个或多个输出。
10.如权利要求7所述的系统,其中所述VCDNN的一个或多个组件是所述VCDNN中一个或多个节点的一个或多个激活函数。
11.如权利要求7所述的系统,其中所述环境变量基于环境的噪声。
12.如权利要求11所述的系统,其特征在于,所述环境变量是信噪比。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2014/086121 WO2016037311A1 (en) | 2014-09-09 | 2014-09-09 | Variable-component deep neural network for robust speech recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105960672A CN105960672A (zh) | 2016-09-21 |
CN105960672B true CN105960672B (zh) | 2019-11-26 |
Family
ID=55458237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480075008.2A Active CN105960672B (zh) | 2014-09-09 | 2014-09-09 | 用于稳健语音识别的变量组件深度神经网络 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10019990B2 (zh) |
EP (1) | EP3192071A4 (zh) |
CN (1) | CN105960672B (zh) |
WO (1) | WO2016037311A1 (zh) |
Families Citing this family (137)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US20120311585A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Organizing task items that represent tasks to perform |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
DE212014000045U1 (de) | 2013-02-07 | 2015-09-24 | Apple Inc. | Sprach-Trigger für einen digitalen Assistenten |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
DE112014002747T5 (de) | 2013-06-09 | 2016-03-03 | Apple Inc. | Vorrichtung, Verfahren und grafische Benutzerschnittstelle zum Ermöglichen einer Konversationspersistenz über zwei oder mehr Instanzen eines digitalen Assistenten |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
EP3149728B1 (en) | 2014-05-30 | 2019-01-16 | Apple Inc. | Multi-command single utterance input method |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
KR102413692B1 (ko) * | 2015-07-24 | 2022-06-27 | 삼성전자주식회사 | 음성 인식을 위한 음향 점수 계산 장치 및 방법, 음성 인식 장치 및 방법, 전자 장치 |
US10529318B2 (en) * | 2015-07-31 | 2020-01-07 | International Business Machines Corporation | Implementing a classification model for recognition processing |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10366158B2 (en) * | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
KR102494139B1 (ko) * | 2015-11-06 | 2023-01-31 | 삼성전자주식회사 | 뉴럴 네트워크 학습 장치 및 방법과, 음성 인식 장치 및 방법 |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
WO2017216786A1 (en) * | 2016-06-14 | 2017-12-21 | Omry Netzer | Automatic speech recognition |
KR102116054B1 (ko) * | 2016-08-16 | 2020-05-28 | 한국전자통신연구원 | 심층 신경망 기반의 음성인식 시스템 |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
CN106448670B (zh) * | 2016-10-21 | 2019-11-19 | 竹间智能科技(上海)有限公司 | 基于深度学习和强化学习的自动回复对话系统 |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10909371B2 (en) | 2017-01-19 | 2021-02-02 | Samsung Electronics Co., Ltd. | System and method for contextual driven intelligence |
WO2018135881A1 (en) | 2017-01-19 | 2018-07-26 | Samsung Electronics Co., Ltd. | Vision intelligence management for electronic devices |
US10062378B1 (en) * | 2017-02-24 | 2018-08-28 | International Business Machines Corporation | Sound identification utilizing periodic indications |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770427A1 (en) | 2017-05-12 | 2018-12-20 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10949742B2 (en) | 2017-09-18 | 2021-03-16 | International Business Machines Corporation | Anonymized time-series generation from recurrent neural networks |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
KR20190034985A (ko) | 2017-09-25 | 2019-04-03 | 삼성전자주식회사 | 인공 신경망의 양자화 방법 및 장치 |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
CN108182938B (zh) * | 2017-12-21 | 2019-03-19 | 内蒙古工业大学 | 一种基于dnn的蒙古语声学模型的训练方法 |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US11211065B2 (en) * | 2018-02-02 | 2021-12-28 | Genesys Telecommunications Laboratories, Inc. | System and method for automatic filtering of test utterance mismatches in automatic speech recognition systems |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11076039B2 (en) | 2018-06-03 | 2021-07-27 | Apple Inc. | Accelerated task performance |
US10380997B1 (en) | 2018-07-27 | 2019-08-13 | Deepgram, Inc. | Deep learning internal state index-based search and classification |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
KR20210042523A (ko) | 2019-10-10 | 2021-04-20 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
CN111354375A (zh) * | 2020-02-25 | 2020-06-30 | 咪咕文化科技有限公司 | 一种哭声分类方法、装置、服务器和可读存储介质 |
US11398216B2 (en) * | 2020-03-11 | 2022-07-26 | Nuance Communication, Inc. | Ambient cooperative intelligence system and method |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11038934B1 (en) | 2020-05-11 | 2021-06-15 | Apple Inc. | Digital assistant hardware abstraction |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
CN112562656A (zh) * | 2020-12-16 | 2021-03-26 | 咪咕文化科技有限公司 | 一种信号分类方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103117060A (zh) * | 2013-01-18 | 2013-05-22 | 中国科学院声学研究所 | 用于语音识别的声学模型的建模方法、建模系统 |
US8504361B2 (en) * | 2008-02-07 | 2013-08-06 | Nec Laboratories America, Inc. | Deep neural networks and methods for using same |
WO2013149123A1 (en) * | 2012-03-30 | 2013-10-03 | The Ohio State University | Monaural speech filter |
CN103400577A (zh) * | 2013-08-01 | 2013-11-20 | 百度在线网络技术(北京)有限公司 | 多语种语音识别的声学模型建立方法和装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040181409A1 (en) | 2003-03-11 | 2004-09-16 | Yifan Gong | Speech recognition using model parameters dependent on acoustic environment |
US7660713B2 (en) * | 2003-10-23 | 2010-02-09 | Microsoft Corporation | Systems and methods that detect a desired signal via a linear discriminative classifier that utilizes an estimated posterior signal-to-noise ratio (SNR) |
US8145488B2 (en) | 2008-09-16 | 2012-03-27 | Microsoft Corporation | Parameter clustering and sharing for variable-parameter hidden markov models |
US9235799B2 (en) | 2011-11-26 | 2016-01-12 | Microsoft Technology Licensing, Llc | Discriminative pretraining of deep neural networks |
US8700552B2 (en) | 2011-11-28 | 2014-04-15 | Microsoft Corporation | Exploiting sparseness in training deep neural networks |
US9477925B2 (en) | 2012-11-20 | 2016-10-25 | Microsoft Technology Licensing, Llc | Deep neural networks training for speech and pattern recognition |
US9502038B2 (en) * | 2013-01-28 | 2016-11-22 | Tencent Technology (Shenzhen) Company Limited | Method and device for voiceprint recognition |
US9484022B2 (en) * | 2014-05-23 | 2016-11-01 | Google Inc. | Training multiple neural networks with different accuracy |
-
2014
- 2014-09-09 EP EP14901500.0A patent/EP3192071A4/en not_active Withdrawn
- 2014-09-09 WO PCT/CN2014/086121 patent/WO2016037311A1/en active Application Filing
- 2014-09-09 CN CN201480075008.2A patent/CN105960672B/zh active Active
- 2014-09-09 US US14/414,621 patent/US10019990B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8504361B2 (en) * | 2008-02-07 | 2013-08-06 | Nec Laboratories America, Inc. | Deep neural networks and methods for using same |
WO2013149123A1 (en) * | 2012-03-30 | 2013-10-03 | The Ohio State University | Monaural speech filter |
CN103117060A (zh) * | 2013-01-18 | 2013-05-22 | 中国科学院声学研究所 | 用于语音识别的声学模型的建模方法、建模系统 |
CN103400577A (zh) * | 2013-08-01 | 2013-11-20 | 百度在线网络技术(北京)有限公司 | 多语种语音识别的声学模型建立方法和装置 |
Non-Patent Citations (2)
Title |
---|
An investigation of deep neural networks for noise robust speech recognition;SELTZER MICHAEL;《2013 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS,SPEECH AND SINAL PROCESSING(ICASSP)》;20131018;第7398-7402页 * |
Factorized adaptation for deep neural network;JINYU LI;《2014 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS》;20140711;第5537-5541页 * |
Also Published As
Publication number | Publication date |
---|---|
US20160275947A1 (en) | 2016-09-22 |
CN105960672A (zh) | 2016-09-21 |
WO2016037311A1 (en) | 2016-03-17 |
EP3192071A1 (en) | 2017-07-19 |
US10019990B2 (en) | 2018-07-10 |
EP3192071A4 (en) | 2017-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105960672B (zh) | 用于稳健语音识别的变量组件深度神经网络 | |
US11238239B2 (en) | In-call experience enhancement for assistant systems | |
US10217027B2 (en) | Recognition training apparatus, recognition training method, and storage medium | |
CN103650035B (zh) | 经由社交图谱、语音模型和用户情境识别接近移动装置用户的人 | |
US9875445B2 (en) | Dynamic hybrid models for multimodal analysis | |
CN109683709A (zh) | 基于情绪识别的人机交互方法及系统 | |
CN108780445A (zh) | 用于对小数据的机器理解的并行分层模型 | |
US10825072B2 (en) | System for producing recommendations and predicting purchases of products based on usage patterns | |
CN109845278A (zh) | 动态地修改用于变化数据的执行环境 | |
CN110334344A (zh) | 一种语义意图识别方法、装置、设备及存储介质 | |
CN105917405B (zh) | 外源性大词汇量模型到基于规则的语音识别的合并 | |
CN107590153A (zh) | 使用卷积神经网络的对话相关性建模 | |
CN107112005A (zh) | 深度神经支持向量机 | |
CN107644646A (zh) | 语音处理方法、装置以及用于语音处理的装置 | |
Yu et al. | Automatic prediction of friendship via multi-model dyadic features | |
Lee et al. | Identifying multiuser activity with overlapping acoustic data for mobile decision making in smart home environments | |
US10244013B2 (en) | Managing drop-ins on focal points of activities | |
CN109154865A (zh) | 移动设备上的顺序双手触摸键入 | |
US20230069088A1 (en) | Grouping Events and Generating a Textual Content Reporting the Events | |
CN114627898A (zh) | 语音转换方法、装置、计算机设备、存储介质和程序产品 | |
Rossi et al. | Collaborative personal speaker identification: A generalized approach | |
US11430429B2 (en) | Information processing apparatus and information processing method | |
CN110192208A (zh) | 共享物理图形的信号片段 | |
Bhattacharya | Unobtrusive Analysis of Human Behavior in Task-Based Group Interactions | |
Shaikh et al. | An automatic approach to virtual living based on environmental sound cues |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |