CN114097026A - 语音识别的上下文偏置 - Google Patents
语音识别的上下文偏置 Download PDFInfo
- Publication number
- CN114097026A CN114097026A CN202080048337.3A CN202080048337A CN114097026A CN 114097026 A CN114097026 A CN 114097026A CN 202080048337 A CN202080048337 A CN 202080048337A CN 114097026 A CN114097026 A CN 114097026A
- Authority
- CN
- China
- Prior art keywords
- bias
- phrases
- encoder
- attention module
- biased
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 76
- 238000013518 transcription Methods 0.000 claims abstract description 44
- 230000035897 transcription Effects 0.000 claims abstract description 44
- 238000012545 processing Methods 0.000 claims abstract description 40
- 239000013598 vector Substances 0.000 claims description 88
- 230000015654 memory Effects 0.000 claims description 39
- 238000012549 training Methods 0.000 claims description 38
- 230000036961 partial effect Effects 0.000 claims description 27
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 230000000306 recurrent effect Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 description 18
- 238000003860 storage Methods 0.000 description 12
- 238000004590 computer program Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 5
- 241000282326 Felis catus Species 0.000 description 4
- 238000013459 approach Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000009795 derivation Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 238000013077 scoring method Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Abstract
一种方法(400)包括接收编码话语(104)的音频数据(108),并获取与所述话语(104)的上下文对应的偏置短语(114)集合。该方法还包括使用语音识别模型(200)处理从所述音频数据导出的声学特征(110),以从所述语音识别模型生成输出。该语音识别模型包括:第一编码器(210),被配置为接收所述声学特征;第一注意力模块(218);偏置编码器(220),被配置为接收指示所获得的所述偏置短语集合的数据(116);偏置注意力模块(228);以及解码器(240),被配置为基于第一注意力模块的输出(230)和所述偏置注意力模块的输出(232)来确定语音元素(244)的序列的似然。该方法还包括基于所述语音元素序列的似然来确定话语的转录(150)。
Description
技术领域
本公开涉及语音识别的上下文偏置。
背景技术
考虑到人们可能说的各种各样的单词以及口音和发音的多种变化,识别语音的上下文对自动语音识别(Automated Speech Recognition,ASR)系统是具有挑战性的。在许多情况下,人说的单词和短语的类型随着这个人发现自己所处的环境而变化。
上下文自动语音识别(ASR)涉及将语音识别向给定的上下文偏置,例如,用户自己的播放列表、联系人、或地理位置名称。上下文信息通常包括待识别的相关短语的列表,其通常包括在训练中不常出现的稀有短语或甚至外语单词。为了执行上下文偏置,传统的ASR系统有时使用n-gram加权有限状态变换器(Weighted Finite State Transducer,WFST)来对独立上下文语言模型(LM)中的上下文信息进行建模,并将独立上下文LM与基线LM进行即时(On-the-Fly,OTF)重新评分。
最近,端到端(E2E)模型已经显示出ASR的巨大前景,与传统的设备上模型相比,端到端模型显示出改进的单词差错率(Word Error Rate,WER)和延迟指标(latencymetric)。这些E2E模型将声学模型(Acoustic Model,AM),发音模型(PronunciationModel,PM)和LM折叠到单个网络中以直接学习语音到文本映射,与具有单独的AM、PM、和LM的传统ASR系统相比,这些E2E模型已经显示出竞争性结果。代表性的E2E模型包括基于单词的连接时序分类(Connectionist Temporal Classification,CTC)模型,递归神经网络转换器(Recurrent Neural Network Transducer,RNN-T)模型,以及基于注意力的模型,例如Listen,Attend,and Spell(LAS)模型。
在E2E仅字素(grapheme-only)的模型中,由关注者(Attender)组件输出的预测子单词单元是字素。在E2E仅字段(wordpiece)的模型中,由关注者组件输出的预测子单词单元是字段,即一组公共子单词单元。注意力模块的输出被传递到拼写器(或“解码器”),该拼写器类似于LM,并且在一组假设的单词上有概率分布。
因为E2E模型在波束搜索解码期间保持有限数量的识别候选者,所以上下文ASR对于E2E模型可能是具有挑战性的。对于E2E仅字素的模型和E2E仅字段的模型来说,拼写词汇外(Out-Of-Vocabulary,OOV)的单词,特别是那些在训练中几乎看不到的单词类,特别具有挑战性。
发明内容
本文中的实施方式旨在被配置为将语音识别过程向与当前上下文相关的预定单词和短语偏置的语音识别模型。该模型可以是用神经网络实现的端到端模型。该模型可以使音频处理组件和上下文偏置组件联合训练,同时优化基于音频的编码和用于上下文n-grams的嵌入。在使用中,模型可以用上下文短语集合来呈现,这些上下文短语可能包含在训练期间看不到的词汇表外(OOV)的术语。与更传统的语境化方法相比,所提出的系统可以在一些测试中提供对字错误率(WER)的显著改进,相对WER高达68%,这表明联合优化优于单独训练的组件。
用于偏置的上下文短语的集合可以随着上下文改变而动态改变。例如,系统可以使用表示偏置短语的文本信息(例如,字素序列)。可以针对不同的情况使用不同的短语集合,并且可以为用户个性化这些短语集合。例如,当用户已经提到了词语“呼叫”或已经打开了用于呼叫或消息传递的应用程序时,系统可以从用户的联系人列表中选择姓名作为用于偏置的上下文短语。作为另一个示例,当用户的媒体播放应用打开或当前正在播放媒体时,用于偏置的上下文短语的列表可以是来自用户的媒体库的可用歌曲、或其它媒体项、或相关术语的列表。语音识别系统可以基于例如指示用户的联系人,日历约会,开着的应用、和位置的上下文数据来确定合适的上下文。从该上下文中,系统可以选择相关短语的合适的集合。
如将变得显而易见的,将上下文偏向动态地并入到神经网络中,ASR模型可改进对词汇表外术语和不常见短语的识别。上下文短语可以被表示为一组词的n-grams。在一些实施方式中,结合了上下文偏置的神经网络ASR模型包括上下文Listen,Attend,and Spell(CLAS)模型。CLAS模型是一个编码器-解码器模型,它与上下文n-grams的嵌入一起共同优化ASR组件。在推理过程中,CLAS模型可以用一组上下文短语来表示,这些上下文短语可能包含在训练过程中看不到的OOV术语。由于模型不需要在训练时固定上下文短语的数量或内容,因此向模型提供上下文短语组是一个重要的优势。
本公开的一个方面提供了一种用于将上下文偏置信息合并到语音识别模型中以将语音识别向一个或多个预定词语/短语偏置的方法。该方法包括在数据处理硬件处接收编码话语的音频数据,并且由所述数据处理硬件获取与所述话语的上下文对应的偏置短语集合。所述偏置短语集合中的每个偏置短语包括一个或多个单词。所述方法还包括由所述数据处理硬件使用语音识别模型来处理从所述音频数据导出的声学特征,以从所述语音识别模型生成输出。所述语音识别模型包括:第一编码器和对应的第一注意力模块;偏置编码器和对应的偏置注意力模块;以及解码器,被配置为基于所述第一注意力模块的输出和所述偏置注意力模块的输出来确定语音元素的序列的似然。所述第一编码器被配置为接收声学特征,并且所述偏置编码器被配置为接收指示所获得的所述偏置短语集合的数据。该方法还包括由所述数据处理硬件基于由所述解码器确定的所述语音元素序列的似然来确定所述话语的转录。
本公开的实现可以包括以下可选特征中的一个或多个。在一些实施方式中,所述偏置编码器被配置为对所述偏置短语集合中的每个偏置短语的对应偏置上下文向量进行编码,并且所述偏置注意力模块被配置为计算所述偏置上下文向量上的注意力。在这些实施方式中,所述偏置注意力模块可以被配置为接收附加偏置上下文向量,所述附加偏置上下文向量不对应于所述偏置短语集合中的任何偏置短语。这里,所述附加偏置上下文向量表示不将由所述解码器确定的所述语音元素的序列的似然向任一个所述偏置短语进行偏置的选项。这些实施方式可以附加地或替代地包括所述偏置编码器和所述偏置注意力模块,所述偏置注意力模块被配置为利用所述偏置短语集合中的在所述语音识别模型的训练期间未指定的可变数量的偏置短语来操作。
语音元素可以包括单词、字段、或字素。该组偏置短语可以包括为特定用户个性化的联系人姓名集合或媒体项名称集合。
在一些示例中,所述第一编码器、所述第一注意力模块、所述偏置编码器、所述偏置注意力模块、和所述解码器被联合训练,以从声学特征帧序列预测字素序列。在一些配置中,所述第一编码器包括堆叠的递归神经网络(RNN)和/或所述解码器包括堆叠的单向RNN,所述堆叠的单向RNN被配置为计算输出令牌序列的概率。
在一些实施方式中,所述第一注意力模块被配置为根据所述解码器的先前隐藏状态和由所述第一编码器为所述话语输出的上下文向量的全序列来计算注意力函数,并且所述偏置注意力模块被配置为根据所述解码器的所述先前隐藏状态和表示所述偏置短语集合中的所述偏置短语的上下文向量的全序列来计算注意力。在另外的实现方式中,解码器被配置为基于以下来确定隐藏状态:从所述语音识别模型输出的前一个字素的嵌入矢量;所述解码器的先前隐藏状态;由所述第一注意力模块输出的音频上下文向量;以及由所述偏置关注模块输出的偏置上下文向量。
在一些示例中,该方法还包括:由所述数据处理硬件获取与所述偏置短语集合中的所述偏置短语对应的偏置前缀的列表;以及由所述数据处理硬件使用所述语音识别模型来确定话语的部分转录是否包括所述偏置前缀列表中的所述偏置前缀之一。这里,偏置前缀列表中的每个偏置前缀表示所述偏置短语集合中的一个或多个偏置短语的初始部分。在这些示例中,当所述话语的所述部分转录包括所述偏置前缀之一时,该方法还包括:由所述数据处理硬件识别所述偏置短语集合中的一个或多个偏置短语的子集,所述一个或多个偏置短语包括包含在所述部分转录中的所述偏置前缀之一;以及由所述数据处理硬件仅启用所识别的所述一个或一个偏置短语的所述子集,以用于偏置所述语音识别模型。在其它示例中,该方法还包括:由数据处理硬件获取与所述偏置短语集合中的所述偏置短语对应的偏置前缀的列表,所述偏置短语的所述列表中的每个偏置前缀表示所述偏置短语集合中的一个或多个所述偏置短语的初始部分;数据处理硬件基于所述话语的部分转录是否包括所述偏置前缀的的所述列表中的一个或多个所述偏置前缀,来调整所述偏置注意力模块的偏置注意力概率,用于对所述偏置短语集合中的所述偏置短语的所述偏置编码器的输出进行编码。所述偏置前缀的所述列表中的至少一个偏置前缀包括所述偏置短语集合中的对应偏置短语的第一个单词,并且不包括所述对应偏置短语的最后一个单词。
本公开的另一方面提供了一种将上下文偏向信息合并到语音识别模型中以将语音识别向一个或多个预定词语/短语偏置的系统。该系统包括数据处理硬件和与数据处理硬件通信并存储指令的存储器硬件,所述指令在数据处理硬件上执行时使数据处理硬件执行操作。所述操作包括接收编码话语的音频数据,并且获取与所述话语的上下文对应的偏置短语集合。所述偏置短语集合中的每个偏置短语包括一个或多个单词。所述操作还包括使用语音识别模型来处理从所述音频数据导出的声学特征,以从所述语音识别模型生成输出。语音识别模型包括:第一编码器及对应的第一注意力模块;偏置编码器和对应的偏置注意力模块;以及解码器,被配置为基于所述第一注意力模块的输出和所述偏置注意力模块的输出来确定语音元素的序列的似然。所述第一编码器被配置为接收声学特征,并且所述偏置编码器被配置为接收指示所获得的所述偏置短语集合的数据。所述操作还包括基于由所述解码器确定的所述语音元素序列的似然来确定所述话语的转录。
该方面可以包括一个或多个以下可选特征。在一些实施方式中,所述偏置编码器被配置为对所述偏置短语集合中的每个偏置短语的对应偏置上下文向量进行编码,并且所述偏置注意力模块被配置为计算所述偏置上下文向量上的注意力。在这些实施方式中,所述偏置注意力模块可以被配置为接收附加偏置上下文向量,所述附加偏置上下文向量不对应于所述偏置短语集合中的任何偏置短语。这里,所述附加偏置上下文向量表示不将由所述解码器确定的所述语音元素的序列的似然向任一个所述偏置短语进行偏置的选项。这些实现可以附加地或替代地包括偏置编码器和偏置注意力模块,所述偏置注意力模块被配置为利用所述偏置短语集合中的在所述语音识别模型的训练期间未指定的可变数量的偏置短语来操作。
语音元素可以包括单词、字段、或字素。该组偏置短语可以包括为特定用户个性化的联系人姓名集合或媒体项名称集合。
在一些示例中,所述第一编码器、所述第一注意力模块、所述偏置编码器、所述偏置注意力模块、和所述解码器被联合训练,以从声学特征帧序列预测字素序列。在一些配置中,所述第一编码器包括堆叠的递归神经网络(RNN)和/或所述解码器包括堆叠的单向RNN,所述堆叠的单向RNN被配置为计算输出令牌序列的概率。
在一些实施方式中,所述第一注意力模块被配置为根据所述解码器的先前隐藏状态和由所述第一编码器为所述话语输出的上下文向量的全序列来计算注意力,并且所述偏置注意力模块被配置为根据所述解码器的所述先前隐藏状态和表示所述偏置短语集合中的所述偏置短语的上下文向量的全序列来计算注意力。在另外的实现方式中,解码器被配置为基于以下来确定隐藏状态:从所述语音识别模型输出的前一个字素的嵌入矢量;所述解码器的先前隐藏状态;由所述第一注意力模块输出的音频上下文向量;以及由所述偏置关注模块输出的偏置上下文向量。
在一些示例中,所述操作还包括获取与所述偏置短语集合中的所述偏置短语对应的偏置前缀的列表;以及由所述数据处理硬件使用所述语音识别模型来确定话语的部分转录是否包括所述偏置前缀列表中的所述偏置前缀之一。这里,偏置前缀列表中的每个偏置前缀表示偏置短语集中的一个或多个所述偏置短语的初始部分。在这些示例中,当所述话语的所述部分转录包括所述偏置前缀之一时,操作还包括:识别所述偏置短语集合中的一个或多个偏置短语的子集,所述一个或多个偏置短语包括包含在所述部分转录中的所述偏置前缀之一;以及仅启用所识别的所述一个或一个偏置短语的所述子集,以用于偏置所述语音识别模型。在其它示例中,所述操作还包括:获取与所述偏置短语集合中的所述偏置短语对应的偏置前缀的列表,所述偏置短语的所述列表中的每个偏置前缀表示所述偏置短语集合中的一个或多个所述偏置短语的初始部分;以及基于所述话语的部分转录是否包括所述偏置前缀的所述列表中的一个或多个所述偏置前缀,来调整所述偏置注意力模块的偏置注意力概率,用于对所述偏置短语集合中的所述偏置短语的所述偏置编码器的输出进行编码。所述偏置前缀的所述列表中的至少一个偏置前缀包括所述偏置短语集合中的对应偏置短语的第一个单词,并且不包括所述对应偏置短语的最后一个单词。
本公开的一个或多个实施方式的细节在附图和以下描述中阐述。从说明书和附图以及从权利要求书中的其它方面,特征和优点将是显而易见的。
附图说明
图1是结合了上下文偏置以改善语音识别的语音识别器示例的示意图。
图2是用于上下文偏置的语音识别模型的示例结构的示意图。
图3A-3C是描述用于上下文偏置短语的即时重新打分(on-the-fly rescoring)的不同技术的示意图。
图4是将上下文偏置信息合并到语音识别模型的方法的操作的示例安排的流程图。
图5是可用于实现本文所述的系统和方法的示例性计算设备的示意图。
各个附图中相同的附图标记表示相同的元件。
具体实施方式
随着语音技术的日益普及,语音正在成为移动设备和智能个人助理上的主要输入模式之一。当在识别过程中说入话语(utterance)自动语音识别(ASR)模型结合关于当前上下文的信息时,可以提高ASR模型的准确性。这种上下文的示例包括对话状态(例如,当闹钟响起时我们可能希望“停止”或“取消”),讲话者的位置(这可能使得附近的餐馆或地点更可能),以及关于用户的个性化信息,例如她的联系人或歌曲播放列表。特别地,向ASR模型提供已知与当前上下文相关的短语可显著提高识别不常见单词或训练示例中未包括的词的准确性。本文的实施方式旨在将上下文偏置功能结合到端到端(E2E)语音识别模型中,该模型将传统上由以下单独训练的模型:声学模型(AM),语言模型(LM)和发音模型(PM)中的每一个执行的功能组合到单个模型中。具体地,E2E语音识别模型可以在推理期间(例如,使用该模型来预测语音内容)接收表示为一组词n-grasm的上下文短语,其中一些上下文短语可能包含用于训练模型的训练示例中未包括的词汇表外术语。
在传统的ASR系统中,纳入此类信息的主流模式之一涉及使用独立训练的即时(OTF)重新打分框架,该框架动态地调整与特定识别上下文相关的少量n-grams的LM权重。。将这种技术扩展到序列到序列模型对于改善系统性能是重要的,并且是活跃的研究领域。尽管一些方法将外部独立训练的LM应用到用于OTF重新打分的序列到序列模型,但是从序列到序列模型的各部分的联合优化中获得的许多益处丢失了。
结合了上下文偏置的E2E语音识别模型可以包括上下文Listen,Attend,andSpell((CLAS)模型,CLAS模型不使用任何外部独立训练的模型用于OTF重新打分,而是为反馈到模型的每个上下文短语生成上下文嵌入。例如,CLAS模型可以包括偏置编码器,偏置编码器接收每个表示为字素序列的上下文短语作为输入,并且单独地生成作为偏置嵌入的上下文短语的对应的固定维度表示作为输出。然后,CLAS模型可以采用偏置注意机制来在模型的输出预测的每个步骤处总结可用的上下文。偏置注意机制在表示相关上下文短语的偏置嵌入的全序列上操作。这样,上下文短语的数量,上下文短语的长度和上下文短语的内容可以随时间动态变化,并且不需要设置在训练模型时。该方法允许在推理期间使用可变数量的上下文短语来容易地并入词汇表外术语。该技术既不需要在训练时获得特定的上下文信息,也不需要仔细调整重新打分权重。
可用于选择用于偏置的上下文短语的类型的上下文示例包括应用的对话状态或与数字助理的对话。其它信号或因素同样可以提供上下文,表明哪些术语是最相关的。例如,当闹钟响时,词语“停止”或“取消”更有可能。另一个示例性上下文是讲话者的位置,其可以使附近商店,餐馆或其他位置的名称更有可能。附加的上下文信息可以是关于用户的个性化信息,例如他或她的联系人或歌曲播放列表。
参照图1,示例ASR系统100包括语音识别模型200,语音识别模型200结合了上下文偏置以将语音识别过程偏置到与说出的话语的当前上下文相关的预定单词和短语。语音识别模型200包括音频编码器210,偏置编码器220,音频注意力模块218,偏置注意力模块228和解码器240,解码器240接收注意力模块218、228的输出作为输入。用Softmax层242对解码器240的输出进一步归一化,Softmax层242可以在一组语言单元上提供概率分布,例如一组字素。例如,用于软最大层242的输出可以是具有用于语言中的每个字素的概率值的向量,以及潜在地用于其它符号(例如,标点符号,空间等)。来自Softmax层242的向量序列被用于产生由设备106记录的语音发声104的转录150。例如,波束搜索模块243可以确定构成转录150的一系列字素。在一些示例中,语音识别模型200驻留在与用户102相关联的用户设备106上。在其它示例中,语音识别模型200驻留在与用户设备106通信的远程服务器上,或者语音识别模型200的功能在远程服务器和用户设备106之间被分割。
在所示的示例中,用户102说出由用户设备106的一个或多个麦克风捕获的话语104。用户设备106可以包括移动设备,例如智能电话,平板电脑,智能耳机,智能手表等。由用户102说出的话语104可以是“停止闹钟”的命令,其中一个或多个麦克风从说出的命令生成音频信号108。音频信号108可以以各种方式中的任何一种来处理,以确定语音识别模型200的神经网络元素的输入。例如,特征提取模块109可以从音频信号生成声学特征110,例如用于音频信号108的不同窗口或帧的Mel频率倒谱分量(Mel-frequency cepstralcomponent)。
语音识别模型包括对不同类型的输入进行操作的两个不同的编码器/注意力路径/分支。例如,音频编码器210和音频注意力模块218处理声音信息,而偏置编码器220和偏置注意力模块228处理关于上下文相关术语(例如,单词或短语)的信息。更具体地,音频编码器210接收由特征提取模块109提取的代表话语104的声学特性的声学特征110,并且偏置编码器220接收代表不同偏置短语的输入。
在一些实施方式中,用户设备获得指示关于当前上下文的信息的上下文数据111。这里,上下文数据可以指示诸如用户设备106的物理状态、用户设备106的操作状态、用户102的最近输入或任务等因素。在一个示例中,上下文数据111表明用户设备106的位置、在用户设备106上安装和/或执行的应用、以及用户102的即将到来的日历约会。例如,上下文数据111可以包括开着的时钟app和一天中的时间,表明现在是早晨。上下文数据111可以指示设备106在用户的家中,并且即将到来的日历约会包括在一个小时内会发生的会议。在该示例中上下文数据111表明,用户可能是早晨在家,被他或她的时钟app的闹钟唤醒,以便准时参加会议。
用户设备106从上下文数据111中选择一组被预测与当前上下文相关的上下文偏置短语114。这些短语114可以由偏置短语选择器113选择,偏置短语选择器113解释上下文数据111并编辑短语列表。偏置短语选择器113可以确定当前上下文的分类或类别,例如选择上下文数据111是否最可能表示播放媒体,发起呼叫,口述消息,发出语音命令等。根据这些分类、或者直接根据上下文数据111,偏置短语选择器113编辑有可能被说出的短语114的列表。在示出的示例中,偏置短语选择器113确定可能是语音命令,并且因此偏置短语选择器113提供一组包括诸如“打开灯”,“停止闹钟”等命令的上下文偏置短语114,114a-n。
继续参考图1,语音识别模型200接收该组上下文偏置短语114作为上下文信息。语音识别模型200允许接收和处理可变数量的、可变长度的上下文偏置短语114。这里,偏置编码器220接收一组偏置短语中的每个偏置短语114作为对应的字素序列116(例如,字素数据),并为每个偏置短语114生成对应的固定维度表示,称为偏置向量222或偏置嵌入(biasembedding)。也就是说,偏置编码器220基于对应偏置短语114中的字素序列116一次一个地生成每个偏置向量222。
当大量偏置短语114可用时,选择有意义的偏置信息可能是具有挑战性的。在一些示例中,为了提高上下文偏置功能的有效性,偏置调节模块115可以可选地有选择性地激活偏置短语,以在给定时间仅偏置短语114的适当子集是激活的。利用这种技术,只有当在波束搜索波束上的部分解码的假设/转录上检测到相关的偏置前缀时,才可以启用偏置短语114。偏置调节模块115可以是语音识别模型200的一部分、或是一个单独的组件。
偏置调节模块115可以使用话语104的部分的、中间的或初步的转录信息来有效地滤除在当前时间步骤内没有意义的偏置短语114,从而限制了在偏置注意力模块228处注意偏置向量222时干扰或混淆的可能性。在一些示例中,对于每个偏置短语114,偏置短语选择器113向偏置调节模块115提供表示偏置短语114的初始部分的对应偏置前缀114F。因此,偏置调节模块115可以将每个偏置前缀114F与当前部分转录151进行比较,并确定当前部分转录151是否包括偏置前缀114F。当部分转录151包括偏置前缀114F时,偏置调节模型115可以激活/启用对应的偏置短语114。例如,在给定示例中,对于“停止闹钟”的偏置短语114,当当前部分转录151包括“停止”(或“停止该”)的偏置前缀114F时,偏置短语选择器113可以向偏置调节模块115提供对应偏置前缀114F,以调节对短语114的偏置向量122的激活/启用。
偏置调节模块115还可以禁用或惩罚对应于未包括在当前部分转录151中的偏置前缀114F的偏置短语114。可以通过如下方式来调整禁用的或惩罚的偏置短语114:指示偏置短语114的降低的概率、或者通过改变短语114的偏置向量222、或者提供非偏置输入117使得偏置编码器220对短语114的偏置向量222进行不同的编码。也可以使用其它技术,例如从偏置短语114的集合中删除短语114,或者从由偏置注意力模块228操作的集合中删除偏置向量222。
继续参考图1,偏置注意力模块228处理从偏置编码器220输出的偏置向量222和来自前一时间步长的解码器上下文状态238,以生成偏置注意矢量232。解码器上下文状态238包括在前一时间步长中的、相对于之前的偏置注意向量232的解码器240的状态。解码器上下文状态238可代表解码器240的输出的一部分,例如解码器140的输出的指定子集。解码器上下文状态238通知上下文偏置注意力模块228在当前时间步长内输入到偏置注意力模块228的偏置向量222的相对重要性注意力模块。因此,当解码器上下文状态238改变时,偏置注意力模块228计算偏置向量222的不同概要或聚合,从而改变解码器为不同偏置短语114的元素指示的概率。
不参考语音识别模型200的声音处理分支,由音频编码器210输出的音频向量212被提供给音频注意力模块218,音频注意力模块218生成音频注意向量230。音频注意向量230向注意力模块218提供当前所关注的音频帧的加权概要,例如迄今为止话语104的先前音频向量212的序列。当接收到额外的声学特征时,音频编码器210可以为音频数据108的每个窗口或帧生成音频向量212,并且因此当接收到更多的音频时继续提供额外的音频向量212。在一些示例中,音频注意力模块218使用先前时间步长的解码器音频状态236和经编码的音频向量212来计算音频向量212的序列上的注意权重。当输出最近的解码器输出时,解码器音频状态236可代表解码器240的状态的一部分,例如,代表紧接音频的先前窗口或帧的先前时间步长的解码器状态的一部分。解码器状态236有助于提醒音频注意力模块218在当前时间步长输入到音频注意力模块218的音频向量212的相对重要性。解码器音频状态336可以是解码器340输出的一部分,例如解码器240的输出的指定子集,通常是与解码器上下文状态338中使用的不同的输出集合。在一些实施方式中,状态向量236、238表示解码器140输出的非重叠部分。在其它实施方式中,状态向量236、238包括一个或多个重叠部分或两个状态向量236、238各自解码器240的整个输出。
注意力模块218、228的输出都被提供给解码器240。例如,音频注意向量230和上下文注意向量232可被级联(concatenate)以产生组合向量234,用作解码器240的输入。这种级联向语音识别模型200注入偏置信息,并且解码器240将偏置信息和声音信息联合处理。解码器240可以是例如长短期记忆(Long Short-Term Memory,LSTM)神经网络的序列模型。如上所述,表示解码器240各状态的对应部分的状态向量236、238被反馈到音频注意力模块218和上下文偏置注意力模块228,以用于计算下一个注意向量230、232。解码器240的输出被softmax层242归一化,以产生一组输出目标的概率分布,输出目标在所示示例中为字素。在其它示例中,具有概率分布中的输出目标组可以包括字段(wordpiece)或音素(phoneme)。来自解码器240的各种输出向量被提供给波束搜索模块243,波束搜索模块243使用波束搜索来产生话语104的转录150。关于在当前时间步长中哪个字素代表音频的决定被作为字素输出244反馈给解码器140,并用于计算下一个解码器输出241。
用户设备106可以以多种方式中的任何一种方式使用从波束搜索模块243输出的转录150。例如,根据用户102调用语音识别功能的方式,用户设备106可以识别和执行由转录150指定的命令、显示转录150、向另一系统(例如,诸如网络上的服务器系统)提供转录150、向移动设备106上的应用提供转录150等。
在图1的示例中,用户位置、打开的应用、和即将到来的日历约会的上下文信息将语音识别模型200偏置到“停止闹钟”的偏置短语114,这与用户在话语104中发出的短语相同。因此用户设备106(或者当服务器系统执行语音识别模型200时的服务器系统)正确地将用户的命令转录为“停止该闹钟”。然后,用户设备106可以基于该转录来执行动作,例如关闭闹钟应用的闹钟。
图2示出了结合上下文偏置的语音识别模型200的示例性上下文listen,attend,and spell(CLAS)模型架构。CLAS模型架构200是全神经机制,可以利用上下文信息-作为上下文偏置短语114(图1)的列表提供-来改善识别性能。该技术包括:首先将表示为一系列字素116的每个短语嵌入到固定维度表示222中,然后使用注意力模块228在模型的输出预测的每个步骤处总结可用的上下文232。这种方法使得在推理期间出现可变数量的上下文短语。此外,在此公开的技术不要求特定的上下文信息在训练时可用,并且重要的是,与一些现有系统不同,该方法不要求仔细调整重新打分权重,同时仍然能够纳入词汇表外(OOV)术语。
在实验评估中,CLAS模型200-与模型的其余部分联合训练上下本组件-在处理数百个上下文短语时显著优于在线重新打分技术,并且在处理数千个短语时与这些技术相当。首先,用标准上下文化方法描述标准LAS模型。然后,描述为了获得CLAS模型200而对LAS模型建议的修改。
LAS架构包括三个主要组件:编码器210,解码器240、和注意网络218。这三个主要分量组件被联合训练以从声学特征帧序列110中预测字素序列244。编码器210包括读取声学特征110,x=(x1,.,xK)并输出高级特征(隐藏状态)序列212,的堆叠递归神经网络(RNN)(在本工作中是单向的)。编码器210类似于ASR系统中的声学模型。
解码器220是堆叠的单向RNN,其计算输出令牌序列(本工作中的字符)241,的概率y=(y1,...,yT)如下:
对编码器状态向量212,hx的条件依赖性是使用上下文向量230,ct=cx t来建模的,该上下文向量是使用当前解码器隐藏状态,dt和全编码器状态序列,hx的函数的多头注意力(multi-head-attention)来计算的。捕获先前字符上下文y<t的解码器隐藏状态,dt由下式给出:
P(yt|hx,y<t)=softmax(Ws[ct;dt]+bs) (3)
其中Ws和bs是再次可学习参数,[ct;dt]表示两个向量的级联。训练该模型使区别损失(discriminative loss)最小:
LLAS=-log P(y|x) (4)
动态(OTF)重新打分是一种用于调整与特定上下文相关的n-grams权重的方法。在下面的各种变化中,这种技术可以与下面讨论的LAS模型或CLAS模型200一起使用。在OTF重新打分中,假定提前知道一组单词级偏置短语,并其被编译至加权有限状态变换器(weighted finite state transducer,WFST)。然后使得单词级WFST,G与“拼写器”FST,S组合,将一连串字素/字段转换为对应的单词。上下文语言模型通过以下方式获得:C=min(det(SοG))。
然后,来自上下文语言模型的得分,PC(y)可以被并入到解码标准中。这是通过用上下文语言模型的比例贡献(scaled contribution)来增强标准对数似然项(standardlog-likelihood term)来实现的:
其中λ是可调的超参数(hyperparameter),其控制在波束搜索期间上下文语言模型对整体模型得分的影响程度。
图3A-3C示出了通过向子词单元(subword unit)分配权重以对上下文偏置短语114进行OTF重新打分的不同技术。图3A描述了一种没有应用权重推导(weight pushing)的示例OTF重新打分技术,导致在单词边界处使用公式(5)应用整体得分。因此,当相关单词首先出现在波束中时,该技术仅改善了OTF重新打分性能。此外,该技术在上下文偏置短语的数量较小(例如,是,否,取消)时效果相当好,但是当上下文短语集合包含大量专有名词(例如,歌曲名称,联系人等)时,该技术会受到阻碍。
图3B描述了一种应用权重推导的示例OTF重录技术,导致将整体得分应用于每个单词的开始子单词单元(beginning subword unit)。因为单词可能在早期被认为提升,所以仅将分数应用到开始子单词单元可能引起过偏(over-biasing)问题。
图3C描述了第三种OTF重新打分技术,该技术将权重推给单词的每个子单词单元。为了避免人为地给早期被提升但不匹配整个短语的前缀赋予权重,,如图3C中所示的负权重所示,包括减法成本(subtractive cost)。通过向单词的每个子单词单元推权重,图3C的OTF重新评分技术旨在帮助单词保持在波束中。
参考图2,CLAS模型200通过提供的偏置短语114,z的列表使用额外的上下文来修改LAS模型,从而有效地对P(y|x;z)建模。z中的各个元素表示诸如个性化的联系人姓名,歌曲列表等的短语,这些短语与特定识别上下文相关。在所示的示例中,CLAS模型200可以访问被表示为z=z1,…,zN的额外的偏置短语114的序列的列表。z中的各个元素表示诸如个性化的联系人姓名,歌曲列表等的短语,这些短语与特定识别上下文相关。偏置短语114的目的是偏置模型以输出特定短语。然而,在给定当前话语的情况下,并非所有的偏置短语都是相关的,取决于模型确定哪些短语(如果有的话)可能是相关的,并且取决于模型使用这些来修改目标分布P(yt|hx,y<t)。
偏置编码器220将偏置短语114(z=z1,…,zN)嵌入到向量集合222,hz={h0 z,h1 z,…,hn z}中。上标z区分了偏置-注意变量和音频相关的变量。如果i>0,则向量hi z是zi的嵌入。由于偏置短语114可能与当前话语无关,所以增加了可学习向量,hz 0=hz nb。可学习向量hz 0对应于无偏置输入117(图1),并且不使用任何偏置短语来产生输出。当没有一个偏置短语与音频匹配时,该选项使得模型能够返回到“无偏置”的解码策略,并且允许模型完全忽略偏置短语。
在一些示例中,偏置编码器220包括多层LSTM网络,多层LSTM网络被配置为接收以接收zi中子单词的嵌入序列,所述嵌入序列是解码器使用的相同字素或字段单元,以使用LSTM的最后状态获取嵌入,作为整个短语的嵌入。
偏置注意力模块228计算hz上的偏置注意力。二级上下文向量在时间步长t汇总z,如下所示:
偏置注意力模块228输出与音频上下文向量230,ct x级联的偏置上下文向量232,ct z,以提供级联的上下文向量234(图1),ct作为解码器240的输入,其中ct=[ct x;ct z]是关于x和z的上下文向量的级联。在一些实施方式中,与上下文偏置无关的CLAS模型200的其它组件(例如,解码器和音频编码器)与标准LAS模型中的对应组件相同,尽管这些组件因与上下文偏置元素的联合训练而具有显著不同的训练状态。
此外,可基于以下等式训练CLAS模型200以最小化损失:
LCLAS=-log P(y|x,z) (9)
参考图1和图2,在每个批次的训练期间,因为模型200在推理期间对将使用什么偏置短语114不做任何假设,CLAS模型200随机地生成偏置短语z的列表,以允许在推理时的灵活性。在一些示例中,通过获取与训练批次中的音频特征110相对应的参考转录r1,…,rNbatch的列表,CLAS模型200随机地从与训练批次中的话语相关的参考转录中创建/生成训练偏置短语114的列表,并且随机地选择在一些参考转录中作为子串出现的、n-gram短语116的偏置短语114,z的列表。
在一些示例中,训练CLAS模型200以行驶无偏置选项,其中特定偏置短语114,z与该批次中的一些话语不匹配,训练包括从创建过程中以概率Pkeep丢弃/排除每个参考。当丢弃参考时,该批次中仍保留该话语,但是没有从其转录中提取偏置短语。如果Pkeep被设置为Pkeep=0,则不向训练批次呈现偏置短语。如果Pkeep=1,则该批次中的每个话语具有至少一个匹配的偏置短语。接下来,通过从[1,Nphrases]中随机均匀地选取k并且从[1,Norder]中随机均匀地选取n,训练过程从每个保留的参考中随机地选择k个单词n-gram。这里Pkeep、Nphrases、Norder是训练过程的超参数。例如,如果Pkeep=1.0,Nphrases=1,Norder=1,则从每个参考转录中选择一个单句(unigram)。在一个示例中,设置Pkeep=0.5,Nphrases=1,Norder=4提高了对无偏置的鲁棒性,并且导致偏置短语214的列表具有17的预期大小(例如,分片(shard)大小的一半,加上无偏置的1)。
在一些实施方式中,训练过程在随机生成偏置短语114,z的列表之后计算z与每个参考转录r的交点,使得训练过程在每次找到匹配时插入特定的</bias>符号。例如,如果参考转录是“播放歌曲”,并且匹配偏置短语是“播放”,则目标序列被修改为“播放</bias>歌曲”。</bias>符号的目的是引入训练误差,该训练误差只能通过考虑正确的偏置短语来校正。为了能够预测</bias>,模型200必须关注正确的偏置短语,从而确保偏置编码器220在训练过程期间接收更新。
在推理期间,可能在训练中不会看到的是,当用户102向模型200提供音频特征向量110,x的序列和一组上下文偏置短语序列z时,模型200使用偏置编码器220将z嵌入hz。这种嵌入可以在音频流开始之前进行。音频特征向量110,x的序列可以被表示为馈送到音频编码器210中的帧序列,并且运行解码器240以使用波束搜索解码(例如,在图1的波束搜索模块243处)来产生N-best假设,从而产生转录150。
如前所述,当用户102向CLAS模型200呈现数千个短语114时,检索有意义的偏置上下文向量232,ct z可能是有挑战性的,因为偏置上下文向量232对应于许多不同偏置嵌入z的加权和,因此可能远离在训练期间看到的任何上下文向量。为了减轻这个问题,在推断期间,偏置调节向模型200提供偏置短语z=z1,…,zN,的列表,以及偏置前缀114F,p=p1,…,pN的列表。这里,仅当在波束y<t上的部分解码假设(例如,部分转录151)中检测到对应的偏置前缀pi时,偏置调节才在步骤t启用偏置短语zi。这是通过设置以下参数来更新偏置注意概率来实现的:
偏置调节可以任意地构造偏置前缀114F的列表。例如,偏置短语“猫坐着”可以以偏置前缀114F“猫”为条件。这里,一旦模型200在波束y<t上检测到部分转录151中的偏置前缀114F“猫”,偏置调节仅为偏置短语114“猫坐着”启用嵌入z。通过最小化共享相同前缀的偏置短语114的数目,对偏置前缀114F的良好选择减轻了偏置注意力模块228处的偏置注意力的过载,同时通过防止每个偏置短语114分裂成太多的部分(segment)来允许不同的偏置嵌入z。在一些实施方式中,只要同一前缀114F没有被太多的短语114共享,算法通过从空前缀(pi=∈)开始并且迭代地将每个前缀扩展一个单词(从zi开始)来选择偏置前缀114F。
一个示例训练设置使用大约25,000小时的、包括3300万个英语话语的训练组。训练话语是匿名和手工转录的。可以通过使用房间模拟器和添加不同程度的噪声和混响来人为破坏干净的话语,以增强该数据集,使得总SNR在0dB和30dB之间,平均SNR为12dB。
在8×8张量处理单元(tensor processing unit,TPU)切片上训练模型,全批大小为4,096。在每个训练步骤中,每个训练核心以32个话语的分片尺寸操作。在该碎片中,偏置短语是随机化的,并且因此在训练期间每个分片最多历经32个偏置短语。
示例训练过程使用在25ms窗口上每10ms计算一次的80维log-mel声学特征100。三个连续的帧被堆叠,并以三倍的系数串联。这种下采样使得能够使用更简单的编码器结构。
编码器210的架构可以包括十(10)个单向LSTM层,每个LSTM层具有256个节点。在一些示例中,编码器注意力模块218使用四(4)个注意头在512个维度上计算注意力。另外,偏置编码器220可包括具有512个节点的单个LSTM层,且偏置注意力模块228可计算512个维度上的注意力。解码器240可以包括具有256个节点的四(4)个LSTM层。总的来说,模型200可以具有大约5800万个可训练参数。
在具有数百个与词汇外(OOV)单词的高比率相关联的偏置短语114的话语测试集合上,CLAS模型200的表现显著好于非上下文ASR模型。然而,因为在各自的嵌入z之间开始出现相关性,所以CLAS模型200对于具有数千个偏置短语114的测试集来说会退化。可以通过提供偏置前缀114F的列表来解决这个可扩展性问题,使得当模型200在波束y<t上的部分解码的假设(例如,部分转录151)中检测到对应的前缀114F时,CLAS模型200仅“启用”偏置短语114。
涉及使用带有偏置条件的类CLAS模型的测试以基于规则的方式创建偏置前缀。对于“对话聊天机器人(talk-to-chatbot)”集合,前缀被生成为“对话(talk to)”+下一个单词,(例如,短语“对话药房抽认卡(talk to pharmacy flashcard)”被分成前缀pi=“对话药房(talk to pharmacy)”和后缀zi=“抽认卡(flashcard)”)。此外,对“对话(talk to)”之后的第一个词以其第一个字母为条件也很有用(例如,“药房(pharmacy)”以“talk to p”为条件)。这种构造将共享相同前缀的短语的数目限制为225(和3255相比),同时只增加百分之10(10%)的偏置短语段的总数。
通过允许对大量短语的可缩放性而不降低精确度,CLAS模型200受益于偏置调节和OTF重新打分方法,以及它们的组合。在没有这些特征的情况下,当使用非常大量的偏置短语时,会失去上下文偏置的益处。然而,调节和/或OTF重新打分可允许在不降低精确度的情况下使用大量偏置短语,例如,数千或数十万或更多。
因此,CLAS模型200包括全神经上下文的ASR模型,其通过嵌入完整的上下文偏置短语114来结合上下文信息。CLAS模型200可以应用偏置调节以能够处理大量的上下文短语。模型200的WER相对于标准偏置技术高达百分之68(68%)。
图4是用于将上下文偏置信息纳入语音识别模型200的方法400的示例性操作安排的流程图,该方法将语音识别偏向于与说出的话语的上下文相关的预定的单词和短语。可以参照图1和图2来描述该方法400。用户设备106(和/或远程服务器)可以执行该方法400的操作。在操作402,方法400包括接收编码话语104的音频数据108。例如,与用户102相关联的用户设备106的一个或多个麦克风可以记录和编码由用户102说出的话语104。在操作404,方法400包括获取与话语104的上下文相对应的偏置短语114集合。偏置短语集合的每个偏置短语114包括一个或多个单词。
在操作406,方法400包括使用语音识别模型200处理从音频数据108导出的声学特征110,以从语音识别模型200生成输出241。语音识别模型200包括第一编码器210、与第一编码器210对应的第一注意力模块218、偏置编码器220、与偏置编码器220对应的偏置注意力模块228、以及解码器240,解码器被配置为基于第一注意力模块218的输出和偏置注意力模块228的输出来确定语音元素244的序列的似然。第一编码器210被配置成接收从音频数据108导出的声学特征110,并且偏置编码器被配置成接收指示所获得的偏置短语集114的数据116。
在操作408,方法400包括基于由解码器240确定的语音元素244的序列的似然(likehood)来确定话语104的转录150。语音元素244可以包括单词,字段或字素。此外,第一编码器210,第一注意力模块218,偏置编码器220,偏置注意力模块228和解码器240被联合训练,以从声学特征帧序列中预测字素序列。
软件应用(即,软件资源)可以指使计算设备执行任务的计算机软件。在一些示例中,软件应用可被称为“应用”,“app”或“程序”。示例应用包括但不限于系统诊断应用,系统管理应用,系统维护应用,字处理应用,电子表格应用,消息传递应用,媒体流应用,社交网络应用和游戏应用。
非瞬态存储器可以是用于临时或永久地存储由计算设备使用的程序(例如,指令序列)或数据(例如,程序状态信息)的物理设备。非瞬态存储器可以是易失性和/或非易失性可寻址半导体存储器。非易失性存储器的实例包括(但不限于)快闪存储器和只读存储器(ROM)/可编程只读存储器(PROM)/可擦除可编程只读存储器(EPROM)/电可擦除可编程只读存储器(EEPROM)(例如,通常用于固件,例如引导程序)。易失性存储器的示例包括但不限于随机存取存储器(RAM),动态随机存取存储器(DRAM),静态随机存取存储器(SRAM),相变存储器(PCM)以及磁盘或磁带。
图5是可用于实现本文档中描述的系统和方法的示例性计算设备500的示意图。计算设备500用于表示各种形式的数字计算机,例如膝上型计算机,台式计算机,工作站,个人数字助理,服务器,刀片服务器,大型机和其它适当的计算机。这里所示的组件,它们的连接和关系以及它们的功能仅仅是示例性的,而不是要限制在本文件中描述和/或要求保护的本发明的实现。
计算设备500包括处理器510,存储器520,存储设备530,连接到存储器520和高速扩展端口550的高速接口/控制器540,以及连接到低速总线570和存储设备530的低速接口/控制器560。组件510、520、530、540、550和560中的每一个使用各种总线互连,并且可以适当地安装在公共母板上或以其它方式安装。处理器510可以处理用于在计算设备500内执行的指令,包括存储在存储器520中或存储设备530上的指令,以在外部输入/输出设备(例如耦合到高速接口540的显示器580)上显示图形用户界面(GUI)的图形信息。在其它实施方式中,可以适当地使用多个处理器和/或多个总线以及多个存储器和存储器类型。此外,可以连接多个计算设备500,其中每个设备提供必要操作的部分(例如,作为服务器库,一组刀片服务器,或多处理器系统)。
存储器520在计算设备500内非瞬态地存储信息。存储器520可以是计算机可读介质,易失性存储器单元或非易失性存储器单元。非瞬态存储器520可以是用于临时或永久地存储由计算设备500使用的程序(例如,指令序列)或数据(例如,程序状态信息)的物理设备。非易失性存储器的实例包括但不限于,闪存和只读存储器(ROM)/可编程只读存储器(PROM)/可擦除可编程只读存储器(EPROM)/电子可擦除可编程只读存储器(EEPROM)(例如,通常用于固件,例如引导程序)。易失性存储器的示例包括但不限于随机存取存储器(RAM),动态随机存取存储器(DRAM),静态随机存取存储器(SRAM),相变存储器(PCM)以及磁盘或磁带。
存储设备530能够为计算设备500提供大容量存储。在一些实施方式中,存储设备530是计算机可读介质。在各种不同的实现中,存储设备530可以是软盘设备,硬盘设备,光盘设备,或磁带设备,闪存或其它类似的固态存储器设备,或设备阵列,包括存储区域网络中的设备或其它配置。在另外的实现中,计算机程序产品被有形地包含在信息载体中。所述计算机程序产品包含指令,所述指令在被执行时执行一个或多个方法,例如上述的那些方法。信息载体是计算机或机器可读介质,例如存储器520,存储设备530或处理器510上的存储器。
高速控制器540管理计算设备500的带宽密集操作,而低速控制器560管理较低的带宽密集操作。这种职责的分配仅是示例性的。在一些实施方式中,高速控制器540耦合到存储器520,显示器580(例如,通过图形处理器或加速器)以及高速扩展端口550,高速扩展端口550可以接受各种扩展卡(未示出)。在一些实施方式中,低速控制器560耦合到存储设备530和低速扩展端口590。可以包括各种通信端口(例如,USB、蓝牙、以太网、无线以太网)的低速扩展端口590可以例如通过网络适配器耦合到一个或多个输入/输出设备,例如键盘、定点设备、扫描仪、或例如交换机或路由器的联网设备。
计算设备500可以以多种不同的形式来实现,如图所示。例如,它可以被实现为标准服务器500a或者在一组这样的服务器500a中多次实现为膝上型计算机500b,或者被实现为机架服务器系统500c的一部分。
在此描述的系统和技术的各种实现可以在数字电子和/或光学电路,集成电路,专门设计的ASIC(专用集成电路),计算机硬件,固件,软件和/或其组合中实现。这些各种实现可以包括在可编程系统上可执行和/或可解释的一个或多个计算机程序中的实现,所述可编程系统包括至少一个可编程处理器,所述可编程处理器可以是专用的或通用的,被耦合以从存储系统,至少一个输入设备和至少一个输出设备接收数据和指令,以及向其发送数据和指令。
这些计算机程序(也称为程序,软件,软件应用或代码)包括用于可编程处理器的机器指令,并且可以用高级过程和/或面向对象的编程语言和/或用汇编/机器语言来实现。如本文所用,术语“机器可读介质”和“计算机可读介质”是指用于向可编程处理器提供机器指令和/或数据的任何计算机程序产品,非瞬态计算机可读介质,设备和/或设备(例如,磁盘,光盘,存储器,可编程逻辑设备(PLD)),包括接收机器指令作为机器可读信号的机器可读介质。术语“机器可读信号”是指用于向可编程处理器提供机器指令和/或数据的任何信号。
本说明书中描述的过程和逻辑流程可以由一个或多个可编程处理器(也称为数据处理硬件)执行,执行一个或多个计算机程序以通过对输入数据进行操作并生成输出来执行功能。处理和逻辑流程也可以由专用逻辑电路执行,例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)。例如,适于执行计算机程序的处理器包括通用和专用微处理器,以及任何类型的数字计算机的任何一个或多个处理器。通常,处理器将从只读存储器或随机存取存储器或两者接收指令和数据。计算机的基本元件是用于执行指令的处理器和用于存储指令和数据的一个或多个存储器设备。通常,计算机还将包括或被可操作地耦合以从一个或多个大容量存储设备接收数据或向一个或多个大容量存储设备传送数据,所述大容量存储设备用于存储数据,例如磁盘,磁光盘或光盘。然而,计算机不必具有这样的设备。适于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储器设备,包括例如半导体存储器设备,例如EPROM、EEPROM和闪存设备;磁盘,例如内部硬盘或可移动磁盘;磁光盘;CD ROM和DVD-ROM盘。处理器和存储器可以由专用逻辑电路补充或结合在专用逻辑电路中。
为了提供与用户的交互,本公开的一个或多个方面可以在具有显示设备的计算机上实现,所述向用户显示信息的显示设备例如CRT(阴极射线管),LCD(液晶显示器)监视器或者触摸屏,并且可选地具有键盘和定点设备,例如鼠标或轨迹球,通过这些设备用户可以向计算机提供输入。也可以使用其他类型的设备来提供与用户的交互;例如,提供给用户的反馈可以是任何形式的感觉反馈,例如视觉反馈,听觉反馈或触觉反馈;并且可以以任何形式接收来自用户的输入,包括声学,语音或触觉输入。此外,计算机可以通过向用户使用的设备发送文档和从用户使用的设备接收文档来与用户交互;例如,通过响应于从web浏览器接收的请求向用户的客户端设备上的web浏览器发送网页。
已经描述了多种实现方式。然而,应当理解,在不脱离本公开的精神和范围的情况下,可以进行各种修改。因此,其它实施方式也在所附权利要求的范围内。
Claims (30)
1.一种方法(400),其特征在于,所述方法包括:
在数据处理硬件(510)处接收编码话语(104)的音频数据(108);
由所述数据处理硬件(510)获取与所述话语(104)的上下文对应的偏置短语(114)集合,所述偏置短语(114)集合中的每个偏置短语(114)包括一个或多个单词;
由所述数据处理硬件(510)使用语音识别模型(200)处理从所述音频数据(108)导出的声学特征(110),以从所述语音识别模型(200)生成输出(241),所述语音识别模型(200)包括:
第一编码器(210)和对应的第一注意力模块(218),所述第一编码器(210)被配置为接收所述声学特征(110);
偏置编码器(220)和对应的偏置注意力模块(228),所述偏置编码器(220)被配置为接收指示所获得的所述偏置短语(114)集合的数据;和
解码器(240),所述解码器(240)被配置为基于所述第一注意力模块(218)的输出(230)和所述偏置注意力模块(228)的输出(232)来确定语音元素(244)的序列的似然;和
由所述数据处理硬件(510)基于所述语音识别模型(200)的输出(241)来确定所述话语(104)的转录(150)。
2.根据权利要求1所述的方法(400),其特征在于,
所述偏置编码器(220)被配置为对所述偏置短语(114)集合中的每个偏置短语(114)的对应偏置上下文向量(232)进行编码;和
所述偏置注意模块(228)被配置为计算所述偏置上下文向量(232)上的注意力。
3.根据权利要求2所述的方法(400),其特征在于,所述偏置注意力模块(228)被配置成接收附加偏置上下文向量(232),所述附加偏置上下文向量(232)不对应于所述偏置短语(114)集合中的任何偏置短语(114),所述附加偏置上下文向量(232)表示不将由所述解码器(240)确定的所述语音元素(244)的序列的似然向任一个所述偏置短语(114)进行偏置的选项。
4.根据权利要求2或3所述的方法(400),其特征在于,所述偏置编码器(220)和所述偏置注意力模块(228)被配置为利用所述偏置短语(114)集合中的在所述语音识别模型(200)的训练期间未指定的可变数量的偏置短语(114)来操作。
5.根据权利要求1-4中任一项所述的方法(400),其特征在于,所述第一编码器(210)、所述第一注意力模块(218)、所述偏置编码器(220)、所述偏置注意力模块(228)、和所述解码器(240)被联合训练,以从声学特征帧序列预测字素序列。
6.根据权利要求1-5中任一项所述的方法(400),其特征在于,所述语音元素(244)是单词、字段、或字素。
7.根据权利要求1-6中任一项所述的方法(400),其特征在于,所述第一编码器(210)包括堆叠的递归神经网络(RNN)。
8.根据权利要求1-7中任一项所述的方法(400),其特征在于,所述解码器(240)包括堆叠的单向RNN,所述堆叠的单向RNN被配置为计算输出令牌序列的概率。
9.根据权利要求1-8中任一项所述的方法(400),其特征在于,
所述第一注意力模块(218)被配置为根据所述解码器(240)的先前隐藏状态和由所述第一编码器(210)为所述话语(104)输出的上下文向量的全序列来计算注意力;以及
所述偏置注意力模块(228)被配置为根据所述解码器(240)的所述先前隐藏状态和表示所述偏置短语(114)集合中的所述偏置短语(114)的上下文向量的全序列来计算注意力。
10.根据权利要求1-9中任一项所述的方法(400),其特征在于,所述解码器(240)被配置为基于以下确定隐藏状态:
从所述语音识别模型(200)输出的前一个字素的嵌入向量;
所述解码器(240)的先前隐藏状态;
由所述第一注意力模块(218)输出的音频上下文向量(230);以及
由所述偏置注意力模块(228)输出的偏置上下文向量(232)。
11.根据权利要求1-10中任一项所述的方法(400),其特征在于,所述偏置短语(114)集合包括为特定用户个性化的联系人姓名集合。
12.根据权利要求1-11中任一项所述的方法(400),其特征在于,所述偏置短语(114)集合包括媒体项名称集合。
13.根据权利要求1-12中任一项所述的方法(400),其特征在于,所述方法还包括:
由所述数据处理硬件(510)获取与所述偏置短语(114)集合中的所述偏置短语(114)对应的偏置前缀(114F)的列表,所述偏置前缀(114F)的列表中的每个偏置前缀(114F)表示所述偏置短语(114)集合中的一个或多个所述偏置短语(114)的初始部分;
由所述数据处理硬件(510)使用所述语音识别模型(200)来确定话语(104)的部分转录(151)是否包括所述偏置前缀(114F)的列表中的所述偏置前缀(114F)之一;以及
当所述话语(104)的所述部分转录(151)包括所述偏置前缀(114F)之一时:
由所述数据处理硬件(510)识别所述偏置短语(114)集合中的一个或多个偏置短语(114)的子集,所述一个或多个偏置短语(114)包括包含在所述部分转录(151)中的所述偏置前缀(114F)之一;以及
由所述数据处理硬件(510)仅启用所识别的所述一个或多个偏置短语(114)的所述子集,以偏置所述语音识别模型(200)。
14.根据权利要求13所述的方法(400),其特征在于,所述偏置前缀(114F)的所述列表中的至少一个偏置前缀(114F)包括所述偏置短语(114)集合中的对应偏置短语(114)的第一个单词,并且不包括所述对应偏置短语(114)的最后一个单词。
15.根据权利要求1-14中任一项所述的方法(400),其特征在于,所述方法还包括:
由所述数据处理硬件(510)获取与所述偏置短语(114)集合中的所述偏置短语(114)对应的偏置前缀(114F)的列表,所述偏置短语(114)的所述列表中的每个偏置前缀(114F)表示所述偏置短语(114)集合中的一个或多个所述偏置短语(114)的初始部分;以及
由所述数据处理硬件(510)基于所述话语(104)的部分转录(151)是否包括所述偏置前缀(114F)的所述列表中的一个或多个所述偏置前缀(114F),来调整所述偏置注意力模块(228)的偏置注意力概率,用于对所述偏置短语(114)集合中的所述偏置短语(114)的所述偏置编码器(220)的输出进行编码。
16.一种系统(100),其特征在于,所述系统包括:
数据处理硬件(510);和
与所述数据处理硬件(510)通信的存储器硬件(520),所述存储器硬件(520)存储指令,所述指令在所述数据处理硬件(510)上执行时使所述数据处理硬件(510)执行以下操作:
接收编码话语(104)的音频数据(108);
获取与所述话语(104)的上下文对应的偏置短语(114)集合,所述偏置短语(114)集合中的每个偏置短语(114)包括一个或多个单词;
使用语音识别模型(200)处理从所述音频数据(108)导出的声学特征(110),以从所述语音识别模型(200)生成输出(241),所述语音识别模型(200)包括:
第一编码器(210)和对应的第一注意力模块(218),第一编码器(210)被配置为接收声学特征(110);
偏置编码器(220)和对应的偏置注意力模块(228),所述偏置编码器(220)被配置为接收指示所获得的所述偏置短语(114)集合的数据;和
解码器(240),所述解码器(240)被配置为基于所述第一注意力模块(218)的输出(230)和所述偏置注意力模块(228)的输出(232)来确定语音元素(244)的序列的似然;和
基于所述语音识别模型(200)的输出(241)来确定所述话语(104)的转录(150)。
17.根据权利要求16所述的系统(100),其特征在于,
所述偏置编码器(220)被配置为对所述偏置短语(114)集合中的每个偏置短语(114)的对应偏置上下文向量(232)进行编码;和
所述偏置注意力模块(228)被配置为计算所述偏置上下文向量(232)上的注意力。
18.根据权利要求17所述的系统(100),其特征在于,所述偏置注意力模块(228)被配置成接收附加偏置上下文向量(232),所述附加偏置上下文向量(232)不对应于所述偏置短语(114)集合中的任何偏置短语(114),所述附加偏置上下文向量(232)表示不将由所述解码器(240)确定的所述语音元素(244)的序列的似然向任一个所述偏置短语(114)进行偏置的选项。
19.根据权利要求17或18所述的系统(100),其特征在于,所述偏置编码器(220)和所述偏置注意力模块(228)被配置为利用所述偏置短语(114)集合中的在所述语音识别模型(200)的训练期间未指定的可变数量的偏置短语(114)来操作。
20.根据权利要求16-19中任一项所述的系统(100),其特征在于,所述第一编码器(210)、所述第一注意力模块(218)、所述偏置编码器(220)、所述偏置注意力模块(228)、和所述解码器(240)被联合训练,以从声学特征帧序列预测字素序列。
21.根据权利要求16-20中任一项所述的系统(100),其特征在于,所述语音元素(244)是单词、字段、或字素。
22.根据权利要求16-21中任一项所述的系统(100),其特征在于,所述第一编码器(210)包括堆叠的递归神经网络(RNN)。
23.根据权利要求16-22中任一项所述的系统(100),其特征在于,所述解码器(240)包括堆叠的单向RNN,所述堆叠的单向RNN被配置为计算输出令牌序列的概率。
24.根据权利要求16-23中任一项所述的系统(100),其特征在于,
所述第一注意力模块(218)被配置为根据所述解码器(240)的先前隐藏状态和由所述第一编码器(210)为所述话语(104)输出的上下文向量的全序列来计算注意力;以及
所述偏置注意力模块(228)被配置为根据所述解码器(240)的所述先前隐藏状态和表示所述偏置短语(114)集合中的所述偏置短语(114)的上下文向量的全序列来计算注意力。
25.根据权利要求16-24中任一项所述的系统(100),其特征在于,所述解码器(240)被配置为基于以下确定隐藏状态:
从所述语音识别模型(200)输出的前一个字素的嵌入向量;
所述解码器(240)的先前隐藏状态;
由所述第一注意力模块(218)输出的音频上下文向量(230);以及
由所述偏置注意力模块(228)输出的偏置上下文向量(232)。
26.根据权利要求16-25中任一项所述的系统(100),其特征在于,所述偏置短语(114)集合包括为特定用户个性化的联系人姓名集合。
27.根据权利要求16-26中任一项所述的系统(100),其特征在于,所述偏置短语(114)集合包括媒体项名称集合。
28.根据权利要求16-27中任一项所述的系统(100),其特征在于,其中所述操作还包括:
获取与所述偏置短语(114)集合中的所述偏置短语(114)对应的偏向前缀(114F)列表,所述偏置前缀(114F)的列表中的每个偏向前缀(114F)表示所述偏向短语(114)集合中的一个或多个所述偏置短语(114)的初始部分;
使用所述语音识别模型(200)来确定话语(104)的部分转录(151)是否包括所述偏置前缀(114F)的列表中的所述偏置前缀(114F)之一;以及
当所述话语(104)的所述部分转录(151)包括所述偏置前缀(114F)之一时:
识别所述偏置短语(114)集合中的一个或多个偏置短语(114)的子集,所述一个或多个偏置短语(114)包括包含在所述部分转录(151)中的所述偏置前缀(114F)之一;以及
仅启用所识别的所述一个或多个偏置短语(114)的所述子集,以偏置所述语音识别模型(200)。
29.根据权利要求28所述的系统(100),其特征在于,所述偏置前缀(114F)的所述列表中的至少一个偏置前缀(114F)包括所述偏置短语(114)集合中的对应偏置短语(114)的第一单词,并且不包括所述对应偏置短语(114)的最后一个单词。
30.根据权利要求16-29中任一项所述的系统(100),其特征在于,所述操作还包括:
获取与所述偏置短语(114)集合中的所述偏置短语(114)对应的偏置前缀(114F)的列表,所述偏置前缀(114F)的所述列表中的每个偏置前缀(114F)表示所述偏置短语(114)集合中的一个或多个所述偏置短语(114)的初始部分;以及
基于所述话语(104)的部分转录(151)是否包括所述偏置前缀(114F)的所述列表中的一个或多个所述偏置前缀(114F),来调整偏置注意力模块(228)的偏置注意力概率,用于为所述偏置短语(114)集合中的所述偏置短语(114)的所述偏置编码器(220)的输出进行编码。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962843824P | 2019-05-06 | 2019-05-06 | |
US62/843,824 | 2019-05-06 | ||
PCT/US2020/026004 WO2020226789A1 (en) | 2019-05-06 | 2020-03-31 | Contextual biasing for speech recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114097026A true CN114097026A (zh) | 2022-02-25 |
Family
ID=70293156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080048337.3A Pending CN114097026A (zh) | 2019-05-06 | 2020-03-31 | 语音识别的上下文偏置 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11423883B2 (zh) |
EP (1) | EP3948852A1 (zh) |
JP (2) | JP7234415B2 (zh) |
KR (1) | KR20210150497A (zh) |
CN (1) | CN114097026A (zh) |
WO (1) | WO2020226789A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117116264A (zh) * | 2023-02-20 | 2023-11-24 | 荣耀终端有限公司 | 一种语音识别方法、电子设备以及介质 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11978436B2 (en) * | 2022-06-03 | 2024-05-07 | Apple Inc. | Application vocabulary integration with a digital assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
DK201770427A1 (en) | 2017-05-12 | 2018-12-20 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
US11158307B1 (en) * | 2019-03-25 | 2021-10-26 | Amazon Technologies, Inc. | Alternate utterance generation |
US11501761B2 (en) * | 2019-04-05 | 2022-11-15 | Samsung Electronics Co., Ltd. | Method and apparatus for speech recognition |
KR102556096B1 (ko) * | 2019-11-29 | 2023-07-18 | 한국전자통신연구원 | 이전 프레임의 정보를 사용한 오디오 신호 부호화/복호화 장치 및 방법 |
US11562264B2 (en) * | 2020-01-29 | 2023-01-24 | Accenture Global Solutions Limited | System and method for using machine learning to select one or more submissions from a plurality of submissions |
CN112767917B (zh) * | 2020-12-31 | 2022-05-17 | 科大讯飞股份有限公司 | 语音识别方法、装置及存储介质 |
US11727920B2 (en) * | 2021-03-23 | 2023-08-15 | Google Llc | Tied and reduced RNN-T |
US20230360646A1 (en) * | 2022-05-05 | 2023-11-09 | Nuance Communications, Inc. | End-to-end automatic speech recognition system for both conversational and command-and-control speech |
EP4325482A1 (en) * | 2022-07-28 | 2024-02-21 | Tata Consultancy Services Limited | Method and system for visual context aware automatic speech recognition |
US20240153498A1 (en) * | 2022-10-26 | 2024-05-09 | Google Llc | Contextual Biasing With Text Injection |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9502032B2 (en) * | 2014-10-08 | 2016-11-22 | Google Inc. | Dynamically biasing language models |
US10319374B2 (en) * | 2015-11-25 | 2019-06-11 | Baidu USA, LLC | Deployed end-to-end speech recognition |
US9691384B1 (en) * | 2016-08-19 | 2017-06-27 | Google Inc. | Voice action biasing system |
JP6691501B2 (ja) | 2017-04-04 | 2020-04-28 | 日本電信電話株式会社 | 音響モデル学習装置、モデル学習装置、モデル学習方法、およびプログラム |
JP6941494B2 (ja) | 2017-07-18 | 2021-09-29 | 日本放送協会 | エンドツーエンド日本語音声認識モデル学習装置およびプログラム |
-
2020
- 2020-03-31 JP JP2021566032A patent/JP7234415B2/ja active Active
- 2020-03-31 KR KR1020217036327A patent/KR20210150497A/ko unknown
- 2020-03-31 WO PCT/US2020/026004 patent/WO2020226789A1/en unknown
- 2020-03-31 EP EP20719909.2A patent/EP3948852A1/en not_active Withdrawn
- 2020-03-31 CN CN202080048337.3A patent/CN114097026A/zh active Pending
- 2020-03-31 US US16/836,445 patent/US11423883B2/en active Active
-
2022
- 2022-07-26 US US17/815,049 patent/US20220366897A1/en active Pending
-
2023
- 2023-02-21 JP JP2023025301A patent/JP2023062147A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117116264A (zh) * | 2023-02-20 | 2023-11-24 | 荣耀终端有限公司 | 一种语音识别方法、电子设备以及介质 |
Also Published As
Publication number | Publication date |
---|---|
JP7234415B2 (ja) | 2023-03-07 |
KR20210150497A (ko) | 2021-12-10 |
JP2022531479A (ja) | 2022-07-06 |
WO2020226789A1 (en) | 2020-11-12 |
JP2023062147A (ja) | 2023-05-02 |
US11423883B2 (en) | 2022-08-23 |
EP3948852A1 (en) | 2022-02-09 |
US20220366897A1 (en) | 2022-11-17 |
US20200357387A1 (en) | 2020-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7417634B2 (ja) | 音声認識のためのエンドツーエンドモデルでコンテキスト情報を使用すること | |
US11423883B2 (en) | Contextual biasing for speech recognition | |
Pundak et al. | Deep context: end-to-end contextual speech recognition | |
US11335333B2 (en) | Speech recognition with sequence-to-sequence models | |
US9640175B2 (en) | Pronunciation learning from user correction | |
US11664021B2 (en) | Contextual biasing for speech recognition | |
US11043214B1 (en) | Speech recognition using dialog history | |
US20100312560A1 (en) | System and method for adapting automatic speech recognition pronunciation by acoustic model restructuring | |
JP2017513047A (ja) | 音声認識における発音予測 | |
US11823655B2 (en) | Synthetic speech processing | |
EP4078572B1 (en) | Proper noun recognition in end-to-end speech recognition | |
US20230186901A1 (en) | Attention-Based Joint Acoustic and Text On-Device End-to-End Model | |
CN117099157A (zh) | 用于端到端自动语音识别置信度和删除估计的多任务学习 | |
KR102637025B1 (ko) | 자동 음성 인식을 위한 다언어 리스코어링 모델들 | |
WO2024019859A1 (en) | Context-aware neural confidence estimation for rare word speech recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |