CN106469552A - 语音识别设备和方法 - Google Patents
语音识别设备和方法 Download PDFInfo
- Publication number
- CN106469552A CN106469552A CN201610685199.5A CN201610685199A CN106469552A CN 106469552 A CN106469552 A CN 106469552A CN 201610685199 A CN201610685199 A CN 201610685199A CN 106469552 A CN106469552 A CN 106469552A
- Authority
- CN
- China
- Prior art keywords
- language
- model
- recognition
- recognition result
- neutral net
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000007935 neutral effect Effects 0.000 claims abstract description 118
- 230000005236 sound signal Effects 0.000 claims abstract description 100
- 238000012549 training Methods 0.000 claims abstract description 46
- 238000012545 processing Methods 0.000 claims description 35
- 230000008569 process Effects 0.000 claims description 29
- 238000004422 calculation algorithm Methods 0.000 claims description 18
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 230000007246 mechanism Effects 0.000 claims description 12
- 210000004218 nerve net Anatomy 0.000 claims description 6
- 210000005036 nerve Anatomy 0.000 claims description 2
- 238000009434 installation Methods 0.000 description 34
- 238000010586 diagram Methods 0.000 description 9
- 230000001537 neural effect Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000013500 data storage Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 241000209140 Triticum Species 0.000 description 1
- 235000021307 Triticum Nutrition 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000011469 building brick Substances 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000411 inducer Substances 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0635—Training updating or merging of old and new templates; Mean values; Weighting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
一种语音识别设备和方法。所述语音识别设备包括:第一识别器,被配置为通过使用声学模型以第一语言识别单位产生音频信号的第一识别结果;第二识别器,被配置为通过使用语言模型来以第二语言识别单位产生音频信号的第二识别结果;和组合器,被配置为组合第一识别结果和第二识别结果从而以第二语言识别单位产生最终识别结果并且在语言模型中反映最终识别结果。第一语言识别单位可以是与第二语言识别单位相同的语言单位类型。在相同的神经网络中配置第一识别器和第二识别器,并且使用提供到第一识别器的音频训练数据在神经网络中同时地/共同地训练第一识别器和第二识别器。
Description
本申请要求于2015年8月20日在韩国知识产权局提交的第10-2015-0117422号韩国专利申请的优先权权益,其全部公开为了所有目的而通过引用包含于此。
技术领域
下面的描述涉及语音识别技术。
背景技术
电子装置或服务器的语音识别引擎通常包括声学模型、语言模型和解码器。声学模型可以是静态模型,该静态模型基于输入音频信号的发音及其连接性输出输入音频信号的音素和发音的概率。语言模型是静态模型,该静态模型可基于独立地训练或指导的音素、发音、词语、句子等的连接性独立地输出与音素、发音、词语、句子等关联的信息。解码器对声学模型和语言模型的输出进行解码以基于声学模型和语言模型的输出返回输入音频信号的最终识别结果。高斯混合模型(GMM)已通常在过去被用于声学模型,但最近,已通过使用深度神经网络(DNN)声学模型来提高语音识别性能。如上所述,这种语音识别技术使用已被彼此独立地训练的声学模型和语言模型。另外,维特比解码方案已通常被用在声学模型中。
发明内容
一个或多个实施例提供一种语音识别设备,所述语音识别设备包括:第一识别器,被配置为通过使用声学模型以第一语言识别单位产生音频信号的第一识别结果;第二识别器,被配置为通过使用语言模型来以第二语言识别单位产生音频信号的第二识别结果;和组合器,被配置为组合第一识别结果和第二识别结果从而以第二语言识别单位产生音频信号的最终识别结果并且在语言模型中反映最终识别结果。
第二识别器可被配置为通过使用反映最终识别结果的语言模型来以第二语言单位产生随后的音频信号的第二识别结果,其中组合器还可被配置为组合由声学模型产生的随后的音频信号的第一识别结果和随后的音频信号的第二识别结果作为随后的音频信号的最终识别结果。
声学模型可以是基于注意机制的模型,并且第一识别结果可表示不基于针对语言识别单位的连接时间分类的音频信号的语言识别单位的概率,其中第二识别结果可表示基于音频信号的识别的语言识别单位之间的时间连接性的概率。
第一语言识别单位可与第二语言识别单位是相同的语言单位类型。
第一识别器可被配置为通过使用第一声学模型来以第一语言识别单位产生音频信号的识别结果并且通过使用被提供按照第一语言识别单位的音频信号的识别结果的第二声学模型来以第二语言识别单位产生音频信号的第一识别结果。
第一识别结果和第二识别结果可包括关于第一语言识别单位和第二语言识别单位的各自概率或状态的信息。
组合器可将第一识别结果和第二识别结果输入到统一模型中,统一模型的结果是最终识别结果。
可在同一神经网络中表示第一识别器、第二识别器和统一模型,神经网络被配置为将表示声学模型的输出的神经网络的节点和表示语言模型的输出的神经网络的节点连接到表示统一模型的输入的神经网络的各节点。
神经网络可被配置为将表示提供最终识别结果的统一模型的输出的神经网络的节点连接到表示语言模型的输入的神经网络的节点。
表示统一模型的输出的神经网络的节点的数量可取决于表示语言模型的输入的神经网络的节点的数量。
神经网络被配置为已基于包括反向传播学习算法的学习算法在学习处理中被训练。
神经网络被配置为已使用训练数据在学习处理中被训练,其中学习处理包括同时训练声学模型、语言模型和统一模型。
第一识别器可基于注意机制执行基于神经网络的解码以确定以第一语言识别单位的第一识别结果。
一个或多个实施例提供一种语音识别方法,所述语音识别方法包括:通过使用声学模型以第一语言识别单位产生音频信号的第一识别结果;通过使用语言模型来以第二语言识别单位产生音频信号的第二识别结果;组合第一识别结果和第二识别结果从而以第二语言识别单位产生音频信号的最终识别结果;以及在语言模型中反映最终识别结果。
第一语言识别单位可与第二语言识别单位是相同的语言单位类型。
第一识别结果的产生可包括通过使用第一声学模型来以第一语言识别单位产生音频信号的识别结果并且通过使用被提供按照第一语言识别单位的音频信号的识别结果的第二声学模型来以第二语言识别单位产生音频信号的第一识别结果。
第一识别结果和第二识别结果可包括关于第一语言识别单位和第二语言识别单位的各自概率或状态的信息。
最终识别结果的产生可包括将第一识别结果和第二识别结果输入到统一模型中,统一模型的结果是最终识别结果。
可在同一神经网络中表示声学模型、语言模型和统一模型,神经网络被配置为将表示声学模型的输出的神经网络的节点和表示语言模型的输出的神经网络的节点连接到表示统一模型的输入的神经网络的各节点。
神经网络可被配置为将表示提供最终识别结果的统一模型的输出的神经网络的节点连接到表示语言模型的输入的神经网络的节点。
表示统一模型的输出的神经网络的节点的数量可取决于表示语言模型的输入的神经网络的节点的数量。
神经网络被配置为已基于包括反向传播学习算法的学习算法在学习处理中被训练。
神经网络被配置为已使用训练数据在学习处理中被训练,其中学习处理包括同时训练声学模型、语言模型和统一模型。
该方法还可包括:在第一识别结果的产生和第二识别结果的产生之前,使用训练数据在学习处理中同时训练声学模型、语言模型和统一模型。
第一识别结果的产生可包括基于注意机制执行基于神经网络的解码以确定第一识别结果。
一个或多个实施例提供一种语音识别设备,所述语音识别设备包括:第一识别器,被配置为通过使用第一声学模型来以第一语言识别单位产生音频信号的识别结果并且通过使用被提供按照第一语言识别单位的音频信号的识别结果的第二声学模型来以第二语言识别单位产生第一识别结果;第二识别器,被配置为通过使用语言模型来以第二语言识别单位产生第二识别结果;和组合器,被配置为组合第一识别结果和第二识别结果以产生音频信号的最终识别结果。
组合器可将第一识别结果和第二识别结果输入到统一模型中,统一模型的结果是最终识别结果。
可在同一神经网络中表示第一识别器、第二识别器和统一模型,神经网络被配置为将表示第二声学模型的输出的神经网络的节点和表示语言模型的输出的神经网络的节点连接到表示统一模型的输入的神经网络的各节点。
一个或多个实施例提供一种语音识别系统,所述语音识别设备包括:第一识别器,被配置为使用第一语言识别单位和声学模型产生音频信号的第一识别结果;第二识别器,被配置为通过使用语言模型来以第二语言识别单位产生音频信号的第二识别结果;和组合器,被配置为使用被配置为实现统一模型的神经网络组合第一识别结果和第二识别结果,统一模型以第二语言识别单位产生音频信号的最终识别结果并提供最终识别结果以反映在语言模型中。
声学模型和语言模型可以是使用独立训练处理预先训练的模型,并且统一模型可以是使用使用训练数据与预先训练的声学模型和语言模型的并将最终识别结果反映在语言模型中以进一步训练语言模型的训练处理训练的模型。
一个或多个实施例提供一种语音识别设备,所述语音识别设备包括:语音接收器,被配置为捕获用户的音频并且基于捕获的音频产生音频信号;包括一个或多个处理器中的第一处理器的语音识别器,被配置为将考虑音频信号的发音的声学模型和考虑音频信号的语言单位的连接性的语言模型的结果提供给统一模型,并且输出统一模型的结果作为音频信号的最终识别结果;和一个或多更个处理器中的第二处理器,被配置为执行预定操作并且基于输出的最终识别结果执行所述预定操作中的特定操作。
语音识别器还可被配置为在语言模型中反映最终识别结果,以训练语言模型。
第一处理器和第二处理器可以是所述一个或多个处理器中的相同的处理器。
在语音识别器中,可在同一神经网络中表示声学模型、语言模型和统一模型,神经网络被配置为已通过使用包括反向传播学习算法的学习算法在学习处理中被训练。
第一处理器可被配置为执行下面的至少一项操作:控制通过所述设备的扬声器以听觉方式或通过所述设备的显示器以文本格式输出最终识别结果,将最终识别结果翻译成另一语言,以及通过第二处理器处理用于控制所述特定操作的执行的命令。
在下面的描述中将会部分地阐述另外和/或替代的方面,并且这些方面部分地将会通过描述而变得清楚,或者通过实施提供的实施例可学习这些方面。
附图说明
图1是示出根据一个或多个实施例的语音识别设备的方框图。
图2是示出由根据一个或多个实施例的语音识别设备执行的语音识别的示图。
图3是示出根据一个或多个实施例的语音识别设备的方框图。
图4是示出根据一个或多个实施例的语音识别方法的流程图。
图5是示出根据一个或多个实施例的语音识别方法的流程图。
图6是示出根据一个或多个实施例的语音识别设备的方框图。
在附图和详细描述中,除非另外描述,否则相同的附图标号将会被理解为始终表示相同或相似的元件、特征和结构。这些元件的相对尺寸和描述可为了清楚、说明和方便而被夸大。
具体实施方式
下面的详细描述被提供用于辅助阅读者获得对这里描述的方法、设备和/或系统的全面理解。然而,在对本公开的理解之后,这里描述的方法、设备和/或系统的各种改变、变型和等同物可随后对于本领域普通技术人员而言变得清楚。在对本公开的理解之后,对于本领域普通技术人员而言将会清楚的是,除了必须以某种次序发生的操作之外,这里描述的操作的顺序仅是示例,并且不限于这里阐述的那些顺序,而是可改变。此外,在对本公开的不同方面的理解之后,为了更加清楚和简洁,可在一些描述中省略可理解的功能和构造的描述。
除非另外定义,否则这里使用的所有术语(包括技术和科学术语)具有与各实施例所属于的领域的普通技术人员通常所理解的含义相同的含义。还将会理解,除非在这里明确地这样定义,否则术语(诸如,在常用词典中定义的那些术语)应该被解释为具有与在相关技术和本公开的情况下的它们的含义一致的含义并且将不会在理想化或过度正式意义上被解释。
可对实施例做出各种改变和修改,一些改变和修改将会被详细地示出在附图和详细描述中。然而,应该理解,这些实施例不被解释为局限于本公开和示出的形式并且应该被理解为包括本公开的构思和技术范围内的所有改变、等同物和替代物。
因此,这里描述的特征可被以不同形式实现,并且不应该被解释为局限于这里描述的示例。相反地,已提供这里描述的示例,以使得本公开将会是彻底的,并且将会将本公开的范围传达给本领域普通技术人员。
图1是示出根据一个或多个实施例的语音识别设备的方框图。
参照图1,语音识别设备100包括例如第一识别器110、第二识别器120和组合器130。
第一识别器110可通过使用声学模型(AM)来以语言识别单位输出输入音频信号的第一识别结果。在这种情况下,仅作为示例,并且需要注意的是,在不同实施例中存在替代方案,音频信号可通过从音频信号提取特征的一个或多个预处理过程而被转换成音频帧(例如,每秒100帧),音频帧可被输入到语音识别设备100。这里,对可被输入到声学模型的音频信号的提及例如应该被视为提及下面的任何一项:输入音频信号、转换成数字形式的音频信号、转换成音频帧的音频信号、已被以其它方式预处理的音频信号和独立音频帧(或其较小部分)或由这种其它预处理产生的这种独立音频帧。同样地,并且仅作为示例,对先前音频信号、当前音频信号或随后的音频信号的提及也应该被视为分别提及一个或多个先前音频帧、当前音频帧或随后的音频帧,诸如用于表示识别操作的时间顺序和未来识别操作对当前和/或先前识别结果的依赖或仅表示当前识别操作对先前识别结果的依赖。
另外,这里,语言识别单位表示语言中的基本单位之中将要被识别的预定语言单位,诸如音素、音节、语素、词语、短语、句子、段落等。这里,仅作为示例,音素、音节、语素、词语、短语、句子和段落可分别被视为不同类型的语言单位。另外,语言单位可根据语言而不同,从而可基于每种语言的各自已知特征预先确定语言识别单位。另外,这里,被称为大于另一语言单位类型的一个语言单位类型对应于具有预定分级体系的不同语言单位类型。仅作为这种预定分级体系的示例,在一个或多个实施例中,音节语言单位类型大于音素语言单位类型,语素语言单位类型大于音节语言单位类型,词语语言单位类型大于语素语言单位类型,短语语言单位类型大于词语语言单位类型,句子语言单位类型大于短语语言单位类型,并且段落语言单位类型大于句子语言单位类型,再一次需要注意的是,这仅是示例语言单位类型的这种预定分级体系的一个示例。
在一个或多个实施例中,语言识别单位可以是字母和/或音节单位。以下,仅为了解释的方便而使用字母或音节单位,并且语言识别单位不限于此。
第一识别器110可将例如通过预处理转换的音频帧输入到声学模型中,并且可以/针对特定语言识别单位输出音频帧的第一识别结果。在这种情况下,第一识别结果可包括音频帧的语言识别单位,诸如字母或音节概率或状态信息。例如,第一识别结果可包括用于一个或多个不同语言识别单位类型中的每个语言识别单位类型的一个或多个语言识别单位的识别信息和对应概率。
在一个或多个实施例中,声学模型可通常输出每个输入音频帧的作为语言识别单位的音素的概率。根据一个或多个实施例,可基于神经网络或由神经网络表示的声学模型可通过使用基于神经网络的解码方法来以字母或音节单位输出概率或状态信息。该神经网络和这里讨论的其它神经网络可包括但不限于深度神经网络(DNN)、递归神经网络(RNN)、双向递归深度神经网络(BRDNN)等。
在一个或多个实施例中,基于神经网络的解码方法可包括注意机制。通过表示基于注意机制的输入音频数据的一种或多种声学模型解码的神经网络,可以字母或音节单位(包括这种字母或音节单位的概率)输出音频帧的识别结果。注意机制表示通过选择数据的一些部分来顺序地观察数据,而非立刻观察所有的数据。例如,在给定图像中,注意机制表示在观察图像的一部分之后观察图像的另一部分,而非立刻识别整个图像。通过使用基于注意机制的神经网络解码方法,可使由于分段而发生的信息的损失最小化。
第二识别器120可通过使用语言模型(LM)来以语言识别单位输出第二识别结果,其中第二识别结果可包括语言识别单位,例如字母或音节概率信息或状态信息。例如,第二识别结果可包括用于一个或多个不同语言识别单位类型中的每个语言识别单位类型的一个或多个语言识别单位的识别信息和对应概率。
语言模型可例如基于用于先前音频数据的对应识别操作的最终识别结果对音素、字母表字母、音节、词语等的先前序列建模,并且产生或输出用于当前音频数据的当前音素、字母、音节、词语等的信息。根据一个或多个实施例,语言模型可基于神经网络,并且因此,可诸如在声学模型中以字母或音节单位输出概率或状态信息。语言模型可被提供用于示例组合器130的一次或多次先前最终语言单位识别的语言单位信息,因此语言模型可对一个或多个语言单位类型的这种序列建模以提供用于当前语言单位(诸如,用于当前字母或音节单位)的概率。在一个或多个实施例中,语音识别设备包括内存以缓存组合器130的先前最终识别结果。仅作为示例,组合器130或第二识别器120可表示一个或多个处理装置和用于缓存组合器130的这种先前最终识别结果的内存。例如,如果组合器130存储这种信息,则组合器130可在知道第一识别器110正在操作新的或下一输入音频信号的同时将这种先前结果信息提供给第二识别器120,或者独立于第一识别器110的操作,第二识别器120可独立地操作并且在组合器130获得这种最终识别结果之后立即或在某个时间自动地产生这种语言单位概率。
组合器130可组合第一识别结果和第二识别结果,并且可以以特定语言识别单位输出音频信号的最终识别结果。例如,组合器130可将第一识别结果和第二识别结果输入到预定统一模型中,并且可以示例字母或音节单位提供所述预定统一模型的结果或输出作为最终识别结果。
类似于声学模型和语言模型,统一模型可基于神经网络。另外,在一个或多个实施例中,声学模型、语言模型和统一模型可由一个网络(例如,单个神经网络)集成和表示。例如,在一个或多个实施例中,神经网络的表示声学模型的输出的节点和神经网络的表示语言模型的输出的节点连接到神经网络的表示统一模型的输入的节点,由此形成单个神经网络。仅作为示例,神经网络的表示统一模型的输入的节点的数量可等于神经网络的表示声学模型和语言模型的各输出的节点的数量。
一旦以字母或音节单位输出音频信号的最终识别结果,例如,一旦确定音频帧的字母表字母或音节的概率或关于其的状态信息,组合器130可在语言模型中反映该输出结果。因此,例如,语言模型是反映来自一个或多个声学模型以及一个或多个语言模型的一个或多个帧的先前统一模型结果的识别结果的动态模型或学习模型,这增强当前音频帧的识别结果。为此,在一个或多个实施例中,前述单个神经网络可被以这种方式配置,即神经网络的表示统一模型的输出的节点的数量等于或取决于神经网络的表示语言模型的输入的节点的数量,或者被以这种方式配置,即神经网络的表示语言模型的输入的节点的数量取决于神经网络的表示统一模型的输出的节点的数量。
如上所述,基于先前的识别操作,组合器130在语言模型中反映或已反映先前音频帧的输出最终识别结果,由此能够使第二识别器120通过考虑先前音频帧的最终识别结果来计算和输出当前音频帧的当前字母或音节概率或状态信息。因此,在一个或多个实施例中,在第一识别器110将音频信号的当前帧输入到声学模型中以产生第一识别结果的同时,第二识别器120可通过组合器130来将先前帧的最终识别结果输入到语言模型中以产生第二识别结果。
另外,在一个或多个实施例中,声学模型、语言模型和统一模型被预先训练以例如以预定语言识别单位输出概率或状态信息。在这种情况下,可通过使用学习算法(诸如,反向传播学习算法)并且使用目标函数来在学习或训练处理中共同训练声学模型、语言模型和统一模型。例如,一个或多个实施例包括例如基于相同的训练数据同时训练声学模型和语言模型,并且还可包括统一模型在语言模型中反映最终识别结果以用于随后由语言模型考虑。以这种方式,可通过单个训练操作训练所有的声学模型、语言模型和统一模型。然而,训练不限于此。例如,一个或多个实施例包括基于相同或不同的训练数据预先彼此分开地(例如,独立地)训练声学模型和语言模型,并且还可包括组合统一模型与声学模型和语言模型以基于声学模型和语言模型的训练结果训练统一模型。替代地,一个或多个实施例包括部分独立地并且部分依赖地训练声学模型和语言模型。
在一个或多个实施例中,与声学模型和语言模型被彼此分开地训练并且随后组合的实施例相比,当声学模型和语言模型被例如共同地训练从而建模角色不交叠时,每个模型可更高效地执行它的功能,由此可以能够实现更准确的语音识别。例如,尽管先前的声学模型技术可能诸如通过实现的连接时间分类(CTC)已明确考虑语言单位之间的连接性,但在一个或多个实施例中,声学模型没有实现CTC。在一个示例中,声学模型可仅考虑输入音频数据中的可能的语言单位的发音。这里,可能存在一些通过声学模型考虑的隐含连接信息,诸如,可基于声学模型被设置为识别的语言单位的类型的隐含连接信息。相反,在一个或多个实施例中,仅语言模型可明确依赖这种连接信息或语言单位之间的连接。
图2是示出由根据一个或多个实施例的语音识别设备(诸如,图1的语音识别设备)执行的语音识别的示图。这里,接收或捕获的示例语音或音频由与诸如由用户发出或来自先前的记录等的语音“My name is Steve”对应的音频信号(AS)表示。以下,虽然将参照图1的语音识别设备讨论图2,但图2应该被理解为不限于此。
参照图2,第一识别器110以帧为单位将实际音频信号(AS)输入到声学模型中,并且针对在音频信号中考虑的每个语言单位(例如针对每个音频帧)第一识别器110输出26个字母表字母中的一个或多个的概率作为声学模型的结果。例如,音频帧可通过(诸如经由语音接收器或其他预处理器)将音频信号中的语言单位中的每个分割为单独的音频帧已经被获得。可选择地,若干音频帧可用于音频信号中的单个语言单位,或者音频信号中的两个或更多个语言单位可被包括在同一音频帧中。因此,仅作为示例,随着音频信号中的每个语言单位被分割为单独的音频帧,第一识别器110的每个输出结果被输入到组合器130。在这种情况下,在从示例26个字母表字母之中选择时,声学模型可指示每个音频帧的最高可能字母表字母,其依次可以是例如m、a、i、n、e、i、m、i、s、s、t、i和v。伴随针对每个音频帧的来自声学模型的最高可能结果中的至少一个,第一识别器110还可向组合器130提供由声学模型确定的指示的最高可能识别语言单位的相应概率和每个音频帧的其他状态信息。
第二识别器120可例如基于第二识别器120(诸如,通过语音识别设备100的共享内存、通过从组合器130提供或通过共享的神经网络)可获得的先前最终识别结果,考虑到字母表字母的连接关系而输出字母概率,并且可将输出的语言模型结果字母概率提供给组合器130。因此,因为在语言模型中反映由组合器130产生的先前音频帧的最终识别结果,所以可考虑到先前音频帧的最终识别结果中所包括的字母表字母而输出当前音频帧的准确识别结果。
组合器130可将由第一识别器110输出或使其可用的第一音频帧的示例26个字母表字母的概率输入到统一模型中,并且可将由第二识别器120输出或使其可用的第一音频帧的示例26个字母表字母的概率输入到统一模型中,以由统一模型输出当前最终识别结果,即字母表字母‘m’具有与第一音频帧匹配的最高概率。在这种情况下,组合器130可在语言模型中反映针对第一音频帧输出的字母‘m’和对应概率信息。
如上所述,可由组合器130将被第一识别器110确定为具有最高概率的字母表字母“mai neim is stiv”中的每个与第二识别器120的各最高概率识别结果组合,以便将音频信号准确地识别/理解为对应于“My name is Steve”。
图3是示出根据一个或多个实施例的语音识别设备的方框图。
参照图3,语音识别设备300包括例如第一识别器310、第二识别器320和组合器330。
第一识别器310可以以大于第一语言识别单位的第二语言识别单位输出第一识别结果。在这种情况下,第一语言识别单位和第二语言识别单位是如上所述的语言单位中的任何一种语言单位。例如,第一语言识别单位可以是字母或音节单位,并且第二语言识别单位可大于字母或音节单位。以下,为了解释的方便,第一语言识别单位是字母或音节单位,并且第二语言识别单位是词语单位。然而,仅作为示例讨论这些特定语言识别单位,并且实施例不限于此。
在一个或多个实施例中,第一识别器310可包括第一声学模型和第二声学模型。在这种情况下,使用第一声学模型,第一识别器310可以以第一语言识别单位提供音频信号的识别结果,仅作为示例,第一语言识别单位可包括字母或音节单位的语言单位。另外,通过将这个识别结果(例如,与相应概率和/或状态信息一起)提供给第二声学模型,第一识别器310可以以第二语言识别单位产生第一识别结果,仅作为示例,第二语言识别单位可包括词语的语言单位。因此,按照第一语言识别单位的第一声学模型的识别结果可包括例如字母或音节概率或状态信息,并且按照第二语言识别单位的第二声学模型的第一识别结果可包括例如词语的概率或状态信息。尽管按顺序仅示出两个声学模型,但是实施例不限于此,因为可存在多于两个级别的声学建模(或多于一个级别的语言建模),在每一级别中可存在多于一个使用的声学模型(或语言模型),例如,并行使用和/或诸如针对个性化模型或基于个人习语的模型或基于不同方言或语言选择性使用声学模型(或语言模型)。在一个实施例中,例如,不同语言识别单位类型的声学模型的两个级别可按照声学模型的顺序,顺序地减小时间分辨率。此外,尽管声学模型的示例的两个级别对相邻等级的语言识别单位类型(例如,第二语言识别单位类型大于第一语言识别单位类型)进行建模,但是实施例不限于此,另外地或者可选择地,可通过相继的声学模型对非相邻语言识别单位类型(诸如音节和短语)进行建模。另外,在一个或多个实施例中,第一声学模型和第二声学模型由语音识别设备中的一个或多个神经网络表示,例如,神经网络的表示第一声学模型的输出的节点连接到神经网络的表示第二声学模型的输入的节点以形成单个神经网络。仅作为示例,当向第一声学模型提供表示小于第一语言识别单位类型的单个语言单位的音频帧时,第一声学模型的识别结果可包括指示第一声学模型的状态的状态信息(例如,第一声学模型未完成识别操作),当针对剩余的特定语言单位更多个的帧被接收并且第一语言识别单位被确定时,第一声学模型可将第一识别结果输出到第二声学模型。第二声学模型和第二识别器320的语言模型可类似地输出操作的各个状态的状态信息,包括准备好下一信号、数据或帧,当前识别操作的程度和对应语言单位的识别的完成。
如上所述,当通过神经网络来实现时,仅作为示例,模型或神经网络可实现注意机制。例如,对于注意机制,神经网络的较高/随后的级别(例如,声学或语言模型级别)的输入可以是较低/先前级别的输出的汇总,其中,通过输入的加权和来获得汇总,权重为“注意”。为了进一步说明该示例,当示例较低级别的输出为5维向量并且较低级别根据时间顺序被操作/运行7次(例如,7个连续音频帧)时,第7操作的输出可以是5x7矩阵。这里,“注意”可以是7维向量作为权重的示例。因此,较高级别可作为输入获得(或较低级别可作为输出产生),5维向量作为7个5维向量的加权和。
第二识别器320可通过使用例如已反映先前音频数据、帧或信号的最终识别结果的语言模型来以第二语言识别单位输出第二识别结果。在这种情况下,按照第二语言识别单位的第二识别结果可包括例如最高可能的词的概率或不同高可能的词语的概率或状态信息。根据实施例并且如以上所讨论,该语言模型也可由神经网络表示,并且在一个或多个实施例中可被或已被训练从而以第二语言识别单位输出识别结果。
组合器330可被配置为组合第一识别器310的第一识别结果和第二识别器320的第二识别结果从而以第二语言识别单位输出音频数据、帧或信号的最终识别结果。例如,组合器330可将第一识别结果和第二识别结果输入到例如表示为组合器330中的神经网络的预定统一模型中,所述预定统一模型产生输入音频信号的每个示例词语的最终识别结果。因此,组合器330可输出每个词语的最终识别结果。
另外,在这里的一个或多个实施例中,声学模型、语言模型和统一模型被集成并且表示为一个神经网络。例如,神经网络的表示第二声学模型的输出的节点和神经网络的表示语言模型的输出的节点可连接到神经网络的表示统一模型的输入的节点,以形成单个神经网络。在这里的替代实施例中,一个或多个声学模型、一个或多个语言模型和/或统一模型可由分开的或集成的神经网络表示。例如,所述一个或多个声学模型中的每个声学模型可由分开的神经网络表示或者组合/集成为单个神经网络,并且神经网络可表示这种一个或多个声学模型以及仅在单个神经网络中表示语言模型或统一模型之一,其余统一模型或语言模型由分开的神经网络表示,或者一个或多个声学模型可由与共同地表示其余声学模型、语言模型和统一模型的神经网络分开的神经网络表示,再一次需要注意的是,也存在替代方案。根据实施例,如以下更详细所讨论,这种单个或分开的神经网络中的任何一个、组合或全部可由一个或多个专门控制或配置的处理装置、处理器或计算机实现。另外,这种专门控制或配置的处理装置、处理器或计算机还可被专门控制或配置为执行接收或捕获的音频的一个或多个预处理操作(诸如,以上讨论的非限制性预处理),或者预处理可由语音识别设备或系统的替代硬件和/或一个或多个专门控制或配置的处理装置、处理器或计算机执行。
在这种语音识别系统实施例中,这种单个或分开的神经网络中的任何一个、组合或全部可由一个或多个服务器中的一个或多个专门控制或配置的处理装置、处理器或计算机实现,其余神经网络由远处或远程装置的一个或多个专门控制或配置的处理装置、处理器或计算机实现,诸如具有用户接口的电子装置,该用户接口接收或捕获诸如用于命令或搜索请求或其它操作的用户的语音,该用户接口被配置为将接收或捕获的音频传送给所述一个或多个服务器,并且该用户接口被配置为从服务器接收由所述一个或多个服务器的神经网络实现的统一模型的输出或者由所述一个或多个服务器的一个或多个神经网络实现的一个或多个声学模型和一个或多个语言模型之一或二者的输出。电子装置还可包括这样的统一模型,所述统一模型可(例如,规律地或在特定时间)被全部或部分地更新为与一个或多个服务器的训练的统一模型对应,例如从而当这种服务器中的一个或多个不可用时,电子装置可执行识别操作。在该示例中,当一个或多个服务器顺序地变为可用时,电子装置可向服务器通知电子装置的统一模型的任何改变。还可针对可由电子装置实施的声学模型和语言模型共同地执行这样的操作。例如,在声学模型和语言模型一起被训练的实施例中,为了从而一起识别语音,模型可被一起更新。相反,在声学模型将独立于语言模型的训练被训练或不同声学模型也被独立训练的先前方法中,模型的任何更新也将基于各个强制排列信息被独立执行。
返回图3,一旦针对当前音频数据、帧或信号以示例词语单位输出音频信号的最终识别结果,组合器330可在语言模型中反映该输出。以这种方式,第二识别器320可其后通过考虑当前音频信号的反映的最终识别结果,来计算和输出输入到或将输入到第一识别器310的随后的音频数据、帧或信号的随后的词语的概率或关于其的状态信息。为此,并且仅作为示例,前述单个网络(例如,单个神经网络)可被以这种方式配置:神经网络的表示统一模型的输出的节点的数量等于或取决于神经网络的表示语言模型的输入的节点的数量。
在这种情况下,如以上所讨论,一个或多个实施例包括通过使用学习或训练算法(诸如,反向传播学习算法)来在学习/训练处理中共同地并且同时/共同地训练声学模型、语言模型和统一模型。仅作为示例,一个或多个实施例包括通过使用包括主要用于用作或包括语音识别设备300的电子装置实施例的词语或短语的训练数据来训练统一模型,但训练不限于此,并且可替代地包括独立地或分开地训练声学模型和语言模型,然后通过获得和/或更新例如由用于整个网络的所述一个或多个声学模型和语言模型提供的用于各训练识别结果的权重、权重值等来训练和/或更新统一模型,以使得由统一模型执行的最后语音识别可被优化。不管声学模型和语言模型被共同地训练、与统一模型共同地训练还是分开地训练,统一模型可将不同权重施加到从声学模型和语言模型提供的各个结果,例如,从而相比于其他声学模型或语言模型,声学模型中的一个或多个的结果被给予更高的可靠性或置信权重,或者例如,相比于其他模型,语言模型被给予更高的可靠性或置信权重。权重可以是固定的或者动态的,并且在训练和/或模型的使用期间改变,并且仅作为示例可基于被应用的模型、语言单位的类型或先前语言单位的识别。权重可以简单地是不同地施加到来自模型中的一个或多个的结果的单个权重参数,或者是更复杂的矩阵权重,如对本公开的理解之后将理解的那样。
图4是示出根据一个或多个实施例的语音识别方法的流程图。仅作为示例,可通过使用根据一个或多个实施例的语音识别设备(诸如,图1的语音识别设备100)来实现图4中示出的语音识别方法,但不限于此。类似地,虽然将会参照图1的语音识别设备100讨论图4的语音识别方法,但这仅是为了方便解释并且不应该局限于此。
在操作410中,语音识别设备100可通过使用声学模型来以语言识别单位输出音频信号的第一识别结果。在这种情况下,音频信号可通过从音频信号提取特征的预处理过程而被转换成音频帧,并且音频信号可被以音频帧为单位输入到声学模型以输出第一识别结果。按照语言识别单位的第一识别结果可包括例如音频帧的字母或音节概率或状态信息。如以上所讨论,可通过被配置为例如以字母或音节单位提供概率或状态信息的神经网络实现声学模型。
在操作420中,语音识别设备100可通过使用语言模型来以语言识别单位输出第二识别结果。例如,第二识别结果可包括字母或音节概率或状态信息。如以上所讨论,可通过被配置为以字母或音节单位提供概率或状态信息的神经网络实现语言模型。在一个或多个实施例中,根据实施例,操作420可在操作410开始之后开始,操作420可在操作410之前开始,或者它们可同时开始。
随后,在操作430中,语音识别设备100可组合音频信号的第一识别结果和第二识别结果,并且可以以语言识别单位产生或输出最终识别结果。例如,通过与声学模型和语言模型一起使用统一模型或使用集成/组合声学模型和语言模型的统一模型,语音识别设备100可组合第一识别结果和第二识别结果,并且可以示例字母或音节单位输出最终识别结果。
类似于声学模型和语言模型,统一模型可基于神经网络。声学模型、语言模型和统一模型可由一个网络(例如,一个神经网络)集成和表示。例如,神经网络的表示声学模型的输出的节点和神经网络的表示语言模型的输出的节点可连接到神经网络的表示统一模型的各输入的节点。
一旦产生或输出音频信号的最终识别结果,语音识别设备100还在操作430中在语言模型中反映最终识别结果,因此语言模型在操作420的随后的实现方式中通过考虑反映的当前音频帧的识别结果来产生随后的音频帧的随后的第二识别结果。
图5是示出根据一个或多个实施例的语音识别方法的流程图。仅作为示例,可通过使用根据一个或多个实施例的语音识别设备(诸如,图3的语音识别设备300)来实现图5中示出的语音识别方法,但不限于此。类似地,虽然将会参照图3的语音识别设备300讨论图5的语音识别方法,但这仅是为了方便解释并且不应该局限于此。
在操作510中,语音识别设备300可通过使用第一声学模型来以第一语言识别单位产生输入音频信号的识别结果。然后,在操作520中,语音识别设备300可通过使用第二声学模型来以第二语言识别单位(例如,以词语单位)产生第一识别结果。第二语言识别单位可大于第一语言识别单位。例如,第一语言识别单位可以是字母或音节单位,并且第二语言识别单位可以是词语单位。另外,第一声学模型和第二声学模型可基于神经网络。例如,神经网络的表示第一声学模型的输出的节点可连接到神经网络的表示第二声学模型的输入的节点,从而产生的第一声学模型的结果可被输入到第二声学模型。
在操作530中,可通过使用反映或已反映先前音频信号的最终识别结果的语言模型来输出按照第二语言识别单位的第二识别结果。例如,第二识别结果可包括词语的概率或状态信息。在这种情况下,语言模型可基于神经网络,并且在一个或多个实施例中,表示语言模型的神经网络可被训练以便例如考虑到包括反映的先前音频信号、数据或帧的最终识别结果的音频信号的语言单位和/或不同语言单位类型之间的预期连接性而以第二语言识别单位输出识别结果。在一个或多个实施例中,根据实施例,操作530可在操作510或520中的任一操作开始之后、在操作510和520之前开始,或者操作530可与操作510或520中的任一操作同时开始。
然后,语音识别设备300可组合第一识别结果和第二识别结果,并且可以以第二语言识别单位输出音频信号的最终识别结果。例如,语音识别设备300可将第一识别结果和第二识别结果输入到预定统一模型中,所述预定统一模型被配置为考虑第一识别结果和第二识别结果并且以示例性词语单位产生最终识别结果。
类似于声学模型和语言模型,统一模型可基于神经网络。声学模型、语言模型和统一模型可由一个神经网络集成和表示。例如,神经网络的表示第二声学模型的输出的节点和神经网络的表示语言模型的输出的节点可连接到神经网络的表示统一模型的输入的节点,由此形成单个网络。如上所述,这个单个神经网络也可表示第一声学模型,例如,神经网络的表示第一声学模型的输出的节点连接到神经网络的表示第二声学模型的输入的节点。
接下来,一旦以词语单位产生或输出音频信号的最终识别结果,语音识别设备300可在语言模型中反映该最终识别结果。为此,前述单个网络可被以这种方式配置:神经网络的表示统一模型的输出的节点的数量等于或取决于神经网络的表示语言模型的输入的节点的数量。
图6是示出根据一个或多个实施例的作为电子装置600的语音识别设备的方框图。
在一个或多个实施例中,电子装置600可包括语音识别装置,诸如图1的语音识别设备100和图3的语音识别设备300之一或二者。仅作为非限制性示例,电子装置600可以是电视机、机顶盒、台式计算机、膝上型计算机、翻译机器、智能电话、平板PC、智能手表、可穿戴装置、车辆的电子控制装置等中的任何装置,并且可通过使用例如安装/包括的语音识别装置来处理用户的各种需求。然而,电子装置600不限于此,并且也可使用在语音识别的任何或所有应用中使用的其它电子装置。
参照图6,在实施例中,电子装置600包括语音接收器610、语音识别器620和处理器630,其中语音识别器620可分别对应于图1的语音识别设备100和图3的语音识别设备300之一或二者。语音识别器620是这样的硬件:该硬件可由诸如以上讨论的特定一个或多个处理装置实现,或者可由如以上所讨论的也被配置为响应于通过语音识别器620的识别结果识别的命令或询问来控制电子装置600的其它操作(诸如,其它用户接口操作)的特定一个或多个处理装置实现,但实施例不限于此。
语音接收器610可接收通过电子装置600中所包括的也由语音接收器610表示的麦克风等输入的用户的音频信号。替代地,在一个或多个实施例中,语音接收器610可被包括在对应语音识别系统实施例的单独装置中,诸如被配置为将接收或捕获的音频和/或当语音接收器610还被配置为实现以上讨论的接收/捕获的音频的预处理时的接收/捕获的音频的对应预处理的音频传送给语音识别系统的语音识别装置的有线或无线麦克风或控制器。如图6中所示,用户的音频信号可与词语、短语或句子相关以便被翻译成用于控制电视机、驾驶车辆等的另一语言或命令。另外,再一次仅作为示例,预处理可包括:将例如由用户输入的接收或捕获的模拟音频信号转换成数字信号,将数字信号划分成多个音频帧,并且将音频帧例如作为预处理的音频帧数据传送给语音识别器620。如上所述,在一个或多个实施例中,声学模型、语言模型和统一模型中的一个或多个可由一个或多个远程服务器实现为语音识别器620,并且电子装置600可被配置为传送例如捕获的音频并且基于所述传送的音频从声学模型和/或语言模型神经网络中的一个或多个接收合适的输出或接收表示对应统一模型的一个或多个神经网络的输出。
因此,在不同实施例中,语音识别器620可将声学模型和语言模型的结果输入到统一模型中,并且可基于统一模型的输出结果输出音频信号的最终识别结果。
除了这种处理器630被专门控制或配置为包括或用作语音识别器620的实施例之外,处理器630还可控制和/或执行电子装置600的另外的操作,例如包括可响应于由语音识别器620返回的最终识别结果而控制电子装置600的当前或另外的操作的操作。例如,处理器630可通过电子装置600的扬声器等以处理器产生的语音输出由用户输入的语音的识别结果,或者可在电子装置600的显示器上以文本格式提供识别结果,这样用于起草消息或文件,或仅由电子装置600显示。另外,处理器630可被配置为控制和执行用于处理关于电子装置600的命令(例如,通电/断电、音量控制等)的操作。仅作为非限制性示例,接口640表示扬声器、电子装置600的一个或多个用户接口(诸如,显示器、键盘或触摸屏幕)和/或诸如用于与示例服务器执行以上提及的传送的电子装置600的一个或多个通信硬件模块。在一个示例中,接口640还可表示产生由语音识别器610预先处理的音频信号的麦克风。
另外,在一个或多个实施例中,当电子装置600被配置为执行翻译时,诸如在语音接收器610从电子装置600的内存或从另一服务器/装置获得来自实时或记录的音频的音频数据的情况下,以及诸如在将最终识别结果翻译成另一语言的情况下,仅作为示例,处理器630还被配置为例如基于存储在电子装置600的内存中或通过从另一装置或服务器传送而可用的一个或多个词典将以文本格式输出的最终识别结果翻译成所述另一语言,并且诸如在电子装置600的显示器上以语音和/或以文本格式输出翻译的结果。然而,处理器630不限于此,并且可被用于电子装置600的各种应用。例如,电子装置的存储器还可存储声学模型和语言模型、可选择的声学模型和语言模型、用于训练模型的数据、以及由语音识别器620使用或产生的任何信息。存储器还可存储可执行指令,从而电子装置600的一个或多个处理器可实现上述操作中的任何一个。
除了图1-3和6的设备、模块、元件、装置和其它组件是硬件元件(任何硬件元件可实现图2和4-5的方法)之外,仅作为示例,图2和4-5的方法可由硬件组件执行,所述硬件组件包括电子装置或系统实施例中所包括的任何以上讨论的示例硬件元件。仅作为示例,硬件组件的示例包括电阻器、电容器、电感器、电源、频率发生器、运算放大器、功率放大器、低通滤波器、高通滤波器、带通滤波器、模数转换器、数模转换器、控制器、传感器、发电机、内存、驱动器、电路和/或被配置为执行图2和4-5的上述方法中的任何方法的本领域普通技术人员已知的任何其它电子组件。在一个示例中,硬件组件由一个或多个处理装置或处理器或计算机实现。处理装置、处理器或计算机由一个或多个处理元件(诸如,逻辑门阵列、控制器和算术逻辑器件、数字信号处理器、微型计算机、可编程逻辑控制器、现场可编程门阵列、可编程逻辑阵列、微处理器或者能够以定义的方式对指令做出响应并且执行指令以实现想要的结果的本领域普通技术人员已知的任何其它装置或装置的组合)实现。在一个示例中,处理装置、处理器或计算机包括或连接到存储计算机可读代码、指令或软件的一个或多个内存,所述计算机可读代码、指令或软件由处理装置、处理器或计算机执行并且可控制处理装置、处理器或计算机执行这里描述的一个或多个方法。仅作为示例,由处理装置、处理器或计算机例如通过执行计算机执行代码、指令或软件(诸如,操作系统(OS)和在OS上运行的一个或多个软件应用)来实现的硬件组件可执行这里参照图2和4-5描述的操作。硬件组件也响应于指令或软件的执行而访问、操纵、处理、创建和存储数据。为了简单,可在这里描述的示例的描述中使用单数术语“处理装置”、“处理器”或“计算机”,但在其它示例中,使用多个处理装置、处理器或计算机,或者处理装置、处理器或计算机包括多个处理元件或多种类型的处理元件或者处理装置、处理器或计算机包括多个处理元件并且包括多种类型的处理元件。在一个示例中,硬件组件包括多个处理器,并且在另一示例中,硬件组件包括处理器和控制器。硬件组件具有不同处理结构中的任何一种或多种处理结构,其示例包括单个处理器、独立处理器、并行处理器、远程处理环境、单指令单数据(SISD)多处理、单指令多数据(SIMD)多处理、多指令单数据(MISD)多处理和多指令多数据(MIMD)多处理。另外,以上称为设备的各种附图中示出的任何连接线或连接器旨在表示各种硬件元件之间的示例功能关系和/或物理或逻辑耦合,许多替代或另外的功能关系、物理连接或逻辑连接可存在于对应装置实施例中。
通过如上所述的专门控制或配置的处理装置、处理器或计算机执行处理器或计算机可读代码、指令或软件以执行这里描述的操作,可执行执行这里描述的操作的图2和4-5中示出的方法。
用于控制处理装置、处理器或计算机实现硬件组件并且执行如上所述的方法的处理器或计算机可读代码、指令或软件可被编写为计算机程序、代码段、指令或其任何组合,所述计算机程序、代码段、指令或其任何组合用于个别地或共同地指示或配置处理装置、处理器或计算机以用作用于执行由硬件组件执行的操作和如上所述的方法的机器或专用计算机。在一个示例中,处理器或计算机可读代码、指令或软件包括由处理装置、处理器或计算机直接执行的机器代码,诸如由编译器产生的机器代码。在另一示例中,处理器或计算机可读代码、指令或软件包括由处理装置、处理器或计算机使用解释器执行的高级代码,诸如利用任何编程或脚本语言(诸如,C、C++、Java、汇编程序等)实现的高级代码,利用数据结构、对象、处理、例程或其它编程元件的任何组合实现各种算法。基于这里的公开,并且仅在对该公开的理解之后,本领域普通程序员可基于公开用于执行由硬件组件执行的操作和如上所述的方法的算法的附图中示出的方框图和流程图以及说明书中的对应描述容易地编写处理器或计算机可读代码、指令或软件。
用于控制处理装置、处理器或计算机实现诸如在图1-3和6中的任何附图中讨论的硬件组件并且执行如以上在图2和4-5中的任何附图中所述的方法的处理器或计算机可读代码、指令或软件和任何关联的数据、数据文件和数据结构被记录、存储或固定在一个或多个非暂时性计算机可读存储介质中或者被记录、存储或固定在一个或多个非暂时性计算机可读存储介质上。非暂时性处理器或计算机可读存储介质的示例包括只读存储器(ROM)、随机存取存储器(RAM)、闪存、CD-ROM、CD-R、CD+R、CD-RW、CD+RW、DVD-ROM、DVD-R、DVD+R、DVD-RW、DVD+RW、DVD-RAM、BD-ROM、BD-R、BD-R LTH、BD-RE、磁带、软盘、磁光数据存储装置、光学数据存储装置、硬盘、固态盘和能够以非暂时性方式存储处理器或计算机可读代码、指令或软件和任何关联的数据、数据文件和数据结构并且向处理装置、处理器或计算机提供处理器或计算机可读代码、指令或软件和任何关联的数据、数据文件和数据结构以使得处理装置、处理器或计算机能够执行指令的本领域普通技术人员已知的任何装置。在一个示例中,处理器或计算机可读代码、指令或软件和任何关联的数据、数据文件和数据结构分布在联网的计算机系统上,以使得由处理装置、处理器或计算机以分布式方式存储、访问和执行指令和软件和任何关联的数据、数据文件和数据结构。
仅作为非穷举示例,并且除了诸如以上参照图1-3和6中的任何附图描述和/或被配置为实现参照图2和4-5中的任何附图描述的方法的这里的语音识别设备和电子装置实施例的可能的硬件实现方式的以上解释中的任何解释之外,也可以是:移动装置,诸如蜂窝电话、可穿戴智能装置(诸如,示例智能手表)、其它可穿戴装置、便携式个人计算机(PC)(诸如,示例膝上型计算机、笔记本、亚笔记本、上网本或超级移动PC(UMPC)、示例平板PC(平板计算机))、平板手机、个人数字助手(PDA)、数字照相机、便携式游戏控制台、MP3播放器、便携式/个人多媒体播放器(PMP)、手持式电子书、全球定位系统(GPS)导航装置或传感器;或固定装置,诸如示例台式PC、示例TV(诸如,高清晰度电视(HDTV))、DVD播放器、Blu-ray播放器、示例机顶盒或家用电器;或能够实现无线或网络通信的任何其它移动或固定装置。在一个或多个实施例中,电子装置或电子装置系统实施例包括显示器、一个或多个扬声器、用户接口、用于存储数据或记录的音频/视频的内存或其它非暂时性介质和/或音频输入装置(诸如,一个或多个麦克风)。
尽管本公开包括特定示例,但对于本领域普通技术人员而言将会清楚的是,在不脱离权利要求及其等同物的精神和范围的情况下,可在这些示例中做出各种形式和细节上的变化。应该仅在描述性意义上而非为了限制的目的考虑这里描述的示例。对每个示例中的特征或方面的描述应该被视为适用于其它示例中的类似特征或方面。如果描述的技术被以不同次序执行,和/或如果描述的系统、架构、装置或电路中的组件被以不同方式组合和/或由其它组件或其等同物替换或补充,则可实现合适的结果。因此,本公开的范围不由详细描述限制,而是另外由权利要求及其等同物支持,并且权利要求及其等同物的范围内的所有变化应该被解释为被包括在本公开中。
Claims (35)
1.一种语音识别设备,包括:
第一识别器,被配置为通过使用声学模型以第一语言识别单位产生音频信号的第一识别结果;
第二识别器,被配置为通过使用语言模型以第二语言识别单位产生音频信号的第二识别结果;和
组合器,被配置为组合第一识别结果和第二识别结果从而以第二语言识别单位产生音频信号的最终识别结果并且在语言模型中反映最终识别结果。
2.如权利要求1所述的语音识别设备,
其中,第一识别器被配置为通过使用声学模型以第一语言识别单位产生随后的音频信号的第一识别结果;
其中,第二识别器被配置为通过使用反映最终识别结果的语言模型来以第二语言单位产生随后的音频信号的第二识别结果,以及
其中,组合器还被配置为组合随后的音频信号的第一识别结果和随后的音频信号的第二识别结果作为随后的音频信号的最终识别结果。
3.如权利要求1所述的语音识别设备,其中,声学模型是基于注意机制的模型,并且第一识别结果表示音频信号的不基于针对语言识别单位的连接时间分类(CTC)的语言识别单位的概率,以及
其中,第二识别结果表示音频信号的基于识别的语言识别单位之间的时间连接性的概率。
4.如权利要求1所述的语音识别设备,其中,第一语言识别单位是与第二语言识别单位相同的语言单位类型。
5.如权利要求1所述的语音识别设备,其中,第一识别器被配置为通过使用第一声学模型来以第一语言识别单位产生音频信号的识别结果,并且通过使用被提供按照第一语言识别单位的音频信号的识别结果的第二声学模型来以第二语言识别单位产生音频信号的第一识别结果。
6.如权利要求1所述的语音识别设备,其中,第一识别结果和第二识别结果包括关于第一语言识别单位和第二语言识别单位的各自概率或状态的信息。
7.如权利要求1所述的语音识别设备,其中,组合器将第一识别结果和第二识别结果输入到统一模型中,统一模型的结果是最终识别结果。
8.如权利要求7所述的语音识别设备,其中,在同一神经网络中表示第一识别器、第二识别器和统一模型,神经网络被配置为将神经网络的表示声学模型的输出的节点和神经网络的表示语言模型的输出的节点连接到神经网络的表示统一模型的输入的各节点。
9.如权利要求8所述的语音识别设备,其中,神经网络被配置为将神经网络的表示提供最终识别结果的统一模型的输出的节点连接到神经网络的表示语言模型的输入的节点。
10.如权利要求9所述的语音识别设备,其中,神经网络的表示统一模型的输出的节点的数量取决于神经网络的表示语言模型的输入的节点的数量。
11.如权利要求9所述的语音识别设备,其中,神经网络被配置为已基于包括反向传播学习算法的学习算法在学习处理中被训练。
12.如权利要求7所述的语音识别设备,其中,神经网络被配置为已使用训练数据在学习处理中被训练,其中,学习处理包括同时训练声学模型、语言模型和统一模型。
13.如权利要求1所述的语音识别设备,其中,第一识别器基于注意机制执行基于神经网络的解码以确定以第一语言识别单位的第一识别结果。
14.一种语音识别方法,包括:
通过使用声学模型以第一语言识别单位产生音频信号的第一识别结果;
通过使用语言模型来以第二语言识别单位产生音频信号的第二识别结果;
组合第一识别结果和第二识别结果从而以第二语言识别单位产生音频信号的最终识别结果;以及
在语言模型中反映最终识别结果。
15.如权利要求14所述的语音识别方法,其中,第一语言识别单位是与第二语言识别单位相同的语言单位类型。
16.如权利要求14所述的语音识别方法,其中,所述产生第一识别结果的步骤包括:通过使用第一声学模型来以第一语言识别单位产生音频信号的识别结果并且通过使用被提供按照第一语言识别单位的音频信号的识别结果的第二声学模型来以第二语言识别单位产生音频信号的第一识别结果。
17.如权利要求14所述的语音识别方法,其中,第一识别结果和第二识别结果包括关于第一语言识别单位和第二语言识别单位的各自概率或状态的信息。
18.如权利要求14所述的语音识别方法,其中,所述产生最终识别结果的步骤包括:将第一识别结果和第二识别结果输入到统一模型中,统一模型的结果是最终识别结果。
19.如权利要求18所述的语音识别方法,其中,在同一神经网络中表示声学模型、语言模型和统一模型,神经网络被配置为将神经网络的表示声学模型的输出的节点和神经网络的表示语言模型的输出的节点连接到神经网络的表示统一模型的输入的各节点。
20.如权利要求19所述的语音识别方法,其中,神经网络被配置为将神经网络的表示提供最终识别结果的统一模型的输出的节点连接到神经网络的表示语言模型的输入的节点。
21.如权利要求19所述的语音识别方法,其中,神经网络的表示统一模型的输出的节点的数量取决于神经网络的表示语言模型的输入的节点的数量。
22.如权利要求19所述的语音识别方法,其中,神经网络被配置为已基于包括反向传播学习算法的学习算法在学习处理中被训练。
23.如权利要求18所述的语音识别方法,其中,神经网络被配置为已使用训练数据在学习处理中被训练,其中,学习处理包括同时训练声学模型、语言模型和统一模型。
24.如权利要求18所述的语音识别方法,还包括:在产生第一识别结果和产生第二识别结果之前,使用训练数据在学习处理中同时训练声学模型、语言模型和统一模型。
25.如权利要求14所述的语音识别方法,其中,产生第一识别结果的步骤包括:基于注意机制执行基于神经网络的解码以确定第一识别结果。
26.一种语音识别设备,包括:
第一识别器,被配置为通过使用第一声学模型来以第一语言识别单位产生音频信号的识别结果并且通过使用被提供按照第一语言识别单位的音频信号的识别结果的第二声学模型来以第二语言识别单位产生第一识别结果;
第二识别器,被配置为通过使用语言模型来以第二语言识别单位产生第二识别结果;和
组合器,被配置为组合第一识别结果和第二识别结果以产生音频信号的最终识别结果。
27.如权利要求26所述的语音识别设备,其中,组合器将第一识别结果和第二识别结果输入到统一模型中,统一模型的结果是最终识别结果。
28.如权利要求27所述的语音识别设备,其中,在同一神经网络中表示第一识别器、第二识别器和统一模型,神经网络被配置为将神经网络的表示第二声学模型的输出的节点和神经网络的表示语言模型的输出的节点连接到神经网络的表示统一模型的输入的各节点。
29.一种语音识别系统,包括:
第一识别器,被配置为使用第一语言识别单位和声学模型产生音频信号的第一识别结果;
第二识别器,被配置为通过使用语言模型来以第二语言识别单位产生音频信号的第二识别结果;和
组合器,被配置为使用被配置为实现统一模型的神经网络组合第一识别结果和第二识别结果,统一模型以第二语言识别单位产生音频信号的最终识别结果并提供最终识别结果以反映在语言模型中。
30.如权利要求29所述的语音识别系统,其中,声学模型和语言模型是使用独立训练处理预先训练的模型,并且统一模型是使用使用训练数据与预先训练的声学模型和语言模型并将最终识别结果反映在语言模型中以进一步训练言语模型的训练处理训练的模型。
31.一种语音识别设备,包括:
语音接收器,被配置为捕获用户的音频并且基于捕获的音频产生音频信号;
包括一个或多个处理器中的第一处理器的语音识别器,被配置为将考虑音频信号的发音的声学模型和考虑音频信号的语言单位的连接性的语言模型的结果提供给统一模型,并且输出统一模型的结果作为音频信号的最终识别结果;和
所述一个或多个处理器中的第二处理器,被配置为执行预定操作并且基于输出的最终识别结果执行所述预定操作中的特定操作。
32.如权利要求31所述的语音识别设备,其中,语音识别器还被配置为在语言模型中反映最终识别结果,以训练语言模型。
33.如权利要求31所述的语音识别设备,其中,第一处理器和第二处理器是所述一个或多个处理器中的相同的处理器。
34.如权利要求31所述的语音识别设备,其中,在语音识别器中,在同一神经网络中表示声学模型、语言模型和统一模型,神经网络被配置为已通过使用包括反向传播学习算法的学习算法在学习处理中被训练。
35.如权利要求31所述的语音识别设备,其中,第一处理器被配置为执行下面的至少一项操作:控制通过所述语音识别设备的扬声器以听觉方式或通过所述语音识别设备的显示器以文本格式输出最终识别结果,将最终识别结果翻译成另一语言,以及通过第二处理器处理用于控制所述特定操作的执行的命令。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2015-0117422 | 2015-08-20 | ||
KR1020150117422A KR102386854B1 (ko) | 2015-08-20 | 2015-08-20 | 통합 모델 기반의 음성 인식 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106469552A true CN106469552A (zh) | 2017-03-01 |
CN106469552B CN106469552B (zh) | 2021-11-30 |
Family
ID=56683812
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610685199.5A Active CN106469552B (zh) | 2015-08-20 | 2016-08-18 | 语音识别设备和方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US9881615B2 (zh) |
EP (1) | EP3133595B1 (zh) |
JP (1) | JP6802005B2 (zh) |
KR (1) | KR102386854B1 (zh) |
CN (1) | CN106469552B (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108198552A (zh) * | 2018-01-18 | 2018-06-22 | 深圳市大疆创新科技有限公司 | 一种语音控制方法及视频眼镜 |
CN108630192A (zh) * | 2017-03-16 | 2018-10-09 | 清华大学 | 一种非汉语语音识别方法、系统及其构造方法 |
CN109215637A (zh) * | 2017-06-30 | 2019-01-15 | 三星Sds株式会社 | 语音识别方法 |
CN109410924A (zh) * | 2017-08-14 | 2019-03-01 | 三星电子株式会社 | 识别方法和识别设备 |
CN110473526A (zh) * | 2018-05-11 | 2019-11-19 | 三星电子株式会社 | 对语音识别模型进行个性化的装置和方法及电子装置 |
CN110619869A (zh) * | 2019-11-06 | 2019-12-27 | 百度在线网络技术(北京)有限公司 | 用于训练混合语言识别模型的方法和装置 |
CN111063338A (zh) * | 2018-09-29 | 2020-04-24 | 阿里巴巴集团控股有限公司 | 音频信号识别方法、装置、设备、系统和存储介质 |
CN111081230A (zh) * | 2018-10-19 | 2020-04-28 | 三星电子株式会社 | 语音识别方法和设备 |
CN111092798A (zh) * | 2019-12-24 | 2020-05-01 | 东华大学 | 一种基于口语理解的可穿戴系统 |
CN111325067A (zh) * | 2018-12-14 | 2020-06-23 | 北京金山云网络技术有限公司 | 违规视频的识别方法、装置及电子设备 |
CN112673421A (zh) * | 2018-11-28 | 2021-04-16 | 谷歌有限责任公司 | 训练和/或使用语言选择模型以自动确定用于口头话语的话音辨识的语言 |
CN112908301A (zh) * | 2021-01-27 | 2021-06-04 | 科大讯飞(上海)科技有限公司 | 一种语音识别方法、装置、存储介质及设备 |
CN113016189A (zh) * | 2018-11-16 | 2021-06-22 | 三星电子株式会社 | 识别音频场景的电子设备和方法 |
CN113016030A (zh) * | 2018-11-06 | 2021-06-22 | 株式会社赛斯特安国际 | 提供语音识别服务的方法及装置 |
CN113223500A (zh) * | 2021-04-12 | 2021-08-06 | 北京百度网讯科技有限公司 | 语音识别方法、训练语音识别模型的方法及对应装置 |
CN113647119A (zh) * | 2019-01-25 | 2021-11-12 | 索诺瓦有限公司 | 用于处理音频信号的信号处理装置、系统和方法 |
CN113782005A (zh) * | 2021-01-18 | 2021-12-10 | 北京沃东天骏信息技术有限公司 | 语音识别方法及装置、存储介质及电子设备 |
Families Citing this family (164)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10255566B2 (en) | 2011-06-03 | 2019-04-09 | Apple Inc. | Generating and processing task items that represent tasks to perform |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
KR20150104615A (ko) | 2013-02-07 | 2015-09-15 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
DE112014003653B4 (de) | 2013-08-06 | 2024-04-18 | Apple Inc. | Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
EP3149728B1 (en) | 2014-05-30 | 2019-01-16 | Apple Inc. | Multi-command single utterance input method |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
KR102365757B1 (ko) * | 2015-09-09 | 2022-02-18 | 삼성전자주식회사 | 인식 장치, 인식 방법 및 협업 처리 장치 |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10229672B1 (en) * | 2015-12-31 | 2019-03-12 | Google Llc | Training acoustic models using connectionist temporal classification |
KR102434604B1 (ko) * | 2016-01-05 | 2022-08-23 | 한국전자통신연구원 | 개인화된 음성 인식을 수행하기 위한 음성 인식 단말, 음성 인식 서버 및 음성 인식 방법 |
US20170229124A1 (en) * | 2016-02-05 | 2017-08-10 | Google Inc. | Re-recognizing speech with external data sources |
US9811314B2 (en) | 2016-02-22 | 2017-11-07 | Sonos, Inc. | Metadata exchange involving a networked playback system and a networked microphone system |
US9947316B2 (en) | 2016-02-22 | 2018-04-17 | Sonos, Inc. | Voice control of a media playback system |
US10095470B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
US9772817B2 (en) | 2016-02-22 | 2017-09-26 | Sonos, Inc. | Room-corrected voice detection |
US9965247B2 (en) | 2016-02-22 | 2018-05-08 | Sonos, Inc. | Voice controlled media playback system based on user profile |
US10264030B2 (en) | 2016-02-22 | 2019-04-16 | Sonos, Inc. | Networked microphone device control |
US9978390B2 (en) | 2016-06-09 | 2018-05-22 | Sonos, Inc. | Dynamic player selection for audio signal processing |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10134399B2 (en) | 2016-07-15 | 2018-11-20 | Sonos, Inc. | Contextualization of voice inputs |
US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US9942678B1 (en) | 2016-09-27 | 2018-04-10 | Sonos, Inc. | Audio playback settings for voice interaction |
US10181323B2 (en) | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10440180B1 (en) | 2017-02-27 | 2019-10-08 | United Services Automobile Association (Usaa) | Learning based metric determination for service sessions |
KR102158766B1 (ko) * | 2017-03-21 | 2020-09-22 | 한국전자통신연구원 | 호출어 검출을 위한 심층 신경망 구축 방법 |
US11270686B2 (en) * | 2017-03-28 | 2022-03-08 | International Business Machines Corporation | Deep language and acoustic modeling convergence and cross training |
CN107103903B (zh) * | 2017-05-05 | 2020-05-29 | 百度在线网络技术(北京)有限公司 | 基于人工智能的声学模型训练方法、装置及存储介质 |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US20180330718A1 (en) * | 2017-05-11 | 2018-11-15 | Mitsubishi Electric Research Laboratories, Inc. | System and Method for End-to-End speech recognition |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770427A1 (en) | 2017-05-12 | 2018-12-20 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
KR102371313B1 (ko) | 2017-05-29 | 2022-03-08 | 삼성전자주식회사 | 사용자 발화를 처리하는 전자 장치 및 그 전자 장치의 제어 방법 |
US10657328B2 (en) * | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
CN107240395B (zh) * | 2017-06-16 | 2020-04-28 | 百度在线网络技术(北京)有限公司 | 一种声学模型训练方法和装置、计算机设备、存储介质 |
KR101970008B1 (ko) * | 2017-06-23 | 2019-04-18 | (주)디노비즈 | 딥러닝 신경망회로에 의한 번역알고리즘을 구비한 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램 및 사용자 장치 |
US10475449B2 (en) | 2017-08-07 | 2019-11-12 | Sonos, Inc. | Wake-word detection suppression |
US10048930B1 (en) | 2017-09-08 | 2018-08-14 | Sonos, Inc. | Dynamic computation of system response volume |
US10531157B1 (en) * | 2017-09-21 | 2020-01-07 | Amazon Technologies, Inc. | Presentation and management of audio and visual content across devices |
US10446165B2 (en) | 2017-09-27 | 2019-10-15 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US10482868B2 (en) | 2017-09-28 | 2019-11-19 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US10621981B2 (en) | 2017-09-28 | 2020-04-14 | Sonos, Inc. | Tone interference cancellation |
US10466962B2 (en) | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
US10672388B2 (en) | 2017-12-15 | 2020-06-02 | Mitsubishi Electric Research Laboratories, Inc. | Method and apparatus for open-vocabulary end-to-end speech recognition |
KR102608469B1 (ko) | 2017-12-22 | 2023-12-01 | 삼성전자주식회사 | 자연어 생성 방법 및 장치 |
US10423727B1 (en) | 2018-01-11 | 2019-09-24 | Wells Fargo Bank, N.A. | Systems and methods for processing nuances in natural language |
CN110444193B (zh) * | 2018-01-31 | 2021-12-14 | 腾讯科技(深圳)有限公司 | 语音关键词的识别方法和装置 |
WO2019152722A1 (en) | 2018-01-31 | 2019-08-08 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
US10600408B1 (en) * | 2018-03-23 | 2020-03-24 | Amazon Technologies, Inc. | Content output management based on speech quality |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US10959029B2 (en) | 2018-05-25 | 2021-03-23 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US10681460B2 (en) | 2018-06-28 | 2020-06-09 | Sonos, Inc. | Systems and methods for associating playback devices with voice assistant services |
US11741398B2 (en) | 2018-08-03 | 2023-08-29 | Samsung Electronics Co., Ltd. | Multi-layered machine learning system to support ensemble learning |
US10461710B1 (en) | 2018-08-28 | 2019-10-29 | Sonos, Inc. | Media playback system with maximum volume setting |
US11076035B2 (en) | 2018-08-28 | 2021-07-27 | Sonos, Inc. | Do not disturb feature for audio notifications |
US10587430B1 (en) | 2018-09-14 | 2020-03-10 | Sonos, Inc. | Networked devices, systems, and methods for associating playback devices based on sound codes |
US11315553B2 (en) * | 2018-09-20 | 2022-04-26 | Samsung Electronics Co., Ltd. | Electronic device and method for providing or obtaining data for training thereof |
US11024331B2 (en) | 2018-09-21 | 2021-06-01 | Sonos, Inc. | Voice detection optimization using sound metadata |
US11100923B2 (en) | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
KR102651413B1 (ko) * | 2018-10-17 | 2024-03-27 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
EP3654249A1 (en) | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
KR20200059703A (ko) * | 2018-11-21 | 2020-05-29 | 삼성전자주식회사 | 음성 인식 방법 및 음성 인식 장치 |
CN111259189B (zh) * | 2018-11-30 | 2023-04-18 | 马上消费金融股份有限公司 | 一种音乐分类方法及装置 |
US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11132989B2 (en) | 2018-12-13 | 2021-09-28 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
US10602268B1 (en) | 2018-12-20 | 2020-03-24 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
CN111369978B (zh) * | 2018-12-26 | 2024-05-17 | 北京搜狗科技发展有限公司 | 一种数据处理方法、装置和用于数据处理的装置 |
CN111429889B (zh) * | 2019-01-08 | 2023-04-28 | 百度在线网络技术(北京)有限公司 | 基于截断注意力的实时语音识别的方法、装置、设备以及计算机可读存储介质 |
US11315556B2 (en) | 2019-02-08 | 2022-04-26 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification |
US10867604B2 (en) | 2019-02-08 | 2020-12-15 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
CN111613215B (zh) * | 2019-02-22 | 2023-06-23 | 浙江大学 | 一种语音识别的方法及其装置 |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
CN109979439B (zh) * | 2019-03-22 | 2021-01-29 | 泰康保险集团股份有限公司 | 基于区块链的语音识别方法、装置、介质及电子设备 |
US11120794B2 (en) | 2019-05-03 | 2021-09-14 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
US11227599B2 (en) | 2019-06-01 | 2022-01-18 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
JP2022534888A (ja) * | 2019-06-04 | 2022-08-04 | グーグル エルエルシー | 2パスエンドツーエンド音声認識 |
US10586540B1 (en) | 2019-06-12 | 2020-03-10 | Sonos, Inc. | Network microphone device with command keyword conditioning |
US11361756B2 (en) | 2019-06-12 | 2022-06-14 | Sonos, Inc. | Conditional wake word eventing based on environment |
US11200894B2 (en) | 2019-06-12 | 2021-12-14 | Sonos, Inc. | Network microphone device with command keyword eventing |
CN112242144A (zh) | 2019-07-17 | 2021-01-19 | 百度在线网络技术(北京)有限公司 | 基于流式注意力模型的语音识别解码方法、装置、设备以及计算机可读存储介质 |
US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
KR20210014949A (ko) | 2019-07-31 | 2021-02-10 | 삼성전자주식회사 | 음성 인식을 위한 인공신경망에서의 디코딩 방법 및 장치 |
US11138975B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11138969B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
KR20210016767A (ko) | 2019-08-05 | 2021-02-17 | 삼성전자주식회사 | 음성 인식 방법 및 음성 인식 장치 |
CN110534095B (zh) * | 2019-08-22 | 2020-10-23 | 百度在线网络技术(北京)有限公司 | 语音识别方法、装置、设备以及计算机可读存储介质 |
US11488406B2 (en) | 2019-09-25 | 2022-11-01 | Apple Inc. | Text detection using global geometry estimators |
KR20210044559A (ko) | 2019-10-15 | 2021-04-23 | 삼성전자주식회사 | 출력 토큰 결정 방법 및 장치 |
CN110738262B (zh) * | 2019-10-16 | 2022-11-11 | 北京市商汤科技开发有限公司 | 文本识别方法和相关产品 |
US11189286B2 (en) | 2019-10-22 | 2021-11-30 | Sonos, Inc. | VAS toggle based on device orientation |
KR20210054800A (ko) * | 2019-11-06 | 2021-05-14 | 엘지전자 주식회사 | 사용자의 음성샘플 수집 |
WO2021107333A1 (ko) * | 2019-11-25 | 2021-06-03 | 광주과학기술원 | 딥러닝 기반 감지상황에서의 음향 사건 탐지 방법 |
KR102358087B1 (ko) * | 2019-11-29 | 2022-02-03 | 광운대학교 산학협력단 | 발달 장애인 음성 인식 점수 산출 장치 및 그 방법 |
US11200900B2 (en) | 2019-12-20 | 2021-12-14 | Sonos, Inc. | Offline voice control |
US11562740B2 (en) | 2020-01-07 | 2023-01-24 | Sonos, Inc. | Voice verification for media playback |
US11308958B2 (en) | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
US11328722B2 (en) * | 2020-02-11 | 2022-05-10 | Spotify Ab | Systems and methods for generating a singular voice audio stream |
US11138979B1 (en) | 2020-03-18 | 2021-10-05 | Sas Institute Inc. | Speech audio pre-processing segmentation |
US11145309B1 (en) * | 2020-03-18 | 2021-10-12 | Sas Institute Inc. | Dynamic model selection in speech-to-text processing |
WO2022198474A1 (en) * | 2021-03-24 | 2022-09-29 | Sas Institute Inc. | Speech-to-analytics framework with support for large n-gram corpora |
US11038934B1 (en) | 2020-05-11 | 2021-06-15 | Apple Inc. | Digital assistant hardware abstraction |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11482224B2 (en) | 2020-05-20 | 2022-10-25 | Sonos, Inc. | Command keywords with input detection windowing |
US11727919B2 (en) | 2020-05-20 | 2023-08-15 | Sonos, Inc. | Memory allocation for keyword spotting engines |
US11308962B2 (en) * | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US11698771B2 (en) | 2020-08-25 | 2023-07-11 | Sonos, Inc. | Vocal guidance engines for playback devices |
KR102368064B1 (ko) * | 2020-08-25 | 2022-02-25 | 서울대학교산학협력단 | 텍스트 기반 사전 학습 모델을 활용한 종단형 음성언어이해 지식 증류를 위한 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체 |
KR102344218B1 (ko) * | 2020-08-26 | 2021-12-28 | 주식회사 카카오엔터프라이즈 | 음성 인식 시스템 및 음성 인식 시스템의 학습 방법 |
US11829720B2 (en) | 2020-09-01 | 2023-11-28 | Apple Inc. | Analysis and validation of language models |
US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
CN112466280B (zh) * | 2020-12-01 | 2021-12-24 | 北京百度网讯科技有限公司 | 语音交互方法、装置、电子设备和可读存储介质 |
US20220254331A1 (en) * | 2021-02-05 | 2022-08-11 | Cambium Assessment, Inc. | Neural network and method for machine learning assisted speech recognition |
CN113205818B (zh) * | 2021-05-24 | 2023-04-18 | 网易有道信息技术(北京)有限公司 | 用于优化语音识别过程的方法、设备和存储介质 |
CN113327603B (zh) * | 2021-06-08 | 2024-05-17 | 广州虎牙科技有限公司 | 语音识别方法、装置、电子设备和计算机可读存储介质 |
CN113450805B (zh) * | 2021-06-24 | 2022-05-17 | 平安科技(深圳)有限公司 | 基于神经网络的自动语音识别方法、设备及可读存储介质 |
US11704502B2 (en) * | 2021-07-21 | 2023-07-18 | Karen Cahill | Two way communication assembly |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5606644A (en) * | 1993-07-22 | 1997-02-25 | Lucent Technologies Inc. | Minimum error rate training of combined string models |
WO2008004666A1 (fr) * | 2006-07-07 | 2008-01-10 | Nec Corporation | Dispositif, procédé et programme de reconnaissance vocale |
CN101158947A (zh) * | 2006-09-22 | 2008-04-09 | 株式会社东芝 | 机器翻译的方法和装置 |
GB0820908D0 (en) * | 2008-11-14 | 2008-12-24 | Toshiba Res Europ Ltd | A speech recognition method and system |
JP5184467B2 (ja) * | 2009-08-31 | 2013-04-17 | 日本放送協会 | 適応化音響モデル生成装置及びプログラム |
CN103262156A (zh) * | 2010-08-27 | 2013-08-21 | 思科技术公司 | 语音识别语言模型 |
CN103544955A (zh) * | 2012-07-13 | 2014-01-29 | 三星电子株式会社 | 识别语音的方法及其电子装置 |
US20140114655A1 (en) * | 2012-10-19 | 2014-04-24 | Sony Computer Entertainment Inc. | Emotion recognition using auditory attention cues extracted from users voice |
US8965763B1 (en) * | 2012-02-02 | 2015-02-24 | Google Inc. | Discriminative language modeling for automatic speech recognition with a weak acoustic model and distributed training |
US20150095026A1 (en) * | 2013-09-27 | 2015-04-02 | Amazon Technologies, Inc. | Speech recognizer with multi-directional decoding |
CN104575497A (zh) * | 2013-10-28 | 2015-04-29 | 中国科学院声学研究所 | 一种声学模型建立方法及基于该模型的语音解码方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1287657A (zh) * | 1998-08-17 | 2001-03-14 | 索尼株式会社 | 声音识别装置和方法、导航装置、便携电话装置以及信息处理装置 |
JP4115723B2 (ja) | 2002-03-18 | 2008-07-09 | 独立行政法人産業技術総合研究所 | 音声入力によるテキスト検索装置 |
US8457959B2 (en) | 2007-03-01 | 2013-06-04 | Edward C. Kaiser | Systems and methods for implicitly interpreting semantically redundant communication modes |
JP4962962B2 (ja) | 2007-09-11 | 2012-06-27 | 独立行政法人情報通信研究機構 | 音声認識装置、自動翻訳装置、音声認識方法、プログラム、及びデータ構造 |
GB2482874B (en) | 2010-08-16 | 2013-06-12 | Toshiba Res Europ Ltd | A speech processing system and method |
US8258560B1 (en) | 2011-02-15 | 2012-09-04 | Aptina Imaging Corporation | Image sensors with stacked photo-diodes |
US9153230B2 (en) * | 2012-10-23 | 2015-10-06 | Google Inc. | Mobile speech recognition hardware accelerator |
US9263036B1 (en) * | 2012-11-29 | 2016-02-16 | Google Inc. | System and method for speech recognition using deep recurrent neural networks |
US9153231B1 (en) * | 2013-03-15 | 2015-10-06 | Amazon Technologies, Inc. | Adaptive neural network speech recognition models |
US9508347B2 (en) * | 2013-07-10 | 2016-11-29 | Tencent Technology (Shenzhen) Company Limited | Method and device for parallel processing in model training |
KR101483947B1 (ko) | 2013-10-25 | 2015-01-19 | 에스케이텔레콤 주식회사 | 핵심어에서의 음소 오류 결과를 고려한 음향 모델 변별 학습을 위한 장치 및 이를 위한 방법이 기록된 컴퓨터 판독 가능한 기록매체 |
US9620145B2 (en) * | 2013-11-01 | 2017-04-11 | Google Inc. | Context-dependent state tying using a neural network |
JP5777178B2 (ja) * | 2013-11-27 | 2015-09-09 | 国立研究開発法人情報通信研究機構 | 統計的音響モデルの適応方法、統計的音響モデルの適応に適した音響モデルの学習方法、ディープ・ニューラル・ネットワークを構築するためのパラメータを記憶した記憶媒体、及び統計的音響モデルの適応を行なうためのコンピュータプログラム |
US9721562B2 (en) * | 2013-12-17 | 2017-08-01 | Google Inc. | Generating representations of acoustic sequences |
US9824684B2 (en) * | 2014-11-13 | 2017-11-21 | Microsoft Technology Licensing, Llc | Prediction-based sequence recognition |
US10540957B2 (en) * | 2014-12-15 | 2020-01-21 | Baidu Usa Llc | Systems and methods for speech transcription |
-
2015
- 2015-08-20 KR KR1020150117422A patent/KR102386854B1/ko active IP Right Grant
-
2016
- 2016-07-08 US US15/205,515 patent/US9881615B2/en active Active
- 2016-08-12 EP EP16183908.9A patent/EP3133595B1/en active Active
- 2016-08-18 CN CN201610685199.5A patent/CN106469552B/zh active Active
- 2016-08-19 JP JP2016161319A patent/JP6802005B2/ja active Active
-
2018
- 2018-01-05 US US15/862,935 patent/US10388284B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5606644A (en) * | 1993-07-22 | 1997-02-25 | Lucent Technologies Inc. | Minimum error rate training of combined string models |
WO2008004666A1 (fr) * | 2006-07-07 | 2008-01-10 | Nec Corporation | Dispositif, procédé et programme de reconnaissance vocale |
CN101158947A (zh) * | 2006-09-22 | 2008-04-09 | 株式会社东芝 | 机器翻译的方法和装置 |
GB0820908D0 (en) * | 2008-11-14 | 2008-12-24 | Toshiba Res Europ Ltd | A speech recognition method and system |
JP5184467B2 (ja) * | 2009-08-31 | 2013-04-17 | 日本放送協会 | 適応化音響モデル生成装置及びプログラム |
CN103262156A (zh) * | 2010-08-27 | 2013-08-21 | 思科技术公司 | 语音识别语言模型 |
US8965763B1 (en) * | 2012-02-02 | 2015-02-24 | Google Inc. | Discriminative language modeling for automatic speech recognition with a weak acoustic model and distributed training |
CN103544955A (zh) * | 2012-07-13 | 2014-01-29 | 三星电子株式会社 | 识别语音的方法及其电子装置 |
US20140114655A1 (en) * | 2012-10-19 | 2014-04-24 | Sony Computer Entertainment Inc. | Emotion recognition using auditory attention cues extracted from users voice |
US20150095026A1 (en) * | 2013-09-27 | 2015-04-02 | Amazon Technologies, Inc. | Speech recognizer with multi-directional decoding |
CN104575497A (zh) * | 2013-10-28 | 2015-04-29 | 中国科学院声学研究所 | 一种声学模型建立方法及基于该模型的语音解码方法 |
Non-Patent Citations (3)
Title |
---|
JAN CHOROWSKI: ""Attention-Based Models for Speech Recognition"", 《HTTPS://ARXIV.ORG/ABS/1506.07503》 * |
M. LEHR 等: ""Discriminatively estimated joint acoustic, duration, and language model for speech recognition"", 《 2010 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING》 * |
周艳萍: ""机器人嵌入式语音识别系统设计与开发"", 《中国优秀硕士学位论文全文数据库(信息科技辑)》 * |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108630192A (zh) * | 2017-03-16 | 2018-10-09 | 清华大学 | 一种非汉语语音识别方法、系统及其构造方法 |
CN108630192B (zh) * | 2017-03-16 | 2020-06-26 | 清华大学 | 一种非汉语语音识别方法、系统及其构造方法 |
CN109215637A (zh) * | 2017-06-30 | 2019-01-15 | 三星Sds株式会社 | 语音识别方法 |
CN109215637B (zh) * | 2017-06-30 | 2023-09-01 | 三星Sds株式会社 | 语音识别方法 |
CN109410924B (zh) * | 2017-08-14 | 2023-09-08 | 三星电子株式会社 | 识别方法和识别设备 |
CN109410924A (zh) * | 2017-08-14 | 2019-03-01 | 三星电子株式会社 | 识别方法和识别设备 |
CN108198552A (zh) * | 2018-01-18 | 2018-06-22 | 深圳市大疆创新科技有限公司 | 一种语音控制方法及视频眼镜 |
CN108198552B (zh) * | 2018-01-18 | 2021-02-02 | 深圳市大疆创新科技有限公司 | 一种语音控制方法及视频眼镜 |
CN110473526A (zh) * | 2018-05-11 | 2019-11-19 | 三星电子株式会社 | 对语音识别模型进行个性化的装置和方法及电子装置 |
CN111063338B (zh) * | 2018-09-29 | 2023-09-19 | 阿里巴巴集团控股有限公司 | 音频信号识别方法、装置、设备、系统和存储介质 |
CN111063338A (zh) * | 2018-09-29 | 2020-04-24 | 阿里巴巴集团控股有限公司 | 音频信号识别方法、装置、设备、系统和存储介质 |
CN111081230A (zh) * | 2018-10-19 | 2020-04-28 | 三星电子株式会社 | 语音识别方法和设备 |
CN113016030A (zh) * | 2018-11-06 | 2021-06-22 | 株式会社赛斯特安国际 | 提供语音识别服务的方法及装置 |
CN113016189B (zh) * | 2018-11-16 | 2023-12-19 | 三星电子株式会社 | 识别音频场景的电子设备和方法 |
CN113016189A (zh) * | 2018-11-16 | 2021-06-22 | 三星电子株式会社 | 识别音频场景的电子设备和方法 |
CN112673421A (zh) * | 2018-11-28 | 2021-04-16 | 谷歌有限责任公司 | 训练和/或使用语言选择模型以自动确定用于口头话语的话音辨识的语言 |
CN111325067B (zh) * | 2018-12-14 | 2023-07-07 | 北京金山云网络技术有限公司 | 违规视频的识别方法、装置及电子设备 |
CN111325067A (zh) * | 2018-12-14 | 2020-06-23 | 北京金山云网络技术有限公司 | 违规视频的识别方法、装置及电子设备 |
CN113647119A (zh) * | 2019-01-25 | 2021-11-12 | 索诺瓦有限公司 | 用于处理音频信号的信号处理装置、系统和方法 |
CN110619869B (zh) * | 2019-11-06 | 2021-12-24 | 百度在线网络技术(北京)有限公司 | 用于训练混合语言识别模型的方法和装置 |
CN110619869A (zh) * | 2019-11-06 | 2019-12-27 | 百度在线网络技术(北京)有限公司 | 用于训练混合语言识别模型的方法和装置 |
CN111092798B (zh) * | 2019-12-24 | 2021-06-11 | 东华大学 | 一种基于口语理解的可穿戴系统 |
CN111092798A (zh) * | 2019-12-24 | 2020-05-01 | 东华大学 | 一种基于口语理解的可穿戴系统 |
CN113782005A (zh) * | 2021-01-18 | 2021-12-10 | 北京沃东天骏信息技术有限公司 | 语音识别方法及装置、存储介质及电子设备 |
CN113782005B (zh) * | 2021-01-18 | 2024-03-01 | 北京沃东天骏信息技术有限公司 | 语音识别方法及装置、存储介质及电子设备 |
CN112908301A (zh) * | 2021-01-27 | 2021-06-04 | 科大讯飞(上海)科技有限公司 | 一种语音识别方法、装置、存储介质及设备 |
CN112908301B (zh) * | 2021-01-27 | 2024-06-11 | 科大讯飞(上海)科技有限公司 | 一种语音识别方法、装置、存储介质及设备 |
CN113223500A (zh) * | 2021-04-12 | 2021-08-06 | 北京百度网讯科技有限公司 | 语音识别方法、训练语音识别模型的方法及对应装置 |
Also Published As
Publication number | Publication date |
---|---|
KR102386854B1 (ko) | 2022-04-13 |
US9881615B2 (en) | 2018-01-30 |
KR20170022445A (ko) | 2017-03-02 |
EP3133595A1 (en) | 2017-02-22 |
US20180144749A1 (en) | 2018-05-24 |
US10388284B2 (en) | 2019-08-20 |
JP6802005B2 (ja) | 2020-12-16 |
JP2017040919A (ja) | 2017-02-23 |
EP3133595B1 (en) | 2019-07-03 |
US20170053652A1 (en) | 2017-02-23 |
CN106469552B (zh) | 2021-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106469552A (zh) | 语音识别设备和方法 | |
US10762430B2 (en) | Mechanical turk integrated ide, systems and method | |
US11734375B2 (en) | Automatic navigation of interactive web documents | |
US10803850B2 (en) | Voice generation with predetermined emotion type | |
US20190057081A1 (en) | Method and apparatus for generating natural language | |
CN107590135A (zh) | 自动翻译方法、设备和系统 | |
CN106328127A (zh) | 语音识别设备,语音识别方法和电子装置 | |
US11779270B2 (en) | Systems and methods for training artificially-intelligent classifier | |
CN106560891A (zh) | 使用声学建模的语音识别设备和方法 | |
CN106548774A (zh) | 语音识别的设备和方法以及训练变换参数的设备和方法 | |
US11842278B2 (en) | Object detector trained via self-supervised training on raw and unlabeled videos | |
Wu et al. | Research on business English translation framework based on speech recognition and wireless communication | |
CN114830139A (zh) | 使用模型提供的候选动作训练模型 | |
US20200027364A1 (en) | Utilizing machine learning models to automatically provide connected learning support and services | |
Desjardins et al. | Voices and voids: Subverting voice assistant systems through performative experiments | |
KR20190105175A (ko) | 전자 장치 및 이의 자연어 생성 방법 | |
Goldstein et al. | Assessment and intervention for bilingual children with phonological disorders | |
US20220139245A1 (en) | Using personalized knowledge patterns to generate personalized learning-based guidance | |
CN116615731A (zh) | 用于知识蒸馏框架的混合数据增强 | |
Huang et al. | “Not There Yet”: Feasibility and Challenges of Mobile Sound Recognition to Support Deaf and Hard-of-Hearing People | |
Cutugno et al. | The chrome manifesto: integrating multimodal data into cultural heritage resources | |
CN115116443A (zh) | 语音识别模型的训练方法、装置、电子设备及存储介质 | |
Wang et al. | The Application of Cloud Computing Intelligent Optimization Algorithm in the Investigation of College Students’ English Autonomous Learning under the Multimedia Teaching Mode | |
Singh | Analysis of Currently Open and Closed-source Software for the Creation of an AI Personal Assistant | |
Rangan et al. | Thinking with an Accent |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |