CN111583909A - 一种语音识别方法、装置、设备及存储介质 - Google Patents
一种语音识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN111583909A CN111583909A CN202010418728.1A CN202010418728A CN111583909A CN 111583909 A CN111583909 A CN 111583909A CN 202010418728 A CN202010418728 A CN 202010418728A CN 111583909 A CN111583909 A CN 111583909A
- Authority
- CN
- China
- Prior art keywords
- hot word
- audio
- current decoding
- recognized
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 238000003860 storage Methods 0.000 title claims abstract description 8
- 230000008569 process Effects 0.000 claims abstract description 40
- 239000013598 vector Substances 0.000 claims description 106
- 230000015654 memory Effects 0.000 claims description 29
- 238000012545 processing Methods 0.000 claims description 12
- 230000003993 interaction Effects 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 7
- 230000002452 interceptive effect Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 2
- 238000012549 training Methods 0.000 description 48
- 239000011159 matrix material Substances 0.000 description 17
- 230000007246 mechanism Effects 0.000 description 14
- 230000003068 static effect Effects 0.000 description 13
- 230000000694 effects Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 239000000126 substance Substances 0.000 description 7
- 230000002457 bidirectional effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 241000135164 Timea Species 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- BULVZWIRKLYCBC-UHFFFAOYSA-N phorate Chemical compound CCOP(=S)(OCC)SCSCC BULVZWIRKLYCBC-UHFFFAOYSA-N 0.000 description 2
- 241000220433 Albizia Species 0.000 description 1
- 206010068829 Overconfidence Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/197—Probabilistic grammars, e.g. word n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Machine Translation (AREA)
Abstract
本申请提供了一种语音识别方法、装置、设备及存储介质,本申请配置有热词库,在对待识别语音进行识别过程,基于待识别语音及热词库,确定当前解码时刻所需的音频相关特征,由于音频相关特征确定过程利用了热词信息,如果当前解码时刻的语音片段中包含某个热词,则确定的音频相关特征中能够包含该热词对应的完整音频信息,进一步基于该音频相关特征从热词库中确定当前解码时刻所需的热词相关特征,热词相关特征能够准确表示当前解码时刻的语音片段是否包含热词以及具体包含哪个热词,最终基于音频相关特征和热词相关特征,确定待识别语音在当前解码时刻的识别结果,该识别结果对热词的识别更加准确。
Description
技术领域
本申请涉及语音识别技术领域,尤其涉及一种语音识别方法、装置、设备及存储介质。
背景技术
语音识别即对输入的语音数据进行识别,已得到语音对应的识别文本内容。随着深度学习序列建模的发展,端到端建模方法成为语音识别领域的研究热点。
如图1示例的现有基于注意力机制的端到端语音识别框架,能够对输入语音进行编码,并基于注意力机制对编码音频进行处理,经过解码、分类得到输入语音对应的识别文本。这种语音识别方法对训练数据的需求量很大,导致训练后的模型出现过度自信(over-confidence)的问题,表现在模型上就是计算出的后验概率得分很尖锐,也即对于高频词的识别效果很好,得分很高;但是对于低频词的识别效果很差,得分很低。对于一些热词如,专业名词、专业术语、日常社会活动中产生的实时热点词汇,相对于模型来说就属于低频词,对于此类热词模型的识别效果很差。
发明内容
有鉴于此,本申请提供了一种语音识别方法、装置、设备及存储介质,用以解决现有语音识别方案对热词识别效果差的问题,其技术方案如下:
一种语音识别方法,包括:
获取待识别语音以及配置的热词库;
基于所述待识别语音及所述热词库,确定当前解码时刻所需的音频相关特征;
基于所述音频相关特征,从所述热词库中确定当前解码时刻所需的热词相关特征;
基于所述音频相关特征和所述热词相关特征,确定所述待识别语音在当前解码时刻的识别结果。
优选地,所述基于所述待识别语音及所述热词库,确定当前解码时刻所需的音频相关特征,包括:
获取当前解码时刻之前的已解码结果信息;
基于所述已解码结果信息及所热词库,从所述待识别语音中确定当前解码时刻所需的音频相关特征。
优选地,所述基于所述待识别语音及所述热词库,确定当前解码时刻所需的音频相关特征;基于所述音频相关特征,从所述热词库中确定当前解码时刻所需的热词相关特征;基于所述音频相关特征和所述热词相关特征,确定所述待识别语音在当前解码时刻的识别结果的过程,包括:
利用预先训练的语音识别模型处理所述待识别语音及所述热词库,得到语音识别模型输出的待识别语音的识别结果,其中:
所述语音识别模型具备接收并处理待识别语音及热词库,以输出待识别语音的识别结果的能力。
优选地,所述语音识别模型包括音频编码器模块、热词编码器模块、联合注意力模块、解码器模块及分类器模块;
所述音频编码器模块对所述待识别语音进行编码,得到音频编码结果;所述热词编码器模块对所述热词库中各热词进行编码,得到热词编码结果;
所述联合注意力模块接收并处理所述音频编码结果和所述热词编码结果,得到当前解码时刻所需的拼接特征,所述拼接特征包括音频相关特征和热词相关特征;
所述解码器模块接收并处理所述当前解码时刻所需的拼接特征,得到解码器模块当前解码时刻的输出特征;
所述分类器模块利用解码器模块当前解码时刻的输出特征,确定待识别语音在当前解码时刻的识别结果。
优选地,所述联合注意力模块包括:
第一注意力模型和第二注意力模型;
所述第一注意力模型基于解码器模块在当前解码时刻输出的表示已解码结果信息的状态向量,以及所述热词编码结果,从所述音频编码结果中确定当前解码时刻所需的音频相关特征;
所述第二注意力模型基于所述音频相关特征,从所述热词编码结果中确定当前解码时刻所需的热词相关特征;
由所述音频相关特征和所述热词相关特征组合成当前解码时刻所需的拼接特征。
优选地,所述第一注意力模型基于解码器模块在当前解码时刻输出的表示已解码结果信息的状态向量,以及所述热词编码结果,从所述音频编码结果中确定当前解码时刻所需的音频相关特征,包括:
将所述状态向量、所述热词编码结果作为第一注意力模型的输入,由所述第一注意力模型从所述音频编码结果中确定当前解码时刻所需的音频相关特征。
优选地,所述第二注意力模型基于所述音频相关特征,从所述热词编码结果中确定当前解码时刻所需的热词相关特征,包括:
将所述音频相关特征作为第二注意力模型的输入,由所述第二注意力模型从所述热词编码结果中确定当前解码时刻所需的热词相关特征。
优选地,所述分类器模块的分类节点包括固定的常用字符节点和可动态扩展的热词节点;
分类器模块利用解码器模块当前解码时刻的输出特征,确定待识别语音在当前解码时刻的识别结果,包括:
分类器模块利用解码器模块在当前解码时刻的输出特征,确定各所述常用字符节点的概率得分和各所述热词节点的概率得分;
根据各所述常用字符节点的概率得分和各所述热词节点的概率得分,确定待识别语音在当前解码时刻的识别结果。
优选地,所述可动态扩展的热词节点,与所述热词库中的热词一一对应。
优选地,所述获取待识别语音以及配置的热词库,包括:
获取待识别语音,并确定所述待识别语音的会话场景;
获取与所述会话场景相关的热词库。
优选地,所述获取待识别语音以及配置的热词库,包括:
获取人机交互场景下,用户所产出的语音,作为待识别语音;
获取预先配置的在人机交互场景下,由用户语音操控指令中的操作关键词组成的热词库。
优选地,还包括:
基于所述待识别语音的识别结果,确定与所述识别结果相匹配的交互响应,并输出该交互响应。
一种语音识别装置,包括:
数据获取单元,用于获取待识别语音以及配置的热词库;
音频相关特征获取单元,用于基于所述待识别语音及所述热词库,确定当前解码时刻所需的音频相关特征;
热词相关特征获取单元,用于基于所述音频相关特征,从所述热词库中确定当前解码时刻所需的热词相关特征;
识别结果获取单元,用于基于所述音频相关特征和所述热词相关特征,确定所述待识别语音在当前解码时刻的识别结果。
一种语音识别设备,包括:存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如上所述的语音识别方法的各个步骤。
一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现如上的语音识别方法的各个步骤。
经由上述方案可知,本申请提供的语音识别方法,配置有热词库,也即待识别语音中可能存在的热词,进而在对待识别语音进行识别过程,基于待识别语音及热词库,确定当前解码时刻所需的音频相关特征,由于音频相关特征确定过程利用了热词信息,如果当前解码时刻的语音片段中包含某个热词,则确定的音频相关特征中能够包含该热词对应的完整音频信息而非局部信息,进一步基于该音频相关特征从热词库中确定当前解码时刻所需的热词相关特征,由于音频相关特征中能够包含热词对应的完整的音频信息,因此确定的热词相关特征能够准确表示当前解码时刻的语音片段是否包含热词以及具体包含哪个热词,最终基于音频相关特征和热词相关特征,确定待识别语音在当前解码时刻的识别结果,该识别结果对热词的识别更加准确。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1示例的现有基于注意力机制的端到端语音识别框架;
图2示例了一种改进的基于注意力机制的端到端语音识别框架;
图3为本申请实施例提供的一种语音识别方法流程图;
图4为本申请实施例提供的另一种改进的基于注意力机制的端到端语音识别框架;
图5为本申请实施例示例的一种一层双向长短时记忆层的热词编码器对热词的编码示意图;
图6为本申请实施例提供的一种语音识别装置结构示意图;
图7为本申请实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了解决现有语音识别方法对热词识别效果差的问题,本案发明人进行了研究,首先想到的就是对热词得分进行激励,也即对于语音识别模型输出的各候选识别字符中,属于热词的候选识别字符的得分进行激励,以达到提高热词识别率的目的。
但是,进一步研究发现,对于端到端的语音识别模型,其对于热词这种低频词的得分过低,导致热词在解码过中很容易被裁减掉,恶劣的情况下甚至没有被激励的机会,从而无法真正实现对热词提升识别度的目的。
为此,发明人进一步提出了一种在模型层面提高热词得分概率的方案,通过修改语音识别模型的结构来实现。修改后的语音识别模型的示意框架如图2所示。
相比于现有语音识别模型,增加了热词编码器模块Bias encoder,其能够对热词进行编码。进一步,利用解码器Decoder的状态信息通过注意力机制分别对音频编码特征和热词编码特征进行操作,得到解码所需的音频相关特征和热词相关特征。进而基于音频相关特征和热词相关特征进行解码、分类得到输入语音对应的识别文本。
这种方案由于从模型结构层面即考虑了热词,因而相比于直接对模型输出的热词得分进行激励的方式,效果更好。
但是,经过发明人深入研究发现,不同热词的长度可能不一样,要准确地确定音频中是否包含热词、包含哪个热词,不同热词所需的信息是不一样的。而解码器的状态信息只包含已解码结果的历史文本和历史音频信息,单纯用一个只包含历史信息的状态信息作为注意力机制的查询项,对音频编码特征执行注意力操作所得到的音频相关特征并不一定是完整的,同时对热词编码特征执行注意力操作所得到的热词相关特征也不一定是准确的,进而导致最终的热词识别准确度也不是特别高。
为此,发明人进一步提出了另一种改进方案,来解决上述问题。接下来,对本案提出的语音识别方法进行详细介绍。
可以理解的是,本案的语音识别方法可以应用于任何需要进行语音识别的场景下。语音识别方法可以基于电子设备实现,如通过手机、翻译机、电脑、服务器等具备数据处理能力的设备。
接下来,结合附图3示例的流程,对本案的语音识别方法进行介绍,详细包括如下步骤:
步骤S100、获取待识别语音以及配置的热词库。
具体的,对于本次语音识别任务所需要识别的语音作为待识别语音。在语音识别之前,可以获取配置的热词库,热词库中存储有多个热词。可以理解的是,热词库可以是由与语音识别任务相关的热词组成,如将待识别语音中所有可能存在的热词,如专业术语等组成热词库。
此外,还可以直接调用已有的一些热词库作为本实施例中配置的热词库。步骤S110、基于所述待识别语音及所述热词库,确定当前解码时刻所需的音频相关特征。
具体的,为了提高语音识别对热词的识别度,当待解码字符为一个潜在的热词时,需要获取该潜在的热词的完整音频信息。因此,本步骤中,为了确保得到的当前解码时刻所需的音频相关特征中包含有潜在热词的完整音频信息,将热词库考虑进来,也即让热词库参与到确定音频相关特征的计算过程中,起到检测当前解码时刻的待解码字符是否为热词的功能。
最终得到的音频相关特征能够包含当前待解码字符的完整音频信息。
步骤S120、基于所述音频相关特征,从所述热词库中确定当前解码时刻所需的热词相关特征。
上一步骤中已经确定了当前解码时刻所需的音频相关特征,因此可以基于该音频相关特征,从热词库中确定出当前解码时刻所需的热词相关特征,该热词相关特征表示了当前解码时刻所可能出现的热词内容。
可以理解的是,由于音频相关特征能够包含当前待解码字符的完整音频信息,基于此从热词库中确定的当前解码时刻所需的热词相关特征,其更加能够适应热词长度不一的情况。
步骤S130、基于所述音频相关特征和所述热词相关特征,确定所述待识别语音在当前解码时刻的识别结果。
在得到当前解码时刻所需的音频相关特征和热词相关特征之后,可以基于二者对当前时刻的待解码字符进行解码识别,从而确定待识别语音在当前解码时刻的识别结果。
本申请实施例提供的语音识别方法,配置有热词库,也即待识别语音中可能存在的热词,进而在对待识别语音进行识别过程,基于待识别语音及热词库,确定当前解码时刻所需的音频相关特征,由于音频相关特征确定过程利用了热词信息,如果当前解码时刻的语音片段中包含某个热词,则确定的音频相关特征中能够包含该热词对应的完整音频信息而非局部信息,进一步基于该音频相关特征从热词库中确定当前解码时刻所需的热词相关特征,由于音频相关特征中能够包含热词对应的完整的音频信息,因此确定的热词相关特征能够准确表示当前解码时刻的语音片段是否包含热词以及具体包含哪个热词,最终基于音频相关特征和热词相关特征,确定待识别语音在当前解码时刻的识别结果,该识别结果对热词的识别更加准确。
本申请实施例介绍了上述步骤S100,获取待识别语音以及配置的热词库的实现方式。
可选的,在获取到待识别语音后,可以确定待识别语音的会话场景。进一步,可以获取与该会话场景相关的热词库,作为本案中配置的热词库。
可以理解的是,不同的会话场景下产出的待识别语音中,包含的热词也可能不同,因此本申请可以预先确定与各会话场景相对应的热词库,进而在确定了待识别语音的会话场景后,获取对应的热词库。
另一种可选的方式,当本申请方案应用于人机交互场景下对语音进行识别时:
可以理解的是,在人机交互场景下,用户与机器进行交互,会涉及到用户语音操控指令,也即用户向机器下发语音操控指令,以实现预定的目的。例如,用户语音控制智能电视实现切换台、增减音量等相关操作,再比如,用户语音控制智能机器人实现播放歌曲、查询天气、执行预定动作等。
在此基础上,若要使得机器能够正确响应用户,则需要机器能够准确识别语音语音操控指令。为此,本申请可以将用户语音操控指令中的操作关键词组成热词库。
基于此,本申请实施例可以获取人机交互场景下,用户所产出的语音,作为待识别语音,并获取预先配置的在人机交互场景下,由用户语音操控指令中的操作关键词组成的热词库。
在上述基础上,按照本申请方案确定了待识别语音的识别结果后,可以基于该识别结果,确定与该识别结果相匹配的交互响应,并输出该交互响应。
按照本实施例介绍的方案,能够准确识别人机交互过程中用户的操控指令,从而使得机器能够基于正确的识别结果做出匹配的交互响应。
本申请的另一个实施例中,对上述步骤S110,基于所述待识别语音及所述热词库,确定当前解码时刻所需的音频相关特征。
具体的,待识别语音的各帧语音之间存在上下文关系,为了确定当前解码时刻所需的音频相关特征,本实施例中可以先获取当前解码时刻之前的已解码结果信息。已解码结果信息可以包含已解码字符的文本信息、音频信息。
此外,为了提高语音识别对热词的识别度,当待解码字符为一个潜在的热词时,需要获取该潜在的热词的完整音频信息。因此,本步骤中,为了确保得到的当前解码时刻所需的音频相关特征中包含有潜在热词的完整音频信息,将热词库考虑进来,也即让热词库参与到确定音频相关特征的计算过程中,起到检测当前解码时刻的待解码字符是否为热词的功能。在此基础上,后续可以基于该音频相关特征,从热词库中确定当前解码时刻所需的热词相关特征,其更加能够适应热词长度不一的情况。
由上可知,步骤S110确定音频相关特征的过程可以包括:
S1、获取当前解码时刻之前的已解码结果信息。
S2、基于已解码结果信息及热词库,从待识别语音中确定当前解码时刻所需的音频相关特征。
具体的,本实施例中可以先确定待识别语音的音频特征,其音频特征可以选用滤波器组FilterBank特征、梅尔频率倒谱系数MFCC特征、感知线性预测PLP特征等。进一步的,基于已解码结果信息及热词库,从待识别语音的音频特征中确定当前解码时刻所需的音频相关特征。
其中,音频相关特征携带有当前解码时刻的待解码字符的完整音频信息。在此基础上,才能够为后续准确识别热词提供足够的音频相关特征。
在本申请的另一个实施例中,介绍了上述实施例中步骤S110-S130,确定当前解码时刻所需的音频相关特征、热词相关特征,并基于此确定待识别语音在当前解码时刻的识别结果的一种可选实现方式。
具体的,可以通过语音识别模型来实现。
当然,本实施例中提供的语音识别模型和传统的语音识别模型不同,本实施例中的语音识别模型被配置为,具备接收并处理待识别语音及热词库,以输出待识别语音的识别结果的能力。
具体的,语音识别模型可以具备基于当前解码时刻之前的已解码结果信息及热词库,从待识别语音中确定当前解码时刻所需的音频相关特征,并基于音频相关特征从热词库中确定当前解码时刻所需的热词相关特征,基于所述音频相关特征和所述热词相关特征,确定待识别语音在当前解码时刻的识别结果的能力。
在此基础上,本实施例中可以将利用语音识别模型处理前述步骤S100中获取的待识别语音及热词库,则语音识别模型即可输出待识别语音的识别结果。
具体的,可以将待识别语音的音频特征及热词库输入语音识别模型,得到模型输出的待识别语音的识别结果。
接下来,结合图4,对语音识别模型的框架进行介绍。
语音识别模型可以包括音频编码器模块、热词编码器模块、联合注意力模块、解码器模块及分类器模块。由各个模块配合实现对接收的热词库中各热词和待识别语音的音频特征进行处理,并最终输出识别结果的过程。接下来分别对各个模块进行介绍。
为了便于说明,定义待识别语音的音频特征为X=[x1,x2,...,xk],其中,xk表示第k帧音频特征向量,k为待识别语音的总语音帧数目。
1、音频编码器模块:
音频编码器模块对待识别语音进行编码,得到音频编码结果。
具体的,音频编码器模块可以对待识别语音的音频特征X进行编码,得到编码后由每帧语音的音频特征向量组成的音频特征向量序列。
其中,编码后得到的音频特征向量序列表示为:
音频编码器模块可以包含为一层或多层编码层,编码层可以采用单向或双向长短时记忆神经网络中长短时记忆层或卷积神经网络的卷积层,具体采用哪种结构可以根据应用需求确定。如对于有实时性要求的语音识别可以使用3~5层的单向长短时记忆层,对于没有实时性要求的语音识别可以使用3~5层的双向长短时记忆层。其中,实时性要求指的是边说边识别,而不是等语音说完了才一次性出识别结果。
2、热词编码器模块:
热词编码器模块对热词库中各热词进行编码,得到热词编码结果。
具体的,热词编码器模块可以对热词库中每个热词进行独立编码,得到由各热词独立编码后的各热词特征向量组成的热词特征向量序列。
定义热词库中共有N+1个热词:
Z=[z0,z1,...,zN]
其中,zN为第N个热词。其中,z0是一个特殊的热词“<no-bias>”,其表示不存在热词,当解码过程选中的热词为z0时,表示当前解码时刻的待解码字符不是任何一个热词,用于处理正在识别的语音片段不是热词的情况。
热词的总个数为N+1,则热词编码器对每个热词独立编码,得到的热词特征向量序列表示为:
可以理解的是,不同热词包含的字符数可能不一样,比如定义“中科大”和“科大讯飞”都是热词,则包含的字符数分别为3和4。
为了便于模型处理,本实施例中可以将变长的热词,统一编码成相同维度的向量。具体的,热词编码器模块可以按照设定的维度,将各个热词分别独立编码成相同维度的热词特征向量。
热词编码器模块可以包含为一层或多层编码层,编码层可以采用单向或双向长短时记忆神经网络中长短时记忆层或卷积神经网络的卷积层。通常来讲,能同时看到左右全部信息的双向长短时记忆层对热词的编码效果好于单向长短时记忆层,如选择使用一层双向长短时记忆层,以热词“科大讯飞”为例,该热词由“科”、“大”、“讯”、“飞”四个字组成,一层双向长短时记忆层的热词编码器模块对它编码的过程如图5所示:
3、联合注意力模块:
联合注意力模块接收并处理音频编码结果和热词编码结果,得到当前解码时刻所需的拼接特征,该拼接特征包括音频相关特征和热词相关特征。
本实施例中介绍了联合注意力模块的一种可选架构,如图4所示,联合注意力模块可以包括:
第一注意力模型和第二注意力模型。其中:
第一注意力模型可以基于解码器模块在当前解码时刻输出的表示已解码结果信息的状态向量,以及热词编码结果,从音频编码结果中确定当前解码时刻所需的音频相关特征。
具体的,可以将状态向量、热词编码结果作为第一注意力模型的输入,由第一注意力模型从音频编码结果中确定当前解码时刻所需的音频相关特征。
第二注意力模型可以基于音频相关特征,从热词编码结果中确定当前解码时刻所需的热词相关特征。
具体的,可以将音频相关特征作为第二注意力模型的输入,由第二注意力模型从热词编码结果中确定当前解码时刻所需的热词相关特征。
最后,由所述音频相关特征和所述热词相关特征组合成当前解码时刻所需的拼接特征。
由上可知,解码器模块在当前解码时刻输出的状态向量能够表示已解码结果信息,因此可以基于该状态向量和热词编码结果,对音频编码结果进行注意力机制操作,确定当前解码时刻所需的音频相关特征。也即,本实施例中第一注意力模型使用了音频、热词联合注意力机制,让热词参与到音频相关特征的计算中,由于利用了热词信息,如果当前解码时刻的待解码字符为某个热词,则音频相关特征可以抽取到该热词对应的完整音频信息。
进一步,再利用音频相关特征对热词编码结果进行注意力机制操作,确定当前解码时刻所需的热词相关特征,因为音频相关特征包含了热词的完整音频信息,以此得到的热词相关特征也更加准确。
其中,注意力机制使用一个向量作为查询项(query),对一组特征向量序列进行注意力机制操作,选出与查询项最匹配的特征向量作为输出,具体为:将查询项与特征向量序列中每个特征向量计算一个匹配系数,然后将这些匹配系数与对应的特征向量相乘并求和,得到一个新的特征向量即为与查询项最匹配的特征向量。
定义当前时刻为t时刻,解码器模块在t时刻输出的状态向量为dt,则第一注意力模型基于状态向量dt和热词特征向量序列Hz,从音频特征向量序列Hx中确定当前解码时刻所需的音频相关特征第二注意力模型以为查询项,对热词特征向量序列Hz执行注意力机制操作,确定当前解码时刻所需的热词相关特征
接下来,对第一注意力模型的实施方式进行详细说明:
首先,第一注意力模型分别以热词特征向量序列Hz中的每一热词特征向量与状态向量dt的组合为查询项,对音频特征向量序列Hx中每一个音频特征向量进行注意力机制操作,得到匹配系数矩阵Et,所述匹配系数矩阵Et中包含任一热词与任一帧语音的匹配度表示第i个热词与第j帧语音的匹配度,也就是第j帧语音是第i个热词的可能性。
元素组成热词与语音帧的匹配系数矩阵Et,Et∈RK×(N+1)。其中表示Et中第i行第j列的元素,Et中的列向量表示某个热词与音频特征向量序列间的匹配度,Et中的行向量表示某帧音频特征向量与热词特征向量序列的匹配度。
具体的,该过程可以包括如下步骤:
S1、根据匹配系数矩阵Et,确定每个热词作为当前解码时刻的待解码字符的概率wt。
Et中第i行第j列的元素表示第j帧音频是第i个热词的可能性,那么将Et中的每一行进行softmax归一化,然后再把所有行向量相加求平均,得到一个N+1维的行向量,记为:
S2、根据匹配系数矩阵Et及每个热词作为当前解码时刻的待解码字符的概率wt,确定每一帧语音作为当前解码时刻所需的语音内容的概率at。
具体的,将Et中的每一列进行softmax归一化,得到列向量归一化后的矩阵At,然后将wt中的元素作为矩阵At中列向量的加权系数,将矩阵At中所有的列向量加权求和,得到一个K维的行向量,记为:
再进一步的,对第二注意力模型的实施方式进行详细说明:
具体的,该过程可以包括如下步骤:
进一步的,还可以将上述确定的当前解码时刻的待解码字符的概率bt送入分类器模块供对热词分类使用。
4、解码器模块:
解码器模块接收并处理联合注意力模块输出的当前解码时刻所需的拼接特征,得到解码器模块当前解码时刻的输出特征。
具体的,解码器模块可以利用当前解码时刻t的前一解码时刻t-1所需的拼接特征ct-1及前一解码时刻t-1的识别结果字符,计算得到当前解码时刻t的状态向量dt。
其中,dt有两个作用,其一是发送给联合注意力模块,以供联合注意力模块执行上述实施例介绍的操作过程,计算得到当前解码时刻的ct。
需要说明的是,解码器模块可以包含多个神经网络层,本申请中可以选用两层单向长短时记忆层。在解码当前时刻t的待解码字符时,第一层长短时记忆层以t-1时刻的识别结果字符和注意力模块输出的拼接特征ct-1为输入,计算得到解码器模块当前解码时刻的状态向量dt。解码器模块将dt与ct作为第二层长短时记忆层的输入,计算得到解码器模块的输出特征
5、分类器模块:
分类器模块利用解码器模块当前解码时刻的输出特征,确定待识别语音在当前解码时刻的识别结果。
由上可知,输出特征是根据解码器模块的状态向量dt和当前解码时刻所需的拼接特征ct联合确定的,而拼接特征ct中的包含了潜在的热词的完整音频信息,而非热词的局部信息,基于此确定的热词相关特征也更加准确,由此可以确定最终得到的输出特征也会更加准确,进而基于此确定的识别结果也更加准确,并且能够提高热词的识别准确率。
本申请的一个实施例中,提供了分类器模块的两种实现方式,一种是采用现有的常规静态分类器,该静态分类器中分类节点的数目始终维持不变,包含有常见的字符。分类器模块可以根据输出特征ht d来确定各个分类节点字符的得分概率,进而组合成最终的识别结果。
但是,这种常规静态分类器将热词表示为常用字符的组合,对热词进行逐字符解码,很容易导致非热词片段的热词误触发。例如,对于待识别语音内容为“这个模型训飞了”的语音数据,假设热词为“科大讯飞”,则使用静态分类器的识别结果可能是“这个模型讯飞了”。因为“训飞”和热词“科大讯飞”中的“讯飞”二字发音一样,由于静态分类器对热词进行逐字解码、逐字激励,每个单字都存在被激励的可能,很可能将语音片段中与热词存在部分发音匹配的内容错误得激励为热词的一部分,也就是将“训飞”中的“训”错误识别为热词“科大讯飞”中的“讯”。
为此,本申请提供了一种分类器模块的新结构,分类器模块的分类节点既包含固定的常用字符节点,还包含可动态扩展的热词节点,从而实现直接对热词进行整词识别的目的,不需要像现有技术那样将热词拆分,单个字符逐字符进行识别、激励。仍以上述示例的例子说明,对于语音数据“这个模型训飞了”,由于“训飞”只是与热词“科大讯飞”中部分字符的读音相同,其与热词“科大讯飞”这个整词的匹配程度远远不过,因此不会发生整个热词误识别的问题。而当语音数据中包含某个热词时,按照本实施例的分类器模块,由于分类节点中包含了热词这个整词,因此可以直接识别出热词这个整词,很好的提升了热词识别效果。
本实施例的分类器模块中的热词节点个数可以根据场景而动态调整,如当前场景对应的热词库中中N个热词,则可以设置相同个数的N个热词节点。以中文语音识别为例,以汉字为建模单元,假设常用汉字个数为V个,则分类器模块的固定常用字符节点的个数为V,当热词库中共存在N个热词时,则分类器模块的热词节点的个数可以为N,也即分类器模块的所有分类节点的数目为V+N。
基于上述这种新型结构的分类器模块,分类器模块进行语音识别的过程可以包括:
对于分类器模块中的动态可扩展热词节点,其概率得分可以通过热词分类器来确定。具体的,热词分类器可以利用热词匹配系数向量bt来确定各热词节点的概率得分。
前述已经介绍过程,热词匹配系数向量bt中包含每一热词作为当前解码时刻的待解码字符的概率,因此可以用该概率,作为对应热词节点的概率得分。
在确定了常用字符节点和热词节点的概率得分之后,可以根据两种类型节点的概率得分,确定待识别语音在当前解码时刻的识别结果。
可以理解的是,由于同时存在静态分类器和热词分类器两个分类器,因此分类器模块还可以增加一个判断器,用于决定到底使用哪个分类器的结果作为最终结果,该判断器输出一个标量的概率值表示当前解码时刻t使用热词分类器/静态分类器的结果作为最终输出结果的概率得分。
则判断器可以根据两个分类器输出的概率得分,确定待识别语音在当前解码时刻的识别结果,具体可以包括:
对于N个热词中的第i个热词节点(i的取值范围为[1,N]),在静态分类器输出的概率分布中它的得分为0,在热词分类器中它的概率得分为因此最终它的概率得分为对于V个常用字符yt,在静态分类器输出的概率分布中它的得分为Pv(yt),在热词分类器中它的概率得分为因此最终它的概率得分为
在本申请的又一个实施例中,介绍了一种上述语音识别模型的训练方式。
由于本申请提出的语音识别模型需要具备支持任意热词识别的能力,这就说明在模型训练中不能限定热词。因此本申请可以从训练数据的文本标注中随机挑选标注片段作为热词,参与整个模型训练。具体流程可以包括:
S1、获取标注有识别文本的语音训练数据。
其中,语音训练数据的文本标注序列可以表示为:
Y=[y0,y1,...yt,...yT]
其中,yt表示文本标注序列中第t个字符,T+1为识别文本的总字符数目。其中,y0为句子开始符“<s>”,yT为句子结束符“</s>”。
以中文语音识别为例,并用单个汉字作为建模单元。假设某句话的文本内容为“欢迎来到科大讯飞”,共有8个汉字,加上句子开始符和结束符,文本标注序列总共有10个字符,则文本标注序列表示为:
Y=[<s>,欢,迎,来,到,科,大,讯,飞,</s>]。
S2、获取所述语音训练数据的音频特征。
其中,音频特征可以选用滤波器组FilterBank特征、梅尔频率倒谱系数MFCC特征、感知线性预测PLP特征等。
S3、从所述语音训练数据的标注文本中随机挑选标注片段作为训练热词。
具体的,本申请可以预先设置P和N两个参数,P为某句训练数据是否挑选训练热词的概率,N为挑选的训练热词的最大字数。则任意一句训练数据被挑选出选取训练热词的概率为P,从该句训练数据的文本标注序列中,挑选最多连续N个字符作为训练热词。以“欢迎来到科大讯飞”为例,从该句话中挑选训练热词的标注对比如下表所示:
其中,上述表格中第一种标注为:当“科大讯飞”被选为训练热词后的标注;第二种标注为:当“科大”“被选为训练热词后的标注。
由上可知,当原始标注中“科”、“大”、“讯”、“飞”被挑选为训练热词,则需要把这四个字合并为整词“科大讯飞”,并且它的后面添加特殊标记符“<bias>”。“<bias>”的作用是引入训练错误,强迫模型训练时更新训练热词相关的模型参数,比如热词编码器模块。当“科大讯飞”或者“科大”被选为训练热词后,需要将它加入这次模型更新的训练热词列表中,作为热词编码器模块的输入和分类器模块的训练热词分类节点。每次模型更新时训练热词挑选工作独立进行,初始时刻训练热词列表为空。
S4、利用所述训练热词、所述音频特征及语音训练数据的识别文本,训练语音识别模型。
具体的,以训练热词和音频特征作为训练样本输入,以语音训练数据的识别文本作为样本标签,训练语音识别模型。
本申请实施例还提供了一种语音识别装置,下面对本申请实施例提供的语音识别装置进行描述,下文描述的语音识别装置与上文描述的语音识别方法可相互对应参照。
请参阅图6,示出了本申请实施例提供的语音识别装置的结构示意图,该语音识别装置可以包括:
数据获取单元11,用于获取待识别语音以及配置的热词库;
音频相关特征获取单元12,用于基于所述待识别语音及所述热词库,确定当前解码时刻所需的音频相关特征;
热词相关特征获取单元13,用于基于所述音频相关特征,从所述热词库中确定当前解码时刻所需的热词相关特征;
识别结果获取单元14,用于基于所述音频相关特征和所述热词相关特征,确定所述待识别语音在当前解码时刻的识别结果。
可选的,上述音频相关特征获取单元可以包括:
第一音频相关特征获取子单元,用于获取当前解码时刻之前的已解码结果信息;
第二音频相关特征获取子单元,用于基于所述已解码结果信息及所热词库,从所述待识别语音中确定当前解码时刻所需的音频相关特征。
可选的,上述音频相关特征获取单元、热词相关特征获取单元及识别结果获取单元的实现过程可以通过语音识别模型实现,具体的,利用预先训练的语音识别模型处理所述待识别语音及所述热词库,得到语音识别模型输出的待识别语音的识别结果,其中:
所述语音识别模型具备接收并处理待识别语音及热词库,以输出待识别语音的识别结果的能力。
具体的,语音识别模型可以具备基于当前解码时刻之前的已解码结果信息及热词库,从音频特征中确定当前解码时刻所需的音频相关特征,并基于音频相关特征从热词库中确定当前解码时刻所需的热词相关特征,基于所述音频相关特征和所述热词相关特征,确定待识别语音在当前解码时刻的识别结果的能力。
可选的,语音识别模型可以包括音频编码器模块、热词编码器模块、联合注意力模块、解码器模块及分类器模块;
其中,所述音频编码器模块对所述待识别语音进行编码,得到音频编码结果。
具体的,由所述音频编码器模块对所述音频特征进行编码,得到由每帧语音的音频特征向量组成的音频特征向量序列。
所述热词编码器模块对所述热词库中各热词进行编码,得到热词编码结果。
具体的,由所述热词编码器模块对每个所述热词进行独立编码,得到由各热词独立编码后的各热词特征向量组成的热词特征向量序列。
所述联合注意力模块接收并处理所述音频编码结果和所述热词编码结果,得到当前解码时刻所需的拼接特征,所述拼接特征包括音频相关特征和热词相关特征。
所述解码器模块接收并处理所述当前解码时刻所需的拼接特征,得到解码器模块当前解码时刻的输出特征。
所述分类器模块利用解码器模块当前解码时刻的输出特征,确定待识别语音在当前解码时刻的识别结果。
其中,可选的,所述联合注意力模块可以包括:
第一注意力模型和第二注意力模型。
所述第一注意力模型基于解码器模块在当前解码时刻输出的表示已解码结果信息的状态向量,以及所述热词编码结果,从所述音频编码结果中确定当前解码时刻所需的音频相关特征。
具体的,可以将所述状态向量、所述热词编码结果作为第一注意力模型的输入,由所述第一注意力模型从所述音频编码结果中确定当前解码时刻所需的音频相关特征。
所述第二注意力模型基于所述音频相关特征,从所述热词编码结果中确定当前解码时刻所需的热词相关特征。
具体的,可以将所述音频相关特征作为第二注意力模型的输入,由所述第二注意力模型从所述热词编码结果中确定当前解码时刻所需的热词相关特征。
由所述音频相关特征和所述热词相关特征组合成当前解码时刻所需的拼接特征。
可选的,上述热词编码器模块对每个所述热词进行独立编码的过程,可以包括:
所述热词编码器模块按照设定的维度,将各个所述热词分别独立编码成相同维度的热词特征向量。
可选的,上述第一注意力模型基于解码器模块在当前解码时刻输出的表示已解码结果信息的状态向量及热词特征向量序列,从所述音频特征向量序列中确定当前解码时刻所需的音频相关特征的过程,可以包括:
第一注意力模型分别以所述热词特征向量序列中的每一热词特征向量与所述状态向量的组合为查询项,对所述音频特征向量序列进行注意力机制操作,得到匹配系数矩阵,所述匹配系数矩阵中包含任一热词与任一帧语音的匹配度;
根据所述匹配系数矩阵,从所述音频特征向量序列中确定当前解码时刻所需的音频相关特征。
可选的,上述第一注意力模型根据所述匹配系数矩阵,从所述音频特征向量序列中确定当前解码时刻所需的音频相关特征的过程,可以包括:
根据所述匹配系数矩阵,确定每个热词作为当前解码时刻的待解码字符的概率;
根据所述匹配系数矩阵及每个热词作为当前解码时刻的待解码字符的概率,确定每一帧语音作为当前解码时刻所需的语音内容的概率;
以每一帧语音作为当前解码时刻所需的语音内容的概率作为加权系数,将所述音频特征向量序列中各帧语音的音频特征向量加权求和,得到当前解码时刻所需的音频相关特征。
可选的,上述第二注意力模型基于音频相关特征从热词特征向量序列中确定当前解码时刻所需的热词相关特征的过程,可以包括:
第二注意力模型以所述音频相关特征作为查询项,对所述热词特征向量序列进行注意力机制操作,得到热词匹配系数向量,所述热词匹配系数向量中包含每一热词作为当前解码时刻的待解码字符的概率;
以每一热词作为当前解码时刻的待解码字符的概率作为加权系数,将所述热词特征向量序列中每个热词的热词特征向量加权求和,得到当前解码时刻所需的热词相关特征。
可选的,上述联合注意力模块还可以将所述热词匹配系数向量发送至所述分类器模块;则所述分类器模块具体为,利用所述解码器模块在当前解码时刻的输出特征及所述热词匹配系数向量,确定待识别语音在当前解码时刻的识别结果。
可选的,上述分类器模块的分类节点可以包括固定的常用字符节点和可动态扩展的热词节点。基于此,
分类器模块可以利用解码器模块在当前解码时刻的输出特征,确定各所述常用字符节点的概率得分和各所述热词节点的概率得分;根据各所述常用字符节点的概率得分和各所述热词节点的概率得分,确定待识别语音在当前解码时刻的识别结果。
具体的,分类器模块可以利用解码器模块在当前解码时刻的输出特征,确定各所述常用字符节点的概率得分;
分类器模块利用所述热词匹配系数向量,确定各所述热词节点的概率得分;
根据各所述常用字符节点的概率得分和各所述热词节点的概率得分,确定待识别语音在当前解码时刻的识别结果。
可选的,本申请的装置还可以包括模型训练单元,用于:
获取标注有识别文本的语音训练数据;
获取所述语音训练数据的音频特征;
从所述语音训练数据的标注文本中随机挑选标注片段作为训练热词;
利用所述训练热词、所述音频特征及语音训练数据的识别文本,训练语音识别模型。
可选的,上述数据获取单元获取待识别语音的音频特征的过程,可以包括:
获取待识别语音的以下任意一项音频特征:
滤波器组FilterBank特征、梅尔频率倒谱系数MFCC特征、感知线性预测PLP特征。
本申请实施例还提供了一种电子设备,请参阅图7,示出了该电子设备的结构示意图,该电子设备可以包括:至少一个处理器1001,至少一个通信接口1002,至少一个存储器1003和至少一个通信总线1004;
在本申请实施例中,处理器1001、通信接口1002、存储器1003、通信总线1004的数量为至少一个,且处理器1001、通信接口1002、存储器1003通过通信总线1004完成相互间的通信;
处理器1001可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路等;
存储器1003可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory)等,例如至少一个磁盘存储器;
其中,存储器存储有程序,处理器可调用存储器存储的程序,所述程序用于:
获取待识别语音以及配置的热词库;
基于所述待识别语音及所述热词库,确定当前解码时刻所需的音频相关特征;
基于所述音频相关特征,从所述热词库中确定当前解码时刻所需的热词相关特征;
基于所述音频相关特征和所述热词相关特征,确定所述待识别语音在当前解码时刻的识别结果。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
本申请实施例还提供一种可读存储介质,该可读存储介质可存储有适于处理器执行的程序,所述程序用于:
获取待识别语音以及配置的热词库;
基于所述待识别语音及所述热词库,确定当前解码时刻所需的音频相关特征;
基于所述音频相关特征,从所述热词库中确定当前解码时刻所需的热词相关特征;
基于所述音频相关特征和所述热词相关特征,确定所述待识别语音在当前解码时刻的识别结果。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间可以根据需要进行组合,且相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (15)
1.一种语音识别方法,其特征在于,包括:
获取待识别语音以及配置的热词库;
基于所述待识别语音及所述热词库,确定当前解码时刻所需的音频相关特征;
基于所述音频相关特征,从所述热词库中确定当前解码时刻所需的热词相关特征;
基于所述音频相关特征和所述热词相关特征,确定所述待识别语音在当前解码时刻的识别结果。
2.根据权利要求1所述的方法,其特征在于,所述基于所述待识别语音及所述热词库,确定当前解码时刻所需的音频相关特征,包括:
获取当前解码时刻之前的已解码结果信息;
基于所述已解码结果信息及所热词库,从所述待识别语音中确定当前解码时刻所需的音频相关特征。
3.根据权利要求2所述的方法,其特征在于,所述基于所述待识别语音及所述热词库,确定当前解码时刻所需的音频相关特征;基于所述音频相关特征,从所述热词库中确定当前解码时刻所需的热词相关特征;基于所述音频相关特征和所述热词相关特征,确定所述待识别语音在当前解码时刻的识别结果的过程,包括:
利用预先训练的语音识别模型处理所述待识别语音及所述热词库,得到语音识别模型输出的待识别语音的识别结果,其中:
所述语音识别模型具备接收并处理待识别语音及热词库,以输出待识别语音的识别结果的能力。
4.根据权利要求3所述的方法,其特征在于,所述语音识别模型包括音频编码器模块、热词编码器模块、联合注意力模块、解码器模块及分类器模块;
所述音频编码器模块对所述待识别语音进行编码,得到音频编码结果;
所述热词编码器模块对所述热词库中各热词进行编码,得到热词编码结果;
所述联合注意力模块接收并处理所述音频编码结果和所述热词编码结果,得到当前解码时刻所需的拼接特征,所述拼接特征包括音频相关特征和热词相关特征;
所述解码器模块接收并处理所述当前解码时刻所需的拼接特征,得到解码器模块当前解码时刻的输出特征;
所述分类器模块利用解码器模块当前解码时刻的输出特征,确定待识别语音在当前解码时刻的识别结果。
5.根据权利要求4所述的方法,其特征在于,所述联合注意力模块包括:
第一注意力模型和第二注意力模型;
所述第一注意力模型基于解码器模块在当前解码时刻输出的表示已解码结果信息的状态向量,以及所述热词编码结果,从所述音频编码结果中确定当前解码时刻所需的音频相关特征;
所述第二注意力模型基于所述音频相关特征,从所述热词编码结果中确定当前解码时刻所需的热词相关特征;
由所述音频相关特征和所述热词相关特征组合成当前解码时刻所需的拼接特征。
6.根据权利要求5所述的方法,其特征在于,所述第一注意力模型基于解码器模块在当前解码时刻输出的表示已解码结果信息的状态向量,以及所述热词编码结果,从所述音频编码结果中确定当前解码时刻所需的音频相关特征,包括:
将所述状态向量、所述热词编码结果作为第一注意力模型的输入,由所述第一注意力模型从所述音频编码结果中确定当前解码时刻所需的音频相关特征。
7.根据权利要求5所述的方法,其特征在于,所述第二注意力模型基于所述音频相关特征,从所述热词编码结果中确定当前解码时刻所需的热词相关特征,包括:
将所述音频相关特征作为第二注意力模型的输入,由所述第二注意力模型从所述热词编码结果中确定当前解码时刻所需的热词相关特征。
8.根据权利要求4所述的方法,其特征在于,所述分类器模块的分类节点包括固定的常用字符节点和可动态扩展的热词节点;
分类器模块利用解码器模块当前解码时刻的输出特征,确定待识别语音在当前解码时刻的识别结果,包括:
分类器模块利用解码器模块在当前解码时刻的输出特征,确定各所述常用字符节点的概率得分和各所述热词节点的概率得分;
根据各所述常用字符节点的概率得分和各所述热词节点的概率得分,确定待识别语音在当前解码时刻的识别结果。
9.根据权利要求8所述的方法,其特征在于,所述可动态扩展的热词节点,与所述热词库中的热词一一对应。
10.根据权利要求1-9任一项所述的方法,其特征在于,所述获取待识别语音以及配置的热词库,包括:
获取待识别语音,并确定所述待识别语音的会话场景;
获取与所述会话场景相关的热词库。
11.根据权利要求1-9任一项所述的方法,其特征在于,所述获取待识别语音以及配置的热词库,包括:
获取人机交互场景下,用户所产出的语音,作为待识别语音;
获取预先配置的在人机交互场景下,由用户语音操控指令中的操作关键词组成的热词库。
12.根据权利要求11所述的方法,其特征在于,还包括:
基于所述待识别语音的识别结果,确定与所述识别结果相匹配的交互响应,并输出该交互响应。
13.一种语音识别装置,其特征在于,包括:
数据获取单元,用于获取待识别语音以及配置的热词库;
音频相关特征获取单元,用于基于所述待识别语音及所述热词库,确定当前解码时刻所需的音频相关特征;
热词相关特征获取单元,用于基于所述音频相关特征,从所述热词库中确定当前解码时刻所需的热词相关特征;
识别结果获取单元,用于基于所述音频相关特征和所述热词相关特征,确定所述待识别语音在当前解码时刻的识别结果。
14.一种语音识别设备,其特征在于,包括:存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如权利要求1~12中任一项所述的语音识别方法的各个步骤。
15.一种可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1~12中任一项所述的语音识别方法的各个步骤。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010418728.1A CN111583909B (zh) | 2020-05-18 | 2020-05-18 | 一种语音识别方法、装置、设备及存储介质 |
KR1020227043996A KR102668530B1 (ko) | 2020-05-18 | 2020-12-02 | 음성 인식 방법, 장치 및 디바이스, 및 저장 매체 |
JP2022563214A JP7407968B2 (ja) | 2020-05-18 | 2020-12-02 | 音声認識方法、装置、設備及び記憶媒体 |
US17/925,483 US20230186912A1 (en) | 2020-05-18 | 2020-12-02 | Speech recognition method, apparatus and device, and storage medium |
PCT/CN2020/133286 WO2021232746A1 (zh) | 2020-05-18 | 2020-12-02 | 一种语音识别方法、装置、设备及存储介质 |
EP20936660.8A EP4156176A4 (en) | 2020-05-18 | 2020-12-02 | SPEECH RECOGNITION METHOD, DEVICE AND APPARATUS AND STORAGE MEDIUM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010418728.1A CN111583909B (zh) | 2020-05-18 | 2020-05-18 | 一种语音识别方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111583909A true CN111583909A (zh) | 2020-08-25 |
CN111583909B CN111583909B (zh) | 2024-04-12 |
Family
ID=72126794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010418728.1A Active CN111583909B (zh) | 2020-05-18 | 2020-05-18 | 一种语音识别方法、装置、设备及存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230186912A1 (zh) |
EP (1) | EP4156176A4 (zh) |
JP (1) | JP7407968B2 (zh) |
CN (1) | CN111583909B (zh) |
WO (1) | WO2021232746A1 (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112037775A (zh) * | 2020-09-08 | 2020-12-04 | 北京嘀嘀无限科技发展有限公司 | 语音识别方法、装置、设备及存储介质 |
CN112489651A (zh) * | 2020-11-30 | 2021-03-12 | 科大讯飞股份有限公司 | 语音识别方法和电子设备、存储装置 |
CN112634904A (zh) * | 2020-12-22 | 2021-04-09 | 北京有竹居网络技术有限公司 | 热词识别方法、装置、介质和电子设备 |
CN112767917A (zh) * | 2020-12-31 | 2021-05-07 | 科大讯飞股份有限公司 | 语音识别方法、装置及存储介质 |
CN112951209A (zh) * | 2021-01-27 | 2021-06-11 | 科大讯飞股份有限公司 | 一种语音识别方法、装置、设备及计算机可读存储介质 |
CN113436614A (zh) * | 2021-07-02 | 2021-09-24 | 科大讯飞股份有限公司 | 语音识别方法、装置、设备、系统及存储介质 |
CN113470619A (zh) * | 2021-06-30 | 2021-10-01 | 北京有竹居网络技术有限公司 | 语音识别方法、装置、介质及设备 |
WO2021232746A1 (zh) * | 2020-05-18 | 2021-11-25 | 科大讯飞股份有限公司 | 一种语音识别方法、装置、设备及存储介质 |
CN113808592A (zh) * | 2021-08-17 | 2021-12-17 | 百度在线网络技术(北京)有限公司 | 通话录音的转写方法及装置、电子设备和存储介质 |
CN115631746A (zh) * | 2022-12-20 | 2023-01-20 | 深圳元象信息科技有限公司 | 热词识别方法、装置、计算机设备及存储介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114005438B (zh) * | 2021-12-31 | 2022-05-17 | 科大讯飞股份有限公司 | 语音识别方法、语音识别模型的训练方法以及相关装置 |
CN117437909B (zh) * | 2023-12-20 | 2024-03-05 | 慧言科技(天津)有限公司 | 基于热词特征向量自注意力机制的语音识别模型构建方法 |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4520499A (en) * | 1982-06-25 | 1985-05-28 | Milton Bradley Company | Combination speech synthesis and recognition apparatus |
CN102592595A (zh) * | 2012-03-19 | 2012-07-18 | 安徽科大讯飞信息科技股份有限公司 | 语音识别方法及系统 |
CN102968987A (zh) * | 2012-11-19 | 2013-03-13 | 百度在线网络技术(北京)有限公司 | 一种语音识别方法及系统 |
CN103310790A (zh) * | 2012-03-08 | 2013-09-18 | 富泰华工业(深圳)有限公司 | 电子装置及语音识别方法 |
CN105719649A (zh) * | 2016-01-19 | 2016-06-29 | 百度在线网络技术(北京)有限公司 | 语音识别方法及装置 |
CN108228565A (zh) * | 2018-01-11 | 2018-06-29 | 廖良平 | 一种商品信息关键词的识别方法 |
CN108831456A (zh) * | 2018-05-25 | 2018-11-16 | 深圳警翼智能科技股份有限公司 | 一种通过语音识别对视频标记的方法、装置及系统 |
CN108899030A (zh) * | 2018-07-10 | 2018-11-27 | 深圳市茁壮网络股份有限公司 | 一种语音识别方法及装置 |
CN108984529A (zh) * | 2018-07-16 | 2018-12-11 | 北京华宇信息技术有限公司 | 实时庭审语音识别自动纠错方法、存储介质及计算装置 |
CN109215662A (zh) * | 2018-09-18 | 2019-01-15 | 平安科技(深圳)有限公司 | 端对端语音识别方法、电子装置及计算机可读存储介质 |
CN109523991A (zh) * | 2017-09-15 | 2019-03-26 | 阿里巴巴集团控股有限公司 | 语音识别的方法及装置、设备 |
CN109559752A (zh) * | 2017-09-27 | 2019-04-02 | 北京国双科技有限公司 | 语音识别方法和装置 |
CN110047467A (zh) * | 2019-05-08 | 2019-07-23 | 广州小鹏汽车科技有限公司 | 语音识别方法、装置、存储介质及控制终端 |
CN110517692A (zh) * | 2019-08-30 | 2019-11-29 | 苏州思必驰信息科技有限公司 | 热词语音识别方法和装置 |
CN110879839A (zh) * | 2019-11-27 | 2020-03-13 | 北京声智科技有限公司 | 一种热词识别方法、装置及系统 |
CN110956959A (zh) * | 2019-11-25 | 2020-04-03 | 科大讯飞股份有限公司 | 语音识别纠错方法、相关设备及可读存储介质 |
CN111009237A (zh) * | 2019-12-12 | 2020-04-14 | 北京达佳互联信息技术有限公司 | 语音识别方法、装置、电子设备及存储介质 |
CN111105799A (zh) * | 2019-12-09 | 2020-05-05 | 国网浙江省电力有限公司杭州供电公司 | 基于发音量化和电力专用词库的离线语音识别装置及方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9715660B2 (en) * | 2013-11-04 | 2017-07-25 | Google Inc. | Transfer learning for deep neural network based hotword detection |
US8719039B1 (en) * | 2013-12-05 | 2014-05-06 | Google Inc. | Promoting voice actions to hotwords |
CN105955953A (zh) * | 2016-05-03 | 2016-09-21 | 成都数联铭品科技有限公司 | 一种分词系统 |
US11295739B2 (en) | 2018-08-23 | 2022-04-05 | Google Llc | Key phrase spotting |
US11093560B2 (en) | 2018-09-21 | 2021-08-17 | Microsoft Technology Licensing, Llc | Stacked cross-modal matching |
CN110415705B (zh) * | 2019-08-01 | 2022-03-01 | 苏州奇梦者网络科技有限公司 | 一种热词识别方法、系统、装置及存储介质 |
CN111583909B (zh) * | 2020-05-18 | 2024-04-12 | 科大讯飞股份有限公司 | 一种语音识别方法、装置、设备及存储介质 |
-
2020
- 2020-05-18 CN CN202010418728.1A patent/CN111583909B/zh active Active
- 2020-12-02 WO PCT/CN2020/133286 patent/WO2021232746A1/zh unknown
- 2020-12-02 US US17/925,483 patent/US20230186912A1/en active Pending
- 2020-12-02 JP JP2022563214A patent/JP7407968B2/ja active Active
- 2020-12-02 EP EP20936660.8A patent/EP4156176A4/en active Pending
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4520499A (en) * | 1982-06-25 | 1985-05-28 | Milton Bradley Company | Combination speech synthesis and recognition apparatus |
CN103310790A (zh) * | 2012-03-08 | 2013-09-18 | 富泰华工业(深圳)有限公司 | 电子装置及语音识别方法 |
CN102592595A (zh) * | 2012-03-19 | 2012-07-18 | 安徽科大讯飞信息科技股份有限公司 | 语音识别方法及系统 |
CN102968987A (zh) * | 2012-11-19 | 2013-03-13 | 百度在线网络技术(北京)有限公司 | 一种语音识别方法及系统 |
CN105719649A (zh) * | 2016-01-19 | 2016-06-29 | 百度在线网络技术(北京)有限公司 | 语音识别方法及装置 |
CN109523991A (zh) * | 2017-09-15 | 2019-03-26 | 阿里巴巴集团控股有限公司 | 语音识别的方法及装置、设备 |
CN109559752A (zh) * | 2017-09-27 | 2019-04-02 | 北京国双科技有限公司 | 语音识别方法和装置 |
CN108228565A (zh) * | 2018-01-11 | 2018-06-29 | 廖良平 | 一种商品信息关键词的识别方法 |
CN108831456A (zh) * | 2018-05-25 | 2018-11-16 | 深圳警翼智能科技股份有限公司 | 一种通过语音识别对视频标记的方法、装置及系统 |
CN108899030A (zh) * | 2018-07-10 | 2018-11-27 | 深圳市茁壮网络股份有限公司 | 一种语音识别方法及装置 |
CN108984529A (zh) * | 2018-07-16 | 2018-12-11 | 北京华宇信息技术有限公司 | 实时庭审语音识别自动纠错方法、存储介质及计算装置 |
CN109215662A (zh) * | 2018-09-18 | 2019-01-15 | 平安科技(深圳)有限公司 | 端对端语音识别方法、电子装置及计算机可读存储介质 |
CN110047467A (zh) * | 2019-05-08 | 2019-07-23 | 广州小鹏汽车科技有限公司 | 语音识别方法、装置、存储介质及控制终端 |
CN110517692A (zh) * | 2019-08-30 | 2019-11-29 | 苏州思必驰信息科技有限公司 | 热词语音识别方法和装置 |
CN110956959A (zh) * | 2019-11-25 | 2020-04-03 | 科大讯飞股份有限公司 | 语音识别纠错方法、相关设备及可读存储介质 |
CN110879839A (zh) * | 2019-11-27 | 2020-03-13 | 北京声智科技有限公司 | 一种热词识别方法、装置及系统 |
CN111105799A (zh) * | 2019-12-09 | 2020-05-05 | 国网浙江省电力有限公司杭州供电公司 | 基于发音量化和电力专用词库的离线语音识别装置及方法 |
CN111009237A (zh) * | 2019-12-12 | 2020-04-14 | 北京达佳互联信息技术有限公司 | 语音识别方法、装置、电子设备及存储介质 |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4156176A4 (en) * | 2020-05-18 | 2024-05-08 | Iflytek Co Ltd | SPEECH RECOGNITION METHOD, DEVICE AND APPARATUS AND STORAGE MEDIUM |
WO2021232746A1 (zh) * | 2020-05-18 | 2021-11-25 | 科大讯飞股份有限公司 | 一种语音识别方法、装置、设备及存储介质 |
CN112037775A (zh) * | 2020-09-08 | 2020-12-04 | 北京嘀嘀无限科技发展有限公司 | 语音识别方法、装置、设备及存储介质 |
CN112489651A (zh) * | 2020-11-30 | 2021-03-12 | 科大讯飞股份有限公司 | 语音识别方法和电子设备、存储装置 |
CN112489651B (zh) * | 2020-11-30 | 2023-02-17 | 科大讯飞股份有限公司 | 语音识别方法和电子设备、存储装置 |
CN112634904A (zh) * | 2020-12-22 | 2021-04-09 | 北京有竹居网络技术有限公司 | 热词识别方法、装置、介质和电子设备 |
WO2022141706A1 (zh) * | 2020-12-31 | 2022-07-07 | 科大讯飞股份有限公司 | 语音识别方法、装置及存储介质 |
CN112767917A (zh) * | 2020-12-31 | 2021-05-07 | 科大讯飞股份有限公司 | 语音识别方法、装置及存储介质 |
CN112951209A (zh) * | 2021-01-27 | 2021-06-11 | 科大讯飞股份有限公司 | 一种语音识别方法、装置、设备及计算机可读存储介质 |
CN112951209B (zh) * | 2021-01-27 | 2023-12-01 | 中国科学技术大学 | 一种语音识别方法、装置、设备及计算机可读存储介质 |
WO2023273578A1 (zh) * | 2021-06-30 | 2023-01-05 | 北京有竹居网络技术有限公司 | 语音识别方法、装置、介质及设备 |
CN113470619A (zh) * | 2021-06-30 | 2021-10-01 | 北京有竹居网络技术有限公司 | 语音识别方法、装置、介质及设备 |
CN113470619B (zh) * | 2021-06-30 | 2023-08-18 | 北京有竹居网络技术有限公司 | 语音识别方法、装置、介质及设备 |
CN113436614B (zh) * | 2021-07-02 | 2024-02-13 | 中国科学技术大学 | 语音识别方法、装置、设备、系统及存储介质 |
CN113436614A (zh) * | 2021-07-02 | 2021-09-24 | 科大讯飞股份有限公司 | 语音识别方法、装置、设备、系统及存储介质 |
CN113808592A (zh) * | 2021-08-17 | 2021-12-17 | 百度在线网络技术(北京)有限公司 | 通话录音的转写方法及装置、电子设备和存储介质 |
CN115631746A (zh) * | 2022-12-20 | 2023-01-20 | 深圳元象信息科技有限公司 | 热词识别方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR20230040951A (ko) | 2023-03-23 |
JP2023522083A (ja) | 2023-05-26 |
EP4156176A4 (en) | 2024-05-08 |
US20230186912A1 (en) | 2023-06-15 |
CN111583909B (zh) | 2024-04-12 |
EP4156176A1 (en) | 2023-03-29 |
WO2021232746A1 (zh) | 2021-11-25 |
JP7407968B2 (ja) | 2024-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111583909B (zh) | 一种语音识别方法、装置、设备及存储介质 | |
Audhkhasi et al. | End-to-end ASR-free keyword search from speech | |
US11043205B1 (en) | Scoring of natural language processing hypotheses | |
US11106868B2 (en) | System and method for language model personalization | |
US11823678B2 (en) | Proactive command framework | |
CN110516253B (zh) | 中文口语语义理解方法及系统 | |
US11081104B1 (en) | Contextual natural language processing | |
CN111261162B (zh) | 语音识别方法、语音识别装置及存储介质 | |
JPH06175696A (ja) | 音声コード化装置及びその方法並びに音声認識装置及びその方法 | |
CN113035231B (zh) | 关键词检测方法及装置 | |
Masumura et al. | Large context end-to-end automatic speech recognition via extension of hierarchical recurrent encoder-decoder models | |
US10872601B1 (en) | Natural language processing | |
CN111243579A (zh) | 一种时域单通道多说话人语音识别方法与系统 | |
CN112599128A (zh) | 一种语音识别方法、装置、设备和存储介质 | |
CN112131359A (zh) | 一种基于图形化编排智能策略的意图识别方法及电子设备 | |
Rose et al. | Integration of utterance verification with statistical language modeling and spoken language understanding | |
CN113158062A (zh) | 一种基于异构图神经网络的用户意图识别方法及装置 | |
CN116955579B (zh) | 一种基于关键词知识检索的聊天回复生成方法和装置 | |
KR102668530B1 (ko) | 음성 인식 방법, 장치 및 디바이스, 및 저장 매체 | |
CN112735380B (zh) | 重打分语言模型的打分方法及语音识别方法 | |
Gubka et al. | Universal approach for sequential audio pattern search | |
CN115910070A (zh) | 语音识别方法、装置、设备及存储介质 | |
CN113470617A (zh) | 语音识别方法以及电子设备、存储装置 | |
CN117059077A (zh) | 语音训练方法及计算机可读存储介质 | |
CN117975950A (zh) | 语音识别方法、系统、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |