CN110956959B - 语音识别纠错方法、相关设备及可读存储介质 - Google Patents
语音识别纠错方法、相关设备及可读存储介质 Download PDFInfo
- Publication number
- CN110956959B CN110956959B CN201911167009.0A CN201911167009A CN110956959B CN 110956959 B CN110956959 B CN 110956959B CN 201911167009 A CN201911167009 A CN 201911167009A CN 110956959 B CN110956959 B CN 110956959B
- Authority
- CN
- China
- Prior art keywords
- recognition
- error correction
- voice
- recognition result
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012937 correction Methods 0.000 title claims abstract description 171
- 238000000034 method Methods 0.000 title claims abstract description 46
- 239000013598 vector Substances 0.000 claims description 82
- 238000012549 training Methods 0.000 claims description 71
- 238000004364 calculation method Methods 0.000 claims description 65
- 238000000605 extraction Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 2
- 239000010410 layer Substances 0.000 description 121
- 230000004900 autophagic degradation Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000003062 neural network model Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 206010028980 Neoplasm Diseases 0.000 description 4
- 201000011510 cancer Diseases 0.000 description 4
- 238000012512 characterization method Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000002560 therapeutic procedure Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000002411 adverse Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 239000002356 single layer Substances 0.000 description 3
- 238000013179 statistical model Methods 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000002401 inhibitory effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000007455 autophagic response Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011862 kidney biopsy Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/005—Correction of errors induced by the transmission channel, if related to the coding algorithm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种语音识别纠错方法、相关设备及可读存储介质,首先,获取待识别的语音数据及其第一次识别结果;然后,从第一次识别结果中提取关键词,关键词是具有领域特性的专业词汇;并参考第一次识别结果的上下文信息以及关键词,对语音数据进行第二次识别,得到第二次识别结果;最后,根据第二次识别结果,确定最终的识别结果。上述方案中,在参考第一次识别结果的上下文信息以及关键词,对语音数据进行第二次识别,充分考虑了识别结果的上下文信息以及语音数据的适用场景,如果第一次识别结果有误,即可利用第二次识别对其进行纠错,因此,能够提升语音识别准确率。
Description
技术领域
本申请涉及语音识别技术领域,更具体的说,是涉及一种语音识别纠错方法、相关设备及可读存储介质。
背景技术
近几年来,人工智能设备逐渐走入普通大众的生活、工作中,成为不可或缺的一部分,这些都得力于人工智能技术的飞速发展。而语音交互作为最自然的一种人机交互方式,广泛应用于各种人工智能设备中,使得人类与机器可以进行无障碍交流。语音交互过程中,基于语音识别技术,可以让机器“听懂”人类的语言,进而为人类提供服务。
目前,基于深度学习的语音识别技术已经日趋成熟,传统语音识别模型在通用场景下的识别准确率已经达到令人满意的效果,但是在一些特殊场景(例如专业领域)下的语音内容中,通常存在一些专业词汇,这类词汇在通用场景下出现的频率较小,导致传统语音识别模型对该类词汇的覆盖较差。在一些特殊场景下,待识别语音中包含该类词汇,采用传统语音识别模型对待识别语音进行识别,非常容易出现识别错误的情况,导致语音识别准确率低下。
因此,在一些特殊场景(例如专业领域)下,如何提升语音识别准确率,成为本领域技术人员亟待解决的技术问题。
发明内容
鉴于上述问题,提出了本申请以便提供一种语音识别纠错方法、相关设备及可读存储介质。具体方案如下:
一种语音识别纠错方法,所述方法包括:
获取待识别的语音数据及其第一次识别结果;
从所述第一次识别结果中提取关键词,所述关键词是具有领域特性的专业词汇;
参考所述第一次识别结果的上下文信息以及所述关键词,对所述语音数据进行第二次识别,得到第二次识别结果;
根据所述第二次识别结果,确定最终的识别结果。
可选地,所述参考所述第一次识别结果的上下文信息以及所述关键词,对所述语音数据进行第二次识别,得到第二次识别结果,包括:
获取所述语音数据的声学特征;
将所述语音数据的声学特征、所述第一次识别结果以及所述关键词,输入预先训练的语音纠错识别模型,得到第二次识别结果,所述语音纠错识别模型是利用纠错训练数据集对预设模型进行训练得到的;
其中,所述纠错训练数据集中包括至少一组纠错训练数据,每组纠错训练数据包括一条语音数据对应的声学特征、所述一条语音数据对应的文本、所述一条语音数据对应的第一次识别结果以及所述第一次识别结果中的关键词。
可选地,所述将所述语音数据的声学特征、所述第一次识别结果以及所述关键词,输入预先训练的语音纠错识别模型,得到第二次识别结果,包括:
利用所述语音纠错识别模型对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码以及注意力计算,并基于计算结果,得到第二次识别结果。
可选地,所述利用所述语音纠错识别模型对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码以及注意力计算,并基于计算结果,得到第二次识别结果,包括:
利用所述语音纠错识别模型的编码层和注意力层,分别对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码以及注意力计算,得到所述计算结果;
利用所述语音纠错识别模型的解码层,对所述计算结果进行解码,得到第二次识别结果。
可选地,所述利用所述语音纠错识别模型对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码以及注意力计算,并基于计算结果,得到第二次识别结果,包括:
对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行合并,得到合并向量;
利用所述语音纠错识别模型的编码层和注意力层,对所述合并向量进行编码以及注意力计算,得到所述计算结果;
利用所述语音纠错识别模型的解码层,对所述计算结果进行解码,得到第二次识别结果。
可选地,所述利用所述语音纠错识别模型的编码层和注意力层,分别对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码以及注意力计算,得到所述计算结果,包括:
利用所述语音纠错识别模型的编码层,分别对每一目标对象进行编码,得到所述每一目标对象的声学高级特征;
利用所述语音纠错识别模型的注意力层,分别对所述每一目标对象相关的上一时刻的语义向量以及所述语音纠错识别模型上一时刻的输出结果,进行注意力计算,得到所述每一目标对象相关的隐层状态;
利用所述语音纠错识别模型的注意力层,分别对所述每一目标对象的声学高级特征以及所述每一目标对象相关的隐层状态,进行注意力计算,得到所述每一目标对象相关的语义向量;
其中,所述目标对象包括所述语音数据的声学特征、所述第一次识别结果以及所述关键词。
可选地,所述利用所述语音纠错识别模型的编码层和注意力层,对所述合并向量进行编码以及注意力计算,得到所述计算结果,包括:
利用所述语音纠错识别模型的编码层,对所述合并向量进行编码,得到所述合并向量的声学高级特征;
利用所述语音纠错识别模型的注意力层,对所述合并向量相关的上一时刻的语义向量以及所述语音纠错识别模型上一时刻的输出结果,进行注意力计算,得到所述合并向量相关的隐层状态;
利用所述语音纠错识别模型的注意力层,对所述合并向量的声学高级特征以及所述合并向量相关的隐层状态,进行注意力计算,得到所述合并向量相关的语义向量。
可选地,所述根据所述第二次识别结果,确定最终的识别结果,包括:
获取所述第一次识别结果的置信度,以及,所述第二次识别结果的置信度;
从所述第一次识别结果以及所述第二次识别结果中,确定置信度高的识别结果为最终的识别结果。
一种语音识别纠错装置,所述装置包括:
获取单元,用于获取待识别的语音数据及其第一次识别结果;
关键词提取单元,用于从所述第一次识别结果中提取关键词,所述关键词是具有领域特性的专业词汇;
语音识别单元,用于参考所述第一次识别结果的上下文信息以及所述关键词,对所述语音数据进行第二次识别,得到第二次识别结果;
识别结果确定单元,用于根据所述第二次识别结果,确定最终的识别结果。
可选地,所述语音识别单元,包括:
声学特征获取单元,用于获取所述语音数据的声学特征;
模型处理单元,用于将所述语音数据的声学特征、所述第一次识别结果以及所述关键词,输入预先训练的语音纠错识别模型,得到第二次识别结果,所述语音纠错识别模型是利用纠错训练数据集对预设模型进行训练得到的;
其中,所述纠错训练数据集中包括至少一组纠错训练数据,每组纠错训练数据包括一条语音数据对应的声学特征、所述一条语音数据对应的文本、所述一条语音数据对应的第一次识别结果以及所述第一次识别结果中的关键词。
可选地,模型处理单元,包括:
编码及注意力计算单元,用于利用所述语音纠错识别模型对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码以及注意力计算;
识别单元,用于基于计算结果,得到第二次识别结果。
可选地,所述编码以及注意力计算单元包括第一编码以及注意力计算单元,所述识别单元包括第一解码单元;
所述第一编码以及注意力计算单元,用于利用所述语音纠错识别模型的编码层和注意力层,分别对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码以及注意力计算,得到所述计算结果;
所述第一解码单元,用于利用所述语音纠错识别模型的解码层,对所述计算结果进行解码,得到第二次识别结果。
可选地,所述模型处理单元还包括合并单元,所述编码以及注意力计算单元包括第二编码以及注意力计算单元,所述识别单元包括第二解码单元:
所述合并单元,用于对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行合并,得到合并向量;
所述第二编码以及注意力计算单元,用于利用所述语音纠错识别模型的编码层和注意力层,对所述合并向量进行编码以及注意力计算,得到所述计算结果;
所述第二解码单元,用于利用所述语音纠错识别模型的解码层,对所述计算结果进行解码,得到第二次识别结果。
可选地,所述第一编码以及注意力计算单元,包括:
第一编码单元,用于利用所述语音纠错识别模型的编码层,分别对每一目标对象进行编码,得到所述每一目标对象的声学高级特征;
第一注意力计算单元,用于利用所述语音纠错识别模型的注意力层,分别对所述每一目标对象相关的上一时刻的语义向量以及所述语音纠错识别模型上一时刻的输出结果,进行注意力计算,得到所述每一目标对象相关的隐层状态;以及,利用所述语音纠错识别模型的注意力层,分别对所述每一目标对象的声学高级特征以及所述每一目标对象相关的隐层状态,进行注意力计算,得到所述每一目标对象相关的语义向量;其中,所述目标对象包括所述语音数据的声学特征、所述第一次识别结果以及所述关键词。
可选地,所述第二编码以及注意力计算单元,包括:
第二编码单元,用于利用所述语音纠错识别模型的编码层,对所述合并向量进行编码,得到所述合并向量的声学高级特征;
第二注意力计算单元,用于利用所述语音纠错识别模型的注意力层,对所述合并向量相关的上一时刻的语义向量以及所述语音纠错识别模型上一时刻的输出结果,进行注意力计算,得到所述合并向量相关的隐层状态;以及,利用所述语音纠错识别模型的注意力层,对所述合并向量的声学高级特征以及所述合并向量相关的隐层状态,进行注意力计算,得到所述合并向量相关的语义向量。
可选地,所述识别结果确定单元,包括:
置信度获取单元,用于获取所述第一次识别结果的置信度,以及,所述第二次识别结果的置信度;
确定单元,用于从所述第一次识别结果以及所述第二次识别结果中,确定置信度高的识别结果为最终的识别结果。
一种语音识别纠错系统,包括存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如上所述的语音识别纠错方法的各个步骤。
一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现如上所述的语音识别纠错方法的各个步骤。
借由上述技术方案,本申请公开了一种语音识别纠错方法、相关设备及可读存储介质,首先,获取待识别的语音数据及其第一次识别结果;然后,从第一次识别结果中提取关键词,关键词是具有领域特性的专业词汇;并参考第一次识别结果的上下文信息以及关键词,对语音数据进行第二次识别,得到第二次识别结果;最后,根据第二次识别结果,确定最终的识别结果。上述方案中,在参考第一次识别结果的上下文信息以及关键词,对语音数据进行第二次识别,充分考虑了识别结果的上下文信息以及语音数据的适用场景,如果第一次识别结果有误,即可利用第二次识别对其进行纠错,因此,能够提升语音识别准确率。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本申请实施例公开的一种语音识别纠错方法的流程示意图;
图2为本申请实施例公开的一种用于训练语音纠错识别模型的预设模型的拓扑结构示意图;
图3为本申请实施例公开的又一种用于训练语音纠错识别模型的预设模型的拓扑结构示意图;
图4为本申请实施例公开的一种语音识别纠错装置结构示意图;
图5为本申请实施例公开的一种语音识别纠错系统的硬件结构框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为了提升在特殊场景(例如专业领域)下的语音识别准确率,本案发明人进行研究,起初的思路为:
搜集特殊场景下的包含专业词汇的文本作为语料,对传统语音识别模型做针对性优化和定制,采用经过定制和优化后的模型,对该特殊场景下的待识别语音进行识别,能够达到较高的准确率,但是,采用经过定制和优化后的模型,对通用场景下的待识别语音进行识别,准确率相对于传统语音识别模型却有所下降。
为兼顾通用场景下以及特殊场景下的语音识别准确率,在对待识别语音进行识别之前,需要预先确定待识别语音是在通用场景下产生的,还是在特殊场景下产生的,如果确定待识别语音是在通用场景下产生的,则采用传统语音识别模型对其进行识别,如果确定待识别语音是在特殊场景下产生的,则采用经过定制和优化后的模型对其进行识别,这样,才能既保证在通用场景下的语音识别准确率,又能保证在特殊场景下的语音识别准确率。但是,对于实现语音识别的系统来说,在对待识别语音进行识别之前,是无法预先确定待识别语音是在通用场景下产生的,还是在特殊场景下产生的。
鉴于上述思路存在的问题,本案发明人进行了深入研究发现,现有语音识别技术,通常根据语音数据流给出对应的识别结果,一旦给出识别结果后,不会再去修正。但是,实际应用中会有这种情况,对语音数据流中的第一个子句识别时,由于上下文信息不够充分,导致第一个子句识别错误,而对第一个子句后面的子句识别时,由于上下文信息较为充分,则可以对第一个子句后面的子句识别正确。也就是说,同一个词语,可能在第一个子句中出现时识别错误,在第二个子句中出现时识别正确。
示例如:待识别语音内容为“来自加州索克研究所的科学家们发现,自噬反应可以抑制癌症的发生着和过去,许多人的认知恰好相反,因此那些用来抑制自噬反应的疗法可能反而会带来不好的后果。”,被识别成“来自加州索克研究所的科学家们发现,此时反应可以抑制癌症的发生着和过去,许多人的认知恰好相反,因此那些用来抑制自噬反应的疗法可能反而会带来不好的后果。”。
上述示例中,由于自噬反应第一次出现时,上文并没有太多相关内容,而自噬反应又属于较为生僻的专业词汇,导致识别错误,而自噬反应第二次出现时,上文是抑制,抑制自噬反应这个组合语言模型得分较高,因此识别正确。
基于以上研究,本案发明人发现,识别结果本身携带的上下文信息,对识别结果的正确与否有一定的影响。
基于以上,本案发明人提出一种语音识别纠错方法。接下来,通过下述实施例对本申请提供的语音识别纠错方法进行介绍。
请参阅图1,图1为本申请实施例公开的一种语音识别纠错方法的流程示意图,该方法可以包括:
S101:获取待识别的语音数据及其第一次识别结果。
本实施例中,待识别的语音数据为用户根据应用需求说出的语音数据,如用户发短信或聊天时使用语音输入法输入的语音数据。待识别的语音数据可以为通用领域的语音数据,也可以为特殊场景(如专业领域)的语音数据。
本申请中,可以采用多种方式获取待识别语音数据的第一次识别结果。比如,可以基于神经网络模型实现。当然,其他的获取待识别的语音数据的第一次识别结果的方式也在本申请的保护范围之内。示例如,可以预先将待识别的语音数据的第一次识别结果进行存储,当需要时,从存储介质中直接获取即可。
S102:提取所述第一次识别结果中的关键词,所述关键词是具有领域特性的专有词汇。
本实施例中,所述关键词是在第一次识别结果中出现的跟领域相关的词汇,通常是具有领域特性的专业词汇。示例如:医疗领域中的自噬反应、骨牵引、肾活检等词汇;计算机领域中的前馈神经网络、池化层等。
S103:参考所述第一次识别结果的上下文信息以及所述关键词,对所述语音数据进行第二次识别,得到第二次识别结果。
本实施例中,参考所述第一次识别结果的上下文信息以及所述关键词,对所述语音数据进行第二次识别,得到第二次识别结果的实现方式可以有多种。比如,可基于神经网络模型实现。
当然,其他的实现方式也在本申请的保护范围之内。示例如:可以确定所述第一次识别结果中与所述关键词匹配的词语,并将匹配度低于预设阈值的词语替换为所述关键词,得到第二次识别结果。
S104:根据所述第二次识别结果确定最终的识别结果。
在本申请中,可以直接将所述第二次识别结果确定为最终的识别结果。但是,某些情况下,可能第二次识别结果未必优于第一次识别结果,如果直接将第二次识别结果确定为最终的识别结果,反而会降低识别准确率。因此,这种情况下,可以从第一次识别结果以及第二次识别结果中确定一个最优的识别结果作为最终的识别结果。
从第一次识别结果以及第二次识别结果中确定一个最优的识别结果的方式可以有多种,作为一种可实施方式,可以获取所述第一次识别结果的置信度,以及,所述第二次识别结果的置信度;从所述第一次识别结果以及所述第二次识别结果中,确定置信度高的识别结果为最终的识别结果。
当然,其他方式也在本申请保护范围内,示例如,可以采用人工核查的方式从第一次识别结果以及第二次识别结果中确定一个最优的识别结果。
本实施例中公开了一种语音识别纠错方法,首先,获取待识别的语音数据及其第一次识别结果;然后,从第一次识别结果中提取关键词,关键词是具有领域特性的专业词汇;并参考第一次识别结果的上下文信息以及关键词,对语音数据进行第二次识别,得到第二次识别结果;最后,根据第二次识别结果,确定最终的识别结果。上述方法中,在参考第一次识别结果的上下文信息以及关键词,对语音数据进行第二次识别,充分考虑了识别结果的上下文信息以及语音数据的适用场景,如果第一次识别结果有误,即可利用第二次识别对其进行纠错,因此,能够提升语音识别准确率。
本申请中,当获取待识别的语音数据的第一次识别结果的方式为基于神经网络模型实现时,可以将所述语音数据输入预先训练的语音识别模型,得到第一次识别结果。预先训练的语音识别模型具体可以为传统语音识别模型。也可以为基于识别训练数据集对预设模型进行训练生成的语音识别模型。识别训练数据集中包括至少一组识别训练数据,每组识别训练数据中包括一条语音数据对应的文本,以及,该条语音数据的声学特征。预设模型可以为任意神经网络模型,对此,本申请不进行任何限定。
需要说明的是,当预先训练的语音识别模型为基于识别训练数据集对预设模型进行训练生成的语音识别模型时,识别训练数据集中的每个识别训练数据可以通过以下方式得到:获取一条语音数据,对该语音数据进行人工标注,得到与该语音数据对应的文本;提取该语音数据的声学特征;生成一个识别训练数据,所述识别训练数据中包括语音数据对应的文本以及该语音数据的声学特征。
在本申请中,获取语音数据的方式可以有多种,比如可以通过智能终端的麦克风接收语音数据,所述智能终端为具有语音识别功能的电子设备,如智能手机、电脑、翻译机、机器人、智能家居、智能家电等。也可以获取预先存储的语音数据。当然,获取语音数据的其他方式也在本申请的保护范围之内,对此,本申请不进行任何限定。
在本申请中,每个语音数据的声学特征可以为语音数据的频谱特征,如MFCC(Mel-Frequency Cepstral Coefficients,梅尔频率倒谱系数),或者,FBank特征等。本申请中,可以采用主流的任一声学特征提取方法提取每个语音数据的声学特征,对此,本申请不进行任何限定。
在本申请中,训练语音识别模型时采用的预设模型可以为传统的基于attention的第三编码模块-decoder(基于注意力机制的编码解码)模型结构,也可以为其他模型结构,对此,本申请不进行任何限定。
在本申请中,基于识别训练数据对预设模型进行训练时,是以每个识别训练数据中的语音数据的声学特征作为预设模型的输入,以每个识别训练数据中的语音数据对应的文本为训练目标,对预设模型的参数进行训练的。
在本申请中,可以采用NER(Named Entity Recognition,命名实体识别)技术提取第一次识别结果中的关键词。当然,其他的提取第一次识别结果中的关键词的方式也在本申请的保护范围之内。示例如,可以采用人工的方式从第一次识别结果中提取关键词。
目前,NER(Named Entity Recognition,命名实体识别)技术可以基于神经网络模型实现。这种情况下,提取第一次识别结果中的关键词的实现方式具体可以如下:将第一次识别结果输入预先训练的关键词提取模型,得到所述第一次识别结果中的关键词。
需要说明的是,关键词提取模型可以基于提取训练数据集对预设模型结构进行训练生成,其中,提取训练数据集中包括至少一组提取训练数据,每组提取训练数据中包括一个文本,该文本中出现的具有领域特性的专业词汇已被标注。每个文本可以为特殊场景下的文本,具体可以采用人工标注的方法将每个文本中出现的具有领域特性的专业词汇打上标签实现标注。
预设模型可以为基于深度学习的BiLSTM_CRF(双向长短时记忆模型_条件随机场)模型等。
示例如,第一次识别结果为“自噬反应可以抑制癌症的发生和过去,许多人的认知正好相反,因此那些用来抑制自噬反应的疗法可能反而会带来不好的后果”,将第一次识别结果输入关键词提取模型之后,关键词提取模型即可输出关键词:自噬反应、癌症、疗法。
另外,NER(Named Entity Recognition,命名实体识别)技术,也可以基于统计模型实现。这种情况下,提取第一次识别结果中的关键词的实现方式具体可以如下:将第一次识别结果输入统计模型,得到所述第一次识别结果中的关键词。统计模型的构建方式为目前成熟技术,对此,本申请不再赘述。
在本申请中,当参考所述第一次识别结果的上下文信息以及所述关键词,对所述语音数据进行第二次识别,得到第二次识别结果的实现方式是基于神经网络模型时,可以将所述语音数据的声学特征、所述第一次识别结果以及所述关键词,输入预先训练的语音纠错识别模型,得到第二次识别结果,所述语音纠错识别模型是利用纠错训练数据集对预设模型进行训练得到的;所述纠错训练数据集中包括至少一组纠错训练数据,每组纠错训练数据包括一条语音数据对应的声学特征、所述一条语音数据对应的文本、所述一条语音数据对应的第一次识别结果以及所述第一次识别结果中的关键词。
需要说明的是,在训练语音纠错识别模型时,所述一条语音数据对应的声学特征、所述一条语音数据对应的第一次识别结果以及所述第一次识别结果中的关键词为所述预设语音纠错识别模型结构的输入,所述一条语音数据对应的文本为所述预设语音纠错识别模型结构的训练目标。
其中,每组纠错训练数据可以通过以下方式得到:获取一条语音数据。对该语音数据进行人工标注,得到与该语音数据对应的文本。提取该语音数据的声学特征。将该语音数据输入预先训练的语音识别模型,得到该语音数据对应的第一次识别结果,将第一次识别结果输入预先训练的关键词提取模型,得到该第一次识别结果中的关键词。
在本申请中,将所述语音数据的声学特征、所述第一次识别结果以及所述关键词,输入预先训练的语音纠错识别模型,得到第二次识别结果的具体实现方式可以为:利用所述语音纠错识别模型对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码以及注意力计算,并基于计算结果,得到第二次识别结果。
请参阅图2,图2为本申请实施例公开的一种用于训练语音纠错识别模型的预设模型的拓扑结构示意图,该模型包含三层,分别是编码层、注意力层、解码层。编码层的功能是提取高级特征,注意力层的功能是计算该层的输入与最终输出结果的相关性,解码层的输入为注意力层的输出,解码层的输出为当前时刻的输出结果。解码层的具体形式可以是带有softmax的单层神经网络,本申请中不进行任何限定。
编码层可以进一步划分为三个部分,分别是第一编码模块、第二编码模块、第三编码模块。
第一编码模块、第二编码模块,第三编码模块的具体结构可以是倒金字塔结构的双向RNN(Recurrent Neural Network,递归神经网络),也可以是CNN(ConvolutionalNeural Networks,卷积神经网络),本申请中不进行任何限定。
注意力层也可以进一步划分为三个部分,分别是第一注意力模块,第二注意力模块,第三注意力模块。第一注意力模块,第二注意力模块,第三注意力模块的具体结构可以是双向RNN(Recurrent Neural Network,递归神经网络),也可以是单向RNN,本申请中不进行任何限定。
解码层的输入为注意力层的输出,解码层的输出为当前时刻的输出结果。Decode的具体形式可以是带有softmax的单层神经网络,本申请中不进行任何限定。
第一编码模块的输入是待识别的语音数据对应的声学特征X,输出是声学的高级特征Ha,第二编码模块的输入是待识别的语音数据对应的第一次识别结果的表征P,输出是待识别的语音数据的第一次识别结果的表征P的高级特征Hw,第三编码模块的输入是待识别的语音数据的第一次识别结果中的关键词的表征Q,输出是待识别的语音数据的第一次识别结果中的关键词的表征Q的高级特征Hr。
上一时刻的输出结果yi-1是第一注意力模块,第二注意力模块,第三注意力模块的一个公共的输入,除此之外,每个部分还有不同的输入和输出,其中,第一注意力模块的输入是Ha,输出是语音相关的隐层状态sai和语义向量cai,第二注意力模块的输入是Hw,输出是第一次识别结果相关的隐层状态swi和语义向量cwi,第三注意力模块的输入是Hr,输出是第一次识别结果中的关键词相关的隐层状态sri和语义向量cri。
解码层的输入为注意力层的输出sai、cai、swi、cwi、sri、cri,解码层的输出为当前时刻的输出结果yi,yi为待识别的语音数据的识别结果。
一般情况下,在训练阶段,P(yi)大于预设阈值时,即可认为训练结束,P(yi)表示当前时刻输出结果是yi的概率,P(yi)=Decode(sai,swi,sri,cai,cwi,cri)。
基于上述模型,作为一种可实施方式,在本申请中,利用所述语音纠错识别模型对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码以及注意力计算,并基于计算结果,得到第二次识别结果的具体实现方式可以为:利用所述语音纠错识别模型的编码层和注意力层,分别对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码和注意力计算,得到所述计算结果;利用所述语音纠错识别模型的解码层,对所述计算结果进行解码,得到第二次识别结果。
其中,利用所述语音纠错识别模型的编码层和注意力层,分别对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码以及注意力计算,得到所述计算结果的实现方式可以如下:利用所述语音纠错识别模型的编码层,分别对每一目标对象进行编码,得到所述每一目标对象的声学高级特征;利用所述语音纠错识别模型的注意力层,分别对所述每一目标对象相关的上一时刻的语义向量以及所述语音纠错识别模型上一时刻的输出结果,进行注意力计算,得到所述每一目标对象相关的隐层状态;
利用所述语音纠错识别模型的注意力层,分别对所述每一目标对象的声学高级特征以及所述每一目标对象相关的隐层状态,进行注意力计算,得到所述每一目标对象相关的语义向量;
其中,所述目标对象包括所述语音数据的声学特征、所述第一次识别结果以及所述关键词。
具体过程如下:
利用第一编码模块对所述语音数据的声学特征进行编码,得到所述语音数据的声学高级特征;利用第一注意力模块对与所述语音数据相关的上一时刻的语义向量以及所述语音纠错识别模型上一时刻的输出结果进行注意力计算,得到所述与所述语音数据相关的隐层状态;利用第一注意力模块对所述语音数据的声学高级特征以及所述与所述语音数据相关的隐层状态进行注意力计算,得到所述与所述语音数据相关的语义向量。
利用第二编码模块对所述第一次识别结果进行编码,得到所述第一次识别结果的高级特征;利用第二注意力模块对与所述第一次识别结果相关的上一时刻的语义向量以及所述语音纠错识别模型上一时刻的输出结果进行注意力计算,得到所述与所述第一次识别结果相关的隐层状态;利用第二注意力模块对所述第一次识别结果的高级特征以及所述与所述第一次识别结果相关的隐层状态进行注意力计算,得到所述与所述第一次识别结果相关的语义向量。
利用第三编码模块对所述关键词进行编码,得到所述关键词的高级特征;利用第三注意力模块对与所述关键词相关的上一时刻的语义向量以及所述语音纠错识别模型上一时刻的输出结果进行注意力计算,得到所述与所述关键词相关的隐层状态;利用第三注意力模块对所述关键词的高级特征以及所述与所述关键词相关的隐层状态进行注意力计算,得到所述与所述关键词相关的语义向量。
请参阅图3,图3为本申请实施例公开的又一种用于训练语音纠错识别模型的预设模型的拓扑结构示意图,该模型包含三层,分别是编码层、注意力层、解码层。Encode层的功能是提取高级特征,注意力层的功能是计算该层的输入与最终输出结果的相关性,解码层的输入为注意力层的输出,解码层的输出为当前时刻的输出结果。Decode的具体形式可以是带有softmax的单层神经网络,本申请中不进行任何限定。
编码层的输入是由待识别的语音数据对应的声学特征X、待识别的语音数据对应的第一次识别结果的表征P以及待识别的语音数据的第一次识别结果中的关键词的表征Q组成的合并向量[X,P,Q]。编码层的输出是由声学特征的高级特征Ha、待识别的语音数据的第一次识别结果的表征P的高级特征Hw以及待识别的语音数据的第一次识别结果中的关键词的表征Q的高级特征Hr组成的合并向量[Ha,Hw,Hr]。
编码层的输出以及模型上一时刻的输出结果yi-1是注意力层的输入,注意力层的输出是由语音相关的隐层状态sai和语义向量cai、第一次识别结果相关的隐层状态swi和语义向量cwi、第一次识别结果中的关键词相关的隐层状态sri和语义向量cri组成的向量[sai,cai,swi,cwi,sri,cri]。
解码层的输入为注意力层的输出,解码层的输出为当前时刻的输出结果yi,yi为待识别的语音数据的识别结果。
基于上述模型,作为一种可实施方式,在本申请中,利用所述语音纠错识别模型对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码以及注意力计算,并基于计算结果,得到第二次识别结果的具体实现方式可以为:对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行合并,得到合并向量;利用所述语音纠错识别模型的编码层和注意力层,对所述合并向量进行编码以及注意力计算,得到所述计算结果;利用所述语音纠错识别模型的解码层,对所述计算结果进行解码,得到第二次识别结果。
其中,利用所述语音纠错识别模型的编码层和注意力层,对所述合并向量进行编码以及注意力计算,得到所述计算结果的实现方式可以如下:
利用所述语音纠错识别模型的编码层,对所述合并向量进行编码,得到所述合并向量的声学高级特征;
利用所述语音纠错识别模型的注意力层,对所述合并向量相关的上一时刻的语义向量以及所述语音纠错识别模型上一时刻的输出结果,进行注意力计算,得到所述合并向量相关的隐层状态;
利用所述语音纠错识别模型的注意力层,对所述合并向量的声学高级特征以及所述合并向量相关的隐层状态,进行注意力计算,得到所述合并向量相关的语义向量。
需要说明的是,传统语音识别模型,注意力层的主要关注点是传统语音识别模型的输出结果和语音数据的声学特征的相关性,本申请语音纠错识别模型中将语音数据的第一次识别结果和第一次识别结果中的关键词融入注意力层,使得语音纠错识别模型的输出结果可以关注到识别结果的纠错信息和识别结果的上下文信息。之所以这么做是希望语音纠错识别模型可以学习到输出结果与上下文信息相关的注意力机制、以及,输出结果与纠错相关的注意力机制,通过上述两个注意力机制找到当前语音数据需要关注的上下文信息和纠错信息,即根据输入语音数据能够自动选择是否需要关注第一次识别结果和第一次识别结果中的关键词信息,也就是相当于语音纠错识别模型具有了根据第一次识别结果和第一次识别结果中的关键词自动纠正错误的能力。
另外,本申请还给出了一种生成识别训练数据集以及纠错训练数据集的实现方式,具体如下:
收集用于训练语音识别模型以及语音纠错识别模型的语音数据,这部分语音数据可以通过智能终端的麦克风接收到,智能终端为具有语音识别功能的电子设备,如智能手机、电脑、翻译机、机器人、智能家居(家电)等。再由人工标注每条语音数据,即将每条语音数据通过人工转写成对应的文本数据。再提取每条语音数据的声学特征,所述声学特征一般为语音数据的频谱特征,如MFCC或者FBank等特征,该声学特征的具体获取方法为现有方法,这里不再赘余介绍。最终,得到语音数据的声学特征以及语音数据对应的人工标注文本。
将上述步骤得到的语音数据的声学特征以及语音数据对应的人工标注文本分为两部分,在本申请中,第一部分用A集表示,第二部分用B集表示。示例如,上述步骤得到的语音数据的声学特征以及语音数据对应的人工标注文本共有100万组,随机将这100万组分成等量的两个集合,分别为A集和B集。A集和B集中均包括多组训练数据,每组训练数据包括一条语音数据对应的声学特征以及该语音数据对应的人工标注文本。
使用A集作为识别训练数据集,训练得到语音识别模型。
将B集输入训练好的语音识别模型,得到B集对应的识别结果,再将B集对应的识别结果输入关键词提取模型,得到B集对应的识别结果中的关键词;B集对应的声学特征、人工标注文本、识别结果以及关键词组成C集,C集中包括多组训练数据,每组训练数据包括一条语音数据对应的声学特征、该语音数据对应的人工标注文本、该语音数据对应的识别结果以及该识别结果中的关键词。
使用C集作为纠错训练数据集,训练得到为语音纠错识别模型。
进一步需要说明的是,还可以将B集输入训练好的语音识别模型,得到B集对应的Nbest的识别结果,再将每个识别结果输入关键词提取模型,得到每个识别结果中的关键词。如果B集数据有n条语音数据,每条语音均有Nbest识别结果,最终能获取到n*N组训练数据。这样处理,能够使纠错训练数据集更为丰富,提升语音纠错识别模型的覆盖度。
下面对本申请实施例公开的语音识别纠错装置进行描述,下文描述的语音识别纠错装置与上文描述的语音识别纠错方法可相互对应参照。
参照图4,图4为本申请实施例公开的一种语音识别纠错装置结构示意图。如图4所示,该语音识别纠错装置可以包括:
获取单元41,用于获取待识别的语音数据及其第一次识别结果;
关键词提取单元42,用于从所述第一次识别结果中提取关键词,所述关键词是具有领域特性的专业词汇;
语音识别单元43,用于参考所述第一次识别结果的上下文信息以及所述关键词,对所述语音数据进行第二次识别,得到第二次识别结果;
识别结果确定单元44,用于根据所述第二次识别结果,确定最终的识别结果。
可选地,所述语音识别单元,包括:
声学特征获取单元,用于获取所述语音数据的声学特征;
模型处理单元,用于将所述语音数据的声学特征、所述第一次识别结果以及所述关键词,输入预先训练的语音纠错识别模型,得到第二次识别结果,所述语音纠错识别模型是利用纠错训练数据集对预设模型进行训练得到的;
其中,所述纠错训练数据集中包括至少一组纠错训练数据,每组纠错训练数据包括一条语音数据对应的声学特征、所述一条语音数据对应的文本、所述一条语音数据对应的第一次识别结果以及所述第一次识别结果中的关键词。
可选地,模型处理单元,包括:
编码及注意力计算单元,用于利用所述语音纠错识别模型对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码以及注意力计算;
识别单元,用于基于计算结果,得到第二次识别结果。
可选地,所述编码以及注意力计算单元包括第一编码以及注意力计算单元,所述识别单元包括第一解码单元;
所述第一编码以及注意力计算单元,用于利用所述语音纠错识别模型的编码层和注意力层,分别对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码以及注意力计算,得到所述计算结果;
所述第一解码单元,用于利用所述语音纠错识别模型的解码层,对所述计算结果进行解码,得到第二次识别结果。
可选地,所述模型处理单元还包括合并单元,所述编码以及注意力计算单元包括第二编码以及注意力计算单元,所述识别单元包括第二解码单元:
所述合并单元,用于对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行合并,得到合并向量;
所述第二编码以及注意力计算单元,用于利用所述语音纠错识别模型的编码层和注意力层,对所述合并向量进行编码以及注意力计算,得到所述计算结果;
所述第二解码单元,用于利用所述语音纠错识别模型的解码层,对所述计算结果进行解码,得到第二次识别结果。
可选地,所述第一编码以及注意力计算单元,包括:
第一编码单元,用于利用所述语音纠错识别模型的编码层,分别对每一目标对象进行编码,得到所述每一目标对象的声学高级特征;
第一注意力计算单元,用于利用所述语音纠错识别模型的注意力层,分别对所述每一目标对象相关的上一时刻的语义向量以及所述语音纠错识别模型上一时刻的输出结果,进行注意力计算,得到所述每一目标对象相关的隐层状态;以及,利用所述语音纠错识别模型的注意力层,分别对所述每一目标对象的声学高级特征以及所述每一目标对象相关的隐层状态,进行注意力计算,得到所述每一目标对象相关的语义向量;其中,所述目标对象包括所述语音数据的声学特征、所述第一次识别结果以及所述关键词。
可选地,所述第二编码以及注意力计算单元,包括:
第二编码单元,用于利用所述语音纠错识别模型的编码层,对所述合并向量进行编码,得到所述合并向量的声学高级特征;
第二注意力计算单元,用于利用所述语音纠错识别模型的注意力层,对所述合并向量相关的上一时刻的语义向量以及所述语音纠错识别模型上一时刻的输出结果,进行注意力计算,得到所述合并向量相关的隐层状态;以及,利用所述语音纠错识别模型的注意力层,对所述合并向量的声学高级特征以及所述合并向量相关的隐层状态,进行注意力计算,得到所述合并向量相关的语义向量。
可选地,所述识别结果确定单元,包括:
置信度获取单元,用于获取所述第一次识别结果的置信度,以及,所述第二次识别结果的置信度;
确定单元,用于从所述第一次识别结果以及所述第二次识别结果中,确定置信度高的识别结果为最终的识别结果。
图5示出了语音识别纠错系统的硬件结构框图,参照图5,语音识别纠错系统的硬件结构可以包括:至少一个处理器1,至少一个通信接口2,至少一个存储器3和至少一个通信总线4;
在本申请实施例中,处理器1、通信接口2、存储器3、通信总线4的数量为至少一个,且处理器1、通信接口2、存储器3通过通信总线4完成相互间的通信;
处理器1可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路等;
存储器3可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatilememory)等,例如至少一个磁盘存储器;
其中,存储器存储有程序,处理器可调用存储器存储的程序,所述程序用于:
获取待识别的语音数据及其第一次识别结果;
从所述第一次识别结果中提取关键词,所述关键词是具有领域特性的专业词汇;
参考所述第一次识别结果的上下文信息以及所述关键词,对所述语音数据进行第二次识别,得到第二次识别结果;
根据所述第二次识别结果,确定最终的识别结果。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
本申请实施例还提供一种存储介质,该存储介质可存储有适于处理器执行的程序,所述程序用于:
获取待识别的语音数据及其第一次识别结果;
从所述第一次识别结果中提取关键词,所述关键词是具有领域特性的专业词汇;
参考所述第一次识别结果的上下文信息以及所述关键词,对所述语音数据进行第二次识别,得到第二次识别结果;
根据所述第二次识别结果,确定最终的识别结果。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (11)
1.一种语音识别纠错方法,其特征在于,所述方法包括:
获取待识别的语音数据及其第一次识别结果;
从所述第一次识别结果中提取关键词,所述关键词是具有领域特性的专业词汇;
获取所述语音数据的声学特征;
将所述语音数据的声学特征、所述第一次识别结果以及所述关键词,输入预先训练的语音纠错识别模型,得到第二次识别结果,所述语音纠错识别模型是利用纠错训练数据集对预设模型进行训练得到的;
根据所述第二次识别结果,确定最终的识别结果。
2.根据权利要求1所述的方法,其特征在于,所述纠错训练数据集中包括至少一组纠错训练数据,每组纠错训练数据包括一条语音数据对应的声学特征、所述一条语音数据对应的文本、所述一条语音数据对应的第一次识别结果以及所述第一次识别结果中的关键词。
3.根据权利要求2所述的方法,其特征在于,所述将所述语音数据的声学特征、所述第一次识别结果以及所述关键词,输入预先训练的语音纠错识别模型,得到第二次识别结果,包括:
利用所述语音纠错识别模型对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码以及注意力计算,并基于计算结果,得到第二次识别结果。
4.根据权利要求3所述的方法,其特征在于,所述利用所述语音纠错识别模型对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码以及注意力计算,并基于计算结果,得到第二次识别结果,包括:
利用所述语音纠错识别模型的编码层和注意力层,分别对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码以及注意力计算,得到所述计算结果;
利用所述语音纠错识别模型的解码层,对所述计算结果进行解码,得到第二次识别结果。
5.根据权利要求3所述的方法,其特征在于,所述利用所述语音纠错识别模型对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码以及注意力计算,并基于计算结果,得到第二次识别结果,包括:
对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行合并,得到合并向量;
利用所述语音纠错识别模型的编码层和注意力层,对所述合并向量进行编码以及注意力计算,得到所述计算结果;
利用所述语音纠错识别模型的解码层,对所述计算结果进行解码,得到第二次识别结果。
6.根据权利要求4所述的方法,其特征在于,所述利用所述语音纠错识别模型的编码层和注意力层,分别对所述语音数据的声学特征、所述第一次识别结果以及所述关键词进行编码以及注意力计算,得到所述计算结果,包括:
利用所述语音纠错识别模型的编码层,分别对每一目标对象进行编码,得到所述每一目标对象的声学高级特征;
利用所述语音纠错识别模型的注意力层,分别对所述每一目标对象相关的上一时刻的语义向量以及所述语音纠错识别模型上一时刻的输出结果,进行注意力计算,得到所述每一目标对象相关的隐层状态;
利用所述语音纠错识别模型的注意力层,分别对所述每一目标对象的声学高级特征以及所述每一目标对象相关的隐层状态,进行注意力计算,得到所述每一目标对象相关的语义向量;
其中,所述目标对象包括所述语音数据的声学特征、所述第一次识别结果以及所述关键词。
7.根据权利要求5所述的方法,其特征在于,所述利用所述语音纠错识别模型的编码层和注意力层,对所述合并向量进行编码以及注意力计算,得到所述计算结果,包括:
利用所述语音纠错识别模型的编码层,对所述合并向量进行编码,得到所述合并向量的声学高级特征;
利用所述语音纠错识别模型的注意力层,对所述合并向量相关的上一时刻的语义向量以及所述语音纠错识别模型上一时刻的输出结果,进行注意力计算,得到所述合并向量相关的隐层状态;
利用所述语音纠错识别模型的注意力层,对所述合并向量的声学高级特征以及所述合并向量相关的隐层状态,进行注意力计算,得到所述合并向量相关的语义向量。
8.根据权利要求1所述的方法,其特征在于,所述根据所述第二次识别结果,确定最终的识别结果,包括:
获取所述第一次识别结果的置信度,以及,所述第二次识别结果的置信度;
从所述第一次识别结果以及所述第二次识别结果中,确定置信度高的识别结果为最终的识别结果。
9.一种语音识别纠错装置,其特征在于,所述装置包括:
获取单元,用于获取待识别的语音数据及其第一次识别结果;
关键词提取单元,用于从所述第一次识别结果中提取关键词,所述关键词是具有领域特性的专业词汇;
语音识别单元,用于参考所述第一次识别结果的上下文信息以及所述关键词,对所述语音数据进行第二次识别,得到第二次识别结果;
识别结果确定单元,用于根据所述第二次识别结果,确定最终的识别结果;
所述语音识别单元,具体用于获取所述语音数据的声学特征;将所述语音数据的声学特征、所述第一次识别结果以及所述关键词,输入预先训练的语音纠错识别模型,得到第二次识别结果,所述语音纠错识别模型是利用纠错训练数据集对预设模型进行训练得到的。
10.一种语音识别纠错系统,其特征在于,包括存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如权利要求1至8中任一项所述的语音识别纠错方法的各个步骤。
11.一种可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1至8中任一项所述的语音识别纠错方法的各个步骤。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911167009.0A CN110956959B (zh) | 2019-11-25 | 2019-11-25 | 语音识别纠错方法、相关设备及可读存储介质 |
PCT/CN2020/129314 WO2021104102A1 (zh) | 2019-11-25 | 2020-11-17 | 语音识别纠错方法、相关设备及可读存储介质 |
EP20894295.3A EP4068280A4 (en) | 2019-11-25 | 2020-11-17 | VOICE RECOGNITION ERROR CORRECTION METHOD, ASSOCIATED APPARATUS AND READABLE STORAGE MEDIUM |
US17/773,641 US20220383853A1 (en) | 2019-11-25 | 2020-11-17 | Speech recognition error correction method, related devices, and readable storage medium |
KR1020227005374A KR102648306B1 (ko) | 2019-11-25 | 2020-11-17 | 음성 인식 오류 정정 방법, 관련 디바이스들, 및 판독 가능 저장 매체 |
JP2022522366A JP7514920B2 (ja) | 2019-11-25 | 2020-11-17 | 音声認識誤り訂正方法、関連装置及び読取可能な記憶媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911167009.0A CN110956959B (zh) | 2019-11-25 | 2019-11-25 | 语音识别纠错方法、相关设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110956959A CN110956959A (zh) | 2020-04-03 |
CN110956959B true CN110956959B (zh) | 2023-07-25 |
Family
ID=69978361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911167009.0A Active CN110956959B (zh) | 2019-11-25 | 2019-11-25 | 语音识别纠错方法、相关设备及可读存储介质 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220383853A1 (zh) |
EP (1) | EP4068280A4 (zh) |
JP (1) | JP7514920B2 (zh) |
KR (1) | KR102648306B1 (zh) |
CN (1) | CN110956959B (zh) |
WO (1) | WO2021104102A1 (zh) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110956959B (zh) * | 2019-11-25 | 2023-07-25 | 科大讯飞股份有限公司 | 语音识别纠错方法、相关设备及可读存储介质 |
CN111627457A (zh) * | 2020-05-13 | 2020-09-04 | 广州国音智能科技有限公司 | 语音分离方法、系统及计算机可读存储介质 |
CN111583909B (zh) * | 2020-05-18 | 2024-04-12 | 科大讯飞股份有限公司 | 一种语音识别方法、装置、设备及存储介质 |
CN111754987A (zh) * | 2020-06-23 | 2020-10-09 | 国投(宁夏)大数据产业发展有限公司 | 一种大数据分析语音识别方法 |
CN112016305B (zh) * | 2020-09-09 | 2023-03-28 | 平安科技(深圳)有限公司 | 文本纠错方法、装置、设备及存储介质 |
CN112259100B (zh) * | 2020-09-15 | 2024-04-09 | 科大讯飞华南人工智能研究院(广州)有限公司 | 语音识别方法及相关模型的训练方法和相关设备、装置 |
CN112133453B (zh) * | 2020-09-16 | 2022-08-26 | 成都美透科技有限公司 | 一种基于医美数据和医疗数据的用户咨询辅助分析系统 |
CN112257437B (zh) * | 2020-10-20 | 2024-02-13 | 中国科学技术大学 | 语音识别纠错方法、装置、电子设备和存储介质 |
CN112435671B (zh) * | 2020-11-11 | 2021-06-29 | 深圳市小顺智控科技有限公司 | 汉语精准识别的智能化语音控制方法及系统 |
CN112489651B (zh) * | 2020-11-30 | 2023-02-17 | 科大讯飞股份有限公司 | 语音识别方法和电子设备、存储装置 |
CN114678027A (zh) * | 2020-12-24 | 2022-06-28 | 深圳Tcl新技术有限公司 | 语音识别结果的纠错方法、装置、终端设备及存储介质 |
CN113035175B (zh) * | 2021-03-02 | 2024-04-12 | 科大讯飞股份有限公司 | 一种语音文本重写模型构建方法、语音识别方法 |
CN113129870B (zh) * | 2021-03-23 | 2022-03-25 | 北京百度网讯科技有限公司 | 语音识别模型的训练方法、装置、设备和存储介质 |
CN113257227B (zh) * | 2021-04-25 | 2024-03-01 | 平安科技(深圳)有限公司 | 语音识别模型性能检测方法、装置、设备及存储介质 |
CN113409767B (zh) * | 2021-05-14 | 2023-04-25 | 北京达佳互联信息技术有限公司 | 一种语音处理方法、装置、电子设备及存储介质 |
CN113421553B (zh) * | 2021-06-15 | 2023-10-20 | 北京捷通数智科技有限公司 | 音频挑选的方法、装置、电子设备和可读存储介质 |
CN113221580B (zh) * | 2021-07-08 | 2021-10-12 | 广州小鹏汽车科技有限公司 | 语义拒识方法、语义拒识装置、交通工具及介质 |
CN115346531B (zh) * | 2022-08-02 | 2024-08-09 | 启迪万众网络科技(北京)有限公司 | 一种语音媒体处理用语音转文字识别系统 |
WO2024029845A1 (ko) * | 2022-08-05 | 2024-02-08 | 삼성전자주식회사 | 전자 장치 및 이의 음성 인식 방법 |
US11657803B1 (en) * | 2022-11-02 | 2023-05-23 | Actionpower Corp. | Method for speech recognition by using feedback information |
CN116129906B (zh) * | 2023-02-14 | 2024-09-20 | 新声科技(深圳)有限公司 | 语音识别文本修订方法、装置、计算机设备以及存储介质 |
CN116991874B (zh) * | 2023-09-26 | 2024-03-01 | 海信集团控股股份有限公司 | 一种文本纠错、基于大模型的sql语句生成方法及设备 |
CN117238276B (zh) * | 2023-11-10 | 2024-01-30 | 深圳市托普思维商业服务有限公司 | 一种基于智能化语音数据识别的分析纠正系统 |
CN117542353B (zh) * | 2023-11-14 | 2024-07-19 | 贵州大学 | 一种基于知识图谱和语音特征融合网络的语音理解方法 |
CN117558263B (zh) * | 2024-01-10 | 2024-04-26 | 科大讯飞股份有限公司 | 语音识别方法、装置、设备及可读存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107293296A (zh) * | 2017-06-28 | 2017-10-24 | 百度在线网络技术(北京)有限公司 | 语音识别结果纠正方法、装置、设备及存储介质 |
Family Cites Families (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7047191B2 (en) * | 2000-03-06 | 2006-05-16 | Rochester Institute Of Technology | Method and system for providing automated captioning for AV signals |
GB2376335B (en) * | 2001-06-28 | 2003-07-23 | Vox Generation Ltd | Address recognition using an automatic speech recogniser |
US7139704B2 (en) * | 2001-11-30 | 2006-11-21 | Intel Corporation | Method and apparatus to perform speech recognition over a voice channel |
DE10204924A1 (de) * | 2002-02-07 | 2003-08-21 | Philips Intellectual Property | Verfahren und Vorrichtung zur schnellen mustererkennungsunterstützten Transkription gesprochener und schriftlicher Äußerungen |
JP2003308094A (ja) * | 2002-02-12 | 2003-10-31 | Advanced Telecommunication Research Institute International | 音声認識における認識誤り箇所の訂正方法 |
US8239197B2 (en) * | 2002-03-28 | 2012-08-07 | Intellisist, Inc. | Efficient conversion of voice messages into text |
AU2003256313A1 (en) * | 2002-06-26 | 2004-01-19 | William Ii Harbison | A method for comparing a transcribed text file with a previously created file |
US20040249637A1 (en) * | 2003-06-04 | 2004-12-09 | Aurilab, Llc | Detecting repeated phrases and inference of dialogue models |
FR2864281A1 (fr) * | 2003-12-18 | 2005-06-24 | France Telecom | Procede de correspondance automatique entre des elements graphiques et elements phonetiques |
EP1787289B1 (en) * | 2004-07-30 | 2018-01-10 | Dictaphone Corporation | A system and method for report level confidence |
US7310602B2 (en) * | 2004-09-27 | 2007-12-18 | Kabushiki Kaisha Equos Research | Navigation apparatus |
US20070299664A1 (en) * | 2004-09-30 | 2007-12-27 | Koninklijke Philips Electronics, N.V. | Automatic Text Correction |
JP4734155B2 (ja) * | 2006-03-24 | 2011-07-27 | 株式会社東芝 | 音声認識装置、音声認識方法および音声認識プログラム |
GB2458238B (en) * | 2006-11-30 | 2011-03-23 | Nat Inst Of Advanced Ind Scien | Web site system for voice data search |
JP4867654B2 (ja) * | 2006-12-28 | 2012-02-01 | 日産自動車株式会社 | 音声認識装置、および音声認識方法 |
WO2009081861A1 (ja) * | 2007-12-21 | 2009-07-02 | Nec Corporation | 単語カテゴリ推定装置、単語カテゴリ推定方法、音声認識装置、音声認識方法、プログラム、および記録媒体 |
JP4709887B2 (ja) * | 2008-04-22 | 2011-06-29 | 株式会社エヌ・ティ・ティ・ドコモ | 音声認識結果訂正装置および音声認識結果訂正方法、ならびに音声認識結果訂正システム |
US8407049B2 (en) * | 2008-04-23 | 2013-03-26 | Cogi, Inc. | Systems and methods for conversation enhancement |
CN101876975A (zh) * | 2009-11-04 | 2010-11-03 | 中国科学院声学研究所 | 汉语地名的识别方法 |
US8296142B2 (en) * | 2011-01-21 | 2012-10-23 | Google Inc. | Speech recognition using dock context |
US9009041B2 (en) * | 2011-07-26 | 2015-04-14 | Nuance Communications, Inc. | Systems and methods for improving the accuracy of a transcription using auxiliary data such as personal data |
CN102592595B (zh) * | 2012-03-19 | 2013-05-29 | 安徽科大讯飞信息科技股份有限公司 | 语音识别方法及系统 |
CN103366741B (zh) * | 2012-03-31 | 2019-05-17 | 上海果壳电子有限公司 | 语音输入纠错方法及系统 |
WO2014018039A1 (en) * | 2012-07-26 | 2014-01-30 | Nuance Communications, Inc. | Text formatter with intuitive customization |
US9336771B2 (en) * | 2012-11-01 | 2016-05-10 | Google Inc. | Speech recognition using non-parametric models |
KR20150091406A (ko) * | 2012-12-06 | 2015-08-10 | 사로니코스 트레이딩 앤드 서비스즈, 유니페쏘알 엘디에이 | 전화 호출의 음성-텍스트 전사를 위한 언어 결정 방법 및 디바이스들 |
KR101892734B1 (ko) * | 2013-01-04 | 2018-08-28 | 한국전자통신연구원 | 음성 인식 시스템에서의 오류 수정 방법 및 그 장치 |
US20140278402A1 (en) * | 2013-03-14 | 2014-09-18 | Kent S. Charugundla | Automatic Channel Selective Transcription Engine |
US9818401B2 (en) * | 2013-05-30 | 2017-11-14 | Promptu Systems Corporation | Systems and methods for adaptive proper name entity recognition and understanding |
WO2015026366A1 (en) * | 2013-08-23 | 2015-02-26 | Nuance Communications, Inc. | Multiple pass automatic speech recognition methods and apparatus |
US9767802B2 (en) * | 2013-08-29 | 2017-09-19 | Vonage Business Inc. | Methods and apparatus for conducting internet protocol telephony communications |
US20150073790A1 (en) * | 2013-09-09 | 2015-03-12 | Advanced Simulation Technology, inc. ("ASTi") | Auto transcription of voice networks |
US20150154956A1 (en) * | 2013-12-03 | 2015-06-04 | Cellco Partnership D/B/A Verizon Wireless | Auto-tagger that learns |
US9672202B2 (en) * | 2014-03-20 | 2017-06-06 | Microsoft Technology Licensing, Llc | Context-aware re-formating of an input |
US9263033B2 (en) * | 2014-06-25 | 2016-02-16 | Google Inc. | Utterance selection for automated speech recognizer training |
WO2016064730A1 (en) * | 2014-10-20 | 2016-04-28 | Audimax, Llc | Systems, methods, and devices for intelligent speech recognition and processing |
KR102199444B1 (ko) * | 2014-11-24 | 2021-01-07 | 에스케이텔레콤 주식회사 | 음성 인식 오류에 강인한 의미 추론 방법 및 이를 위한 장치 |
KR102380833B1 (ko) * | 2014-12-02 | 2022-03-31 | 삼성전자주식회사 | 음성 인식 방법 및 음성 인식 장치 |
GB2533370A (en) * | 2014-12-18 | 2016-06-22 | Ibm | Orthographic error correction using phonetic transcription |
US9576578B1 (en) * | 2015-08-12 | 2017-02-21 | Google Inc. | Contextual improvement of voice query recognition |
US9799327B1 (en) | 2016-02-26 | 2017-10-24 | Google Inc. | Speech recognition with attention-based recurrent neural networks |
DK201670539A1 (en) * | 2016-03-14 | 2017-10-02 | Apple Inc | Dictation that allows editing |
CN107391504B (zh) * | 2016-05-16 | 2021-01-29 | 华为技术有限公司 | 新词识别方法与装置 |
US10019986B2 (en) * | 2016-07-29 | 2018-07-10 | Google Llc | Acoustic model training using corrected terms |
KR20180071029A (ko) * | 2016-12-19 | 2018-06-27 | 삼성전자주식회사 | 음성 인식 방법 및 장치 |
CN106875943A (zh) * | 2017-01-22 | 2017-06-20 | 上海云信留客信息科技有限公司 | 一种用于大数据分析的语音识别系统 |
JP6875905B2 (ja) * | 2017-03-29 | 2021-05-26 | 株式会社日立情報通信エンジニアリング | 通話制御システム及び通話制御方法 |
CN112802459B (zh) * | 2017-05-23 | 2024-06-18 | 创新先进技术有限公司 | 一种基于语音识别的咨询业务处理方法及装置 |
CN107093423A (zh) * | 2017-05-27 | 2017-08-25 | 努比亚技术有限公司 | 一种语音输入修正方法、装置及计算机可读存储介质 |
JP2019113636A (ja) | 2017-12-22 | 2019-07-11 | オンキヨー株式会社 | 音声認識システム |
JP6985138B2 (ja) | 2017-12-28 | 2021-12-22 | 株式会社イトーキ | 音声認識システム及び音声認識方法 |
CN108428447B (zh) | 2018-06-19 | 2021-02-02 | 科大讯飞股份有限公司 | 一种语音意图识别方法及装置 |
US11482213B2 (en) * | 2018-07-20 | 2022-10-25 | Cisco Technology, Inc. | Automatic speech recognition correction |
CN109065054A (zh) * | 2018-08-31 | 2018-12-21 | 出门问问信息科技有限公司 | 语音识别纠错方法、装置、电子设备及可读存储介质 |
CN113016030A (zh) * | 2018-11-06 | 2021-06-22 | 株式会社赛斯特安国际 | 提供语音识别服务的方法及装置 |
KR102377971B1 (ko) * | 2018-11-16 | 2022-03-25 | 엘지전자 주식회사 | 디스플레이 장치를 갖는 인공지능 냉장고 |
US11017778B1 (en) * | 2018-12-04 | 2021-05-25 | Sorenson Ip Holdings, Llc | Switching between speech recognition systems |
CN110110041B (zh) * | 2019-03-15 | 2022-02-15 | 平安科技(深圳)有限公司 | 错词纠正方法、装置、计算机装置及存储介质 |
CN110021293B (zh) * | 2019-04-08 | 2022-01-28 | 上海汽车集团股份有限公司 | 语音识别方法及装置、可读存储介质 |
WO2020225999A1 (ja) * | 2019-05-08 | 2020-11-12 | 株式会社Nttドコモ | 認識誤り訂正装置及び訂正モデル |
JP7200405B2 (ja) * | 2019-06-19 | 2023-01-06 | グーグル エルエルシー | 音声認識のためのコンテキストバイアス |
US11636853B2 (en) * | 2019-08-20 | 2023-04-25 | Soundhound, Inc. | Natural language grammar improvement |
US10665231B1 (en) * | 2019-09-06 | 2020-05-26 | Verbit Software Ltd. | Real time machine learning-based indication of whether audio quality is suitable for transcription |
US11610588B1 (en) * | 2019-10-28 | 2023-03-21 | Meta Platforms, Inc. | Generating contextually relevant text transcripts of voice recordings within a message thread |
CN110956959B (zh) * | 2019-11-25 | 2023-07-25 | 科大讯飞股份有限公司 | 语音识别纠错方法、相关设备及可读存储介质 |
-
2019
- 2019-11-25 CN CN201911167009.0A patent/CN110956959B/zh active Active
-
2020
- 2020-11-17 US US17/773,641 patent/US20220383853A1/en active Pending
- 2020-11-17 KR KR1020227005374A patent/KR102648306B1/ko active IP Right Grant
- 2020-11-17 WO PCT/CN2020/129314 patent/WO2021104102A1/zh unknown
- 2020-11-17 JP JP2022522366A patent/JP7514920B2/ja active Active
- 2020-11-17 EP EP20894295.3A patent/EP4068280A4/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107293296A (zh) * | 2017-06-28 | 2017-10-24 | 百度在线网络技术(北京)有限公司 | 语音识别结果纠正方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP4068280A1 (en) | 2022-10-05 |
US20220383853A1 (en) | 2022-12-01 |
EP4068280A4 (en) | 2023-11-01 |
KR102648306B1 (ko) | 2024-03-15 |
CN110956959A (zh) | 2020-04-03 |
WO2021104102A1 (zh) | 2021-06-03 |
JP7514920B2 (ja) | 2024-07-11 |
JP2022552662A (ja) | 2022-12-19 |
KR20220035222A (ko) | 2022-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110956959B (zh) | 语音识别纠错方法、相关设备及可读存储介质 | |
CN109785824B (zh) | 一种语音翻译模型的训练方法及装置 | |
CN109582767B (zh) | 对话系统处理方法、装置、设备及可读存储介质 | |
CN111583909B (zh) | 一种语音识别方法、装置、设备及存储介质 | |
CN110516253B (zh) | 中文口语语义理解方法及系统 | |
JP4195428B2 (ja) | 多数の音声特徴を利用する音声認識 | |
CN110069612B (zh) | 一种回复生成方法及装置 | |
CN111079418B (zh) | 命名体识别方法、装置、电子设备和存储介质 | |
CN111046674B (zh) | 语义理解方法、装置、电子设备和存储介质 | |
CN112767917B (zh) | 语音识别方法、装置及存储介质 | |
Das et al. | Best of both worlds: Robust accented speech recognition with adversarial transfer learning | |
Chi et al. | Speaker role contextual modeling for language understanding and dialogue policy learning | |
CN112802461B (zh) | 语音识别方法和装置、服务器、计算机可读存储介质 | |
CN116910220A (zh) | 多轮对话交互处理方法、装置、设备和存储介质 | |
WO2021179703A1 (zh) | 一种手语翻译方法、装置、计算机设备及存储介质 | |
CN110992943B (zh) | 基于词混淆网络的语义理解方法及系统 | |
CN113035179B (zh) | 一种语音识别方法、装置、设备及计算机可读存储介质 | |
CN116955579B (zh) | 一种基于关键词知识检索的聊天回复生成方法和装置 | |
CN112686059B (zh) | 文本翻译方法、装置、电子设备和存储介质 | |
JP2021503104A (ja) | 自動音声認識装置及び方法 | |
CN112580669A (zh) | 一种对语音信息的训练方法及装置 | |
CN114579728B (zh) | 应用于多轮对话系统的对话生成方法、装置、设备及介质 | |
CN112836522B (zh) | 语音识别结果的确定方法及装置、存储介质及电子装置 | |
CN112509559B (zh) | 音频识别方法、模型训练方法、装置、设备及存储介质 | |
CN110413739B (zh) | 用于口语语义理解的数据增强方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |