CN113793600B - 语音识别方法、装置、设备及存储介质 - Google Patents

语音识别方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113793600B
CN113793600B CN202111086713.0A CN202111086713A CN113793600B CN 113793600 B CN113793600 B CN 113793600B CN 202111086713 A CN202111086713 A CN 202111086713A CN 113793600 B CN113793600 B CN 113793600B
Authority
CN
China
Prior art keywords
current moment
language
possible decoding
score
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111086713.0A
Other languages
English (en)
Other versions
CN113793600A (zh
Inventor
王孟之
万根顺
高建清
刘聪
王智国
胡国平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
iFlytek Co Ltd
Original Assignee
University of Science and Technology of China USTC
iFlytek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC, iFlytek Co Ltd filed Critical University of Science and Technology of China USTC
Priority to CN202111086713.0A priority Critical patent/CN113793600B/zh
Publication of CN113793600A publication Critical patent/CN113793600A/zh
Application granted granted Critical
Publication of CN113793600B publication Critical patent/CN113793600B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0635Training updating or merging of old and new templates; Mean values; Weighting

Abstract

本申请实施例公开了一种语音识别方法、装置、设备及存储介质,获得当前时刻各个可能的解码结果在多个领域中的每一个领域的语言分数,以当前时刻各个可能的解码结果的声学分数为基准,确定各个领域的语言分数的权重,然后根据当前时刻各个可能的解码结果在每一领域的语言分数的加权求和结果,以及当前时刻各个可能的解码结果的声学分数,确定当前时刻的解码结果。由于在解码过程中考虑了当前时刻各个可能的解码结果在每一个领域的语言分数,且对不同领域的语言分数赋予了不同的权重,实现了领域语言模型的自适应选择,从而提高语音识别方法的领域适应性。

Description

语音识别方法、装置、设备及存储介质
技术领域
本申请涉及语音处理技术领域,更具体地说,涉及一种语音识别方法、装置、设备及存储介质。
背景技术
目前的端到端的语音识别模型的领域适用性较差,主要表现是语音识别模型只在与训练集匹配的测试集上准确率较高,一旦测试集领域和训练集不同,如训练集是金融领域,测试集是医疗领域,则语音识别模型的准确率会大幅降低。因此,如何提高语音识别模型的领域适用性成为亟待解决的技术问题。
发明内容
有鉴于此,本申请提供了一种语音识别方法、装置、设备及存储介质,以提高语音识别模型的领域适用性。
为了实现上述目的,现提出的方案如下:
一种语音识别方法,包括:
获得待识别语音的当前时刻的各个可能的解码结果的声学分数,以及当前时刻所述各个可能的解码结果在多个领域中的每一个领域的语言分数;
利用当前时刻所述各个可能的解码结果的声学分数和各个领域的语言分数,获得当前时刻所述各个可能的解码结果在每一个领域的语言分数的权重;其中,与所述各个可能的解码结果的声学分数越接近,所述各个可能的解码结果的语言分数的权重越大;
根据当前时刻所述各个可能的解码结果在所述多个领域的语言分数的加权求和结果,以及所述当前时刻各个可能的解码结果的声学分数,确定当前时刻的解码结果。
上述方法,优选的,所述利用当前时刻所述各个可能的解码结果的声学分数和各个领域的语言分数,获得当前时刻所述各个可能的解码结果在每一个领域的语言分数的权重,包括:
对应每一个领域,将当前时刻所述各个可能的解码结果的声学分数和同一可能的解码结果在该领域的语言分数求和,得到当前时刻所述各个可能的解码结果对应的分数和值;
根据预置的所述各个可能的解码结果的权值,将所述当前时刻各个可能的解码结果对应的分数和值加权求和,得到该领域的语言分数的权重。
上述方法,优选的,所述获得待识别语音的当前时刻的各个可能的解码结果的声学分数,以及当前时刻所述各个可能的解码结果在多个领域中的每一个领域的语言分数,包括:
获得对所述待识别语音的各个语音帧进行编码得到的帧编码结果,以及多个领域的语言模型分别对前一时刻的解码结果进行处理得到的隐层特征;
至少利用所述帧编码结果和第一领域的语言模型得到的隐层特征,获得当前时刻所述各个可能的解码结果的声学分数;其中,用于对待识别语音的各个语音帧进行编码得到的所述帧编码结果的编码器与所述第一领域的语言模型通过所述第一领域的语音训练数据联合训练得到;
对每一个领域的语言模型得到的隐层特征分别进行处理,得到当前时刻所述各个可能的解码结果在每一个领域的语言分数。
上述方法,优选的,所述至少利用所述帧编码结果和第一领域的语言模型得到的隐层特征,获得当前时刻所述各个可能的解码结果的声学分数,包括:
对所述帧编码结果和所述第一领域的语言模型得到的隐层特征进行基于注意力机制的处理,获得当前时刻各个语音帧的关注度;
根据所述当前时刻各个语音帧的关注度获得当前时刻所述各个可能的解码结果的声学分数。
上述方法,优选的,所述至少利用所述帧编码结果和第一领域的语言模型得到的隐层特征,获得当前时刻所述各个可能的解码结果的声学分数,包括:
利用所述帧编码结果、所述第一领域的语言模型得到的隐层特征、前一时刻的各个语音帧的关注度,获得当前时刻之前的已关注信息;
对所述帧编码结果、所述第一领域的语言模型得到的隐层特征、所述前一时刻的各个语音帧的关注度和所述已关注信息进行基于注意力机制的处理,获得当前时刻各个语音帧的关注度;
根据当前时刻所述各个语音帧的关注度获得当前时刻所述各个可能的解码结果的声学分数。
上述方法,优选的,利用所述帧编码结果、所述第一领域的语言模型得到的隐层特征、前一时刻的各个语音帧的关注度,获得当前时刻之前的已关注信息,包括:
对所述帧编码结果、所述第一领域的语言模型得到的隐层特征、以及前一时刻的各个语音帧的关注度进行基于注意力机制的处理,确定当前时刻各个语音帧的初始关注度;所述当前时刻各个语音帧的初始关注度用于确定当前时刻之前已关注的语音帧;
对所述当前时刻之前已关注的语音帧的编码结果加权求和,得到所述当前时刻之前的已关注信息;其中,所述已关注的语音帧的编码结果的权重为所述已关注的语音帧在当前时刻的初始关注度。
上述方法,优选的,对所述帧编码结果、所述第一领域的语言模型得到的隐层特征、以及前一时刻的各个语音帧的关注度进行基于注意力机制的处理,确定当前时刻各个语音帧的初始关注度,包括:
对所述前一时刻的各个语音帧的关注度进行一维卷积变换,得到卷积变换结果;
对所述帧编码结果、所述第一领域的语言模型得到的隐层特征、以及所述卷积变换结果进行基于注意力机制的处理,确定当前时刻各个语音帧的初始关注度。
一种语音识别装置,包括:
分数获得模块,用于获得待识别语音的当前时刻的各个可能的解码结果的声学分数,以及当前时刻所述各个可能的解码结果在多个领域中的每一个领域的语言分数;
权重获得模块,用于利用当前时刻所述各个可能的解码结果的声学分数和各个领域的语言分数,获得当前时刻所述各个可能的解码结果在每一个领域的语言分数的权重;其中,与所述各个可能的解码结果的声学分数越接近,所述各个可能的解码结果的语言分数的权重越大;
确定模块,用于根据当前时刻所述各个可能的解码结果在所述多个领域的语言分数的加权求和结果,以及所述当前时刻各个可能的解码结果的声学分数,确定当前时刻的解码结果。
一种语音识别设备,包括存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如上任一项所述的语音识别方法的各个步骤。
一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如上任一项所述的语音识别方法的各个步骤。
从上述的技术方案可以看出,本申请实施例提供的语音识别方法、装置、设备及存储介质,获得待识别语音的当前时刻的各个可能的解码结果的声学分数,以及当前时刻各个可能的解码结果在多个领域中的每一个领域的语言分数;利用当前时刻各个可能的解码结果的声学分数和各个领域的语言分数,获得当前时刻所述各个可能的解码结果在每一个领域的语言分数的权重;其中,与各个可能的解码结果的声学分数越接近,各个可能的解码结果的语言分数的权重越大;根据当前时刻所述各个可能的解码结果在多个领域的语言分数的加权求和结果,以及当前时刻各个可能的解码结果的声学分数,确定当前时刻的解码结果。
本申请中,获得当前时刻各个可能的解码结果在多个领域中的每一个领域的语言分数,以当前时刻各个可能的解码结果的声学分数为基准,确定各个领域的语言分数的权重,然后根据当前时刻各个可能的解码结果在每一领域的语言分数的加权求和结果,以及当前时刻各个可能的解码结果的声学分数,确定当前时刻的解码结果。由于在解码过程中考虑了当前时刻各个可能的解码结果在每一个领域的语言分数,且对不同领域的语言分数赋予了不同的权重,实现了领域语言模型的自适应选择,从而提高语音识别方法的领域适应性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例公开的语音识别方法的一种实现流程图;
图2为本申请实施例公开的利用当前时刻各个可能的解码结果的声学分数和各个领域的语言分数,获得当前时刻各个可能的解码结果在每一个领域的语言分数的权重的一种实现流程图;
图3为本申请实施例公开的获得待识别语音的当前时刻的各个可能的解码结果的声学分数,以及当前时刻各个可能的解码结果在多个领域中的每一个领域的语言分数的一种实现流程图;
图4为本申请实施例公开的至少利用帧编码结果和第一领域的语言模型得到的隐层特征,获得当前时刻各个可能的解码结果的声学分数的一种实现流程图;
图5为本申请实施例公开的语音识别模型的一种结构示意图;
图6为本申请实施例公开的具有单一语言模型的语音识别模型的一种结构示意图;
图7为本申请实施例公开的至少利用帧编码结果和第一领域的语言模型得到的隐层特征,获得当前时刻各个可能的解码结果的声学分数的另一种实现流程图;
图8为本申请实施例公开的当前时刻各个语音帧的初始关注度的一种示例图;
图9为本申请实施例公开的当前时刻各个语音帧的关注度的一种示例图;
图10为本申请实施例公开的语音识别模型的另一种结构示意图;
图11为本申请实施例公开的具有单一语言模型的语音识别模型的另一种结构示意图;
图12为本申请实施例公开的语音识别装置的一种结构示意图;
图13为本申请实施例公开的语音识别设备的硬件结构框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
ED(Encoder-Decoder)语音识别模型作为一种端到端模型,将传统语音识别系统的发音词典、声学模型和语言模型融为一体,同时优化、避免了传统模型局部最优的问题,大幅提升了语音识别准确率。
但ED语音识别模型存在鲁棒性差的问题,比如,ED语音识别模型只在与训练集匹配的测试集上准确率较高,一旦测试集领域和训练集的领域不同,如训练集是通用数据,测试集是医疗领域的数据,则ED语音识别模型在测试集上的准确率会大幅降低。
目前提升ED语音识别模型在领域数据集上准确率的方法是将领域数据与通用数据混合,利用混合后的数据集重新训练模型。然而,将领域数据与通用数据混合重训模型虽然可以提升领域数据的识别率,但会降低通用数据的识别准确率,而且,领域数据和通用数据的比例需要精调,如果不同领域的训练数据的数据量不同,会导致数据较少的领域的语音识别效果仍然较差。还有一种提升ED语音识别模型在领域数据集上准确率的方法,就是单独使用领域数据集训练语言模型,基于这个语言模型虽然可以在领域数据集上取得较高的识别准确率,但通用识别率却很低。而良好的语音识别模型需要在通用数据和领域数据上都具有较高的识别率。
总之,一个真正通用的语音识别模型需要在各种领域上都取得较高的识别率,单纯混合所有领域数据训练语音识别模型会导致数据稀疏的领域的识别准确率较低;为每个领域训练单独的语言模型虽然可以在所有领域均取得较高识别率,但这要求在识别前知道待识别语音属于哪个领域,而这是不现实的。因此,有必要提供一种领域自适应的方法,让语音识别模型自己选择合适的领域语言模型。基于此,提出本申请。
如图1所示,为本申请实施例提供的语音识别方法的一种实现流程图,可以包括:
步骤S101:获得待识别语音的当前时刻的各个可能的解码结果的声学分数,以及当前时刻各个可能的解码结果在多个领域中的每一个领域的语言分数。
与现有技术中仅获得当前时刻各个可能的解码结果在一个领域的语言分数不同,本申请中,获得当前时刻各个可能的解码结果在多个领域中的每一领域的语言分数,即在上述多个领域中的每一个领域,均获得该领域中当前时刻的各个可能的解码结果的语言分数。
当前时刻各个可能的解码结果的声学分数可以用一个向量(为便于区分,记为scoream)表示,该向量scoream的长度为词表的大小,向量scoream中的每一个元素对应词表中的一个词,元素的取值表征该元素对应的词的声学分数。也就是说,当前时刻各个可能的解码结果就是词表中的各个词。
其中,词表中的词是语音识别模型的建模单元,建模单元的数量就是词表大小(即词表中词的数量),比如,语音识别模型的建模单元数量可以在一万五左右,可以包括六千多个汉字和若干英文单词。
当前时刻各个可能的解码结果在第i个领域的语言分数也可以用一个向量(为便于区分,记为scorelm_i)表示,该向量scorelm_i的长度也为上述词表的大小,向量scorelm_i中的每一个元素对应词表中的一个词,元素的取值表征该元素对应的词在第i个领域的语言分数。i=1,2,3,……,M,其中,M为上述多个领域的数量。
步骤S102:利用当前时刻各个可能的解码结果的声学分数和各个领域的语言分数,获得当前时刻各个可能的解码结果在每一个领域的语言分数的权重;其中,与各个可能的解码结果的声学分数越接近,各个可能的解码结果的语言分数的权重越大。
第i个领域的语言分数的权重可以是指第i个领域的语言分数的向量表示scorelm_i的权重。也就是说,当前时刻各个可能的解码结果在同一领域的语言分数的权重相同。因而,第i个领域的语言分数的权重实质是第i个领域的权重。
本申请中,各个可能的解码结果在每一个领域的语言分数的权重,是以各个可能的解码结果的声学分数为基准的,即第i个领域的各个可能的解码结果的语言分数与各个可能的解码结果的声学分数越接近,第i个领域的各个可能的解码结果的语言分数的权重越大。
步骤S103:根据当前时刻各个可能的解码结果在多个领域的语言分数的加权求和结果,以及当前时刻各个可能的解码结果的声学分数,确定当前时刻的解码结果。
可选的,可以将当前时刻各个可能的解码结果在多个领域中的语言分数的加权求和结果,与当前时刻各个可能的解码结果的声学分数相加,得到当前时刻各个可能的解码结果的综合分数。
利用当前时刻各个可能的解码结果的综合分数进行解码,得到当前时刻的解码结果。
与现有技术中根据当前时刻各个可能的解码结果在单一领域(通用领域,或者,专业领域)的语言分数,以及当前时刻各个可能的解码结果的声学分数,确定当前时刻的解码结果不同,本申请实施例提供的语音识别方法,获得当前时刻各个可能的解码结果在多个领域中的每一个领域的语言分数,以当前时刻各个可能的解码结果的声学分数为基准,确定各个领域的语言分数的权重,然后根据当前时刻各个可能的解码结果在每一领域的语言分数的加权求和结果,以及当前时刻各个可能的解码结果的声学分数,确定当前时刻的解码结果。由于在解码过程中考虑了当前时刻各个可能的解码结果在每一个领域的语言分数,且对不同领域的语言分数赋予了不同的权重,实现了领域语言模型的自适应选择,从而提高语音识别方法的领域适应性。
在一可选的实施例中,上述利用当前时刻各个可能的解码结果的声学分数和各个领域的语言分数,获得当前时刻各个可能的解码结果在每一个领域的语言分数的权重的一种实现流程图如图2所示,可以包括:
步骤S201:对应每一个领域,将当前时刻各个可能的解码结果的声学分数和同一可能的解码结果在该领域的语言分数求和,得到当前时刻各个可能的解码结果对应的分数和值。
步骤S202:根据预置的各个可能的解码结果的权值,将当前时刻各个可能的解码结果对应的分数和值加权求和,得到该领域的语言分数的权重。
当前时刻各个可能的解码结果在第i个领域的语言分数的权重用公式可以表示为:
scoredomain_i=v1(scoream+scorelm_i) (1)
其中,scoredomain_i表示当前时刻各个可能的解码结果在第i个领域的语言分数的权重。v、scoream、scorelm_i均是长度为n的向量,n为前述词表的大小;v中的元素表示预置的各个可能的解码结果的权值,scoream中的元素表示当前时刻各个可能的解码结果的声学分数,scorelm_i中的元素表示当前时刻各个可能的解码结果在第i个领域的语言分数。
各个可能的解码结果的权重可以是预先通过机器学习学习到的,具体学习过程可以参看后续实施例,这里不再详述。
在一可选的实施例中,上述获得待识别语音的当前时刻的各个可能的解码结果的声学分数,以及当前时刻各个可能的解码结果在多个领域中的每一个领域的语言分数的一种实现流程图如图3所示,可以包括:
步骤S301:获得对待识别语音的各个语音帧进行编码得到的帧编码结果,以及多个领域的语言模型分别对前一时刻的解码结果进行处理得到的隐层特征。
对于待识别语音的各个语音帧,可以提取语音帧的声学特征,比如,Fbank特征,MFCC特征等,对各个语音帧的声学特征进行编码处理,得到各个语音帧的编码结果,记为帧编码的结果。可以利用编码器对各个语音帧的声学特征进行编码处理,得到各个语音帧的编码结果。
每个领域的语言模型是通过该领域的文本训练数据训练得到的。具体训练方式可以采用现有的语音识别技术中较为成熟的方法,这里不再赘述。
步骤S302:至少利用帧编码结果和第一领域的语言模型得到的隐层特征,获得当前时刻各个可能的解码结果的声学分数;其中,用于对待识别语音的各个语音帧进行编码得到的帧编码结果的编码器与第一领域的语言模型通过第一领域的语音训练数据联合训练得到。
本申请实施例中,声学分数可以利用帧编码结果和第一领域的语言模型得到的隐层特征得到,也可以利用帧编码结果和第一领域的语言模型得到的隐层特征及历史对齐信息得到。
编码器和各个领域的语言模型都是语音识别模型的组成部分。
步骤S302:对每一个领域的语言模型得到的隐层特征分别进行处理,得到当前时刻各个可能的解码结果在每一个领域的语言分数。语言模型对隐层特征进行处理得到语言分数的具体实现方式可以采用已有的成熟方案,这里不再详述。
需要说明的是,本申请不对步骤S302和步骤S303的执行顺序做限定,可以先执行步骤S302,再执行步骤S303,或者,先执行步骤S303,在执行步骤S302,或者,步骤S302和步骤S303同时执行。
在一可选的实施例中,上述至少利用帧编码结果和第一领域的语言模型得到的隐层特征,获得当前时刻各个可能的解码结果的声学分数的一种实现流程图如图4所示,可以包括:
步骤S401:对帧编码结果和第一领域的语言模型得到的隐层特征进行基于注意力机制的处理,获得当前时刻各个语音帧的关注度。
该步骤S401可以通过语音识别模型中的第一注意力模块来对帧编码结果和第一领域的语言模型得到的隐层特征进行基于注意力机制的处理,获得当前时刻各个语音帧的关注度。第一注意力模块、编码器和第一领域的语言模型通过第一领域的语音训练数据联合训练得到
步骤S402:根据当前时刻各个语音帧的关注度获得当前时刻各个可能的解码结果的声学分数。
基于图4相关实施例,本申请实施例提供的语音识别方法可以通过图5所示的语音识别模型实现,如图5所述,语音识别模型可以包括:编码器和解码器;其中,解码器可以包括M个领域的语言模型,各个领域的语言模型对应的语言打分模块,解码器还包括领域注意力模块,第一注意力模块,声学打分模块和解码模块;其中,
编码器用于对待识别语音的各个语音帧进行编码,得到各个语音帧编码结果。
第i个语言模型用于对前一个时刻(即t-1时刻)的解码结果yt-1进行处理,得到第i个领域对应的隐层特征。
第一注意力模块用于对帧编码结果和第1领域的隐层特征1进行基于注意力机制的处理,得到当前时刻(即t时刻)各个语音帧的关注度;
声学打分模块用于根据当前时刻各个语音帧的关注度获得当前时刻各个可能的解码结果的声学分数。
第i个语言打分模块i用于根据第i个语言模型输出的隐层特征i获得当前时刻各个可能的解码结果在第i个领域的语言分数。
领域注意力模块用于利用当前时刻各个可能的解码结果的声学分数和各个领域的语言分数,获得当前时刻各个可能的解码结果在每一个领域的语言分数的权重,并获得当前时刻各个可能的解码结果在多个领域的语言分数的加权求和结果。
解码模块用于根据当前时刻各个可能的解码结果在多个领域的语言分数的加权求和结果,以及当前时刻各个可能的解码结果的声学分数,确定当前时刻的解码结果yt
图5所示的语音识别模型可以通过如下方式训练得到:
通过第1领域的语音训练数据训练如图6所示的具有单一语言模型的语音识别模型,得到编码器、语言模型1、第一注意力模块、语言打分模块、声学打分模块和解码模块的参数。第1领域的语音训练数据可以是通用语音数据,也可以是某个专业领域的语音数据。第1领域的语音训练数据优选为通用语音数据。
然后利用第j领域的文本训练数据训练第j个领域的语言模型和第j个领域的语言打分模块j,j=2,3,……,M;第j个领域的语言模型的训练采用现有的语音识别技术中较为成熟的方法,此处不再赘述。
将第2至第M个领域的训练好的语言模型加入图6所示的语言识别模型,并构建如图5所示的语音识别模型,利用混合领域的语音训练数据对图5所示的语音模型进行训练,在训练过程中,保持编码器、第i个语言模型、第i个打分模块、第一注意力模块、声学打分模块和解码模块的参数不变,仅更新(即学习)领域注意力模块的参数即可。
另外,本申请的发明人研究发现,与其它的语音识别方法存在重复出字和漏字现象类似,本申请的上述的语音识别方法也会存在重复出字、漏字等异常现象,其主要原因在于在寻找下一个解码结果(字)的位置时未考虑历史解码所关注的信息。以前述图6所示语音模型为例,现有技术中在计算各个语音帧的关注度时,通过如下公式计算:
alpha=v2*tanh(s*Wq1+enc*Wk1) (2)
其中,alpha为一个向量,该向量中的元素表示当前时刻各个语音帧的关注度;v2为一个向量,Wq1和Wk1均为线性变换矩阵,v2,Wq1和Wk1均通过机器学习得到;s是语言模型的输出,enc为帧编码结果。
基于此,本申请提供另一种获得当前时刻所述各个可能的解码结果的声学分数。本申请实施例提供的至少利用帧编码结果和第一领域的语言模型得到的隐层特征,获得当前时刻各个可能的解码结果的声学分数的另一种实现流程图如图7所示,可以包括:
步骤S701:利用帧编码结果、第一领域的语言模型得到的隐层特征,以及前一时刻的各个语音帧的关注度,获得当前时刻之前的已关注信息。
当前时刻之前的已关注信息可以是指当前时刻之前解码所对齐的语音帧中的已关注信息。
可选的,可以通过如下方式获得当前时刻之前的已关注信息:
对帧编码结果、第一领域的语言模型得到的隐层特征、以及前一时刻的各个语音帧的关注度进行基于注意力机制的处理,确定当前时刻各个语音帧的初始关注度;当前时刻各个语音帧的初始关注度用于确定当前时刻之前已关注的语音帧;
可以通过语音识别模型中的第二注意力模块对帧编码结果、第一领域的语言模型得到的隐层特征、以及前一时刻的各个语音帧的关注度进行基于注意力机制的处理,确定当前时刻各个语音帧的初始关注度。
可以将第k个语音帧的初始关注度与阈值比较,如果第k个语音帧的初始关注度度小于阈值,确定第k个语音帧为当前时刻之前已关注的语音帧。第k个语音帧为待识别语音的各个语音帧中的任意一语音帧。
对当前时刻之前已关注的语音帧的编码结果加权求和,得到当前时刻之前的已关注信息;其中,已关注的语音帧的编码结果的权重为已关注的语音帧在当前时刻的初始关注度。
可选的,在对帧编码结果、第一领域的语言模型得到的隐层特征、以及前一时刻的各个语音帧的关注度进行基于注意力机制的处理,确定当前时刻各个语音帧的初始关注度时,具体可以为:
对前一时刻的各个语音帧的关注度进行一维卷积变换,得到卷积变换结果。可以使用一层卷积层对前一时刻的各个语音帧的关注度进行一维卷积变换。作为示例,卷积层中的卷积核大小为21,通道数为8,卷积核大小为21狮子左右视野均为10,40ms帧率下代表左右视野400ms,这样操作的结果是每帧可以知道其左右400ms在解码之前的结果时有没有被关注过,因为语音是单调的,如果之前关注过,后续不足要再关注。
对帧编码结果、第一领域的语言模型得到的隐层特征、以及卷积变换结果进行基于注意力机制的处理,确定当前时刻各个语音帧的初始关注度。
步骤S702:对帧编码结果、第一领域的语言模型得到的隐层特征、前一时刻的各个语音帧的关注度和当前时刻之前的已关注信息进行基于注意力机制的处理,获得当前时刻各个语音帧的关注度。
步骤S703:根据当前时刻各个语音帧的关注度获得当前时刻各个可能的解码结果的声学分数。
可选的,可以通过如下公式计算得到当前时刻各个语音帧的初始关注度:
alpha=v3*tanh(s*Wq2+enc*Wk2+f*Wf1) (3)
其中,alpha为一个向量,该向量中的元素表示当前时刻各个语音帧的初始关注度;v3为一个向量,Wq2、Wk2和Wf1均为线性变换矩阵,v2、Wq2、Wk2和Wf1均通过机器学习得到;s是语言模型的输出,enc为帧编码结果,f是上述卷积变换结果。
公式(3)的主要思想是每帧的关注度主要由帧编码结果决定,而且,之前已经关注过语音帧现在无需关注,所以在计算当前时刻各个语音帧的关注度时加入历史对齐信息f,可以屏蔽已关注语音帧。s的加入用于根据协同发音调整当前帧关注度。协同发音指的是一个音受前后相邻音的影响而发生变化,从发声机理上看就是人的发声器官在一个音转向另一个音时其特性只能渐变,从而使得后一个音的频谱与其他条件下的频谱产生差异,因此,在寻找当前字(当前的解码结果)对应的帧时,需要考虑上一个字,上一个字不同,当前字对应的帧也不同。
如图8所示,为本申请实施例提供的当前时刻各个语音帧的初始关注度的示例图。该图中,横轴表示语音帧的序号,纵轴表示解码结果的序号(图中的小数是绘图工具问题,不代表解码结果的序号有小数),图中每个解码结果序号对应的灰度条表征该解码结果对各个语音帧的关注度,其中,灰度值越小,表征解码结果对灰度值对应的语音帧的关注度越大,而且,在解某个字时,不会关注其前面已解码的字对应的帧,但会关注其后面未解码字对应的帧。
可选的,可以通过如下公式计算得到当前时刻之前的已关注信息:
Memory=cumsum(alpha*enc,dim=T,exclusive=True) (4)
其中,Memory为当前时刻之前的已关注信息,其实质是从解码得到的第一个解码结果开始到现在已关注信息的累加;cumsum和dim=T表示在时间(这里指代待识别语音的时间,或者指语音帧的序号)维度累加,exclusive=True表示累加的值不包含当前时刻关注语音帧及其之后的语音帧的编码结果。
可以通过如下公式计算得到当前时刻各个语音帧的关注度:
beta=v4*tanh(s*Wq3+enc*Wk3+f*Wf2+memory*Wm) (5)
其中,为一个向量,该向量中的每个元素对应一个语音帧,每个元素的值表示当前时刻元素对应的语音帧的关注度;v4为一个向量,Wq2、Wk2、Wf1和Wm均为线性变换矩阵,v4、Wq2、Wk2、Wf1和Wm均通过机器学习得到;s是语言模型的输出,enc为帧编码结果,f是上述卷积变换结果,memory为当前时刻之前的已关注信息。
公式(5)的主要思想是,由于计算每帧关注度时考虑了到当前为止已关注的信息,如果已关注的信息为空或已关注的信息与当前帧属于同一个字,则可以继续关注当前帧,而如果已关注的信息和当前帧不符,则不关注当前帧。如图9所示,为本申请实施例提供的当前时刻各个语音帧的关注度的示例图。该图中,横轴表示语音帧的序号,纵轴表示解码结果的序号(图中的小数是绘图工具问题,不代表解码结果的序号有小数),图中每个解码结果序号对应的灰度条表征该解码结果对各个语音帧的关注度,其中,灰度值越小,表征解码结果对灰度值对应的语音帧的关注度越大,而且,在解某个字时,不会关注其前面已解码的字对应的语音帧,也不会关注其后面的字对应的语音帧,证明了memory的有效性,语音帧的关注度在时间维度上单调向前,保证了语音识别的鲁棒性。
基于图7相关实施例,本申请实施例提供的语音识别方法可以通过图10所示的语音识别模型实现,如图10所示,本申请实施例提供的语音识别模型可以包括:编码器和解码器;其中,解码器可以包括M个领域的语言模型,各个领域的语言模型对应的语言打分模块,解码器还包括领域注意力模块,第二注意力模块,第三注意力模块,memory模块,声学打分模块和解码模块;其中,
编码器用于对待识别语音的各个语音帧进行编码,得到各个语音帧编码结果。
第i个语言模型用于对前一个时刻(即t-1时刻)的解码结果yt-1进行处理,得到第i个领域对应的隐层特征。
第二注意力模块用于对帧编码结果、第一领域的语言模型得到的隐层特征、以及前一时刻的各个语音帧的关注度Betat-1进行基于注意力机制的处理,确定当前时刻各个语音帧的初始关注度。
Memory模块用于对当前时刻之前已关注的语音帧的编码结果加权求和,得到当前时刻之前的已关注信息;其中,已关注的语音帧的编码结果的权重为已关注的语音帧在当前时刻的初始关注度。
第三注意力模块用于对帧编码结果、第一领域的语言模型得到的隐层特征、前一时刻的各个语音帧的关注度和当前时刻之前的已关注信息进行基于注意力机制的处理,获得当前时刻各个语音帧的关注度。
声学打分模块用于根据当前时刻各个语音帧的关注度获得当前时刻各个可能的解码结果的声学分数。
第i个语言打分模块i用于根据第i个语言模型输出的隐层特征i获得当前时刻各个可能的解码结果在第i个领域的语言分数。
领域注意力模块用于利用当前时刻各个可能的解码结果的声学分数和各个领域的语言分数,获得当前时刻各个可能的解码结果在每一个领域的语言分数的权重,并获得当前时刻各个可能的解码结果在多个领域的语言分数的加权求和结果。
解码模块用于根据当前时刻各个可能的解码结果在多个领域的语言分数的加权求和结果,以及当前时刻各个可能的解码结果的声学分数,确定当前时刻的解码结果yt
图10所示的语音识别模型可以通过如下方式训练得到:
通过第1领域的语音训练数据训练如图11所示的具有单一语言模型的语音识别模型,得到编码器、语言模型1、第二注意力模块、第三注意力模块、语言打分模块1、Memory模块、声学打分模块和解码模块的参数。第1领域的语音训练数据可以是通用语音数据,也可以是某个专业领域的语音数据。第1领域的语音训练数据优选为通用语音数据。
然后利用第j领域的文本训练数据训练第j个领域的语言模型和第j个领域的语言打分模块j,j=2,3,……,M;第j个领域的语言模型的训练采用现有的语音识别技术中较为成熟的方法,此处不再赘述。
将第2至第M个领域的训练好的语言模型加入图11所示的语言识别模型,并构建如图10所示的语音识别模型,利用混合领域的语音训练数据对图10所示的语音模型进行训练,在训练过程中,保持编码器、语言模型1、第二注意力模块、第三注意力模块、语言打分模块1、Memory模块、声学打分模块和解码模块的参数不变,仅更新(即学习)领域注意力模块的参数即可。
与方法实施例相对应,本申请实施例还提供一种语音识别装置,本申请实施例提供的语音识别装置的一种结构示意图如图12所示,可以包括:
分数获得模块1201,权重获得模块1202和确定模块1203;其中,
分数获得模块1201用于获得待识别语音的当前时刻的各个可能的解码结果的声学分数,以及当前时刻所述各个可能的解码结果在多个领域中的每一个领域的语言分数;
权重获得模块1202用于利用当前时刻所述各个可能的解码结果的声学分数和各个领域的语言分数,获得当前时刻所述各个可能的解码结果在每一个领域的语言分数的权重;其中,与所述各个可能的解码结果的声学分数越接近,所述各个可能的解码结果的语言分数的权重越大;
确定模块1203用于根据当前时刻所述各个可能的解码结果在所述多个领域的语言分数的加权求和结果,以及所述当前时刻各个可能的解码结果的声学分数,确定当前时刻的解码结果。
本申请实施例提供的语音识别装置,获得当前时刻各个可能的解码结果在多个领域中的每一个领域的语言分数,以当前时刻各个可能的解码结果的声学分数为基准,确定各个领域的语言分数的权重,然后根据当前时刻各个可能的解码结果在每一领域的语言分数的加权求和结果,以及当前时刻各个可能的解码结果的声学分数,确定当前时刻的解码结果。由于在解码过程中考虑了当前时刻各个可能的解码结果在每一个领域的语言分数,且对不同领域的语言分数赋予了不同的权重,实现了领域语言模型的自适应选择,从而提高语音识别方法的领域适应性。
在一可选的实施例中,所述权重获得模块1202包括:
分数求和模块,用于对应每一个领域,将当前时刻所述各个可能的解码结果的声学分数和同一可能的解码结果在该领域的语言分数求和,得到当前时刻所述各个可能的解码结果对应的分数和值;
权重计算模块,用于根据预置的所述各个可能的解码结果的权值,将所述当前时刻各个可能的解码结果对应的分数和值加权求和,得到该领域的语言分数的权重。
在一可选的实施例中,分数获得模块1201可以包括:
编码模块,用于获得对所述待识别语音的各个语音帧进行编码得到的帧编码结果,以及多个领域的语言模型分别对前一时刻的解码结果进行处理得到的隐层特征;
声学分数获取模块,用于至少利用所述帧编码结果和第一领域的语言模型得到的隐层特征,获得当前时刻所述各个可能的解码结果的声学分数;其中,用于对待识别语音的各个语音帧进行编码得到的所述帧编码结果的编码器与所述第一领域的语言模型通过所述第一领域的语音训练数据联合训练得到;
语言分数获取模块,用于对每一个领域的语言模型得到的隐层特征分别进行处理,得到当前时刻所述各个可能的解码结果在每一个领域的语言分数。
在一可选的实施例中,所述声学分数获取模块可以包括:
第一注意力处理模块,用于对所述帧编码结果和所述第一领域的语言模型得到的隐层特征进行基于注意力机制的处理,获得当前时刻各个语音帧的关注度;
第一声学分数获得模块,用于根据所述当前时刻各个语音帧的关注度获得当前时刻所述各个可能的解码结果的声学分数。
在一可选的实施例中,所述声学分数获取模块可以包括:
已关注信息获得模块,用于利用所述帧编码结果、所述第一领域的语言模型得到的隐层特征、前一时刻的各个语音帧的关注度,获得当前时刻之前的已关注信息;
第三注意力处理模块,用于对所述帧编码结果、所述第一领域的语言模型得到的隐层特征、所述前一时刻的各个语音帧的关注度和所述已关注信息进行基于注意力机制的处理,获得当前时刻各个语音帧的关注度;
第二声学分数获得模块,用于根据当前时刻所述各个语音帧的关注度获得当前时刻所述各个可能的解码结果的声学分数。
在一可选的实施例中,所述已关注信息获得模块可以包括:
第二注意力处理模块,用于对所述帧编码结果、所述第一领域的语言模型得到的隐层特征、以及前一时刻的各个语音帧的关注度进行基于注意力机制的处理,确定当前时刻各个语音帧的初始关注度;所述当前时刻各个语音帧的初始关注度用于确定当前时刻之前已关注的语音帧;
加权处理模块,用于对所述当前时刻之前已关注的语音帧的编码结果加权求和,得到所述当前时刻之前的已关注信息;其中,所述已关注的语音帧的编码结果的权重为所述已关注的语音帧在当前时刻的初始关注度。
在一可选的实施例中,所述第二注意力处理模块可以包括:
卷积变换模块,用于对所述前一时刻的各个语音帧的关注度进行一维卷积变换,得到卷积变换结果;
初始关注度确定模块,用于对所述帧编码结果、所述第一领域的语言模型得到的隐层特征、以及所述卷积变换结果进行基于注意力机制的处理,确定当前时刻各个语音帧的初始关注度。
本申请实施例提供的语音识别装置可应用于语音识别设备,如PC终端、云平台、服务器及服务器集群等。可选的,图13示出了语音识别设备的硬件结构框图,参照图13,语音识别设备的硬件结构可以包括:至少一个处理器1,至少一个通信接口2,至少一个存储器3和至少一个通信总线4;
在本申请实施例中,处理器1、通信接口2、存储器3、通信总线4的数量为至少一个,且处理器1、通信接口2、存储器3通过通信总线4完成相互间的通信;
处理器1可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路等;
存储器3可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatilememory)等,例如至少一个磁盘存储器;
其中,存储器存储有程序,处理器可调用存储器存储的程序,所述程序用于:
获得待识别语音的当前时刻的各个可能的解码结果的声学分数,以及当前时刻所述各个可能的解码结果在多个领域中的每一个领域的语言分数;
利用当前时刻所述各个可能的解码结果的声学分数和各个领域的语言分数,获得当前时刻所述各个可能的解码结果在每一个领域的语言分数的权重;其中,与所述各个可能的解码结果的声学分数越接近,所述各个可能的解码结果的语言分数的权重越大;
根据当前时刻所述各个可能的解码结果在所述多个领域的语言分数的加权求和结果,以及所述当前时刻各个可能的解码结果的声学分数,确定当前时刻的解码结果。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
本申请实施例还提供一种存储介质,该存储介质可存储有适于处理器执行的程序,所述程序用于:
获得待识别语音的当前时刻的各个可能的解码结果的声学分数,以及当前时刻所述各个可能的解码结果在多个领域中的每一个领域的语言分数;
利用当前时刻所述各个可能的解码结果的声学分数和各个领域的语言分数,获得当前时刻所述各个可能的解码结果在每一个领域的语言分数的权重;其中,与所述各个可能的解码结果的声学分数越接近,所述各个可能的解码结果的语言分数的权重越大;
根据当前时刻所述各个可能的解码结果在所述多个领域的语言分数的加权求和结果,以及所述当前时刻各个可能的解码结果的声学分数,确定当前时刻的解码结果。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种语音识别方法,其特征在于,包括:
获得待识别语音的当前时刻的各个可能的解码结果的声学分数,以及当前时刻所述各个可能的解码结果在多个领域中的每一个领域的语言分数;
利用当前时刻所述各个可能的解码结果的声学分数和各个领域的语言分数,获得当前时刻所述各个可能的解码结果在每一个领域的语言分数的权重;其中,每一个领域的各个可能的解码结果的语言分数与所述各个可能的解码结果的声学分数越接近,所述各个可能的解码结果的语言分数的权重越大;
根据当前时刻所述各个可能的解码结果在所述多个领域的语言分数的加权求和结果,以及所述当前时刻各个可能的解码结果的声学分数,确定当前时刻的解码结果。
2.根据权利要求1所述的方法,其特征在于,所述利用当前时刻所述各个可能的解码结果的声学分数和各个领域的语言分数,获得当前时刻所述各个可能的解码结果在每一个领域的语言分数的权重,包括:
对应每一个领域,将当前时刻所述各个可能的解码结果的声学分数和同一可能的解码结果在该领域的语言分数求和,得到当前时刻所述各个可能的解码结果对应的分数和值;
根据预置的所述各个可能的解码结果的权值,将所述当前时刻各个可能的解码结果对应的分数和值加权求和,得到该领域的语言分数的权重。
3.根据权利要求1所述的方法,其特征在于,所述获得待识别语音的当前时刻的各个可能的解码结果的声学分数,以及当前时刻所述各个可能的解码结果在多个领域中的每一个领域的语言分数,包括:
获得对所述待识别语音的各个语音帧进行编码得到的帧编码结果,以及多个领域的语言模型分别对前一时刻的解码结果进行处理得到的隐层特征;
至少利用所述帧编码结果和第一领域的语言模型得到的隐层特征,获得当前时刻所述各个可能的解码结果的声学分数;其中,用于对待识别语音的各个语音帧进行编码得到的所述帧编码结果的编码器与所述第一领域的语言模型通过所述第一领域的语音训练数据联合训练得到;
对每一个领域的语言模型得到的隐层特征分别进行处理,得到当前时刻所述各个可能的解码结果在每一个领域的语言分数。
4.根据权利要求3所述的方法,其特征在于,所述至少利用所述帧编码结果和第一领域的语言模型得到的隐层特征,获得当前时刻所述各个可能的解码结果的声学分数,包括:
对所述帧编码结果和所述第一领域的语言模型得到的隐层特征进行基于注意力机制的处理,获得当前时刻各个语音帧的关注度;
根据所述当前时刻各个语音帧的关注度获得当前时刻所述各个可能的解码结果的声学分数。
5.根据权利要求3所述的方法,其特征在于,所述至少利用所述帧编码结果和第一领域的语言模型得到的隐层特征,获得当前时刻所述各个可能的解码结果的声学分数,包括:
利用所述帧编码结果、所述第一领域的语言模型得到的隐层特征、前一时刻的各个语音帧的关注度,获得当前时刻之前的已关注信息;
对所述帧编码结果、所述第一领域的语言模型得到的隐层特征、所述前一时刻的各个语音帧的关注度和所述已关注信息进行基于注意力机制的处理,获得当前时刻各个语音帧的关注度;
根据当前时刻所述各个语音帧的关注度获得当前时刻所述各个可能的解码结果的声学分数。
6.根据权利要求5所述的方法,其特征在于,利用所述帧编码结果、所述第一领域的语言模型得到的隐层特征、前一时刻的各个语音帧的关注度,获得当前时刻之前的已关注信息,包括:
对所述帧编码结果、所述第一领域的语言模型得到的隐层特征、以及前一时刻的各个语音帧的关注度进行基于注意力机制的处理,确定当前时刻各个语音帧的初始关注度;所述当前时刻各个语音帧的初始关注度用于确定当前时刻之前已关注的语音帧;
对所述当前时刻之前已关注的语音帧的编码结果加权求和,得到所述当前时刻之前的已关注信息;其中,所述已关注的语音帧的编码结果的权重为所述已关注的语音帧在当前时刻的初始关注度。
7.根据权利要求6所述的方法,其特征在于,对所述帧编码结果、所述第一领域的语言模型得到的隐层特征、以及前一时刻的各个语音帧的关注度进行基于注意力机制的处理,确定当前时刻各个语音帧的初始关注度,包括:
对所述前一时刻的各个语音帧的关注度进行一维卷积变换,得到卷积变换结果;
对所述帧编码结果、所述第一领域的语言模型得到的隐层特征、以及所述卷积变换结果进行基于注意力机制的处理,确定当前时刻各个语音帧的初始关注度。
8.一种语音识别装置,其特征在于,包括:
分数获得模块,用于获得待识别语音的当前时刻的各个可能的解码结果的声学分数,以及当前时刻所述各个可能的解码结果在多个领域中的每一个领域的语言分数;
权重获得模块,用于利用当前时刻所述各个可能的解码结果的声学分数和各个领域的语言分数,获得当前时刻所述各个可能的解码结果在每一个领域的语言分数的权重;其中,每一个领域的各个可能的解码结果的语言分数与所述各个可能的解码结果的声学分数越接近,所述各个可能的解码结果的语言分数的权重越大;
确定模块,用于根据当前时刻所述各个可能的解码结果在所述多个领域的语言分数的加权求和结果,以及所述当前时刻各个可能的解码结果的声学分数,确定当前时刻的解码结果。
9.一种语音识别设备,其特征在于,包括存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如权利要求1-7中任一项所述的语音识别方法的各个步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1-7中任一项所述的语音识别方法的各个步骤。
CN202111086713.0A 2021-09-16 2021-09-16 语音识别方法、装置、设备及存储介质 Active CN113793600B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111086713.0A CN113793600B (zh) 2021-09-16 2021-09-16 语音识别方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111086713.0A CN113793600B (zh) 2021-09-16 2021-09-16 语音识别方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN113793600A CN113793600A (zh) 2021-12-14
CN113793600B true CN113793600B (zh) 2023-12-01

Family

ID=78878575

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111086713.0A Active CN113793600B (zh) 2021-09-16 2021-09-16 语音识别方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113793600B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116312488A (zh) * 2023-02-13 2023-06-23 镁佳(北京)科技有限公司 语音识别系统、方法、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106469554A (zh) * 2015-08-21 2017-03-01 科大讯飞股份有限公司 一种自适应的识别方法及系统
CN109543041A (zh) * 2018-11-30 2019-03-29 安徽听见科技有限公司 一种语言模型得分的生成方法及装置
CN111627452A (zh) * 2019-02-28 2020-09-04 百度在线网络技术(北京)有限公司 一种语音解码方法、装置和终端设备
CN112102815A (zh) * 2020-11-13 2020-12-18 深圳追一科技有限公司 语音识别方法、装置、计算机设备和存储介质
CN112151020A (zh) * 2019-06-28 2020-12-29 北京声智科技有限公司 语音识别方法、装置、电子设备及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4465564B2 (ja) * 2000-02-28 2010-05-19 ソニー株式会社 音声認識装置および音声認識方法、並びに記録媒体
JP2001249684A (ja) * 2000-03-02 2001-09-14 Sony Corp 音声認識装置および音声認識方法、並びに記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106469554A (zh) * 2015-08-21 2017-03-01 科大讯飞股份有限公司 一种自适应的识别方法及系统
CN109543041A (zh) * 2018-11-30 2019-03-29 安徽听见科技有限公司 一种语言模型得分的生成方法及装置
CN111627452A (zh) * 2019-02-28 2020-09-04 百度在线网络技术(北京)有限公司 一种语音解码方法、装置和终端设备
CN112151020A (zh) * 2019-06-28 2020-12-29 北京声智科技有限公司 语音识别方法、装置、电子设备及存储介质
CN112102815A (zh) * 2020-11-13 2020-12-18 深圳追一科技有限公司 语音识别方法、装置、计算机设备和存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Internal Language Model Training for Domain-Adaptive End-To-End Speech Recognition;Zhong Meng et al.;ICASSP 2021 - 2021 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP);全文 *
基于后验概率词格的汉语自 然对话语音索引;孟莎等;清华大学学报(自然科学版);全文 *

Also Published As

Publication number Publication date
CN113793600A (zh) 2021-12-14

Similar Documents

Publication Publication Date Title
CN112735373B (zh) 语音合成方法、装置、设备及存储介质
CN111754976B (zh) 一种韵律控制语音合成方法、系统及电子装置
CN111160467B (zh) 一种基于条件随机场和内部语义注意力的图像描述方法
JP7407968B2 (ja) 音声認識方法、装置、設備及び記憶媒体
CN110211575A (zh) 用于数据增强的语音加噪方法及系统
CN106935239A (zh) 一种发音词典的构建方法及装置
CN112767917B (zh) 语音识别方法、装置及存储介质
WO2022141714A1 (zh) 信息合成方法、装置、电子设备和计算机可读存储介质
CN111368142B (zh) 一种基于生成对抗网络的视频密集事件描述方法
CN111508470A (zh) 一种语音合成模型的训练方法及装置
CN114023300A (zh) 一种基于扩散概率模型的中文语音合成方法
CN115641543A (zh) 一种多模态抑郁情绪识别方法及装置
US20230070000A1 (en) Speech recognition method and apparatus, device, storage medium, and program product
CN109637527A (zh) 对话语句的语义解析方法及系统
CN111653270B (zh) 语音处理方法、装置、计算机可读存储介质及电子设备
CN113793600B (zh) 语音识别方法、装置、设备及存储介质
CN116206596A (zh) 一种垂类领域端到端语音识别方法与装置
CN113823323A (zh) 一种基于卷积神经网络的音频处理方法、装置及相关设备
CN112017690B (zh) 一种音频处理方法、装置、设备和介质
CN114281954A (zh) 一种基于关系图注意力网络的多轮对话回复生成系统及方法
CN113823257A (zh) 语音合成器的构建方法、语音合成方法及装置
CN112908293A (zh) 一种基于语义注意力机制的多音字发音纠错方法及装置
CN110717022A (zh) 一种机器人对话生成方法、装置、可读存储介质及机器人
CN113129863A (zh) 语音时长预测方法、装置、设备及可读存储介质
CN115910026A (zh) 一种韵律迁移语音合成方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20230506

Address after: 230026 Jinzhai Road, Baohe District, Hefei, Anhui Province, No. 96

Applicant after: University of Science and Technology of China

Applicant after: IFLYTEK Co.,Ltd.

Address before: NO.666, Wangjiang West Road, hi tech Zone, Hefei City, Anhui Province

Applicant before: IFLYTEK Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant