CN113516985A - 语音识别方法、装置和非易失性计算机可读存储介质 - Google Patents

语音识别方法、装置和非易失性计算机可读存储介质 Download PDF

Info

Publication number
CN113516985A
CN113516985A CN202111065835.1A CN202111065835A CN113516985A CN 113516985 A CN113516985 A CN 113516985A CN 202111065835 A CN202111065835 A CN 202111065835A CN 113516985 A CN113516985 A CN 113516985A
Authority
CN
China
Prior art keywords
voice
frame
recognition
determining
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111065835.1A
Other languages
English (en)
Inventor
闫辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Yizhen Xuesi Education Technology Co Ltd
Original Assignee
Beijing Yizhen Xuesi Education Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yizhen Xuesi Education Technology Co Ltd filed Critical Beijing Yizhen Xuesi Education Technology Co Ltd
Priority to CN202111065835.1A priority Critical patent/CN113516985A/zh
Publication of CN113516985A publication Critical patent/CN113516985A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本公开涉及一种语音识别方法、装置和非易失性计算机可读存储介质,涉及计算机技术领域。该语音识别方法包括:对视频流中各帧图像进行人体识别,确定各帧图像中语音发出方的生理特征;根据不同的语音发出方的生理特征,确定不同的语音发出方对应的语音识别模型;利用不同的语音发出方对应的语音识别模型,识别不同的语音发出方的语音,确定语音识别结果。

Description

语音识别方法、装置和非易失性计算机可读存储介质
技术领域
本公开涉及计算机技术领域,特别涉及一种语音识别方法、语音识别装置和非易失性计算机可读存储介质。
背景技术
5G网络与互联网的兴起,语音识别应用的场景越来越多,持续提升语音识别的准确率与召回率格外重要。
在相关技术中,使用统一的语音识别模型对场景中的语音进行识别。
发明内容
本公开的发明人发现上述相关技术中存在如下问题:统一的语音识别模型难以兼顾不同特征的语音发出方,导致语音识别的准确率下降。
鉴于此,本公开提出了一种语音识别技术方案,能够提高语音识别的准确率。
根据本公开的一些实施例,提供了一种语音识别方法,包括:对视频流中各帧图像进行人体识别,确定各帧图像中语音发出方的生理特征;根据不同的语音发出方的生理特征,确定所述不同的语音发出方对应的语音识别模型;利用所述不同的语音发出方对应的语音识别模型,识别所述不同的语音发出方的语音,确定语音识别结果。
在一些实施例中,所述确定不同的语音发出方的语音识别模型包括:根据各帧图像对应的生理特征,确定各帧图像对应的唇形识别模型;所述确定语音识别结果包括:根据各帧图像对应的唇形识别模型对各帧图像的处理结果,确定所述语音识别结果。
在一些实施例中,所述确定所述不同的语音发出方对应的语音识别模型包括:根据所述视频流的时间轴信息,将所述视频流中的各帧图像与所述视频流对应的音频流中的各帧语音进行关联;根据关联结果,确定与各帧语音对应的语音处理模型;所述确定语音识别结果包括:根据各帧语音对应的语音处理模型对各帧语音的处理结果,确定所述语音识别结果。
在一些实施例中,所述确定语音识别结果包括:根据各帧图像对应的唇形识别模型对各帧图像的处理结果,确定第一语音识别结果;根据各帧语音对应的语音处理模型对各帧语音的处理结果,确定第二语音识别结果;根据所述第一语音识别结果和所述第二语音识别结果的加权平均值,确定综合语音识别结果作为所述语音识别结果。
在一些实施例中,语音识别方法还包括:对所述视频流进行图像场景识别,确定所述视频流的场景类型;根据所述场景类型,确定与所述场景类型相匹配的降噪处理模型;利所述降噪处理模型对所述视频流对应的音频流进行降噪处理;所述确定语音识别结果包括:利用不同的语音识别模型对降噪后的音频流进行处理,以确定所述语音识别结果。
在一些实施例中,所述场景类型包括户外场景、户内场景、多发声源场景中的多项,所述降噪处理模型包括匹配户外场景的循环神经网络户外降噪模型、匹配户内场景的循环神经网络户内降噪模型、匹配多发声源场景的人声增强与提取算法模型中的多项。
在一些实施例中,所述生理特征包括性别特征、年龄特征中的至少一项。
在一些实施例中,所述语音识别模型包括用于成人语音识别模型、用于小孩的语音识别模型。
根据本公开的另一些实施例,提供一种语音识别装置,包括:特征确定单元,用于对视频流中各帧图像进行人体识别,确定各帧图像中语音发出方的生理特征;模型确定单元,用于根据不同的语音发出方的生理特征,确定所述不同的语音发出方对应的语音识别模型;识别单元,用于利用所述不同的语音发出方对应的语音识别模型,识别所述不同的语音发出方的语音,确定语音识别结果。
一些实施例中,所述模型确定单元根据各帧图像对应的生理特征,确定各帧图像对应的唇形识别模型;所述识别单元根据各帧图像对应的唇形识别模型对各帧图像的处理结果,确定所述语音识别结果。
在一些实施例中,所述模型确定单元根据所述视频流的时间轴信息,将所述视频流中的各帧图像与所述视频流对应的音频流中的各帧语音进行关联,根据关联结果,确定与各帧语音对应的语音处理模型;所述识别单元根据各帧语音对应的语音处理模型对各帧语音的处理结果,确定所述语音识别结果。
在一些实施例中,所述识别单元根据各帧图像对应的唇形识别模型对各帧图像的处理结果,确定第一语音识别结果,根据各帧语音对应的语音处理模型对各帧语音的处理结果,确定第二语音识别结果,根据所述第一语音识别结果和所述第二语音识别结果的加权平均值,确定综合语音识别结果作为所述语音识别结果。
在一些实施例中,所述特征确定单元对所述视频流进行图像场景识别,确定所述视频流的场景类型;所述模型确定单元根据所述场景类型,确定与所述场景类型相匹配的降噪处理模型;利用所述降噪处理模型对所述视频流对应的音频流进行降噪处理;
所述识别单元利用不同的语音识别模型对降噪后的音频流进行处理,以确定所述语音识别结果。
根据本公开的又一些实施例,提供一种语音识别装置,包括:存储器;和耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器装置中的指令,执行上述任一个实施例中的语音识别方法。
根据本公开的再一些实施例,提供一种非易失性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述任一个实施例中的语音识别方法。
在上述实施例中,根据各帧图像中语音发出方的生理特征,建立语音发出方与语音的关联,并根据语音发出方的生理特征确定匹配的语音识别模型处理关联的语音。这样,能够为不同生理特征的语音发出方匹配相应的语音识别模型,从而提高语音识别的准确率。
附图说明
构成说明书的一部分的附图描述了本公开的实施例,并且连同说明书一起用于解释本公开的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本公开,其中:
图1示出本公开的语音识别方法的一些实施例的流程图;
图2示出本公开的语音识别方法的另一些实施例的流程图;
图3a示出本公开的降噪处理方法的一些实施例的流程图;
图3b示出本公开的降噪处理方法的一些实施例的示意图;
图3c示出本公开的降噪处理方法的另一些实施例的示意图;
图3d示出本公开的唇形识别方法的一些实施例的示意图;
图3e示出本公开的唇形识别方法的另一些实施例的示意图;
图4a示出本公开的语音识别方法的一些实施例的示意图;
图4b示出本公开的语音识别方法的另一些实施例的示意图;
图5示出本公开的语音识别装置的一些实施例的框图;
图6示出本公开的语音识别装置的另一些实施例的框图;
图7示出本公开的语音识别装置的又一些实施例的框图。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为授权说明书的一部分。
在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
如前所述,统一的语音识别模型难以兼顾不同特征的语音发出方,导致语音识别的准确率下降。
例如,在低幼年龄段的语言类教学中,发音拼读场景是很常见的场景。但是,幼龄儿童因为年纪较小,发音,拼读能力较差,因此她们的学习过程中经常会有父母领读,儿童跟读的情况。
这就给语音识别带来了较大的困难:一方面,难以区分当前朗读的是大人还是孩子;另一方面,单一的语音识别算法也难以兼顾到大人和孩子不同而声学特点,而给出较为合理的分数。
另外,嘈杂的背景音也会对语音识别带来较大的影响。
针对上述技术问题,本公开结合语音识别和图像识别的效果,将语图像识别作为语音识别的辅助提升手段,从而整体提升识别效果。
本公开在语音识别的过程中,引入视频分析;利用分析出的场景特点、人群特点、以及时间轴对齐等方式,判断出当前说话人;建立起人声与视频中说话人的联系;将根据说话人的唇形特点,利用唇形识别模型的识别结果,与语音处理模型的识别结果进行叠加优化,最终得到更准确的识别效果。
例如,可以通过下面的实施例实现本公开的技术方案。
图1示出本公开的语音识别方法的一些实施例的流程图。
如图1所示,在步骤110中,对视频流中各帧图像进行人体识别,确定各帧图像中语音发出方的生理特征。例如,理特征包括性别特征、年龄特征中的至少一项。
在步骤120中,根据不同的语音发出方的生理特征,确定不同的语音发出方对应的语音识别模型。例如,语音识别模型包括用于成人语音识别模型、用于小孩的语音识别模型。
在一些实施例中,根据各帧图像对应的生理特征,确定各帧图像对应的唇形识别模型。
例如,根据视频流的时间轴信息,将视频流中的各帧图像与视频流对应的音频流中的各帧语音进行关联;根据关联结果,确定与各帧图像关联的各帧语音对应的语音处理模型。
例如,确定各帧图像中语音发出方的生理特征(如年龄、性别等);根据各帧图像中语音发出方的生理特征,确定与各帧图像关联的各帧语音的语音识别模型。
在一些实施例中,根据视频流的场景类型,对音频流匹配相应的降噪方案;对视频流进行人体识别和唇形识别,结合音频流时间轴,建立起声音与人像的关联;提取出说话人的生理特点(如性别、年龄等),匹配相应的语音识别算法。
在步骤130中,利用不同的语音发出方对应的语音识别模型,识别不同的语音发出方的语音,确定语音识别结果。
在一些实施例中,根据各帧图像对应的唇形识别模型对各帧图像的处理结果,确定语音识别结果。还可以根据各帧语音对应的语音处理模型对各帧语音的处理结果,确定语音识别结果。
在一些实施例中,将唇形识别的结果和语音处理的结果进行加权修正,给出校正后的语音识别结果。
例如,唇语识别模型可采取拼音序列识别方案:先经过VGG-M(Visual GeometryGroup,视觉几何组)卷积神经网络模型对帧图像进行卷积运算;然后进行批规范化、RNN(Recurrent Neural Network,循环神经网络)网络处理等多个环节,最终得到帧图像中唇形与识别的文字的对应结果。
在一些实施例中,可以根据各帧图像对应的唇形识别模型对各帧图像的处理结果,确定第一语音识别结果;根据各帧语音对应的语音处理模型对各帧语音的处理结果,确定第二语音识别结果;根据第一语音识别结果和第二语音识别结果的加权平均值,确定综合语音识别结果作为语音识别结果。
例如,唇形识别模型确定的第一语音识别结果包括语料库中各候选词的第一候选概率;语音处理模型确定的第二语音识别结果包括语料库中各候选词的第二候选概率;对分别对各候选词的第一候选概率和第二候选概率计算加权平均值,得到各候选词的综合候选概率,以确定综合语音识别结果。
在一些实施例中,第一语音识别结果的权重大于第二语音识别结果的权重。
在一些实施例中,根据场景类型,确定匹配的降噪处理模型;利用降噪处理模型对视频流对应的音频流进行降噪处理;利用不同的语音识别模型对降噪处理后的音频流进行处理,确定语音识别结果。
例如,场景类型可以包括户外场景、户内场景、多发声源场景中的多项;降噪处理模型可以包括匹配户外场景的循环神经网络户外降噪模型、匹配户内场景的循环神经网络户内降噪模型、匹配多发声源场景的人声增强与提取算法模型中的多项。
在一些实施例中,可以对视频流进行图像场景识别,获取场景类型,以匹配相应的降噪方案。例如,可以通过机器学习方法进行图像场景识别,降噪方案可以包括L1、L2、L3。
例如,降噪方案L1可以包括基于户外背景音(如街道、汽车、大自然等)场景训练的算法模型,如RNNoise-outdoors(循环神经网络户外降噪)模型。
降噪方案L2可以包括基于户内背景音(人教室、商场等)场景训练的算法模型,如RNNoise-indoors(循环神经网络户内降噪)模型。
降噪方案L3可以包括人声增强与提取算法模型,如谱减法模型、维纳滤波模型等。
在一些实施例中,对音频流进行降噪处理(如降噪方案L3)后,再利用匹配的语音处理模型(如成人模型或小孩模型)进行语音识别,得到第二语音识别结果。
图2示出本公开的语音识别方法的另一些实施例的流程图。
如图2所示,采集对话场景中的视频流及其相应的音频流。对视频流进行图像识别,获取场景类型,以匹配相应的降噪方案。例如,可以通过机器学习方法进行图像场景识别,降噪方案可以包括L1、L2、L3。例如,可以通过图3a中的实施例确定降噪方案。
图3a示出本公开的降噪处理方法的一些实施例的流程图。
如图3a所示,对视频流进行图像(背景)识别后,确定降噪方案。降噪方案L1可以包括基于户外背景音(如街道、汽车、大自然等)场景训练的算法模型,如RNNoise-outdoors(循环神经网络户外降噪)模型。
降噪方案L2可以包括基于户内背景音(人教室、商场等)场景训练的算法模型,如RNNoise-indoors(循环神经网络户内降噪)模型。
降噪方案L3可以包括人声增强与提取算法模型,如谱减法模型、维纳滤波模型等。
例如,可以通过图3b的方式进行降噪处理。
图3b示出本公开的降噪处理方法的一些实施例的示意图。
如图3b所示,可以采用VAD (Voice Activity Detection,语音活动检测)作为降噪处理模型。
可以将包含噪声的语音信号输入VAD模型;经过谱减法(Spectral Subtraction)处理、语音活动检测处理、噪声谱估计(Noise Spectral Estimation)处理,输出降噪后的语音信号。
例如,可以通过图3c的方式进行降噪处理。
图3c示出本公开的降噪处理方法的另一些实施例的示意图。
如图3c所示,降噪处理模型可以包括谱减法模块、语音活动检测模块、噪声谱估计模块。
语音活动检测模块可以包括以tanh为激活函数的密集(Dense)层、以ReLU(Rectified Linear Unit,线性整流函数)为激活函数的GRU(Gated Recurrent Unit,门控循环单元)层、以sigmoid函数为激活函数的密集层。语音活动检测模型输出语音活动检测处理结果。
噪声谱估计模块包括以ReLU为激活函数的GRU层;谱减法模块包括以ReLU为激活函数的GRU层、以sigmoid函数为激活函数的密集层。谱减法模型输出增益结果。
进行降噪处理后,可以继续通过图2中的其余步骤进行语音识别。
根据视频流的场景类型,对音频流匹配相应的降噪方案;对视频流进行人体识别和唇形识别,结合音频流时间轴,建立起声音与人像的关联;提取出说话人的生理特点(如性别、年龄等),匹配相应的语音识别算法。
对音频流进行降噪处理(如降噪方案L3)后,再利用匹配的语音处理模型(如成人模型或小孩模型)进行语音识别,得到第二语音识别结果。
将唇形识别的结果和语音处理的结果进行加权修正,给出校正后的语音识别结果。
图3d示出本公开的唇形识别方法的一些实施例的示意图。如图3d所示,通过P2P(Picture 2 Pinyin,图片到拼音)处理过程和P2CC(Picture 2 Chinese Character,拼音到汉字)处理过程,可以确定汉字序列。
如图3e所示,唇形识别模型可采取拼音序列识别方案。对嘴唇图片序列进行处理得到拼音序列,进而得到汉字序列。
] 例如,先经过VGG-M卷积神经网络模型对帧图像进行卷积运算;然后进行批度规范化、RNN网络处理等多个环节,最终得到帧图像中唇形与识别的文字的对应结果。
] 图3e示出本公开的唇形识别方法的另一些实施例的示意图。
如图3e所示,可以采用机器学习模型进行唇形识别。例如,将帧图像中的唇形图片输入卷积网络(ConvNet)、LSTM(Long Short-Term Memory,长短期记忆网络)网络和CTC(Connectionist temporal classification,联结机制时间分类)模块后,输出识别结果。
卷及网络可以包括多个卷积模块(conv1~5),LSTM网络可以包括多个LSTM模块。
图4a示出本公开的语音识别方法的一些实施例的示意图。
如图4a所示,对视频流进行图像识别,确定用户A’的生理特征为成人、女,用户B’的生理特征为幼儿、男;确定语音发出方用户A’和用户B’的唇动时段(各帧图像);根据生理特征为用户A’、用户B’匹配相应的唇形识别模型;进行唇形识别后,输出第一语音识别结果。
对降噪后的音频流进行声音识别,确定语音发出方用户A和用户B的发生时段(各帧语音);根据时间轴建立发生时段与唇动时段的关联关系,从而确定各发生时段相应的语音模型;进行语音处理后,输出第二语音识别结果。
对第一语音识别结果和第二语音识别结果进行加权修正,得到不同用户的综合识别结果。
图4b示出本公开的语音识别方法的另一些实施例的示意图。
如图4b所示,考虑到算法模型的体积较大,多种降噪方案算法和多种语音识别算法,都可以存储在云端。在需要进行降噪处理、唇形识别处理、语音识别处理的时候,从相应的服务器将相应的处理模型下载到本地的移动端。
在上述实施例中,在语音识别中引入新的识别维度,可以建立人声与说话人的联系;使用图像识别等方式进行二次矫正,最终进一步提升识别准确率。
图5示出本公开的语音识别装置的一些实施例的框图。
如图5所示,语音识别装置5包括:特征确定单元51,用于对视频流中各帧图像进行人体识别,确定各帧图像中语音发出方的生理特征;模型确定单元52,用于根据不同的语音发出方的生理特征,确定不同的语音发出方对应的语音识别模型;识别单元53,用于利用不同的语音发出方对应的语音识别模型,识别不同的语音发出方的语音,确定语音识别结果。
在一些实施例中,模型确定单元52根据各帧图像对应的生理特征,确定各帧图像对应的唇形识别模型;识别单元53根据各帧图像对应的唇形识别模型对各帧图像的处理结果,确定语音识别结果。
在一些实施例中,模型确定单元52根据视频流的时间轴信息,将视频流中的各帧图像与视频流对应的音频流中的各帧语音进行关联,根据关联结果,确定与各帧图像关联的各帧语音对应的语音处理模型;识别单元53根据各帧语音对应的语音处理模型对各帧语音的处理结果,确定语音识别结果。
在一些实施例中,识别单元53根据各帧图像对应的唇形识别模型对各帧图像的处理结果,确定第一语音识别结果,根据各帧语音对应的语音处理模型对各帧语音的处理结果,确定第二语音识别结果,根据所述第一语音识别结果和所述第二语音识别结果的加权平均值,确定综合语音识别结果作为语音识别结果。
在一些实施例中,特征确定单元51对视频流进行图像场景识别,确定视频流的场景类型;模型确定单元52根据场景类型,确定与场景类型相匹配的降噪处理模型,利用降噪处理模型对视频流对应的音频流进行降噪处理;识别单元53利用不同的语音识别模型对降噪处理后的音频流进行处理,确定语音识别结果。
在一些实施例中,场景类型包括户外场景、户内场景、多发声源场景中的多项,降噪处理模型包括匹配户外场景的循环神经网络户外降噪模型、匹配户内场景的循环神经网络户内降噪模型、匹配多发声源场景的人声增强与提取算法模型中的多项。
在一些实施例中,生理特征包括性别特征、年龄特征中的至少一项。
在一些实施例中,语音识别模型包括用于成人语音识别模型、用于小孩的语音识别模型。
图6示出本公开的语音识别装置的另一些实施例的框图。
如图6所示,该实施例的语音识别装置6包括:存储器61以及耦接至该存储器61的处理器62,处理器62被配置为基于存储在存储器61中的指令,执行本公开中任意一个实施例中的语音识别方法。
其中,存储器61例如可以包括系统存储器、固定非易失性存储介质等。系统存储器例如存储有操作系统、应用程序、引导装载程序(Boot Loader)、数据库以及其他程序等。
图7示出本公开的语音识别装置的又一些实施例的框图。
如图7所示,该实施例的语音识别装置7包括:存储器710以及耦接至该存储器710的处理器720,处理器720被配置为基于存储在存储器710中的指令,执行前述任意一个实施例中的语音识别方法。
存储器710例如可以包括系统存储器、固定非易失性存储介质等。系统存储器例如存储有操作系统、应用程序、引导装载程序(Boot Loader)以及其他程序等。
语音识别装置7还可以包括输入输出接口730、网络接口740、存储接口750等。这些接口730、640、750以及存储器710和处理器720之间例如可以通过总线760连接。其中,输入输出接口730为显示器、鼠标、键盘、触摸屏、麦克、音箱等输入输出设备提供连接接口。网络接口640为各种联网设备提供连接接口。存储接口750为SD卡、U盘等外置存储设备提供连接接口。
本领域内的技术人员应当明白,本公开的实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用非瞬时性存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
至此,已经详细描述了根据本公开的语音识别方法、语音识别装置和非易失性计算机可读存储介质。为了避免遮蔽本公开的构思,没有描述本领域所公知的一些细节。本领域技术人员根据上面的描述,完全可以明白如何实施这里公开的技术方案。
可能以许多方式来实现本公开的方法和系统。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和系统。用于所述方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。
虽然已经通过示例对本公开的一些特定实施例进行了详细说明,但是本领域的技术人员应该理解,以上示例仅是为了进行说明,而不是为了限制本公开的范围。本领域的技术人员应该理解,可在不脱离本公开的范围和精神的情况下,对以上实施例进行修改。本公开的范围由所附权利要求来限定。

Claims (14)

1.一种语音识别方法,包括:
对视频流中各帧图像进行人体识别,确定各帧图像中语音发出方的生理特征;
根据不同的语音发出方的生理特征,确定所述不同的语音发出方对应的语音识别模型;
利用所述不同的语音发出方对应的语音识别模型,识别所述不同的语音发出方的语音,确定语音识别结果。
2.根据权利要求1所述的语音识别方法,其中,所述确定所述不同的语音发出方对应的语音识别模型包括:
根据各帧图像对应的生理特征,确定各帧图像对应的唇形识别模型;
所述确定语音识别结果包括:
根据各帧图像对应的唇形识别模型对各帧图像的处理结果,确定所述语音识别结果。
3.根据权利要求2所述的语音识别方法,其中:
所述确定所述不同的语音发出方对应的语音识别模型包括:
根据所述视频流的时间轴信息,将所述视频流中的各帧图像与所述视频流对应的音频流中的各帧语音进行关联;
根据关联结果,确定与各帧语音对应的语音处理模型;
所述确定语音识别结果包括:
根据各帧语音对应的语音处理模型对各帧语音的处理结果,确定所述语音识别结果。
4.根据权利要求3所述的语音识别方法,其中,所述确定语音识别结果包括:
根据各帧图像对应的唇形识别模型对各帧图像的处理结果,确定第一语音识别结果;
根据各帧语音对应的语音处理模型对各帧语音的处理结果,确定第二语音识别结果;
根据所述第一语音识别结果和所述第二语音识别结果的加权平均值,确定综合语音识别结果作为所述语音识别结果。
5.根据权利要求1所述的语音识别方法,还包括:
对所述视频流进行图像场景识别,确定所述视频流的场景类型;
根据所述场景类型,确定与所述场景类型相匹配的降噪处理模型;
利用所述降噪处理模型对所述视频流对应的音频流进行降噪处理;
其中,所述确定语音识别结果包括:
利用不同的语音识别模型对降噪后的音频流进行处理,以确定所述语音识别结果。
6.根据权利要求5所述的语音识别方法,其中,
所述场景类型包括户外场景、户内场景、多发声源场景中的多项,
所述降噪处理模型包括匹配户外场景的循环神经网络户外降噪模型、匹配户内场景的循环神经网络户内降噪模型、匹配多发声源场景的人声增强与提取算法模型中的多项。
7.根据权利要求1-6任一项所述的语音识别方法,其中,所述生理特征包括性别特征、年龄特征中的至少一项。
8.一种语音识别装置,包括:
特征确定单元,用于对视频流中各帧图像进行人体识别,确定各帧图像中语音发出方的生理特征;
模型确定单元,用于根据不同的语音发出方的生理特征,确定所述不同的语音发出方对应的语音识别模型;
识别单元,用于利用所述不同的语音发出方对应的语音识别模型,识别所述不同的语音发出方的语音,确定语音识别结果。
9.根据权利要求8所述的语音识别装置,其中,
所述模型确定单元根据各帧图像对应的生理特征,确定各帧图像对应的唇形识别模型;
所述识别单元根据各帧图像对应的唇形识别模型对各帧图像的处理结果,确定所述语音识别结果。
10.根据权利要求9所述的语音识别装置,其中,
所述模型确定单元根据所述视频流的时间轴信息,将所述视频流中的各帧图像与所述视频流对应的音频流中的各帧语音进行关联,根据关联结果,确定与各帧语音对应的语音处理模型;
所述识别单元根据各帧语音对应的语音处理模型对各帧语音的处理结果,确定所述语音识别结果。
11.根据权利要求10所述的语音识别装置,其中,
所述识别单元根据各帧图像对应的唇形识别模型对各帧图像的处理结果,确定第一语音识别结果,根据各帧语音对应的语音处理模型对各帧语音的处理结果,确定第二语音识别结果,根据所述第一语音识别结果和所述第二语音识别结果的加权平均值,确定综合语音识别结果作为所述语音识别结果。
12.根据权利要求8所述的语音识别装置,其中,
所述特征确定单元对所述视频流进行图像场景识别,确定所述视频流的场景类型;
所述模型确定单元根据所述场景类型,确定与所述场景类型相匹配的降噪处理模型;
利用所述降噪处理模型对所述视频流对应的音频流进行降噪处理;
所述识别单元利用不同的语音识别模型对降噪后的音频流进行处理,以确定所述语音识别结果。
13.一种语音识别装置,包括:
存储器;和
耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行权利要求1-7任一项所述的语音识别方法。
14.一种非易失性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现权利要求1-7任一项所述的语音识别方法。
CN202111065835.1A 2021-09-13 2021-09-13 语音识别方法、装置和非易失性计算机可读存储介质 Pending CN113516985A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111065835.1A CN113516985A (zh) 2021-09-13 2021-09-13 语音识别方法、装置和非易失性计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111065835.1A CN113516985A (zh) 2021-09-13 2021-09-13 语音识别方法、装置和非易失性计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN113516985A true CN113516985A (zh) 2021-10-19

Family

ID=78063409

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111065835.1A Pending CN113516985A (zh) 2021-09-13 2021-09-13 语音识别方法、装置和非易失性计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN113516985A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109697976A (zh) * 2018-12-14 2019-04-30 北京葡萄智学科技有限公司 一种发音识别方法及装置
CN110276259A (zh) * 2019-05-21 2019-09-24 平安科技(深圳)有限公司 唇语识别方法、装置、计算机设备及存储介质
CN110544479A (zh) * 2019-08-30 2019-12-06 上海依图信息技术有限公司 一种去噪的语音识别方法及装置
WO2020053861A1 (en) * 2018-09-13 2020-03-19 Ichannel.Io Ltd A system and a computerized method for audio lip synchronization of video content
CN112435653A (zh) * 2020-10-14 2021-03-02 北京地平线机器人技术研发有限公司 语音识别方法、装置和电子设备
CN113327626A (zh) * 2021-06-23 2021-08-31 深圳市北科瑞声科技股份有限公司 语音降噪方法、装置、设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020053861A1 (en) * 2018-09-13 2020-03-19 Ichannel.Io Ltd A system and a computerized method for audio lip synchronization of video content
CN109697976A (zh) * 2018-12-14 2019-04-30 北京葡萄智学科技有限公司 一种发音识别方法及装置
CN110276259A (zh) * 2019-05-21 2019-09-24 平安科技(深圳)有限公司 唇语识别方法、装置、计算机设备及存储介质
CN110544479A (zh) * 2019-08-30 2019-12-06 上海依图信息技术有限公司 一种去噪的语音识别方法及装置
CN112435653A (zh) * 2020-10-14 2021-03-02 北京地平线机器人技术研发有限公司 语音识别方法、装置和电子设备
CN113327626A (zh) * 2021-06-23 2021-08-31 深圳市北科瑞声科技股份有限公司 语音降噪方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN108520741B (zh) 一种耳语音恢复方法、装置、设备及可读存储介质
CN110265040B (zh) 声纹模型的训练方法、装置、存储介质及电子设备
CN107799126B (zh) 基于有监督机器学习的语音端点检测方法及装置
US11823679B2 (en) Method and system of audio false keyphrase rejection using speaker recognition
US10878824B2 (en) Speech-to-text generation using video-speech matching from a primary speaker
WO2016150001A1 (zh) 语音识别的方法、装置及计算机存储介质
US20210327431A1 (en) 'liveness' detection system
US20150325240A1 (en) Method and system for speech input
US9293130B2 (en) Method and system for robust pattern matching in continuous speech for spotting a keyword of interest using orthogonal matching pursuit
CN111079791A (zh) 人脸识别方法、设备及计算机可读存储介质
Sahoo et al. Emotion recognition from audio-visual data using rule based decision level fusion
WO2020253128A1 (zh) 基于语音识别的通信服务方法、装置、计算机设备及存储介质
KR102199246B1 (ko) 신뢰도 측점 점수를 고려한 음향 모델 학습 방법 및 장치
US20230352000A1 (en) Method and system for acoustic model conditioning on non-phoneme information features
CN112232276B (zh) 一种基于语音识别和图像识别的情绪检测方法和装置
CN110648671A (zh) 声纹模型重建方法、终端、装置及可读存储介质
CN112017633B (zh) 语音识别方法、装置、存储介质及电子设备
WO2023184942A1 (zh) 语音交互方法、装置及电器
CN114121006A (zh) 虚拟角色的形象输出方法、装置、设备以及存储介质
CN110827853A (zh) 语音特征信息提取方法、终端及可读存储介质
US10269349B2 (en) Voice interactive device and voice interaction method
Qu et al. LipSound: Neural Mel-Spectrogram Reconstruction for Lip Reading.
WO2020238681A1 (zh) 音频处理方法、装置和人机交互系统
CN113516985A (zh) 语音识别方法、装置和非易失性计算机可读存储介质
Abel et al. Cognitively inspired audiovisual speech filtering: towards an intelligent, fuzzy based, multimodal, two-stage speech enhancement system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20211019

RJ01 Rejection of invention patent application after publication