CN106328126A - 远场语音识别处理方法及装置 - Google Patents

远场语音识别处理方法及装置 Download PDF

Info

Publication number
CN106328126A
CN106328126A CN201610917557.0A CN201610917557A CN106328126A CN 106328126 A CN106328126 A CN 106328126A CN 201610917557 A CN201610917557 A CN 201610917557A CN 106328126 A CN106328126 A CN 106328126A
Authority
CN
China
Prior art keywords
voice
far field
training
field voice
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610917557.0A
Other languages
English (en)
Other versions
CN106328126B (zh
Inventor
江巍
关海欣
苏牧
张军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Unisound Intelligent Technology Co Ltd
Xiamen Yunzhixin Intelligent Technology Co Ltd
Original Assignee
Beijing Yunzhisheng Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yunzhisheng Information Technology Co Ltd filed Critical Beijing Yunzhisheng Information Technology Co Ltd
Priority to CN201610917557.0A priority Critical patent/CN106328126B/zh
Publication of CN106328126A publication Critical patent/CN106328126A/zh
Application granted granted Critical
Publication of CN106328126B publication Critical patent/CN106328126B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种远场语音识别处理方法及装置,该方法包括:接收远场语音;将所述远场语音输入到预先训练得出的基于神经网络的语音训练模型中;通过所述语音训练模型中包含的远场语音和近场语音的音频特征,对接收到的远场语音的音频特征进行去干扰处理,得到处理后的远场语音;对处理后的远场语音进行识别。该方法能够实现对远场语音的优化处理,获取到较佳的处理结果且降低了设备成本投入。

Description

远场语音识别处理方法及装置
技术领域
本发明涉及语音处理技术领域,特别涉及一种基于神经网络模型的远场语音识别处理方法及装置。
背景技术
语音是日常生活中携带信息的常用方式,随着语音技术的发展,也出现了越来越多的语音识别系统来进行语音识别,根据语音来源距离的不同,可以有远场语音和近场语音的分别,在进行语音识别时,针对不同的语音,可以采用不同的处理策略,来进行语音处理,以便获取到的清晰可识别的语音信息。
尤其是远场语音,由于其传输距离较长,其语音中可能就会包含了更多的干扰,为了降低这些干扰的影响,一般需要进行去噪、去回声等处理。
现有技术中,一般是通过麦克风阵列来实现对远场语音的去噪、去回声处理的,这种方式必须布置麦克风阵列,对于不方便布置麦克风阵列的场合来说并不适用。此外,这种方式其实现去噪的困难和复杂程度依赖于麦克风的数目,一般而言,麦克风数目越大,去噪相对来说越容易,当麦克风数量不够时,去噪的效果也会大打折扣。
因此,现有麦克风阵列去噪的实现方式,不仅需要足够的麦克风数量,增加了设备成本,而且对远场语音进行去噪处理的效果并不是很好,不能获取到较佳的语音处理结果。
发明内容
本发明提供一种远场语音识别处理方法及装置,用以解决现有技术中存在的远场语音去噪处理时,设备成本投入高,去噪处理效果不佳的问题,能够在不增加设备投入的情况下,获取到较佳的远场语音处理结果。
本发明实施例提供一种远场语音识别处理方法,包括:
接收远场语音;
将所述远场语音输入到预先训练得出的基于神经网络的语音训练模型中;
通过所述语音训练模型中包含的远场语音和近场语音的音频特征,对接收到的远场语音的音频特征进行去干扰处理,得到处理后的远场语音;
对处理后的远场语音进行识别。
在一些可选的实施例中,基于神经网络的语音训练模型的训练过程,包括:
录入近场语音,从录入的近场语音中获取近场音频特征;
在近场语音中加入远场语音的环境声音,得到模拟远场语音;
将近场语音和模拟远场语音加入神经网络中进行训练,得到基于神经网络的语音训练模型。
在一些可选的实施例中,将近场语音和模拟远场语音加入神经网络中进行训练时,采用中低层网络特定训练的目标函数进行语音模型训练,具体包括:采用如下公式最小化整个数据库的重建向量和纯净向量的平方误差损失:
U是训练事件的总数量;
zi是第i个重建特征向量;
xi是对应的纯净特征向量。
在一些可选的实施例中,上述方法还包括:
将基于神经网络的语音训练模型与声学模型相融合,得到融合后语音训练模型;相应的,接收到远场语音时,将所述远场语音输入到融合后语音训练模型中。
在一些可选的实施例中,对处理后的远场语音进行识别,具体包括:
将处理后的远场语音输入到声学模型中进行识别;或
通过融合后语音训练模型直接对处理后的远场语音进行识别。
本发明实施例还提供一种远场语音识别处理装置,包括:
接收模块,用于接收远场语音;
输入模块,用于将所述远场语音输入到预先训练得出的基于神经网络的语音训练模型中;
处理模块,用于通过所述语音训练模型中包含的远场语音和近场语音的音频特征,对接收到的远场语音的音频特征进行去干扰处理,得到处理后的远场语音;
识别模块,用于对处理后的远场语音进行识别。
在一些可选的实施例中,上述装置还包括:
训练模块,用于录入近场语音,从录入的近场语音中获取近场音频特征;在近场语音中加入远场语音的环境声音,得到模拟远场语音;将近场语音和模拟远场语音加入神经网络中进行训练,得到基于神经网络的语音训练模型。
在一些可选的实施例中,所述训练模块,具体用于:
将近场语音和模拟远场语音加入神经网络中进行训练时,采用中低层网络特定训练的目标函数进行语音模型训练,具体包括:采用如下公式最小化整个数据库的重建向量和纯净向量的平方误差损失:
U是训练事件的总数量;
zi是第i个重建特征向量;
xi是对应的纯净特征向量。
在一些可选的实施例中,所述训练模块,还用于:将基于神经网络的语音训练模型与声学模型相融合,得到融合后语音训练模型;相应的,
所述输入模块,具体用于接收到远场语音时,将所述远场语音输入到融合后语音训练模型中。
在一些可选的实施例中,所述识别模块,具体用于:
将处理后的远场语音输入到声学模型中进行识别;或
通过融合后语音训练模型直接对处理后的远场语音进行识别。
本发明实施例提供的远场语音识别处理方法及装置,接收远场语音时,将远场语音输入到预先训练得出的基于神经网络的语音训练模型中,通过语音训练模型中包含的远场语音和近场语音的音频特征,对接收到的远场语音的音频特征进行去干扰处理,得到处理后的远场语音并进行识别,从而能够以较低的设备成本投入,实现较佳的去噪处理效果,能够在不增加设备成本投入的情况下,获取较佳的远场语音处理效果,使得远程语音能够和近场语音的效果相同或相近,该方法实现简单方便,处理效果好。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例一中远场语音识别处理方法的流程图;
图2为本发明实施例二中语音训练模型的训练过程示意图;
图3为本发明实施例二中语音训练模型训练原理示意图;
图4为本发明实施例三中远场语音识别处理方法的流程图;
图5为本发明实施例四中远场语音识别处理方法的流程图;
图6为本发明实施例中远场语音识别处理装置的框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
为了解决现有技术中存在的远场语音去噪处理时,设备成本投入高,去噪处理效果不佳的问题,本发明实施例提供一种远场语音识别处理方法,通过神经网络模型进行学习,基于学习结果对接收到的远场语音进行处理,无需布置麦克风阵列,不用增加设备成本,即可实现对远场语音的优化处理,并获取到较佳的处理结果。
实施例一
本发明实施例一提供一种远场语音识别处理方法,其流程如图1所示,包括如下步骤:
步骤S101:接收远场语音。
用于远场语音处理的设备,通过设置的接收模块,接收远场语音,并进行后续的去混响、去噪处理,以获取质量较佳的语音。
步骤S102:将接收到的远场语音输入到预先训练得出的基于神经网络的语音训练模型中。
接收到远场语音后,将远场语音输入到语音训练模型中进行去混响、去噪处理,其中语音训练模型可以选用预先训练好的基于神经网络(Deep Neural Network,DNN)的语音训练模型。
语音训练模型的训练过程,也是一种学习过程,通过录入近场声音,从近场声音中提取出近场音频特征。用软件在近场声音中加入远场的环境声音,模拟出远场声音,将远场声音和近场声音加入到神经网络,对神经网络的参数和模型进行训练,神经网络模型可以采用深度网络模型或卷积网络模型。
步骤S103:通过语音训练模型中包含的远场语音和近场语音的音频特征,对接收到的远场语音的音频特征进行去干扰处理,得到处理后的远场语音。
预先训练好的语音训练模型能够包含远场语音和近场语音的音频特征,可以将远场语音,经过比对处理,得到对应的近场语音。该过程实现从噪声混响特征较多的远场语音中恢复出噪声混响特征较少的近场语音。
步骤S104:对处理后的远场语音进行识别。
对远场语音进行识别,主要的是进行声学模型的识别,以便识别出语音,播放给用户。声学模型的识别可以通过单独的声学模型实现识别,也可以通过融合后的神经网络模型进行识别,融合后的神经网络模型是指将远场音频特征到近场音频特征的神经网络模型与声学模型融合得到的神经网络模型。
本发明实施例提供的技术方案,接收到远场语音时,输入到训练好的神经网络模型。利用神经网络对远场语音进行音频特征的加工,实现去混响、去噪声等,得到近场音频特征;并对近场音频特征进行声学模型的识别处理,实现为用户提供音质较佳的远场语音。
实施例二
本发明实施例二提供上述远场语音识别处理方法中,基于神经网络的语音训练模型的训练过程,其流程如图2所示,包括如下步骤:
步骤S201:录入近场语音。
基于神经网络的语音训练模型的训练,实际上是一种学习过程,首先是通过录入近场语音学习近场语音的特征。
步骤S202:从录入的近场语音中获取近场音频特征。
录入近场声音后,从近场声音中提取出近场音频特征,实现对近场语音特征的学习。
步骤S203:在近场语音中加入远场语音的环境声音,得到模拟远场语音。
在训练过程中,学习到近场语音的音频特征后,再在近场语音中加入噪声混响的特征,得到一个模拟的远场语音,通过学习模拟的远场语音的特征,实现模型的建立,所建立的模型能够反映远场语音与近场语音之间的差别和关联,从而能够实现远场语音到近场语音的反向还原。
步骤S204:将近场语音和模拟远场语音加入神经网络中进行训练,得到基于神经网络的语音训练模型。
将近场语音和模拟远场语音加入神经网络中进行训练时,采用中低层网络特定训练的目标函数进行语音模型训练,具体包括:采用如下公式最小化整个数据库的重建向量和纯净向量的平方误差损失:
U是训练事件的总数量;
zi是第i个重建特征向量;
xi是对应的纯净特征向量。
上述公式为表示中低层网络特定训练的目标函数,将此公式用于图3所示的语音训练模型训练原理中,实现语音训练模型的建立。
如图3所示的,近场语音中可以提取出近场语音特征x,对近场语音特征x进行重建,得到重建特征z,噪声混响语音中提取出叠加噪声的特征x’,叠加噪声的特征x’通过映射变换,实现输入变量x’到隐性特征的映射(fθ映射,也是一个编码过程),得到非线性的映射变换特征h1,进一步通过映射得到fθ得到特征h2;再通过非线性挤压(gθ映射,也是一个译码过程),得到重建特征z,基于该原理,实现模型的语音训练建立。
如图3所示的,其参数从下往上依次为11*44,512,512和11*44。
本发明实施例中基于对远场语音的原始特征或中层表达,通过神经网络转化为近场语音的特征和中层表达,因此主要是对神经网络模型的中低层参数进行了特定训练,高层神经网络的参数与现有语音识别模型训练方法相同。
通过中低层网络参数的特定训练,在远场环境下,新的远场语音模型的性能与原始的带噪训练的远场语音模型的性能相比,有10%左右的提升。
实施例三
本发明实施例三提供一种远场语音识别处理的具体实现方法,其流程如图4所示,包括如下步骤:
步骤S301:接收远场语音。
步骤S302:将接收到的远场语音输入到预先训练得出的基于神经网络的语音训练模型中。
本实施例中基于神经网络的语音训练模型是未融合声学模型的语音训练模型,该模型仅实现远场语音到近场语音的处理。
步骤S303:获取语音训练模型中包含的远场语音和近场语音的音频特征。
步骤S304:根据获取的音频特征,对接收到的远场语音的音频特征进行去干扰处理,得到处理后的远场语音。
步骤S305:将处理后的远场语音输入到声学模型中进行识别。
通过单独声学模型进行识别,其实现更灵活。
本发明实施例提供的技术方案,在训练基于网络的语音训练模型时,不进行声学模型的融合,后续得到近场语音后,通过单独的声学模型进行语音识别。
实施例四
本发明实施例四提供一种远场语音识别处理的具体实现方法,其流程如图5所示,包括如下步骤:
步骤S401:接收远场语音。
步骤S402:将接收到的远场语音输入到预先训练得出的融合后的语音训练模型。
本实施例中基于神经网络的语音训练模型是与声学模型融合后的语音训练模型,能够一体化的实现语音识别。
本实施例中在生成语音训练模型时,将基于神经网络的语音训练模型与声学模型相融合,得到融合后语音训练模型。
步骤S403:获取语音训练模型中包含的远场语音和近场语音的音频特征。
步骤S404:根据获取的音频特征,对接收到的远场语音的音频特征进行去干扰处理,得到处理后的远场语音。
相应的,接收到远场语音时,将接收到的远场语音输入到融合后语音训练模型中进行远场语音到近场语音的转换处理,并同时实现语音识别,实现参数连调,其节约操作流程,处理效率更高。
步骤S405:通过融合后的语音训练模型对处理后的远场语音输入进行识别。
由于使用的是融合后的语音训练模型,通过融合后语音训练模型直接对处理后的远场语音进行识别,而不用再使用单独的声学模型来进行识别了。
本发明实施例提供的技术方案,在训练基于网络的语音训练模型时,进行声学模型的融合,后续得到近场语音后,通过融合后的基于网络的语音训练模型进行语音识别。
基于同一发明构思,本发明实施例还提供一种远场语音识别处理装置,该装置可以设置在任意的语音设备中,对接收到的语音进行处理,该装置结构如图6所示,包括:接收模块601、输入模块602、处理模块603和识别模块604。
接收模块601,用于接收远场语音。
输入模块602,用于将接收到的远场语音输入到预先训练得出的基于神经网络的语音训练模型中。
处理模块603,用于通过语音训练模型中包含的远场语音和近场语音的音频特征,对接收到的远场语音的音频特征进行去干扰处理,得到处理后的远场语音。
识别模块604,用于对处理后的远场语音进行识别。
优选的,上述装置还包括:训练模块605,用于录入近场语音,从录入的近场语音中获取近场音频特征;在近场语音中加入远场语音的环境声音,得到模拟远场语音;将近场语音和模拟远场语音加入神经网络中进行训练,得到基于神经网络的语音训练模型。
优选的,上述训练模块605,具体用于将近场语音和模拟远场语音加入神经网络中进行训练时,采用中低层网络特定训练的目标函数进行语音模型训练,具体包括:采用如下公式最小化整个数据库的重建向量和纯净向量的平方误差损失:
U是训练事件的总数量;
zi是第i个重建特征向量;
xi是对应的纯净特征向量。
优选的,上述训练模块605,还用于:将基于神经网络的语音训练模型与声学模型相融合,得到融合后语音训练模型;相应的,
上述输入模块602,具体用于接收到远场语音时,将所述远场语音输入到融合后语音训练模型中。
优选的,上述识别模块604,具体用于将处理后的远场语音输入到声学模型中进行识别;或通过融合后语音训练模型直接对处理后的远场语音进行识别。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本领域技术人员还可以了解到本发明实施例列出的各种说明性逻辑块(illustrative logical block),单元,和步骤可以通过电子硬件、电脑软件,或两者的结合进行实现。为清楚展示硬件和软件的可替换性(interchangeability),上述的各种说明性部件(illustrative components),单元和步骤已经通用地描述了它们的功能。这样的功能是通过硬件还是软件来实现取决于特定的应用和整个系统的设计要求。本领域技术人员可以对于每种特定的应用,可以使用各种方法实现所述的功能,但这种实现不应被理解为超出本发明实施例保护的范围。
本发明实施例中所描述的各种说明性的逻辑块,或单元都可以通过通用处理器,数字信号处理器,专用集成电路(ASIC),现场可编程门阵列或其它可编程逻辑装置,离散门或晶体管逻辑,离散硬件部件,或上述任何组合的设计来实现或操作所描述的功能。通用处理器可以为微处理器,可选地,该通用处理器也可以为任何传统的处理器、控制器、微控制器或状态机。处理器也可以通过计算装置的组合来实现,例如数字信号处理器和微处理器,多个微处理器,一个或多个微处理器联合一个数字信号处理器核,或任何其它类似的配置来实现。
本发明实施例中所描述的方法或算法的步骤可以直接嵌入硬件、处理器执行的软件模块、或者这两者的结合。软件模块可以存储于RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动磁盘、CD-ROM或本领域中其它任意形式的存储媒介中。示例性地,存储媒介可以与处理器连接,以使得处理器可以从存储媒介中读取信息,并可以向存储媒介存写信息。可选地,存储媒介还可以集成到处理器中。处理器和存储媒介可以设置于ASIC中,ASIC可以设置于用户终端中。可选地,处理器和存储媒介也可以设置于用户终端中的不同的部件中。
在一个或多个示例性的设计中,本发明实施例所描述的上述功能可以在硬件、软件、固件或这三者的任意组合来实现。如果在软件中实现,这些功能可以存储与电脑可读的媒介上,或以一个或多个指令或代码形式传输于电脑可读的媒介上。电脑可读媒介包括电脑存储媒介和便于使得让电脑程序从一个地方转移到其它地方的通信媒介。存储媒介可以是任何通用或特殊电脑可以接入访问的可用媒体。例如,这样的电脑可读媒体可以包括但不限于RAM、ROM、EEPROM、CD-ROM或其它光盘存储、磁盘存储或其它磁性存储装置,或其它任何可以用于承载或存储以指令或数据结构和其它可被通用或特殊电脑、或通用或特殊处理器读取形式的程序代码的媒介。此外,任何连接都可以被适当地定义为电脑可读媒介,例如,如果软件是从一个网站站点、服务器或其它远程资源通过一个同轴电缆、光纤电缆、双绞线、数字用户线(DSL)或以例如红外、无线和微波等无线方式传输的也被包含在所定义的电脑可读媒介中。所述的碟片(disk)和磁盘(disc)包括压缩磁盘、镭射盘、光盘、DVD、软盘和蓝光光盘,磁盘通常以磁性复制数据,而碟片通常以激光进行光学复制数据。上述的组合也可以包含在电脑可读媒介中。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种远场语音识别处理方法,其特征在于,包括:
接收远场语音;
将所述远场语音输入到预先训练得出的基于神经网络的语音训练模型中;
通过所述语音训练模型中包含的远场语音和近场语音的音频特征,对接收到的远场语音的音频特征进行去干扰处理,得到处理后的远场语音;
对处理后的远场语音进行识别。
2.如权利要求1所述的方法,其特征在于,基于神经网络的语音训练模型的训练过程,包括:
录入近场语音,从录入的近场语音中获取近场音频特征;
在近场语音中加入远场语音的环境声音,得到模拟远场语音;
将近场语音和模拟远场语音加入神经网络中进行训练,得到基于神经网络的语音训练模型。
3.如权利要求2所述的方法,其特征在于,将近场语音和模拟远场语音加入神经网络中进行训练时,采用中低层网络特定训练的目标函数进行语音模型训练,具体包括:采用如下公式最小化整个数据库的重建向量和纯净向量的平方误差损失:
U是训练事件的总数量;
zi是第i个重建特征向量;
xi是对应的纯净特征向量。
4.如权利要求2或3所述的方法,其特征在于,还包括:
将基于神经网络的语音训练模型与声学模型相融合,得到融合后语音训练模型;相应的,接收到远场语音时,将所述远场语音输入到融合后语音训练模型中。
5.如权利要4所述的方法,其特征在于,对处理后的远场语音进行识别,具体包括:
将处理后的远场语音输入到声学模型中进行识别;或
通过融合后语音训练模型直接对处理后的远场语音进行识别。
6.一种远场语音识别处理装置,其特征在于,包括:
接收模块,用于接收远场语音;
输入模块,用于将所述远场语音输入到预先训练得出的基于神经网络的语音训练模型中;
处理模块,用于通过所述语音训练模型中包含的远场语音和近场语音的音频特征,对接收到的远场语音的音频特征进行去干扰处理,得到处理后的远场语音;
识别模块,用于对处理后的远场语音进行识别。
7.如权利要求6所述的装置,其特征在于,还包括:
训练模块,用于录入近场语音,从录入的近场语音中获取近场音频特征;在近场语音中加入远场语音的环境声音,得到模拟远场语音;将近场语音和模拟远场语音加入神经网络中进行训练,得到基于神经网络的语音训练模型。
8.如权利要求7所述的装置,其特征在于,所述训练模块,具体用于:
将近场语音和模拟远场语音加入神经网络中进行训练时,采用中低层网络特定训练的目标函数进行语音模型训练,具体包括:采用如下公式最小化整个数据库的重建向量和纯净向量的平方误差损失:
U是训练事件的总数量;
zi是第i个重建特征向量;
xi是对应的纯净特征向量。
9.如权利要求7或8所述的装置,其特征在于,所述训练模块,还用于:将基于神经网络的语音训练模型与声学模型相融合,得到融合后语音训练模型;相应的,
所述输入模块,具体用于接收到远场语音时,将所述远场语音输入到融合后语音训练模型中。
10.如权利要求9所述的装置,其特征在于,所述识别模块,具体用于:
将处理后的远场语音输入到声学模型中进行识别;或
通过融合后语音训练模型直接对处理后的远场语音进行识别。
CN201610917557.0A 2016-10-20 2016-10-20 远场语音识别处理方法及装置 Active CN106328126B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610917557.0A CN106328126B (zh) 2016-10-20 2016-10-20 远场语音识别处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610917557.0A CN106328126B (zh) 2016-10-20 2016-10-20 远场语音识别处理方法及装置

Publications (2)

Publication Number Publication Date
CN106328126A true CN106328126A (zh) 2017-01-11
CN106328126B CN106328126B (zh) 2019-08-16

Family

ID=57819200

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610917557.0A Active CN106328126B (zh) 2016-10-20 2016-10-20 远场语音识别处理方法及装置

Country Status (1)

Country Link
CN (1) CN106328126B (zh)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107452372A (zh) * 2017-09-22 2017-12-08 百度在线网络技术(北京)有限公司 远场语音识别模型的训练方法和装置
CN107481731A (zh) * 2017-08-01 2017-12-15 百度在线网络技术(北京)有限公司 一种语音数据增强方法及系统
CN107680586A (zh) * 2017-08-01 2018-02-09 百度在线网络技术(北京)有限公司 远场语音声学模型训练方法及系统
CN108269567A (zh) * 2018-01-23 2018-07-10 北京百度网讯科技有限公司 用于生成远场语音数据的方法、装置、计算设备以及计算机可读存储介质
CN108346433A (zh) * 2017-12-28 2018-07-31 北京搜狗科技发展有限公司 一种音频处理方法、装置、设备及可读存储介质
CN108416096A (zh) * 2018-02-01 2018-08-17 北京百度网讯科技有限公司 基于人工智能的远场语音数据信噪比估计方法及装置
CN108538303A (zh) * 2018-04-23 2018-09-14 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN109036412A (zh) * 2018-09-17 2018-12-18 苏州奇梦者网络科技有限公司 语音唤醒方法和系统
CN109785856A (zh) * 2019-03-01 2019-05-21 深圳市伟文无线通讯技术有限公司 一种多通道远近场语料采集方法及装置
CN109935226A (zh) * 2017-12-15 2019-06-25 上海擎语信息科技有限公司 一种基于深度神经网络的远场语音识别增强系统及方法
CN110047478A (zh) * 2018-01-16 2019-07-23 中国科学院声学研究所 基于空间特征补偿的多通道语音识别声学建模方法及装置
CN110097871A (zh) * 2018-01-31 2019-08-06 阿里巴巴集团控股有限公司 一种语音数据处理方法及装置
CN110580906A (zh) * 2019-08-01 2019-12-17 安徽声讯信息技术有限公司 一种基于云端数据的远场音频扩音方法及系统
CN110827819A (zh) * 2019-11-26 2020-02-21 珠海格力电器股份有限公司 家居设备控制方法及控制系统
CN110930991A (zh) * 2018-08-30 2020-03-27 阿里巴巴集团控股有限公司 一种远场语音识别模型训练方法及装置
CN111785282A (zh) * 2019-04-03 2020-10-16 阿里巴巴集团控股有限公司 一种语音识别方法及装置和智能音箱
CN111862952A (zh) * 2019-04-26 2020-10-30 华为技术有限公司 一种去混响模型训练方法及装置
CN112634877A (zh) * 2019-10-09 2021-04-09 北京声智科技有限公司 一种远场语音模拟方法及装置
CN112770222A (zh) * 2020-12-25 2021-05-07 苏州思必驰信息科技有限公司 音频处理方法和装置
CN113016189A (zh) * 2018-11-16 2021-06-22 三星电子株式会社 识别音频场景的电子设备和方法
CN113241081A (zh) * 2021-04-25 2021-08-10 华南理工大学 一种基于梯度反转层的远场说话人认证方法及系统
CN113257283A (zh) * 2021-03-29 2021-08-13 北京字节跳动网络技术有限公司 音频信号的处理方法、装置、电子设备和存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102779509A (zh) * 2011-05-11 2012-11-14 联想(北京)有限公司 语音处理设备和语音处理方法
CN102890930A (zh) * 2011-07-19 2013-01-23 上海上大海润信息系统有限公司 基于hmm/sofmnn混合模型的语音情感识别方法
CN103065629A (zh) * 2012-11-20 2013-04-24 广东工业大学 一种仿人机器人的语音识别系统
CN104008751A (zh) * 2014-06-18 2014-08-27 周婷婷 一种基于bp神经网络的说话人识别方法
CN105355210A (zh) * 2015-10-30 2016-02-24 百度在线网络技术(北京)有限公司 用于远场语音识别的预处理方法和装置
CN105427860A (zh) * 2015-11-11 2016-03-23 百度在线网络技术(北京)有限公司 远场语音识别方法和装置
CN105448303A (zh) * 2015-11-27 2016-03-30 百度在线网络技术(北京)有限公司 语音信号的处理方法和装置
CN105845128A (zh) * 2016-04-06 2016-08-10 中国科学技术大学 基于动态剪枝束宽预测的语音识别效率优化方法
CN105989839A (zh) * 2015-06-03 2016-10-05 乐视致新电子科技(天津)有限公司 语音识别方法和装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102779509A (zh) * 2011-05-11 2012-11-14 联想(北京)有限公司 语音处理设备和语音处理方法
CN102890930A (zh) * 2011-07-19 2013-01-23 上海上大海润信息系统有限公司 基于hmm/sofmnn混合模型的语音情感识别方法
CN103065629A (zh) * 2012-11-20 2013-04-24 广东工业大学 一种仿人机器人的语音识别系统
CN104008751A (zh) * 2014-06-18 2014-08-27 周婷婷 一种基于bp神经网络的说话人识别方法
CN105989839A (zh) * 2015-06-03 2016-10-05 乐视致新电子科技(天津)有限公司 语音识别方法和装置
CN105355210A (zh) * 2015-10-30 2016-02-24 百度在线网络技术(北京)有限公司 用于远场语音识别的预处理方法和装置
CN105427860A (zh) * 2015-11-11 2016-03-23 百度在线网络技术(北京)有限公司 远场语音识别方法和装置
CN105448303A (zh) * 2015-11-27 2016-03-30 百度在线网络技术(北京)有限公司 语音信号的处理方法和装置
CN105845128A (zh) * 2016-04-06 2016-08-10 中国科学技术大学 基于动态剪枝束宽预测的语音识别效率优化方法

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107481731A (zh) * 2017-08-01 2017-12-15 百度在线网络技术(北京)有限公司 一种语音数据增强方法及系统
CN107680586A (zh) * 2017-08-01 2018-02-09 百度在线网络技术(北京)有限公司 远场语音声学模型训练方法及系统
CN107481731B (zh) * 2017-08-01 2021-01-22 百度在线网络技术(北京)有限公司 一种语音数据增强方法及系统
CN107452372A (zh) * 2017-09-22 2017-12-08 百度在线网络技术(北京)有限公司 远场语音识别模型的训练方法和装置
CN109935226A (zh) * 2017-12-15 2019-06-25 上海擎语信息科技有限公司 一种基于深度神经网络的远场语音识别增强系统及方法
CN108346433A (zh) * 2017-12-28 2018-07-31 北京搜狗科技发展有限公司 一种音频处理方法、装置、设备及可读存储介质
CN110047478A (zh) * 2018-01-16 2019-07-23 中国科学院声学研究所 基于空间特征补偿的多通道语音识别声学建模方法及装置
CN110047478B (zh) * 2018-01-16 2021-06-08 中国科学院声学研究所 基于空间特征补偿的多通道语音识别声学建模方法及装置
CN108269567B (zh) * 2018-01-23 2021-02-05 北京百度网讯科技有限公司 用于生成远场语音数据的方法、装置、计算设备以及计算机可读存储介质
CN108269567A (zh) * 2018-01-23 2018-07-10 北京百度网讯科技有限公司 用于生成远场语音数据的方法、装置、计算设备以及计算机可读存储介质
US11869493B2 (en) 2018-01-31 2024-01-09 Alibaba Group Holding Limited Method and apparatus for audio data processing
US11538471B2 (en) 2018-01-31 2022-12-27 Alibaba Group Holding Limited Method and apparatus for audio data processing
CN110097871B (zh) * 2018-01-31 2023-05-12 阿里巴巴集团控股有限公司 一种语音数据处理方法及装置
CN110097871A (zh) * 2018-01-31 2019-08-06 阿里巴巴集团控股有限公司 一种语音数据处理方法及装置
CN108416096B (zh) * 2018-02-01 2022-02-25 北京百度网讯科技有限公司 基于人工智能的远场语音数据信噪比估计方法及装置
CN108416096A (zh) * 2018-02-01 2018-08-17 北京百度网讯科技有限公司 基于人工智能的远场语音数据信噪比估计方法及装置
CN108538303B (zh) * 2018-04-23 2019-10-22 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN108538303A (zh) * 2018-04-23 2018-09-14 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN110930991A (zh) * 2018-08-30 2020-03-27 阿里巴巴集团控股有限公司 一种远场语音识别模型训练方法及装置
CN110930991B (zh) * 2018-08-30 2023-08-25 阿里巴巴集团控股有限公司 一种远场语音识别模型训练方法及装置
CN109036412A (zh) * 2018-09-17 2018-12-18 苏州奇梦者网络科技有限公司 语音唤醒方法和系统
CN113016189B (zh) * 2018-11-16 2023-12-19 三星电子株式会社 识别音频场景的电子设备和方法
CN113016189A (zh) * 2018-11-16 2021-06-22 三星电子株式会社 识别音频场景的电子设备和方法
CN109785856A (zh) * 2019-03-01 2019-05-21 深圳市伟文无线通讯技术有限公司 一种多通道远近场语料采集方法及装置
CN111785282A (zh) * 2019-04-03 2020-10-16 阿里巴巴集团控股有限公司 一种语音识别方法及装置和智能音箱
CN111862952A (zh) * 2019-04-26 2020-10-30 华为技术有限公司 一种去混响模型训练方法及装置
CN111862952B (zh) * 2019-04-26 2024-04-12 华为技术有限公司 一种去混响模型训练方法及装置
CN110580906A (zh) * 2019-08-01 2019-12-17 安徽声讯信息技术有限公司 一种基于云端数据的远场音频扩音方法及系统
CN110580906B (zh) * 2019-08-01 2022-02-11 安徽声讯信息技术有限公司 一种基于云端数据的远场音频扩音方法及系统
CN112634877B (zh) * 2019-10-09 2022-09-23 北京声智科技有限公司 一种远场语音模拟方法及装置
CN112634877A (zh) * 2019-10-09 2021-04-09 北京声智科技有限公司 一种远场语音模拟方法及装置
CN110827819A (zh) * 2019-11-26 2020-02-21 珠海格力电器股份有限公司 家居设备控制方法及控制系统
CN112770222A (zh) * 2020-12-25 2021-05-07 苏州思必驰信息科技有限公司 音频处理方法和装置
CN113257283A (zh) * 2021-03-29 2021-08-13 北京字节跳动网络技术有限公司 音频信号的处理方法、装置、电子设备和存储介质
CN113257283B (zh) * 2021-03-29 2023-09-26 北京字节跳动网络技术有限公司 音频信号的处理方法、装置、电子设备和存储介质
CN113241081B (zh) * 2021-04-25 2023-06-16 华南理工大学 一种基于梯度反转层的远场说话人认证方法及系统
CN113241081A (zh) * 2021-04-25 2021-08-10 华南理工大学 一种基于梯度反转层的远场说话人认证方法及系统

Also Published As

Publication number Publication date
CN106328126B (zh) 2019-08-16

Similar Documents

Publication Publication Date Title
CN106328126A (zh) 远场语音识别处理方法及装置
Qian et al. Very deep convolutional neural networks for noise robust speech recognition
US10381017B2 (en) Method and device for eliminating background sound, and terminal device
JP7337953B2 (ja) 音声認識方法及び装置、ニューラルネットワークの訓練方法及び装置、並びにコンピュータープログラム
CN108922518B (zh) 语音数据扩增方法和系统
CN110223705A (zh) 语音转换方法、装置、设备及可读存储介质
CN103236263B (zh) 一种改善通话质量的方法、系统及移动终端
CN108615525B (zh) 一种语音识别方法及装置
CN107818785A (zh) 一种从多媒体文件中提取信息的方法及终端设备
CN109949821B (zh) 一种利用cnn的u-net结构进行远场语音去混响的方法
CN107360387A (zh) 一种视频录制的方法、装置及终端设备
CN108573694A (zh) 基于人工智能的语料扩充及语音合成系统构建方法及装置
CN108510979A (zh) 一种混合频率声学识别模型的训练方法及语音识别方法
WO2022012206A1 (zh) 音频信号处理方法、装置、设备及存储介质
CN110797038A (zh) 音频处理方法、装置、计算机设备及存储介质
CN109410918A (zh) 用于获取信息的方法及装置
CN109935226A (zh) 一种基于深度神经网络的远场语音识别增强系统及方法
CN109616102A (zh) 声学模型的训练方法、装置及存储介质
US20170171683A1 (en) Method for generating surround channel audio
CN113241085B (zh) 回声消除方法、装置、设备及可读存储介质
US11611840B2 (en) Three-dimensional audio systems
CN107240396A (zh) 说话人自适应方法、装置、设备及存储介质
CN111581470A (zh) 用于对话系统情景匹配的多模态融合学习分析方法和系统
CN112614504A (zh) 单声道语音降噪方法、系统、设备及可读存储介质
CN112164407A (zh) 音色转换方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: No. 101, 1st Floor, 1st Building, Xisanqi Building Materials City, Haidian District, Beijing, 100000

Patentee after: Yunzhisheng Intelligent Technology Co.,Ltd.

Address before: 100191 Beijing, Huayuan Road, Haidian District No. 2 peony technology building, 5 floor, A503

Patentee before: BEIJING UNISOUND INFORMATION TECHNOLOGY Co.,Ltd.

CP03 Change of name, title or address
TR01 Transfer of patent right

Effective date of registration: 20200326

Address after: No. 101, 1st Floor, 1st Building, Xisanqi Building Materials City, Haidian District, Beijing, 100000

Co-patentee after: Xiamen yunzhixin Intelligent Technology Co.,Ltd.

Patentee after: Yunzhisheng Intelligent Technology Co.,Ltd.

Address before: No. 101, 1st Floor, 1st Building, Xisanqi Building Materials City, Haidian District, Beijing, 100000

Patentee before: Yunzhisheng Intelligent Technology Co.,Ltd.

TR01 Transfer of patent right