CN111415653B - 用于识别语音的方法和装置 - Google Patents

用于识别语音的方法和装置 Download PDF

Info

Publication number
CN111415653B
CN111415653B CN201811549488.8A CN201811549488A CN111415653B CN 111415653 B CN111415653 B CN 111415653B CN 201811549488 A CN201811549488 A CN 201811549488A CN 111415653 B CN111415653 B CN 111415653B
Authority
CN
China
Prior art keywords
signal
noise ratio
audio signal
speech recognition
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811549488.8A
Other languages
English (en)
Other versions
CN111415653A (zh
Inventor
孙建伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201811549488.8A priority Critical patent/CN111415653B/zh
Priority to US16/568,146 priority patent/US11282514B2/en
Publication of CN111415653A publication Critical patent/CN111415653A/zh
Application granted granted Critical
Publication of CN111415653B publication Critical patent/CN111415653B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/84Detection of presence or absence of voice signals for discriminating voice from noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0635Training updating or merging of old and new templates; Mean values; Weighting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Abstract

本申请实施例公开了用于识别语音的方法和装置。该方法的一具体实施方式包括:获取音频信号;确定音频信号的信噪比;根据所确定的信噪比,从预先训练的语音识别模型组中选择语音识别模型对音频信号进行语音识别。该实施方式提高了语音识别产品对不同应用场景下的语音进行识别的鲁棒性。

Description

用于识别语音的方法和装置
技术领域
本申请实施例涉及计算机技术领域,具体涉及用于识别语音的方法和装置。
背景技术
语音识别产品通常是采用语音识别技术对语音进行识别。
相关技术中,当语音识别产品所处的应用场景发生变化时,例如,从安静的应用场景变换成喧闹的应用场景,会影响语音识别产品对语音进行识别的鲁棒性。
发明内容
本申请实施例提出了用于识别语音的方法和装置。
第一方面,本申请实施例提供了一种用于识别语音的方法,该方法包括:获取音频信号(Audio Signal);确定音频信号的信噪比;根据所确定的信噪比(Signal-to-NoiseRatio,SNR),从预先训练的语音识别模型组中选择语音识别模型对音频信号进行语音识别。
在一些实施例中,确定音频信号的信噪比,包括:确定音频信号的静音段和噪声段;根据静音段的能量和噪声段的能量,得到音频信号的信噪比。
在一些实施例中,根据所确定的信噪比,从预先训练的语音识别模型组中选择语音识别模型对音频信号进行语音识别,包括:从信噪比区间组中选择与信噪比相匹配的信噪比区间;选择对应于所选择的信噪比区间的语音识别模型对音频信号进行语音识别。
在一些实施例中,信噪比区间组通过如下步骤确定:获取样本音频信号集合;对于样本音频信号集合中的样本音频信号,确定该样本音频信号的静音段和噪声段;根据所确定的静音段的能量和所确定的噪声段的能量,得到该音频信号的信噪比,存入信噪比集合;根据信噪比集合中的信噪比,生成信噪比统计直方图,其中,信噪比统计直方图用于指示信噪比取值的分布特征;根据信噪比统计直方图,确定信噪比区间组。
在一些实施例中,语音识别模型组中的语音识别模型通过以下步骤得到:获取该语音识别模型对应的训练样本集合,其中,训练样本包括样本音频信号和样本识别结果,样本音频信号的信噪比属于训练样本集合对应的信噪比区间;利用机器学习方法,将训练样本集合中的训练样本中的样本音频信号作为输入,将所输入的训练样本中的样本识别结果作为期望输出,训练得到该语音识别模型。
第二方面,本申请实施例提供了一种用于识别语音的装置,该装置包括:信息获取单元,被配置成获取音频信号;信息确定单元,被配置成确定音频信号的信噪比;模型选择单元,被配置成根据所确定的信噪比,从预先训练的语音识别模型组中选择语音识别模型对音频信号进行语音识别。
在一些实施例中,信息确定单元,被进一步配置成:确定音频信号的静音段和噪声段;根据静音段的能量和噪声段的能量,得到音频信号的信噪比。
在一些实施例中,模型选择单元,被进一步配置成:从信噪比区间组中选择与信噪比相匹配的信噪比区间;选择对应于所选择的信噪比区间的语音识别模型对音频信号进行语音识别。
在一些实施例中,信噪比区间组通过如下步骤确定:获取样本音频信号集合;对于样本音频信号集合中的样本音频信号,确定该样本音频信号的静音段和噪声段;根据所确定的静音段的能量和所确定的噪声段的能量,得到该音频信号的信噪比,存入信噪比集合;根据信噪比集合中的信噪比,生成信噪比统计直方图,其中,信噪比统计直方图用于指示信噪比取值的分布特征;根据信噪比统计直方图,确定信噪比区间组。
在一些实施例中,语音识别模型组中的语音识别模型通过以下步骤得到:获取该语音识别模型对应的训练样本集合,其中,训练样本包括样本音频信号和样本识别结果,样本音频信号的信噪比属于训练样本集合对应的信噪比区间;利用机器学习方法,将训练样本集合中的训练样本中的样本音频信号作为输入,将所输入的训练样本中的样本识别结果作为期望输出,训练得到该语音识别模型。
第三方面,本申请实施例提供了一种服务器,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如用于识别语音的方法中任一实施例的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如用于识别语音的方法中任一实施例的方法。
本申请实施例提供的用于识别语音的方法和装置,可以首先获取音频信号。然后,确定音频信号的信噪比。最后,根据所确定的信噪比,从预先训练的语音识别模型组中选择语音识别模型对音频信号进行语音识别。本申请实施例提供的方法和装置,采用所获取到的音频信号的信噪比来选择适合当前场景的语音识别模型,有助于提高语音识别产品对不同应用场景下的语音进行识别的鲁棒性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的用于识别语音的方法的一个实施例的流程图;
图3是根据本申请实施例的用于识别语音的方法的一个应用场景的示意图;
图4是根据本申请的用于识别语音的方法的又一个实施例的流程图;
图5是根据本申请的用于识别语音的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的服务器的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请实施例的用于识别语音的方法或用于识别语音的装置的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备101、102、103可以通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种应用,例如语音识别类应用、语音分析类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是支持音频信号输入的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和车载终端等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上所安装的应用提供支持的后台服务器。后台服务器可以确定终端设备101、102、103输入的音频信号的信噪比,以及根据所确定的信噪比,从预先训练的语音识别模型组中选择语音识别模型对音频信号进行语音识别。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本申请实施例所提供的用于识别语音的方法一般由终端设备101、102、103执行,相应地,用于识别语音的装置一般设置于终端设备101、102、103中。需要指出的是,终端设备101、102、103也可以确定音频信号的信噪比,以及根据所确定的信噪比,从预先训练的语音识别模型组中选择语音识别模型对音频信号进行语音识别。此时,示例性系统架构100可以不包括网络104和服务器105。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的用于识别语音的方法的一个实施例的流程200。该用于识别语音的方法,包括以下步骤:
步骤201,获取音频信号。
在本实施例中,用于识别语音的方法的执行主体(例如图1所示的终端设备101、102、103)可以按照预先设定的音频信号获取周期,获取音频信号。其中,音频信号通常是载有频率、幅度变化的声波的信息载体。音频信号中包括语音信号。上述预先设定的音频信号获取周期可以是技术人员预先设定的各种周期数值。作为示例,可以将上述音频信号获取周期设定为1秒,也可以设定为1分钟。
步骤202,确定音频信号的信噪比。
在本实施例中,执行主体在获取到音频信号后,确定音频信号的信噪比。其中,信噪比通常是指一个电子设备或者电子系统中信号与噪声的比值。在本实施例中,上述执行主体可以将音频信号的能量与该音频信号中的背景噪声的能量的比值确定为该音频信号的信噪比。其中,音频信号中的背景噪声通常可以采用背景噪声分离算法得到。作为示例,背景噪声分离算法可以为盲源分离算法(Blind Source Separation,BSS),还可以为其他算法。需要指出的是,如何获取音频信号的能量以及背景噪声的能量是本领域的公知技术,这里不做赘述。
在本实施例的一些可选的实现方式中,执行主体可以通过如下步骤确定音频信号的信噪比:
第一步,确定音频信号的静音段和噪声段。可选地,执行主体可以采用语音活动检测(Voice Activity Detection,VAD)模型检测出音频信号的噪声段,然后将音频信号的非噪声段部分确定为静音段。其中,静音段为不包括语音的音频信号部分,噪声段为包括语音的音频信号部分。需要指出的是,执行主体还可以采用其他方式确定音频信号的静音段和噪声段,这里不做限定。
第二步,根据静音段的能量和噪声段的能量,得到音频信号的信噪比。这里,执行主体可以采用静音段的能量和噪声段的能量,计算得到音频信号的信噪比。作为示例,若噪声段能量为N1,静音段能量为N2。此时,执行主体可以通过如下方式计算得到音频信号的信噪比:SNR=(N1-N2)/N2。执行主体还可以通过如下方式计算得到音频信号的信噪比:SNR=N1/N2。需要指出的是,如何获取静音段的能量和噪声段的能量是本领域的公知技术,这里不做赘述。
步骤203,根据所确定的信噪比,从预先训练的语音识别模型组中选择语音识别模型对音频信号进行语音识别。
在本实施例中,执行主体可以通过如下方式从预先训练的语音识别模型组中选择语音识别模型:采用所确定的信噪比,从预先存储的信噪比-语音识别模型对应关系表中查找到对应于该信噪比的语音识别模型。这里,信噪比-语音识别模型对应关系表,可以是执行主体预先建立的、存储有多个信噪比和语音识别模型的对应关系表。
在本实施例的一些可选的实现方式中,根据所确定的信噪比,从预先训练的语音识别模型组中选择语音识别模型对音频信号进行语音识别,包括:从信噪比区间组中选择与信噪比相匹配的信噪比区间。选择对应于所选择的信噪比区间的语音识别模型对音频信号进行语音识别。
在本实施例中,执行主体还可以通过如下方式从预先训练的语音识别模型组中选择语音识别模型:
第一步,从信噪比区间组中选择与信噪比相匹配的信噪比区间。这里,执行主体可以将所确定的信噪比与信噪比区间组中的信噪比区间进行逐一匹配,从而得到与所确定的信噪比相匹配的信噪比区间。其中,若所确定的信噪比属于某个信噪比区间,则认为该信噪比区间与所确定的信噪比相匹配。作为示例,若所确定的信噪比为SNR,信噪比区间组为(A,B,C,D)。其中,A,B,C,D分别为信噪比区间。此时,若SNR属于A,则可以认为,信噪比区间A与信噪比SNR相匹配。
第二步,选择对应于所选择的信噪比区间的语音识别模型对音频信号进行语音识别。在本实施例中,信噪比区间组中的每个信噪比区间关联有一个语音识别模型。执行主体可以在得到与所确定的信噪比相匹配的信噪比区间后,得到与该信噪比区间关联的语音识别模型。
在本实施例的一些可选的实现方式中,信噪比区间组中的信噪比区间关联有语音识别模型身份标识。以及,选择对应于所选择的信噪比区间的语音识别模型对音频信号进行语音识别,包括:根据所选择的信噪比区间所关联的语音识别模型身份标识,确定语音识别模型。采用所确定的语音识别模型对音频信号进行语音识别。在本实施例中,执行主体可以在得到与所确定的信噪比相匹配的信噪比区间后,得到与该信噪比区间关联的语音识别模型身份标识。从而可以得到语音识别模型身份标识所指示的语音识别模型。
在本实施例的一些可选的实现方式中,上述信噪比区间组可以是上述执行主体或者其他用于确定上述信噪比区间组的执行主体通过执行如下步骤得到:
第一步,获取样本音频信号集合。
第二步,对于样本音频信号集合中的样本音频信号,确定该样本音频信号的静音段和噪声段。根据所确定的静音段的能量和所确定的噪声段的能量,得到该音频信号的信噪比,存入信噪比集合。这里,执行主体得到样本音频信号集合中的各样本音频信号的信噪比的方式,与步骤202中的得到音频信号的信噪比的方式相同,这里不做赘述。
第三步,根据信噪比集合中的信噪比,生成信噪比统计直方图。其中,信噪比统计直方图用于指示信噪比取值的分布特征。在本实施例中,信噪比统计直方图的横坐标为不同的信噪比取值,纵坐标为对应于信噪比取值的样本音频信号的条数。
第四步,根据信噪比统计直方图,确定信噪比区间组。这里,执行主体可以首先将信噪比统计直方图的横坐标划分成设定数目个横向子区间,其中,上述横向子区间为对横坐标进行划分得到的子区间。然后,计算各横向子区间内的纵坐标的取值之和。最后,从设定数目个横向子区间中,挑选出纵坐标取值之和大于预设阈值的横向子区间,组合形成信噪比区间组。
在本实施例的一些可选的实现方式中,执行主体还可以通过如下方式确定信噪比区间组:
首先,确定信噪比统计直方图中坐标数据沿纵坐标方向的取值区间,将取值区间等间距分成第一数目个纵向子区间,其中,上述纵向子区间为对纵坐标进行划分得到的子区间。作为示例,作为示例,若信噪比统计直方图中记录有4个坐标数据,分别为(0.2,10)、(0.3,15)、(0.4,15)、(0.5,18)。则取值区间可以为[10,18]。此时,若第一数目为2,则将上述取值区间等间距分成第一数目个纵向子区间后,可以得到二个纵向子区间,分别为[10,14]和[14,18]。
然后,对于第一设定数目个纵向子区间中的纵向子区间,确定信噪比统计直方图中纵坐标值落入该纵向子区间的样本音频信号的总条数,将所确定的总条数存入总条数集合。作为示例,若信噪比统计直方图中记录有4个坐标数据,分别为(0.2,10)、(0.3,15)、(0.4,15)、(0.5,18)。有二个纵向子区间,分别为[10,14]和[14,18]。此时,对于纵向子区间[10,14],纵坐标值落入该纵向子区间的坐标数据为(0.2,10)。可以得到落入该纵向子区间的样本音频信号的总条数为10条。而对于纵向子区间[14,18],纵坐标值落入该纵向子区间的坐标数据为(0.3,15)、(0.4,15)、(0.5,18)。可以得到落入该纵向子区间的样本音频信号的总条数为15+15+18条。这样,可以得到总条数集合为{10,48}。
之后,从总条数集合中从大到小筛选出第二数目个总条数,以及得到对应的第二数目个纵向子区间。这里,由于一个纵向子区间具有一个总条数,故,执行主体可以在筛选得到总条数时,得到总条数对应的纵向子区间。
最后,对于第二数目个纵向子区间中的纵向子区间,将纵坐标取值落入该纵向子区间的至少一个坐标数据的横坐标取值所构成的区间范围,确定为对应于该纵向子区间的信噪比区间,存入信噪比区间组。其中,对于第二数目个纵向子区间中的任一纵向子区间,若该纵向子区间为[14,18],纵坐标取值落入该纵向子区间的坐标数据分别为(0.3,15)、(0.4,15)和(0.5,18)。则,此时所构成的区间范围为[0.3,0.5]。
在本实施例的一些可选的实现方式中,上述语音识别模型组中的语音识别模型可以是上述执行主体或者其他用于训练语音识别模型的执行主体通过执行如下步骤得到:
第一步,获取该语音识别模型对应的训练样本集合。其中,训练样本包括样本音频信号和样本识别结果,样本音频信号的信噪比属于训练样本集合对应的信噪比区间。在本实施例中,语音识别模型组中的每个语音识别模型对应一个训练样本集合。另外,语音识别模型组中的每个语音识别模型关联有一个信噪比区间。以及语音识别模型的训练样本集合中的每个样本音频信号的信噪比属于该语音识别模型所关联的信噪比区间。
第二步,利用机器学习方法,将训练样本集合中的训练样本中的样本音频信号作为输入,将所输入的训练样本中的样本识别结果作为期望输出,训练得到该语音识别模型。这里,执行主体训练的可以是初始化深度学习模型,初始化深度学习模型可以是未经训练的深度学习模型或未训练完成的深度学习模型,初始化的深度学习模型的各层可以设置有初始参数,参数在深度学习模型的训练过程中可以被不断地调整。初始化深度学习模型可以是各种类型的未经训练或未训练完成的人工神经网络或者对多种未经训练或未训练完成的人工神经网络进行组合所得到的模型,例如,初始化深度学习模型可以是未经训练的卷积神经网络,也可以是未经训练的循环神经网络,还可以是对未经训练的卷积神经网络、未经训练的循环神经网络和未经训练的全连接层进行组合所得到的模型。这样,执行主体可以将样本音频信号从深度学习模型的输入侧输入,依次经过深度学习模型中的各层的参数的处理,并从深度学习模型的输出侧输出,输出侧输出的信息即为样本识别结果。
继续参见图3,图3是根据本实施例的用于识别语音的方法的应用场景的一个示意图。其中,终端设备可以为车载终端。在图3的应用场景300中,车中用户301发出语音信号“请帮我打开音乐”。首先,车载终端302获取到包括语音信号“请帮我打开音乐”的音频信号。然后,确定音频信号的信噪比。最后,根据所确定的信噪比,从预先训练的语音识别模型组(高噪语音识别模型,低噪语音识别模型)中选择高噪语音识别模型对音频信号进行语音识别。
本申请的上述实施例提供的用于识别语音的方法,可以首先获取音频信号。然后,确定音频信号的信噪比。最后,根据所确定的信噪比,从预先训练的语音识别模型组中选择语音识别模型对音频信号进行语音识别。本申请实施例提供的方法,采用所获取到的音频信号的信噪比来选择适合当前场景的语音识别模型,有助于提高语音识别产品对不同车载场景下的语音进行识别的鲁棒性。
进一步参考图4,其示出了用于识别语音的方法的又一个实施例的流程400。该用于识别语音的方法的流程400,包括以下步骤:
步骤401,获取音频信号。
步骤402,确定音频信号的信噪比。
步骤403,根据所确定的信噪比,从预先训练的语音识别模型组中选择语音识别模型对音频信号进行语音识别。
在本实施例中,步骤401-403的具体操作与图2所示的实施例中步骤201-203的操作基本相同,在此不再赘述。
步骤404,获取新音频信号。
在本实施例中,执行主体获取新音频信号的方式与步骤201中的获取音频信号的方式基本相同,这里不做赘述。
步骤405,响应于确定所选择的语音识别模型的使用时长小于预先设定的使用时长阈值,采用所选择的语音识别模型对新音频信号进行语音识别。
在本实施例中,在完成一次语音识别模型的选择之后,执行主体可以进行计时。若所选择的语音识别模型的使用时长小于预先设定的使用时长阈值,则继续使用所选择的语音识别模型,对后续获取到的新音频信号进行语音识别。若所选择的语音识别模型的使用时长大于预先设定的使用时长阈值,则执行步骤402-403重新选择适合当前场景的语音识别模型。其中,上述预先设定的使用时长阈值可以是技术人员预先设定的数据值。
在本实施例中,每间隔一段时间(即,使用时长阈值所指示的时间长度)选择一次语音识别模型,有助于提高语音识别产品对语音识别的数据处理效率。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于识别语音的方法的流程400体现了在所选择的语音识别模型的使用时长小于预先设定的使用时长阈值时,继续使用所选择的语音识别模型,对后续获取到的新音频信号进行语音识别的步骤。由此,本实施例描述的方案可以有助于提高语音识别产品对不同应用场景下的语音进行识别的鲁棒性,同时可以提高语音识别产品对语音识别的数据处理效率。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于识别语音的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种服务器中。
如图5所示,本实施例的用于识别语音的装置500包括:信息获取单元501,被配置成获取音频信号。信息确定单元502,被配置成确定音频信号的信噪比。模型选择单元503,被配置成根据所确定的信噪比,从预先训练的语音识别模型组中选择语音识别模型对音频信号进行语音识别。
在本实施例的一些可选的实现方式中,信息确定单元,被进一步配置成:确定音频信号的静音段和噪声段。根据静音段的能量和噪声段的能量,得到音频信号的信噪比。
在本实施例的一些可选的实现方式中,模型选择单元,被进一步配置成:首先,从信噪比区间组中选择与信噪比相匹配的信噪比区间。然后,选择对应于所选择的信噪比区间的语音识别模型对音频信号进行语音识别。
在本实施例的一些可选的实现方式中,信噪比区间组通过如下步骤确定:首先,获取样本音频信号集合。然后,对于样本音频信号集合中的样本音频信号,确定该样本音频信号的静音段和噪声段。根据所确定的静音段的能量和所确定的噪声段的能量,得到该音频信号的信噪比,存入信噪比集合。之后,根据信噪比集合中的信噪比,生成信噪比统计直方图。其中,信噪比统计直方图用于指示信噪比取值的分布特征。最后,根据信噪比统计直方图,确定信噪比区间组。
在本实施例的一些可选的实现方式中,语音识别模型组中的语音识别模型通过以下步骤得到:首先,获取该语音识别模型对应的训练样本集合。其中,训练样本包括样本音频信号和样本识别结果,样本音频信号的信噪比属于训练样本集合对应的信噪比区间。然后,利用机器学习方法,将训练样本集合中的训练样本中的样本音频信号作为输入,将所输入的训练样本中的样本识别结果作为期望输出,训练得到该语音识别模型。
本申请的上述实施例提供的装置,信息获取单元501获取音频信号。然后,信息确定单元502确定音频信号的信噪比。最后,模型选择单元503根据所确定的信噪比,从预先训练的语音识别模型组中选择语音识别模型对音频信号进行语音识别。本实施例的装置,采用所获取到的音频信号的信噪比来选择适合当前场景的语音识别模型,有助于提高语音识别产品对不同应用场景下的语音进行识别的鲁棒性。
下面参考图6,其示出了适于用来实现本申请实施例的服务器的计算机系统600的结构示意图。图6示出的服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括信息获取单元、信息确定单元和模型选择单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,信息获取单元还可以被描述为“获取音频信号的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取音频信号;确定音频信号的信噪比;根据所确定的信噪比,从预先训练的语音识别模型组中选择语音识别模型对音频信号进行语音识别。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (12)

1.一种用于识别语音的方法,包括:
获取音频信号;
确定所述音频信号的信噪比;
根据所确定的信噪比,从预先训练的语音识别模型组中选择语音识别模型对所述音频信号进行语音识别;
获取新音频信号;
响应于确定所选择的语音识别模型的使用时长小于预先设定的使用时长阈值,采用所选择的语音识别模型对所述新音频信号进行语音识别;
若所选择的语音识别模型的使用时长大于预先设定的使用时长阈值,重新选择适合当前场景的语音识别模型对所述新音频信号进行语音识别。
2.根据权利要求1所述的方法,其中,所述确定所述音频信号的信噪比,包括:
确定所述音频信号的静音段和噪声段;
根据所述静音段的能量和所述噪声段的能量,得到所述音频信号的信噪比。
3.根据权利要求1所述的方法,其中,所述根据所确定的信噪比,从预先训练的语音识别模型组中选择语音识别模型对所述音频信号进行语音识别,包括:
从信噪比区间组中选择与所述信噪比相匹配的信噪比区间;
选择对应于所选择的信噪比区间的语音识别模型对所述音频信号进行语音识别。
4.根据权利要求3所述的方法,其中,所述信噪比区间组通过如下步骤确定:
获取样本音频信号集合;
对于所述样本音频信号集合中的样本音频信号,确定该样本音频信号的静音段和噪声段;根据所确定的静音段的能量和所确定的噪声段的能量,得到该音频信号的信噪比,存入信噪比集合;
根据所述信噪比集合中的信噪比,生成信噪比统计直方图,其中,所述信噪比统计直方图用于指示信噪比取值的分布特征;
根据所述信噪比统计直方图,确定所述信噪比区间组。
5.根据权利要求1-4之一所述的方法,其中,所述语音识别模型组中的语音识别模型通过以下步骤得到:
获取该语音识别模型对应的训练样本集合,其中,训练样本包括样本音频信号和样本识别结果,所述样本音频信号的信噪比属于所述训练样本集合对应的信噪比区间;
利用机器学习方法,将所述训练样本集合中的训练样本中的样本音频信号作为输入,将所输入的训练样本中的样本识别结果作为期望输出,训练得到该语音识别模型。
6.一种用于识别语音的装置,包括:
第一信息获取单元,被配置成获取音频信号;
信息确定单元,被配置成确定所述音频信号的信噪比;
第一模型选择单元,被配置成根据所确定的信噪比,从预先训练的语音识别模型组中选择语音识别模型对所述音频信号进行语音识别;
第二信息获取单元,被配置成获取新音频信号;
第二模型选择单元,被配置成响应于确定所选择的语音识别模型的使用时长小于预先设定的使用时长阈值,采用所选择的语音识别模型对所述新音频信号进行语音识别;
第三模型选择单元,被配置成若所选择的语音识别模型的使用时长大于预先设定的使用时长阈值,重新选择适合当前场景的语音识别模型对所述新音频信号进行语音识别。
7.根据权利要求6所述的装置,其中,所述信息确定单元,被进一步配置成:
确定所述音频信号的静音段和噪声段;
根据所述静音段的能量和所述噪声段的能量,得到所述音频信号的信噪比。
8.根据权利要求6所述的装置,其中,所述模型选择单元,被进一步配置成:
从信噪比区间组中选择与所述信噪比相匹配的信噪比区间;
选择对应于所选择的信噪比区间的语音识别模型对所述音频信号进行语音识别。
9.根据权利要求8所述的装置,其中,所述信噪比区间组通过如下步骤确定:
获取样本音频信号集合;
对于所述样本音频信号集合中的样本音频信号,确定该样本音频信号的静音段和噪声段;根据所确定的静音段的能量和所确定的噪声段的能量,得到该音频信号的信噪比,存入信噪比集合;
根据所述信噪比集合中的信噪比,生成信噪比统计直方图,其中,所述信噪比统计直方图用于指示信噪比取值的分布特征;
根据所述信噪比统计直方图,确定所述信噪比区间组。
10.根据权利要求6-9之一所述的装置,其中,所述语音识别模型组中的语音识别模型通过以下步骤得到:
获取该语音识别模型对应的训练样本集合,其中,训练样本包括样本音频信号和样本识别结果,所述样本音频信号的信噪比属于所述训练样本集合对应的信噪比区间;
利用机器学习方法,将所述训练样本集合中的训练样本中的样本音频信号作为输入,将所输入的训练样本中的样本识别结果作为期望输出,训练得到该语音识别模型。
11.一种服务器,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
12.一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-5中任一所述的方法。
CN201811549488.8A 2018-12-18 2018-12-18 用于识别语音的方法和装置 Active CN111415653B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201811549488.8A CN111415653B (zh) 2018-12-18 2018-12-18 用于识别语音的方法和装置
US16/568,146 US11282514B2 (en) 2018-12-18 2019-09-11 Method and apparatus for recognizing voice

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811549488.8A CN111415653B (zh) 2018-12-18 2018-12-18 用于识别语音的方法和装置

Publications (2)

Publication Number Publication Date
CN111415653A CN111415653A (zh) 2020-07-14
CN111415653B true CN111415653B (zh) 2023-08-01

Family

ID=71071202

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811549488.8A Active CN111415653B (zh) 2018-12-18 2018-12-18 用于识别语音的方法和装置

Country Status (2)

Country Link
US (1) US11282514B2 (zh)
CN (1) CN111415653B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190107622A (ko) * 2019-09-02 2019-09-20 엘지전자 주식회사 이동형 에이젼트를 이용한 실시간 음성 인식 모델 업데이트 방법 및 장치
CN110956969B (zh) * 2019-11-28 2022-06-10 北京达佳互联信息技术有限公司 直播音频处理方法、装置、电子设备和存储介质
CN113257283B (zh) * 2021-03-29 2023-09-26 北京字节跳动网络技术有限公司 音频信号的处理方法、装置、电子设备和存储介质
CN113555028A (zh) * 2021-07-19 2021-10-26 首约科技(北京)有限公司 一种用于车联网语音降噪的处理方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101923854A (zh) * 2010-08-31 2010-12-22 中国科学院计算技术研究所 一种交互式语音识别系统和方法
CN103295575A (zh) * 2012-02-27 2013-09-11 北京三星通信技术研究有限公司 一种语音识别方法和客户端
JP2015135494A (ja) * 2014-01-17 2015-07-27 株式会社Nttドコモ 音声認識方法及び装置
US9697828B1 (en) * 2014-06-20 2017-07-04 Amazon Technologies, Inc. Keyword detection modeling using contextual and environmental information
CN106971741A (zh) * 2016-01-14 2017-07-21 芋头科技(杭州)有限公司 实时将语音进行分离的语音降噪的方法及系统
CN107545889A (zh) * 2016-06-23 2018-01-05 华为终端(东莞)有限公司 适用于模式识别的模型的优化方法、装置及终端设备
CN108039168A (zh) * 2017-12-12 2018-05-15 科大讯飞股份有限公司 声学模型优化方法及装置
CN108831439A (zh) * 2018-06-27 2018-11-16 广州视源电子科技股份有限公司 语音识别方法、装置、设备和系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7895039B2 (en) * 2005-02-04 2011-02-22 Vocollect, Inc. Methods and systems for optimizing model adaptation for a speech recognition system
US8234111B2 (en) * 2010-06-14 2012-07-31 Google Inc. Speech and noise models for speech recognition
US20140278415A1 (en) * 2013-03-12 2014-09-18 Motorola Mobility Llc Voice Recognition Configuration Selector and Method of Operation Therefor
CN103632666B (zh) * 2013-11-14 2016-09-28 华为技术有限公司 语音识别方法、语音识别设备和电子设备
CN104485103B (zh) * 2014-11-21 2017-09-01 东南大学 一种基于矢量泰勒级数的多环境模型孤立词识别方法
CN104795064B (zh) * 2015-03-30 2018-04-13 福州大学 低信噪比声场景下声音事件的识别方法
WO2018106737A1 (en) * 2016-12-05 2018-06-14 Resonance Medical, Inc. Optimization tool for auditory devices
US10461712B1 (en) * 2017-09-25 2019-10-29 Amazon Technologies, Inc. Automatic volume leveling

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101923854A (zh) * 2010-08-31 2010-12-22 中国科学院计算技术研究所 一种交互式语音识别系统和方法
CN103295575A (zh) * 2012-02-27 2013-09-11 北京三星通信技术研究有限公司 一种语音识别方法和客户端
JP2015135494A (ja) * 2014-01-17 2015-07-27 株式会社Nttドコモ 音声認識方法及び装置
US9697828B1 (en) * 2014-06-20 2017-07-04 Amazon Technologies, Inc. Keyword detection modeling using contextual and environmental information
CN106971741A (zh) * 2016-01-14 2017-07-21 芋头科技(杭州)有限公司 实时将语音进行分离的语音降噪的方法及系统
CN107545889A (zh) * 2016-06-23 2018-01-05 华为终端(东莞)有限公司 适用于模式识别的模型的优化方法、装置及终端设备
CN108039168A (zh) * 2017-12-12 2018-05-15 科大讯飞股份有限公司 声学模型优化方法及装置
CN108831439A (zh) * 2018-06-27 2018-11-16 广州视源电子科技股份有限公司 语音识别方法、装置、设备和系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Thresholding based on sequential Monte-Carlo for DCT speech enhancement;M. Meddah;《2017 First International Conference on Embedded & Distributed Systems (EDiS)》;全文 *
基于深度神经网络的语音识别模型研究;张仕良;《中国优秀硕士学位论文全文数据库》;全文 *

Also Published As

Publication number Publication date
CN111415653A (zh) 2020-07-14
US20200193979A1 (en) 2020-06-18
US11282514B2 (en) 2022-03-22

Similar Documents

Publication Publication Date Title
CN111415653B (zh) 用于识别语音的方法和装置
CN107623614B (zh) 用于推送信息的方法和装置
CN108899044B (zh) 语音信号处理方法及装置
US10332507B2 (en) Method and device for waking up via speech based on artificial intelligence
JP6101196B2 (ja) 音声識別方法および装置
JP6099556B2 (ja) 音声識別方法および装置
US11189262B2 (en) Method and apparatus for generating model
CN108665895B (zh) 用于处理信息的方法、装置和系统
CN109545193B (zh) 用于生成模型的方法和装置
CN111161752A (zh) 回声消除方法和装置
CN108039181B (zh) 一种声音信号的情感信息分析方法和装置
CN112309414B (zh) 基于音频编解码的主动降噪方法、耳机及电子设备
CN110688518A (zh) 节奏点的确定方法、装置、设备及存储介质
CN107680584B (zh) 用于切分音频的方法和装置
CN108877779B (zh) 用于检测语音尾点的方法和装置
CN111722696B (zh) 用于低功耗设备的语音数据处理方法和装置
CN111341333B (zh) 噪声检测方法、噪声检测装置、介质及电子设备
CN112992190B (zh) 音频信号的处理方法、装置、电子设备和存储介质
CN113257283A (zh) 音频信号的处理方法、装置、电子设备和存储介质
CN108962226B (zh) 用于检测语音的端点的方法和装置
CN116913258B (zh) 语音信号识别方法、装置、电子设备和计算机可读介质
CN115223584B (zh) 音频数据处理方法、装置、设备及存储介质
CN114743571A (zh) 一种音频处理方法、装置、存储介质及电子设备
CN115083440A (zh) 音频信号降噪方法、电子设备和存储介质
CN109634554B (zh) 用于输出信息的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant