CN114512136B - 模型训练、音频处理方法、装置、设备、存储介质及程序 - Google Patents
模型训练、音频处理方法、装置、设备、存储介质及程序 Download PDFInfo
- Publication number
- CN114512136B CN114512136B CN202210269922.7A CN202210269922A CN114512136B CN 114512136 B CN114512136 B CN 114512136B CN 202210269922 A CN202210269922 A CN 202210269922A CN 114512136 B CN114512136 B CN 114512136B
- Authority
- CN
- China
- Prior art keywords
- audio
- wake
- model
- echo cancellation
- echo
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 134
- 238000000034 method Methods 0.000 title claims abstract description 80
- 238000003672 processing method Methods 0.000 title claims description 14
- 238000012545 processing Methods 0.000 claims abstract description 108
- 238000013459 approach Methods 0.000 claims abstract description 13
- 238000005516 engineering process Methods 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 106
- 238000000605 extraction Methods 0.000 claims description 64
- 230000008569 process Effects 0.000 abstract description 28
- 230000003993 interaction Effects 0.000 abstract description 11
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000003058 natural language processing Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 26
- 238000004590 computer program Methods 0.000 description 14
- 230000000694 effects Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 7
- 238000002592 echocardiography Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000002618 waking effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/20—Pattern transformations or operations aimed at increasing system robustness, e.g. against channel noise or different working conditions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
- G10L17/24—Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)
Abstract
本公开提供了模型训练、音频处理方法、装置、设备、存储介质及程序,涉及人工智能领域,尤其涉及语音交互、自然语言处理、深度学习技术。具体实现方案为:获取第一训练样本,第一训练样本包括:第一纯净唤醒音频和第一回声唤醒音频;通过待训练的回声消除模型对第一回声唤醒音频进行回声消除处理,得到第一预测唤醒音频;根据第一预测唤醒音频和第一纯净唤醒音频,对回声消除模型的模型参数进行更新,更新的目标为:唤醒识别模型对第一预测唤醒音频的唤醒识别结果趋近于对第一纯净唤醒音频的唤醒识别结果。通过上述训练过程,提升了回声消除模型输出的音频能够被唤醒识别模型准确识别的概率,因此,能够提高回声场景下的电子设备的唤醒成功率。
Description
技术领域
本公开涉及人工智能领域中的语音交互、自然语言处理、深度学习技术,尤其涉及一种模型训练、音频处理方法、装置、设备、存储介质及程序。
背景技术
目前,很多电子设备支持语音交互功能,例如,智能电视、智能音箱、智能车载设备等。用户在向电子设备输入语音指令之前,需要先通过指定唤醒语句来唤醒电子设备。
在一些场景中,电子设备的扬声器正在播放音频(例如播放音乐、天气信息或者新闻等)的情况下,扬声器所播放的音频由于空间反射形成回声。用户唤醒电子设备时,电子设备的麦克风采集到的音频中不可避免地存在上述回声,导致电子设备的唤醒成功率较低。
发明内容
本公开提供了一种模型训练、音频处理方法、装置、设备、存储介质及程序。
根据本公开的第一方面,提供了一种模型训练方法,包括:
获取第一训练样本,所述第一训练样本包括:第一纯净唤醒音频和第一回声唤醒音频,所述第一回声唤醒音频是通过对所述第一纯净唤醒音频添加回声得到的;
通过待训练的回声消除模型对所述第一回声唤醒音频进行回声消除处理,得到第一预测唤醒音频;
根据所述第一预测唤醒音频和所述第一纯净唤醒音频,对所述回声消除模型的模型参数进行更新,所述更新的目标为:唤醒识别模型对所述第一预测唤醒音频的唤醒识别结果趋近于对所述第一纯净唤醒音频的唤醒识别结果。
根据本公开的第二方面,提供了一种音频处理方法,包括:
获取电子设备采集到的第一音频;
通过回声消除模型对所述第一音频进行回声消除处理,得到第二音频;
通过唤醒识别模型对所述第二音频进行唤醒识别处理,以确定是否唤醒所述电子设备;
其中,所述回声消除模型是采用如第一方面所述的模型训练方法得到的。
根据本公开的第三方面,提供了一种模型训练装置,包括:
第一获取模块,用于获取第一训练样本,所述第一训练样本包括:第一纯净唤醒音频和第一回声唤醒音频,所述第一回声唤醒音频是通过对所述第一纯净唤醒音频添加回声得到的;
第一处理模块,用于通过待训练的回声消除模型对所述第一回声唤醒音频进行回声消除处理,得到第一预测唤醒音频;
第一更新模块,用于根据所述第一预测唤醒音频和所述第一纯净唤醒音频,对所述回声消除模型的模型参数进行更新,所述更新的目标为:唤醒识别模型对所述第一预测唤醒音频的唤醒识别结果趋近于对所述第一纯净唤醒音频的唤醒识别结果。
根据本公开的第四方面,提供了一种音频处理装置,包括:
获取模块,用于获取电子设备采集到的第一音频;
处理模块,用于通过回声消除模型对所述第一音频进行回声消除处理,得到第二音频;
识别模块,用于通过唤醒识别模型对所述第二音频进行唤醒识别处理,以确定是否唤醒所述电子设备;
其中,所述回声消除模型是由如第三方面所述的模型训练装置训练得到的。
根据本公开的第五方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面所述的方法,或者,执行第二方面所述的方法。
根据本公开的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据第一方面所述的方法,或者,执行根据第二方面所述的方法。
根据本公开的第七方面,提供了一种计算机程序产品,所述计算机程序产品包括:计算机程序,所述计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从所述可读存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序使得电子设备执行第一方面所述的方法,或者,执行第二方面所述的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1为本公开实施例提供的一种电子设备唤醒场景的示意图;
图2为本公开实施例提供的另一种电子设备唤醒场景的示意图;
图3为本公开实施例涉及的系统架构的示意图;
图4为本公开实施例提供的一种模型训练方法的流程示意图;
图5为本公开实施例提供的一种模型训练过程的示意图;
图6为本公开实施例提供的另一种模型训练过程的示意图;
图7为本公开实施例提供的又一种模型训练过程的示意图;
图8为本公开实施例提供的又一种模型训练过程的示意图;
图9为本公开实施例提供的一种音频处理方法的流程示意图;
图10为本公开实施例提供的一种音频处理过程的示意图;
图11为本公开实施例提供的一组回声消除效果的示意图;
图12为本公开实施例提供的一种模型训练装置的结构示意图;
图13为本公开实施例提供的一种音频处理装置的结构示意图;
图14为本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开实施例适用于用户与电子设备进行语音交互的场景。其中,电子设备可以是具有语音交互功能的任意电子设备,包括但不限于:智能电视、智能音箱、智能穿戴设备、智能车载设备、智能手机等。
用户在向电子设备输入语音指令之前,需要先通过指定唤醒语句来唤醒电子设备。为了便于理解,结合图1对电子设备的唤醒过程进行举例说明。
图1为本公开实施例提供的一种电子设备唤醒场景的示意图。如图1所示,以电子设备为智能音箱为例进行举例说明。假设该电子设备对应的指定唤醒语句为“小D小D”。用户可以通过向电子设备输入唤醒语句“小D小D”来唤醒电子设备。参见图1,电子设备的麦克风采集到用户输入的音频后,将采集到的音频输入唤醒识别模型。唤醒识别模型用于对采集到的音频进行识别处理,以确定用户输入的音频是否为指定唤醒语句“小D小D”。若是,则唤醒电子设备。若不是,则不唤醒电子设备。
其中,唤醒电子设备是指控制电子设备进入激活态,在激活态下,电子设备可以接收并执行用户输入的语音指令。应理解,在唤醒电子设备之后,用户可以向电子设备输入语音指令,比如,“播放音乐”、“播放新闻”“查询天气”等。由此可见,唤醒电子设备是用户与电子设备进行语音交互的第一步,只有准确的唤醒电子设备之后,用户才可以与电子设备进行后续的语音交互过程。
在一些场景中,电子设备的扬声器正在播放音频(例如播放音乐、天气信息或者新闻等)的情况下,扬声器所播放的音频由于空间反射形成回声。用户唤醒电子设备时,电子设备的麦克风采集到的音频中不可避免地存在上述回声,导致电子设备的唤醒成功率较低。
一些可能的实现方式中,针对上述场景,电子设备通过麦克风采集到音频后,可以先对音频进行回声消除处理,然后再输入至唤醒识别模型进行唤醒识别。
结合图2进行举例说明。图2为本公开实施例提供的另一种电子设备唤醒场景的示意图。如图2所示,在电子设备的扬声器播放音乐的情况下,用户唤醒电子设备。电子设备的麦克风采集到的音频中含有上述音乐的回声。该情况下,电子设备可以对采集到的音频进行声学回声消除(Acoustic Echo Canceller,AEC)处理。AEC的原理如下:根据当前正在播放的音乐,估计出该音乐所形成的回声。当电子设备采集到音频后,从采集到的音频中减去上述估计得到的回声,从而在一定程度上达到回声消除的目的。然后,再将经过AEC处理后的音频输入至唤醒识别模型进行唤醒识别处理,得到唤醒识别结果。
然而,上述AEC技术对回声消除的效果不佳,仅能在一定程度上达到回声消除的目的,因此,即使经过AEC回声消除之后,电子设备的唤醒成功率依然较低。
本公开提供一种模型训练、音频处理方法、装置、设备、存储介质及程序,应用于人工智能领域中的语音交互、自然语言处理、深度学习技术等,以在回声场景下提高电子设备的唤醒成功率。
为了便于理解本公开提供的技术方案,下面结合图3对本公开实施例涉及的系统架构进行说明。
图3为本公开实施例涉及的系统架构的示意图。如图3所示,该系统架构中包括训练设备和执行设备。其中,执行设备可以为具有语音交互功能的电子设备,训练设备可以为服务器。本公开实施例涉及模型训练阶段和模型使用阶段,下面针对两个阶段分别进行说明。
在模型训练阶段,训练设备可以利用样本数据库中的多组训练样本,对待训练的回声消除模型进行训练,得到训练后的回声消除模型。其中,每组训练样本包括:纯净唤醒音频和回声唤醒音频。纯净唤醒音频是指不含回声的唤醒音频。回声唤醒音频是通过对纯净唤醒音频添加回声得到的,也就是说,回声唤醒音频中包含纯净唤醒音频和回声。
其中,在利用训练样本对回声消除模型进行训练时,可以通过待训练的回声消除模型对回声唤醒音频进行回声消除处理,得到预测唤醒音频。根据预测唤醒音频和纯净唤醒音频,对回声消除模型的模型参数进行训练,训练的目标为:唤醒识别模型对预测唤醒音频的唤醒识别结果趋近于对纯净唤醒音频的唤醒识别结果。经过多次迭代训练,得到训练后的回声消除模型。训练后的回声消除模型具有消除音频中的回声的功能,可用于对电子设备采集到的音频进行回声消除。训练后的回声消除模型可以部署到执行设备中。
在模型使用阶段,执行设备在采集到音频后,通过回声消除模型对采集到的音频进行处理,得到消除回声后的音频,再通过唤醒识别模型对上述消除回声后的音频进行处理,得到唤醒识别结果。
在本公开技术方案中,由于回声消除模型的训练过程是以“唤醒识别模型对预测唤醒音频的唤醒识别结果趋近于对纯净唤醒音频的唤醒识别结果”为训练目标,提升了回声消除模型输出的音频能够被唤醒识别模型准确识别的概率,因此,能够提高回声场景下的电子设备的唤醒成功率。
下面结合具体的实施例对本公开技术方案进行详细说明。下面几个实施例可以相互结合。对于相同或者相似的概念或过程,可能在某些实施例中不再赘述。
图4为本公开实施例提供的一种模型训练方法的流程示意图。本实施例的方法可以由训练设备执行。如图4所示,本实施例的方法包括:
S401:获取第一训练样本,所述第一训练样本包括:第一纯净唤醒音频和第一回声唤醒音频,所述第一回声唤醒音频是通过对所述第一纯净唤醒音频添加回声得到的。
其中,第一纯净唤醒音频中不含有回声。例如,可以采用如下方式得到第一纯净唤醒音频:在电子设备没有播放任何音频的情况下,用户向电子设备输入指定唤醒语句,电子设备通过麦克风采集用户输入的音频,并将该音频作为第一纯净唤醒音频。
第一回声唤醒音频中含有回声。可以通过在第一纯净唤醒音频中添加回声得到第一回声唤醒音频。例如,可以预先获取音乐、新闻、天气播报等音频,根据声学反射模型,模拟出电子设备播放这些音频时所产生的回声。将模拟出的回声添加至第一纯净唤醒音频中得到第一回声唤醒音频。
S402:通过待训练的回声消除模型对所述第一回声唤醒音频进行回声消除处理,得到第一预测唤醒音频。
其中,回声消除模型为机器学习模型。本公开对于回声消除模型的结构不做限定。示例性的,回声消除模型可以为卷积神经网络、循环神经网络等网络模型。
示例性的,可以将第一回声唤醒音频输入至回声消除模型,回声消除模型对第一回声唤醒音频进行回声消除处理,得到第一预测唤醒音频。第一预测唤醒音频是回声消除模型从第一回声唤醒音频中消除回声后得到的音频。
S403:根据所述第一预测唤醒音频和所述第一纯净唤醒音频,对所述回声消除模型的模型参数进行更新,所述更新的目标为:唤醒识别模型对所述第一预测唤醒音频的唤醒识别结果趋近于对所述第一纯净唤醒音频的唤醒识别结果。
本公开实施例采用有监督训练的方式,对回声消除模型进行训练。
相关技术中,在对机器学习模型进行有监督训练时,通常采用如下方式:训练样本中包括输入数据和标签数据。通过待训练的机器学习模型对输入数据进行处理,得到输出数据。以最小化输出数据与标签数据之间的差异为训练目标,或者说,以输出数据趋近于标签数据为训练目标,对机器学习模型进行训练。
本公开实施例中,第一训练样本中的第一回声唤醒音频作为“输入数据”,第一纯净唤醒音频作为“标签数据”,第一预测唤醒音频作为“输出数据”。与上述有监督训练方式不同,本公开实施例中不是以“第一预测唤醒音频趋近于第一纯净唤醒音频”为训练目标,而是以“唤醒识别模型对第一预测唤醒音频的唤醒识别结果趋近于对第一纯净唤醒音频的唤醒识别结果”为训练目标。
其中,以“唤醒识别模型对第一预测唤醒音频的唤醒识别结果趋近于对第一纯净唤醒音频的唤醒识别结果”为训练目标,可以理解为:回声消除模型尽可能的保证在其输出的音频能够被唤醒识别模型准确识别的前提下,进行回声消除。唤醒识别模型对“回声消除模型输出的音频”的识别性能与对“不含回声的音频”的识别性能接近。也就是说,回声消除模型输出的音频是能够被唤醒识别模型准确识别的,不会影响唤醒识别模型的识别性能。
应理解,上述是以一个训练样本的训练过程为例进行说明的。在实际的模型训练过程中,需要利用多个训练样本对回声消除模型进行多次迭代训练。也就是说,上述的S401至S403需要循环执行多次。
示例性的,在根据所述第一预测唤醒音频和所述第一纯净唤醒音频,对所述回声消除模型的模型参数进行更新之后,判断更新后的回声消除模型是否收敛;若是,则将更新后的回声消除模型作为训练完成的回声消除模型;若否,则重复对所述回声消除模型进行训练,直至更新后的回声消除模型收敛。
经过上述多次迭代训练之后,得到训练完成的回声消除模型。训练完成的回声消除模型可以部署到电子设备中,用于对电子设备采集到的音频进行回声消除。
本公开实施例提供的模型训练方法,包括:获取第一训练样本,所述第一训练样本包括:第一纯净唤醒音频和第一回声唤醒音频,所述第一回声唤醒音频是通过对所述第一纯净唤醒音频添加回声得到的;通过待训练的回声消除模型对所述第一回声唤醒音频进行回声消除处理,得到第一预测唤醒音频;根据所述第一预测唤醒音频和所述第一纯净唤醒音频,对所述回声消除模型的模型参数进行更新,所述更新的目标为:唤醒识别模型对所述第一预测唤醒音频的唤醒识别结果趋近于对所述第一纯净唤醒音频的唤醒识别结果。上述过程中,由于回声消除模型的训练过程是以“唤醒识别模型对第一预测唤醒音频的唤醒识别结果趋近于对第一纯净唤醒音频的唤醒识别结果”为训练目标,提升了回声消除模型输出的音频能够被唤醒识别模型准确识别的概率,因此,能够提高回声场景下的电子设备的唤醒成功率。
为使读者更深刻地理解本公开的实现原理,现结合以下图5-图8对图4所示的实施例进行进一步细化。
图5为本公开实施例提供的一种模型训练过程的示意图。如图5所示,将唤醒识别模型拼接到待训练的回声消除模型的输出端。其中,唤醒识别模型为事先已训练好的机器学习模型。例如,可以将已上线的唤醒识别模型拼接到待训练的回声消除模型的输出端。
参见图5,通过回声消除模型对第一回声唤醒音频进行处理,得到第一预测唤醒音频。第一预测唤醒音频输入至唤醒识别模型。通过唤醒识别模型对第一预测唤醒音频进行处理,得到第一唤醒识别结果。并且,将第一纯净唤醒音频输入至唤醒识别模型。通过唤醒识别模型对第一纯净唤醒音频进行处理,得到第二唤醒识别结果。
进一步的,根据第一唤醒识别结果和第二唤醒识别结果,确定第一损失函数,并根据第一损失函数,对回声消除模型的模型参数进行更新。不断重复上述过程,直至回声消除模型达到收敛条件。
需要说明的是,第一损失函数用于指示第一唤醒识别结果与第二唤醒识别结果之间的差异。本实施例对于第一损失函数的具体形式不做限定。示例性的,可以采用如下损失函数中的任意一种:均方误差(mean-square error,MSE)损失函数、交叉熵损失函数、KL散度(Kullback–Leibler Divergence,KLD)损失函数等。
需要说明的是,图5所示示例中,第一预测唤醒音频所输入至的唤醒识别模型、与第一纯净唤醒音频所输入至的唤醒识别模型为同一模型。或者,二者为同一模型的不同拷贝。
本实施例中,通过将将唤醒识别模型拼接在回声消除模型的输出端,唤醒识别模型可以对回声消除模型输出的第一预测唤醒模型进行处理,得到第一唤醒识别结果,并对第一纯净唤醒音频进行处理,得到第二唤醒识别结果,进而,根据第一唤醒识别结果和第二唤醒识别结果确定第一损失函数,并根据第一损失函数对回声消除模型的模型参数进行更新。这样,实现以“唤醒识别模型对第一预测唤醒音频的唤醒识别结果趋近于对第一纯净唤醒音频的唤醒识别结果”为训练目标,对回声消除模型进行训练,提高了回声消除模型输出的音频能够被唤醒识别模型准确识别的概率,从而提高电子设备的唤醒成功率。
图6为本公开实施例提供的另一种模型训练过程的示意图。在图5所示基础上,如图6所示,唤醒识别模型中可以包括特征提取网络和识别网络。特征提取网络用于对输入至唤醒识别模型的音频进行特征提取处理,得到音频特征,并将音频特征输出至识别网络。识别网络用于对音频特征进行唤醒识别处理,得到唤醒识别结果。
参见图6,通过回声消除模型对第一回声唤醒音频进行处理,得到第一预测唤醒音频。第一预测唤醒音频输入至唤醒识别模型。通过唤醒识别模型中的特征提取网络对第一预测唤醒音频进行特征提取处理,得到第一音频特征,并通过唤醒识别模型中的识别网络对第一音频特征进行唤醒识别处理,得到第一唤醒识别结果。
并且,将第一纯净唤醒音频输入至唤醒识别模型。通过唤醒识别模型中的特征提取网络对第一纯净唤醒音频进行特征提取处理,得到第二音频特征,并通过唤醒识别模型中的识别网络对第二音频特征进行唤醒识别处理,得到第二唤醒识别结果。
进一步的,可以根据第一音频特征、第二音频特征、第一唤醒识别结果和第二唤醒识别结果,确定第一损失函数。进而根据第一损失函数,对回声消除模型的模型参数进行更新。
可选的,在确定第一损失函数时,可以采用如下方式:参见图6,根据第一音频特征和第二音频特征,确定特征损失函数,特征损失函数用于指示第一音频特征与第二音频特征之间的差异。根据第一唤醒识别结果和第二唤醒识别结果,确定识别结果损失函数,识别结果损失函数用于指示第一唤醒识别结果与第二唤醒识别结果之间的差异。
进一步的,根据特征损失函数和识别结果损失函数,确定第一损失函数。例如,可以将特征损失函数与识别结果损失函数之和,确定为第一损失函数。或者,可以将特征损失函数与识别结果损失函数之间的加权和,确定为第一损失函数。
本实施例中,在确定第一损失函数时,不仅考虑第一唤醒识别结果和第二唤醒识别结果之间的差异,还考虑第一音频特征和第二音频特征之间的差异,提高了第一损失函数的准确性。进而,使得回声消除模型在进行回声消除时,不会破坏唤醒识别模型所需的特征,提高回声消除模型输出的音频能够被唤醒识别模型准确识别的概率。
图7为本公开实施例提供的又一种模型训练过程的示意图。在图6所示基础上,如图7所示,唤醒识别模型中的特征提取网络包括:N个特征提取单元,所述N为大于1的整数。本实施例对于N个特征提取单元之间的连接关系不做限定。示例性的,以N=3为例,特征提取单元1可以为卷积单元,包括一个或者多个卷积层;特征提取单元2可以为门控循环单元(Gated Recurrent Unit);特征提取单元3可以为全连接单元,包括一个或者多个全连接层。
在特征提取网络对第一预测唤醒音频进行特征提取时,音频特征经过每个特征提取单元的处理之后,分别输出对应的第一中间音频特征。例如,特征提取单元1输出第一中间音频特征1,特征提取单元2输出第一中间音频特征2,……,特征提取单元N输出第一中间音频特征N。也就是说,第一音频特征包括:各特征提取单元输出的第一中间音频特征。
类似的,在特征提取网络对第一纯净唤醒音频进行特征提取时,音频特征经过每个特征提取单元的处理之后,分别输出对应的第二中间音频特征。例如,特征提取单元1输出第二中间音频特征1,特征提取单元2输出第二中间音频特征2,……,特征提取单元N输出第二中间音频特征N。也就是说,第二音频特征包括:各特征提取单元输出的第二中间音频特征。
进一步,可以采用如下方式根据第一音频特征和第二音频特征,确定特征损失函数:根据同一特征提取单元输出的第一中间音频特征和第二中间音频特征,确定该特征提取单元对应的中间特征损失函数;进而根据N个特征提取单元各自对应的中间特征损失函数,确定特征损失函数。
继续参见图7,可以根据特征提取单元1输出的第一中间音频特征1和第二中间音频特征1,确定特征提取单元1对应的中间特征损失函数1;根据特征提取单元2输出的第一中间音频特征2和第二中间音频特征2,确定特征提取单元2对应的中间特征损失函数2;……;根据特征提取单元N输出的第一中间音频特征N和第二中间音频特征N,确定特征提取单元N对应的中间特征损失函数N。进而,可以根据中间特征损失函数1、中间特征损失函数2、……、中间特征损失函数N,确定特征损失函数。例如,可以将中间特征损失函数1、中间特征损失函数2、……、中间特征损失函数N之和,确定为特征损失函数。
应理解,图7所示示例中,识别结果损失函数的计算方式与图6类似,此处不做赘述。进一步的,根据上述计算得到的特征损失函数、以及识别结果损失函数,确定第一损失函数。并根据第一损失函数对回声消除模型的模型参数进行更新。
本实施例中,在确定特征损失函数时,针对特征提取网络中的每个特征提取单元,分别计算中间特征损失函数,再根据各特征提取单元各自对应的中间特征损失函数确定特征损失函数,提高了特征损失函数的准确性,使得回声消除模型在进行回声消除时,不会破坏唤醒识别模型中每个特征提取单元所需的特征,提高了回声消除模型输出的音频能够被唤醒识别模型准确识别的概率。
上述图4至图7所示实施例中,在对回声消除模型进行训练时,通过利用唤醒识别模型对第一纯净唤醒音频、以及第一预测唤醒音频的唤醒识别情况,来指导回声消除模型的训练过程,相当于将唤醒识别模型的知识迁移/蒸馏至回声消除模型,从而使得训练后的回声消除模型与唤醒识别模型匹配,即,提高了回声消除模型输出的音频能够被唤醒识别模型准确识别的概率,进而提高电子设备的唤醒成功率。
在上述实施例的基础上,为了提高回声消除模型的训练效果和训练效率,可以采用两阶段训练的方式。下面结合图8进行说明。
图8为本公开实施例提供的又一种模型训练过程的示意图。如图8所示,在第一阶段,对预设基础模型进行初步训练,得到经过初步训练的回声消除模型。在第二阶段,采用上述实施例的方式,利用唤醒识别模型对上述经过初步训练的回声消除模型进行再次训练,得到训练后的回声消除模型。
参见图8,在第一阶段训练中,获取第二训练样本,所述第二训练样本包括:第二纯净唤醒音频和第二回声唤醒音频,所述第二回声唤醒音频是通过对所述第二纯净唤醒音频添加回声得到的。
其中,第二纯净唤醒音频中不含有回声。例如,可以采用如下方式得到第二纯净唤醒音频:在电子设备没有播放任何音频的情况下,用户向电子设备输入指定唤醒语句,电子设备通过麦克风采集用户输入的音频,并将该音频作为第二纯净唤醒音频。
第二回声唤醒音频中含有回声。可以通过在第二纯净唤醒音频中添加回声得到第二回声唤醒音频。例如,可以预先获取音乐、新闻、天气播报等音频,根据声学反射模型,模拟出电子设备播放这些音频时所产生的回声。将模拟出的回声添加至第二纯净唤醒音频中得到第二回声唤醒音频。
继续参见图8,通过预设基础模型对所述第二回声唤醒音频进行回声消除处理,得到第二预测唤醒音频。第二预测唤醒音频是预设基础模型从第二回声唤醒音频中消除回声之后得到的音频。其中,预设基础模型可以称为初始回声唤醒模型。
进一步的,根据所述第二预测唤醒音频和所述第二纯净唤醒音频,对所述预设基础模型的模型参数进行更新,以得到经过初步训练的回声消除模型。
示例性的,继续参见图8,在第一训练阶段中,可以根据第二预测唤醒音频和第二纯净唤醒音频,确定第二损失函数。第二损失函数用于指示第二预测唤醒音频与第二纯净唤醒音频之间的差异。根据第二损失函数,对预设基础模型的模型参数进行更新。也就是说,上述更新的目标为:第二预测唤醒音频趋近于第二纯净唤醒音频,或者说,最小化所述第二预测唤醒音频与第二纯净唤醒音频之间的差异。
示例性的,上述第二损失函数可以为下述中的任意一种:标度不变信噪比(Scaleinvariant Signal-to-Noise Ratio,Si-SNR)损失函数、理想比率掩膜均方误差(IdealRatio Mask Mean Square Error,IRM_MSE)损失函数等。
在对预设基础模型的模型参数进行更新之后,判断更新后的预设基础模型是否收敛;若是,则将更新后的预设基础模型作为经过初步训练的回声消除模型;若否,则重复对所述预设基础模型进行训练,直至更新后的预设基础模型收敛。
继续参见图8,经过上述第一训练阶段之后,得到经过初步训练的回声消除模型。在第二训练阶段,将上述第一阶段训练得到的回声消除模型,作为待训练的回声消除模型,并利用唤醒识别模型对回声消除模型进行再次训练,直至得到训练完成的回声消除模型。
需要说明的是,上述第二训练阶段的具体训练方式,可以参见图4至图7所示实施例的详细描述,此处不做赘述。
另外,图8所示示例中,第二训练样本和第一训练样本可以来自于同一样本数据库。例如,先利用样本数据库中的各训练样本对预设基础模型进行第一阶段训练,得到经过初步训练的回声消除模型。然后,再利用样本数据库中的各训练样本对回声消除模型进行第二阶段训练,得到训练后的回声消除模型。
本实施例中,先对预设基础模型进行单独训练,得到经过初步训练的回声消除模型,再利用唤醒识别模型对回声消除模型进行修正训练,得到训练完成的回声消除模型。通过采用两阶段训练的方式,一方面可以降低训练难度,提高训练效率,另一方面,还可以提高模型训练效果。
上述实施例描述了回声消除模型的训练过程,下面结合一个具体的实施例描述回声消除模型的使用过程。
图9为本公开实施例提供的一种音频处理方法的流程示意图。本实施例的方法可以由电子设备(例如执行设备)执行。如图9所示,本实施例的方法包括:
S901:获取电子设备采集到的第一音频。
本实施例应用于电子设备的非激活态。在非激活态,用户可以向电子设备输入指定唤醒语句,以唤醒电子设备。电子设备可以实时采集音频,并对采集到的音频进行唤醒识别处理,以确定是否唤醒电子设备。
本实施例中,电子设备采集到的第一音频中可能含有回声。回声是指电子设备的扬声器正在播放的音频,在经过空间反射后,又被电子设备的麦克风采集到所形成的。
S902:通过回声消除模型对所述第一音频进行回声消除处理,得到第二音频。
本实施例中,回声消除模型为机器学习模型。回声消除模型是采用上述任意实施例提供的模型训练方法训练得到的。将第一音频输入至回声消除模型中,回声消除模型可以对第一音频进行回声消除处理,并输出第二音频。第二音频为不含有回声的音频,或者含有较少回声的音频。
S903:通过唤醒识别模型对所述第二音频进行唤醒识别处理,以确定是否唤醒所述电子设备。
将第二音频输入至唤醒识别模型,唤醒识别模型对第二音频进行唤醒识别处理,以确定第二音频是否为指定唤醒语句。若是,则唤醒电子设备。若否,则不唤醒电子设备。
本实施例中,由于回声消除模型的训练过程是以“唤醒识别模型对第一预测唤醒音频的唤醒识别结果趋近于对第一纯净唤醒音频的唤醒识别结果”为训练目标,提高了回声消除模型输出的第二音频能够被唤醒识别模型准确识别的概率,因此,能够提高回声场景下的电子设备的唤醒成功率。
图10为本公开实施例提供的一种音频处理过程的示意图。如图10所示,在一些可能的实现方式中,可以采用声学回声消除AEC技术对所述第一音频进行回声消除处理,得到中间音频;通过回声消除模型对所述中间音频进行回声消除处理,得到第二音频。进而,再通过唤醒识别模型对第二音频进行唤醒识别处理,得到唤醒识别结果。
本实施例中,针对第一音频,先后采用AEC技术和声学消除模型分别进行回声消除处理,得到第二音频,这样可以提高回声消除效果,进一步提高电子设备的唤醒成功率。
图11为本公开实施例提供的一组回声消除效果的示意图。如图11所示,假设在电子设备播放音乐的情况下,用户在时刻t0开始向电子设备输入唤醒语句,并在时刻t2唤醒语句输入完成。应理解,在时刻t0之前以及时刻t1之后,电子设备采集到的是环境噪声加回声;在时刻t0至时刻t1之间,采集到的是环境噪声、回声以及用户输入的唤醒语句。
继续参见图11,图像1101示例的是仅采用AEC技术对第一音频进行回声消除得到的第二音频的示意图。图像1102示例的是先采用AEC技术对第一音频进行回声消除,得到中间音频,再通过回声消除模型对中间音频进行回声消除处理,得到的第二音频的示意图。由图11可见,在利用回声消除模型进行回声消除处理之后,能够明显提升回声消除效果。从而,进一步提高电子设备的唤醒成功率。
图12为本公开实施例提供的一种模型训练装置的结构示意图。本实施例的装置可以为软件和/或硬件的形式。示例性的,模型训练装置可以为训练设备,或者为部署在训练设备中的模块、单元、芯片、芯片模组等。如图12所示,本实施例提供的模型训练装置1200,包括:第一获取模块1201、第一处理模块1202和第一更新模块1203。其中,
第一获取模块1201,用于获取第一训练样本,所述第一训练样本包括:第一纯净唤醒音频和第一回声唤醒音频,所述第一回声唤醒音频是通过对所述第一纯净唤醒音频添加回声得到的;
第一处理模块1202,用于通过待训练的回声消除模型对所述第一回声唤醒音频进行回声消除处理,得到第一预测唤醒音频;
第一更新模块1203,用于根据所述第一预测唤醒音频和所述第一纯净唤醒音频,对所述回声消除模型的模型参数进行更新,所述更新的目标为:唤醒识别模型对所述第一预测唤醒音频的唤醒识别结果趋近于对所述第一纯净唤醒音频的唤醒识别结果。
一种可能的实现方式中,所述第一更新模块1203包括:
处理单元,用于通过所述唤醒识别模型对所述第一预测唤醒音频进行处理,得到第一唤醒识别结果,以及通过所述唤醒识别模型对所述第一纯净唤醒音频进行处理,得到第二唤醒识别结果;
第一确定单元,用于根据所述第一唤醒识别结果和所述第二唤醒识别结果,确定第一损失函数;
第一更新单元,用于根据所述第一损失函数,对所述回声消除模型的模型参数进行更新。
一种可能的实现方式中,所述处理单元包括:
第一处理子单元,用于通过所述唤醒识别模型对所述第一预测唤醒音频进行特征提取处理,得到第一音频特征,并对所述第一音频特征进行唤醒识别处理,得到所述第一唤醒识别结果;
第二处理子单元,用于通过所述唤醒识别模型对所述第一纯净唤醒音频进行特征提取处理,得到第二音频特征,并对所述第二音频特征进行唤醒识别处理,得到所述第二唤醒识别结果;
所述第一确定单元具体用于:根据所述第一音频特征、所述第二音频特征、所述第一唤醒识别结果和所述第二唤醒识别结果,确定所述第一损失函数。
一种可能的实现方式中,所述第一确定单元包括:
第一确定子单元,用于根据所述第一唤醒识别结果和所述第二唤醒识别结果,确定识别结果损失函数;
第二确定子单元,用于根据所述第一音频特征和所述第二音频特征,确定特征损失函数;
第三确定子单元,用于根据所述识别结果损失函数和所述特征损失函数,确定所述第一损失函数。
一种可能的实现方式中,所述唤醒识别模型包括N个特征提取单元,所述N为大于1的整数;所述第一音频特征包括:各特征提取单元输出的第一中间音频特征;所述第二音频特征包括:各特征提取单元输出的第二中间音频特征;所述第二确定子单元具体用于:
根据同一特征提取单元输出的所述第一中间音频特征和所述第二中间音频特征,确定所述特征提取单元对应的中间特征损失函数;
根据所述N个特征提取单元对应的中间特征损失函数,确定所述特征损失函数。
一种可能的实现方式中,所述第一更新模块1203还用于:
判断更新后的回声消除模型是否收敛;
若是,则将更新后的回声消除模型作为训练完成的回声消除模型;
若否,则重复对所述回声消除模型进行训练,直至更新后的回声消除模型收敛。
一种可能的实现方式中,本实施例提供的装置还包括:
第二获取模块,用于获取第二训练样本,所述第二训练样本包括:第二纯净唤醒音频和第二回声唤醒音频,所述第二回声唤醒音频是通过对所述第二纯净唤醒音频添加回声得到的;
第二处理模块,用于通过预设基础模型对所述第二回声唤醒音频进行回声消除处理,得到第二预测唤醒音频;
第二更新模块,用于根据所述第二预测唤醒音频和所述第二纯净唤醒音频,对所述预设基础模型的模型参数进行更新,以得到所述待训练的回声消除模型。
一种可能的实现方式中,所述第二更新模块包括:
第二确定单元,用于根据所述第二预测唤醒音频和所述第二纯净唤醒音频,确定第二损失函数;
第二更新单元,用于根据所述第二损失函数,对所述预设基础模型的模型参数进行更新;
判断单元,用于判断更新后的预设基础模型是否收敛;若是,则将所述更新后的预设基础模型作为所述待训练的回声消除模型;若否,则重复对所述预设基础模型进行训练,直至更新后的预设基础模型收敛。
本实施例提供的模型训练装置,可用于执行上述任意方法实施例提供的模型训练方法,其实现原理和技术效果类似,此处不做赘述。
图13为本公开实施例提供的一种音频处理装置的结构示意图。本实施例的装置可以为软件和/或硬件的形式。示例性的,音频处理装置可以为执行设备,或者为部署在执行设备中的模块、单元、芯片、芯片模组等。如图13所示,本实施例提供的音频处理装置1300,包括:获取模块1301、处理模块1302和识别模块1303。其中,
获取模块1301,用于获取电子设备采集到的第一音频;
处理模块1302,用于通过回声消除模型对所述第一音频进行回声消除处理,得到第二音频;
识别模块1303,用于通过唤醒识别模型对所述第二音频进行唤醒识别处理,以确定是否唤醒所述电子设备;
其中,所述回声消除模型是由上述任意实施例提供的模型训练装置训练得到的。
一种可能的实现方式中,所述处理模块1302包括:
第一处理单元,用于采用声学回声消除AEC技术对所述第一音频进行回声消除处理,得到中间音频;
第二处理单元,用于通过所述回声消除模型对所述中间音频进行回声消除处理,得到所述第二音频。
本实施例提供的音频处理装置,可用于执行上述任意方法实施例提供的音频处理方法,其实现原理和技术效果类似,此处不做赘述。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
根据本公开的实施例,本公开还提供了一种计算机程序产品,计算机程序产品包括:计算机程序,计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从可读存储介质读取计算机程序,至少一个处理器执行计算机程序使得电子设备执行上述任一实施例提供的方案。
图14示出了可以用来实施本公开的实施例的示例电子设备1400的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图14所示,设备1400包括计算单元1401,其可以根据存储在只读存储器(ROM)1402中的计算机程序或者从存储单元1408加载到随机访问存储器(RAM)1403中的计算机程序,来执行各种适当的动作和处理。在RAM 1403中,还可存储设备1400操作所需的各种程序和数据。计算单元1401、ROM 1402以及RAM 1403通过总线1404彼此相连。输入/输出(I/O)接口1405也连接至总线1404。
设备1400中的多个部件连接至I/O接口1405,包括:输入单元1406,例如键盘、鼠标等;输出单元1407,例如各种类型的显示器、扬声器等;存储单元1408,例如磁盘、光盘等;以及通信单元1409,例如网卡、调制解调器、无线通信收发机等。通信单元1409允许设备1400通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1401可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1401的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1401执行上文所描述的各个方法和处理,例如模型训练方法或者音频处理方法。例如,在一些实施例中,模型训练方法或者音频处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1408。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1402和/或通信单元1409而被载入和/或安装到设备1400上。当计算机程序加载到RAM 1403并由计算单元1401执行时,可以执行上文描述的模型训练方法或者音频处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元1401可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行模型训练方法或者音频处理方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (16)
1.一种模型训练方法,包括:
获取第一训练样本,所述第一训练样本包括:第一纯净唤醒音频和第一回声唤醒音频,所述第一回声唤醒音频是通过对所述第一纯净唤醒音频添加回声得到的;
通过待训练的回声消除模型对所述第一回声唤醒音频进行回声消除处理,得到第一预测唤醒音频;
通过训练好的唤醒识别模型对所述第一预测唤醒音频进行特征提取处理,得到第一音频特征,并对所述第一音频特征进行唤醒识别处理,得到第一唤醒识别结果;
通过训练好的唤醒识别模型对所述第一纯净唤醒音频进行特征提取处理,得到第二音频特征,并对所述第二音频特征进行唤醒识别处理,得到第二唤醒识别结果;
根据所述第一唤醒识别结果和所述第二唤醒识别结果,确定识别结果损失函数;所述识别结果损失函数用于指示所述第一唤醒识别结果和所述第二唤醒识别结果之间的差异;
根据所述第一音频特征和所述第二音频特征,确定特征损失函数;所述特征损失函数用于指示所述第一音频特征和所述第二音频特征之间的差异;
根据所述识别结果损失函数和所述特征损失函数,确定第一损失函数;
根据所述第一损失函数,对所述回声消除模型的模型参数进行更新,所述更新的目标为:所述唤醒识别模型对所述第一预测唤醒音频的唤醒识别结果趋近于对所述第一纯净唤醒音频的唤醒识别结果。
2.根据权利要求1所述的方法,其中,所述唤醒识别模型包括N个特征提取单元,所述N为大于1的整数;所述第一音频特征包括:各特征提取单元输出的第一中间音频特征;所述第二音频特征包括:各特征提取单元输出的第二中间音频特征;
根据所述第一音频特征和所述第二音频特征,确定特征损失函数,包括:
根据同一特征提取单元输出的所述第一中间音频特征和所述第二中间音频特征,确定所述特征提取单元对应的中间特征损失函数;
根据所述N个特征提取单元对应的中间特征损失函数,确定所述特征损失函数。
3.根据权利要求1或2所述的方法,根据所述第一预测唤醒音频和所述第一纯净唤醒音频,对所述回声消除模型的模型参数进行更新之后,还包括:
判断更新后的回声消除模型是否收敛;
若是,则将更新后的回声消除模型作为训练完成的回声消除模型;
若否,则重复对所述回声消除模型进行训练,直至更新后的回声消除模型收敛。
4.根据权利要求1至3任一项所述的方法,还包括:
获取第二训练样本,所述第二训练样本包括:第二纯净唤醒音频和第二回声唤醒音频,所述第二回声唤醒音频是通过对所述第二纯净唤醒音频添加回声得到的;
通过预设基础模型对所述第二回声唤醒音频进行回声消除处理,得到第二预测唤醒音频;
根据所述第二预测唤醒音频和所述第二纯净唤醒音频,对所述预设基础模型的模型参数进行更新,以得到所述待训练的回声消除模型。
5.根据权利要求4所述的方法,根据所述第二预测唤醒音频和所述第二纯净唤醒音频,对所述预设基础模型的模型参数进行更新,以得到所述待训练的回声消除模型,包括:
根据所述第二预测唤醒音频和所述第二纯净唤醒音频,确定第二损失函数;
根据所述第二损失函数,对所述预设基础模型的模型参数进行更新;
判断更新后的预设基础模型是否收敛;
若是,则将所述更新后的预设基础模型作为所述待训练的回声消除模型;
若否,则重复对所述预设基础模型进行训练,直至更新后的预设基础模型收敛。
6.一种音频处理方法,包括:
获取电子设备采集到的第一音频;
通过回声消除模型对所述第一音频进行回声消除处理,得到第二音频;
通过唤醒识别模型对所述第二音频进行唤醒识别处理,以确定是否唤醒所述电子设备;
其中,所述回声消除模型是采用如权利要求1至5任一项所述的模型训练方法得到的。
7.根据权利要求6所述的方法,其中,通过回声消除模型对所述第一音频进行回声消除处理,得到第二音频,包括:
采用声学回声消除AEC技术对所述第一音频进行回声消除处理,得到中间音频;
通过所述回声消除模型对所述中间音频进行回声消除处理,得到所述第二音频。
8.一种模型训练装置,包括:
第一获取模块,用于获取第一训练样本,所述第一训练样本包括:第一纯净唤醒音频和第一回声唤醒音频,所述第一回声唤醒音频是通过对所述第一纯净唤醒音频添加回声得到的;
第一处理模块,用于通过待训练的回声消除模型对所述第一回声唤醒音频进行回声消除处理,得到第一预测唤醒音频;
第一更新模块包括:处理单元、第一确定单元、第一更新单元;
所述处理单元包括:
第一处理子单元,用于通过训练好的唤醒识别模型对所述第一预测唤醒音频进行特征提取处理,得到第一音频特征,并对所述第一音频特征进行唤醒识别处理,得到第一唤醒识别结果;
第二处理子单元,用于通过训练好唤醒识别模型对所述第一纯净唤醒音频进行特征提取处理,得到第二音频特征,并对所述第二音频特征进行唤醒识别处理,得到第二唤醒识别结果;
所述第一确定单元包括:
第一确定子单元,用于根据所述第一唤醒识别结果和所述第二唤醒识别结果,确定识别结果损失函数;所述识别结果损失函数用于指示所述第一唤醒识别结果和所述第二唤醒识别结果之间的差异;
第二确定子单元,用于根据所述第一音频特征和所述第二音频特征,确定特征损失函数;所述特征损失函数用于指示所述第一音频特征和所述第二音频特征之间的差异;
第三确定子单元,用于根据所述识别结果损失函数和所述特征损失函数,确定第一损失函数;
第一更新单元,用于根据所述第一损失函数,对所述回声消除模型的模型参数进行更新,所述更新的目标为:所述唤醒识别模型对所述第一预测唤醒音频的唤醒识别结果趋近于对所述第一纯净唤醒音频的唤醒识别结果。
9.根据权利要求8所述的装置,其中,所述唤醒识别模型包括N个特征提取单元,所述N为大于1的整数;所述第一音频特征包括:各特征提取单元输出的第一中间音频特征;所述第二音频特征包括:各特征提取单元输出的第二中间音频特征;所述第二确定子单元具体用于:
根据同一特征提取单元输出的所述第一中间音频特征和所述第二中间音频特征,确定所述特征提取单元对应的中间特征损失函数;
根据所述N个特征提取单元对应的中间特征损失函数,确定所述特征损失函数。
10.根据权利要求8或9所述的装置,所述第一更新模块还用于:
判断更新后的回声消除模型是否收敛;
若是,则将更新后的回声消除模型作为训练完成的回声消除模型;
若否,则重复对所述回声消除模型进行训练,直至更新后的回声消除模型收敛。
11.根据权利要求8至10任一项所述的装置,还包括:
第二获取模块,用于获取第二训练样本,所述第二训练样本包括:第二纯净唤醒音频和第二回声唤醒音频,所述第二回声唤醒音频是通过对所述第二纯净唤醒音频添加回声得到的;
第二处理模块,用于通过预设基础模型对所述第二回声唤醒音频进行回声消除处理,得到第二预测唤醒音频;
第二更新模块,用于根据所述第二预测唤醒音频和所述第二纯净唤醒音频,对所述预设基础模型的模型参数进行更新,以得到所述待训练的回声消除模型。
12.根据权利要求11所述的装置,其中,所述第二更新模块包括:
第二确定单元,用于根据所述第二预测唤醒音频和所述第二纯净唤醒音频,确定第二损失函数;
第二更新单元,用于根据所述第二损失函数,对所述预设基础模型的模型参数进行更新;
判断单元,用于判断更新后的预设基础模型是否收敛;若是,则将所述更新后的预设基础模型作为所述待训练的回声消除模型;若否,则重复对所述预设基础模型进行训练,直至更新后的预设基础模型收敛。
13.一种音频处理装置,包括:
获取模块,用于获取电子设备采集到的第一音频;
处理模块,用于通过回声消除模型对所述第一音频进行回声消除处理,得到第二音频;
识别模块,用于通过唤醒识别模型对所述第二音频进行唤醒识别处理,以确定是否唤醒所述电子设备;
其中,所述回声消除模型是由如权利要求8至12任一项所述的模型训练装置训练得到的。
14.根据权利要求13所述的装置,其中,所述处理模块包括:
第一处理单元,用于采用声学回声消除AEC技术对所述第一音频进行回声消除处理,得到中间音频;
第二处理单元,用于通过所述回声消除模型对所述中间音频进行回声消除处理,得到所述第二音频。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至5中任一项所述的方法,或者,执行权利要求6或7所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1至5中任一项所述的方法,或者,执行根据权利要求6或7所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210269922.7A CN114512136B (zh) | 2022-03-18 | 2022-03-18 | 模型训练、音频处理方法、装置、设备、存储介质及程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210269922.7A CN114512136B (zh) | 2022-03-18 | 2022-03-18 | 模型训练、音频处理方法、装置、设备、存储介质及程序 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114512136A CN114512136A (zh) | 2022-05-17 |
CN114512136B true CN114512136B (zh) | 2023-09-26 |
Family
ID=81553077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210269922.7A Active CN114512136B (zh) | 2022-03-18 | 2022-03-18 | 模型训练、音频处理方法、装置、设备、存储介质及程序 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114512136B (zh) |
Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009139894A (ja) * | 2007-12-11 | 2009-06-25 | Advanced Telecommunication Research Institute International | 雑音抑圧装置、音声認識装置、雑音抑圧方法、及びプログラム |
CN106157953A (zh) * | 2015-04-16 | 2016-11-23 | 科大讯飞股份有限公司 | 连续语音识别方法及系统 |
CN107464565A (zh) * | 2017-09-20 | 2017-12-12 | 百度在线网络技术(北京)有限公司 | 一种远场语音唤醒方法及设备 |
CN107591151A (zh) * | 2017-08-22 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 远场语音唤醒方法、装置和终端设备 |
KR20190032868A (ko) * | 2017-09-20 | 2019-03-28 | 현대자동차주식회사 | 음성인식 방법 및 그 장치 |
CN110176226A (zh) * | 2018-10-25 | 2019-08-27 | 腾讯科技(深圳)有限公司 | 一种语音识别、及语音识别模型训练方法及装置 |
CN110600017A (zh) * | 2019-09-12 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 语音处理模型的训练方法、语音识别方法、系统及装置 |
CN111261179A (zh) * | 2018-11-30 | 2020-06-09 | 阿里巴巴集团控股有限公司 | 回声消除方法及装置和智能设备 |
CN111261146A (zh) * | 2020-01-16 | 2020-06-09 | 腾讯科技(深圳)有限公司 | 语音识别及模型训练方法、装置和计算机可读存储介质 |
CN111862952A (zh) * | 2019-04-26 | 2020-10-30 | 华为技术有限公司 | 一种去混响模型训练方法及装置 |
CN111933114A (zh) * | 2020-10-09 | 2020-11-13 | 深圳市友杰智新科技有限公司 | 语音唤醒混合模型的训练方法、使用方法和相关设备 |
CN111933164A (zh) * | 2020-06-29 | 2020-11-13 | 北京百度网讯科技有限公司 | 语音处理模型的训练方法、装置、电子设备和存储介质 |
CN112364993A (zh) * | 2021-01-13 | 2021-02-12 | 深圳市友杰智新科技有限公司 | 模型联合训练方法、装置、计算机设备和存储介质 |
CN112365885A (zh) * | 2021-01-18 | 2021-02-12 | 深圳市友杰智新科技有限公司 | 唤醒模型的训练方法、装置和计算机设备 |
CN112466318A (zh) * | 2020-10-27 | 2021-03-09 | 北京百度网讯科技有限公司 | 语音处理方法、装置及语音处理模型的生成方法、装置 |
CN113035176A (zh) * | 2021-03-09 | 2021-06-25 | 北京声智科技有限公司 | 语音数据处理方法、装置、计算机设备及存储介质 |
CN113178192A (zh) * | 2021-04-30 | 2021-07-27 | 平安科技(深圳)有限公司 | 语音识别模型的训练方法、装置、设备及存储介质 |
CN113241064A (zh) * | 2021-06-28 | 2021-08-10 | 科大讯飞股份有限公司 | 语音识别、模型训练方法、装置、电子设备和存储介质 |
WO2021189979A1 (zh) * | 2020-10-26 | 2021-09-30 | 平安科技(深圳)有限公司 | 语音增强方法、装置、计算机设备及存储介质 |
CN113571063A (zh) * | 2021-02-02 | 2021-10-29 | 腾讯科技(深圳)有限公司 | 语音信号的识别方法、装置、电子设备及存储介质 |
CN113707134A (zh) * | 2021-08-17 | 2021-11-26 | 北京搜狗科技发展有限公司 | 一种模型训练方法、装置和用于模型训练的装置 |
CN114049882A (zh) * | 2021-11-19 | 2022-02-15 | 鼎富新动力(北京)智能科技有限公司 | 降噪模型训练方法、装置及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9672821B2 (en) * | 2015-06-05 | 2017-06-06 | Apple Inc. | Robust speech recognition in the presence of echo and noise using multiple signals for discrimination |
-
2022
- 2022-03-18 CN CN202210269922.7A patent/CN114512136B/zh active Active
Patent Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009139894A (ja) * | 2007-12-11 | 2009-06-25 | Advanced Telecommunication Research Institute International | 雑音抑圧装置、音声認識装置、雑音抑圧方法、及びプログラム |
CN106157953A (zh) * | 2015-04-16 | 2016-11-23 | 科大讯飞股份有限公司 | 连续语音识别方法及系统 |
CN107591151A (zh) * | 2017-08-22 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 远场语音唤醒方法、装置和终端设备 |
CN107464565A (zh) * | 2017-09-20 | 2017-12-12 | 百度在线网络技术(北京)有限公司 | 一种远场语音唤醒方法及设备 |
KR20190032868A (ko) * | 2017-09-20 | 2019-03-28 | 현대자동차주식회사 | 음성인식 방법 및 그 장치 |
CN110176226A (zh) * | 2018-10-25 | 2019-08-27 | 腾讯科技(深圳)有限公司 | 一种语音识别、及语音识别模型训练方法及装置 |
CN111261179A (zh) * | 2018-11-30 | 2020-06-09 | 阿里巴巴集团控股有限公司 | 回声消除方法及装置和智能设备 |
CN111862952A (zh) * | 2019-04-26 | 2020-10-30 | 华为技术有限公司 | 一种去混响模型训练方法及装置 |
CN110600017A (zh) * | 2019-09-12 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 语音处理模型的训练方法、语音识别方法、系统及装置 |
CN111261146A (zh) * | 2020-01-16 | 2020-06-09 | 腾讯科技(深圳)有限公司 | 语音识别及模型训练方法、装置和计算机可读存储介质 |
CN111933164A (zh) * | 2020-06-29 | 2020-11-13 | 北京百度网讯科技有限公司 | 语音处理模型的训练方法、装置、电子设备和存储介质 |
CN111933114A (zh) * | 2020-10-09 | 2020-11-13 | 深圳市友杰智新科技有限公司 | 语音唤醒混合模型的训练方法、使用方法和相关设备 |
WO2021189979A1 (zh) * | 2020-10-26 | 2021-09-30 | 平安科技(深圳)有限公司 | 语音增强方法、装置、计算机设备及存储介质 |
CN112466318A (zh) * | 2020-10-27 | 2021-03-09 | 北京百度网讯科技有限公司 | 语音处理方法、装置及语音处理模型的生成方法、装置 |
CN112364993A (zh) * | 2021-01-13 | 2021-02-12 | 深圳市友杰智新科技有限公司 | 模型联合训练方法、装置、计算机设备和存储介质 |
CN112365885A (zh) * | 2021-01-18 | 2021-02-12 | 深圳市友杰智新科技有限公司 | 唤醒模型的训练方法、装置和计算机设备 |
CN113571063A (zh) * | 2021-02-02 | 2021-10-29 | 腾讯科技(深圳)有限公司 | 语音信号的识别方法、装置、电子设备及存储介质 |
CN113035176A (zh) * | 2021-03-09 | 2021-06-25 | 北京声智科技有限公司 | 语音数据处理方法、装置、计算机设备及存储介质 |
CN113178192A (zh) * | 2021-04-30 | 2021-07-27 | 平安科技(深圳)有限公司 | 语音识别模型的训练方法、装置、设备及存储介质 |
CN113241064A (zh) * | 2021-06-28 | 2021-08-10 | 科大讯飞股份有限公司 | 语音识别、模型训练方法、装置、电子设备和存储介质 |
CN113707134A (zh) * | 2021-08-17 | 2021-11-26 | 北京搜狗科技发展有限公司 | 一种模型训练方法、装置和用于模型训练的装置 |
CN114049882A (zh) * | 2021-11-19 | 2022-02-15 | 鼎富新动力(北京)智能科技有限公司 | 降噪模型训练方法、装置及存储介质 |
Non-Patent Citations (3)
Title |
---|
End-to-end Anchored Speech Recognition;Yiming Wang et al;ICASSP 2019 - 2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP);全文 * |
VTS特征补偿算法在语音识别中的实用性研究;杨钊;杜俊;胡郁;刘庆峰;戴礼荣;;小型微型计算机系统(04);全文 * |
语音增强用于抗噪声语音识别;徐义芳, 张金杰, 姚开盛, 曹志刚, 王勇前;清华大学学报(自然科学版)(01);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114512136A (zh) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112599141B (zh) | 神经网络声码器训练方法、装置、电子设备及存储介质 | |
CN111862987B (zh) | 语音识别方法和装置 | |
CN109697978B (zh) | 用于生成模型的方法和装置 | |
CN112133307A (zh) | 人机交互方法、装置、电子设备及存储介质 | |
WO2023193394A1 (zh) | 语音唤醒模型的训练、唤醒方法、装置、设备及存储介质 | |
CN112767916A (zh) | 智能语音设备的语音交互方法、装置、设备、介质及产品 | |
CN114242113A (zh) | 语音检测方法、训练方法、装置和电子设备 | |
CN113793599B (zh) | 语音识别模型的训练方法和语音识别方法及装置 | |
CN112669837B (zh) | 智能终端的唤醒方法、装置及电子设备 | |
CN112634880A (zh) | 话者识别的方法、装置、设备、存储介质以及程序产品 | |
CN114399992B (zh) | 语音指令响应方法、装置及存储介质 | |
CN115292467B (zh) | 信息处理与模型训练方法、装置、设备、介质及程序产品 | |
CN114512136B (zh) | 模型训练、音频处理方法、装置、设备、存储介质及程序 | |
CN114758649B (zh) | 一种语音识别方法、装置、设备和介质 | |
CN113763968B (zh) | 用于识别语音的方法、装置、设备、介质和产品 | |
CN113689866B (zh) | 一种语音转换模型的训练方法、装置、电子设备及介质 | |
CN112509567B (zh) | 语音数据处理的方法、装置、设备、存储介质及程序产品 | |
CN114842541A (zh) | 模型的训练及人脸识别方法、装置、设备以及存储介质 | |
CN115565186A (zh) | 文字识别模型的训练方法、装置、电子设备和存储介质 | |
CN114898734A (zh) | 基于语音合成模型的预训练方法、装置和电子设备 | |
CN114220430A (zh) | 多音区语音交互方法、装置、设备以及存储介质 | |
CN114119972A (zh) | 模型获取及对象处理方法、装置、电子设备及存储介质 | |
CN114429766A (zh) | 调整播放音量的方法、装置、设备以及存储介质 | |
CN114333017A (zh) | 一种动态拾音方法、装置、电子设备及存储介质 | |
CN115312042A (zh) | 用于处理音频的方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |