CN112992170B - 模型训练方法及装置、存储介质及电子装置 - Google Patents

模型训练方法及装置、存储介质及电子装置 Download PDF

Info

Publication number
CN112992170B
CN112992170B CN202110129174.8A CN202110129174A CN112992170B CN 112992170 B CN112992170 B CN 112992170B CN 202110129174 A CN202110129174 A CN 202110129174A CN 112992170 B CN112992170 B CN 112992170B
Authority
CN
China
Prior art keywords
data
noise
awakening
wake
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110129174.8A
Other languages
English (en)
Other versions
CN112992170A (zh
Inventor
赵欣
葛路奇
赵培
苏腾荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Haier Technology Co Ltd
Haier Smart Home Co Ltd
Original Assignee
Qingdao Haier Technology Co Ltd
Haier Smart Home Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Haier Technology Co Ltd, Haier Smart Home Co Ltd filed Critical Qingdao Haier Technology Co Ltd
Priority to CN202110129174.8A priority Critical patent/CN112992170B/zh
Publication of CN112992170A publication Critical patent/CN112992170A/zh
Application granted granted Critical
Publication of CN112992170B publication Critical patent/CN112992170B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0635Training updating or merging of old and new templates; Mean values; Weighting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

本发明公开了一种模型训练方法及装置、存储介质及电子装置,其中,上述方法包括:获取麦克风阵列接收到的纯净语料和第一噪声数据,其中,纯净语料用于指示不包括噪声数据的语音信号;将所述纯净语料中的部分纯净语料中加入混响数据,得到目标音频;根据所述目标音频和所述第一噪声数据对降噪模型进行训练,得到训练后的降噪模型。采用上述技术方案,解决了传统降噪模型对带噪声的语料进行降噪处理的过程中,语料频谱可能会收到损伤等问题。

Description

模型训练方法及装置、存储介质及电子装置
技术领域
本发明涉及通信领域,具体而言,涉及一种模型训练方法及装置、存储介质及电子装置。
背景技术
随着科技的发展,麦克风阵列在人工智能领域被广泛应用,如智能家居,包括:智能冰箱、洗衣机、热水器等,都会使用双麦、多麦等线阵或环阵,但不论是哪种麦克风阵列,都涉及到语音信号降噪处理技术,这是当今人机交互领域的一项关键技术。
降噪信号处理虽然能抑制噪声,但可能会使得语音频谱受到损伤,目前主要的降噪训练手段是给降噪模型较充足的纯净语料和各种噪声,让模型适应并实现噪声抑制。
针对相关技术,传统降噪模型对带噪声的语料进行降噪处理的过程中,语料频谱可能会收到损伤等问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种模型训练方法及装置、存储介质及电子装置,以至少解决传统降噪模型对带噪声的语料进行降噪处理的过程中,语料频谱可能会收到损伤等问题。
根据本发明实施例的一个实施例,提供了一种模型训练方法,获取麦克风阵列接收到的纯净语料和第一噪声数据,其中,纯净语料用于指示不包括噪声数据的语音信号;将所述纯净语料中的部分纯净语料中加入混响数据,得到目标音频;根据所述目标音频和所述第一噪声数据对降噪模型进行训练,得到训练后的降噪模型。
在一个示例性实施例中,根据所述目标音频和所述第一噪声数据对降噪模型进行训练,得到训练后的降噪模型之后,所述方法还包括:获取麦克风阵列从多个音频发声装置所获取到的唤醒词和第二噪声数据,得到与所述多个音频发声装置对应的多个唤醒词和多个第二噪声数据,其中,所述多个音频发声装置位于相对于所述麦克风阵列的多个方向上,每个方向对应一个唤醒词和一个第二噪声数据;将所述多个唤醒词和所述多个第二噪声数据输入到所述训练好的降噪模型中,得到多个唤醒数据,其中,所述唤醒数据用于指示所述唤醒词对应的唤醒操作,每个第二噪声数据对应一个唤醒数据。
在一个示例性实施例中,获取麦克风阵列从多个音频发声装置所获取到的唤醒词和第二噪声数据,得到与所述多个音频发声装置对应的多个唤醒词和多个第二噪声数据,包括:以所述麦克风阵列为原点,确定相对于所述麦克风阵列的多个方向的多个目标位置;确定音频发生装置在所述多个目标位置播放的多个唤醒词,以及在所述多个目标位置的多个第二噪声数据。
在一个示例性实施例中,将所述多个唤醒词和所述多个第二噪声数据输入到所述训练好的降噪模型中,得到多个唤醒数据,包括:按照不同的功率比叠加所述多个唤醒词和所述多个第二噪声数据,得到带噪声的唤醒词数据;将所述带噪声的唤醒词数据输入到所述训练好的降噪模型中,得到多个唤醒数据。
在一个示例性实施例中,将所述多个唤醒词和所述多个第二噪声数据输入到所述训练好的降噪模型中,得到多个唤醒数据之后,所述方法还包括:将所述多个唤醒数据输入到唤醒模型中进行训练,得到训练后的唤醒模型;根据所述训练后的唤醒模型对接收到的唤醒词进行识别,得到所述唤醒词对应的唤醒操作。
在一个示例性实施例中,将所述纯净语料中的部分纯净语料中加入混响数据,得到目标音频,包括:获取不同混响程度的混响数据;向所述部分纯净预料中的每一个纯净预料中分别加入不同混响程度的混响数据,得到所述目标音频。
根据本发明实施例的又一实施例,包括:获取模块,用于获取麦克风阵列获取到的纯净语料和第一噪声数据,其中,纯净语料用于指示不包括噪声数据的语音信号;融合模块,用于将所述纯净语料中的部分纯净语料中加入混响数据,得到目标音频;训练模块,用于根据所述目标音频和所述第一噪声数据对降噪模型进行训练,得到训练后的降噪模型。
在一个示例性实施例中,所述训练模块,用于获取麦克风阵列从多个音频发声装置所获取到的唤醒词和第二噪声数据,得到与所述多个音频发声装置对应的多个唤醒词和多个第二噪声数据,其中,所述多个音频发声装置位于相对于所述麦克风阵列的多个方向上,每个方向对应一个唤醒词和一个第二噪声数据;将所述多个唤醒词和所述多个第二噪声数据输入到所述训练好的降噪模型中,得到多个唤醒数据,其中,所述唤醒数据用于指示所述唤醒词对应的唤醒操作,每个第二噪声数据对应一个唤醒数据。
根据本发明实施例的又一实施例,还提供了一种计算机可读的存储介质,该计算机可读的存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述模型训练方法。
根据本发明实施例的又一实施例,还提供了一种电子装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,上述处理器通过计算机程序执行上述模型训练方法。
通过本发明,引入一种模型训练方法,获取麦克风阵列接收到的纯净语料和第一噪声数据,将纯净语料和第一噪声数据输入到降噪模型中进行训练以前,将纯净语料中的部分纯净语料中加入混响数据,得到目标音频,随后才将目标音频和第一噪声数据一起输入到降噪模型中,对降噪模型进行训练,得到训练后的降噪模型。采用上述技术方案,解决了传统降噪模型对带噪声的语料进行降噪处理的过程中,语料频谱可能会收到损伤等问题,进而通过在部分纯净语料中加入混响数据,使得训练处理的降噪模型对带噪声的语料进行降噪处理的过程中,语料频谱不会收到损伤。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示例性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是本发明实施例的模型训练方法的计算机终端的硬件结构框图;
图2是根据本发明实施例的模型训练方法的流程图;
图3是根据本发明实施例的模型训练方法的RNN模型原理流程图;
图4是根据本发明实施例的模型训练方法的麦克风阵列语音信号降噪处理联合唤醒训练数据适配方法流程图;
图5是根据本发明实施例的模型训练装置的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请实施例中所提供的方法实施例可以在计算机终端或者类似的运算装置中执行。以运行在计算机终端上为例,图1是本发明实施例的一种模型训练方法的计算机终端的硬件结构框图。如图1所示,计算机终端可以包括一个或多个(图1中仅示出一个)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)和用于存储数据的存储器104,在一个示例性实施例中,上述计算机终端还可以包括用于通信功能的传输设备106以及输入输出设备108。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述计算机终端的结构造成限定。例如,计算机终端还可包括比图1中所示更多或者更少的组件,或者具有与图1所示等同功能或比图1所示功能更多的不同的配置。
存储器104可用于存储计算机程序,例如,应用软件的软件程序以及模块,如本发明实施例中的模型训练方法对应的计算机程序,处理器102通过运行存储在存储器104内的计算机程序,从而执行各种功能应用以及数据处理,即实现上述的方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(Network Interface Controller,简称为NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(Radio Frequency,简称为RF)模块,其用于通过无线方式与互联网进行通讯。
相关技术中,仅仅为降噪模型提供纯净语音和噪声语料,可能会造成降噪处理后的语音过于“干净”,但是频谱可能会收到损伤,尤其是对于唤醒设备的唤醒词,经过降噪处理后,唤醒模型即使经过大量训练也不能较大程度地改善唤醒率。
目前主要的降噪训练手段是给降噪模型较充足的纯净语料和各种噪声,让模型适应并实现噪声抑制,并且解决信号处理和唤醒数据适配的传统方法是令麦克风阵列在噪声环境下录同时录唤醒词和噪声,将降噪处理后的语料数据加入到唤醒训练中,得到比较适应噪声环境的唤醒模型。
为了解决上述问题,在本实施例中提供了一种模型训练方法,图2是根据本发明实施例的模型训练方法的流程图,该流程包括如下步骤:
步骤S202,获取麦克风阵列接收到的纯净语料和第一噪声数据,其中,纯净语料用于指示不包括噪声数据的语音信号;
步骤S204,将所述纯净语料中的部分纯净语料中加入混响数据,得到目标音频;
步骤S206,根据所述目标音频和所述第一噪声数据对降噪模型进行训练,得到训练后的降噪模型。
通过上述步骤,引入一种模型训练方法,获取麦克风阵列接收到的纯净语料和第一噪声数据,将纯净语料和第一噪声数据输入到降噪模型中进行训练以前,将纯净语料中的部分纯净语料中加入混响数据,得到目标音频,随后才将目标音频和第一噪声数据一起输入到降噪模型中,对降噪模型进行训练,得到训练后的降噪模型。采用上述技术方案,解决了传统降噪模型对带噪声的语料进行降噪处理的过程中,语料频谱可能会收到损伤等问题,进而通过在部分纯净语料中加入混响数据,使得训练处理的降噪模型对带噪声的语料进行降噪处理的过程中,语料频谱不会收到损伤。
为了更好的理解,上述纯净语料是用于指示不包括噪声数据的语音信号,并且,将目标音频和第一噪声数据加入到降噪模型进行人工智能训练的过程中,人工智能算法会对降噪模型的输出的结果进行判断,看是否满足预设要求,若不符合,则降噪模型就继续进行训练,若符合要求,此时的降噪模型就会被认为是训练好的降噪模型。
需要说明的是,上述步骤S204的实现方式有多种,在一个可选实施例中,将所述纯净语料中的部分纯净语料中加入混响数据,得到目标音频,可以通过以下方案实现:获取不同混响程度的混响数据;向所述部分纯净预料中的每一个纯净预料中分别加入的不同混响程度的混响数据,得到所述目标音频。在本实施例中,所述纯净语料一部分是纯净语音指令,一部分是纯净唤醒词,将纯净语音指令和纯净唤醒词连接起来得到纯净语料,随机取所有纯净数据的2/3或其他比例的纯净数据加入混响效果,对于加入的混响效果的程度,具体的可以是0.1、0.2、0.3、0.4等等,若有0.1程度的混响数据和0.2程度的混响数据,有纯净预料A和B,可以将0.1程度的数据加入到A和/或B中,也可以将0.2程度的混响数据加入到A和/或B,本发明实施例对此不进行限定,随后将未加入混响数据的纯净语料和带有混响数据的纯净语料混合连接在一起即可以得到所述目标音频。
此外,在一般室内环境中,不同方向的混响程度也可能不同,因此简单的带噪声的环境显然不能覆盖各种情况,并且采用同时录唤醒词和噪声的方式比较耗时,不能高效率地得到大量数据,导致唤醒模型的训练数据不容易充足,为了解决该技术问题,本发明实施例还提供了以下技术方案。
在执行完上述步骤S206以后,为了验证训练好的降噪模型,可选的,根据所述目标音频和所述第一噪声数据对降噪模型进行训练,得到训练后的降噪模型之后,还包括:获取麦克风阵列从多个音频发声装置所获取到的唤醒词和第二噪声数据,得到与所述多个音频发声装置对应的多个唤醒词和多个第二噪声数据,其中,所述多个音频发声装置位于相对于所述麦克风阵列的多个方向上,每个方向对应一个唤醒词和一个第二噪声数据;将所述多个唤醒词和所述多个第二噪声数据输入到所述训练好的降噪模型中,得到多个唤醒数据,其中,所述唤醒数据用于指示所述唤醒词对应的唤醒操作,每个第二噪声数据对应一个唤醒数据。例如:获取麦克风阵列从多个音频发声装置获取到的唤醒词,如:“小小,今天天气怎样”,“小小,今天是星期几”等,在获取唤醒词的同时也会获取到噪声数据,如旁人的讲话声,室外的雨声等,需要说明的是,需要在相对于麦克风阵列的多个音频发声装置上都获取一个唤醒词(每个方向都获取),并且获取唤醒词的时候会获得对应一个噪声数据(即本实施例中第二噪声数据),将带有这些噪声的唤醒词输入到训练好的降噪模型中进行降噪处理,得到进行降噪处理后的唤醒词(即本实施例中的唤醒数据)。
需要说明的是,在一个可选的实施例中,获取麦克风阵列从多个音频发声装置所获取到的唤醒词和第二噪声数据,得到与所述多个音频发声装置对应的多个唤醒词和多个第二噪声数据,包括:以所述麦克风阵列为原点,确定相对于所述麦克风阵列的多个方向的多个目标位置;确定音频发生装置在所述多个目标位置播放的多个唤醒词,以及在所述多个目标位置的多个第二噪声数据。
在本实施例中,具体可以以麦克风阵列的中点为原点,分别在原点30度、60度、90度、120度和150度的方向距离原点3米处作为定点,这5个定点出作为音箱可放置的5个位置;音箱分别在不同位置播放唤醒词,以及嘈杂的声音或者新闻等噪声,然后用麦克风阵列录音。需要说明的是,假设5个定点分别为A、B、C、D、E,在5个定点处播放唤醒词和嘈杂噪声的时候,具体的可以有多种形式,以下列举一部分进行说明,如在A点播放唤醒词“小小”,在B处播放新闻,在C播放高跟鞋落地的声音,在D处播放路人吵架的杂音,在E处播放下雨的声音,并且在录制的时候,可以结合不同的方向,将A、B、C、D、E的音响进行互换。需要说明的是,在录制唤醒词和第二噪声数据的时候,是将A、B、C、D、E出的音频进行单独的录制,后期按照不同的功率比叠加的方式,将唤醒词和第二噪声数据进行叠加。
为了将多个唤醒词和多个噪声数据相结合形成带噪声的语料,可选的,将所述多个唤醒词和所述多个第二噪声数据输入到所述训练好的降噪模型中,得到多个唤醒数据,包括:按照不同的功率比叠加所述多个唤醒词和所述多个第二噪声数据,得到带噪声的唤醒词数据;将所述带噪声的唤醒词数据输入到所述训练好的降噪模型中,得到多个唤醒数据。
在本实施例中,为了将多个唤醒词和多个第二噪声数据叠加形成带噪声的语料,具体可以按照功率比叠加的方式,将唤醒词和噪声数据,按照20/15/10/5dB的功率比进行叠加,利用以下公式将干扰噪声数据(相当于上述实施例的第二噪声数据)叠加到唤醒词上,得到带噪声的唤醒词语料,需要说明的是,功率比叠加的方式可以在移动设备或计算机终端上进行,并且叠加后的唤醒词是带回声、噪声和方向性干扰的。具体公式如下:
Figure BDA0002924498740000091
其中,s(t)为信号功率,n(t)为噪声功率。SNR为信噪比,即为放大器的输出信号的功率与同时输出的噪声功率的比值,常常用分贝数表示。
需要说明的是,在一个可选的实施例中,将所述多个唤醒词和所述多个第二噪声数据输入到所述训练好的降噪模型中,得到多个唤醒数据之后,所述方法还包括:将所述多个唤醒数据输入到唤醒模型中进行训练,得到训练后的唤醒模型;根据所述训练后的唤醒模型对接收到的唤醒词进行识别,得到所述唤醒词对应的唤醒操作。在本实施例中,将带噪声的语料输入到训练好的降噪模型中,降噪模型对其进行降噪处理,得到不带噪声的唤醒数据,将唤醒数据加入到唤醒训练中,得到新的唤醒模型。例如:现有一个唤醒语料为“小小,帮我随便播放一首音乐”,但该唤醒语料里面有很多噪声,如洗衣机运行产生的杂音、电视里面的新闻声等,故将带噪声的唤醒语料加入到训练好的降噪模型中进行降噪处理,得到不带噪声的唤醒数据,随后将唤醒数据加入到唤醒模型中进行唤醒训练,人工智能会判断这个唤醒模型是否符合要求,如果符合,则当前状态下的唤醒模型就是训练好的唤醒模型,训练结束以后,在实际使用中,将唤醒数据加入到训练好的唤醒模型中,使得可以成功的唤醒设备,设备进行唤醒操作。
显然,上述所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。为了更好的理解上述模型训练方法,以下结合实施例对上述过程进行说明,但不用于限定本发明实施例的技术方案,具体地:
在一个可选的实施例中,针对传统降噪处理后的唤醒词频谱损伤问题,具体可以采用循环神经网络(Recurrent Neural Network,简称为RNN)模型来进行降噪模型的训练,图3是根据本发明实施例的模型训练方法的RNN模型原理流程图,RNN模型为本领域技术人员所悉知的,在此不进行赘述,对于如何确定RNN模型的输入,主要步骤如下:
步骤一:准备纯净语料:一部分是纯净语音指令,一部分是纯净唤醒词,将数据混合连接;
步骤二:取所有纯净数据的2/3加入混响效果,程度为0.1/0.2/0.3/0.4;
步骤三:将纯净和带有混响效果的音频混合连接在一起;
步骤四:将以上数据作为RNN模型训练的纯净语料部分,噪声包括嘈杂的声音、新闻、电视杂音等各种类型,将加入混响效果方纯净预料和噪声作为RNN的输入,用于降噪模型的训练。
在一个可选的实施例中,图4是根据本发明实施例的模型训练方法的麦克风阵列语音信号降噪处理联合唤醒训练数据适配方法流程图,主要步骤如下:
步骤S402:以麦克风阵列的中点为原点,分别在30/60/90/120/150度方向距离3米处定点,作为音箱可放置的5个位置;
步骤S404:音箱分别在不同位置播放唤醒词,以及嘈杂的声音和新闻等噪声,利用麦克风阵列录音;
步骤S406:叠加唤醒词和噪声音频,按照20/15/10/5dB的功率比,利用公式:
Figure BDA0002924498740000101
将干扰叠加到唤醒词上,得到带噪声的唤醒词语料;
步骤S408:将带方向性干扰的唤醒词过波束形成处理,作为训练波束形成模块的数据集,过降噪模型进行降噪处理;
步骤S410:将带噪声的唤醒词经过降噪处理后的数据加入到唤醒训练中得到新的唤醒模型。
为了方便理解,可以概况为:利用公式,将唤醒词叠加30/60/90/120/150度方向的babble/新闻/电视等噪声,形成带噪声唤醒词,将带噪声唤醒词过到降噪模型,用RNN做噪声抑制,最后将降噪处理后的数据用于唤醒训练。
此外,本发明实施例的上述技术方案,可以模拟实际环境中的混响环境,通过对语音训练数据进行不同权重和不同程度的加混响处理,能有效地避免频谱损伤。并且基于不同方向,录多种类型的噪声,采用基于不同信噪比叠加方式得到带噪唤醒词再过噪声抑制,这样能够较简单的得到大量模拟真实情况的带噪唤醒词数据,将这些信号处理后的唤醒词数据加入到唤醒模型中进行训练,就能较好地提高唤醒的鲁棒性,提升人机交互的良好体验感。另外,经过信号处理之后,若唤醒训练数据集中不包含这些处理后的唤醒词,那通常唤醒率会比较低,而经过数据适配可以大大提高唤醒率,在实际人机交互应用场景中有更好的唤醒体验。
同时本发明采用更优的麦克风阵列唤醒性能:考虑麦克风阵列在实际应用中唤醒词经过降噪处理后可能会造成频谱损伤,通过叠加制作不同程度的混响效果,基于RNN模型做降噪训练,能有效解决唤醒词经过降噪处理后的频谱损伤的问题;采用麦克风阵列录音和叠加方法得到带噪声的唤醒词,将经过处理后的语料数据投入到唤醒训练中,得到的唤醒模型具有对不同带噪环境都能适应的鲁棒性,提高了唤醒率。并且本发明采用简单明了的数据处理方式,即先录音,后期进行叠加,得到大量数据,易于实现。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例的方法。
在本实施例中还提供了一种模型训练装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的设备较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图5是根据本发明实施例的一种模型训练装置的结构框图,该装置包括:
获取模块52,用于获取麦克风阵列接收到的纯净语料和第一噪声数据,其中,纯净语料用于指示不包括噪声数据的语音信号;
融合模块54,用于将所述纯净语料中的部分纯净语料中加入混响数据,得到目标音频;
训练模块56,用于根据所述目标音频和所述第一噪声数据对降噪模型进行训练,得到训练后的降噪模型。
通过本发明,引入一种模型训练装置,获取麦克风阵列接收到的纯净语料和第一噪声数据,将纯净语料和第一噪声数据输入到降噪模型中进行训练以前,将纯净语料中的部分纯净语料中加入混响数据,得到目标音频,随后才将目标音频和第一噪声数据一起输入到降噪模型中,对降噪模型进行训练,得到训练后的降噪模型。采用上述技术方案,解决了传统降噪模型对带噪声的语料进行降噪处理的过程中,语料频谱可能会收到损伤等问题,进而通过在部分纯净语料中加入混响数据,使得训练处理的降噪模型对带噪声的语料进行降噪处理的过程中,语料频谱不会收到损伤。
为了更好的理解,上述纯净语料是用于指示不包括噪声数据的语音信号,并且,将目标音频和第一噪声数据加入到降噪模型进行人工智能训练的过程中,人工智能算法会对降噪模型的输出的结果进行判断,看是否满足预设要求,若不符合,则降噪模型就继续进行训练,若符合要求,此时的降噪模型就会被认为是训练好的降噪模型。
需要说明的是,在一个可选实施例中,融合模块54用于获取不同混响程度的混响数据;向所述部分纯净预料中的每一个纯净预料中分别加入的不同混响程度的混响数据,得到所述目标音频。在本实施例中,所述纯净语料一部分是纯净语音指令,一部分是纯净唤醒词,将纯净语音指令和纯净唤醒词连接起来得到纯净语料,随机取所有纯净数据的2/3或其他比例的纯净数据加入混响效果,对于加入的混响效果的程度,具体的可以是0.1、0.2、0.3、0.4等等,若有0.1程度的混响数据和0.2程度的混响数据,有纯净预料A和B,可以将0.1程度的数据加入到A和/或B中,也可以将0.2程度的混响数据加入到A和/或B,本发明实施例对此不进行限定,随后将未加入混响数据的纯净语料和带有混响数据的纯净语料混合连接在一起即可以得到所述目标音频。
此外,在一般室内环境中,不同方向的混响程度也可能不同,因此简单的带噪声的环境显然不能覆盖各种情况,并且采用同时录唤醒词和噪声的方式比较耗时,不能高效率地得到大量数据,导致唤醒模型的训练数据不容易充足,为了解决该技术问题,本发明实施例还提供了以下技术方案。
可选的,训练模块56还用于获取麦克风阵列从多个音频发声装置所获取到的唤醒词和第二噪声数据,得到与所述多个音频发声装置对应的多个唤醒词和多个第二噪声数据,其中,所述多个音频发声装置位于相对于所述麦克风阵列的多个方向上,每个方向对应一个唤醒词和一个第二噪声数据;将所述多个唤醒词和所述多个第二噪声数据输入到所述训练好的降噪模型中,得到多个唤醒数据,其中,所述唤醒数据用于指示所述唤醒词对应的唤醒操作,每个第二噪声数据对应一个唤醒数据。例如:获取麦克风阵列从多个音频发声装置获取到的唤醒词,如:“小小,今天天气怎样”,“小小,今天是星期几”等,需要说明的是,需要在相对于麦克风阵列的多个音频发声装置上都获取一个唤醒词(每个方向都获取),并且获取唤醒词的时候会获得对应一个噪声数据(即本实施例中第二噪声数据),在获取唤醒词的同时也会获取到噪声数据,如旁人的讲话声,室外的雨声等,将带有这些噪声的唤醒词输入到训练好的降噪模型中继续降噪处理,得到进行降噪处理后的唤醒词(即本实施例中的唤醒数据)。
需要说明的是,在一个可选的实施例中,训练模块56用于获取相对于所述麦克风阵列从多个音频发声装置所获取到的唤醒词和第二噪声数据,得到与所述多个音频发声装置对应的多个唤醒词和多个第二噪声数据,包括:以所述麦克风阵列为原点,确定相对于所述麦克风阵列的多个方向的多个目标位置;确定音频发生装置在所述多个目标位置播放的多个唤醒词,以及在所述多个目标位置的多个第二噪声数据。
在本实施例中,具体可以以麦克风阵列的中点为原点,分别在原点30度、60度、90度、120度和150度的方向距离原点3米处作为定点,这5个定点出作为音箱可放置的5个位置;音箱分别在不同位置播放唤醒词,以及嘈杂的声音或者新闻等噪声,然后用麦克风阵列录音。需要说明的是,假设5个定点分别为A、B、C、D、E,在5个定点处播放唤醒词和嘈杂噪声的时候,具体的可以有多种形式,以下列举一部分进行说明,如在A点播放唤醒词“小小”,在B处播放新闻,在C播放高跟鞋落地的声音,在D处播放路人吵架的杂音,在E处播放下雨的声音,并且在录制的时候,可以结合不同的方向,将A、B、C、D、E的音响进行互换。需要说明的是,在录制唤醒词和第二噪声数据的时候,是将A、B、C、D、E出的音频进行单独的录制,后期按照不同的功率比叠加的方式,将唤醒词和第二噪声数据进行叠加。
可选的,训练模块56用于将所述多个唤醒词和所述多个第二噪声数据输入到所述训练好的降噪模型中,得到多个唤醒数据,包括:按照不同的功率比叠加所述多个唤醒词和所述多个第二噪声数据,得到带噪声的唤醒词数据;将所述带噪声的唤醒词数据输入到所述训练好的降噪模型中,得到多个唤醒数据。
在本实施例中,为了将多个唤醒词和多个第二噪声数据叠加形成带噪声的语料,具体可以按照功率比叠加的方式,将唤醒词和噪声数据,按照20/15/10/5dB的功率比进行叠加,利用以下公式将干扰噪声数据(相当于上述实施例的第二噪声数据)叠加到唤醒词上,得到带噪声的唤醒词语料,需要说明的是,功率比叠加的方式可以在移动设备或计算机终端上进行,并且叠加后的唤醒词是带回声、噪声和方向性干扰的。具体公式如下:
Figure BDA0002924498740000151
其中,s(t)为信号功率,n(t)为噪声功率。SNR为信噪比,即为放大器的输出信号的功率与同时输出的噪声功率的比值,常常用分贝数表示。
需要说明的是,训练模块56还用于将所述多个唤醒数据输入到唤醒模型中进行训练,得到训练后的唤醒模型;根据所述训练后的唤醒模型对接收到的唤醒词进行识别,得到所述唤醒词对应的唤醒操作。在本实施例中,将带噪声的语料输入到训练好的降噪模型中,降噪模型对其进行降噪处理,得到不带噪声的唤醒数据,将唤醒数据加入到唤醒训练中,得到新的唤醒模型。例如:现有一个唤醒语料为“小小,帮我随便播放一首音乐”,但该唤醒语料里面有很多噪声,如洗衣机运行产生的杂音、电视里面的新闻声等,故将带噪声的唤醒语料加入到训练好的降噪模型中进行降噪处理,得到不带噪声的唤醒数据,随后将唤醒数据加入到唤醒模型中进行唤醒训练,人工智能会判断这个唤醒模型是否符合要求,如果符合,则当前状态下的唤醒模型就是训练好的唤醒模型,训练结束以后,在实际使用中,将唤醒数据加入到训练好的唤醒模型中,使得可以成功的唤醒设备,让设备进行对应的操作。
本发明的实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,获取麦克风阵列接收到的纯净语料和第一噪声数据,其中,纯净语料用于指示不包括噪声数据的语音信号;
S2,将所述纯净语料中的部分纯净语料中加入混响数据,得到目标音频;
S3,根据所述目标音频和所述第一噪声数据对降噪模型进行训练,得到训练后的降噪模型。
在一个示例性实施例中,上述计算机可读存储介质可以包括但不限于:U盘、只读存储器(Read-Only Memory,简称为ROM)、随机存取存储器(Random Access Memory,简称为RAM)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。
本实施例中的具体示例可以参考上述实施例及示例性实施方式中所描述的示例,本实施例在此不再赘述。
本发明的实施例还提供了一种电子装置,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,获取麦克风阵列接收到的纯净语料和第一噪声数据,其中,纯净语料用于指示不包括噪声数据的语音信号;
S2,将所述纯净语料中的部分纯净语料中加入混响数据,得到目标音频;
S3,根据所述目标音频和所述第一噪声数据对降噪模型进行训练,得到训练后的降噪模型。
在一个示例性实施例中,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
本实施例中的具体示例可以参考上述实施例及示例性实施方式中所描述的示例,本实施例在此不再赘述。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种模型训练方法,其特征在于,包括:
获取麦克风阵列接收到的纯净语料和第一噪声数据,其中,纯净语料用于指示不包括噪声数据的语音信号;
将所述纯净语料中的部分纯净语料中加入混响数据,得到目标音频;
根据所述目标音频和所述第一噪声数据对降噪模型进行训练,得到训练后的降噪模型;
其中,根据所述目标音频和所述第一噪声数据对降噪模型进行训练,得到训练后的降噪模型之后,所述方法还包括:
获取麦克风阵列从多个音频发声装置所获取到的唤醒词和第二噪声数据,得到与所述多个音频发声装置对应的多个唤醒词和多个第二噪声数据,其中,所述多个音频发声装置位于相对于所述麦克风阵列的多个方向上,每个方向对应一个唤醒词和一个第二噪声数据;
将所述多个唤醒词和所述多个第二噪声数据输入到所述训练好的降噪模型中,得到多个唤醒数据,其中,所述唤醒数据用于指示所述唤醒词对应的唤醒操作,每个第二噪声数据对应一个唤醒数据;
其中,将所述多个唤醒词和所述多个第二噪声数据输入到所述训练好的降噪模型中,得到多个唤醒数据之后,所述方法还包括:
将所述多个唤醒数据输入到唤醒模型中进行训练,得到训练后的唤醒模型;
根据所述训练后的唤醒模型对接收到的唤醒词进行识别,得到所述唤醒词对应的唤醒操作。
2.根据权利要求1所述的方法,其特征在于,获取麦克风阵列从多个音频发声装置所获取到的唤醒词和第二噪声数据,得到与所述多个音频发声装置对应的多个唤醒词和多个第二噪声数据,包括:
以所述麦克风阵列为原点,确定相对于所述麦克风阵列的多个方向的多个目标位置;
确定音频发生装置在所述多个目标位置播放的多个唤醒词,以及在所述多个目标位置的多个第二噪声数据。
3.根据权利要求1所述的方法,其特征在于,将所述多个唤醒词和所述多个第二噪声数据输入到所述训练好的降噪模型中,得到多个唤醒数据,包括:
按照不同的功率比叠加所述多个唤醒词和所述多个第二噪声数据,得到带噪声的唤醒词数据;
将所述带噪声的唤醒词数据输入到所述训练好的降噪模型中,得到多个唤醒数据。
4.根据权利要求1所述的方法,其特征在于,将所述纯净语料中的部分纯净语料中加入混响数据,得到目标音频,包括:
获取不同混响程度的混响数据;
向所述部分纯净语料中的每一个纯净语料中分别加入不同混响程度的混响数据,得到所述目标音频。
5.一种模型训练装置,其特征在于,包括:
获取模块,用于获取麦克风阵列接收到的纯净语料和第一噪声数据,其中,纯净语料用于指示不包括噪声数据的语音信号;
融合模块,用于将所述纯净语料中的部分纯净语料中加入混响数据,得到目标音频;
训练模块,用于根据所述目标音频和所述第一噪声数据对降噪模型进行训练,得到训练后的降噪模型;
其中,所述训练模块,还用于获取麦克风阵列从多个音频发声装置所获取到的唤醒词和第二噪声数据,得到与所述多个音频发声装置对应的多个唤醒词和多个第二噪声数据,其中,所述多个音频发声装置位于相对于所述麦克风阵列的多个方向上,每个方向对应一个唤醒词和一个第二噪声数据;
将所述多个唤醒词和所述多个第二噪声数据输入到所述训练好的降噪模型中,得到多个唤醒数据,其中,所述唤醒数据用于指示所述唤醒词对应的唤醒操作,每个第二噪声数据对应一个唤醒数据;
其中,所述训练模块,还用于将所述多个唤醒数据输入到唤醒模型中进行训练,得到训练后的唤醒模型;
根据所述训练后的唤醒模型对接收到的唤醒词进行识别,得到所述唤醒词对应的唤醒操作。
6.一种计算机可读的存储介质,其特征在于,所述计算机可读的存储介质包括存储的程序,其中,所述程序运行时执行上述权利要求1至4任一项中所述的方法。
7.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至4任一项中所述的方法。
CN202110129174.8A 2021-01-29 2021-01-29 模型训练方法及装置、存储介质及电子装置 Active CN112992170B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110129174.8A CN112992170B (zh) 2021-01-29 2021-01-29 模型训练方法及装置、存储介质及电子装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110129174.8A CN112992170B (zh) 2021-01-29 2021-01-29 模型训练方法及装置、存储介质及电子装置

Publications (2)

Publication Number Publication Date
CN112992170A CN112992170A (zh) 2021-06-18
CN112992170B true CN112992170B (zh) 2022-10-28

Family

ID=76345911

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110129174.8A Active CN112992170B (zh) 2021-01-29 2021-01-29 模型训练方法及装置、存储介质及电子装置

Country Status (1)

Country Link
CN (1) CN112992170B (zh)

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107481731A (zh) * 2017-08-01 2017-12-15 百度在线网络技术(北京)有限公司 一种语音数据增强方法及系统
CN107507625A (zh) * 2016-06-14 2017-12-22 讯飞智元信息科技有限公司 声源距离确定方法及装置
CN109119090A (zh) * 2018-10-30 2019-01-01 Oppo广东移动通信有限公司 语音处理方法、装置、存储介质及电子设备
CN110047502A (zh) * 2019-04-18 2019-07-23 广州九四智能科技有限公司 噪声环境下层级式语音降噪识别方法及系统
CN110310628A (zh) * 2019-06-27 2019-10-08 百度在线网络技术(北京)有限公司 唤醒模型的优化方法、装置、设备及存储介质
CN110491404A (zh) * 2019-08-15 2019-11-22 广州华多网络科技有限公司 语音处理方法、装置、终端设备及存储介质
CN110931007A (zh) * 2019-12-04 2020-03-27 苏州思必驰信息科技有限公司 语音识别方法及系统
CN110956957A (zh) * 2019-12-23 2020-04-03 苏州思必驰信息科技有限公司 语音增强模型的训练方法及系统
CN110992974A (zh) * 2019-11-25 2020-04-10 百度在线网络技术(北京)有限公司 语音识别方法、装置、设备以及计算机可读存储介质
CN111540346A (zh) * 2020-05-13 2020-08-14 慧言科技(天津)有限公司 一种远场声音分类方法和装置
CN111696567A (zh) * 2020-06-12 2020-09-22 苏州思必驰信息科技有限公司 用于远场通话的噪声估计方法及系统
CN111816193A (zh) * 2020-08-12 2020-10-23 深圳市友杰智新科技有限公司 基于多段网络的语音唤醒方法、装置及存储介质
CN111933114A (zh) * 2020-10-09 2020-11-13 深圳市友杰智新科技有限公司 语音唤醒混合模型的训练方法、使用方法和相关设备
CN112017681A (zh) * 2020-09-07 2020-12-01 苏州思必驰信息科技有限公司 定向语音的增强方法及系统
CN112017682A (zh) * 2020-09-18 2020-12-01 中科极限元(杭州)智能科技股份有限公司 一种单通道语音同时降噪和去混响系统
CN112201262A (zh) * 2020-09-30 2021-01-08 珠海格力电器股份有限公司 一种声音处理方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102494139B1 (ko) * 2015-11-06 2023-01-31 삼성전자주식회사 뉴럴 네트워크 학습 장치 및 방법과, 음성 인식 장치 및 방법
WO2019112468A1 (en) * 2017-12-08 2019-06-13 Huawei Technologies Co., Ltd. Multi-microphone noise reduction method, apparatus and terminal device

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107507625A (zh) * 2016-06-14 2017-12-22 讯飞智元信息科技有限公司 声源距离确定方法及装置
CN107481731A (zh) * 2017-08-01 2017-12-15 百度在线网络技术(北京)有限公司 一种语音数据增强方法及系统
CN109119090A (zh) * 2018-10-30 2019-01-01 Oppo广东移动通信有限公司 语音处理方法、装置、存储介质及电子设备
CN110047502A (zh) * 2019-04-18 2019-07-23 广州九四智能科技有限公司 噪声环境下层级式语音降噪识别方法及系统
CN110310628A (zh) * 2019-06-27 2019-10-08 百度在线网络技术(北京)有限公司 唤醒模型的优化方法、装置、设备及存储介质
CN110491404A (zh) * 2019-08-15 2019-11-22 广州华多网络科技有限公司 语音处理方法、装置、终端设备及存储介质
CN110992974A (zh) * 2019-11-25 2020-04-10 百度在线网络技术(北京)有限公司 语音识别方法、装置、设备以及计算机可读存储介质
CN110931007A (zh) * 2019-12-04 2020-03-27 苏州思必驰信息科技有限公司 语音识别方法及系统
CN110956957A (zh) * 2019-12-23 2020-04-03 苏州思必驰信息科技有限公司 语音增强模型的训练方法及系统
CN111540346A (zh) * 2020-05-13 2020-08-14 慧言科技(天津)有限公司 一种远场声音分类方法和装置
CN111696567A (zh) * 2020-06-12 2020-09-22 苏州思必驰信息科技有限公司 用于远场通话的噪声估计方法及系统
CN111816193A (zh) * 2020-08-12 2020-10-23 深圳市友杰智新科技有限公司 基于多段网络的语音唤醒方法、装置及存储介质
CN112017681A (zh) * 2020-09-07 2020-12-01 苏州思必驰信息科技有限公司 定向语音的增强方法及系统
CN112017682A (zh) * 2020-09-18 2020-12-01 中科极限元(杭州)智能科技股份有限公司 一种单通道语音同时降噪和去混响系统
CN112201262A (zh) * 2020-09-30 2021-01-08 珠海格力电器股份有限公司 一种声音处理方法及装置
CN111933114A (zh) * 2020-10-09 2020-11-13 深圳市友杰智新科技有限公司 语音唤醒混合模型的训练方法、使用方法和相关设备

Also Published As

Publication number Publication date
CN112992170A (zh) 2021-06-18

Similar Documents

Publication Publication Date Title
CN110992974B (zh) 语音识别方法、装置、设备以及计算机可读存储介质
CN108899044B (zh) 语音信号处理方法及装置
CN110288997A (zh) 用于声学组网的设备唤醒方法及系统
CN110265052B (zh) 收音设备的信噪比确定方法、装置、存储介质及电子装置
CN103886857B (zh) 一种噪声控制方法及设备
CN111798852B (zh) 语音唤醒识别性能测试方法、装置、系统及终端设备
CN112017681B (zh) 定向语音的增强方法及系统
KR101344435B1 (ko) 음성의 표적화 및 잡음의 무시에 의한 음성 신호의 프로세싱에 있어서 잡음 감소를 위한 시스템 및 방법
CN109658935B (zh) 多通道带噪语音的生成方法及系统
CN109461449A (zh) 用于智能设备的语音唤醒方法及系统
CN110347366B (zh) 音量调节方法、终端设备、存储介质及电子设备
CN108536418A (zh) 一种无线音箱播放模式切换的方法、装置及无线音箱
CN110956976B (zh) 一种回声消除方法、装置、设备及可读存储介质
WO2023061258A1 (zh) 音频处理方法、装置、存储介质及计算机程序
CN113593548A (zh) 智能设备的唤醒方法和装置、存储介质及电子装置
CN107959882A (zh) 基于视频观看记录的语音变换方法、装置、终端及介质
CN108566706A (zh) 闪光灯控制方法、装置、终端设备及存储介质
CN110097871B (zh) 一种语音数据处理方法及装置
CN112992170B (zh) 模型训练方法及装置、存储介质及电子装置
CN110277093B (zh) 音频信号的检测方法及装置
CN108449492A (zh) 语音通话数据处理方法、装置、存储介质及移动终端
CN116647780A (zh) 一种用于蓝牙耳机的降噪控制系统及方法
Lopez-Ballester et al. AI-IoT platform for blind estimation of room acoustic parameters based on deep neural networks
CN113921007B (zh) 提升远场语音交互性能的方法和远场语音交互系统
CN112466305B (zh) 饮水机的语音控制方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant