CN112466327A - 语音处理方法、装置和电子设备 - Google Patents

语音处理方法、装置和电子设备 Download PDF

Info

Publication number
CN112466327A
CN112466327A CN202011147949.6A CN202011147949A CN112466327A CN 112466327 A CN112466327 A CN 112466327A CN 202011147949 A CN202011147949 A CN 202011147949A CN 112466327 A CN112466327 A CN 112466327A
Authority
CN
China
Prior art keywords
voice
frequency
directional
complex
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011147949.6A
Other languages
English (en)
Other versions
CN112466327B (zh
Inventor
李峥
魏建强
吴晓潭
张国昌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202011147949.6A priority Critical patent/CN112466327B/zh
Publication of CN112466327A publication Critical patent/CN112466327A/zh
Application granted granted Critical
Publication of CN112466327B publication Critical patent/CN112466327B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

本申请公开了语音处理方法、装置和电子设备,涉及语音、自然语言处理、深度学习技术领域。具体实现方案为:获取用户的语音提取指令,所述语音提取指令中包括语音提取方向;所述语音提取方向为全向方向,则将待处理语音各频率对应的方向特征向量置为1;所述语音提取方向为定向方向,则根据所述定向方向和所述频率计算所述频率对应的所述方向特征向量;根据所述方向特征向量生成注意力因子;根据所述注意力因子对所述待处理语音进行处理,得到目标语音。该方法可从待处理语音中提取出所有方向的说话人语音,或者从待处理语音中提取出定向方向的说话人语音,可同时兼顾音频通讯应用场景和远场语音交互应用场景,适用性较好。

Description

语音处理方法、装置和电子设备
技术领域
本申请涉及计算机技术领域中的语音、自然语言处理、深度学习技术领域,尤其涉及一种语音处理方法、装置、电子设备和存储介质。
背景技术
目前,语音处理技术在音频通讯、远场语音交互等领域得到了广泛应用,音频通讯应用场景中,一般需要在抑制噪声的同时保留现场所有说话人语音,远场语音交互应用场景中,一般需要抑制噪声和其他说话人(特定说话人以外)语音,仅保留特定说话人语音。然而,相关技术中的语音处理方法,大多仅能应用在一个应用场景下,无法同时兼顾多个应用场景,适用性较差。
发明内容
提供了一种语音处理方法、装置、电子设备和存储介质。
根据第一方面,提供了一种语音处理方法,包括:获取用户的语音提取指令,所述语音提取指令中包括语音提取方向;所述语音提取方向为全向方向,则将待处理语音各频率对应的方向特征向量置为1;所述语音提取方向为定向方向,则根据所述定向方向和所述频率计算所述频率对应的所述方向特征向量;根据所述方向特征向量生成注意力因子;根据所述注意力因子对所述待处理语音进行处理,得到目标语音。
根据第二方面,提供了一种语音处理装置,包括:获取模块,用于获取用户的语音提取指令,所述语音提取指令中包括语音提取方向;全向模块,用于所述语音提取方向为全向方向,则将待处理语音各频率对应的方向特征向量置为1;定向模块,用于所述语音提取方向为定向方向,则根据所述定向方向和所述频率计算所述频率对应的所述方向特征向量;生成模块,用于根据所述方向特征向量生成注意力因子;处理模块,用于根据所述注意力因子对所述待处理语音进行处理,得到目标语音。
根据第三方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请第一方面所述的语音处理方法。
根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本申请第一方面所述的语音处理方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的语音处理方法的流程示意图;
图2是根据本申请第二实施例的语音处理方法中根据定向方向和频率计算频率对应的方向特征向量的流程示意图;
图3是根据本申请第三实施例的语音处理方法中根据注意力因子对待处理语音进行处理,得到目标语音的流程示意图;
图4是根据本申请第四实施例的语音处理系统的示意图;
图5是根据本申请第五实施例的麦克风拾音信号图;
图6是图5所示的麦克风拾音信号采用自适应波束增强算法处理后的信号图;
图7是图5所示的麦克风拾音信号采用本申请实施例的语音处理方法处理后的信号图;
图8是本申请第六实施例的麦克风拾音信号图;
图9是图8所示的麦克风拾音信号采用本申请实施例的语音处理方法进行全向提取后的信号图;
图10是图8所示的麦克风拾音信号采用本申请实施例的语音处理方法进行定向提取后的信号图;
图11是根据本申请第一实施例的语音处理装置的框图;
图12是根据本申请第二实施例的语音处理装置的框图;
图13是用来实现本申请实施例的语音处理方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
语音可包括语音识别、语音分离、语音交互等技术领域,是人工智能领域中的一个重要方向。
语音分离(Voice Separation)是一种将目标语音从背景干扰中分离出来的技术,广泛应用于听力假体、移动通信、鲁棒的自动语音识别以及说话人识别等领域。
语音识别(Voice Recognition)是一种让机器通过识别和理解过程把语音信号转变为相应的文本或命令的技术,主要包括特征提取技术、模式匹配准则及模型训练技术三个方面。
语音交互(Voice Interaction)是一种机器与用户以语音为信息载体进行互动、沟通、信息交换等交互行为的技术,相较于传统的人机交互,具有方便快捷、用户舒适性高的优点。
自然语言处理(Natural Language Processing,NLU)是研究能有效地实现自然语言通信的计算机系统,特别是其中的软件系统的一门科学,是计算机科学领域与人工智能领域中的一个重要方向。
深度学习(Deep Learning,DL)是机器学习(Machine Learning,ML)领域中一个新的研究方向,是学习样本数据的内在规律和表示层次,使得机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据的一门科学,广泛应用于语音和图像识别。
图1是根据本申请第一实施例的语音处理方法的流程示意图。
如图1所示,本申请第一实施例的语音处理方法包括:
S101,获取用户的语音提取指令,语音提取指令中包括语音提取方向。
需要说明的是,本申请实施例的语音处理方法的执行主体可为具有数据信息处理能力的硬件设备和/或驱动该硬件设备工作所需必要的软件。可选的,执行主体可包括工作站、服务器,计算机、用户终端及其他设备。其中,用户终端包括但不限于手机、电脑、智能语音交互设备、智能家电、车载终端等。本申请中的语音处理方法的执行主体以语音处理模型为例。
本公开的实施例中,当用户想要从待处理语音中提取目标语音时,用户可发出语音提取指令,语音提取指令中包括语音提取方向。进一步地,语音处理模型可获取用户的语音提取指令。
S102,语音提取方向为全向方向,则将待处理语音各频率对应的方向特征向量置为1。
本公开的实施例中,语音提取方向为全向方向时,表明此时对待处理语音的所有方向的说话人语音都进行提取,可将待处理语音各频率对应的方向特征向量置为1。
S103,语音提取方向为定向方向,则根据定向方向和频率计算频率对应的方向特征向量。
本公开的实施例中,语音提取方向为定向方向时,表明此时对待处理语音的某个定向方向的说话人语音进行提取,此时可根据定向方向和频率计算频率对应的方向特征向量。
可以理解的是,不同的定向方向和频率可对应不同的方向特征向量。
S104,根据方向特征向量生成注意力因子。
可选的,根据方向特征向量生成注意力因子,可包括将方向特征向量输入到方向注意力(Attention)模块中,以得到注意力因子。其中,方向注意力模块可为波达方向注意力(Direction Of Arrival Attention,DOA-Attention)模块。
S105,根据注意力因子对待处理语音进行处理,得到目标语音。
本公开的实施例中,根据注意力因子对待处理语音进行处理,得到目标语音,可包括根据注意力因子从待处理语音中提取出语音提取方向指示的目标语音。
例如,语音提取方向为全向方向时,待处理语音各频率对应的方向特征向量为1,根据方向特征向量生成注意力因子之后,可根据注意力因子从待处理语音中提取出所有方向的说话人语音,作为目标语音。由此,该方法在语音提取方向为全向方向时,可从待处理语音中提取出所有方向的说话人语音,可应用于需要保留所有说话人语音的场景,例如音频通讯应用场景。
或者,语音提取方向为定向方向时,可根据定向方向和频率计算频率对应的方向特征向量,根据方向特征向量生成注意力因子之后,可根据注意力因子从待处理语音中提取出定向方向的说话人语音,作为目标语音。由此,该方法在语音提取方向为定向方向时,可从待处理语音中提取出定向方向的说话人语音,可应用于仅保留特定说话人语音的场景,例如远场语音交互应用场景。
综上,根据本申请实施例的语音处理方法,可根据语音提取方向计算待处理语音各频率对应的方向特征向量,之后可根据方向特征向量生成注意力因子,并根据注意力因子对待处理语音进行处理,得到目标语音。该方法在语音提取方向为全向方向时,可从待处理语音中提取出所有方向的说话人语音,可应用于需要保留所有说话人语音的场景,例如音频通讯场景。该方法在语音提取方向为定向方向时,可从待处理语音中提取出定向方向的说话人语音,可应用于仅保留特定说话人语音的场景,例如远场语音交互场景,可同时兼顾音频通讯应用场景和远场语音交互应用场景,适用性较好。
在上述任一实施例的基础上,如图2所示,步骤S103中根据定向方向和频率计算频率对应的方向特征向量,可包括:
S201,根据定向方向计算目标声源到麦克风阵列的时延差。
例如,若麦克风阵列包括2个麦克风,按照球面波假设,若目标声源与2个麦克风的连线端射方向的夹角为a,则目标声源到2个麦克风的时延差的计算公式如下:
Figure BDA0002740260450000051
其中,τ为时延差,d为2个麦克风的距离,c为声速。
S202,根据时延差和频率计算目标方向导向矢量。
可选的,根据时延差和频率计算目标方向导向矢量的公式如下:
Figure BDA0002740260450000052
其中,At,f为目标方向导向矢量,j为复数中虚数单位,f为频率,τt为t时刻的时延差。
S203,计算麦克风阵列的实际相位差。
可选的,可根据麦克风阵列中每个麦克风的相位,计算麦克风阵列的实际相位差。
以麦克风阵列包括2个麦克风为例,麦克风阵列的实际相位差的计算公式如下:
Figure BDA0002740260450000053
其中,Rt,f为麦克风阵列的实际相位差,j为复数中虚数单位,θm1,f为第一个麦克风的相位,θm2,f为第二个麦克风的相位。
S204,计算目标方向导向矢量和实际相位差之间的余弦距离。
可选的,计算目标方向导向矢量和实际相位差之间的余弦距离的公式如下:
dt,f=Real(At,f*RH t,f)
其中,dt,f为目标方向导向矢量和实际相位差之间的余弦距离,At,f为目标方向导向矢量,RH t,f为麦克风阵列的实际相位差Rt,f的转置。
S205,将余弦距离确定为方向特征向量。
由此,该方法可根据定向方向计算目标声源到麦克风阵列的时延差,然后根据时延差和频率计算目标方向导向矢量,之后计算麦克风阵列的实际相位差,之后计算目标方向导向矢量和实际相位差之间的余弦距离,将余弦距离确定为方向特征向量。
在上述任一实施例的基础上,步骤S103中语音提取方向为定向方向时,若定向方向为多个,表明此时对待处理语音的多个定向方向的说话人语音进行提取,此时可将同一频率对应的多个方向特征向量中的最大值确定为频率对应的方向特征向量。
例如,若语音提取方向为60度和90度,则可根据60度和频率计算频率对应的60度方向特征向量,以及根据90度和频率计算频率对应的90度方向特征向量,若同一频率对应的60度方向特征向量大于或者等于90度方向特征向量,可将60度方向特征向量作为该频率对应的方向特征向量,反之,若同一频率对应的60度方向特征向量小于90度方向特征向量,可将90度方向特征向量作为该频率对应的方向特征向量,以实现对待处理语音的60度、90度方向的说话人语音的提取。
由此,该方法可在语音提取方向为多个定向方向时,将同一频率对应的多个方向特征向量中的最大值确定为频率对应的方向特征向量,以实现对待处理语音的多个定向方向的说话人语音的提取。
在上述任一实施例的基础上,步骤S103中根据定向方向和频率计算频率对应的方向特征向量之后,还可包括若方向特征向量大于预设的向量阈值,则将方向特征向量置为1,以及若方向特征向量等于或者小于向量阈值,则将方向特征向量置为0。
可以理解的是,若方向特征向量大于预设的向量阈值,表明方向特征向量较大,方向特征向量对应的定向方向与实际声源之间的夹角较小,该定向方向与实际声源之间的相关性较大,此时可将方向特征向量置为1,以降低该定向方向所提取出的目标语音的失真。
反之,若方向特征向量等于或者小于向量阈值,表明方向特征向量较小,方向特征向量对应的定向方向与实际声源之间的夹角较大,该定向方向与实际声源之间的相关性较小,此时可将方向特征向量置为0,以抑制该定向方向对语音处理的干扰。
其中,向量阈值可根据实际情况进行标定。可选的,可获取定向方向与实际声源之间的夹角阈值,然后将夹角阈值的余弦值作为向量阈值。
例如,若定向方向与实际声源之间的夹角阈值为20度,则可将cos20°作为向量阈值,则此时可降低夹角20度以内的定向方向所提取出的目标语音的失真,以及抑制夹角20度以外的定向方向对语音处理的干扰。
由此,该方法通过在根据定向方向和频率计算频率对应的方向特征向量之后,还可包括根据方向特征向量和预设的向量阈值的大小关系,将方向特征向量赋值为0或1,有助于降低某些定向方向所提取出的目标语音的失真,以及抑制某些定向方向对语音处理的干扰。
在上述任一实施例的基础上,步骤S103中根据定向方向和频率计算频率对应的方向特征向量之后,还可包括将某个定向方向对应的方向特征向量置为0,以抑制该定向方向对语音处理的干扰。
例如,若语音提取方向为60度和90度,则可根据60度和频率计算频率对应的60度方向特征向量,以及根据90度和频率计算频率对应的90度方向特征向量,若同一频率对应的60度方向特征向量大于或者等于90度方向特征向量,说明60度定向方向与实际声源之间的相关性较大,则可将90度对应的方向特征向量置为0,以抑制90度定向方向对语音处理的干扰。
在上述任一实施例的基础上,如图3所示,步骤S105中根据注意力因子对待处理语音进行处理,得到目标语音,可包括:
S301,通过麦克风阵列获取多个时域待处理语音。
本公开的实施例中,可通过语音采集装置来获取多个时域待处理语音,本申请中以语音采集装置为麦克风阵列为例。
可选的,麦克风阵列包括至少两个麦克风,麦克风获取语音的采样频率包括但不限于8KHz(千赫兹)、16KHz、24KHz等,这里不做过多限定。
S302,采用编码器将多个时域待处理语音转换为复数多通道时域频域特征。
可选的,编码器(Encoder)包括但不限于子带分解算法、傅立叶变换(FourierTransform)算法、深度学习(Deep Learning,DL)网络的卷积层(Convolutional layer)等,这里不做过多限定。
S303,将注意力因子输入至复数卷积神经网络、实数卷积神经网络或递归神经网络中。
本公开的实施例中,可将注意力因子输入至复数卷积神经网络(ComplexConvolutional Neural Network,CCNN)、实数卷积神经网络(Convolutional NeuralNetwork,CNN)或递归神经网络(Recurrent Neural Network,RNN)中,以使得网络根据注意力因子从待处理语音中对全向方向或者定向方向的说话人语音进行提取。
可选的,将注意力因子输入至复数卷积神经网络、实数卷积神经网络或递归神经网络中,可包括将注意力因子作为权重输入到复数卷积神经网络或实数卷积神经网络中,或者将注意力因子拼接到实数卷积神经网络得到的包括方向和频域的第一网络特征,然后将拼接后的第一网络特征直接输入到递归神经网络。
S304,采用复数卷积神经网络,将复数多通道时域频域特征转换为复数多方向时域频域特征。
可以理解的是,复数卷积神经网络可提供前后数帧和左右多个频带的视野,将复数多通道时域频域特征转换为复数多方向时域频域特征,可分离方向特征。
可选的,复数卷积神经网络可与复数全连接(Fully connected)模块、复数最大池化(Max-Pooling)模块以及复数批量归一化(Batch Normalization,BN)模块相连,以增加网络收敛能力和泛华能力。
S305,对复数多方向时域频域特征进行模计算,得到实数域多方向时域频域幅度特征。
S306,采用实数卷积神经网络,对多方向时域频域幅度特征进行维度融合处理,得到包括方向和频域的第一网络特征。
可以理解的是,实数卷积神经网络可对多方向时域频域幅度特征进行空间、时间、频域三个维度的融合处理,得到包括方向和频域的第一网络特征。
可选的,实数卷积神经网络可与激活模块和批量归一化(Batch Normalization,BN)模块相连,以增加网络收敛能力和泛华能力。
S307,采用递归神经网络,对第一网络特征进行处理,得到第二网络特征。
可以理解的是,递归神经网络频带之间的全连接特性可利用语音频谱之间的相关性,从而提高语音处理的准确性。
可选的,递归神经网络包括但不限于长短期记忆网络(Long Short-term Memory,LSTM)、门控循环单元网络(Gated Recurrent Units,GRU)、时域卷积网络(TemporalConvolutional Network,TCN)等,这里不做过多限定。
S308,对第二网络特征进行激活处理,得到掩码值。
可选的,掩码值可为实数或者复数,当掩码值为复数时,能够恢复语音的相位,有助于降低目标语音的失真。
可选的,掩码值为实数时,掩码值的取值范围可为[0,1]。掩码值越接近1,表明该频点对应的特征语音成分越多,需要在目标语音中保留。反之,掩码值越接近0,表明该频点对应的特征噪声等干扰成分越多,需要在目标语音中去除。
可选的,可利用激活函数对第二网络特征进行激活处理,得到掩码值。其中,激活函数包括但不限于sigmoid、tanh、relu等,这里不做过多限定。
S309,根据掩码值和复数多通道时域频域特征生成掩码处理后的复数多通道时域频域特征。
可选的,根据掩码值和复数多通道时域频域特征生成掩码处理后的复数多通道时域频域特征,可包括将掩码值作为增益因子与复数多通道时域频域特征相乘,以得到掩码处理后的复数多通道时域频域特征。
S310,采用解码器对掩码处理后的复数多通道时域频域特征进行处理,得到目标语音。
可以理解的是,解码器(Decoder)可对掩码处理后的复数多通道时域频域特征进行处理,以得到时域的目标语音。
可选的,解码器包括但不限于子带合成器、逆傅立叶变换(Inverse Fouriertransform)算法、深度学习网络的卷积层等,这里不做过多限定。
由此,该方法可先通过麦克风阵列获取时域待处理语音,然后通过编码器、复数卷积神经网络、实数卷积神经网络、递归神经网络、注意力因子、激活层、解码器对时域待处理语音进行处理,最后得到目标语音。
如图4所示,语音处理系统可包括麦克风阵列、编码器、复数卷积神经网络、实数卷积神经网络、递归神经网络、方向注意力模块、激活层、解码器。其中,方向注意力模块可分别与复数卷积神经网络、实数卷积神经网络、递归神经网络相连接。
麦克风阵列可获取多个时域待处理语音,并将多个时域待处理语音输入至编码器,编码器可将多个时域待处理语音转换为复数多通道时域频域特征,并将复数多通道时域频域特征输入至复数卷积神经网络和解码器,复数卷积神经网络可将复数多通道时域频域特征转换为复数多方向时域频域特征,并将复数多方向时域频域特征输入至实数卷积神经网络,实数卷积神经网络可对复数多方向时域频域特征进行模计算,得到实数域多方向时域频域幅度特征,并对多方向时域频域幅度特征进行维度融合处理,得到包括方向和频域的第一网络特征,并可将第一网络特征输入至递归神经网络,递归神经网络可对第一网络特征进行处理,得到第二网络特征,并将第二网络特征输入至激活层,激活层可对第二网络特征进行激活处理,得到掩码值,并将掩码值输入至解码器,解码器可将掩码值和复数多通道时域频域特征生成掩码处理后的复数多通道时域频域特征,并对掩码处理后的复数多通道时域频域特征进行处理,得到目标语音。
在上述处理的期间,方向注意力模块可根据方向特征向量生成注意力因子,并将注意力因子输入至复数卷积神经网络、实数卷积神经网络或递归神经网络中。
下面以两个实施例来说明本申请实施例的语音处理方法的效果。
第五实施例:
图5是本申请第五实施例的麦克风拾音信号图,方块内表示特定说话人的语音信号,其他部分(方块以外)表示背景噪声,背景噪声包含环境噪声,也包括其他方向的人声干扰。
图6是图5所示的麦克风拾音信号采用自适应波束增强算法处理后的信号图,如图6所示,某些方向的人声干扰没有被很好的抑制,同时特定说话人语音也存在明显的损伤。
图7是图5所示的麦克风拾音信号采用本申请实施例的语音处理方法处理后的信号图,定向方向为90度,如图7所示,噪声抑制效果较好,且特定说话人语音无明显损伤。
综上,如图5至图7所示,本申请实施例的语音处理方法,相较于自适应波束增强算法,对噪声的抑制效果更好,且特定说话人语音的失真度降低。
第六实施例:
图8是本申请第六实施例的麦克风拾音信号图,实线方块内表示第一说话人的语音信号,方向为90度,虚线方块内表示第二说话人的语音信号,方向为60度,椭圆形方块内表示背景噪声。
图9是图8所示的麦克风拾音信号采用本申请实施例的语音处理方法进行全向提取后的信号图,如图9所示,实线方块、虚线方块内的第一说话人语音、第二说话人语音被保留且失真度较低。
图10是图8所示的麦克风拾音信号采用本申请实施例的语音处理方法进行定向提取后的信号图,定向方向为90度,如图10所示,实线方块内的第一说话人语音被保留,虚线方块内的第二说话人语音和椭圆形方块内的背景噪声被抑制
综上,如图8至图10所示,本申请实施例的语音处理方法,可同时兼顾音频通讯应用场景和远场语音交互应用场景,适用性较好。
图11是根据本申请第一实施例的语音处理装置的框图。
如图11所示,本申请实施例的语音处理装置400,包括:获取模块401、全向模块402、定向模块403、生成模块404和处理模块405。
获取模块401,用于获取用户的语音提取指令,所述语音提取指令中包括语音提取方向。
全向模块402,用于所述语音提取方向为全向方向,则将待处理语音各频率对应的方向特征向量置为1。
定向模块403,用于所述语音提取方向为定向方向,则根据所述定向方向和所述频率计算所述频率对应的所述方向特征向量。
生成模块404,用于根据所述方向特征向量生成注意力因子。
处理模块405,用于根据所述注意力因子对所述待处理语音进行处理,得到目标语音。
在本申请的一个实施例中,所述定向方向为多个,所述定向模块还用于:将同一频率对应的多个所述方向特征向量中的最大值确定为所述频率对应的所述方向特征向量。
在本申请的一个实施例中,如图12所示,所述语音处理装置400,还包括:赋值模块406,所述赋值模块406,用于:所述方向特征向量大于预设的向量阈值,则将所述方向特征向量置为1;所述方向特征向量等于或者小于所述向量阈值,则将所述方向特征向量置为0。
在本申请的一个实施例中,所述定向模块403,包括:第一计算单元,用于根据所述定向方向计算目标声源到麦克风阵列的时延差;第二计算单元,用于根据所述时延差和所述频率计算目标方向导向矢量;第三计算单元,用于计算所述麦克风阵列的实际相位差;第四计算单元,用于计算所述目标方向导向矢量和所述实际相位差之间的余弦距离;确定单元,用于将所述余弦距离确定为所述方向特征向量。
在本申请的一个实施例中,所述处理模块405,包括:获取单元,用于通过麦克风阵列获取多个时域待处理语音;编码单元,用于采用编码器将所述多个时域待处理语音转换为复数多通道时域频域特征;输入单元,用于将所述注意力因子输入至复数卷积神经网络、实数卷积神经网络或递归神经网络中;第一网络单元,用于采用所述复数卷积神经网络,将所述复数多通道时域频域特征转换为复数多方向时域频域特征;模计算单元,用于对所述复数多方向时域频域特征进行模计算,得到实数域多方向时域频域幅度特征;第二网络单元,用于采用所述实数卷积神经网络,对所述多方向时域频域幅度特征进行维度融合处理,得到包括方向和频域的第一网络特征;第三网络单元,用于采用所述递归神经网络,对所述第一网络特征进行处理,得到第二网络特征;激活单元,用于对所述第二网络特征进行激活处理,得到掩码值;生成单元,用于根据所述掩码值和所述复数多通道时域频域特征生成掩码处理后的复数多通道时域频域特征;解码单元,用于采用解码器对所述掩码处理后的复数多通道时域频域特征进行处理,得到所述目标语音。
综上,根据本申请实施例的语音处理装置,可根据语音提取方向计算待处理语音各频率对应的方向特征向量,之后可根据方向特征向量生成注意力因子,并根据注意力因子对待处理语音进行处理,得到目标语音。该方法在语音提取方向为全向方向时,可从待处理语音中提取出所有方向的说话人语音,可应用于需要保留所有说话人语音的场景,例如音频通讯场景。该方法在语音提取方向为定向方向时,可从待处理语音中提取出定向方向的说话人语音,可应用于仅保留特定说话人语音的场景,例如远场语音交互场景,可同时兼顾音频通讯应用场景和远场语音交互应用场景,适用性较好。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图13所示,是根据本申请实施例的语音处理方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,智能语音交互设备、个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图13所示,该电子设备包括:一个或多个处理器501、存储器502,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器501可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图13中以一个处理器501为例。
存储器502即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的语音处理方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的语音处理方法。
存储器502作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的语音处理方法对应的程序指令/模块(例如,附图11所示的获取模块401、全向模块402、定向模块403、生成模块404和处理模块405)。处理器501通过运行存储在存储器502中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的语音处理方法。
存储器502可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据语音处理方法的电子设备的使用所创建的数据等。此外,存储器502可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器502可选包括相对于处理器501远程设置的存储器,这些远程存储器可以通过网络连接至语音处理方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
语音处理方法的电子设备还可以包括:输入装置503和输出装置504。处理器501、存储器502、输入装置503和输出装置504可以通过总线或者其他方式连接,图13中以通过总线连接为例。
输入装置503可接收输入的数字或字符信息,以及产生与语音处理方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置504可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。
根据本申请实施例的技术方案,可根据语音提取方向计算待处理语音各频率对应的方向特征向量,之后可根据方向特征向量生成注意力因子,并根据注意力因子对待处理语音进行处理,得到目标语音。该方法在语音提取方向为全向方向时,可从待处理语音中提取出所有方向的说话人语音,可应用于需要保留所有说话人语音的场景,例如音频通讯场景。该方法在语音提取方向为定向方向时,可从待处理语音中提取出定向方向的说话人语音,可应用于仅保留特定说话人语音的场景,例如远场语音交互场景,可同时兼顾音频通讯应用场景和远场语音交互应用场景,适用性较好。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (12)

1.一种语音处理方法,包括:
获取用户的语音提取指令,所述语音提取指令中包括语音提取方向;
所述语音提取方向为全向方向,则将待处理语音各频率对应的方向特征向量置为1;
所述语音提取方向为定向方向,则根据所述定向方向和所述频率计算所述频率对应的所述方向特征向量;
根据所述方向特征向量生成注意力因子;
根据所述注意力因子对所述待处理语音进行处理,得到目标语音。
2.根据权利要求1所述的语音处理方法,所述定向方向为多个,所述语音处理方法还包括:
将同一频率对应的多个所述方向特征向量中的最大值确定为所述频率对应的所述方向特征向量。
3.根据权利要求1或2所述的语音处理方法,还包括:
所述方向特征向量大于预设的向量阈值,则将所述方向特征向量置为1;
所述方向特征向量等于或者小于所述向量阈值,则将所述方向特征向量置为0。
4.根据权利要求1所述的语音处理方法,所述根据所述定向方向和所述频率计算所述频率对应的所述方向特征向量,包括:
根据所述定向方向计算目标声源到麦克风阵列的时延差;
根据所述时延差和所述频率计算目标方向导向矢量;
计算所述麦克风阵列的实际相位差;
计算所述目标方向导向矢量和所述实际相位差之间的余弦距离;
将所述余弦距离确定为所述方向特征向量。
5.根据权利要求1所述的语音处理方法,所述根据所述注意力因子对所述待处理语音进行处理,得到目标语音,包括:
通过麦克风阵列获取多个时域待处理语音;
采用编码器将所述多个时域待处理语音转换为复数多通道时域频域特征;
将所述注意力因子输入至复数卷积神经网络、实数卷积神经网络或递归神经网络中;
采用所述复数卷积神经网络,将所述复数多通道时域频域特征转换为复数多方向时域频域特征;
对所述复数多方向时域频域特征进行模计算,得到实数域多方向时域频域幅度特征;
采用所述实数卷积神经网络,对所述多方向时域频域幅度特征进行维度融合处理,得到包括方向和频域的第一网络特征;
采用所述递归神经网络,对所述第一网络特征进行处理,得到第二网络特征;
对所述第二网络特征进行激活处理,得到掩码值;
根据所述掩码值和所述复数多通道时域频域特征生成掩码处理后的复数多通道时域频域特征;
采用解码器对所述掩码处理后的复数多通道时域频域特征进行处理,得到所述目标语音。
6.一种语音处理装置,包括:
获取模块,用于获取用户的语音提取指令,所述语音提取指令中包括语音提取方向;
全向模块,用于所述语音提取方向为全向方向,则将待处理语音各频率对应的方向特征向量置为1;
定向模块,用于所述语音提取方向为定向方向,则根据所述定向方向和所述频率计算所述频率对应的所述方向特征向量;
生成模块,用于根据所述方向特征向量生成注意力因子;
处理模块,用于根据所述注意力因子对所述待处理语音进行处理,得到目标语音。
7.根据权利要求6所述的语音处理装置,所述定向方向为多个,所述定向模块还用于:
将同一频率对应的多个所述方向特征向量中的最大值确定为所述频率对应的所述方向特征向量。
8.根据权利要求6或7所述的语音处理装置,所述装置还包括:赋值模块,所述赋值模块,用于:
所述方向特征向量大于预设的向量阈值,则将所述方向特征向量置为1;
所述方向特征向量等于或者小于所述向量阈值,则将所述方向特征向量置为0。
9.根据权利要求6所述的语音处理装置,所述定向模块,包括:
第一计算单元,用于根据所述定向方向计算目标声源到麦克风阵列的时延差;
第二计算单元,用于根据所述时延差和所述频率计算目标方向导向矢量;
第三计算单元,用于计算所述麦克风阵列的实际相位差;
第四计算单元,用于计算所述目标方向导向矢量和所述实际相位差之间的余弦距离;
确定单元,用于将所述余弦距离确定为所述方向特征向量。
10.根据权利要求6所述的语音处理装置,所述处理模块,包括:
获取单元,用于通过麦克风阵列获取多个时域待处理语音;
编码单元,用于采用编码器将所述多个时域待处理语音转换为复数多通道时域频域特征;
输入单元,用于将所述注意力因子输入至复数卷积神经网络、实数卷积神经网络或递归神经网络中;
第一网络单元,用于采用所述复数卷积神经网络,将所述复数多通道时域频域特征转换为复数多方向时域频域特征;
模计算单元,用于对所述复数多方向时域频域特征进行模计算,得到实数域多方向时域频域幅度特征;
第二网络单元,用于采用所述实数卷积神经网络,对所述多方向时域频域幅度特征进行维度融合处理,得到包括方向和频域的第一网络特征;
第三网络单元,用于采用所述递归神经网络,对所述第一网络特征进行处理,得到第二网络特征;
激活单元,用于对所述第二网络特征进行激活处理,得到掩码值;
生成单元,用于根据所述掩码值和所述复数多通道时域频域特征生成掩码处理后的复数多通道时域频域特征;
解码单元,用于采用解码器对所述掩码处理后的复数多通道时域频域特征进行处理,得到所述目标语音。
11.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的语音处理方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的语音处理方法。
CN202011147949.6A 2020-10-23 2020-10-23 语音处理方法、装置和电子设备 Active CN112466327B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011147949.6A CN112466327B (zh) 2020-10-23 2020-10-23 语音处理方法、装置和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011147949.6A CN112466327B (zh) 2020-10-23 2020-10-23 语音处理方法、装置和电子设备

Publications (2)

Publication Number Publication Date
CN112466327A true CN112466327A (zh) 2021-03-09
CN112466327B CN112466327B (zh) 2022-02-22

Family

ID=74834493

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011147949.6A Active CN112466327B (zh) 2020-10-23 2020-10-23 语音处理方法、装置和电子设备

Country Status (1)

Country Link
CN (1) CN112466327B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113539292A (zh) * 2021-07-28 2021-10-22 联想(北京)有限公司 语音分离方法及装置
CN114596879A (zh) * 2022-03-25 2022-06-07 北京远鉴信息技术有限公司 一种虚假语音的检测方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4918735A (en) * 1985-09-26 1990-04-17 Oki Electric Industry Co., Ltd. Speech recognition apparatus for recognizing the category of an input speech pattern
CN108206020A (zh) * 2016-12-16 2018-06-26 北京智能管家科技有限公司 一种语音识别方法、装置及终端设备
US20190289259A1 (en) * 2018-01-16 2019-09-19 Google Llc Controlling focus of audio signals on speaker during videoconference
CN111223488A (zh) * 2019-12-30 2020-06-02 Oppo广东移动通信有限公司 语音唤醒方法、装置、设备及存储介质
CN111402927A (zh) * 2019-08-23 2020-07-10 南京邮电大学 基于分段语谱图和双重Attention的语音情感识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4918735A (en) * 1985-09-26 1990-04-17 Oki Electric Industry Co., Ltd. Speech recognition apparatus for recognizing the category of an input speech pattern
CN108206020A (zh) * 2016-12-16 2018-06-26 北京智能管家科技有限公司 一种语音识别方法、装置及终端设备
US20190289259A1 (en) * 2018-01-16 2019-09-19 Google Llc Controlling focus of audio signals on speaker during videoconference
CN111402927A (zh) * 2019-08-23 2020-07-10 南京邮电大学 基于分段语谱图和双重Attention的语音情感识别方法
CN111223488A (zh) * 2019-12-30 2020-06-02 Oppo广东移动通信有限公司 语音唤醒方法、装置、设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
叶于林等: "多说话人环境下目标说话人语音提取方案", 《计算机系统应用》 *
朱向前: "基于混合注意力机制和CTC语音识别模型技术研究", 《电视技术》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113539292A (zh) * 2021-07-28 2021-10-22 联想(北京)有限公司 语音分离方法及装置
CN114596879A (zh) * 2022-03-25 2022-06-07 北京远鉴信息技术有限公司 一种虚假语音的检测方法、装置、电子设备及存储介质
CN114596879B (zh) * 2022-03-25 2022-12-30 北京远鉴信息技术有限公司 一种虚假语音的检测方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN112466327B (zh) 2022-02-22

Similar Documents

Publication Publication Date Title
CN110600018B (zh) 语音识别方法及装置、神经网络训练方法及装置
CN110600017B (zh) 语音处理模型的训练方法、语音识别方法、系统及装置
WO2020103703A1 (zh) 一种音频数据处理方法、装置、设备及存储介质
CN111370014A (zh) 多流目标-语音检测和信道融合
CN111883166B (zh) 一种语音信号处理方法、装置、设备以及存储介质
CN112489668B (zh) 去混响方法、装置、电子设备和存储介质
CN112466327B (zh) 语音处理方法、装置和电子设备
WO2022012206A1 (zh) 音频信号处理方法、装置、设备及存储介质
CN111862987B (zh) 语音识别方法和装置
JP7214798B2 (ja) 音声信号処理方法、音声信号処理装置、電子機器及び記憶媒体
CN114974280A (zh) 音频降噪模型的训练方法、音频降噪的方法及装置
CN112466318A (zh) 语音处理方法、装置及语音处理模型的生成方法、装置
CN115497500B (zh) 音频处理方法、装置、存储介质及智能眼镜
EP4172987A1 (en) Speech enhancement
CN115620727A (zh) 音频处理方法、装置、存储介质及智能眼镜
CN112542176B (zh) 信号增强方法、装置及存储介质
CN113077779A (zh) 一种降噪方法、装置、电子设备以及存储介质
WO2023183683A1 (en) Generalized automatic speech recognition for joint acoustic echo cancellation, speech enhancement, and voice separation
Bořil et al. GAN-based augmentation for gender classification from speech spectrograms
CN112201259B (zh) 声源定位方法、装置、设备和计算机存储介质
CN110838307B (zh) 语音消息处理方法及装置
CN113707149A (zh) 音频处理方法和装置
CN116868265A (zh) 用于动态声学环境中的数据增强和语音处理的系统和方法
CN112466305A (zh) 饮水机的语音控制方法及装置
Popović et al. Speech Enhancement Using Augmented SSL CycleGAN

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant