CN111179959A - 一种基于说话人嵌入空间的竞争说话人数量估计方法及系统 - Google Patents

一种基于说话人嵌入空间的竞争说话人数量估计方法及系统 Download PDF

Info

Publication number
CN111179959A
CN111179959A CN202010009945.5A CN202010009945A CN111179959A CN 111179959 A CN111179959 A CN 111179959A CN 202010009945 A CN202010009945 A CN 202010009945A CN 111179959 A CN111179959 A CN 111179959A
Authority
CN
China
Prior art keywords
speaker
multichannel
embedding
embedding space
microphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010009945.5A
Other languages
English (en)
Other versions
CN111179959B (zh
Inventor
曲天书
吴玺宏
彭超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN202010009945.5A priority Critical patent/CN111179959B/zh
Publication of CN111179959A publication Critical patent/CN111179959A/zh
Application granted granted Critical
Publication of CN111179959B publication Critical patent/CN111179959B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/45Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of analysis window
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02087Noise filtering the noise being separate speech, e.g. cocktail party
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming

Landscapes

  • Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Stereophonic System (AREA)

Abstract

本发明公开了一种基于说话人嵌入空间的竞争说话人数量估计方法及系统。本方法为:1)利用麦克风阵列采集多说话人的混合多通道信号;2)提取所述混合多通道信号的多通道幅度信息和多通道相位信息;3)利用深度神经网络分别估计所述多通道幅度信息的嵌入空间和多通道相位信息的嵌入空间;4)利用全连接层将两所述嵌入空间映射到说话人嵌入空间;其中,所述多通道幅度信息的嵌入空间、多通道相位信息的嵌入空间和说话人嵌入空间均为相同维度的嵌入空间;5)估计所述说话人嵌入空间中的嵌入向量的平均协方差矩阵;6)对所述平均协方差矩阵做特征值分解,将得到的秩的个数判定为说话人的数量。本发明能够实现更精确的竞争说话人数量估计。

Description

一种基于说话人嵌入空间的竞争说话人数量估计方法及系统
技术领域
本发明属于竞争说话人计数领域,涉及深度神经网络、嵌入空间和特征值分解,具体涉及一种基于嵌入空间(Embedding Space)的竞争说话人数量估计方法。
背景技术
在多个说话者同时讲话同时有其他干扰源的环境中,拾音目标说话者的声音一直是一个难题。
最近,许多基于深度学习的方法在这方面都进行了尝试,例如,置换不变训练(Permutation Invariant Training),深度聚类(Deep Clustering)和深度吸引子网络(Deep Attractor Network)。但是,这些语音分离方法都具有一个主要问题,即必须知道说话人的个数。同时,存在于复杂声学场景中的说话人数量不仅对于语音分离而且对于声音定位、音频监控和多说话人语音识别都是至关重要的信息。
然而,现有方法并不能直接获得真实环境中的竞争说话人的数量。幸运的是,在最近的说话人数量估计工作中,存在三种使用深度学习解决此问题的策略。第一个是通过说话人分割(Speaker Diarization)进行计数,它通过检测一个说话人在一段时间内何时开始讲话和何时结束讲话来进行计数;但这似乎是一个非常复杂的问题,并且当同时有多个源一起说话时(如在实际的鸡尾酒会环境中),现有的切割策略将失败。第二个是利用波达方向(DOA)计数,该方法通过手动确定阈值或检测峰的数量来确定;然而,在有语音重叠的多个说话人的情况下,它的效果非常不佳。最后一种策略是直接使用深度神经网络进行计数,它基于强大的机器学习技术,可将输入表示直接映射到说话者人数;尽管该策略可行,但缺乏数学上的可解释性。
发明内容
针对现有技术中存在的技术问题,本发明的目的在于提供一种基于深度联合嵌入学习的竞争说话人数量估计方法及系统。本发明首先引入了一种多通道方法,将单通道的混合语音幅度谱扩展到多通道特征;由于空间幅度信息和相位信息训练的嵌入矢量是互补的,因此本发明会首先训练空间幅度谱和相位谱的两个嵌入空间,然后再将其映射到相同的嵌入空间中。这种方法能够很好地估计竞争说话人的人数。
本发明的基本思想是使用神经网络将混合语音投影到说话人嵌入空间中,其中不同说话人的嵌入向量之间是正交的,而对于同一说话人是平行的。因此,可以通过计算嵌入矢量的平均协方差矩阵的秩来对说话者数量进行估计。这是一种新颖的在说话人嵌入空间中的一种特征拼接方法,而不是简单地在神经网络的输入层进行特征拼接。实验结果表明,在无混响和有混响的数据集上,本发明所提出的基于联合学习的方法比单通道和多通道说话者计数估计方法能够实现更精确的竞争说话人数量估计。
本发明的重要创新之处在于在已有的单通道方法基础上,利用联合学习分别学习幅度信息和相位信息的嵌入空间,接着再将其映射到同一个嵌入空间,最后利用这个嵌入空间中的嵌入向量的平均协方差矩阵的特征值分解估计说话人数量。
本发明的技术方案为:
一种基于说话人嵌入空间的的竞争说话人数量估计方法,其步骤包括:
1)首先,利用麦克风阵列采集多说话人的混合多通道信号;
2)在得到多通道信号后,分别提取多通道信号的多通道幅度信息和多通道相位信息;
3)利用深度神经网络分别估计幅度信息和相位信息的嵌入空间;
4)利用一个全连接层将两个嵌入空间映射到一个新的嵌入空间;
5)估计新嵌入空间中的所有嵌入向量的平均协方差矩阵;
6)对平均协方差矩阵做特征值分解,秩的个数就是说话人的数量。
进一步的,其他麦克风与参考麦克风之间的幅度差定义为参考麦克风的对数幅度谱加
Figure BDA0002356771670000021
其他麦克风与参考麦克风之间的相位差定义为参考麦克风的相位谱加FIPD=cos(∠Xt,f,p-∠Xt,f,q);其中,Xt,f,p为麦克风p在时间t和频率f的信号的短时傅里叶系数,Xt,f,q是麦克风q在时间t和频率f的信号的短时傅里叶系数。
进一步的,在所述嵌入空间中,对于由同一说话者主导的时频点,嵌入矢量在同一方向上平行,而对于由不同说话者主导的时频点则为正交。
进一步的,所述深度神经网络为BLSTM,其中,所述深度神经网络的损失函数为
Figure BDA0002356771670000022
其中,V为所述深度神经网络输出的D维深度嵌入特征,矩阵
Figure BDA0002356771670000023
矩阵A=YYT,Y∈RN×C是时频点的one-hot表示形式,代表标签信息,C是源的数量,N是时频点的个数。
进一步的,V=fθ(X)∈RN×D;X为输入所述深度神经网络的语音信号特征,fθ(*)是一个映射函数;当X为多通道幅度信息时,V为多通道幅度信息的嵌入空间;当X为多通道相位信息时,V为多通道相位信息的嵌入空间。
进一步的,估计的说话人数量
Figure BDA0002356771670000031
其中n(*)是计算说话人数量的运算,t为设定阈值,λi为所述平均协方差矩阵Re的第i个特征值,D为所述说话人嵌入空间的维度。
本发明提出的基于深度联合嵌入学习的竞争说话人数量估计方法的基本框架如图1所示,是一种基于联合学习的多通道方法,本系统主要包括以下几个部分:
多通道数据获取利用麦克风阵列获取多说话人的混合多通道音频数据。
多通道信号特征提取对于获取的多通道信号,分别提取信号的多通道幅度信息和多通道相位信息。其中多通道幅度信息包括麦克风阵列中参考麦克风的幅度谱和麦克风阵列中其他麦克风与参考麦克风间的幅度差,多通道相位信息包括参考麦克风的相位谱和其他麦克风与参考麦克风间的相位差。
幅度和相位嵌入空间估计利用深度神经网络强大的非线性建模能力,将输入的幅度信息和相位信息分别映射到各自的嵌入空间,也就是幅度嵌入空间和相位嵌入空间。其中神经网络在本发明中采用的是两层双向长短时记忆网络(BLSTM),输入是混合语音的特征,输出是估计的与特征对应的嵌入空间。
说话人嵌入空间映射由于幅度和相位的嵌入空间存在一定的互补性,故需要将两个嵌入空间重新映射到一个新的嵌入空间。这里映射使用的网络结构是一个全连接层,全连接层接在BLSTM的输出,也就是将两个D维的嵌入向量映射到一个D维的向量。
说话人数量估计计算新嵌入空间中的所有嵌入向量的平均协方差矩阵,接着对协方差矩阵做特征值分解。理论上来说,协方差矩阵的秩的个数就是竞争说话人的数量。
与现有技术相比,本发明的积极效果为:
本发明充分利用了幅度和相位信息的互补性,将现有的单通道计数方法扩展到多通道上,利用联合学习方法学习两者之间的互补性。此方法克服了现有的多说话人语音分离方法依赖说话人数量这一先验知识的不足,为未知说话人数量情况下的多说话人语音分离提供了可靠的解决方案。
附图说明
图1为本发明提出的提出的多说话人语音分离框架图;
图2为本发明中多通道数据采集所用的麦克风阵列图;
图3为无混响数据集上三种方法的平均说话人数量估计准确率对比图;
图4为有混响数据集上三种方法的平均说话人数量估计准确率对比图。
具体实施方式
下面参照本发明的附图,更详细地描述本发明的最佳实施例。图1所示为本发明提出的基于多通道联合学习的竞争说话人数量估计系统,本发明方法的具体实现步骤包括多通道数据获取、多通道信号特征提取、幅度和相位嵌入空间估计、新嵌入空间映射、说话人数量估计。各步骤的具体实现过程如下:
1.多通道数据获取
设计麦克风阵列,可以是线阵等一维麦克风阵列,可以是等边三角形阵、T型阵、均匀圆阵、均匀方阵、同轴圆阵、圆形/矩形面阵等二维麦克风阵列,也可以是四面体阵、正方体阵、长方体阵、球型阵等三维麦克风阵列。而本发明在后面验证的时候采用的是8麦克风均匀线阵。利用这些麦克风阵列采集多说话人的混合语音数据。
2.多通道信号特征提取
为了训练网络,通常在许多工作中使用了诸如通道间幅度差(ILD)和通道间相位差(IPD)之类的空间信息。以第一个麦克风为参考,本发明采用以下FIPD和FILD作为模型训练的附加特征:
FIPD=cos(∠Xt,f,p-∠Xt,f,q), (1)
Figure BDA0002356771670000041
其中Xt,f,p为麦克风p在时间t和频率f的信号的短时傅里叶系数,Xt,f,q是麦克风q在时间t和频率f的信号的短时傅里叶系数。
在本发明中,单通道竞争说话者计数估计系统(EBSC)被定义为BLSTM的输入仅仅只有参考麦克风通道的对数幅度谱,使用的网络结构依然是两层BLSTM,输出是嵌入向量。类似地,将图1所示的多通道幅度信息(Magnitute Information)中的其他麦克风与参考麦克风之间的幅度差定义为参考麦克风的对数幅度谱加FILD,而将多通道相位信息(PhaseInformation)中的其他麦克风与参考麦克风之间的相位差定义为参考麦克风的相位谱加FIPD。用于多通道竞争说话者计数估计系统(EBMC)的BLSTM输入是幅度信息和相位信息。
3.幅度和相位嵌入空间估计
在这一步骤中,本发明使用深度神经网络分别将多通道幅度信息和多通道相位信息映射到各自的嵌入空间。在嵌入空间中,对于由同一说话者主导的时频点,嵌入矢量在同一方向上平行,而对于由不同说话者主导的时频点则为正交。正是嵌入向量的这种性质使本发明可以通过对嵌入向量的协方差矩阵进行特征值分解来获取说话人的数量。BLSTM的输入是语音信号X的特征(可以泛指为多通道幅度信息、多通道相位信息或者多通道幅度信息和相位信息的拼接),输出是D维深度嵌入特征V。
V=fθ(X)∈RN×D, (3)
其中N是所有时频点的个数,RN×D表示V是一个(N,D)的实数矩阵,fθ(*)是一个映射函数,也就是BLSTM。
映射到高维空间中的表示V仍应描述时频点的相似性,也就是说,矩阵
Figure BDA0002356771670000051
应该等于A=YYT,其中Y∈RN×C是时频点的one-hot表示形式,代表标签信息,而C是源的数量。因此,损失函数可以通过以下方式进行计算:
Figure BDA0002356771670000052
其中V表示说话人嵌入矢量,如图1所示。在矩阵
Figure BDA0002356771670000056
或A中如果时频点n和n′由不同的说话者主导,则时频点(n,n′)的元素为0,否则(n,n′)的元素为1。换句话说,如果时频点n和n′由不同说话人主导,第n个时频点的嵌入矢量vn=(v1,v2,…,vn,D)T将与vn′正交,否则vn′vn为1。
4.说话人嵌入空间映射
在估计了幅度信息和相位信息的嵌入空间后,由于两个嵌入空间存在一定的互补性,故需要一个全连接层将两个嵌入空间映射到同一个嵌入空间。具体操作就是使用一个全连接层将两个D维的嵌入向量映射到一个D维的向量。
5.说话人数量估计
可以通过嵌入向量的协方差矩阵的特征值分解来获得竞争说话人的数量,因为嵌入向量在理想情况下是彼此正交的。假设嵌入向量的协方差矩阵为Re,vn是上一步得到的嵌入中间中的第n个D维向量。
Figure BDA0002356771670000053
协方差矩阵Re的特征分解如下:
Re=UΛUH, (6)
其中U表示特征向量矩阵,而Λ是特征值矩阵,表示为Λ=diag(λ12…,λD)。
协方差矩阵的秩在理论上等于竞争发言者的人数,因此本发明假定大于矩阵Re阈值t的特征值λ是说话人的数量。
Figure BDA0002356771670000054
其中n(*)是计算说话人数量的运算,而
Figure BDA0002356771670000055
是估计的说话人数量。
仿真数据与结果
仿真的实验数据来自《华尔街日报》(WSJ0)语料库。本发明创建了1-5个说话人的混合语音数据集。数据集被分为训练集(20,000个发音,约30小时),验证集(5000个发音,约10小时)和测试集(3000个发音,约5小时),其中1-5个说话者的音频数是平均的。训练集和验证集都是从文件夹"si_tr_s"中的源音频文件中随机混合而来的,而测试集是从其余两个文件夹中的源音频文件中随机混合的。所有音频数据都下采样到8kHz,以减少存储和计算成本。然后将数据以0至5dB的信噪比(SNR)随机混合。
1.深度神经网络训练设置
在本文中,深度嵌入网络具有两个BLSTM层,每层有600个单元。使用的Adam学习算法的初始学习率为0.0005,而所有模型均包含dropout,dropout率为0.5。嵌入维$D$设置为20。tanh激活函数后面是嵌入层。本发明的模型是使用PyTorch深度学习框架实现的。STFT的窗口长度和窗口偏移分别为256ms和64ms。
此外,在训练过程中的成本计算中忽略了时频点的静音区域。静音区域被定义为幅度小于最大混合幅度的-40dB的时频点。
2.麦克风阵列及多通道仿真数据生成
为了模拟多通道混合,本发明将脉冲响应与语音信号进行卷积,如图2所示。本发明使用房间脉冲响应(RIR)生成器来空间化数据集。如图2所示,本文考虑了线性阵列设置,它使用8麦克风"2-2-2-2-2-2-2"cm的线性阵列。说话人被随机放置在从0°到180°步长为15°的角度中,并且距阵列中心1m和2m。房间的长度和宽度均从5.0m至10.0m中随机选择,而高度则从3.0m至4.0m中随机选择。此外,对于混响数据集,每种混合物的T60值均在[0.2,0.7]s范围内随机选取,而无混响数据集的T60值为0。
3.对比方法
本发明将目前已有的单通道竞争发言人计数估计系统(EBSC)这一方法作为基线模型,然后将其扩展到多通道系统(EBMC),与之区别在于网络的输入特征多了信号的多通道的特征,在“多通道信号特征提取”有具体阐述。本发明还连接了一个全连接层(EBMCJL),然后将幅度嵌入和相位嵌入空间中的两个D维嵌入向量映射为一个D维嵌入向量。
4.实验结果
为了找到等式(7)中的最佳参数t,本发明在无回声和混响测试集上以0.01的步长从0.00到0.15调整了t,并评估了本文中使用的所有方法的说话人计数性能。图3和图4分别显示了在无混响和有混响数据集上1-5个说话人的平均计数准确率。可以看出,在任何阈值$t$下,EBSC的计数精度始终表现最差,而在t=0.05的情况下,所有方法均获得了最佳性能。因为嵌入向量长度为20维,因此理论上最优的阈值应该是
Figure BDA0002356771670000061
此外,表1显示了1-5个说话人的在最佳参数t=0.05上的平均计数精度。与[16]中的基线方法EBSC相比,多通道方法EBMC的平均准确度更高,在无混响和有混响数据集上分别提高了14.6%和5.6%。在多通道方法的基础上,提出的EBMCJL的计数比EBMC更为准确,除了这两个数据集上的1个说话人混合语音数据和混响数据集上的5个说话人混合语音。此外,无混响数据集的EBSC,EBMC和EBMCJL的平均准确度分别为70.8%,85.4%和90.6%,而混响数据集的平均准确度分别为60.0%,65.6%和70.4%。结果表明,由于目标说话人的直达声被用在混响数据集上进行网络训练的监督,因此在混响数据集上的计数准确性较差,这使得神经网络不仅需要学习说话者的嵌入空间,而且还具有去混响的能力。
EBMC和EBMCJL是两种多通道的方法,EBMC可以看作是特征在网络输入层的拼接,而EBMCJL可以看作是特征在嵌入空间中的拼接。从表1可以看出在嵌入空间的特征拼接比在网络输入层的特征拼接具有更好的计数精度。原因在于幅度嵌入空间代表了语音内容的信息,而相位嵌入空间包含了空间方向的信息,并且它们可以彼此互补。
表1为1-5个说话人在测试集上的计数准确性[%](t=0.05)
Figure BDA0002356771670000071
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (10)

1.一种基于说话人嵌入空间的竞争说话人数量估计方法,其步骤包括:
1)利用麦克风阵列采集多说话人的混合多通道信号;
2)提取所述混合多通道信号的多通道幅度信息和多通道相位信息;其中,多通道幅度信息包括麦克风阵列中参考麦克风的幅度谱和麦克风阵列中其他麦克风与该参考麦克风间的幅度差,多通道相位信息包括该参考麦克风的相位谱和其他麦克风与该参考麦克风间的相位差;
3)利用深度神经网络分别估计所述多通道幅度信息的嵌入空间和多通道相位信息的嵌入空间;
4)利用全连接层将两所述嵌入空间映射到说话人嵌入空间;其中,所述多通道幅度信息的嵌入空间、多通道相位信息的嵌入空间和说话人嵌入空间均为相同维度的嵌入空间;
5)估计所述说话人嵌入空间中的嵌入向量的平均协方差矩阵;
6)对所述平均协方差矩阵做特征值分解,将得到的秩的个数判定为说话人的数量。
2.如权利要求1所述的方法,其特征在于,其他麦克风与参考麦克风之间的幅度差定义为参考麦克风的对数幅度谱加
Figure FDA0002356771660000011
其他麦克风与参考麦克风之间的相位差定义为参考麦克风的相位谱加FIPD=cos(∠Xt,f,p-∠Xt,f,q);其中,Xt,f,p为麦克风p在时间t和频率f的信号的短时傅里叶系数,Xt,f,q是麦克风q在时间t和频率f的信号的短时傅里叶系数。
3.如权利要求1所述的方法,其特征在于,在所述嵌入空间中,对于由同一说话者主导的时频点,嵌入矢量在同一方向上平行,而对于由不同说话者主导的时频点则为正交。
4.如权利要求1或3所述的方法,其特征在于,所述深度神经网络为BLSTM,其中,所述深度神经网络的损失函数为
Figure FDA0002356771660000012
其中,V为所述深度神经网络输出的D维深度嵌入特征,矩阵
Figure FDA0002356771660000013
矩阵A=YYT,Y∈RN×C是时频点的one-hot表示形式,代表标签信息,C是源的数量,N是时频点的个数。
5.如权利要求4所述的方法,其特征在于,V=fθ(X)∈RN×D;X为输入所述深度神经网络的语音信号特征,fθ(*)是一个映射函数;当X为多通道幅度信息时,V为多通道幅度信息的嵌入空间;当X为多通道相位信息时,V为多通道相位信息的嵌入空间。
6.如权利要求1所述的方法,其特征在于,估计的说话人数量
Figure FDA0002356771660000014
其中n(*)是计算说话人数量的运算,t为设定阈值,λi为所述平均协方差矩阵Re的第i个特征值,D为所述说话人嵌入空间的维度。
7.一种基于说话人嵌入空间的竞争说话人数量估计系统,其步骤在于,包括多通道数据获取模块、多通道信号特征提取模块、幅度和相位嵌入空间估计模块、说话人嵌入空间映射模块和说话人数量估计模块;其中,
多通道数据获取模块,用于利用麦克风阵列采集多说话人的混合多通道信号;
多通道信号特征提取模块,用于提取所述混合多通道信号的多通道幅度信息和多通道相位信息;其中,多通道幅度信息包括麦克风阵列中参考麦克风的幅度谱和麦克风阵列中其他麦克风与该参考麦克风间的幅度差,多通道相位信息包括该参考麦克风的相位谱和其他麦克风与该参考麦克风间的相位差;
幅度和相位嵌入空间估计模块,用于利用深度神经网络分别估计所述多通道幅度信息的嵌入空间和多通道相位信息的嵌入空间;
说话人嵌入空间映射模块,用于利用全连接层将两所述嵌入空间映射到说话人嵌入空间;其中,所述多通道幅度信息的嵌入空间、多通道相位信息的嵌入空间和说话人嵌入空间均为相同维度的嵌入空间;
说话人数量估计模块,用于估计所述说话人嵌入空间中的嵌入向量的平均协方差矩阵;然后对所述平均协方差矩阵做特征值分解,将得到的秩的个数判定为说话人的数量。
8.如权利要求7所述的竞争说话人数量估计系统,其步骤在于,所述多通道幅度信息定义为参考麦克风的对数幅度谱加
Figure FDA0002356771660000021
所述多通道相位信息定义为参考麦克风的相位谱加FIPD=cos(∠Xt,f,p-∠Xt,f,q);其中,Xt,f,p为麦克风p在时间t和频率f的信号的短时傅里叶系数,Xt,f,q是麦克风q在时间t和频率f的信号的短时傅里叶系数。
9.如权利要求7所述的竞争说话人数量估计系统,其步骤在于,在所述嵌入空间中,对于由同一说话者主导的时频点,嵌入矢量在同一方向上平行,而对于由不同说话者主导的时频点则为正交。
10.如权利要求7所述的竞争说话人数量估计系统,其步骤在于,所述深度神经网络为BLSTM,其中,所述深度神经网络的损失函数为
Figure FDA0002356771660000022
其中,V为所述深度神经网络输出的D维深度嵌入特征,矩阵
Figure FDA0002356771660000023
矩阵A=YYT,Y∈RN×C是时频点的one-hot表示形式,代表标签信息,C是源的数量,N是时频点的个数。
CN202010009945.5A 2020-01-06 2020-01-06 一种基于说话人嵌入空间的竞争说话人数量估计方法及系统 Active CN111179959B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010009945.5A CN111179959B (zh) 2020-01-06 2020-01-06 一种基于说话人嵌入空间的竞争说话人数量估计方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010009945.5A CN111179959B (zh) 2020-01-06 2020-01-06 一种基于说话人嵌入空间的竞争说话人数量估计方法及系统

Publications (2)

Publication Number Publication Date
CN111179959A true CN111179959A (zh) 2020-05-19
CN111179959B CN111179959B (zh) 2022-08-05

Family

ID=70657881

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010009945.5A Active CN111179959B (zh) 2020-01-06 2020-01-06 一种基于说话人嵌入空间的竞争说话人数量估计方法及系统

Country Status (1)

Country Link
CN (1) CN111179959B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112116920A (zh) * 2020-08-10 2020-12-22 北京大学 一种说话人数未知的多通道语音分离方法
CN117011924A (zh) * 2023-10-07 2023-11-07 之江实验室 一种基于语音和图像的说话人数目估计方法和系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101770774A (zh) * 2009-12-31 2010-07-07 吉林大学 基于嵌入式的开集说话人识别方法及其系统
EP2530484A1 (en) * 2011-06-01 2012-12-05 Dolby Laboratories Licensing Corporation Sound source localization apparatus and method
US20170357896A1 (en) * 2016-06-09 2017-12-14 Sentient Technologies (Barbados) Limited Content embedding using deep metric learning algorithms
US20190066713A1 (en) * 2016-06-14 2019-02-28 The Trustees Of Columbia University In The City Of New York Systems and methods for speech separation and neural decoding of attentional selection in multi-speaker environments
US20190139563A1 (en) * 2017-11-06 2019-05-09 Microsoft Technology Licensing, Llc Multi-channel speech separation
CN109830245A (zh) * 2019-01-02 2019-05-31 北京大学 一种基于波束成形的多说话者语音分离方法及系统
CN110232928A (zh) * 2019-06-13 2019-09-13 苏州思必驰信息科技有限公司 文本无关说话人验证方法和装置
WO2019198265A1 (en) * 2018-04-13 2019-10-17 Mitsubishi Electric Corporation Speech recognition system and method using speech recognition system
CN110459240A (zh) * 2019-08-12 2019-11-15 新疆大学 基于卷积神经网络和深度聚类的多说话人语音分离方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101770774A (zh) * 2009-12-31 2010-07-07 吉林大学 基于嵌入式的开集说话人识别方法及其系统
EP2530484A1 (en) * 2011-06-01 2012-12-05 Dolby Laboratories Licensing Corporation Sound source localization apparatus and method
US20170357896A1 (en) * 2016-06-09 2017-12-14 Sentient Technologies (Barbados) Limited Content embedding using deep metric learning algorithms
US20190066713A1 (en) * 2016-06-14 2019-02-28 The Trustees Of Columbia University In The City Of New York Systems and methods for speech separation and neural decoding of attentional selection in multi-speaker environments
US20190139563A1 (en) * 2017-11-06 2019-05-09 Microsoft Technology Licensing, Llc Multi-channel speech separation
WO2019198265A1 (en) * 2018-04-13 2019-10-17 Mitsubishi Electric Corporation Speech recognition system and method using speech recognition system
CN109830245A (zh) * 2019-01-02 2019-05-31 北京大学 一种基于波束成形的多说话者语音分离方法及系统
CN110232928A (zh) * 2019-06-13 2019-09-13 苏州思必驰信息科技有限公司 文本无关说话人验证方法和装置
CN110459240A (zh) * 2019-08-12 2019-11-15 新疆大学 基于卷积神经网络和深度聚类的多说话人语音分离方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
RAJ RAO NADAKUDITI AND ALAN EDELMAN: "《Sample eigenvalue based detection of high-dimensional signals in white noise using relatively few samples》", 《IEEE TRANSACTIONS ON SIGNAL PROCESSING》 *
S. WATANABE ET.AL: "Single-Channel Multi-Speaker Separation using Deep Clustering", 《INTERSPEECH》 *
陈文峰: "基于传声器阵列的声源定位算法研究", 《湖南大学》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112116920A (zh) * 2020-08-10 2020-12-22 北京大学 一种说话人数未知的多通道语音分离方法
CN112116920B (zh) * 2020-08-10 2022-08-05 北京大学 一种说话人数未知的多通道语音分离方法
CN117011924A (zh) * 2023-10-07 2023-11-07 之江实验室 一种基于语音和图像的说话人数目估计方法和系统
CN117011924B (zh) * 2023-10-07 2024-02-13 之江实验室 一种基于语音和图像的说话人数目估计方法和系统

Also Published As

Publication number Publication date
CN111179959B (zh) 2022-08-05

Similar Documents

Publication Publication Date Title
CN109830245B (zh) 一种基于波束成形的多说话者语音分离方法及系统
Cao et al. Polyphonic sound event detection and localization using a two-stage strategy
CN112116920B (zh) 一种说话人数未知的多通道语音分离方法
Vecchiotti et al. End-to-end binaural sound localisation from the raw waveform
CN110970053B (zh) 一种基于深度聚类的多通道与说话人无关语音分离方法
Xiao et al. A learning-based approach to direction of arrival estimation in noisy and reverberant environments
Perotin et al. CRNN-based joint azimuth and elevation localization with the Ambisonics intensity vector
CN111429939B (zh) 一种双声源的声音信号分离方法和拾音器
Sivasankaran et al. Keyword-based speaker localization: Localizing a target speaker in a multi-speaker environment
CN109859749A (zh) 一种语音信号识别方法和装置
Chen et al. Multi-band pit and model integration for improved multi-channel speech separation
Yamakawa et al. Environmental sound recognition for robot audition using matching-pursuit
CN111179959B (zh) 一种基于说话人嵌入空间的竞争说话人数量估计方法及系统
CN106019230B (zh) 一种基于i-vector说话人识别的声源定位方法
CN102509548B (zh) 一种基于多距离声传感器的音频索引方法
Jacome et al. Sound events localization and detection using bio-inspired gammatone filters and temporal convolutional neural networks
Chen et al. An end-to-end deep learning framework for multiple audio source separation and localization
Peng et al. Competing Speaker Count Estimation on the Fusion of the Spectral and Spatial Embedding Space.
He et al. Multi-Task Neural Network for Robust Multiple Speaker Embedding Extraction.
CN115713943A (zh) 基于复空间角中心高斯混合聚类模型和双向长短时记忆网络的波束成形语音分离方法
Youssef et al. From monaural to binaural speaker recognition for humanoid robots
Bouafif et al. TDOA Estimation for Multiple Speakers in Underdetermined Case.
Chen et al. Overlapped Speech Detection Based on Spectral and Spatial Feature Fusion.
CN113643710A (zh) 自组织麦克风阵列下基于注意力的多通道说话人确认方法
Youssef et al. Binaural speaker recognition for humanoid robots

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant