CN108766440A - 说话人分离模型训练方法、两说话人分离方法及相关设备 - Google Patents
说话人分离模型训练方法、两说话人分离方法及相关设备 Download PDFInfo
- Publication number
- CN108766440A CN108766440A CN201810519521.6A CN201810519521A CN108766440A CN 108766440 A CN108766440 A CN 108766440A CN 201810519521 A CN201810519521 A CN 201810519521A CN 108766440 A CN108766440 A CN 108766440A
- Authority
- CN
- China
- Prior art keywords
- speaker
- point
- cut
- vector
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 92
- 238000012549 training Methods 0.000 title claims abstract description 49
- 238000000926 separation method Methods 0.000 title claims abstract description 36
- 239000013598 vector Substances 0.000 claims abstract description 148
- 230000008569 process Effects 0.000 claims abstract description 39
- 238000000605 extraction Methods 0.000 claims abstract description 24
- 238000003860 storage Methods 0.000 claims abstract description 16
- 238000003062 neural network model Methods 0.000 claims abstract description 15
- 241001269238 Data Species 0.000 claims abstract description 14
- 239000000284 extract Substances 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 101
- 230000015654 memory Effects 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 18
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 238000010606 normalization Methods 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 8
- 238000011946 reduction process Methods 0.000 claims description 8
- 238000012163 sequencing technique Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 abstract description 13
- 238000012545 processing Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000009432 framing Methods 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 4
- 239000012634 fragment Substances 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000002955 isolation Methods 0.000 description 2
- 230000007787 long-term memory Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Game Theory and Decision Science (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
一种说话人分离模型训练方法,包括:获取多个音频数据并进行预处理;提取预处理后的音频数据的音频特征;将音频特征输入至预设神经网络模型中进行训练得到矢量特征;计算第一说话人的第一矢量特征与第二矢量特征之间的第一相似度;计算第一说话人的第一矢量特征与第二说话人的第三矢量特征之间的第二相似度;计算第一相似度及第二相似度的损失函数值,当损失函数值小于或等于预设损失函数阈值时,结束说话人分离模型的训练过程,并更新模型中的参数。本发明还提供一种两说话人分离方法、终端及存储介质。能够显著的增强模型对输入的语音数据的特征提取能力,提高两说话人分离的准确率,尤其是在长时对话的分离任务中能取得更佳的分离效果。
Description
技术领域
本发明涉及生物识别技术领域,具体涉及一种说话人分离模型训练方法、两说话人分离方法、终端及存储介质。
背景技术
随着音频处理技术的不断提高,从海量的数据中,如电话录音、新闻广播、会议录音等,获取感兴趣的特定人声已成为研究热点。说话人分离技术是指从多人对话中自动地将语音依据说话人进行划分,并加以标记的过程,即解决的是“什么时候由谁说”的问题。
而两说话人分离则是指将录制在同一段音轨上的两个说话人轮流讲话的录音分离,成为两段音轨,每段音轨只包含其中一个说话人的讲话录音。两说话人广泛应用于诸多领域,在广播,电视,媒体,客服中心等行业和领域有着广泛的需求。
传统的以贝叶斯信息准则(Bayesian Information Criterion,BIC)作为相似性度量的说话人分离技术,在短时对话的分离任务中能取得较好的效果,但是随着对话时长的增加,BIC的单高斯模型不足以描述不同说话人数据的分布,因而其说话人分离的效果较差。
发明内容
鉴于以上内容,有必要提出一种说话人分离模型训练方法、两说话人分离方法、终端及存储介质,事先训练说话人分离模型,能够显著的增强模型对输入的语音数据的特征提取能力,减轻网络层次加深时而性能降低的风险;根据训练好的说话人分离模型对两说话人的语音进行分离,提高了两说话人分离的准确率,尤其是在长时对话的分离任务中能取得更佳的分离效果。
本发明的第一方面提供一种说话人分离模型训练方法,所述方法包括:
获取多个人的多个音频数据;
对每一个音频数据进行预处理;
提取预处理后的音频数据的音频特征;
将所述音频特征输入至预设神经网络模型中进行训练得到矢量特征;
获取第一说话人的第一矢量特征及第二矢量特征,并根据预设第一相似度函数计算所述第一矢量特征与所述第二矢量特征之间的第一相似度;
获取第二说话人的第三矢量特征,并根据预设第二相似度函数计算所述第一矢量特征与所述第三矢量特征之间的第二相似度;
将所述第一相似度及所述第二相似度输入至预设损失函数中计算损失函数值,当损失函数值小于或等于预设损失函数阈值时,结束说话人分离模型的训练过程,并更新所述说话人分离模型中的参数。
根据本发明的一个优选实施例,对所述音频数据进行预处理包括:
对所述音频数据进行降噪处理;
对降噪处理后的音频数据进行语音端点检测,删除无效语音,得到标准语音数据样本;
对标准语音数据样本进行标注,以表明所述标准语音数据样本所属的说话人。
根据本发明的一个优选实施例,所述预设神经网络模型采用预设层数的神经网络结构堆叠而成;每一层神经网络结构包括:第一卷积层、第一修正线性单元、第二卷积层、第二修正线性单元、平均层、全连接层及归一化层,其中,卷积层的卷积核为3*3,步长为1*1,通道数为64;
所述将所述音频特征输入至预设神经网络模型中进行训练得到矢量特征包括:
将所述音频特征输入至所述第一卷积层进行第一卷积处理,得到第一卷积特征;
将所述第一卷积特征输入至所述第一修正线性单元进行第一修正处理,得到第一修正特征;
将所述第一修正特征输入至所述第二卷积层进行第二卷积处理,得到第二卷积特征;
对所述音频特征与所述第二卷积特征进行求和后输入至所述第二修正线性单元,得到第二修正特征;
将所述第二修正特征依次输入至所述平均层、全连接层、归一化层进行处理,得到一维矢量特征。
根据本发明的一个优选实施例,所述预设第一相似度函数为:COS(xi,xj)=xi Txj,其中,xi代表第一说话人的第一矢量特征,xj代表第一说话人的第二特征矢量,COS(xi,xj)为计算得到的第一相似度;所述预设第二相似度函数为:其中,xi代表第一说话人的第一矢量特征,yi代表第二说话人的第三矢量特征,Lp(xi,yi)为计算得到的第二相似度。
根据本发明的一个优选实施例,所述预设损失函数为:其中,α为正常数,,Si 13为所述第二相似度,Si 12为所述第一相似度,L为计算出的损失函数值。
本发明的第二方面提供一种两说话人分离方法,所述方法包括:
1)对待分离的语音信号进行预处理;
2)从所述预处理后的语音信号的起始位置开始,建立左右相邻的第一滑窗及第二滑窗,根据所述第一滑窗及第二滑窗的分割点,得到第一语音片段及第二语音片段;
3)将所述第一语音片段送入说话人分离模型进行特征提取得到第一语音矢量,将所述第二语音片段送入所述说话人分离模型进行特征提取得到第二语音矢量,其中,所述说话人分离模型利用权利要求1至5任意一项所述的方法训练得到;
4)计算所述第一语音矢量及所述第二语音矢量之间的距离值以得到此次分割点对应的距离值;
5)将所述第一滑窗及所述第二滑窗同时沿时间轴方向移动预设时间段,并重复执行步骤2)-5),直至所述第二滑窗到达所述预处理后的语音信号的结尾;
6)获取每次分割点对应的距离值,根据所述距离值确定局部最大值;
7)根据所述局部最大值对应的分割点将所述待分离的语音信号进行分割,得到新的语音片段;
8)将所述新的语音片段进行聚类为两个不同说话人的语音片段。
根据本发明的一个优选实施例,所述根据所述距离值确定局部最大值包括:
将所有分割点对应的距离值按照分割点的时间顺序进行排列;
判断f(n)是否大于f(n-1),且f(n)是否大于f(n+1),其中,f(n)为当前分割点对应的距离值,f(n-1)为当前分割点之前一个的分割点对应的距离值,f(n+1)为当前分割点之后一个的分割点对应的距离值;
如果f(n)≥f(n-1)且f(n)≥f(n+1),则确定f(n)为局部最大值。
根据本发明的一个优选实施例,所述根据所述距离值确定局部最大值包括:
以分割点为横轴,以分割点对应的距离值为纵轴,绘制一条平滑的曲线;
求解所述曲线上的点的切线;
将切线的斜率为零的点对应的距离值确定为局部最大值。
本发明的第三方面提供一种终端,所述终端包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现所述说话人分离模型训练方法及/或所述两说话人分离方法。
本发明的第四方面提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现所述说话人分离模型训练方法及/或所述两说话人分离方法。
本发明所述的两说话人分离方法、终端及存储介质,事先训练说话人分离模型,能够显著的增强模型对输入的语音数据的特征提取能力,减轻网络层次加深时而性能降低的风险;根据训练好的说话人分离模型对两说话人的语音进行分离,提高了两说话人分离的准确率,尤其是在长时对话的分离任务中能取得更佳的分离效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本发明实施例一提供的说话人分离模型训练方法的流程图。
图2是本发明实施例二提供的两说话人分离方法的流程图。
图3是本发明实施例提供的根据分割点及对应的距离值确定局部最大值的示意图。
图4是本发明实施例三提供的说话人分离模型训练装置的功能模块图。
图5是本发明实施例四提供的两说话人分离装置的功能模块图。
图6是本发明实施例五提供的终端的示意图。
如下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
本发明实施例的说话人分离模型训练方法及/或两说话人分离方法应用在一个或者多个终端中。所述说话人分离模型训练方法及/或两说话人分离方法也可以应用于由终端和通过网络与所述终端进行连接的服务器所构成的硬件环境中。网络包括但不限于:广域网、城域网或局域网。本发明实施例的说话人分离模型训练方法及/或两说话人分离方法可以同时由服务器来执行,也可以同时由终端来执行;还可以是由服务器和终端共同执行,例如,本发明实施例的说话人分离模型训练方法由服务器来执行,本发明实施例的两说话人分离方法由终端来执行。
对于需要进行说话人分离模型训练方法及/或两说话人分离方法的终端,可以直接在终端上集成本发明的方法所提供的说话人分离模型训练及/或两说话人分离功能,或者安装用于实现本发明的方法的客户端。再如,本发明所提供的方法还可以以软件开发工具包(Software Development Kit,SDK)的形式运行在服务器等设备上,以SDK的形式提供说话人分离模型训练及/或两说话人分离功能的接口,终端或其他设备通过提供的接口即可实现两个说话人的模型的训练及/或分离。
实施例一
图1是本发明实施例一提供的说话人分离模型训练方法的流程图。根据不同的需求,该流程图中的执行顺序可以改变,某些步骤可以省略。
S11、获取多个人的多个音频数据。
本实施例中,所述多个音频数据的获取可包括以下两种方法:
(1)事先设置音频设备(例如,录音机等),通过所述音频设备现场录取多个人的语音,得到音频数据。
(2)从音频数据集中获取多个音频数据。
所述音频数据集为开源的数据集,例如,UBM数据集、TV数据集,开源的音频数据集专用于训练说话人分离模型,并对训练好的说话人分离模型的准确率进行测试。所述UBM数据集及TV数据集来自NIST04、NIST05及NIST06,包括大约500h的音频数据,共577个说话人,平均每个人约有15句话。
S12、对每一个音频数据进行预处理。
本实施例中,当获取到多个音频数据后,需要对多个音频数据进行预处理,对音频数据进行预处理包括以下一种或多种的组合:
1)对音频数据进行降噪处理;
获取到的语音数据有可能含有各种各样的噪声,为了从含噪语音数据中提取尽可能纯净的原始语音,可以使用低通滤波器去除所述音频数据中的白噪声及随机噪声等。
2)对降噪处理后的音频数据进行语音端点检测(Voice Activity Detection、VAD),删除无效语音,得到标准语音数据样本。
本实施例中,可以采用双门限比较法进行语音端点检测,检测音频数据中的有效语音及无效语音,所述有效语音是说话人的语音,所述无效语音相对于所述有效语音而言,包括但不限于:静音。
3)对标准语音数据样本进行标注,以表明所述标准语音数据样本所属的说话人;
所述标注是指对音频数据打上身份属性标签,例如,第一音频数据所属的说话人为A,打上身份属性标签01,第二音频数据所属的说话人为B,打上身份属性标签02。
S13、提取预处理后的音频数据的音频特征。
本实施例中,可以采用MFCC(梅尔频率倒谱系数,Mel Frequency CepstrumCoefficient)频谱特征)等提取预处理后的音频数据的音频特征。梅尔频率倒谱系数为现有技术,本发明在此不详细赘述。
S14、将所述音频特征输入至预设神经网络模型中进行训练得到矢量特征。
本实施例中,所述预设神经网络模型采用预设层数的神经网络(Deeparchitecture)结构堆叠而成,所述预设层数为预先设置的网络层数。例如,预先设置9-12层神经网络结构进行组合成神经网络训练模型。
具体地,每一层神经网络结构包括:第一卷积层(Convolutional Layer)、第一修正线性单元(Rectified Linear Units,ReLU)、第二卷积层、第二修正线性单元、平均层(Average sentence)、全连接层(Affine)及归一化层(Length Normalization),其中,卷积层的卷积核为3*3,步长为1*1,通道数为64。
所述预设神经网络模型对输入的音频特征进行训练的具体过程为:
1)将所述音频特征输入至所述第一卷积层进行第一卷积处理,得到第一卷积特征;
2)将所述第一卷积特征输入至所述第一修正线性单元进行第一修正处理,得到第一修正特征;
3)将所述第一修正特征输入至所述第二卷积层进行第二卷积处理,得到第二卷积特征;
4)对所述音频特征与所述第二卷积特征进行求和后输入至所述第二修正线性单元,得到第二修正特征;
5)将所述第二修正特征依次输入至所述平均层、全连接层、归一化层进行处理,得到一维矢量特征。
所述平均层作用是作为一个temporal pool(“temporal pool”表示沿时间轴向对矢量序列求平均值),它将上一层前向长短期记忆网络(Long Short-Term Memory,LSTM)和后向LSTM输出的矢量序列都进行平均化,得到一个前向平均矢量和一个后向平均矢量;所述全连接层的作用是将前向平均矢量和后向平均矢量串联成一个矢量;所述归一化层可以采用归一化函数对串联后形成的矢量进行处理,得到长度为1的归一化后的一维矢量特征。
本实施例中,所述归一化函数可以是欧式距离函数,也可以是曼哈顿距离函数、最小绝对误差。优选地,采用欧式距离函数对经过所述全连接层处理后的矢量进行归一化处理,得到归一化的一维矢量特征。归一化处理能够对经过所述全连接层处理后的矢量进行压缩,使得经过所述全连接层处理后的矢量具有鲁棒性,从而进一步提高所述说话人分离模型的鲁棒性。另外,采用欧式距离函数进行归一化,能避免所述说话人分离模型过拟合,进而提升了所述说话人分离模型的泛化能力,对后续所述说话人分离模型中的神经网络参数的优化求解变得更稳定和快速。
S15、获取第一说话人的第一矢量特征及第二矢量特征,并根据预设第一相似度函数计算所述第一矢量特征与所述第二矢量特征之间的第一相似度。
本实施例中,所述预设第一相似度函数可以为余弦相似度函数,如下(1-1)所示:
COS(xi,xj)=xi Txj (1-1)
其中,xi代表第一说话人的第一矢量特征,xj代表第一说话人的第二特征矢量,COS(xi,xj)为计算得到的第一相似度。
S16、获取第二说话人的第三矢量特征,并根据预设第二相似度函数计算所述第一矢量特征与所述第三矢量特征之间的第二相似度。
本实施例中,所述预设第二相似度函数可以与所述预设第一相似度函数相同,也可以不相同。
优选地,所述预设第二相似度函数为LP范数,如下(1-2)所示:
其中,xi代表第一说话人的第一矢量特征,yi代表第二说话人的第三矢量特征,Lp(xi,yi)为计算得到的第二相似度。
S17、将所述第一相似度及所述第二相似度输入至预设损失函数中计算损失函数值,当损失函数值小于或等于预设损失函数阈值时,结束说话人分离模型的训练过程,并更新所述说话人分离模型中的参数。
本实施例中,所述预设损失函数如下(1-3)所示:
其中,α为正常数,一般取值范围在0.05~0.2之间。Si 13为所述第二相似度,即第一说话人的第一矢量特征与第二说话人的第三矢量特征之间的相似度,Si 12为所述第一相似度,即第一说话人的第一矢量特征与第一说话人的第二矢量特征之间的相似度,L为计算出的损失函数值。
由上述可知,本发明通过获取多个音频数据做训练样本,并对音频数据进行标注;提取音频数据的音频特征后输入至预设神经网络模型中进行训练得到矢量特征,获取第一说话人的第一矢量特征及第二矢量特征,并根据预设第一相似度函数计算所述第一矢量特征与所述第二矢量特征之间的第一相似度;获取第二说话人的第三矢量特征,并根据预设第二相似度函数计算所述第一矢量特征与所述第三矢量特征之间的第二相似度;将所述第一相似度及所述第二相似度输入至预设损失函数中计算损失函数值,当损失函数值小于或等于预设损失函数阈值时,结束说话人分离模型的训练过程,并更新所述说话人分离模型中的参数。本发明基于卷积神经网络训练的说话人分离模型具有较强的特征提取能力,减轻了网络层次加深时而性能降低的风险,另外,能够保证同一个人的不同的语音数据的矢量特征尽可能的相同,不同人的语音数据的矢量特征尽可能的不同,进而计算出的损失函数能够更快的达到收敛的条件,节省说话人分离模型的训练时间,提高说话人分离模型的效率。
实施例二
图2是本发明实施例二提供的两说话人分离方法的流程图。根据不同的需求,该流程图中的执行顺序可以改变,某些步骤可以省略。
S21、对待分离的语音信号进行预处理。
本实施例中,所述对待分离的语音信号进行预处理的过程包括:
1)预加重处理
本实施例中,可以采用数字滤波器对所述待分离的语音信号进行预加重处理,提升高频部分的语音信号。具体如下(2-1)所示:
其中,S(n)为待分离的语音信号,a为预加重系数,一般a取0.95,为经过预加重处理后的语音信号。
由于人类发声器官本身及采集语音信号的设备等因素易导致采集的语音信号出现混叠、高次谐波失真等问题,通过对待分离的语音信号进行预加重处理,可以补偿语音信号受到发音系统所抑制的高频部分,突出高频的共振峰,保证语音信号更均匀、平滑,提高后续语音信号的分离效果。
2)分帧处理
对所述待分离的语音信号根据预设分帧参数进行分帧处理,所述预设分帧参数可以为,例如,帧长为10~30ms,优选为每隔25毫秒分帧,以获得多个语音帧。如此,对于整体的待分离的语音信号而言,进行分帧处理后得到的是由每一帧特征参数组成的特征参数时间序列。
S22、从所述预处理后的语音信号的起始位置开始,建立左右相邻的第一滑窗及第二滑窗,根据所述第一滑窗及第二滑窗的分割点,得到第一语音片段及第二语音片段。
本实施例中,所述第一滑窗及所述第二滑窗的长度可以为0.7-2秒,所述第一滑窗及第二滑窗的分割点即为所述预处理后的语音信号的可能的说话人分割点。第一滑窗对应得到第一语音片段,第二滑窗对应得到第二语音片段,所述第一滑窗与所述第二滑窗的分割点也即所述第一语音片段和所述第二语音片段的分割点。
S23、将所述第一语音片段送入说话人分离模型进行特征提取得到第一语音矢量,将所述第二语音片段送入说话人分离模型进行特征提取得到第二语音矢量。
将第一语音片段送入训练好的说话人分离模型中,训练好的说话人分离模型提取第一语音片段的梅尔频谱特征(Mel Frequency Cepstrum Coefficient,MFCC),得到第一语音矢量。将第二语音片段送入训练好的说话人分离模型中,训练好的说话人分离模型提取第二语音片段的梅尔频谱特征(Mel Frequency Cepstrum Coefficient,MFCC),得到第二语音矢量。
S24、计算所述第一语音矢量及所述第二语音矢量之间的距离值以得到此次分割点对应的距离值。
本实施例中,可以采用预设距离函数计算每个第一语音矢量及每个第二语音矢量之间的距离值。所述预设距离函数为预先设置的距离函数,可以是,例如,欧式距离。本发明对采用欧式距离函数计算第一语音矢量及第二语音矢量的距离值的过程,不再做具体说明。
S25、将所述第一滑窗及所述第二滑窗同时沿时间轴方向移动预设时间段,并重复执行步骤S22-S25,直至所述第二滑窗到达所述预处理后的语音信号的结尾。
本实施例中,所述预设时间段可以为5ms。通过第一滑窗和第二滑窗在所述预处理后的语音信号上进行滑动,可以得到多个滑窗的分割点,从而对应得到多个第一语音片段及多个第二语音片段。也就是说,每根据所述预设时间段同时移动所述第一滑窗及所述第二滑窗一次后,即可得到一个备选的分割点,每个备选的分割点即为第一语音片段和第二语音片段的分割点,对应可以计算得到一个距离值。有多少个分割点,对应多少个距离值。
S26、获取每次分割点对应的距离值,根据所述距离值确定局部最大值。
本实施例中,所述根据所述距离值确定局部最大值的具体过程可以包括:
1)将所有分割点对应的距离值按照分割点的时间顺序进行排列。
2)判断f(n)是否大于f(n-1),且f(n)是否大于f(n+1),其中,f(n)为当前分割点对应的距离值,f(n-1)为当前分割点之前一个的分割点对应的距离值,f(n+1)为当前分割点之后一个的分割点对应的距离值。
3)如果f(n)≥f(n-1)且f(n)≥f(n+1),则确定f(n)为局部最大值。
可以确定多个局部最大值,每个局部最大值对应的分割点为要寻找的分割点。
举例而言,待分离的语音信号经过第一滑窗和第二滑窗的移动后得到10个分割点,例如T1、T2、T3、T4、T5、T6、T7、T8、T9、T10,每个分割点分别对应一个距离值,例如S1、S2、S3、S4、S5、S6、S7、S8、S9、S10。将10个距离值按照分割点的时间顺序进行排列,如果S2>=S1,且S2>=S3,则S2为局部最大值。接着判断S4是否>=S3,且S4是否>=S5,若是,则S4为局部最大值,若否,则依次类推,判断其余当前距离值分别与之前的距离值或者之后的距离值之间的大小关系,确定局部最大值。
作为一种可选的实施方式,所述根据所述距离值确定局部最大值还可以包括:
以分割点为横轴,以分割点对应的距离值为纵轴,绘制一条平滑的曲线;
求解所述曲线上的点的切线;
将切线的斜率为零的点对应的距离值确定为局部最大值。
为了直观的表现局部最大值,可以以分割点为横轴,以分割点对应的距离值为纵轴,绘制一条平滑的曲线,如图3所示。求解图3中每个点的切线可知,S2、S4、S6、S9对应的点的切线的斜率为零,则将S2、S4、S6、S9确定为局部最大值。
S27、根据所述局部最大值对应的分割点将所述待分离的语音信号进行分割,得到新的语音片段。
本实施例中,确定局部最大值后,以所述局部最大值对应的分割点为新的分割点对所述待分离的语音信号再次进行分割,从而得到新的多个语音片段。再分割的过程是指从待分离的语音信号中找寻两个不同说话人身份转变的时间点,然后根据时间点可以将语音分割成若干短语音段,经分割后的每个短语音段只会包含一个说话人的信息。
举例而言,S2、S4、S6、S9为局部最大值,则以对应的分割点T2、T4、T6、T9为新的分割点将所述待分离的语音信号进行分割,得到5个新的语音片段,每个新的语音片段只包含一个说话人的语音信息。
S28、将所述新的语音片段进行聚类为两个不同说话人的语音片段。
聚类的过程是指将分割后的所有属于同一个说话人的小片段通过一些聚类的方法,再重新组合在一起。
本实施例中,所述聚类方法可以为K-means聚类或者自底向上的层次聚类(HAC),所述聚类方法为现有技术,本发明在此不再详细赘述。
由上述可知,本发明将对待分离的语音信号进行预处理后,从所述预处理后的语音信号的起始位置开始,建立左右相邻的第一滑窗及第二滑窗,根据所述第一滑窗及第二滑窗的分割点,得到第一语音片段及第二语音片段;分别将所述第一语音片段及所述第二语音片段送入说话人分离模型进行特征提取得到第一语音矢量及第二语音矢量;计算所述第一语音矢量及所述第二语音矢量之间的距离值;然后按照预设时间段移动滑窗,每移动一次滑窗即可得到两个语音片段,直至所述第二滑窗到达所述预处理后的语音信号的结尾;获取每次分割点对应的距离值,根据所述距离值确定局部最大值;根据所述局部最大值对应的分割点将所述待分离的语音信号进行分割,得到新的语音片段;将所述新的语音片段进行聚类为两个不同说话人的语音片段。本发明通过多次滑窗的过程,得到多个语音小片段,利用训练好的说话人分离模型提取语音小片段的特征后计算距离值,通过距离值之间的比较,确定局部最大值,以局部最大值对应的分割点为新的分割点再次对待分离的语音信号进行分割,即可得到两个说话人的语音片段,分离效果好。
以上所述,仅是本发明的具体实施方式,但本发明的保护范围并不局限于此,对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出改进,但这些均属于本发明的保护范围。
下面结合第4至6图,分别对实现上述说话人分离模型训练方法及两说话人分离方法的终端的功能模块及硬件结构进行介绍。
实施例三
图4为本发明说话人分离模型训练装置较佳实施例中的功能模块图。
在一些实施例中,所述说话人分离模型训练装置40运行于终端中。所述说话人分离模型训练装置40可以包括多个由程序代码段所组成的功能模块。所述说话人分离模型训练装置40中的各个程序段的程序代码可以存储于存储器中,并由至少一个处理器所执行,以执行(详见图1及其相关描述)对说话人分离模型进行训练。
本实施例中,所述终端的说话人分离模型训练装置40根据其所执行的功能,可以被划分为多个功能模块。所述功能模块可以包括:获取模块401、预处理模块402、特征提取模块403、训练模块404、计算模块405及更新模块406。本发明所称的模块是指一种能够被至少一个处理器所执行并且能够完成固定功能的一系列计算机程序段,其存储在存储器中。在一些实施例中,关于各模块的功能将在后续的实施例中详述。
获取模块401,用于获取多个人的多个音频数据。
本实施例中,所述多个音频数据的获取可包括以下两种方法:
(1)事先设置音频设备(例如,录音机等),通过所述音频设备现场录取多个人的语音,得到音频数据。
(2)从音频数据集中获取多个音频数据。
所述音频数据集为开源的数据集,例如,UBM数据集、TV数据集,开源的音频数据集专用于训练说话人分离模型,并对训练好的说话人分离模型的准确率进行测试。所述UBM数据集及TV数据集来自NIST04、NIST05及NIST06,包括大约500h的音频数据,共577个说话人,平均每个人约有15句话。
预处理模块402,用于对每一个音频数据进行预处理。
本实施例中,当获取到多个音频数据后,需要对多个音频数据进行预处理,预处理模块402对音频数据进行预处理包括以下一种或多种的组合:
1)对音频数据进行降噪处理;
获取到的语音数据有可能含有各种各样的噪声,为了从含噪语音数据中提取尽可能纯净的原始语音,可以使用低通滤波器去除所述音频数据中的白噪声及随机噪声等。
2)对降噪处理后的音频数据进行语音端点检测(Voice Activity Detection、VAD),删除无效语音,得到标准语音数据样本。
本实施例中,可以采用双门限比较法进行语音端点检测,检测音频数据中的有效语音及无效语音,所述有效语音是说话人的语音,所述无效语音相对于所述有效语音而言,包括但不限于:静音。
3)对标准语音数据样本进行标注,以表明所述标准语音数据样本所属的说话人;
所述标注是指对音频数据打上身份属性标签,例如,第一音频数据所属的说话人为A,打上身份属性标签01,第二音频数据所属的说话人为B,打上身份属性标签02。
特征提取模块403,用于提取预处理后的音频数据的音频特征。
本实施例中,可以采用MFCC(梅尔频率倒谱系数,Mel Frequency CepstrumCoefficient)频谱特征)等提取预处理后的音频数据的音频特征。梅尔频率倒谱系数为现有技术,本发明在此不详细赘述。
训练模块404,用于将所述音频特征输入至预设神经网络模型中进行训练得到矢量特征。
本实施例中,所述预设神经网络模型采用预设层数的神经网络(Deeparchitecture)结构堆叠而成,所述预设层数为预先设置的网络层数。例如,预先设置9-12层神经网络结构进行组合成神经网络训练模型。
具体地,每一层神经网络结构包括:第一卷积层(Convolutional Layer)、第一修正线性单元(Rectified Linear Units,ReLU)、第二卷积层、第二修正线性单元、平均层(Average sentence)、全连接层(Affine)及归一化层(Length Normalization),其中,卷积层的卷积核为3*3,步长为1*1,通道数为64。
所述训练模块404通过预设神经网络模型对输入的音频特征进行训练的具体过程为:
1)将所述音频特征输入至所述第一卷积层进行第一卷积处理,得到第一卷积特征;
2)将所述第一卷积特征输入至所述第一修正线性单元进行第一修正处理,得到第一修正特征;
3)将所述第一修正特征输入至所述第二卷积层进行第二卷积处理,得到第二卷积特征;
4)对所述音频特征与所述第二卷积特征进行求和后输入至所述第二修正线性单元,得到第二修正特征;
5)将所述第二修正特征依次输入至所述平均层、全连接层、归一化层进行处理,得到一维矢量特征。
所述平均层作用是作为一个temporal pool(“temporal pool”表示沿时间轴向对矢量序列求平均值),它将上一层前向长短期记忆网络(Long Short-Term Memory,LSTM)和后向LSTM输出的矢量序列都进行平均化,得到一个前向平均矢量和一个后向平均矢量;所述全连接层的作用是将前向平均矢量和后向平均矢量串联成一个矢量;所述归一化层可以采用归一化函数对串联后形成的矢量进行处理,得到长度为1的归一化后的一维矢量特征。
本实施例中,所述归一化函数可以是欧式距离函数,也可以是曼哈顿距离函数、最小绝对误差。优选地,采用欧式距离函数对经过所述全连接层处理后的矢量进行归一化处理,得到归一化的一维矢量特征。归一化处理能够对经过所述全连接层处理后的矢量进行压缩,使得经过所述全连接层处理后的矢量具有鲁棒性,从而进一步提高所述说话人分离模型的鲁棒性。另外,采用欧式距离函数进行归一化,能避免所述说话人分离模型过拟合,进而提升了所述说话人分离模型的泛化能力,对后续所述说话人分离模型中的神经网络参数的优化求解变得更稳定和快速。
计算模块405,用于获取第一说话人的第一矢量特征及第二矢量特征,并根据预设第一相似度函数计算所述第一矢量特征与所述第二矢量特征之间的第一相似度。
本实施例中,所述预设第一相似度函数可以为余弦相似度函数,如下(1-1)所示:
COS(xi,xj)=xi Txj(1-1)
其中,xi代表第一说话人的第一矢量特征,xj代表第一说话人的第二特征矢量,COS(xi,xj)为计算得到的第一相似度。
所述计算模块405,还用于获取第二说话人的第三矢量特征,并根据预设第二相似度函数计算所述第一矢量特征与所述第三矢量特征之间的第二相似度。
本实施例中,所述预设第二相似度函数可以与所述预设第一相似度函数相同,也可以不相同。
优选地,所述预设第二相似度函数为LP范数,如下(1-2)所示:
其中,xi代表第一说话人的第一矢量特征,yi代表第二说话人的第三矢量特征,Lp(xi,yi)为计算得到的第二相似度。
更新模块406,用于将所述第一相似度及所述第二相似度输入至预设损失函数中计算损失函数值,当损失函数值小于或等于预设损失函数阈值时,结束说话人分离模型的训练过程,并更新所述说话人分离模型中的参数。
本实施例中,所述预设损失函数如下(1-3)所示:
其中,α为正常数,一般取值范围在0.05~0.2之间。Si 13为所述第二相似度,即第一说话人的第一矢量特征与第二说话人的第三矢量特征之间的相似度,Si 12为所述第一相似度,即第一说话人的第一矢量特征与第一说话人的第二矢量特征之间的相似度,L为计算出的损失函数值。
由上述可知,本发明通过获取多个音频数据做训练样本,并对音频数据进行标注;提取音频数据的音频特征后输入至预设神经网络模型中进行训练得到矢量特征,获取第一说话人的第一矢量特征及第二矢量特征,并根据预设第一相似度函数计算所述第一矢量特征与所述第二矢量特征之间的第一相似度;获取第二说话人的第三矢量特征,并根据预设第二相似度函数计算所述第一矢量特征与所述第三矢量特征之间的第二相似度;将所述第一相似度及所述第二相似度输入至预设损失函数中计算损失函数值,当损失函数值小于或等于预设损失函数阈值时,结束说话人分离模型的训练过程,并更新所述说话人分离模型中的参数。本发明基于卷积神经网络训练的说话人分离模型具有较强的特征提取能力,减轻了网络层次加深时而性能降低的风险,另外,能够保证同一个人的不同的语音数据的矢量特征尽可能的相同,不同人的语音数据的矢量特征尽可能的不同,进而计算出的损失函数能够更快的达到收敛的条件,节省说话人分离模型的训练时间,提高说话人分离模型的效率。
实施例四
图5为本发明两说话人分离装置较佳实施例中的功能模块图。
在一些实施例中,所述两说话人分离装置50运行于终端中。所述两说话人分离装置50可以包括多个由程序代码段所组成的功能模块。所述两说话人分离装置50中的各个程序段的程序代码可以存储于存储器中,并由至少一个处理器所执行,以执行(详见图2及其相关描述)对两说话人的语音信号进行分离,得到两段语音片段,每段语音片段仅包含一个说话人的语音信息。
本实施例中,所述终端的两说话人分离装置50根据其所执行的功能,可以被划分为多个功能模块。所述功能模块可以包括:处理模块501、第一分割模块502、矢量提取模块503、计算模块504、比较模块505、第二分割模块506及聚类模块507。本发明所称的模块是指一种能够被至少一个处理器所执行并且能够完成固定功能的一系列计算机程序段,其存储在存储器中。在一些实施例中,关于各模块的功能将在后续的实施例中详述。
处理模块501,用于对待分离的语音信号进行预处理。
本实施例中,所述处理模块501对待分离的语音信号进行预处理的过程包括:
1)预加重处理
本实施例中,可以采用数字滤波器对所述待分离的语音信号进行预加重处理,提升高频部分的语音信号。具体如下(2-1)所示:
其中,S(n)为待分离的语音信号,a为预加重系数,一般a取0.95,S(n)为经过预加重处理后的语音信号。
由于人类发声器官本身及采集语音信号的设备等因素易导致采集的语音信号出现混叠、高次谐波失真等问题,通过对待分离的语音信号进行预加重处理,可以补偿语音信号受到发音系统所抑制的高频部分,突出高频的共振峰,保证语音信号更均匀、平滑,提高后续语音信号的分离效果。
2)分帧处理
对所述待分离的语音信号根据预设分帧参数进行分帧处理,所述预设分帧参数可以为,例如,帧长为10~30ms,优选为每隔25毫秒分帧,以获得多个语音帧。如此,对于整体的待分离的语音信号而言,进行分帧处理后得到的是由每一帧特征参数组成的特征参数时间序列。
第一分割模块502,用于从所述预处理后的语音信号的起始位置开始,建立左右相邻的第一滑窗及第二滑窗,根据所述第一滑窗及第二滑窗的分割点,得到第一语音片段及第二语音片段。
本实施例中,所述第一滑窗及所述第二滑窗的长度可以为0.7-2秒,所述第一滑窗及第二滑窗的分割点即为所述预处理后的语音信号的可能的说话人分割点。第一滑窗对应得到第一语音片段,第二滑窗对应得到第二语音片段,所述第一滑窗与所述第二滑窗的分割点也即所述第一语音片段和所述第二语音片段的分割点。
矢量提取模块503,用于将所述第一语音片段送入说话人分离模型进行特征提取得到第一语音矢量,将所述第二语音片段送入说话人分离模型进行特征提取得到第二语音矢量。
将第一语音片段送入训练好的说话人分离模型中,训练好的说话人分离模型提取第一语音片段的梅尔频谱特征(Mel Frequency Cepstrum Coefficient,MFCC),得到第一语音矢量。将第二语音片段送入训练好的说话人分离模型中,训练好的说话人分离模型提取第二语音片段的梅尔频谱特征(Mel Frequency Cepstrum Coefficient,MFCC),得到第二语音矢量。
计算模块504,用于计算所述第一语音矢量及所述第二语音矢量之间的距离值以得到此次分割点对应的距离值。
本实施例中,可以采用预设距离函数计算每个第一语音矢量及每个第二语音矢量之间的距离值。所述预设距离函数为预先设置的距离函数,可以是,例如,欧式距离。本发明对采用欧式距离函数计算第一语音矢量及第二语音矢量的距离值的过程,不再做具体说明。
将所述第一滑窗及所述第二滑窗同时沿时间轴方向移动预设时间段,并重复执行上述模块(502-504),直至所述第二滑窗到达所述预处理后的语音信号的结尾。
本实施例中,所述预设时间段可以为5ms。通过第一滑窗和第二滑窗在所述预处理后的语音信号上进行滑动,可以得到多个滑窗的分割点,从而对应得到多个第一语音片段及多个第二语音片段。也就是说,每根据所述预设时间段同时移动所述第一滑窗及所述第二滑窗一次后,即可得到一个备选的分割点,每个备选的分割点即为第一语音片段和第二语音片段的分割点,对应可以计算得到一个距离值。有多少个分割点,对应多少个距离值。
比较模块505,用于获取每次分割点对应的距离值,根据所述距离值确定局部最大值。
本实施例中,所述比较模块505根据所述距离值确定局部最大值的具体过程包括:
1)将所有分割点对应的距离值按照分割点的时间顺序进行排列。
2)判断f(n)是否大于f(n-1),且f(n)是否大于f(n+1),其中,f(n)为当前分割点对应的距离值,f(n-1)为当前分割点之前一个的分割点对应的距离值,f(n+1)为当前分割点之后一个的分割点对应的距离值。
3)如果f(n)≥f(n-1)且f(n)≥f(n+1),则确定f(n)为局部最大值。
可以确定多个局部最大值,每个局部最大值对应的分割点为要寻找的分割点。
举例而言,待分离的语音信号经过第一滑窗和第二滑窗的移动后得到10个分割点,例如T1、T2、T3、T4、T5、T6、T7、T8、T9、T10,每个分割点分别对应一个距离值,例如S1、S2、S3、S4、S5、S6、S7、S8、S9、S10。将10个距离值按照分割点的时间顺序进行排列,如果S2>=S1,且S2>=S3,则S2为局部最大值。接着判断S4是否>=S3,且S4是否>=S5,若是,则S4为局部最大值,若否,则依次类推,判断其余当前距离值分别与之前的距离值或者之后的距离值之间的大小关系,确定局部最大值。
作为一种可选的实施方式,所述比较模块505根据所述距离值确定局部最大值还可以包括:
以分割点为横轴,以分割点对应的距离值为纵轴,绘制一条平滑的曲线;
求解所述曲线上的点的切线;
将切线的斜率为零的点对应的距离值确定为局部最大值。
为了直观的表现局部最大值,可以以分割点为横轴,以分割点对应的距离值为纵轴,绘制一条平滑的曲线,如图3所示。求解图3中每个点的切线可知,S2、S4、S6、S9对应的点的切线的斜率为零,则将S2、S4、S6、S9确定为局部最大值。
第二分割模块506,用于根据所述局部最大值对应的分割点将所述待分离的语音信号进行分割,得到新的语音片段。
本实施例中,确定局部最大值后,以所述局部最大值对应的分割点为新的分割点对所述待分离的语音信号再次进行分割,从而得到新的多个语音片段。再分割的过程是指从待分离的语音信号中找寻两个不同说话人身份转变的时间点,然后根据时间点可以将语音分割成若干短语音段,经分割后的每个短语音段只会包含一个说话人的信息。
举例而言,S2、S4、S6、S9为局部最大值,则以对应的分割点T2、T4、T6、T9为新的分割点将所述待分离的语音信号进行分割,得到5个新的语音片段,每个新的语音片段只包含一个说话人的语音信息。
聚类模块507,用于将所述新的语音片段进行聚类为两个不同说话人的语音片段。
聚类的过程是指将分割后的所有属于同一个说话人的小片段通过一些聚类的方法,再重新组合在一起。
本实施例中,所述聚类方法可以为K-means聚类或者自底向上的层次聚类(HAC),所述聚类方法为现有技术,本发明在此不再详细赘述。
由上述可知,本发明将对待分离的语音信号进行预处理后,从所述预处理后的语音信号的起始位置开始,建立左右相邻的第一滑窗及第二滑窗,根据所述第一滑窗及第二滑窗的分割点,得到第一语音片段及第二语音片段;分别将所述第一语音片段及所述第二语音片段送入说话人分离模型进行特征提取得到第一语音矢量及第二语音矢量;计算所述第一语音矢量及所述第二语音矢量之间的距离值;然后按照预设时间段移动滑窗,每移动一次滑窗即可得到两个语音片段,直至所述第二滑窗到达所述预处理后的语音信号的结尾;获取每次分割点对应的距离值,根据所述距离值确定局部最大值;根据所述局部最大值对应的分割点将所述待分离的语音信号进行分割,得到新的语音片段;将所述新的语音片段进行聚类为两个不同说话人的语音片段。本发明通过多次滑窗的过程,得到多个语音小片段,利用训练好的说话人分离模型提取语音小片段的特征后计算距离值,通过距离值之间的比较,确定局部最大值,以局部最大值对应的分割点为新的分割点再次对待分离的语音信号进行分割,即可得到两个说话人的语音片段,分离效果好。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,双屏设备,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分。
实施例五
图6为本发明实施例五提供的终端的示意图。
所述终端3包括:存储器31、至少一个处理器32、存储在所述存储器31中并可在所述至少一个处理器32上运行的计算机程序33及至少一条通讯总线34。
所述至少一个处理器32执行所述计算机程序33时实现上述说话人分离模型训练方法及/或两说话人分离方法实施例中的步骤。
示例性的,所述计算机程序33可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器31中,并由所述至少一个处理器32执行,以完成本发明说话人分离模型训练方法及/或两说话人分离方法。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序33在所述终端3中的执行过程。
所述终端3可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。本领域技术人员可以理解,所述示意图3仅仅是终端3的示例,并不构成对终端3的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端3还可以包括输入输出设备、网络接入设备、总线等。
所述至少一个处理器32可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。该处理器32可以是微处理器或者该处理器32也可以是任何常规的处理器等,所述处理器32是所述终端3的控制中心,利用各种接口和线路连接整个终端3的各个部分。
所述存储器31可用于存储所述计算机程序33和/或模块/单元,所述处理器32通过运行或执行存储在所述存储器31内的计算机程序和/或模块/单元,以及调用存储在存储器31内的数据,实现所述终端3的各种功能。所述存储器31可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据终端3的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器31可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述终端3集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
在本发明所提供的几个实施例中,应该理解到,所揭露的终端和方法,可以通过其它的方式实现。例如,以上所描述的终端实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
另外,在本发明各个实施例中的各功能单元可以集成在相同处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在相同单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神范围。
Claims (10)
1.一种说话人分离模型训练方法,其特征在于,所述方法包括:
获取多个人的多个音频数据;
对每一个音频数据进行预处理;
提取预处理后的音频数据的音频特征;
将所述音频特征输入至预设神经网络模型中进行训练得到矢量特征;
获取第一说话人的第一矢量特征及第二矢量特征,并根据预设第一相似度函数计算所述第一矢量特征与所述第二矢量特征之间的第一相似度;
获取第二说话人的第三矢量特征,并根据预设第二相似度函数计算所述第一矢量特征与所述第三矢量特征之间的第二相似度;
将所述第一相似度及所述第二相似度输入至预设损失函数中计算损失函数值,当损失函数值小于或等于预设损失函数阈值时,结束说话人分离模型的训练过程,并更新所述说话人分离模型中的参数。
2.如权利要求1所述的方法,其特征在于,对所述音频数据进行预处理包括:
对所述音频数据进行降噪处理;
对降噪处理后的音频数据进行语音端点检测,删除无效语音,得到标准语音数据样本;
对标准语音数据样本进行标注,以表明所述标准语音数据样本所属的说话人。
3.如权利要求1或2所述的方法,其特征在于,所述预设神经网络模型采用预设层数的神经网络结构堆叠而成;每一层神经网络结构包括:第一卷积层、第一修正线性单元、第二卷积层、第二修正线性单元、平均层、全连接层及归一化层,其中,卷积层的卷积核为3*3,步长为1*1,通道数为64;
所述将所述音频特征输入至预设神经网络模型中进行训练得到矢量特征包括:
将所述音频特征输入至所述第一卷积层进行第一卷积处理,得到第一卷积特征;
将所述第一卷积特征输入至所述第一修正线性单元进行第一修正处理,得到第一修正特征;
将所述第一修正特征输入至所述第二卷积层进行第二卷积处理,得到第二卷积特征;
对所述音频特征与所述第二卷积特征进行求和后输入至所述第二修正线性单元,得到第二修正特征;
将所述第二修正特征依次输入至所述平均层、全连接层、归一化层进行处理,得到一维矢量特征。
4.如权利要求1所述的方法,其特征在于,所述预设第一相似度函数为:COS(xi,xj)=xi Txj,其中,xi代表第一说话人的第一矢量特征,xj代表第一说话人的第二特征矢量,COS(xi,xj)为计算得到的第一相似度;所述预设第二相似度函数为:其中,xi代表第一说话人的第一矢量特征,yi代表第二说话人的第三矢量特征,Lp(xi,yi)为计算得到的第二相似度。
5.如权利要求1所述的方法,其特征在于,所述预设损失函数为:其中,α为正常数,,Si 13为所述第二相似度,Si 12为所述第一相似度,L为计算出的损失函数值。
6.一种两说话人分离方法,其特征在于,所述方法包括:
1)对待分离的语音信号进行预处理;
2)从所述预处理后的语音信号的起始位置开始,建立左右相邻的第一滑窗及第二滑窗,根据所述第一滑窗及第二滑窗的分割点,得到第一语音片段及第二语音片段;
3)将所述第一语音片段送入说话人分离模型进行特征提取得到第一语音矢量,将所述第二语音片段送入所述说话人分离模型进行特征提取得到第二语音矢量,其中,所述说话人分离模型利用权利要求1至5中任意一项所述的方法训练得到;
4)计算所述第一语音矢量及所述第二语音矢量之间的距离值以得到此次分割点对应的距离值;
5)将所述第一滑窗及所述第二滑窗同时沿时间轴方向移动预设时间段,并重复执行步骤2)-5),直至所述第二滑窗到达所述预处理后的语音信号的结尾;
6)获取每次分割点对应的距离值,根据所述距离值确定局部最大值;
7)根据所述局部最大值对应的分割点将所述待分离的语音信号进行分割,得到新的语音片段;
8)将所述新的语音片段进行聚类为两个不同说话人的语音片段。
7.如权利要求6所述的方法,其特征在于,所述根据所述距离值确定局部最大值包括:
将所有分割点对应的距离值按照分割点的时间顺序进行排列;
判断f(n)是否大于f(n-1),且f(n)是否大于f(n+1),其中,f(n)为当前分割点对应的距离值,f(n-1)为当前分割点之前一个的分割点对应的距离值,f(n+1)为当前分割点之后一个的分割点对应的距离值;
如果f(n)≥f(n-1)且f(n)≥f(n+1),则确定f(n)为局部最大值。
8.如权利要求6所述的方法,其特征在于,所述根据所述距离值确定局部最大值包括:
以分割点为横轴,以分割点对应的距离值为纵轴,绘制一条平滑的曲线;
求解所述曲线上的点的切线;
将切线的斜率为零的点对应的距离值确定为局部最大值。
9.一种终端,其特征在于,所述终端包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现如权利要求1至5中任意一项所述的说话人分离模型训练方法及/或实现如权利要求6至8中任意一项所述的两说话人分离方法。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5中任意一项所述的说话人分离模型训练方法及/或实现如权利要求6至8中任意一项所述的两说话人分离方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810519521.6A CN108766440B (zh) | 2018-05-28 | 2018-05-28 | 说话人分离模型训练方法、两说话人分离方法及相关设备 |
US16/652,452 US11158324B2 (en) | 2018-05-28 | 2018-08-13 | Speaker separation model training method, two-speaker separation method and computing device |
JP2019572830A JP2020527248A (ja) | 2018-05-28 | 2018-08-13 | 話者分離モデルの訓練方法、両話者の分離方法及び関連設備 |
SG11202003722SA SG11202003722SA (en) | 2018-05-28 | 2018-08-13 | Speaker separation model training method, two-speaker separation method and computing device |
PCT/CN2018/100174 WO2019227672A1 (zh) | 2018-05-28 | 2018-08-13 | 说话人分离模型训练方法、两说话人分离方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810519521.6A CN108766440B (zh) | 2018-05-28 | 2018-05-28 | 说话人分离模型训练方法、两说话人分离方法及相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108766440A true CN108766440A (zh) | 2018-11-06 |
CN108766440B CN108766440B (zh) | 2020-01-14 |
Family
ID=64006219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810519521.6A Active CN108766440B (zh) | 2018-05-28 | 2018-05-28 | 说话人分离模型训练方法、两说话人分离方法及相关设备 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11158324B2 (zh) |
JP (1) | JP2020527248A (zh) |
CN (1) | CN108766440B (zh) |
SG (1) | SG11202003722SA (zh) |
WO (1) | WO2019227672A1 (zh) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109545186A (zh) * | 2018-12-16 | 2019-03-29 | 初速度(苏州)科技有限公司 | 一种语音识别训练系统及方法 |
CN109686382A (zh) * | 2018-12-29 | 2019-04-26 | 平安科技(深圳)有限公司 | 一种说话人聚类方法和装置 |
CN110197665A (zh) * | 2019-06-25 | 2019-09-03 | 广东工业大学 | 一种用于公安刑侦监听的语音分离与跟踪方法 |
CN110289002A (zh) * | 2019-06-28 | 2019-09-27 | 四川长虹电器股份有限公司 | 一种端到端的说话人聚类方法及系统 |
CN110390946A (zh) * | 2019-07-26 | 2019-10-29 | 龙马智芯(珠海横琴)科技有限公司 | 一种语音信号处理方法、装置、电子设备和存储介质 |
CN110444223A (zh) * | 2019-06-26 | 2019-11-12 | 平安科技(深圳)有限公司 | 基于循环神经网络和声学特征的说话人分离方法及装置 |
CN110718228A (zh) * | 2019-10-22 | 2020-01-21 | 中信银行股份有限公司 | 语音分离方法、装置、电子设备及计算机可读存储介质 |
CN110853618A (zh) * | 2019-11-19 | 2020-02-28 | 腾讯科技(深圳)有限公司 | 一种语种识别的方法、模型训练的方法、装置及设备 |
CN110992967A (zh) * | 2019-12-27 | 2020-04-10 | 苏州思必驰信息科技有限公司 | 一种语音信号处理方法、装置、助听器及存储介质 |
CN110992940A (zh) * | 2019-11-25 | 2020-04-10 | 百度在线网络技术(北京)有限公司 | 语音交互的方法、装置、设备和计算机可读存储介质 |
CN111009258A (zh) * | 2020-03-11 | 2020-04-14 | 浙江百应科技有限公司 | 一种单声道说话人分离模型、训练方法和分离方法 |
CN111145761A (zh) * | 2019-12-27 | 2020-05-12 | 携程计算机技术(上海)有限公司 | 模型训练的方法、声纹确认的方法、系统、设备及介质 |
CN111191787A (zh) * | 2019-12-30 | 2020-05-22 | 苏州思必驰信息科技有限公司 | 提取说话人嵌入特征的神经网络的训练方法和装置 |
CN111312256A (zh) * | 2019-10-31 | 2020-06-19 | 平安科技(深圳)有限公司 | 语音身份识别的方法、装置及计算机设备 |
CN111370019A (zh) * | 2020-03-02 | 2020-07-03 | 字节跳动有限公司 | 声源分离方法及装置、神经网络的模型训练方法及装置 |
CN111370032A (zh) * | 2020-02-20 | 2020-07-03 | 厦门快商通科技股份有限公司 | 语音分离方法、系统、移动终端及存储介质 |
CN111477240A (zh) * | 2020-04-07 | 2020-07-31 | 浙江同花顺智能科技有限公司 | 音频处理方法、装置、设备和存储介质 |
CN111524521A (zh) * | 2020-04-22 | 2020-08-11 | 北京小米松果电子有限公司 | 声纹提取模型训练方法和声纹识别方法、及其装置和介质 |
CN111524527A (zh) * | 2020-04-30 | 2020-08-11 | 合肥讯飞数码科技有限公司 | 话者分离方法、装置、电子设备和存储介质 |
CN111640438A (zh) * | 2020-05-26 | 2020-09-08 | 同盾控股有限公司 | 音频数据处理方法、装置、存储介质及电子设备 |
CN111785291A (zh) * | 2020-07-02 | 2020-10-16 | 北京捷通华声科技股份有限公司 | 语音分离方法和语音分离装置 |
CN111899755A (zh) * | 2020-08-11 | 2020-11-06 | 华院数据技术(上海)有限公司 | 一种说话人语音分离方法及相关设备 |
CN111933153A (zh) * | 2020-07-07 | 2020-11-13 | 北京捷通华声科技股份有限公司 | 一种语音分割点的确定方法和装置 |
CN111985934A (zh) * | 2020-07-30 | 2020-11-24 | 浙江百世技术有限公司 | 智能客服对话模型构建方法及应用 |
CN112289323A (zh) * | 2020-12-29 | 2021-01-29 | 深圳追一科技有限公司 | 语音数据处理方法、装置、计算机设备和存储介质 |
CN112489682A (zh) * | 2020-11-25 | 2021-03-12 | 平安科技(深圳)有限公司 | 音频处理方法、装置、电子设备和存储介质 |
JP2021135314A (ja) * | 2020-02-21 | 2021-09-13 | 日本電信電話株式会社 | 学習装置、音声認識装置、学習方法、および、学習プログラム |
CN113870893A (zh) * | 2021-09-27 | 2021-12-31 | 中国科学院声学研究所 | 一种多通道双说话人分离方法及系统 |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11392639B2 (en) * | 2020-03-31 | 2022-07-19 | Uniphore Software Systems, Inc. | Method and apparatus for automatic speaker diarization |
CN111613249A (zh) * | 2020-05-22 | 2020-09-01 | 云知声智能科技股份有限公司 | 一种语音分析方法和设备 |
CN111680631B (zh) * | 2020-06-09 | 2023-12-22 | 广州视源电子科技股份有限公司 | 模型训练方法及装置 |
CN112071330B (zh) * | 2020-09-16 | 2022-09-20 | 腾讯科技(深圳)有限公司 | 一种音频数据处理方法、设备以及计算机可读存储介质 |
CN112071329B (zh) * | 2020-09-16 | 2022-09-16 | 腾讯科技(深圳)有限公司 | 一种多人的语音分离方法、装置、电子设备和存储介质 |
CN112700766B (zh) * | 2020-12-23 | 2024-03-19 | 北京猿力未来科技有限公司 | 语音识别模型的训练方法及装置、语音识别方法及装置 |
CN112820292B (zh) * | 2020-12-29 | 2023-07-18 | 平安银行股份有限公司 | 生成会议纪要的方法、装置、电子装置及存储介质 |
KR20220115453A (ko) * | 2021-02-10 | 2022-08-17 | 삼성전자주식회사 | 음성 구간 인식의 향상을 지원하는 전자 장치 |
KR20220136750A (ko) * | 2021-04-01 | 2022-10-11 | 삼성전자주식회사 | 사용자 발화를 처리하는 전자 장치, 및 그 전자 장치의 제어 방법 |
CN113178205B (zh) * | 2021-04-30 | 2024-07-05 | 平安科技(深圳)有限公司 | 语音分离方法、装置、计算机设备及存储介质 |
KR20220169242A (ko) * | 2021-06-18 | 2022-12-27 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 개인화된 음성 처리 방법 |
US20220406324A1 (en) * | 2021-06-18 | 2022-12-22 | Samsung Electronics Co., Ltd. | Electronic device and personalized audio processing method of the electronic device |
WO2023281717A1 (ja) * | 2021-07-08 | 2023-01-12 | 日本電信電話株式会社 | 話者ダイアライゼーション方法、話者ダイアライゼーション装置および話者ダイアライゼーションプログラム |
CN113362831A (zh) * | 2021-07-12 | 2021-09-07 | 科大讯飞股份有限公司 | 一种说话人分离方法及其相关设备 |
CN113571085B (zh) * | 2021-07-24 | 2023-09-22 | 平安科技(深圳)有限公司 | 语音分离方法、系统、装置和存储介质 |
CN113657289B (zh) * | 2021-08-19 | 2023-08-08 | 北京百度网讯科技有限公司 | 阈值估计模型的训练方法、装置和电子设备 |
WO2023047475A1 (ja) * | 2021-09-21 | 2023-03-30 | 日本電信電話株式会社 | 推定装置、推定方法、および、推定プログラム |
KR20230042998A (ko) * | 2021-09-23 | 2023-03-30 | 한국전자통신연구원 | 음성 구간 분리 장치 및 그 방법 |
CN114363531B (zh) * | 2022-01-14 | 2023-08-01 | 中国平安人寿保险股份有限公司 | 基于h5的文案解说视频生成方法、装置、设备以及介质 |
CN115171716B (zh) * | 2022-06-14 | 2024-04-19 | 武汉大学 | 一种基于空间特征聚类的连续语音分离方法、系统及电子设备 |
US20240079023A1 (en) * | 2022-09-06 | 2024-03-07 | Dell Products, L.P. | Equalization of audio during a collaboration session in a heterogenous computing platform |
CN115659162B (zh) * | 2022-09-15 | 2023-10-03 | 云南财经大学 | 雷达辐射源信号脉内特征提取方法、系统及设备 |
CN116092512A (zh) * | 2022-12-30 | 2023-05-09 | 重庆邮电大学 | 一种基于数据生成的小样本语音分离方法 |
CN117037255B (zh) * | 2023-08-22 | 2024-06-21 | 北京中科深智科技有限公司 | 基于有向图的3d表情合成方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016095218A1 (en) * | 2014-12-19 | 2016-06-23 | Dolby Laboratories Licensing Corporation | Speaker identification using spatial information |
CN106683661A (zh) * | 2015-11-05 | 2017-05-17 | 阿里巴巴集团控股有限公司 | 基于语音的角色分离方法及装置 |
CN107180628A (zh) * | 2017-05-19 | 2017-09-19 | 百度在线网络技术(北京)有限公司 | 建立声学特征提取模型的方法、提取声学特征的方法、装置 |
CN107221320A (zh) * | 2017-05-19 | 2017-09-29 | 百度在线网络技术(北京)有限公司 | 训练声学特征提取模型的方法、装置、设备和计算机存储介质 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0272398A (ja) | 1988-09-07 | 1990-03-12 | Hitachi Ltd | 音声信号用前処理装置 |
KR100612840B1 (ko) | 2004-02-18 | 2006-08-18 | 삼성전자주식회사 | 모델 변이 기반의 화자 클러스터링 방법, 화자 적응 방법및 이들을 이용한 음성 인식 장치 |
JP2008051907A (ja) | 2006-08-22 | 2008-03-06 | Toshiba Corp | 発話区間識別装置及びその方法 |
JP6430318B2 (ja) | 2015-04-06 | 2018-11-28 | 日本電信電話株式会社 | 不正音声入力判定装置、方法及びプログラム |
JP2017120595A (ja) | 2015-12-29 | 2017-07-06 | 花王株式会社 | 化粧料の塗布状態の評価方法 |
WO2018013200A1 (en) | 2016-07-14 | 2018-01-18 | Magic Leap, Inc. | Deep neural network for iris identification |
US9824692B1 (en) * | 2016-09-12 | 2017-11-21 | Pindrop Security, Inc. | End-to-end speaker recognition using deep neural network |
JP6365859B1 (ja) | 2016-10-11 | 2018-08-01 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 撮像装置、撮像システム、移動体、方法及びプログラム |
US10497382B2 (en) * | 2016-12-16 | 2019-12-03 | Google Llc | Associating faces with voices for speaker diarization within videos |
CN107342077A (zh) | 2017-05-27 | 2017-11-10 | 国家计算机网络与信息安全管理中心 | 一种基于因子分析的说话人分段聚类方法及系统 |
CN107680611B (zh) * | 2017-09-13 | 2020-06-16 | 电子科技大学 | 基于卷积神经网络的单通道声音分离方法 |
US10529349B2 (en) * | 2018-04-16 | 2020-01-07 | Mitsubishi Electric Research Laboratories, Inc. | Methods and systems for end-to-end speech separation with unfolded iterative phase reconstruction |
US11010436B1 (en) * | 2018-04-20 | 2021-05-18 | Facebook, Inc. | Engaging users by personalized composing-content recommendation |
-
2018
- 2018-05-28 CN CN201810519521.6A patent/CN108766440B/zh active Active
- 2018-08-13 WO PCT/CN2018/100174 patent/WO2019227672A1/zh active Application Filing
- 2018-08-13 SG SG11202003722SA patent/SG11202003722SA/en unknown
- 2018-08-13 JP JP2019572830A patent/JP2020527248A/ja active Pending
- 2018-08-13 US US16/652,452 patent/US11158324B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016095218A1 (en) * | 2014-12-19 | 2016-06-23 | Dolby Laboratories Licensing Corporation | Speaker identification using spatial information |
CN106683661A (zh) * | 2015-11-05 | 2017-05-17 | 阿里巴巴集团控股有限公司 | 基于语音的角色分离方法及装置 |
CN107180628A (zh) * | 2017-05-19 | 2017-09-19 | 百度在线网络技术(北京)有限公司 | 建立声学特征提取模型的方法、提取声学特征的方法、装置 |
CN107221320A (zh) * | 2017-05-19 | 2017-09-29 | 百度在线网络技术(北京)有限公司 | 训练声学特征提取模型的方法、装置、设备和计算机存储介质 |
Cited By (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109545186A (zh) * | 2018-12-16 | 2019-03-29 | 初速度(苏州)科技有限公司 | 一种语音识别训练系统及方法 |
CN109545186B (zh) * | 2018-12-16 | 2022-05-27 | 魔门塔(苏州)科技有限公司 | 一种语音识别训练系统及方法 |
CN109686382A (zh) * | 2018-12-29 | 2019-04-26 | 平安科技(深圳)有限公司 | 一种说话人聚类方法和装置 |
CN110197665A (zh) * | 2019-06-25 | 2019-09-03 | 广东工业大学 | 一种用于公安刑侦监听的语音分离与跟踪方法 |
CN110444223A (zh) * | 2019-06-26 | 2019-11-12 | 平安科技(深圳)有限公司 | 基于循环神经网络和声学特征的说话人分离方法及装置 |
WO2020258661A1 (zh) * | 2019-06-26 | 2020-12-30 | 平安科技(深圳)有限公司 | 基于循环神经网络和声学特征的说话人分离方法及装置 |
CN110444223B (zh) * | 2019-06-26 | 2023-05-23 | 平安科技(深圳)有限公司 | 基于循环神经网络和声学特征的说话人分离方法及装置 |
CN110289002A (zh) * | 2019-06-28 | 2019-09-27 | 四川长虹电器股份有限公司 | 一种端到端的说话人聚类方法及系统 |
CN110289002B (zh) * | 2019-06-28 | 2021-04-27 | 四川长虹电器股份有限公司 | 一种端到端的说话人聚类方法及系统 |
CN110390946A (zh) * | 2019-07-26 | 2019-10-29 | 龙马智芯(珠海横琴)科技有限公司 | 一种语音信号处理方法、装置、电子设备和存储介质 |
CN110718228A (zh) * | 2019-10-22 | 2020-01-21 | 中信银行股份有限公司 | 语音分离方法、装置、电子设备及计算机可读存储介质 |
CN111312256B (zh) * | 2019-10-31 | 2024-05-10 | 平安科技(深圳)有限公司 | 语音身份识别的方法、装置及计算机设备 |
CN111312256A (zh) * | 2019-10-31 | 2020-06-19 | 平安科技(深圳)有限公司 | 语音身份识别的方法、装置及计算机设备 |
CN110853618B (zh) * | 2019-11-19 | 2022-08-19 | 腾讯科技(深圳)有限公司 | 一种语种识别的方法、模型训练的方法、装置及设备 |
CN110853618A (zh) * | 2019-11-19 | 2020-02-28 | 腾讯科技(深圳)有限公司 | 一种语种识别的方法、模型训练的方法、装置及设备 |
CN110992940A (zh) * | 2019-11-25 | 2020-04-10 | 百度在线网络技术(北京)有限公司 | 语音交互的方法、装置、设备和计算机可读存储介质 |
US11250854B2 (en) | 2019-11-25 | 2022-02-15 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for voice interaction, device and computer-readable storage medium |
CN111145761A (zh) * | 2019-12-27 | 2020-05-12 | 携程计算机技术(上海)有限公司 | 模型训练的方法、声纹确认的方法、系统、设备及介质 |
CN110992967A (zh) * | 2019-12-27 | 2020-04-10 | 苏州思必驰信息科技有限公司 | 一种语音信号处理方法、装置、助听器及存储介质 |
CN111145761B (zh) * | 2019-12-27 | 2022-05-24 | 携程计算机技术(上海)有限公司 | 模型训练的方法、声纹确认的方法、系统、设备及介质 |
CN111191787A (zh) * | 2019-12-30 | 2020-05-22 | 苏州思必驰信息科技有限公司 | 提取说话人嵌入特征的神经网络的训练方法和装置 |
CN111370032A (zh) * | 2020-02-20 | 2020-07-03 | 厦门快商通科技股份有限公司 | 语音分离方法、系统、移动终端及存储介质 |
CN111370032B (zh) * | 2020-02-20 | 2023-02-14 | 厦门快商通科技股份有限公司 | 语音分离方法、系统、移动终端及存储介质 |
JP7359028B2 (ja) | 2020-02-21 | 2023-10-11 | 日本電信電話株式会社 | 学習装置、学習方法、および、学習プログラム |
JP2021135314A (ja) * | 2020-02-21 | 2021-09-13 | 日本電信電話株式会社 | 学習装置、音声認識装置、学習方法、および、学習プログラム |
CN111370019B (zh) * | 2020-03-02 | 2023-08-29 | 字节跳动有限公司 | 声源分离方法及装置、神经网络的模型训练方法及装置 |
CN111370019A (zh) * | 2020-03-02 | 2020-07-03 | 字节跳动有限公司 | 声源分离方法及装置、神经网络的模型训练方法及装置 |
CN111009258A (zh) * | 2020-03-11 | 2020-04-14 | 浙江百应科技有限公司 | 一种单声道说话人分离模型、训练方法和分离方法 |
CN111477240B (zh) * | 2020-04-07 | 2023-04-07 | 浙江同花顺智能科技有限公司 | 音频处理方法、装置、设备和存储介质 |
CN111477240A (zh) * | 2020-04-07 | 2020-07-31 | 浙江同花顺智能科技有限公司 | 音频处理方法、装置、设备和存储介质 |
CN111524521B (zh) * | 2020-04-22 | 2023-08-08 | 北京小米松果电子有限公司 | 声纹提取模型训练方法和声纹识别方法、及其装置和介质 |
CN111524521A (zh) * | 2020-04-22 | 2020-08-11 | 北京小米松果电子有限公司 | 声纹提取模型训练方法和声纹识别方法、及其装置和介质 |
CN111524527A (zh) * | 2020-04-30 | 2020-08-11 | 合肥讯飞数码科技有限公司 | 话者分离方法、装置、电子设备和存储介质 |
CN111524527B (zh) * | 2020-04-30 | 2023-08-22 | 合肥讯飞数码科技有限公司 | 话者分离方法、装置、电子设备和存储介质 |
CN111640438B (zh) * | 2020-05-26 | 2023-09-05 | 同盾控股有限公司 | 音频数据处理方法、装置、存储介质及电子设备 |
CN111640438A (zh) * | 2020-05-26 | 2020-09-08 | 同盾控股有限公司 | 音频数据处理方法、装置、存储介质及电子设备 |
CN111785291A (zh) * | 2020-07-02 | 2020-10-16 | 北京捷通华声科技股份有限公司 | 语音分离方法和语音分离装置 |
CN111933153A (zh) * | 2020-07-07 | 2020-11-13 | 北京捷通华声科技股份有限公司 | 一种语音分割点的确定方法和装置 |
CN111933153B (zh) * | 2020-07-07 | 2024-03-08 | 北京捷通华声科技股份有限公司 | 一种语音分割点的确定方法和装置 |
CN111985934A (zh) * | 2020-07-30 | 2020-11-24 | 浙江百世技术有限公司 | 智能客服对话模型构建方法及应用 |
CN111899755A (zh) * | 2020-08-11 | 2020-11-06 | 华院数据技术(上海)有限公司 | 一种说话人语音分离方法及相关设备 |
CN112489682A (zh) * | 2020-11-25 | 2021-03-12 | 平安科技(深圳)有限公司 | 音频处理方法、装置、电子设备和存储介质 |
CN112489682B (zh) * | 2020-11-25 | 2023-05-23 | 平安科技(深圳)有限公司 | 音频处理方法、装置、电子设备和存储介质 |
CN112289323B (zh) * | 2020-12-29 | 2021-05-28 | 深圳追一科技有限公司 | 语音数据处理方法、装置、计算机设备和存储介质 |
CN112289323A (zh) * | 2020-12-29 | 2021-01-29 | 深圳追一科技有限公司 | 语音数据处理方法、装置、计算机设备和存储介质 |
CN113870893A (zh) * | 2021-09-27 | 2021-12-31 | 中国科学院声学研究所 | 一种多通道双说话人分离方法及系统 |
CN113870893B (zh) * | 2021-09-27 | 2024-09-03 | 中国科学院声学研究所 | 一种多通道双说话人分离方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2019227672A1 (zh) | 2019-12-05 |
US20200234717A1 (en) | 2020-07-23 |
CN108766440B (zh) | 2020-01-14 |
US11158324B2 (en) | 2021-10-26 |
SG11202003722SA (en) | 2020-12-30 |
JP2020527248A (ja) | 2020-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108766440A (zh) | 说话人分离模型训练方法、两说话人分离方法及相关设备 | |
Nagrani et al. | Voxceleb: Large-scale speaker verification in the wild | |
US10438592B2 (en) | Diarization using speech segment labeling | |
CN110289003B (zh) | 一种声纹识别的方法、模型训练的方法以及服务器 | |
CN108564942B (zh) | 一种基于敏感度可调的语音情感识别方法及系统 | |
Xia et al. | Cross-lingual text-independent speaker verification using unsupervised adversarial discriminative domain adaptation | |
CN110473566A (zh) | 音频分离方法、装置、电子设备及计算机可读存储介质 | |
CN108630193A (zh) | 语音识别方法及装置 | |
CN111199741A (zh) | 声纹识别方法、声纹验证方法、装置、计算设备及介质 | |
US20240160849A1 (en) | Speaker diarization supporting episodical content | |
WO2022100692A1 (zh) | 人声音频录制方法和装置 | |
CN110136726A (zh) | 一种语音性别的估计方法、装置、系统及存储介质 | |
Sapra et al. | Emotion recognition from speech | |
CN110364178A (zh) | 一种语音处理方法、装置、存储介质和电子设备 | |
CN110569908B (zh) | 说话人计数方法及系统 | |
WO2023279691A1 (zh) | 语音分类方法、模型训练方法及装置、设备、介质和程序 | |
CN111933187B (zh) | 情感识别模型的训练方法、装置、计算机设备和存储介质 | |
Bhowmick et al. | Identification/segmentation of indian regional languages with singular value decomposition based feature embedding | |
CN111477226A (zh) | 控制方法、智能设备和存储介质 | |
CN116312559A (zh) | 跨信道声纹识别模型的训练方法、声纹识别方法及装置 | |
US20230238002A1 (en) | Signal processing device, signal processing method and program | |
CN114171032A (zh) | 跨信道声纹模型训练方法、识别方法、装置及可读介质 | |
CN113870890A (zh) | 说话人分割聚类方法、装置、设备及存储介质 | |
Ghahabi et al. | EML Submission to Albayzin 2018 Speaker Diarization Challenge. | |
CN113689861B (zh) | 一种单声道通话录音的智能分轨方法、装置和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |