CN111524527B - 话者分离方法、装置、电子设备和存储介质 - Google Patents
话者分离方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN111524527B CN111524527B CN202010365591.8A CN202010365591A CN111524527B CN 111524527 B CN111524527 B CN 111524527B CN 202010365591 A CN202010365591 A CN 202010365591A CN 111524527 B CN111524527 B CN 111524527B
- Authority
- CN
- China
- Prior art keywords
- candidate
- voice
- voiceprint
- clustering
- speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000926 separation method Methods 0.000 title claims abstract description 89
- 239000012634 fragment Substances 0.000 claims abstract description 90
- 238000011156 evaluation Methods 0.000 claims abstract description 52
- 238000000034 method Methods 0.000 claims abstract description 29
- 238000000605 extraction Methods 0.000 claims description 87
- 238000012549 training Methods 0.000 claims description 22
- 238000013145 classification model Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/028—Voice signal separating using properties of sound source
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例提供一种话者分离方法、装置、电子设备和存储介质,其中方法包括:确定待分离音频文件包含的多个语音片段的声纹特征;其中,单一语音片段仅包含单一话者的语音;对所有语音片段的声纹特征进行聚类,得到多个候选话者数量分别对应的候选聚类结果;基于任一候选话者数量对应的候选聚类结果,确定该候选话者数量对应的聚类评估结果;基于每一候选话者数量分别对应的候选聚类结果和聚类评估结果,确定话者分离结果。本发明实施例提供的方法、装置、电子设备和存储介质,实现了不确定话者数量情况下的无源话者分割,避免了固定话者数量或通过固定阈值来确定话者数量导致话者数量不符合实际情况,影响无源话者分离准确性的问题。
Description
技术领域
本发明涉及智能语音技术领域,尤其涉及一种话者分离方法、装置、电子设备和存储介质。
背景技术
话者分离是指将一段音频文件中分属于每一话者的音频数据进行分割,将同一话者的音频数据合并成一类,不同话者的音频数据分开,并获得每个话者音频数据的时间位置信息,即解决什么话者在什么时候说的问题。根据事先是否掌握话者信息的情况,话者分离可细分为无源话者分离与有源话者分离。其中,无源话者分离是在事先不知道音频文件所涉及的话者及人数的情况下执行的。
目前,对于电话信道获取的音频文件,无源话者分离默认话者人数为两人,并在此基础上将分割的语音片段聚成两类。但对于人数不确定的多人对话场景,无法提前确定聚类的类别数。同时,由于不同话者的风格差异大、聚类片段的时长不固定等因素,很难通过一个统一的门限阈值来自动确定类别数,导致上述无源话者分离技术难以在话者人数不确定的场景下推广应用。
发明内容
本发明实施例提供一种话者分离方法、装置、电子设备和存储介质,用以解决话者人数不确定的场景下,无源话者分离技术难以应用的问题。
第一方面,本发明实施例提供一种话者分离方法,包括:
确定待分离音频文件包含的多个语音片段的声纹特征;其中,单一语音片段仅包含单一话者的语音;
对所有语音片段的声纹特征进行聚类,得到多个候选话者数量分别对应的候选聚类结果;
基于任一候选话者数量对应的候选聚类结果,确定所述任一候选话者数量对应的聚类评估结果;
基于每一候选话者数量分别对应的候选聚类结果和聚类评估结果,确定话者分离结果。
优选地,所述确定待分离音频文件包含的多个语音片段的声纹特征,具体包括:
将任一语音片段输入至声纹提取模型,得到所述声纹提取模型输出的所述任一语音片段的声纹特征;其中,所述声纹提取模型用于提取所述任一语音片段的隐层特征,并基于所述隐层特征确定所述任一语音片段的声纹特征。
优选地,所述声纹提取模型是联合话者分类模型和文本识别模型,基于样本语音片段及其对应的话者标签和文本标签训练得到的;
所述话者分类模型用于基于所述声纹提取模型提取的所述样本语音片段的样本声纹特征,对所述样本语音片段进行话者分类,所述文本识别模型用于基于所述声纹提取模型提取的所述样本语音片段的样本隐层特征,对所述样本语音片段进行文本识别。
优选地,所述声纹提取模型是联合语音解码模型和语音增强判别模型,基于干净语音片段和带噪语音片段进行对抗训练得到的;
所述语音解码模型用于将所述声纹提取模型提取的所述带噪语音片段的隐层特征解码为增强语音片段,所述语音增强判别模型用于区分所述干净语音片段和所述增强语音片段。
优选地,所述基于任一候选话者数量对应的候选聚类结果,确定所述任一候选话者数量对应的聚类评估结果,具体包括:
基于任一候选话者数量对应的候选聚类结果,确定每个语音片段的声纹特征分别属于所述候选聚类结果中每个类别的概率;
基于每个语音片段的声纹特征分别属于所述候选聚类结果中每个类别的概率,确定所述候选聚类结果的信息熵值,作为所述任一候选话者数量对应的聚类评估结果。
优选地,所述对所有语音片段的声纹特征进行聚类,得到多个候选话者数量分别对应的候选聚类结果,具体包括:
基于任一语音片段的声纹特征与声纹库中每一库内声纹特征之间的相似度,确定所述任一语音片段的声纹在库状态;
对声纹在库状态为不在库的所有语音片段的声纹特征进行聚类,得到多个候选话者数量分别对应的候选聚类结果。
优选地,所述基于每一候选话者数量分别对应的候选聚类结果和聚类评估结果,确定话者分离结果,之后还包括:
基于所述话者分离结果,更新所述声纹库。
第二方面,本发明实施例提供一种话者分离装置,包括:
片段声纹提取单元,用于确定待分离音频文件包含的多个语音片段的声纹特征;其中,单一语音片段仅包含单一话者的语音;
片段声纹聚类单元,用于对所有语音片段的声纹特征进行聚类,得到多个候选话者数量分别对应的候选聚类结果;
聚类参数评估单元,用于基于任一候选话者数量对应的候选聚类结果,确定所述任一候选话者数量对应的聚类评估结果;
话者分离单元,用于基于每一候选话者数量分别对应的候选聚类结果和聚类评估结果,确定话者分离结果。
第三方面,本发明实施例提供一种电子设备,包括处理器、通信接口、存储器和总线,其中,处理器,通信接口,存储器通过总线完成相互间的通信,处理器可以调用存储器中的逻辑命令,以执行如第一方面所提供的方法的步骤。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面所提供的方法的步骤。
本发明实施例提供的一种话者分离方法、装置、电子设备和存储介质,通过多个候选话者数量分别对应的候选聚类结果,分别得到多个候选话者数量的聚类评估结果,并基于此确定话者分离结果,实现了不确定话者数量情况下的无源话者分割,避免了固定话者数量或通过固定阈值来确定话者数量导致话者数量不符合实际情况,影响无源话者分离准确性的问题,有利于无源话者分离在话者人数不确定的场景下推广应用。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的话者分离方法的流程示意图;
图2为本发明实施例提供的多任务联合训练示意图;
图3为本发明实施例提供的对抗训练示意图;
图4为本发明实施例提供的聚类评估结果确定方法的流程示意图;
图5为本发明实施例提供的聚类方法的流程示意图;
图6为本发明实施例提供的声纹提取模型的训练示意图;
图7为本发明实施例提供的话者分离装置的结构示意图;
图8为本发明实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前无源话者分离技术主要应用于电话信道声纹识别的前端处理,具体通过分割与聚类两个阶段实现,详细的实现步骤包括:将待分离的音频文件分割为多个语音片段,目标是使得每个语音片段中均只包含一个话者的语音;随即,对多个语音片段进行聚类,直至聚成两类为止。在此过程中,待分割的音频文件中是否只包含两个话者的语音,会直接影响话者分离的效果,如果待分割的音频文件中只包含一个话者的语音,上述方法也会强制将一个话者的语音切割两个部分,如果待分割的音频文件中包含多于两个话者的语音,那么聚类纯度会严重受损。由此可见,在不确定话者数量的情况下,如何实现准确的无源话者分割,仍然是话者分割领域亟待解决的问题。
对此,本发明实施例提供了一种话者分离方法。图1为本发明实施例提供的话者分离方法的流程示意图,如图1所示,该方法包括:
步骤110,确定待分离音频文件所包含的多个语音片段的声纹特征;其中,单一语音片段仅包含单一话者的语音。
此处,待分离音频文件即需要进行话者分离的音频文件,待分离音频文件可以包含多个语音片段。在同一时刻仅一个话者发言,不存在多个话者同时发言的场景下,后一话者在前一话者发言结束后发言,两段发言之间存在间隔,待分离音频文件中包含的多个语音片段可以通过语音端点检测(Voice Activity Detection,VAD)进行分割得到。又或者,可以基于BIC(Bayesian Information Criterion,贝叶斯信息准则)对待分离音频文件进行话者变化点检测,依据检测的结果进行音频分割,得到多个语音片段。
在得到多个语音片段后,可以分别获取每个语音片段的声纹特征。任一语音片段的声纹特征具体是指该语音片段中话者所体现的声音特征。语音片段的声纹特征可以通过将语音片段输入到预先训练好的声纹特征提取模型得到。
步骤120,对所有语音片段的声纹特征进行聚类,得到多个候选话者数量分别对应的候选聚类结果。
具体地,候选话者数量有多个,可以是预先设定的待分离音频文件中可能包含的话者数量,候选话者数量的设定可以与待分离音频文件的获取场景相关联,例如飞航过程中飞行员和相关人员进行通话的场景下,话者数量可能在3至6人之间,对应的候选话者数量分别为3、4、5、6;又例如待分离音频文件是在小型会客室录制的,小型会客室设置有4个座位,则话者数量可能在2至4人之间,对应的候选话者数量分别为2、3、4。
经过步骤110得到所有语音片段的声纹特征后,可以对所有声纹特征进行聚类,此处应用的聚类算法可以是EM算法(Expectation-maximization algorithm,最大期望值算法),也可以是K-Means(K均值)聚类算法或层次聚类算法等,本发明实施例对此不作具体限定。需要说明的是,通过聚类所得到的并不是传统聚类算法最终输出的唯一的聚类结果,而是分别对应于多个候选话者数量的多个候选聚类结果。此处,每个候选话者数量均对应一个候选聚类结果,候选聚类结果中的类别数即对应的候选话者数量。例如,候选话者数量为3时,对应的候选聚类结果中包含3个类别,候选话者数量为4时,对应的候选聚类结果中包含4个类别。
步骤130,基于任一候选话者数量对应的候选聚类结果,确定该候选话者数量对应的聚类评估结果。
具体地,聚类评估结果即对候选话者数量的候选聚类结果进行评估的得到的评估结果,聚类评估结果用于表征对应候选聚类结果的质量,具体可以表示为候选聚类结果中各个类别的类内聚集程度、类间离散程度等,还可以表示为候选聚类结果可能发生的概率,本发明实施例对此不做具体限定。
步骤140,基于每一候选话者数量分别对应的候选聚类结果和聚类评估结果,确定话者分离结果。
具体地,在得到每一候选话者数量的聚类评估结果后,可以基于每一候选话者数量的聚类评估结果,对每一候选话者数量分别对应的候选聚类结果的质量进行比对,进而从中挑选出聚类评估结果最优的候选聚类结果,将聚类评估结果最优的候选聚类结果作为待分离音频文件的话者分离结果,将其对应的候选话者数量作为待分离音频文件中实际包含的话者数量。
进一步地,在基于每一候选话者数量分别对应的候选聚类结果和聚类评估结果确定话者分离结果时,针对任一聚类评估结果,候选聚类结果中各个类别的类内聚集程度和类间离散程度越高,则候选聚类结果的质量越高,越可能被选为话者分离结果;候选聚类结果可能发生的概率越高,则候选聚类结果的质量越高,越可能被选为话者分离结果。
本发明实施例提供的方法,通过多个候选话者数量分别对应的候选聚类结果,分别得到多个候选话者数量的聚类评估结果,并基于此确定话者分离结果,实现了不确定话者数量情况下的无源话者分割,避免了固定话者数量或通过固定阈值来确定话者数量导致话者数量不符合实际情况,影响无源话者分离准确性的问题,有利于无源话者分离在话者人数不确定的场景下推广应用。
基于上述实施例,步骤110具体包括:将任一语音片段输入至声纹提取模型,得到声纹提取模型输出的该语音片段的声纹特征;其中,声纹提取模型用于提取该语音片段的隐层特征,并基于隐层特征确定该语音片段的声纹特征。
具体地,可以将待分离音频文件中的任一语音片段输入到预先训练好的声纹提取模型中,由声纹提取模型对该语音片段进行编码并提取该语音片段编码后的隐层特征,并在此基础上,对该语音片段的隐层特征进行声纹特征提取,输出该语音片段的声纹特征。
进一步地,声纹提取模型可以包括隐层特征提取层和声纹特征提取层;其中,隐层特征提取层用于对输入的语音片段进行编码并提取该语音片段编码后的隐层特征,声纹特征提取层用于对隐层特征提取层输出的隐层特征进行声纹特征提取,并输出声纹特征。
在执行步骤110之前,还可以预先训练得到声纹提取模型,例如可以通过如下方法训练得到声纹提取模型:首先,收集大量样本语音片段及其对应的样本声纹特征,应用样本语音片段和样本声纹特征对初始模型进行训练,从而得到声纹提取模型。
考虑到在一些特定的场景,例如飞航过程中飞行员和相关人员进行通话的场景,主题明确的会议讨论场景等,待分离音频文件中包含语音所对应的文本内容实际上十分有限,多为行业术语,其中存在相同文本的概率较高,且文本内容可以形成相对稳定的闭集。
基于上述任一实施例,图2为本发明实施例提供的多任务联合训练示意图,如图2所示,声纹提取模型是联合话者分类模型和文本识别模型,基于样本语音片段及其对应的话者标签和文本标签训练得到的;话者分类模型用于基于声纹提取模型提取的样本语音片段的样本声纹特征,对样本语音片段进行话者分类,文本识别模型用于基于声纹提取模型提取的样本语音片段的样本隐层特征,对样本语音片段进行文本识别。
具体地,训练过程中,将样本语音片段输入至声纹提取模型,由声纹提取模型对样本语音片段进行编码,提取样本语音片段编码后的样本隐层特征,并对样本隐层特征进行声纹特征提取,输出样本语音片段的样本声纹特征。
将声纹提取模型输出的样本声纹特征输入至话者分类模型,由话者分类模型预测样本声纹特征所对应的话者身份并输出。此外,将声纹提取模型中间产生的样本隐层特征输入至文本识别模型,由文本识别模型基于样本隐层特征对样本语音片段进行文本识别,并输出识别文本。
在得到话者分类模型输出的话者身份和文本识别模型输出的识别文本后,可以将话者身份和识别文本分别与样本语音片段对应的话者标签和文本标签进行比对,从而更新声纹提取模型、话者分类模型与文本识别模型的模型参数,实现针对声纹提取模型的多目标训练。
参考图2示出的模型结构,话者分类模型和文本识别模型在分别进行话者分类和文本识别时,共用了声纹提取模型中用于提取隐层特征的部分,即图2中的隐层特征提取层,隐层特征提取层的共用使得多目标训练过程中话者分类模型和文本识别模型能够实现信息共享,从而充分利用特定场景下待分离音频文件中包含语音所对应的文本内容相对固定的优势,使得声纹提取模型能够更好地区分相同文本内容下不同话者的音频片段所表征的声纹特征,提高声纹提取模型输出声纹特征的准确性。
本发明实施例提供的方法,联合话者分类模型和文本识别模型实现声纹提取模型的多目标训练,优化声纹提取模型针对相同文本内容的不同话者声纹特征的区分性,从而提高输出声纹特征的可靠性,进而实现准确可靠的话者分离。
待分离音频文件中可能包含大量的环境噪声,如果不进行降噪处理,基于语音片段提取的声纹特征中必然也会包含噪声带来的影响,严重影响话者分离的聚类纯度。针对这一问题,基于上述任一实施例,图3为本发明实施例提供的对抗训练示意图,如图3所示,声纹提取模型是联合语音解码模型和语音增强判别模型,基于干净语音片段和带噪语音片段进行对抗训练得到的;语音解码模型用于将声纹提取模型提取的带噪语音片段的隐层特征解码为增强语音片段,语音增强判别模型用于区分干净语音片段和增强语音片段。
具体地,可以预先收集干净语音片段和带噪语音片段。此处,干净语音片段是指不包含环境噪声的语音片段,带噪语音片段即包含环境噪声的语音片段,带噪语音片段可以通过对干净语音片段进行加噪处理得到。
在训练过程中,将带噪语音片段输入至声纹提取模型,由声纹提取模型对带噪语音片段进行编码,提取带噪语音片段编码后的样本隐层特征。随即将带噪语音片段对应的样本隐层特征输入至语音解码模型,由语音解码模型对样本隐层特征进行解码还原,得到并输出带噪语音片段对应的增强语音片段。然后将增强语音片段输入至语音增强判别模型,由语音增强判别模型判别输入的语音片段是干净语音片段还是增强语音片段。
将声纹提取模型联合语音解码模型和语音增强判别模型进行对抗训练的目的,在于通过声纹提取模型和语音解码模型得到的增强语音片段能够无限接近真实的干净语音片段,使得语音增强判别模型无法区分输入的语音片段是真实的干净语音片段,还是经过声纹提取模型和语音解码模型得到的增强语音片段。经过对抗训练后的声纹提取模型中用于提取隐层特征的部分,即图3示出的隐层特征提取层,具备在提取隐层特征的同时尽量滤除语音片段中包含的环境噪声的能力。
本发明实施例提供的方法,通过对抗训练在实现声纹提取功能的同时,实现了语音增强功能,从而保证声纹提取模型在进行语音片段的声纹提取时,能够有效抑制语音片段中裹挟的环境噪声干扰,提高输出声纹特征的准确性,从而实现准确可靠的话者分离。
基于上述任一实施例,图4为本发明实施例提供的聚类评估结果确定方法的流程示意图,如图4所示,步骤130具体包括:
步骤131,基于任一候选话者数量对应的候选聚类结果,确定每个语音片段的声纹特征分别属于候选聚类结果中每个类别的概率。
具体地,任一候选话者数量对应的候选聚类结果包括该候选话者数量个类别。在得到候选聚类结果后,可以计算每个语音片段的声纹特征分别属于候选聚类结果中每个类别的概率。
例如,候选话者数量为3,对应的候选聚类结果包括3个类别,分别表示为c1、c2和c3,假设待分离音频文件共包含n个语音片段,则其中第i个语音片段的声纹特征属于3个类别的概率可以表示为picm3=(pic1,pic2,pic3)′,式中pic1、pic2和pic3分别为第i个语音片段的声纹特征属于类别c1、c2和c3的概率。
在此基础上,可以得到每个语音片段的声纹特征分别属于候选聚类结果中每个类别的概率,具体表示为P3={p1cm3,p2cm3,...,picm3,...,pncm3}n*3。
步骤132,基于每个语音片段的声纹特征分别属于候选聚类结果中每个类别的概率,确定候选聚类结果的信息熵值,作为该候选话者数量对应的聚类评估结果。
具体地,在得到每个语音片段的声纹特征分别属于候选聚类结果中每个类别的概率后,即可计算该候选聚类结果的信息熵值。此处,候选聚类结果的信息熵值可以反映该候选聚类结果的发生概率,信息熵值越小,则该候选聚类结果发生的概率越大,该候选聚类结果越稳定。
本发明实施例提供的方法,将候选聚类结果的信息熵值作为候选话者数量对应的聚类评估结果用于确定话者数量和话者分离,从而解决了待分离音频文件所包含的话者数量不确定的问题,有利于无源话者分离在话者人数不确定的场景下推广应用。
基于上述任一实施例,步骤140具体包括:将最小信息熵值对应的候选话者数量作为所述最终话者数量。
具体地,将候选聚类结果的信息熵值作为对应候选话者数量的聚类评估结果后,在确定话者分离结果时,仅需要比较各个候选话者数量对应的信息熵值大小,可以将信息熵值最小的候选话者数量作为最终的话者数量。此处,信息熵值最小的候选话者数量,其对应的候选聚类结果即多个候选聚类结果中最稳定、发生概率最高的聚类结果,由此可以确定话者分离结果。
此外,还可以在得到多个候选话者数量的信息熵值的最小值之后,还可以将最小值与预先设定的信息熵值阈值进行比较,如果最小值小于信息熵值阈值,则将最小值对应的候选话者数量作为最终的话者数量,将最小值对应的候选聚类结果作为话者分离结果;如果最小值大于信息熵值阈值,则确认每个候选话者数量均不是最终的话者数量,可以重新设置候选话者数量可以聚类。
基于上述任一实施例,步骤120中的声纹特征聚类可以通过EM算法实现的,对n个音频片段的声纹特征xi进行无监督聚类,对应得到聚类的结果为一个高斯混合模型其中m为任一候选话者数量,即任一候选聚类结果中的类别数,j为小于等于m的正整数,j表示候选聚类结果中的类别序号,wj为第j个类别在高斯混合模型中的权重,N(μj,∑j)为第j个类别的高斯模型。例如,候选话者数量可以是3、4、5、6,则对应地m的取值可以是3、4、5、6。
候选话者数量m=3时,可以通过如下公式计算第i个音频片段的声纹特征xi属于3个类别中任一类别中心λc的高斯占用率,作为xi属于3个类别中任一类别的概率p(xi|λc):
例如,可以通过如下公式计算xi属于3个类别中第1个类别c1的概率pic1:
式中,λc1为类别c1的中心,λj为第j个类别的类别中心。
通过上述公式即可得到m=3时n个语音片段的声纹特征分别属于候选聚类结果中每个类别的概率P3={p1cm3,p2cm3,...,picm3,...,pncm3}n*3,其中picm3为xi分别属于候选结果中每个类别的概率,picm3=(pic1,pic2,pic3)′。
在此基础上,可以将P3代入信息熵值公式,从而得到m=3时的信息熵值作为候选话者数量为3时的聚类评估结果,信息熵值公式如下:
式中,p(xi|λc)即xi属于任一类别的概率。
由此可得m=3时的信息熵值公式具体为:
式中,Ecm3即候选话者数量为3时的信息熵值,pic1*log(pic1)、pic2*log(pic2)和pic3*log(pic3)分别为xi对应于三个类别的信息熵,Ecm3即每个语音片段的声纹特征分别对应三个类别的信息熵的总和。
基于上述任一实施例,图5为本发明实施例提供的聚类方法的流程示意图,如图5所示,步骤120具体包括:
步骤121,基于任一语音片段的声纹特征与声纹库中每一库内声纹特征之间的相似度,确定该语音片段的声纹在库状态。
具体地,在得到任一语音片段的声纹特征之后,可以将该语音片段的声纹特征和声纹库中已有的声纹特征,即库内声纹特征进行匹配。
在将该语音片段的声纹特征和库内声纹特征进行匹配时,可以计算得到该语音片段的声纹特征和每一库内声纹特征之间的相似度,若该语音片段的声纹特征和任一库内声纹特征之间相似度大于等于预先设定的相似度阈值,则确定该语音片段的声纹特征与该库内声纹特征属于同一话者;若语音片段的声纹特征和每一库内声纹特征之间相似度均小于相似度阈值,则确定该语音片段的声纹特征不同于任何库内声纹特征。此处,语音片段的声纹在库状态可以是在库或不在库。
步骤122,对声纹在库状态为不在库的所有语音片段的声纹特征进行聚类,得到多个候选话者数量分别对应的候选聚类结果。
具体地,根据步骤121的判断,若已经确定任一语音片段属于库内的已有的声纹特征,则无需再对该语音片段进行聚类。步骤122中,仅对于声纹在库状态为不在库,即不属于库内的已存储的声纹特征所属话者的声纹特征进行聚类,从而减小聚类的语音片段数,提高聚类精度,避免聚类后形成的新的话者对应的声纹特征与声纹库中的已知话者重合造成数据混乱。
基于上述任一实施例,步骤140之后还包括:基于所述话者分离结果,更新所述声纹库。
具体地,在得到话者分离结果后,将话者分离结果中不同类别的声纹特征分别存储到声纹库中,从而不断充实声纹库,以减小话者分离中的不确定性,逐渐将无源话者分离问题转化为有源话者分离问题,以降低话者分离的解决难度,从而实现更加高效、准确的话者分离。
基于上述任一实施例,一种话者分离方法,包括如下步骤:
确定待分离音频文件,此处的待分离音频文件包括l个语音片段,其中每个语音片段的持续时长为0.5-3秒,只含一个话者的语音,信噪比低,语音对应的文本内容相对固定,且片段之间存在长度不一的时间间隔。
首先,采用VAD算法剔除上述l个语音片段中的噪声数据,得到l′个纯人声的语音片段。
其次,利用预先训练好的声纹提取模型,将l′个语音片段映射成l′个512维的声纹特征向量集,此处记为j-vector向量集X={x1,x2,...xi,...,xl,}。图6为本发明实施例提供的声纹提取模型的训练示意图,如图6所示,针对场景特点,此处的声纹提取模型是多目标学习优化后的模型,同时考虑了语音增强、文本识别及声纹识别三个目标,充分抑制了噪声干扰,并利用文本信息,使得声纹识别任务中的声纹特征提取层的输出向量能够更好的表征场景所述的声纹信息,有利于后续的说话人无监督聚类。
图6中,声纹提取模型的隐层特征提取层与语音解码模型相结合以实现带噪音频片段的自动编码和语音增强,隐层特征提取层与语音解码模型作为生成器,与作为判别器的语音增强判别模型构成生成对抗网络,其目的在于通过声纹提取模型和语音解码模型得到的增强语音片段能够无限接近真实的干净语音片段,使得语音增强判别模型无法区分输入的语音片段是真实的干净语音片段,还是经过声纹提取模型和语音解码模型得到的增强语音片段,从而抑制噪声干扰。同时,话者分类模型和文本识别模型在分别进行话者分类和文本识别时,共用声纹提取模型中的隐层特征提取层,使得话者分类模型和文本识别模型能够实现信息共享,从而充分利用特定场景下待分离音频文件中包含语音所对应的文本内容相对固定的优势,使得声纹提取模型能够更好地区分相同文本内容下不同话者的音频片段所表征的声纹特征。
随后,将声纹特征向量集中的l′个声纹特征分别与声纹库中的已有声纹进行比对,剔除相似度超过相似度阈值的语音片段对应的声纹特征,减小聚类的语音片段数,从而提高聚类精度。剔除超过相似度阈值后,得到n个声纹特征,记为X′={x1,x2,...xi,...,xn}。
接着,利用EM算法,对X′进行无监督聚类,分别计算多个候选话者数量下n个语音片段的声纹特征在不同类别中的概率,通过信息熵公式进一步计算得到不同候选话者数量分别对应的信息熵值,以熵值最小者为最终话者数量,将最终话者数量下的聚类结果作为话者分离结果。
基于上述任一实施例,图7为本发明实施例提供的话者分离装置的结构示意图,如图7所示,话者分离装置包括片段声纹提取单元710、片段声纹聚类单元720、聚类参数评估单元730和话者分离单元740;
片段声纹提取单元710用于确定待分离音频文件包含的多个语音片段的声纹特征;其中,单一语音片段仅包含单一话者的语音;
片段声纹聚类单元720用于对所有语音片段的声纹特征进行聚类,得到多个候选话者数量分别对应的候选聚类结果;
聚类参数评估单元730用于基于任一候选话者数量对应的候选聚类结果,确定所述任一候选话者数量对应的聚类评估结果;
话者分离单元740用于基于每一候选话者数量分别对应的候选聚类结果和聚类评估结果,确定话者分离结果。
本发明实施例提供的装置,通过多个候选话者数量分别对应的候选聚类结果,分别得到多个候选话者数量的聚类评估结果,并基于此确定话者分离结果,实现了不确定话者数量情况下的无源话者分割,避免了固定话者数量或通过固定阈值来确定话者数量导致话者数量不符合实际情况,影响无源话者分离准确性的问题,有利于无源话者分离在话者人数不确定的场景下推广应用。
基于上述任一实施例,片段声纹提取单元710具体用于:
将任一语音片段输入至声纹提取模型,得到所述声纹提取模型输出的所述任一语音片段的声纹特征;其中,所述声纹提取模型用于提取所述任一语音片段的隐层特征,并基于所述隐层特征确定所述任一语音片段的声纹特征。
基于上述任一实施例,所述声纹提取模型是联合话者分类模型和文本识别模型,基于样本语音片段及其对应的话者标签和文本标签训练得到的;
所述话者分类模型用于基于所述声纹提取模型提取的所述样本语音片段的样本声纹特征,对所述样本语音片段进行话者分类,所述文本识别模型用于基于所述声纹提取模型提取的所述样本语音片段的样本隐层特征,对所述样本语音片段进行文本识别。
基于上述任一实施例,所述声纹提取模型是联合语音解码模型和语音增强判别模型,基于干净语音片段和带噪语音片段进行对抗训练得到的;
所述语音解码模型用于将所述声纹提取模型提取的所述带噪语音片段的隐层特征解码为增强语音片段,所述语音增强判别模型用于区分所述干净语音片段和所述增强语音片段。
基于上述任一实施例,聚类参数评估单元730具体用于:
基于任一候选话者数量对应的候选聚类结果,确定每个语音片段的声纹特征分别属于所述候选聚类结果中每个类别的概率;
基于每个语音片段的声纹特征分别属于所述候选聚类结果中每个类别的概率,确定所述候选聚类结果的信息熵值,作为所述任一候选话者数量对应的聚类评估结果。
基于上述任一实施例,片段声纹聚类单元720具体用于:
基于任一语音片段的声纹特征与声纹库中每一库内声纹特征之间的相似度,确定所述任一语音片段的声纹在库状态;
对声纹在库状态为不在库的所有语音片段的声纹特征进行聚类,得到多个候选话者数量分别对应的候选聚类结果。
基于上述任一实施例,该装置还包括声纹库更新单元,所述声纹库更新单元用于基于所述话者分离结果,更新所述声纹库。
图8为本发明实施例提供的电子设备的结构示意图,如图8所示,该电子设备可以包括:处理器(processor)810、通信接口(Communications Interface)820、存储器(memory)830和通信总线840,其中,处理器810,通信接口820,存储器830通过通信总线840完成相互间的通信。处理器810可以调用存储器830中的逻辑命令,以执行如下方法:确定待分离音频文件包含的多个语音片段的声纹特征;其中,单一语音片段仅包含单一话者的语音;对所有语音片段的声纹特征进行聚类,得到多个候选话者数量分别对应的候选聚类结果;基于任一候选话者数量对应的候选聚类结果,确定所述任一候选话者数量对应的聚类评估结果;基于每一候选话者数量分别对应的候选聚类结果和聚类评估结果,确定话者分离结果。
此外,上述的存储器830中的逻辑命令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干命令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的方法,例如包括:确定待分离音频文件包含的多个语音片段的声纹特征;其中,单一语音片段仅包含单一话者的语音;对所有语音片段的声纹特征进行聚类,得到多个候选话者数量分别对应的候选聚类结果;基于任一候选话者数量对应的候选聚类结果,确定所述任一候选话者数量对应的聚类评估结果;基于每一候选话者数量分别对应的候选聚类结果和聚类评估结果,确定话者分离结果。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干命令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种话者分离方法,其特征在于,包括:
确定待分离音频文件包含的多个语音片段的声纹特征;其中,单一语音片段仅包含单一话者的语音;
对所有语音片段的声纹特征进行聚类,得到多个候选话者数量分别对应的候选聚类结果,所述候选话者数量为所述待分离音频文件包含的话者数量的候选值,所述候选话者数量与所述候选聚类结果一一对应,所述候选聚类结果中的类别数为对应的候选话者数量;
基于任一候选话者数量对应的候选聚类结果,确定所述任一候选话者数量对应的聚类评估结果,所述聚类评估结果用于表征对应候选聚类结果的质量;
基于每一候选话者数量分别对应的候选聚类结果和聚类评估结果,确定话者分离结果。
2.根据权利要求1所述的话者分离方法,其特征在于,所述确定待分离音频文件包含的多个语音片段的声纹特征,具体包括:
将任一语音片段输入至声纹提取模型,得到所述声纹提取模型输出的所述任一语音片段的声纹特征;其中,所述声纹提取模型用于提取所述任一语音片段的隐层特征,并基于所述隐层特征确定所述任一语音片段的声纹特征。
3.根据权利要求2所述的话者分离方法,其特征在于,所述声纹提取模型是联合话者分类模型和文本识别模型,基于样本语音片段及其对应的话者标签和文本标签训练得到的;
所述话者分类模型用于基于所述声纹提取模型提取的所述样本语音片段的样本声纹特征,对所述样本语音片段进行话者分类,所述文本识别模型用于基于所述声纹提取模型提取的所述样本语音片段的样本隐层特征,对所述样本语音片段进行文本识别。
4.根据权利要求2所述的话者分离方法,其特征在于,所述声纹提取模型是联合语音解码模型和语音增强判别模型,基于干净语音片段和带噪语音片段进行对抗训练得到的;
所述语音解码模型用于将所述声纹提取模型提取的所述带噪语音片段的隐层特征解码为增强语音片段,所述语音增强判别模型用于区分所述干净语音片段和所述增强语音片段。
5.根据权利要求1所述的话者分离方法,其特征在于,所述基于任一候选话者数量对应的候选聚类结果,确定所述任一候选话者数量对应的聚类评估结果,具体包括:
基于任一候选话者数量对应的候选聚类结果,确定每个语音片段的声纹特征分别属于所述候选聚类结果中每个类别的概率;
基于每个语音片段的声纹特征分别属于所述候选聚类结果中每个类别的概率,确定所述候选聚类结果的信息熵值,作为所述任一候选话者数量对应的聚类评估结果。
6.根据权利要求1至5中任一项所述的话者分离方法,其特征在于,所述对所有语音片段的声纹特征进行聚类,得到多个候选话者数量分别对应的候选聚类结果,具体包括:
基于任一语音片段的声纹特征与声纹库中每一库内声纹特征之间的相似度,确定所述任一语音片段的声纹在库状态;
对声纹在库状态为不在库的所有语音片段的声纹特征进行聚类,得到多个候选话者数量分别对应的候选聚类结果。
7.根据权利要求6所述的话者分离方法,其特征在于,所述基于每一候选话者数量分别对应的候选聚类结果和聚类评估结果,确定话者分离结果,之后还包括:
基于所述话者分离结果,更新所述声纹库。
8.一种话者分离装置,其特征在于,包括:
片段声纹提取单元,用于确定待分离音频文件包含的多个语音片段的声纹特征;其中,单一语音片段仅包含单一话者的语音;
片段声纹聚类单元,用于对所有语音片段的声纹特征进行聚类,得到多个候选话者数量分别对应的候选聚类结果,所述候选话者数量为所述待分离音频文件包含的话者数量的候选值,所述候选话者数量与所述候选聚类结果一一对应,所述候选聚类结果中的类别数为对应的候选话者数量;
聚类参数评估单元,用于基于任一候选话者数量对应的候选聚类结果,确定所述任一候选话者数量对应的聚类评估结果,所述聚类评估结果用于表征对应候选聚类结果的质量;
话者分离单元,用于基于每一候选话者数量分别对应的候选聚类结果和聚类评估结果,确定话者分离结果。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7中任一项所述的话者分离方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至7中任一项所述的话者分离方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010365591.8A CN111524527B (zh) | 2020-04-30 | 2020-04-30 | 话者分离方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010365591.8A CN111524527B (zh) | 2020-04-30 | 2020-04-30 | 话者分离方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111524527A CN111524527A (zh) | 2020-08-11 |
CN111524527B true CN111524527B (zh) | 2023-08-22 |
Family
ID=71906383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010365591.8A Active CN111524527B (zh) | 2020-04-30 | 2020-04-30 | 话者分离方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111524527B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111968657B (zh) * | 2020-08-17 | 2022-08-16 | 北京字节跳动网络技术有限公司 | 语音处理方法、装置、电子设备和计算机可读介质 |
CN111968650B (zh) * | 2020-08-17 | 2024-04-30 | 科大讯飞股份有限公司 | 语音匹配方法、装置、电子设备及存储介质 |
CN112163081B (zh) * | 2020-10-14 | 2024-08-27 | 网易(杭州)网络有限公司 | 标签确定方法、装置、介质及电子设备 |
CN112435684B (zh) * | 2020-11-03 | 2021-12-03 | 中电金信软件有限公司 | 语音分离方法、装置、计算机设备和存储介质 |
CN112420069A (zh) * | 2020-11-18 | 2021-02-26 | 北京云从科技有限公司 | 一种语音处理方法、装置、机器可读介质及设备 |
US20220199102A1 (en) * | 2020-12-18 | 2022-06-23 | International Business Machines Corporation | Speaker-specific voice amplification |
CN112652313B (zh) * | 2020-12-24 | 2023-04-07 | 北京百度网讯科技有限公司 | 声纹识别的方法、装置、设备、存储介质以及程序产品 |
CN112750465B (zh) * | 2020-12-29 | 2024-04-30 | 昆山杜克大学 | 一种云端语言能力评测系统及可穿戴录音终端 |
CN114282621B (zh) * | 2021-12-29 | 2022-08-23 | 湖北微模式科技发展有限公司 | 一种多模态融合的话者角色区分方法与系统 |
CN117594058A (zh) * | 2024-01-19 | 2024-02-23 | 南京龙垣信息科技有限公司 | 基于深度学习的音频话者分离方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07287592A (ja) * | 1994-04-12 | 1995-10-31 | Xerox Corp | オーディオデータセグメントのクラスタリング方法 |
US5598507A (en) * | 1994-04-12 | 1997-01-28 | Xerox Corporation | Method of speaker clustering for unknown speakers in conversational audio data |
EP2808866A1 (en) * | 2013-05-31 | 2014-12-03 | Nuance Communications, Inc. | Method and apparatus for automatic speaker-based speech clustering |
CN106782563A (zh) * | 2016-12-28 | 2017-05-31 | 上海百芝龙网络科技有限公司 | 一种智能家居语音交互系统 |
CN106782507A (zh) * | 2016-12-19 | 2017-05-31 | 平安科技(深圳)有限公司 | 语音分割的方法及装置 |
CN107393527A (zh) * | 2017-07-17 | 2017-11-24 | 广东讯飞启明科技发展有限公司 | 说话人数目的判断方法 |
CN108074576A (zh) * | 2017-12-14 | 2018-05-25 | 讯飞智元信息科技有限公司 | 审讯场景下的说话人角色分离方法及系统 |
CN108766440A (zh) * | 2018-05-28 | 2018-11-06 | 平安科技(深圳)有限公司 | 说话人分离模型训练方法、两说话人分离方法及相关设备 |
CN110299150A (zh) * | 2019-06-24 | 2019-10-01 | 中国科学院计算技术研究所 | 一种实时语音说话人分离方法及系统 |
CN110444223A (zh) * | 2019-06-26 | 2019-11-12 | 平安科技(深圳)有限公司 | 基于循环神经网络和声学特征的说话人分离方法及装置 |
CN110491411A (zh) * | 2019-09-25 | 2019-11-22 | 上海依图信息技术有限公司 | 结合麦克风声源角度和语音特征相似度分离说话人的方法 |
CN110491392A (zh) * | 2019-08-29 | 2019-11-22 | 广州国音智能科技有限公司 | 一种基于说话人身份的音频数据清洗方法、装置和设备 |
CN110853666A (zh) * | 2019-12-17 | 2020-02-28 | 科大讯飞股份有限公司 | 一种说话人分离方法、装置、设备及存储介质 |
CN111063341A (zh) * | 2019-12-31 | 2020-04-24 | 苏州思必驰信息科技有限公司 | 复杂环境中多人语音的分割聚类方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9368116B2 (en) * | 2012-09-07 | 2016-06-14 | Verint Systems Ltd. | Speaker separation in diarization |
US9875743B2 (en) * | 2015-01-26 | 2018-01-23 | Verint Systems Ltd. | Acoustic signature building for a speaker from multiple sessions |
US10325601B2 (en) * | 2016-09-19 | 2019-06-18 | Pindrop Security, Inc. | Speaker recognition in the call center |
-
2020
- 2020-04-30 CN CN202010365591.8A patent/CN111524527B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07287592A (ja) * | 1994-04-12 | 1995-10-31 | Xerox Corp | オーディオデータセグメントのクラスタリング方法 |
US5598507A (en) * | 1994-04-12 | 1997-01-28 | Xerox Corporation | Method of speaker clustering for unknown speakers in conversational audio data |
EP2808866A1 (en) * | 2013-05-31 | 2014-12-03 | Nuance Communications, Inc. | Method and apparatus for automatic speaker-based speech clustering |
CN106782507A (zh) * | 2016-12-19 | 2017-05-31 | 平安科技(深圳)有限公司 | 语音分割的方法及装置 |
CN106782563A (zh) * | 2016-12-28 | 2017-05-31 | 上海百芝龙网络科技有限公司 | 一种智能家居语音交互系统 |
CN107393527A (zh) * | 2017-07-17 | 2017-11-24 | 广东讯飞启明科技发展有限公司 | 说话人数目的判断方法 |
CN108074576A (zh) * | 2017-12-14 | 2018-05-25 | 讯飞智元信息科技有限公司 | 审讯场景下的说话人角色分离方法及系统 |
CN108766440A (zh) * | 2018-05-28 | 2018-11-06 | 平安科技(深圳)有限公司 | 说话人分离模型训练方法、两说话人分离方法及相关设备 |
CN110299150A (zh) * | 2019-06-24 | 2019-10-01 | 中国科学院计算技术研究所 | 一种实时语音说话人分离方法及系统 |
CN110444223A (zh) * | 2019-06-26 | 2019-11-12 | 平安科技(深圳)有限公司 | 基于循环神经网络和声学特征的说话人分离方法及装置 |
CN110491392A (zh) * | 2019-08-29 | 2019-11-22 | 广州国音智能科技有限公司 | 一种基于说话人身份的音频数据清洗方法、装置和设备 |
CN110491411A (zh) * | 2019-09-25 | 2019-11-22 | 上海依图信息技术有限公司 | 结合麦克风声源角度和语音特征相似度分离说话人的方法 |
CN110853666A (zh) * | 2019-12-17 | 2020-02-28 | 科大讯飞股份有限公司 | 一种说话人分离方法、装置、设备及存储介质 |
CN111063341A (zh) * | 2019-12-31 | 2020-04-24 | 苏州思必驰信息科技有限公司 | 复杂环境中多人语音的分割聚类方法及系统 |
Non-Patent Citations (1)
Title |
---|
李锐 ; 卓著 ; 李辉 ; .基于BIC和G_PLDA的说话人分离技术研究.中国科学技术大学学报.2015,(04),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111524527A (zh) | 2020-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111524527B (zh) | 话者分离方法、装置、电子设备和存储介质 | |
US9881617B2 (en) | Blind diarization of recorded calls with arbitrary number of speakers | |
CN111128223B (zh) | 一种基于文本信息的辅助说话人分离方法及相关装置 | |
CN111429935B (zh) | 一种语音话者分离方法和装置 | |
WO2012075641A1 (en) | Device and method for pass-phrase modeling for speaker verification, and verification system | |
Jiang et al. | An Improved Speech Segmentation and Clustering Algorithm Based on SOM and K‐Means | |
KR101618512B1 (ko) | 가우시안 혼합모델을 이용한 화자 인식 시스템 및 추가 학습 발화 선택 방법 | |
CN106991312B (zh) | 基于声纹识别的互联网反欺诈认证方法 | |
CN112949708A (zh) | 情绪识别方法、装置、计算机设备和存储介质 | |
CN113744742B (zh) | 对话场景下的角色识别方法、装置和系统 | |
CN111816185A (zh) | 一种对混合语音中说话人的识别方法及装置 | |
JP4787979B2 (ja) | 雑音検出装置および雑音検出方法 | |
CN113113022A (zh) | 一种基于说话人声纹信息的自动识别身份的方法 | |
Ghaemmaghami et al. | Complete-linkage clustering for voice activity detection in audio and visual speech | |
CN111091840A (zh) | 一种建立性别识别模型的方法及性别识别方法 | |
CN113516987B (zh) | 一种说话人识别方法、装置、存储介质及设备 | |
CN111462762B (zh) | 一种说话人向量正则化方法、装置、电子设备和存储介质 | |
CN111145761B (zh) | 模型训练的方法、声纹确认的方法、系统、设备及介质 | |
Raghib et al. | Emotion analysis and speech signal processing | |
WO2016152132A1 (ja) | 音声処理装置、音声処理システム、音声処理方法、および記録媒体 | |
CN114970695B (zh) | 一种基于非参贝叶斯模型的说话人分割聚类方法 | |
Imoto et al. | Acoustic scene analysis from acoustic event sequence with intermittent missing event | |
CN114023336A (zh) | 模型训练方法、装置、设备以及存储介质 | |
CN110807370B (zh) | 一种基于多模态的会议发言人身份无感确认方法 | |
Odriozola et al. | An on-line VAD based on Multi-Normalisation Scoring (MNS) of observation likelihoods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |