CN113066507A - 端到端说话人分离方法、系统及设备 - Google Patents
端到端说话人分离方法、系统及设备 Download PDFInfo
- Publication number
- CN113066507A CN113066507A CN202110275153.7A CN202110275153A CN113066507A CN 113066507 A CN113066507 A CN 113066507A CN 202110275153 A CN202110275153 A CN 202110275153A CN 113066507 A CN113066507 A CN 113066507A
- Authority
- CN
- China
- Prior art keywords
- data
- neural network
- attention
- speaker
- self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000926 separation method Methods 0.000 title claims abstract description 64
- 238000003062 neural network model Methods 0.000 claims abstract description 32
- 230000006870 function Effects 0.000 claims abstract description 24
- 238000012545 processing Methods 0.000 claims abstract description 16
- 238000013528 artificial neural network Methods 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims description 54
- 238000012360 testing method Methods 0.000 claims description 23
- 238000002372 labelling Methods 0.000 claims description 22
- 238000007781 pre-processing Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 6
- 238000012795 verification Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 3
- 230000037433 frameshift Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000005204 segregation Methods 0.000 claims 2
- 238000000034 method Methods 0.000 abstract description 23
- 230000000694 effects Effects 0.000 abstract description 7
- 238000001514 detection method Methods 0.000 abstract description 6
- 238000004891 communication Methods 0.000 description 9
- 230000006872 improvement Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/0308—Voice signal separating characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
本申请公开了一种端到端说话人分离方法、系统及设备,所述方法包括以下步骤:获取语音数据;将所述语音数据输入自注意力端到端神经网络模型进行说话人分离,并输出损失函数值以及分离误差。通过本申请,将语音活动检测、说话人分离等功能都整合到一个单一的神经网络中,更加方便便捷,减少处理时间,提高效率。
Description
技术领域
本发明涉及说话人识别技术领域。更具体的说,本发明涉及一种端到端说话人分离方法、系统及设备。
背景技术
说话人日志,即说话人分割聚类,是指确定一段语音音频数据的各时间片段里分别是谁在说话(who spoken when)。它是语音信号处理里面经常遇到的问题,既可以作为语音识别和说话人识别的前端处理模块,也可以作为说话人转换独立问题。说话人分割聚类有助于从广播新闻、会议和电话交谈中检索信息,也有助于提升在会议或家庭环境等多人会话场景下的自动语音识别性能。
传统的说话人日志系统是基于说话人嵌入的聚类,如图1所示为基于x-vector的说话人日志聚类方法实现流程图,一般分为三步:
1、说话人分割(speaker segmentation):包括语音活动检测(Voice ActivityDetection,VAD)和说话人改变点检测(speaker change detection,SCD);
2、提取特征或embedding:开始是使用MFCCs(Mel-frequency cepstralcoefficients,梅尔频率倒谱系数),目前常用的是i-vector,x-vector,d-vector;
3、说话人聚类(speaker clustering,SC):目前分有监督(UIS-RNN,DNC等)与无监督(K-means,层次聚类AHC,光谱聚类等)两大类。
然而,这种传统的基于聚类的方法存在一些问题。首先,由于聚类过程是一种无监督的学习方法,因此不能直接对分离误差(diarization error rate,DER,衡量说话人分离效果的指标)进行优化;其次每一个步骤都需要一个单独的模块来进行,各部分任务独立,无法联合优化,且耗费资源与时间。
发明内容
为解决上述问题,本发明提供了一种端到端说话人分离方法,所述方法包括以下步骤:
数据获取步骤:获取语音数据;
测试结果输出步骤:将所述语音数据输入自注意力端到端神经网络模型进行说话人分离,并输出损失函数值以及分离误差。
作为本发明的进一步改进,所述测试结果输出步骤具体包括以下步骤:
数据处理步骤:基于所述语音数据获取训练数据以及测试数据;
标注信息获取步骤:获取所述训练数据的标注信息;
特征提取步骤:提取所述训练数据的对数梅尔滤波器组特征;
模型构建步骤:构建所述自注意力端到端神经网络模型;
数据预处理步骤:对所述训练数据进行预处理,结合所述标注信息将所述训练数据每一帧打上标签;
模型训练步骤:将所述训练数据输入所述自注意力端到端神经网络模型中进行模型训练并保存;
模型验证步骤:将所述测试数据输入所述训练好的自注意力端到端神经网络模型进行说话人分离,并输出所述损失函数值以及所述分离误差。
作为本发明的进一步改进,所述对数梅尔滤波器组特征为23维,帧长为25毫秒,帧移为10毫秒。
作为本发明的进一步改进,所述自注意力端到端神经网络模型使用LayerNormalization进行规范化。
作为本发明的进一步改进,所述自注意力端到端神经网络模型中搭建两个编码块,每个所述编码块由一个多头attention子层和一个Position-wise前馈神经网络子层组成。
作为本发明的进一步改进,所述模型训练步骤中设置无效语音,所述无效语音包括但不限于:电子音、广播音、背景音、静默音。
作为本发明的进一步改进,去除了所述损失函数值的无置换部分。
基于相同发明思想,本发明还基于任一项发明创造所揭示的端到端说话人分离方法,揭示了一种端到端说话人分离系统,
所述端到端说话人分离系统包括:
数据获取模块,获取语音数据;
测试结果输出模块,将所述语音数据输入自注意力端到端神经网络模型进行说话人分离,并输出损失函数值以及分离误差。
作为本发明的进一步改进,所述测试结果输出模块具体包括:
数据处理单元,基于所述语音数据获取训练数据以及测试数据;
标注信息获取单元,获取所述训练数据的标注信息;
特征提取单元,提取所述训练数据的对数梅尔滤波器组特征;
模型构建单元,构建所述自注意力端到端神经网络模型;
数据预处理单元,对所述训练数据进行预处理,结合所述标注信息将所述训练数据每一帧打上标签;
模型训练单元,将所述训练数据输入所述自注意力端到端神经网络模型中进行模型训练并保存;
模型验证单元,将所述测试数据输入所述训练好的自注意力端到端神经网络模型进行说话人分离,并输出所述损失函数值以及所述分离误差。
此外,为实现上述目的,本发明还提供一种设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现端到端说话人分离方法。
与现有技术相比,本发明的有益效果如下:
1、提出了一种端到端说话人分离方法,可以直接对分离误差进行优化,而且不需要单独的模块来进行语音活动检测、说话人识别、信源分离或聚类;
2、将功能都整合到一个单一的神经网络中,使优化更加方便便捷,处理时间也能大大减少,提高效率。
本申请的一个或多个实施例的细节在以下附图和描述中提出,以使本申请的其他特征、目的和优点更加简明易懂。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是现有技术中基于x-vector的说话人日志聚类方法实现流程图;
图2是本发明实施例提供的一种端到端说话人分离方法整体流程图;
图3是图2所揭示的步骤S2整体流程图;
图4是本实施例所提供的标注示例图;
图5是本实施例所提供的自注意力端到端神经网络模型构成图;
图6是本实施例提供的一种端到端说话人分离系统结构框架图;
图7是根据本发明实施例的计算机设备的框架图。
以上图中:
1、数据获取模块;2、测试结果输出模块;21、数据处理单元;22、标注信息获取单元;23、特征提取单元;24、模型构建单元;25、数据预处理单元;26、模型训练单元;27、模型验证单元;80、总线;81、处理器;82、存储器;83、通信接口。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行描述和说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。基于本申请提供的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
显而易见地,下面描述中的附图仅仅是本申请的一些示例或实施例,对于本领域的普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图将本申请应用于其他类似情景。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本申请公开的内容相关的本领域的普通技术人员而言,在本申请揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本申请公开的内容不充分。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域普通技术人员显式地和隐式地理解的是,本申请所描述的实施例在不冲突的情况下,可以与其它实施例相结合。
除非另作定义,本申请所涉及的技术术语或者科学术语应当为本申请所属技术领域内具有一般技能的人士所理解的通常意义。本申请所涉及的“一”、“一个”、“一种”、“该”等类似词语并不表示数量限制,可表示单数或复数。本申请所涉及的术语“包括”、“包含”、“具有”以及它们任何变形,意图在于覆盖不排他的包含;例如包含了一系列步骤或模块(单元)的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可以还包括没有列出的步骤或单元,或可以还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。本申请所涉及的“连接”、“相连”、“耦接”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电气的连接,不管是直接的还是间接的。本申请所涉及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。本申请所涉及的术语“第一”、“第二”、“第三”等仅仅是区别类似的对象,不待表针对对象的特定排序。
下面结合附图所示的各实施方式对本发明进行详细说明,但应当说明的是,这些实施方式并非对本发明的限制,本领域普通技术人员根据这些实施方式所作的功能、方法、或者结构上的等效变换或替待,均属于本发明的保护范围之内。
在详细阐述本发明各个实施例之前,对本发明的核心发明思想予以概述,并通过下述若干实施例予以详细阐述。
本发明可以基于自注意力神经网络对语音文件进行说话人识别,提高工作效率,节约时间。
实施例一:
参照图2至图5所示,本实例揭示了一种端到端说话人分离方法(以下简称“方法”)的具体实施方式。
具体而言,首先介绍所述方法的整体思路。该端到端的方法使用自注意神经网络,给定一个多说话人的录音作为语音数据,输入一个基于自我注意的神经网络中进行模型训练,将每个时间帧内所有说话人的联合语音活动直接输出,并可以直接优化分离误差(DER)。
具体而言,参照图2所示,本实施例所揭示的方法包括以下步骤:
步骤S1、获取语音数据。
具体而言,在本实施例中将角色人数固定为2人,分别为工牌(录音工具)的佩戴者和非佩戴者,在模型训练的时候将工牌的信息考虑进去,使用16000采样率数据,其中采样率是指录音工具在一秒钟内对声音信号的采样次数。
然后执行步骤S2、将所述语音数据输入自注意力端到端神经网络模型进行说话人分离,并输出损失函数值以及分离误差。
具体而言,参照图3所示,所述步骤S2具体包括以下步骤:
S21、基于所述语音数据获取训练数据以及测试数据;
S22、获取所述训练数据的标注信息;
S23、提取所述训练数据的对数梅尔滤波器组特征;
S24、构建所述自注意力端到端神经网络模型;
S25、对所述训练数据进行预处理,结合所述标注信息将所述训练数据每一帧打上标签;
S26、将所述训练数据输入所述自注意力端到端神经网络模型中进行模型训练并保存;
S27、将所述测试数据输入所述训练好的自注意力端到端神经网络模型进行说话人分离,并输出所述损失函数值以及所述分离误差。
具体而言,在其中一些实施例中,首先输入训练数据(语音)及标注信息(说话人的时间和人物信息),然后提取23维对数梅尔滤波器组(Fbanks)特征,帧长为25毫秒,帧移为10毫秒。
具体而言,标注过程举例如下:将50s特征转换为500*2的二维数组,其中每一列都代表一个角色,每一行代表0.1s的结果,取值【0-1】之间,0代表无效语音,1代表此角色在说话。如图4是1s的标注示例(0-0.3s A角色说话,0.3-0.6s无效语音,0.6-0.9s B角色说话,0.9-1s无效语音)。
具体而言,自注意力端到端神经网络模型构成如图5所示,首先由一个线性层将输入的语音特征转换为编码器需要的形式。在编码器的一个网络块中,由一个多头attention(多头注意力)子层和一个Position-wise前馈神经网络子层组成,整个编码器栈式搭建了2个块。为了更好的优化深度网络,整个自注意力端到端神经网络使用了LayerNormalization进行规范化。
具体而言,在其中一些实施例中,在模型训练时将电子音,广播音,背景音,静默音等都归为了无效语音。
具体而言,自注意力端到端神经网络模型最后是由一个线性层加Sigmod函数将loss值(损失函数值)输出。此外,在本实施例中考虑重叠人声不多,因此去除了损失函数的无置换部分。
具体而言,将标注信息与模型预测结果做交叉熵,得到损失函数值,进行梯度迭代。由于分离误差本质上就是时间上的误差,所以这样构建损失函数可以视为直接优化分离误差。
通过本申请实施例所揭示的一种端到端说话人分离方法,可以直接对分离误差进行优化,而且不需要单独的模块来进行语音活动检测、说话人识别、信源分离或聚类;将功能都整合到一个单一的神经网络中,使优化更加方便便捷,处理时间也能大大减少,提高效率。
本申请的一个或多个实施例的细节在以下附图和描述中提出,以使本申请的其他特征、目的和优点更加简明易懂。
实施例二:
结合实施例一所揭示的一种端到端说话人分离方法,本实施例揭示了一种端到端说话人分离系统(以下简称“系统”)的具体实施示例。
参照图6所示,所述系统包括:
数据获取模块1,获取语音数据;
测试结果输出模块2,将所述语音数据输入自注意力端到端神经网络模型进行说话人分离,并输出损失函数值以及分离误差。
具体而言,在其中一些实施例中,所述测试结果输出模块2具体包括:
数据处理单元21,基于所述语音数据获取训练数据以及测试数据;
标注信息获取单元22,获取所述训练数据的标注信息;
特征提取单元23,提取所述训练数据的对数梅尔滤波器组特征;
模型构建单元24,构建所述自注意力端到端神经网络模型;
数据预处理单元25,对所述训练数据进行预处理,结合所述标注信息将所述训练数据每一帧打上标签;
模型训练单元26,将所述训练数据输入所述自注意力端到端神经网络模型中进行模型训练并保存;
模型验证单元27,将所述测试数据输入所述训练好的自注意力端到端神经网络模型进行说话人分离,并输出所述损失函数值以及所述分离误差。
本实施例所揭示的一种端到端说话人分离系统与实施例一所揭示的一种端到端说话人分离方法中其余相同部分的技术方案,请参考实施例一所述,在此不再赘述。
实施例三:
结合图7所示,本实施例揭示了一种计算机设备的一种具体实施方式。计算机设备可以包括处理器81以及存储有计算机程序指令的存储器82。
具体地,上述处理器81可以包括中央处理器(CPU),或者特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
其中,存储器82可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器82可包括硬盘驱动器(Hard Disk Drive,简称为HDD)、软盘驱动器、固态驱动器(SolidState Drive,简称为SSD)、闪存、光盘、磁光盘、磁带或通用串行总线(Universal SerialBus,简称为USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器82可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器82可在数据处理装置的内部或外部。在特定实施例中,存储器82是非易失性(Non-Volatile)存储器。在特定实施例中,存储器82包括只读存储器(Read-Only Memory,简称为ROM)和随机存取存储器(RandomAccess Memory,简称为RAM)。在合适的情况下,该ROM可以是掩模编程的ROM、可编程ROM(Programmable Read-Only Memory,简称为PROM)、可擦除PROM(Erasable ProgrammableRead-Only Memory,简称为EPROM)、电可擦除PROM(Electrically Erasable ProgrammableRead-Only Memory,简称为EEPROM)、电可改写ROM(Electrically Alterable Read-OnlyMemory,简称为EAROM)或闪存(FLASH)或者两个或更多个以上这些的组合。在合适的情况下,该RAM可以是静态随机存取存储器(Static Random-Access Memory,简称为SRAM)或动态随机存取存储器(Dynamic Random Access Memory,简称为DRAM),其中,DRAM可以是快速页模式动态随机存取存储器(Fast Page Mode Dynamic Random Access Memory,简称为FPMDRAM)、扩展数据输出动态随机存取存储器(Extended Date Out Dynamic RandomAccess Memory,简称为EDODRAM)、同步动态随机存取内存(Synchronous Dynamic Random-Access Memory,简称SDRAM)等。
存储器82可以用来存储或者缓存需要处理和/或通信使用的各种数据文件,以及处理器81所执行的可能的计算机程序指令。
处理器81通过读取并执行存储器82中存储的计算机程序指令,以实现上述实施例中的任意一种端到端说话人分离方法。
在其中一些实施例中,计算机设备还可包括通信接口83和总线80。其中,如图7所示,处理器81、存储器82、通信接口83通过总线80连接并完成相互间的通信。
通信接口83用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。通信端口83还可以实现与其他部件例如:外接设备、图像/数据采集设备、数据库、外部存储以及图像/数据处理工作站等之间进行数据通信。
总线80包括硬件、软件或两者,将计算机设备的部件彼此耦接在一起。总线80包括但不限于以下至少之一:数据总线(Data Bus)、地址总线(Address Bus)、控制总线(Control Bus)、扩展总线(Expansion Bus)、局部总线(Local Bus)。举例来说而非限制,总线80可包括图形加速接口(Accelerated Graphics Port,简称为AGP)或其他图形总线、增强工业标准架构(Extended Industry Standard Architecture,简称为EISA)总线、前端总线(Front Side Bus,简称为FSB)、超传输(Hyper Transport,简称为HT)互连、工业标准架构(Industry Standard Architecture,简称为ISA)总线、无线带宽(InfiniBand)互连、低引脚数(Low Pin Count,简称为LPC)总线、存储器总线、微信道架构(Micro ChannelArchitecture,简称为MCA)总线、外围组件互连(Peripheral Component Interconnect,简称为PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(Serial AdvancedTechnology Attachment,简称为SATA)总线、视频电子标准协会局部(Video ElectronicsStandards Association Local Bus,简称为VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线80可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。
该计算机设备可以基于自注意力神经网络实现说话人分离,从而实现结合图2描述的方法。
另外,结合上述实施例中端到端说话人分离方法,本申请实施例可提供一种计算机可读存储介质来实现。该计算机可读存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种端到端说话人分离方法。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
综上所述,基于本发明的有益效果在于,提出了一种端到端说话人分离方法,可以直接对分离误差进行优化,而且不需要单独的模块来进行语音活动检测、说话人识别、信源分离或聚类;将功能都整合到一个单一的神经网络中,使优化更加方便便捷,处理时间也能大大减少,提高效率。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种端到端说话人分离方法,其特征在于,包括如下步骤:
数据获取步骤:获取语音数据;
测试结果输出步骤:将所述语音数据输入自注意力端到端神经网络模型进行说话人分离,并输出损失函数值以及分离误差。
2.如权利要求1所述的端到端说话人分离方法,其特征在于,所述测试结果输出步骤具体包括以下步骤:
数据处理步骤:基于所述语音数据获取训练数据以及测试数据;
标注信息获取步骤:获取所述训练数据的标注信息;
特征提取步骤:提取所述训练数据的对数梅尔滤波器组特征;
模型构建步骤:构建所述自注意力端到端神经网络模型;
数据预处理步骤:对所述训练数据进行预处理,结合所述标注信息将所述训练数据每一帧打上标签;
模型训练步骤:将所述训练数据输入所述自注意力端到端神经网络模型中进行模型训练并保存;
模型验证步骤:将所述测试数据输入所述训练好的自注意力端到端神经网络模型进行说话人分离,并输出所述损失函数值以及所述分离误差。
3.如权利要求2所述的端到端说话人分离方法,其特征在于,所述对数梅尔滤波器组特征为23维,帧长为25毫秒,帧移为10毫秒。
4.如权利要求2所述的端到端说话人分离方法,其特征在于,所述自注意力端到端神经网络模型使用Layer Normalization进行规范化。
5.如权利要求4所述的端到端说话人分离方法,其特征在于,所述自注意力端到端神经网络模型中搭建两个编码块,每个所述编码块由一个多头attention子层和一个Position-wise前馈神经网络子层组成。
6.如权利要求2所述的端到端说话人分离方法,其特征在于,所述模型训练步骤中设置无效语音,所述无效语音包括但不限于:电子音、广播音、背景音、静默音。
7.如权利要求1所述的端到端说话人分离方法,其特征在于,去除了所述损失函数值的无置换部分。
8.一种端到端说话人分离系统,其特征在于,包括:
数据获取模块,获取语音数据;
测试结果输出模块,将所述语音数据输入自注意力端到端神经网络模型进行说话人分离,并输出损失函数值以及分离误差。
9.如权利要求8所述的端到端说话人分离系统,其特征在于,所述测试结果输出模块具体包括:
数据处理单元,基于所述语音数据获取训练数据以及测试数据;
标注信息获取单元,获取所述训练数据的标注信息;
特征提取单元,提取所述训练数据的对数梅尔滤波器组特征;
模型构建单元,构建所述自注意力端到端神经网络模型;
数据预处理单元,对所述训练数据进行预处理,结合所述标注信息将所述训练数据每一帧打上标签;
模型训练单元,将所述训练数据输入所述自注意力端到端神经网络模型中进行模型训练并保存;
模型验证单元,将所述测试数据输入所述训练好的自注意力端到端神经网络模型进行说话人分离,并输出所述损失函数值以及所述分离误差。
10.一种设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的端到端说话人分离方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110275153.7A CN113066507B (zh) | 2021-03-15 | 2021-03-15 | 端到端说话人分离方法、系统及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110275153.7A CN113066507B (zh) | 2021-03-15 | 2021-03-15 | 端到端说话人分离方法、系统及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113066507A true CN113066507A (zh) | 2021-07-02 |
CN113066507B CN113066507B (zh) | 2024-04-19 |
Family
ID=76561395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110275153.7A Active CN113066507B (zh) | 2021-03-15 | 2021-03-15 | 端到端说话人分离方法、系统及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113066507B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160013592A (ko) * | 2014-07-28 | 2016-02-05 | (주)복스유니버스 | 음성 특징 벡터를 이용한 화자 분리 시스템 및 방법 |
CN111369982A (zh) * | 2020-03-13 | 2020-07-03 | 北京远鉴信息技术有限公司 | 音频分类模型的训练方法、音频分类方法、装置及设备 |
CN111461173A (zh) * | 2020-03-06 | 2020-07-28 | 华南理工大学 | 一种基于注意力机制的多说话人聚类系统及方法 |
CN111667836A (zh) * | 2020-06-19 | 2020-09-15 | 南京大学 | 基于深度学习的文本无关多标号说话人识别方法 |
CN112259078A (zh) * | 2020-10-15 | 2021-01-22 | 上海依图网络科技有限公司 | 一种音频识别模型的训练和非正常音频识别的方法和装置 |
CN112466298A (zh) * | 2020-11-24 | 2021-03-09 | 网易(杭州)网络有限公司 | 语音检测方法、装置、电子设备和存储介质 |
-
2021
- 2021-03-15 CN CN202110275153.7A patent/CN113066507B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160013592A (ko) * | 2014-07-28 | 2016-02-05 | (주)복스유니버스 | 음성 특징 벡터를 이용한 화자 분리 시스템 및 방법 |
CN111461173A (zh) * | 2020-03-06 | 2020-07-28 | 华南理工大学 | 一种基于注意力机制的多说话人聚类系统及方法 |
CN111369982A (zh) * | 2020-03-13 | 2020-07-03 | 北京远鉴信息技术有限公司 | 音频分类模型的训练方法、音频分类方法、装置及设备 |
CN111667836A (zh) * | 2020-06-19 | 2020-09-15 | 南京大学 | 基于深度学习的文本无关多标号说话人识别方法 |
CN112259078A (zh) * | 2020-10-15 | 2021-01-22 | 上海依图网络科技有限公司 | 一种音频识别模型的训练和非正常音频识别的方法和装置 |
CN112466298A (zh) * | 2020-11-24 | 2021-03-09 | 网易(杭州)网络有限公司 | 语音检测方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113066507B (zh) | 2024-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017076222A1 (zh) | 语音识别方法及装置 | |
US20240021202A1 (en) | Method and apparatus for recognizing voice, electronic device and medium | |
CN112185352B (zh) | 语音识别方法、装置及电子设备 | |
CN110097870B (zh) | 语音处理方法、装置、设备和存储介质 | |
JP2019211749A (ja) | 音声の始点及び終点の検出方法、装置、コンピュータ設備及びプログラム | |
CN109712612B (zh) | 一种语音关键词检测方法及装置 | |
CN110070859B (zh) | 一种语音识别方法及装置 | |
CN111128223A (zh) | 一种基于文本信息的辅助说话人分离方法及相关装置 | |
US20080294433A1 (en) | Automatic Text-Speech Mapping Tool | |
US20100057452A1 (en) | Speech interfaces | |
CN101923857A (zh) | 一种人机交互的可扩展语音识别方法 | |
EP2941768A1 (en) | Methods and systems for providing speech recognition systems based on speech recordings logs | |
CN103514882A (zh) | 一种语音识别方法及系统 | |
CN112397051A (zh) | 语音识别方法、装置及终端设备 | |
CN112259085A (zh) | 一种基于模型融合框架的两阶段语音唤醒算法 | |
CN115457938A (zh) | 识别唤醒词的方法、装置、存储介质及电子装置 | |
CN114627868A (zh) | 意图识别方法、装置、模型及电子设备 | |
CN113112992B (zh) | 一种语音识别方法、装置、存储介质和服务器 | |
CN112784572A (zh) | 一种营销场景话术分析方法和系统 | |
CN111798838A (zh) | 一种提高语音识别准确率的方法、系统、设备及存储介质 | |
CN111414748A (zh) | 话务数据处理方法及装置 | |
CN113066507B (zh) | 端到端说话人分离方法、系统及设备 | |
KR102415519B1 (ko) | 인공지능 음성의 컴퓨팅 탐지 장치 | |
CN115547345A (zh) | 声纹识别模型训练及相关识别方法、电子设备和存储介质 | |
CN113689861B (zh) | 一种单声道通话录音的智能分轨方法、装置和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |