CN112992174A - 一种语音分析方法及其语音记录装置 - Google Patents
一种语音分析方法及其语音记录装置 Download PDFInfo
- Publication number
- CN112992174A CN112992174A CN202110149946.4A CN202110149946A CN112992174A CN 112992174 A CN112992174 A CN 112992174A CN 202110149946 A CN202110149946 A CN 202110149946A CN 112992174 A CN112992174 A CN 112992174A
- Authority
- CN
- China
- Prior art keywords
- sound source
- verification model
- voice
- verification
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 25
- 238000012795 verification Methods 0.000 claims abstract description 216
- 238000000034 method Methods 0.000 claims abstract description 53
- 238000012549 training Methods 0.000 claims description 42
- 238000000926 separation method Methods 0.000 claims description 23
- 230000000875 corresponding effect Effects 0.000 description 57
- 230000008569 process Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000006978 adaptation Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 206010063385 Intellectualisation Diseases 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 101150087667 spk1 gene Proteins 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Abstract
一种语音分析方法及其语音记录设备。该方法包括:获取第一语音数据,其中,所述第一语音数据包括第一语音信息以及所述第一语音信息对应的标记声源;若未存储与所述标记声源对应的验证模型,采用预先存储的基础验证模型对所述第一语音信息进行适配,并将适配后的模型参数集作为与所述标记声源对应的验证模型进行保存;若存储有与所述标记声源对应的验证模型,采用所述验证模型判断所述第一语音信息是否与所述标记声源对应,并对所述验证模型进行优化;当确定所述验证模型的验证准确率超过预设阈值时,采用所述验证模型确定第二语音数据中包含的第二语音信息对应的声源。该方法中的验证模型可不断获得优化,使用起来更为灵活、准确率更高。
Description
技术领域
本发明涉及音频技术领域,尤其涉及一种语音区分和验证的技术领域。
背景技术
随着深度学习领域研究的不断深入,越来越多的硬件设备向智能化发展。同时,得益于嵌入式芯片在计算和存储能力方面取得质的飞跃,曾经只能在GPU(GraphicsProcessing Unit,图形处理器)上运行的深度学习模型有了小型化的硬件基础,而便携式移动设备的智能化和小型化也成为了当前技术发展的潮流。智能会议记录系统就是其中之一。
一个良好的智能会议记录系统应当可以实现对会议中所有出现过的说话人的语音进行记录和识别,即记录和识别谁说了话、说了哪些话。它包含语音分离技术、语音识别技术、说话人识别技术等众多前沿技术。但因目前这些技术还面临许多学术和工程难题,导致现有的会议记录系统虽然也带有一些智能化的算法和模型,往往需附加了一些限制条件,导致的所谓“智能”在用户体验面前就显得不那么“智能”了。并且,这些传统的智能算法往往都抱着“一劳永逸”的思路,通过海量的数据训练一个具有较强泛化性能的模型,来让这个“万能”模型适配实际应用中出现的所有的说话人。
但是,实际情况却是,由于语音是千变万化的,即使是同一个说话人,在不同的心情、语气、声调下所产生的语音频谱都有很大的差异,而传统的基于声纹识别的算法很难捕获到这些变化,从而影响说话人识别和区分的准确率。
发明内容
本申请提供一种可提升声源识别和区分的语音分析的方法及其语音记录装置。
本申请提供以下技术方案:
一方面,提供一种语音分析方法,其包括:获取第一语音数据,其中,所述第一语音数据包括第一语音信息以及所述第一语音信息对应的标记声源;若未存储与所述标记声源对应的验证模型,采用预先存储的基础验证模型对所述第一语音信息进行适配,并将适配后的模型参数集作为与所述标记声源对应的验证模型进行保存;若存储有与所述标记声源对应的验证模型,采用所述验证模型判断所述第一语音信息是否与所述标记声源对应,并对所述验证模型进行优化;当确定所述验证模型的验证准确率超过预设阈值时,采用所述验证模型确定第二语音数据中包含的第二语音信息对应的声源;其中,所述验证准确率是指采用所述验证模型判断所述第一语音信息是否与所述标记声源对应的准确率。
另一方面,提供一种语音记录设备,其包括:获取单元,用于获取第一语音数据;其中,所述第一语音数据包括第一语音信息,以及所述第一语音信息对应的标记声源;学习单元,用于未存储与所述标记声源对应的验证模型,采用预先存储的基础验证模型对所述第一语音信息进行适配,并将适配后的模型参数集作为与所述标记声源对应的验证模型进行保存;若存储有与所述标记声源对应的验证模型,采用所述验证模型判断所述第一语音信息是否与所述标记声源对应,并对所述验证模型进行优化;使用单元,用于当确定所述验证模型的验证准确率超过预设阈值时,采用所述验证模型确定第二语音数据中包含的第二语音信息对应所述标记声源;其中,所述验证准确率是指采用所述验证模型判断所述第一语音信息是否与所述标记声源对应的准确率。
本申请的有益效果在于,由于在使用的过程中会针对不同声源单独生成一个验证模型,并且该验证模型会在使用过程中,不断地自我学习达到进一步优化的效果,当验证准确率达到预设值之后,即可直接采用验证模型验证声源。用针对不同声源的特定的验证模型进行声源验证,准确率会更高,并且使用时几乎不受其他条件的限制,使用更为灵活。
附图说明
图1为本申请实施方式一提供的一种语音分析方法的流程图。
图2为本申请实施方式一中多通道时域语音分离模型的示意图。
图3为本申请实施方式一中传统的泛化模型和元训练的验证模型的比对示意图。
图4为本申请实施方式一中语音信息对基础验证模型的适配过程示意图。
图5为本申请实施方式一中使用学习阶段的示意图。
图6(a)为本申请实施方式一提供的语音分析方法验证准确率低于预设阈值时的流程示意图。
图6(b)为本申请实施方式一提供的语音分析方法验证准确率大于或等于预设阈值时的流程示意图。
图7为本申请实施方式二提供的一种语音记录装置的方框示意图。
图8本申请实施方式三提供的一种语音记录装置的结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施方式,对本申请进行进一步详细说明。应当理解,此处所描述的实施方式仅用以解释本申请,并不用于限定本申请。但是,本申请可以以多种不同的形式来实现,并不限于本文所描述的实施方式。相反地,提供这些实施方式的目的是使对本发明的公开内容的理解更加透彻全面。
除非另有定义,本文所实用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术语只是为了描述具体的实施方式的目的,不是旨在限制本申请。
应理解,本文中术语“系统”或“网络”在本文中常被可互换使用。本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
本申请实施例可以应用于各种带有语音分析功能的各种语音记录装置。例如:录音笔、音频会议终端、智能会议记录装置或者有录音功能的智能电子设备等。以下将通过具体的实施方式对本申请的技术方案进行阐述。
实施方式一
请参看图1,为本申请实施方式一提供的一种语音分析方法。其中,分析包括但不限于声源验证和声源区分。声源可以是指说话人,不同的声源即指不同的说话人,相同的声源即指相同的说话人。声源区分是指对声源进行判断的结果,即,区分不同的声源发出的音频信息。声源区分可以不需要获取到声源发出的完整语音,只需获取其中一部分即可,如一句话,甚至是一句话中的一个单词或片段。可选的,本申请中的声源区分是以低延迟的形式在声源发出声音(如说话人说话)的同时给出上一时刻对该声源的判断结果。声源验证是指判断语音信息是否确实与标记声源对应,或者说,判断语音信息是否属于该标记声源。
该语音分析方法100包括:
S110,获取第一语音数据,其中,该第一语音数据包括第一语音信息以及该第一语音信息对应的标记声源;其中,该标记声源是采用第一方式确定的该第一语音信息对应的声源,该第一方式是除本申请所揭示的第二方式以外的声源分析(包括声源区分和声源验证)方式;如:该标记声源可以是通过声源的角度信息确定的,或者是,用户通过软件界面或者在终端设备上直接输入的;该角度信息可以是采用语音记录装置上的麦克风阵列的DOA(Direction of Arrival,波达方向)技术获取的各声源的角度信息,或者,是采用语音记录装置上的指向型麦克风获取的各声源的角度信息;又或者是,采用角度区分法获得标记声源,即,先通过神经网络把多通道语音数据进行分离,分离后的语音数据包括分离的语音信息以及对应的角度信息,然后再通过角度划分算法和声纹特征来区分声源(即说话人),并对每个角度一定范围内的区域所指示的声源进行标记。
S120,若未存储与该标记声源对应的验证模型,采用预先存储的基础验证模型对该第一语音信息进行适配,并将适配后的模型参数集作为与该标记声源对应的验证模型进行保存;
S130,若存储有与该标记声源对应的验证模型,采用该验证模型判断该第一语音信息是否与该标记声源对应,并对该验证模型进行优化;
S140,当确定该验证模型的验证准确率超过预设阈值时,采用该验证模型确定第二语音数据中包含的第二语音信息对应的声源;其中,该验证准确率是指采用该验证模型判断该第一语音信息是否与该标记声源对应的准确率。
其中,该第一语音信息与该第二语音信息均属于该声源的语音信息。
可选的,该第二语音数据中也包含标记声源,由此,该方法在使用过程中,仍然可以继续用第二语音数据包中的第二语音信息及标记声源,对该声源对应的验证模型进行适配,进一步优化该验证模型,提升其验证准确率。
可选的,S110,该获取第一语音数据,包括:
S111,采集多通道语音数据;可选的,通过麦克风阵列采集多通道语音数据;采用麦克风阵列获取多通道语音数据,还可捕获到声源的角度信息,根据这些空间信息初步界定该多通道语音数据中,不同的语音信息对应的声源(即说话人);
S112,对该多通道语音数据进行语音分离,获得分离后的该第一语音数据。此后,该方法即可将该第一语音数据作为初始数据,进行“自我学习”。
其中,该多通道语音数据中可能包含重叠语音,因此需要将该多通道语音数据送入一个语音分离模块进行语音分离。可选的,语音分离模块由一个神经网络构成,其结构包括若干个卷积神经网络(CNN,Convolutional Neural Networks)组成的编码器和解码器。
可选的,S112,对该多通道语音数据进行语音分离,包括:对该多通道语音数据采用时域信号分离方式进行分离。
请参见图2,采用时域信号分离方式对多通道语音数据进行分离的示意图。其中,多通道语音数据包含各个声源的角度信息。以两个说话人为例,说话人1和说话人2,即不同的声源,在不同的空间位置说话,时序信号被麦克风阵列采集到,获得多通道的混合语音数据,将该多通道的混合语音数据送入由卷积神经网络组成的编码器组 (Encoders),并且变换成多维度的表示(Representations);然后,该多通道的混合语音数据再经解码器组(Decoders)输出各个声源估计的语音信号以及对应的估计的角度信息。此时,再引入多通道的混合语音数据中各个声源干净的语音信号及其各自准确的角度信息作为标签,计算损失函数并优化该损失函数,完成训练。本申请所揭示的语音信号分离方式中无需经过傅里叶变换等特征提取过程,而是直接使用时域的语音信号进行训练,相对于需将语音信息的时域波形做傅里叶变换转换到频域,然后在对该语音信息的频谱特征进行学习的传统的深度学习语音分离方式,可降低时延。
而传统的深度学习语音分离方式通常是对语音信号进行时频分析,即将语音信号的时域波形做傅里叶变换转换到频域,然后对频谱特征进行学习。以单声道监督式两说话人语音分离为例,混合语音(Mixture Speech)经特征提取(Feature Extraction)模块获得了单声道混合语音信号的频谱,送入神经网络(Neural Network)。在训练过程中,神经网络
混合语音中两个说话人原始的干净语音信号,和估计语音信号计算损失函数(Loss Function),通常是均方误差(Mean Square Error,MSE),然后优化该损失函数使模型收敛,训练完毕。这种传统的时频分析方式虽然只需要单通道语音数据即可完成训练,但是由于在特征提取以及波形重建时必须要经过傅里叶变换和逆傅里叶变换,这会带来一定的计算时延,对于实时性要求较高的设备和场景来说未必能满足其低延迟的要求。除此之外,这种传统的算法都希望通过一个泛化验证模型就可以解决所有的语音分离问题,在实际应用中这显然是不现实的。
在S110获取第一语音数据之后,该方法会判断是否存储有与该标记声源对应的验证模型,无则执行S120,有则执行S130。即,遍历验证模型集合,若验证模型集合中没有该声源对应的验证模型,那么系统会将其判定为新的声源,执行S120;若验证模型集合中有该声源对应的验证模型,则执行S130。S130为自我学习的过程,该声源的验证模型在一次又一次的适配过程中得到优化,直至验证准确率超过预设阈值,则可认为该声源的验证模型的验证准确率已经足够高,则可以执行S140,直接采用该声源对应的验证模型确定语音信息对应的声源,而无需继续采用上述第一方式确定语音信息对应的声源。
可选的,包含该标记声源对应的验证模型的验证模型集合可存储于语音记录设备的本地存储单元中,存储于本地的优点在于提升数据的安全性和保密性;包含该标记声源对应的验证模型的验证模型集合也可以存储与云端设备,其优点在于可以获得更多的针对不同声源的验证模型。
可选的,该基础验证模型为预先通过元训练模型训练获得的泛化验证模型。所谓泛化验证模型是指使用海量数据训练的具有较强的泛化能力的说话人验证模型。本申请中的该泛化验证模型采用的预训练模型为元训练策略(Meta-train)。采用元训练模型训练的泛化验证模型,学习的不是如何直接适配训练集中未出现的声源的方法,而是学习如何快速地去适配训练集中未出现的声源的方法。
请参见图3,传统的泛化模型与采用元训练策略训练获得的元训练泛化验证模型的比较示意图。其中,图3(a)为传统的泛化验证模型,图3(b)为元训练的泛化验证模型。
假设训练集为声源AB、AC和BC,训练集中未出现的声源D、E和F。其中,声源AB表示声源A与声源B的混合声源,声源AC表示声源A与声源C的混合声源,声源BC表示声源AB与声源C的混合声源。
如图3(a)所示,针对说话人验证任务,若采用传统的泛化验证模型的方式,其过程一般为训练(Train)-适配(Enroll)-测试(Test)三个步骤。若训练集为混合声源AB、AC 和BC,那么在完成训练时(Train),传统的泛化验证模型的参数集θ会到达AB、AC、 BC的中间位置。所谓参数集θ的位置,是指将参数集看做一个高维向量空间,其中每个参数是一个维度,每个参数的取值,都可影响参数集θ在该空间中的位置。在传统的泛化模型中,根据训练集AB、AC和BC训练完之后,参数集θ中的各个参数的取值决定了其在该高维向量空间中位于该AB、AC、BC的参数集的中间位置。当遇到训练集中未出现的声源D、E和F时,需要提供一定数量的D、E、F的语音信息(如:语音片段),对原本的参数集θ进行适配(Enroll),使得该传统的泛化验证模型更靠近D、E、 F这些新的说话人,当适配过程完成以后,就可以用优化后的泛化模型对D、E、F发出的语音信息进行测试(Test)。
如图3(b)所示,元训练虽然同样也遵循这种Train-Enroll-Test的步骤,但元训练的泛化验证模型和传统泛化验证模型相比,其需要的适配语音(Enroll Speech)少很多,因而可以更快地训练出{A,B,C,D,E,F}中任意一个说话人或者任意说话人组合的说话人验证系统。具体而言,训练集同样为混合声源AB、AC和BC,元训练的泛化验证模型的参数集θ收敛位置如图3(b)所示并不在训练集的中间,因此,在面对新的声源D、 E和F发出的语音信息时,只需要极少量的适配语音就能让模型快速地匹配新的声源。也就是说,元训练的泛化验证模型更懂得“学会学习(Learn to learn)”,不管面对多少训练集中未出现的说话人,元训练的泛化验证模型都能很快地对这些说话人进行适配,泛化和迁移能力更强。
有了元训练的泛化验证模型作为验证声源的基础验证模型,那本申请实施例一揭示的语音分析方法以及运行该语音分析方法的语音记录装置的“自我学习”过程即可实现了。在S110中,获得的第一语音数据,已经得到了少量的带有声源标记的语音信息,这些语音信息即可作为声源验证的适配语音。
可选的,S120,若未存储与该标记声源对应的验证模型,采用预先存储的基础验证模型对该第一语音信息进行适配,并将适配后的模型参数集作为与该标记声源对应的验证模型进行保存,包括:
S121,将该第一语音信息送入元训练的基础验证模型进行适配;
S122,存储适配后的参数集作为该声源对应的验证模型。
举例说明,请参见图4,假设有两个说话人,即声源A和声源B,其各自有一条标记好的适配语音,分别为spkA(SpeakerA)和spkB(SpeakerB)。首先,将属于spkA的语音SpeechA送入元训练的基础验证模型进行适配,然后把适配后的验证模型的参数集保存在语音记录设备的本地存储空间中,并按照标记名进行存储(或者用户通过输入的身份信息进行标记并存储),即,A model。同样的,再把属于spkB的语音SpeechB送入原始的元训练的基础验证模型进行适配,同样把适配完的验证模型的参数集保存在语音记录设备的本地存储空间中,并标记为B model。本申请实施方式一中提及的元训练的泛化验证模型为基础验证模型(Base model),是一个单独的参数集,进行专门备份。不同的声源的语音信息都是在该基础验证模型上进行适配,适配完毕后将特定声源的参数集保存下来,作为针对该声源的验证模型,此后该声源的语音信息均通过该声源对应的验证模型进行声源验证,而不是在基础验证模型上进行验证,或者,在针对其他声源的验证模型上进行验证。例如:A的语音信息(spk A)—基础模型(Base model)—A的验证模型(A model),spk B--Base model--Bmodel,而不是spk A--Base model--A model, spk B--A model--B model。并且,进一步的,还会继续用声源A的语音信息对A model 进行适配,达到进一步优化的效果。
可选的,S130中对该验证模型进行优化,包括:
采用该标记声源对应的验证模型对该第一语音信息进行适配,并将优化后的模型参数集作为该标记声源对应的验证模型进行保存。
在本申请实施例方式一种,通过S120建立与声源对应的验证模型后,此后,在该声源(如说话人A)不断使用运行该语音分析方法的语音记录装置的过程中,通过S130 不断地对该声源对应的验证模型进行训练,提升该验证模型针对该声源进行验证的准确率。即,此为一个自我优化的过程。
举例说明,请参见图5,以声源为说话人1(Speaker1)为例,通过多通道时域语音分离模型得到Speaker1带有标记的时域语音片段序列S={s1,s2,...,st},经过S120 的步骤,得到了Speaker1对应的验证模型spk1 mode,在后续Speaker1持续使用过程中,经过S130可对spk1 model不断地进行训练并提升该模型对Speaker1验证的准确率。
当准确率达到预设条件时,则可直接根据该声源对应的验证模型来验证语音信息对应的声源,而无需再采用第一方式(如标记角度信息或用户输入)来标确认语音信息对应的声源。
可选的,S140中,该验证准确率是指采用该验证模型判断该第一语音信息是否与该标记声源对应的准确率,可以表达为:
该验证准确率是指特定声源的验证模型判断语音信息是否属于该特定声源的正确次数占总验证次的数百分比。
具体而言,是验证模型对语音信息的声源进行判断,即,对于特定声源的语音信息,验证模型判断出的声源即为该特征声源,此次验证即为正确的。举例说明,如果待验证的是声源A的语音信息,但是声源A对应的验证模型模型判断该语音信息不是属于声源A的,则判断错误;判断该语音信息是属于声源A的,则判断正确。如果待验证的不是声源A的语音信息,但是声源A对应的验证模型模型判断该语音信息是属于声源A的,则判断错误;判断该语音信息是不属于声源A的,则判断正确。
可选的,S140中,该验证准确率是指采用该验证模型判断该第一语音信息是否与该标记声源对应的准确率,也可以表达为:
验证准确率根据假接受率(False Accept Rate,FAR)和假拒绝率(False RejectRate, FRR)确定。
具体而言,该验证准确率是假接受率(False Accept Rate,FAR)和假拒绝率(False Reject Rate,FRR)相等时的正确率;可表达为(1-等错误率),等错误率(EER,Equal Error Rate)为假接受率(和假拒绝率相等时的错误率。
一般情况下,若要使得验证模型的验证准确率最高,则要使得验证错误率最低,而验证错误率包括了假接收率和假拒绝率,假接受率是指接受了一个错误的结果,即待验证语音信息原本不是特定声源(如标记的声源)的语音但是验证模型错误地把它当成是特定声源的语音信息;假拒绝率是指拒绝了一个正确的结果,即指待测语音信息原本是特定声源(如标记的声源)的语音信息但是验证模型错误地把它当成不是特定声源的语音信息。假接收率和假拒绝率在图像上是两条相关(非线性相关)的曲线,假接收率越大,假拒绝率越小,反之,假拒绝率越大,假接收率越小,两曲线的交点即为等错误率EER,当FAR=FRR=EER时,验证错误率最低。此时,验证正确率,即(1-ERR),也就是最高。根据这种规律,我们可设置一个触发机制,如当验证准确率高于预设阈值 (假设为0.95)时,开始启用声源对应的验证模块来代替最初的声源标记方式,如通过角度来判断声源,或者,用户自行输入身份信息的方式。
可选的,在S140之后,虽然当声源对应验证模型可满足预设的最低要求,即验证准确率大于预设阈值,可靠性有了最低保证。但是,本申请提供的方法的实施例一的自我学习过程并不会终止,相反,只要用户依然在使用运行该方法的语音记录系统,就会不断的有标记声源的语音信息产生,该方法依然可以用这些有声源标记的语音信息继续去适配该声源对应验证模型,让其准确率越来越高,该过程可称之为使用时学习。
使用过程中,假设使用场景为会议系统,请参见请参见图6(a)中之举例,实时多通道会议音频数据流,经过多通道时域语音分离模型分离后,得到分离后的语音信息和角度的集合,其中每条记录中都包含语音信息及其对应的角度,通过角度信息,确定语音信息对应的说话人(即声源),获得说话人语音信息集合,再将说话人语音信息集合中的语音信息分别送入元训练模型进行训练和适配,获得针对不同声源的验证模型,说话人1模型……说话人n模型。请继续参见图6(b),当验证模型的验证准确率大于预设值之后,与图6(a)中的验证过程不同的是,此时,可直接采用验证模型来确定语音信息的声源,即,将收到的语音信息与说话人验证模型集合中的说话人模型进行匹配,采用匹配上的说话人模型对该语音信息进行验证。同时,还会用该语音信息对该验证模型进行进一步的适配,以进一步提升该验证模型的验证准确率。
本申请的实施方式,由于在使用过程中,使用语音记录装置的人位置会发生变换,并且也会有不同的人来使用该语音记录装置,如果采用通过角度信息确定声源,或者,用户自行输入的方式确定声源,其不确定性会增大,可靠性降低。因此,当本申请实施方式一提供的方法,经历了S120、S130“自我学习”阶段和“使用时学习”阶段之后,针对不同的声源生成特定的声源验证模型,并且在使用过程中,针对该声源的验证准确率会不断的得到提升,当达到用户可以接受的程度的时,即可用验证模块来替换初始的声源确定方式,对语音信息的声源进行区分和验证。并且,在该方法中,随着特定声源的使用时间越来越长,该特定声源对应的验证模型的准确率也会越来越高,形成一个良性循环,实现运行该方法的语音记录设备“自我学习”的目的。因此,相较于传统的声源验证方式,本申请提供的方案具备更好的实时性、准确性和灵活性。
由于,本申请的实施方式具备这种“自我学习”的功能,能够让运行该方法的语音记录设备在使用的过程中不断学习、不断完善,越来越智能,对不同的说话人的语音区分准确率越来越高,并且几乎不需要附加任何限制条件。用户使用越多,对用户的区分灵敏度越高,可极大地提高用户粘性和用户体验。
并且,本申请的实施方式,,可以针对不同的说话人和不同的会议场景,训练出更具有独特性的验证模型,对声源进行验证和区分,可靠性更高;所有的语音分离、说话人适配以及说话人区分过程都在本地进行,说话人模型也保存在本地存储空间中,相比于传统智能会议记录系统还需联网将语音文件上传到云端的操作,本发明的技术方案不仅可以降低传输时延、简化操作,更能保证用户隐私信息,适用于安全、保密性要求更高的场景。
实施方式二
请参看图7,为本申请实施方式二提供的一种语音记录装置200。该语音记录装置200包括但不限于录音笔、音频会议终端、或者有录音功能的智能电子设备等中任意一种,也可以是不包含语音拾取功能,仅包含语音区分或验证的分析功能,可实现该功能的电脑或其他智能电子设备,对此在本实施方式二中不做限定。
该语音记录装置200包括:
获取单元210,用于获取第一语音数据;其中,该第一语音数据包括第一语音信息,以及该第一语音信息对应的标记声源;
学习单元220,用于若未存储与该标记声源对应的验证模型,采用预先存储的基础验证模型对该第一语音信息进行适配,并将适配后的模型参数集作为与该标记声源对应的验证模型进行保存;若存储有与该标记声源对应的验证模型,采用该验证模型判断该第一语音信息是否与该标记声源对应,并对该验证模型进行优化;
使用单元230,用于当确定该验证模型的验证准确率超过预设阈值时,采用该验证模型确定第二语音数据中包含的第二语音信息对应该标记声源;其中,该验证准确率是指采用该验证模型判断该第一语音信息是否与该标记声源对应的准确率。
该可选的,该该获取单元210,具体用于采集多通道语音数据;对该多通道语音数据进行语音分离,获得分离后的该第一语音数据。
可选的,该获取单元210,具体用于采集多通道语音数据;对该多通道语音数据采用时域信号分离方式进行分离,获得分离后的该第一语音数据。
可选的,该基础验证模型为预先通过元训练模型训练获得的泛化验证模型。
可选的,若存储有与该标记声源对应的验证模型,该学习单元220,具体用于采用该验证模型判断该第一语音信息是否与该标记声源对应,并采用该标记声源对应的验证模型对该第一语音信息进行适配,并将优化后的模型参数集作为该标记声源对应的验证模型进行保存。
可选的,该预设阈值根据假接受率和假拒绝率确定。具体而言,该验证准确利率可表达为(1-等错误率),其阈值可以设置为0.95,即等错率要小于0.05。
本实施方式二中有不详尽之处、或优化方案、或者具体的实例,请参见上述实施方式一中相同或对应的部分,在此不做重复赘述。
实施方式三
请参看图8,本申请实施方式三提供的一种语音记录装置300的结构示意图。该视频处理装置300包括:处理器310以及存储器320。处理器310、存储器320之间通过总线系统实现相互的通信连接。处理器310调用存储器320中的程序,执行上述实施方式一提供的任意一种语音分析方法。
该处理器310可以是一个独立的元器件,也可以是多个处理元件的统称。例如,可以是CPU,也可以是ASIC,或者被配置成实施以上方法的一个或多个集成电路,如至少一个微处理器DSP,或至少一个可编程门这列FPGA等。存储器320为一计算机可读存储介质,其上存储可在处理器310上运行的程序。
可选的,该语音处理装置300还包括:声音拾取装置330用于获取语音信息。处理器310、存储器320、声音拾取装置330之间通过总线系统实现相互的通信连接。处理器310调用存储器320中的程序,执行上述实施方式一提供的任意一种语音分析方法,处理该声音拾取装置330获取的多通道语音信息。
本实施方式三中有不详尽之处,请参见上述实施方式一中相同或对应的部分,在此不做重复赘述。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本申请具体实施方式所描述的功能可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以是由处理器执行软件指令的方式来实现。软件指令可以由相应的软件模块组成。软件模块可以被存放于计算机可读存储介质中,所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,数字视频光盘(Digital Video Disc,DVD))、或者半导体介质(例如,固态硬盘(Solid StateDisk,SSD))等。所述计算机可读存储介质包括但不限于随机存取存储器(Random AccessMemory,RAM)、闪存、只读存储器(Read Only Memory, ROM)、可擦除可编程只读存储器(Erasable Programmable ROM,EPROM)、电可擦可编程只读存储器(Electrically EPROM,EEPROM)、寄存器、硬盘、移动硬盘、只读光盘(CD-ROM)或者本领域熟知的任何其它形式的存储介质。一种示例性的计算机可读存储介质耦合至处理器,从而使处理器能够从该计算机可读存储介质读取信息,且可向该计算机可读存储介质写入信息。当然,计算机可读存储介质也可以是处理器的组成部分。处理器和计算机可读存储介质可以位于ASIC中。另外,该ASIC可以位于接入网设备、目标网络设备或核心网设备中。当然,处理器和计算机可读存储介质也可以作为分立组件存在于接入网设备、目标网络设备或核心网设备中。当使用软件实现时,也可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机或芯片上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请具体实施方式所述的流程或功能,该芯片可包含有处理器。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机程序指令可以存储在上述计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(Digital Subscriber Line,DSL)) 或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。
上述实施方式说明但并不限制本发明,本领域的技术人员能在权利要求的范围内设计出多个可代替实例。所属领域的技术人员应该意识到,本申请并不局限于上面已经描述并在附图中示出的精确结构,对在没有违反如所附权利要求书所定义的本发明的范围之内,可对具体实现方案做出适当的调整、修改、、等同替换、改进等。因此,凡依据本发明的构思和原则,所做的任意修改和变化,均在所附权利要求书所定义的本发明的范围之内。
Claims (14)
1.一种语音分析方法,其特征在于,所述方法包括:
获取第一语音数据,其中,所述第一语音数据包括第一语音信息以及所述第一语音信息对应的标记声源;
若未存储与所述标记声源对应的验证模型,采用预先存储的基础验证模型对所述第一语音信息进行适配,并将适配后的模型参数集作为与所述标记声源对应的验证模型保存;
若存储有与所述标记声源对应的验证模型,采用所述验证模型判断所述第一语音信息是否与所述标记声源对应,并对所述验证模型进行优化;
当确定所述验证模型的验证准确率超过预设阈值时,采用所述验证模型确定第二语音数据中包含的第二语音信息对应的声源;其中,所述验证准确率是指采用所述验证模型判断所述第一语音信息是否与所述标记声源对应的准确率。
2.如权利要求1所述的方法,其特征在于,所述获取第一语音数据,包括:
采集多通道语音数据;
对所述多通道语音数据进行语音分离,获得分离后的所述第一语音数据。
3.如权利要求2所述的方法,其特征在于,所述对所述多通道语音数据进行语音分离,包括:
对所述多通道语音数据采用时域信号分离方式进行分离。
4.如权利要求1所述的方法,其特征在于,所述基础验证模型为预先通过元训练模型训练获得的泛化验证模型。
5.如权利要求1所述的方法,其特征在于,所述对所述验证模型进行优化,包括:
采用所述标记声源对应的验证模型对所述第一语音信息进行适配,并将优化后的的模型参数集作为所述标记声源对应的验证模型进行保存。
6.如权利要求1所述的方法,其特征在于,所述预设阈值根据假接受率和假拒绝率确定。
7.一种语音记录设备,其特征在于,所述语音记录设备包括:
获取单元,用于获取第一语音数据;其中,所述第一语音数据包括第一语音信息,以及所述第一语音信息对应的标记声源;
学习单元,用于若未存储与所述标记声源对应的验证模型,采用预先存储的基础验证模型对所述第一语音信息进行适配,并将适配后的模型参数集作为与所述标记声源对应的验证模型进行保存;若存储有与所述标记声源对应的验证模型,采用所述验证模型判断所述第一语音信息是否与所述标记声源对应,并对所述验证模型进行优化;
使用单元,用于当确定所述验证模型的验证准确率超过预设阈值时,采用所述验证模型确定第二语音数据中包含的第二语音信息对应所述标记声源;其中,所述验证准确率是指采用所述验证模型判断所述第一语音信息是否与所述标记声源对应的准确率。
8.如权利要求7所述的语音记录设备,其特征在于,所述获取单元,具体用于采集多通道语音数据;对所述多通道语音数据进行语音分离,获得分离后的所述第一语音数据。
9.如权利要求8所述的语音记录设备,其特征在于,所述获取单元,具体用于采集多通道语音数据;对所述多通道语音数据采用时域信号分离方式进行分离,获得分离后的所述第一语音数据。
10.如权利要求7所述的语音记录设备,其特征在于,所述基础验证模型为预先通过元训练模型训练获得的泛化验证模型。
11.如权利要求7所述的语音记录设备,其特征在于,若存储有与所述标记声源对应的验证模型,所述学习单元,具体用于采用所述验证模型判断所述第一语音信息是否与所述标记声源对应,并采用所述标记声源对应的验证模型对所述第一语音信息进行适配,并将优化后的模型参数集作为所述标记声源对应的验证模型进行保存。
12.如权利要求7所述的语音记录设备,其特征在于,所述预设阈值根据假接受率和假拒绝率确定。
13.一种语音记录设备,其特征在于,所述语音记录设备包括:处理器以及存储器;所述处理器调用所述存储器中的程序,执行上述权利要求1至6中任意一项所述的语音分析方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有语音分析方法的程序,所述语音分析方法的程序被处理器执行时实现上述权利要求1至6中任意一项所述的语音分析方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110149946.4A CN112992174A (zh) | 2021-02-03 | 2021-02-03 | 一种语音分析方法及其语音记录装置 |
PCT/CN2021/120416 WO2022166220A1 (zh) | 2021-02-03 | 2021-09-24 | 一种语音分析方法及其语音记录装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110149946.4A CN112992174A (zh) | 2021-02-03 | 2021-02-03 | 一种语音分析方法及其语音记录装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112992174A true CN112992174A (zh) | 2021-06-18 |
Family
ID=76346460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110149946.4A Pending CN112992174A (zh) | 2021-02-03 | 2021-02-03 | 一种语音分析方法及其语音记录装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112992174A (zh) |
WO (1) | WO2022166220A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022166220A1 (zh) * | 2021-02-03 | 2022-08-11 | 深圳壹秘科技有限公司 | 一种语音分析方法及其语音记录装置 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102968990A (zh) * | 2012-11-15 | 2013-03-13 | 江苏嘉利德电子科技有限公司 | 说话人识别方法和系统 |
CN103226951A (zh) * | 2013-04-19 | 2013-07-31 | 清华大学 | 基于模型顺序自适应技术的说话人确认系统创建方法 |
CN104143326A (zh) * | 2013-12-03 | 2014-11-12 | 腾讯科技(深圳)有限公司 | 一种语音命令识别方法和装置 |
CN105489221A (zh) * | 2015-12-02 | 2016-04-13 | 北京云知声信息技术有限公司 | 一种语音识别方法及装置 |
CN107545889A (zh) * | 2016-06-23 | 2018-01-05 | 华为终端(东莞)有限公司 | 适用于模式识别的模型的优化方法、装置及终端设备 |
CN108305633A (zh) * | 2018-01-16 | 2018-07-20 | 平安科技(深圳)有限公司 | 语音验证方法、装置、计算机设备和计算机可读存储介质 |
CN110164469A (zh) * | 2018-08-09 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种多人语音的分离方法和装置 |
CN110689523A (zh) * | 2019-09-02 | 2020-01-14 | 西安电子科技大学 | 基于元学习个性化图像信息评价方法、信息数据处理终端 |
CN110991661A (zh) * | 2019-12-20 | 2020-04-10 | 北京百度网讯科技有限公司 | 用于生成模型的方法和装置 |
CN111179940A (zh) * | 2018-11-12 | 2020-05-19 | 阿里巴巴集团控股有限公司 | 一种语音识别方法、装置及计算设备 |
CN111326168A (zh) * | 2020-03-25 | 2020-06-23 | 合肥讯飞数码科技有限公司 | 语音分离方法、装置、电子设备和存储介质 |
CN111353610A (zh) * | 2020-02-28 | 2020-06-30 | 创新奇智(青岛)科技有限公司 | 一种模型参数确定方法、装置、存储介质及电子设备 |
US20200242400A1 (en) * | 2019-01-25 | 2020-07-30 | Oath Inc. | Systems and methods for hyper parameter optimization for improved machine learning ensembles |
CN111931991A (zh) * | 2020-07-14 | 2020-11-13 | 上海眼控科技股份有限公司 | 气象临近预报方法、装置、计算机设备和存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8209174B2 (en) * | 2009-04-17 | 2012-06-26 | Saudi Arabian Oil Company | Speaker verification system |
CN108288470B (zh) * | 2017-01-10 | 2021-12-21 | 富士通株式会社 | 基于声纹的身份验证方法和装置 |
CN108922538B (zh) * | 2018-05-29 | 2023-04-07 | 平安科技(深圳)有限公司 | 会议信息记录方法、装置、计算机设备及存储介质 |
CN111341326B (zh) * | 2020-02-18 | 2023-04-18 | RealMe重庆移动通信有限公司 | 语音处理方法及相关产品 |
CN112992174A (zh) * | 2021-02-03 | 2021-06-18 | 深圳壹秘科技有限公司 | 一种语音分析方法及其语音记录装置 |
-
2021
- 2021-02-03 CN CN202110149946.4A patent/CN112992174A/zh active Pending
- 2021-09-24 WO PCT/CN2021/120416 patent/WO2022166220A1/zh active Application Filing
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102968990A (zh) * | 2012-11-15 | 2013-03-13 | 江苏嘉利德电子科技有限公司 | 说话人识别方法和系统 |
CN103226951A (zh) * | 2013-04-19 | 2013-07-31 | 清华大学 | 基于模型顺序自适应技术的说话人确认系统创建方法 |
CN104143326A (zh) * | 2013-12-03 | 2014-11-12 | 腾讯科技(深圳)有限公司 | 一种语音命令识别方法和装置 |
CN105489221A (zh) * | 2015-12-02 | 2016-04-13 | 北京云知声信息技术有限公司 | 一种语音识别方法及装置 |
CN107545889A (zh) * | 2016-06-23 | 2018-01-05 | 华为终端(东莞)有限公司 | 适用于模式识别的模型的优化方法、装置及终端设备 |
CN108305633A (zh) * | 2018-01-16 | 2018-07-20 | 平安科技(深圳)有限公司 | 语音验证方法、装置、计算机设备和计算机可读存储介质 |
CN110164469A (zh) * | 2018-08-09 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种多人语音的分离方法和装置 |
CN111179940A (zh) * | 2018-11-12 | 2020-05-19 | 阿里巴巴集团控股有限公司 | 一种语音识别方法、装置及计算设备 |
US20200242400A1 (en) * | 2019-01-25 | 2020-07-30 | Oath Inc. | Systems and methods for hyper parameter optimization for improved machine learning ensembles |
CN110689523A (zh) * | 2019-09-02 | 2020-01-14 | 西安电子科技大学 | 基于元学习个性化图像信息评价方法、信息数据处理终端 |
CN110991661A (zh) * | 2019-12-20 | 2020-04-10 | 北京百度网讯科技有限公司 | 用于生成模型的方法和装置 |
CN111353610A (zh) * | 2020-02-28 | 2020-06-30 | 创新奇智(青岛)科技有限公司 | 一种模型参数确定方法、装置、存储介质及电子设备 |
CN111326168A (zh) * | 2020-03-25 | 2020-06-23 | 合肥讯飞数码科技有限公司 | 语音分离方法、装置、电子设备和存储介质 |
CN111931991A (zh) * | 2020-07-14 | 2020-11-13 | 上海眼控科技股份有限公司 | 气象临近预报方法、装置、计算机设备和存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022166220A1 (zh) * | 2021-02-03 | 2022-08-11 | 深圳壹秘科技有限公司 | 一种语音分析方法及其语音记录装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2022166220A1 (zh) | 2022-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6938784B2 (ja) | オブジェクト識別の方法及びその、コンピュータ装置並びにコンピュータ装置可読記憶媒体 | |
US10957339B2 (en) | Speaker recognition method and apparatus, computer device and computer-readable medium | |
EP1704668B1 (en) | System and method for providing claimant authentication | |
US10424317B2 (en) | Method for microphone selection and multi-talker segmentation with ambient automated speech recognition (ASR) | |
WO2021128741A1 (zh) | 语音情绪波动分析方法、装置、计算机设备及存储介质 | |
KR100636317B1 (ko) | 분산 음성 인식 시스템 및 그 방법 | |
CN107799126A (zh) | 基于有监督机器学习的语音端点检测方法及装置 | |
US10733986B2 (en) | Apparatus, method for voice recognition, and non-transitory computer-readable storage medium | |
WO2021051572A1 (zh) | 语音识别方法、装置以及计算机设备 | |
CN109410956B (zh) | 一种音频数据的对象识别方法、装置、设备及存储介质 | |
WO2021042537A1 (zh) | 语音识别认证方法及系统 | |
EP3989217A1 (en) | Method for detecting an audio adversarial attack with respect to a voice input processed by an automatic speech recognition system, corresponding device, computer program product and computer-readable carrier medium | |
US9947323B2 (en) | Synthetic oversampling to enhance speaker identification or verification | |
CN110111798B (zh) | 一种识别说话人的方法、终端及计算机可读存储介质 | |
CN112992191B (zh) | 语音端点检测方法、装置、电子设备及可读存储介质 | |
CN113223536A (zh) | 声纹识别方法、装置及终端设备 | |
CN113628612A (zh) | 语音识别方法、装置、电子设备及计算机可读存储介质 | |
CN113779208A (zh) | 用于人机对话的方法和装置 | |
WO2022166220A1 (zh) | 一种语音分析方法及其语音记录装置 | |
CN115547345A (zh) | 声纹识别模型训练及相关识别方法、电子设备和存储介质 | |
CN106373576B (zh) | 一种基于vq和svm算法的说话人确认方法及其系统 | |
CN112992175B (zh) | 一种语音区分方法及其语音记录装置 | |
JPWO2020003413A1 (ja) | 情報処理装置、制御方法、及びプログラム | |
CN113889091A (zh) | 语音识别方法、装置、计算机可读存储介质及电子设备 | |
JP2013235050A (ja) | 情報処理装置及び方法、並びにプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |