CN111524521B - 声纹提取模型训练方法和声纹识别方法、及其装置和介质 - Google Patents

声纹提取模型训练方法和声纹识别方法、及其装置和介质 Download PDF

Info

Publication number
CN111524521B
CN111524521B CN202010324112.8A CN202010324112A CN111524521B CN 111524521 B CN111524521 B CN 111524521B CN 202010324112 A CN202010324112 A CN 202010324112A CN 111524521 B CN111524521 B CN 111524521B
Authority
CN
China
Prior art keywords
voiceprint
loss function
neural network
training
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010324112.8A
Other languages
English (en)
Other versions
CN111524521A (zh
Inventor
蔡国都
王欣
王壹丰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Pinecone Electronic Co Ltd
Original Assignee
Beijing Xiaomi Pinecone Electronic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Pinecone Electronic Co Ltd filed Critical Beijing Xiaomi Pinecone Electronic Co Ltd
Priority to CN202010324112.8A priority Critical patent/CN111524521B/zh
Publication of CN111524521A publication Critical patent/CN111524521A/zh
Priority to US17/023,821 priority patent/US20210335368A1/en
Priority to JP2020156101A priority patent/JP7221258B2/ja
Priority to EP20198729.4A priority patent/EP3901948A1/en
Priority to KR1020200167099A priority patent/KR102603466B1/ko
Application granted granted Critical
Publication of CN111524521B publication Critical patent/CN111524521B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/18Artificial neural networks; Connectionist approaches
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/20Pattern transformations or operations aimed at increasing system robustness, e.g. against channel noise or different working conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开是关于一种声纹提取模型训练方法和声纹识别方法、及其装置和介质。声纹提取模型训练方法包括:获取用户在T个设备上的语音数据,并基于所述语音数据,提取声学特征,构建训练数据集合,T为大于等于2的正整数;将所述训练数据集合输入到所述神经网络模型中,对所述神经网络模型进行训练,并获取所述神经网络模型每次训练的损失函数;当所述损失函数收敛时,确定所述神经网络模型训练完成;其中,所述损失函数为分类损失函数、重构损失函数、差异损失函数和相似性损失函数的加权和。采用该方法,使不同设备之间使用统一的经训练的声纹提取模型,大大减小工作量,且系统更容易维护。

Description

声纹提取模型训练方法和声纹识别方法、及其装置和介质
技术领域
本公开涉及声纹处理技术领域,尤其涉及声纹提取模型训练方法和声纹识别方法、及其装置和介质。
背景技术
随着语音技术的不断发展,声纹识别作为一种生物认证技术,逐渐应用到各种智能设备中,常见的应用如:声纹推荐系统、声纹锁功能、声纹支付等。由于语音中通常包含信道信息、环境噪声信息和说话人信息,对于声纹识别技术而言,只需要获取说话人信息即可,但是很难将这几种信息完全分离,因此当前的声纹识别系统受信道影响比较大。由于不同的录音设备会引入不同的信道信息,因此在跨设备的应用上效果比较差。
需要一种方法来较好的分离说话人信息(即说话人的声纹特征)与各种噪声信息。
发明内容
为克服相关技术中存在的问题,本公开提供一种声纹提取模型训练方法和声纹识别方法、及其装置和介质。
根据本公开实施例的第一方面,提供一种声纹提取模型训练方法,所述声纹提取模型为神经网络模型,所述方法包括:
获取用户在T个设备上的语音数据,并基于所述语音数据,提取声学特征,构建训练数据集合,T为大于等于2的正整数;
将所述训练数据集合输入到所述神经网络模型中,对所述神经网络模型进行训练,并获取所述神经网络模型每次训练的损失函数;
当所述损失函数收敛时,确定所述神经网络模型训练完成;
其中,所述损失函数为分类损失函数、重构损失函数、差异损失函数和相似性损失函数的加权和。
其中,所述获取所述神经网络模型每次训练的损失函数,包括:
获取所述神经网络模型每次训练得到的声纹特征信息和信道噪声信息;
基于所述声纹特征信息和信道噪声信息,计算所述差异损失函数。
其中,所述获取所述神经网络模型每次训练的损失函数,包括:
获取所述神经网络模型每次训练得到的声纹特征信息;
对所述声纹特征信息进行处理,以除去所述声纹特征信息与所属信道的关联性;
将处理后的声纹特征信息输入所述神经网络模型的域分类器;
基于所述域分类器的分类结果和所述神经网络模型输出的分类正确概率,获取所述相似性损失函数。
其中,所述对所述声纹特征信息进行处理,以除去所述声纹特征信息与所属信道的关联性,包括:
通过梯度反转对所述声纹特征信息进行处理。
根据本公开实施例的第而方面,提供一种声纹识别方法,所述方法利用上述的声纹提取模型训练方法训练的声纹提取模型,所述方法包括:
通过语音获取设备获取用户的语音,所述语音获取设备上设置有经训练的声纹提取模型;
通过所述经训练的声纹提取模型获取所述用户的声纹特征,并确定所述声纹特征与所述用户信息的对应关系;
在所述用户进行声纹识别时,获取用户信息;
基于所述用户信息,获取所述用户的声纹特征;
基于所述用户的声纹特征对所述用户进行声纹识别。
其中,所述方法还包括:
将确定的所述声纹特征与所述用户信息的对应关系存储在存储器上;
所述基于所述用户信息获取所述用户的声纹特征,包括:
基于所述用户信息,从所述存储器上获取所述用户的声纹特征。
根据本公开实施例的第三方面,提供一种声纹提取模型训练装置,所述装置应用于神经网络模型,所述装置包括:
语音获取模块,被设置为获取用户在T个设备上的语音数据,并基于所述语音数据,提取声学特征,构建训练数据集合,T为大于等于2的正整数;
训练模块,被设置为将所述训练数据集合输入到所述神经网络模型中,对所述神经网络模型进行训练;
损失函数获取模块,被设置为获取所述神经网络模型每次训练的损失函数;
训练完成确定模块,被设置为当所述损失函数收敛时,确定所述神经网络模型训练完成;
其中,所述损失函数为分类损失函数、重构损失函数、差异损失函数和相似性损失函数的加权和。
其中,所述损失函数获取模块还被设置为:
获取所述神经网络模型每次训练得到的声纹特征信息和信道噪声信息;
基于所述声纹特征信息和信道噪声信息,计算所述差异损失函数。
其中,所述损失函数获取模块还被设置为:
获取所述神经网络模型每次训练得到的声纹特征信息;
对所述声纹特征信息进行处理,以除去所述声纹特征信息与所属信道的关联性;
将处理后的声纹特征信息输入所述神经网络模型的域分类器;
基于所述域分类器的分类结果和所述神经网络模型输出的分类正确概率,获取所述相似性损失函数。
其中,所述损失函数获取模块还被设置为:
通过梯度反转对所述声纹特征信息进行处理,以除去所述声纹特征信息与所属信道的关联性。
根据本公开实施例的第四方面,提供一种声纹识别装置,所述装置还包括:
语音获取设备,被设置为获取用户的语音,所述语音获取设备上设置有上述的经训练的声纹提取模型;
关系确定模块,被设置为通过所述经训练的声纹提取模型获取所述用户的声纹特征,并确定所述声纹特征与所述用户信息的对应关系;
信息获取模块,被设置为在所述用户进行声纹识别时,获取用户信息;
声纹获取模块,被设置为基于所述用户信息,获取所述用户的声纹特征;
识别模块,被设置为基于所述用户的声纹特征对所述用户进行声纹识别。
其中,所述装置还包括:
存储模块,被设置为将确定的所述声纹特征与所述用户信息的对应关系存储在存储器上;
所述声纹获取模块还被设置基于所述用户信息,从所述存储器上获取所述用户的声纹特征。
根据本公开实施例的第五方面,提供一种声纹识别装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为在运行所述可执行指令时实现以下步骤:
获取用户在T个设备上的语音数据,并基于所述语音数据,提取声学特征,构建训练数据集合,T为大于等于2的正整数;
将所述训练数据集合输入到所述神经网络模型中,对所述神经网络模型进行训练,并获取所述神经网络模型每次训练的损失函数;
当所述损失函数收敛时,确定所述神经网络模型训练完成;
其中,所述损失函数为分类损失函数、重构损失函数、差异损失函数和相似性损失函数的加权和。
根据本公开实施例的第六方面,提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由装置的处理器执行时,使得装置能够执行一种声纹识别方法,所述方法包括:
获取用户在T个设备上的语音数据,并基于所述语音数据,提取声学特征,构建训练数据集合,T为大于等于2的正整数;
将所述训练数据集合输入到所述神经网络模型中,对所述神经网络模型进行训练,并获取所述神经网络模型每次训练的损失函数;
当所述损失函数收敛时,确定所述神经网络模型训练完成;
其中,所述损失函数为分类损失函数、重构损失函数、差异损失函数和相似性损失函数的加权和。
根据本公开实施例的第七方面,提供一种声纹提取模型训练装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为在运行所述可执行指令时实现以下步骤:
通过语音获取设备获取用户的语音,所述语音获取设备上设置有经训练的声纹提取模型;
通过所述经训练的声纹提取模型获取所述用户的声纹特征,并确定所述声纹特征与所述用户信息的对应关系;
在所述用户进行声纹识别时,获取用户信息;
基于所述用户信息,获取所述用户的声纹特征;
基于所述用户的声纹特征对所述用户进行声纹识别。
根据本公开实施例的第八方面,提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由装置的处理器执行时,使得装置能够执行一种声纹提取模型训练方法,所述方法包括:
通过语音获取设备获取用户的语音,所述语音获取设备上设置有经训练的声纹提取模型;
通过所述经训练的声纹提取模型获取所述用户的声纹特征,并确定所述声纹特征与所述用户信息的对应关系;
在所述用户进行声纹识别时,获取用户信息;
基于所述用户信息,获取所述用户的声纹特征;
基于所述用户的声纹特征对所述用户进行声纹识别。
本公开提供一种声纹识别方法,在该方法中,通过语音获取设备获取用户的语音,所述语音获取设备上设置有经训练的声纹提取模型,通过所述经训练的声纹提取模型获取所述用户的声纹特征,并确定所述声纹特征与所述用户信息的对应关系。在所述用户进行声纹识别时,获取用户信息,基于所述用户信息,获取所述用户的声纹特征,然后基于所述用户的声纹特征对所述用户进行识别声纹。本公开还提供了一种声纹提取模型训练方法,声纹提取模型经过该方法训练后,能从获取的用户语音中提取用户的声纹特征,实现较好的声纹特征与信道噪声的分离。
在本公开的声纹识别方法中,使不同设备之间使用统一的经训练的声纹提取模型,大大减小工作量,且系统更容易维护。并且用户使用时,只需在一个设备上进行注册,在其他设备上便可以使用,提高了用户的使用体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是根据一示例性实施例示出的声纹提取模型训练方法的流程图。
图2是根据一示例性实施例示出的声纹提取模型网络结构的示意图。
图3是根据一示例性实施例示出的声纹识别方法的流程图。
图4是根据一示例性实施例示出的声纹识别方法的流程图。
图5是根据一示例性实施例示出的声纹提取模型训练装置的框图。
图6是根据一示例性实施例示出的声纹识别装置的框图。
图7是根据一示例性实施例示出的一种装置的框图。
图8是根据一示例性实施例示出的一种装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
当前的声纹识别系统受信道影响比较大。由于不同的录音设备会引入不同的信道信息,因此在跨设备的应用上效果比较差。
针对上述问题,目前采用的方法是通过学习不同信道之间的映射关系,建立声纹映射模型,针对某一录音设备得到的语音,提取其说话人特征,并与现有的用户进行绑定,根据不同设备之间的声纹映射模型,从而得到该语音在其他设备上的深度特征,即该用户在其他录音设备上的说话人特征表示。
但是,这种方法需要额外逐一地学习不同设备之间的映射关系,当设备较多时,需要建立较多的声纹映射模型。随着智能设备不断增多,需要针对每个设备建立声纹模型,同时需要不断维护,工作量巨大。并且,在用户使用时,需要在每个设备上进行注册,步骤重复且繁琐。
本公开提供一种声纹识别方法,在该方法中,通过语音获取设备获取用户的语音,所述语音获取设备上设置有经训练的声纹提取模型,通过所述经训练的声纹提取模型获取所述用户的声纹特征,并确定所述声纹特征与所述用户信息的对应关系。在所述用户进行声纹识别时,获取用户信息,基于所述用户信息,获取所述用户的声纹特征,然后基于所述用户的声纹特征对所述用户进行识别声纹。本公开还提供了一种声纹提取模型训练方法,声纹提取模型经过该方法训练后,能从获取的用户语音中提取用户的声纹特征,实现较好的声纹特征与信道噪声的分离。
在本公开的声纹识别方法中,使不同设备之间使用统一的经训练的声纹提取模型,大大减小工作量,且系统更容易维护。并且用户使用时,只需在一个设备上进行注册,在其他设备上便可以使用,提高了用户的使用体验。
图1是根据一示例性实施例示出的一种声纹提取模型训练方法的流程图,所述声纹提取模型为神经网络模型,如图1所示,该方法包括以下步骤:
步骤101,获取用户在T个设备上的语音数据,并基于所述语音数据,提取声学特征,构建训练数据集合,T为大于等于2的正整数;
步骤102,将所述训练数据集合输入到所述神经网络模型中,对所述神经网络模型进行训练,并获取所述神经网络模型每次训练的损失函数;
步骤103,当所述损失函数收敛时,确定所述神经网络模型训练完成;
其中,所述损失函数为分类损失函数、重构损失函数、差异损失函数和相似性损失函数的加权和。
该方法中的声纹提取模型为本领域技术人员已知的神经网络模型,例如深度神经网络模型。该声纹提取模型是与设备无关的统一模型。在该模型中,对来自不同信道的数据,分别建立共享空间和私有空间。共享空间由不同信道所共享,用于学习共享特征,即说话人的声纹特征;私有空间限于每个信道,用于学习各设备的私有特征,即各设备产生的信道噪声。因此,音频数据在共享空间中的表示,就是与信道无关的说话人声纹特征,即与设备无关的说话人声纹特征。
本公开采用的深度神经网络模型如图2所示,其中各模块的说明如下:
X1,2,…,T:训练集,其中T表示设备总数;
Ec(x):共享空间编码器,用于提取不同设备的共享特征hc
Ep(x):私有空间编码器,用于分别提取不同设备的私有特征hp
D(h):解码器,将编码器提取得到的隐藏特征h进行解码重建;
G(h):预测器,对编码器提取得到的隐藏特征h预测,得到预测标签
对输入X编码后进行解码重建;
对输入X编码后进行预测;
分别表示共享空间编码器、私有空间编码器对设备子空间进行编码得到的隐藏层特征矩阵;
Lclass:分类损失函数,用来预测最终的输出标签;
Lrecon:重构损失函数,确保私有空间特征能够作用于学习目标;
Ldifference:差异损失函数,表示共享空间和私有空间之间的正交性;
Lsimilarity:相似性损失函数,保证网络能够提取到不同设备的相似性特征。
上述各模块除差异损失函数和相似性损失函数外,本领域技术人员都可以通过深度神经网络模型获取,因此在此不再赘述。
本公开的深度神经网络模型的损失函数L可以表示为:
L=λLclass+αLrecon+βLdifference+γLsimilarity
其中,λ、α、β、γ分别为分类损失函数、重构损失函数、差异损失函数和相似性损失函数的权重。这些权重可以在深度神经网络模型的训练过程中进行更新,通过权重的更新来获取每一轮训练的损失函数。这里权重的更新可以由本领域技术人员基于深度神经网络模型的训练来实现,在此不再赘述。
在本方法中,通过在深度神经网络模型的损失函数中引入差异损失函数和相似性损失函数,来实现声纹特征和信道噪声的较好分离。
在可选实施方式中,所述获取所述神经网络模型每次训练的损失函数,包括:
获取所述神经网络模型每次训练得到的声纹特征信息和信道噪声信息;
基于所述声纹特征信息和信道噪声信息,计算所述差异损失函数。
差异损失函数Ldifference可以由下述公式计算得到:
其中,表示F-范数的平方,当然也可以利用其它类型的范数进行计算。分别为神经网络模型每次训练得到的声纹特征矩阵和信道噪声矩阵。通过该差异损失函数,可以得到声纹特征和信道噪声之间的正交性。两个参数之间的正交性表示两个参数之间的不相依赖性。因此,当声纹特征和信道噪声之间的正交性越小时,声纹特征和信道噪声分离的越好。
在可选实施方式中,所述获取所述神经网络模型每次训练的损失函数,包括:
获取所述神经网络模型每次训练得到的声纹特征信息;
对所述声纹特征信息进行处理,以除去所述声纹特征信息与所属信道的关联性;
将处理后的声纹特征信息输入所述神经网络模型的域分类器;
基于所述域分类器的分类结果和所述神经网络模型输出的分类正确概率,获取所述相似性损失函数。
为了保证不同子空间之间是可迁移的,就需要保证共享特征的分布具有相似性。因此,对声纹特征信息进行处理,以除去声纹特征信息与所属信道的关联性,然后输入域分类器,使得域分类器无法区分输入来自于哪一个子空间,以此保证网络能够提取到不同设备的相似性特征,也就是获取输入的公共特征,即共享特征。相似性损失函数定义如下:
其中,d表示域分类器对说话人语音中每一个句子的分类结果(为共享特征分类到其所属的设备,即信道),其取值为0或者1,分类正确则为1,分类错误则为0。表示神经网络模型输出的分类正确的概率值,其取值为0-1之间。
在可选实施方式中,所述对所述声纹特征信息进行处理,以除去所述声纹特征信息与所属信道的关联性,包括:
通过梯度反转对所述声纹特征信息进行处理。
梯度反转可以在网络的训练过程中同步进行。对声纹特征信息进行梯度反转后,整个网络无法区分输入的语音来自哪一个设备,从而达到获取输入语音的共享特征的目的。
另外,分类损失函数Lclass
其中,N表示获取的说话人语音中包含的句子数,其中,表示输入的真实语音,表示模型预测的语音。
重构损失函数Lrecon可以由下述公式计算得到:
其中,Lsi_mse为尺度不变均方误差损失函数,其可以由下述公式计算得到:
其中,k表示输入x的维度,1k表示元素为1、长度为k的矩阵,表示L2-范数。当然,也可以选用其它类型的范数进行计算。
分类损失函数和重构损失函数都可以通过现有方法计算得到,其中分类损失函数可以是softmax,也可以是softmax的其他优化变种,比如A-Softmax、L-Softmax、AM-Softmax。同样的,重构损失函数可以是除了尺度不变均方误差的其他函数,在此不做限制。
本公开还提供了一种声纹识别方法,如图3所示,该方法包括:
步骤301,通过语音获取设备获取用户的语音,所述语音获取设备上设置有经训练的声纹提取模型;
步骤302,通过所述经训练的声纹提取模型获取所述用户的声纹特征,并确定所述声纹特征与所述用户信息的对应关系;
步骤303,在所述用户进行声纹识别时,获取用户信息;
步骤304,基于所述用户信息,获取所述用户的声纹特征;
步骤305,基于所述用户的声纹特征对所述用户进行声纹识别。
该声纹识别方法是利用上述声纹提取模型训练方法训练的声纹提取模型实现的。即,步骤301中的经训练的声纹提取模型是通过上述声纹提取模型训练方法训练的。上述声纹提取模型经训练后能够很好地分离声纹特征和信道噪声。因此,将用户语音输入到经训练的声纹提取模型后,能够获取用户的声纹特征。将该声纹特征与用户信息进行一一对应。然后,在不同的语音获取设备上共用上述经训练的声纹提取模型。用户在某一设备上进行注册时,基于用户注册的信息,获取与该信息一一对应的声纹特征,通过该声纹特征对用户进行声纹识别。
在可选实施方式中,所述方法还包括:
将确定的所述声纹特征与所述用户信息的对应关系存储在存储器上;
所述基于所述用户信息获取所述用户的声纹特征,包括:
基于所述用户信息,从所述存储器上获取所述用户的声纹特征。
这里的存储器可以是云端存储器。用户在其他设备上进行声纹识别时,会与云端的用户信息进行匹配,识别出该用户,根据用户的语音指令,完成相应操作。
下面结合具体的应用场景描述根据本公开的具体实施例。在该实施例中,声纹提取模型为深度神经网络模型。如图4所示,该方法包括以下步骤:
步骤401,获取用户在5个设备上的语音数据,并基于这些语音数据,构建训练数据集合。
步骤402,将训练数据集合输入到深度神经网络模型中,对所述神经网络模型进行训练。
步骤403,获取每次训练的损失函数。
步骤404,当损失函数收敛时,确定深度神经网络模型训练完成。
步骤405,将经训练的深度神经网络模型设置到多个语音获取设备上。
步骤406,通过设置有经训练的深度神经网络模型的语音获取设备获取用户的语音。
步骤407,通过所述经训练的声纹提取模型获取所述用户的声纹特征,将用户及其声纹特征的对应关系存储到云端存储器。
步骤408,在所述用户进行声纹识别时,获取用户信息。
步骤409,基于所述用户信息,获取所述用户的声纹特征。
步骤410,基于所述用户的声纹特征对所述用户进行声纹识别,并进而执行相应操作。
本公开还提供了一种声纹提取模型训练装置,所述装置应用于神经网络模型,如图5所示,所述装置包括:
语音获取模块501,被设置为获取用户在T个设备上的语音数据,并基于所述语音数据,提取声学特征,构建训练数据集合,T为大于等于2的正整数;
训练模块502,被设置为将所述训练数据集合输入到所述神经网络模型中,对所述神经网络模型进行训练;
损失函数获取模块503,被设置为获取所述神经网络模型每次训练的损失函数;
训练完成确定模块504,被设置为当所述损失函数收敛时,确定所述神经网络模型训练完成;
其中,所述损失函数为分类损失函数、重构损失函数、差异损失函数和相似性损失函数的加权和。
在可选实施方式中,所述损失函数获取模块503还被设置为:
获取所述神经网络模型每次训练得到的声纹特征信息和信道噪声信息;
基于所述声纹特征信息和信道噪声信息,计算所述差异损失函数。
在可选实施方式中,所述损失函数获取模块503还被设置为:
获取所述神经网络模型每次训练得到的声纹特征信息;
对所述声纹特征信息进行处理,以除去所述声纹特征信息与所属信道的关联性;
将处理后的声纹特征信息输入所述神经网络模型的域分类器;
基于所述域分类器的分类结果和所述神经网络模型输出的分类正确概率,获取所述相似性损失函数。
在可选实施方式中,所述损失函数获取模块503还被设置为:
通过梯度反转对所述声纹特征信息进行处理,以除去所述声纹特征信息与所属信道的关联性。
本公开还提供了一种声纹识别装置,如图6所示,所述装置还包括:
语音获取设备601,被设置为获取用户的语音,所述语音获取设备上设置有经训练的声纹提取模型;
关系确定模块602,被设置为通过所述经训练的声纹提取模型获取所述用户的声纹特征,并确定所述声纹特征与所述用户信息的对应关系;
信息获取模块603,被设置为在所述用户进行声纹识别时,获取用户信息;
声纹获取模块604,被设置为基于所述用户信息,获取所述用户的声纹特征;
识别模块605,被设置为基于所述用户的声纹特征对所述用户进行声纹识别。
在可选实施方式中,所述装置还包括:
存储模块,被设置为将确定的所述声纹特征与所述用户信息的对应关系存储在存储器上;
所述声纹获取模块还被设置基于所述用户信息,从所述存储器上获取所述用户的声纹特征。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开提供一种声纹识别方法,在该方法中,通过语音获取设备获取用户的语音,所述语音获取设备上设置有经训练的声纹提取模型,通过所述经训练的声纹提取模型获取所述用户的声纹特征,并确定所述声纹特征与所述用户信息的对应关系。在所述用户进行声纹识别时,获取用户信息,基于所述用户信息,获取所述用户的声纹特征,然后基于所述用户的声纹特征对所述用户进行识别声纹。本公开还提供了一种声纹提取模型训练方法,声纹提取模型经过该方法训练后,能从获取的用户语音中提取用户的声纹特征,实现较好的声纹特征与信道噪声的分离。
在本公开的声纹识别方法中,使不同设备之间使用统一的经训练的声纹提取模型,大大减小工作量,且系统更容易维护。并且用户使用时,只需在一个设备上进行注册,在其他设备上便可以使用,提高了用户的使用体验。
图7是根据一示例性实施例示出的一种声纹提取模型训练装置700的框图。
参照图7,装置700可以包括以下一个或多个组件:处理组件702,存储器704,电力组件706,多媒体组件708,音频组件710,输入/输出(I/O)的接口712,传感器组件714,以及通信组件716。
处理组件702通常控制装置700的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件702可以包括一个或多个处理器720来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件702可以包括一个或多个模块,便于处理组件702和其他组件之间的交互。例如,处理组件702可以包括多媒体模块,以方便多媒体组件708和处理组件702之间的交互。
存储器704被配置为存储各种类型的数据以支持在设备700的操作。这些数据的示例包括用于在装置700上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器704可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件706为装置700的各种组件提供电力。电力组件706可以包括电源管理系统,一个或多个电源,及其他与为装置700生成、管理和分配电力相关联的组件。
多媒体组件708包括在所述装置700和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件708包括一个前置摄像头和/或后置摄像头。当设备700处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件710被配置为输出和/或输入音频信号。例如,音频组件710包括一个麦克风(MIC),当装置700处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器704或经由通信组件716发送。在一些实施例中,音频组件710还包括一个扬声器,用于输出音频信号。
I/O接口712为处理组件702和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件714包括一个或多个传感器,用于为装置700提供各个方面的状态评估。例如,传感器组件714可以检测到设备700的打开/关闭状态,组件的相对定位,例如所述组件为装置700的显示器和小键盘,传感器组件714还可以检测装置700或装置700一个组件的位置改变,用户与装置700接触的存在或不存在,装置700方位或加速/减速和装置700的温度变化。传感器组件714可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件714还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件714还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件716被配置为便于装置700和其他设备之间有线或无线方式的通信。装置700可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件716经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件716还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置700可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器704,上述指令可由装置700的处理器720执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行一种声纹提取模型训练方法,所述方法包括:获取用户在T个设备上的语音数据,并基于所述语音数据,提取声学特征,构建训练数据集合,T为大于等于2的正整数;将所述训练数据集合输入到所述神经网络模型中,对所述神经网络模型进行训练,并获取所述神经网络模型每次训练的损失函数;当所述损失函数收敛时,确定所述神经网络模型训练完成;其中,所述损失函数为分类损失函数、重构损失函数、差异损失函数和相似性损失函数的加权和。
图8是根据一示例性实施例示出的一种声纹提取模型训练装置800的框图。例如,装置800可以被提供为一服务器。参照图8,装置800包括处理组件822,其进一步包括一个或多个处理器,以及由存储器832所代表的存储器资源,用于存储可由处理组件822的执行的指令,例如应用程序。存储器832中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件822被配置为执行指令,以执行上述方法:获取用户在T个设备上的语音数据,并基于所述语音数据,提取声学特征,构建训练数据集合,T为大于等于2的正整数;将所述训练数据集合输入到所述神经网络模型中,对所述神经网络模型进行训练,并获取所述神经网络模型每次训练的损失函数;当所述损失函数收敛时,确定所述神经网络模型训练完成;其中,所述损失函数为分类损失函数、重构损失函数、差异损失函数和相似性损失函数的加权和。
装置800还可以包括一个电源组件826被配置为执行装置800的电源管理,一个有线或无线网络接口850被配置为将装置800连接到网络,和一个输入输出(I/O)接口858。装置800可以操作基于存储在存储器832的操作系统,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (10)

1.一种声纹提取模型训练方法,所述声纹提取模型为神经网络模型,其特征在于,所述方法包括:
获取用户在T个设备上的语音数据,并基于所述语音数据,提取声学特征,构建训练数据集合,T为大于等于2的正整数;
将所述训练数据集合输入到所述神经网络模型中,对所述神经网络模型进行训练,并获取所述神经网络模型每次训练的损失函数;
当所述损失函数收敛时,确定所述神经网络模型训练完成;
其中,所述损失函数为分类损失函数、重构损失函数、差异损失函数和相似性损失函数的加权和;
其中,所述获取所述神经网络模型每次训练的损失函数,包括:获取所述神经网络模型每次训练得到的声纹特征信息;对所述声纹特征信息进行处理,以除去所述声纹特征信息与所属信道的关联性;将处理后的声纹特征信息输入所述神经网络模型的域分类器;基于所述域分类器的分类结果和所述神经网络模型输出的分类正确概率,获取所述相似性损失函数。
2.如权利要求1所述的方法,其特征在于,所述获取所述神经网络模型每次训练的损失函数,包括:
获取所述神经网络模型每次训练得到的声纹特征信息和信道噪声信息;
基于所述声纹特征信息和信道噪声信息,计算所述差异损失函数。
3.如权利要求1所述的方法,其特征在于,所述对所述声纹特征信息进行处理,以除去所述声纹特征信息与所属信道的关联性,包括:
通过梯度反转对所述声纹特征信息进行处理。
4.一种声纹识别方法,其特征在于,所述方法利用如权利要求1-3中任一项所述的声纹提取模型训练方法训练的声纹提取模型,所述方法包括:
通过语音获取设备获取用户的语音,所述语音获取设备上设置有经训练的声纹提取模型;
通过所述经训练的声纹提取模型获取所述用户的声纹特征,并确定所述声纹特征与所述用户信息的对应关系;将所述声纹特征与所述用户信息的对应关系存储在云端存储器上;
在所述用户进行声纹识别时,获取用户信息;
基于所述用户信息,从所述云端存储器上获取所述用户的声纹特征;
基于所述用户的声纹特征对所述用户进行声纹识别。
5.一种声纹提取模型训练装置,所述装置应用于神经网络模型,其特征在于,所述装置包括:
语音获取模块,被设置为获取用户在T个设备上的语音数据,并基于所述语音数据,提取声学特征,构建训练数据集合,T为大于等于2的正整数;
训练模块,被设置为将所述训练数据集合输入到所述神经网络模型中,对所述神经网络模型进行训练;
损失函数获取模块,被设置为获取所述神经网络模型每次训练的损失函数;
训练完成确定模块,被设置为当所述损失函数收敛时,确定所述神经网络模型训练完成;
其中,所述损失函数为分类损失函数、重构损失函数、差异损失函数和相似性损失函数的加权和;
其中,所述损失函数获取模块还被设置为获取所述神经网络模型每次训练得到的声纹特征信息;对所述声纹特征信息进行处理,以除去所述声纹特征信息与所属信道的关联性;将处理后的声纹特征信息输入所述神经网络模型的域分类器;基于所述域分类器的分类结果和所述神经网络模型输出的分类正确概率,获取所述相似性损失函数。
6.如权利要求5所述的装置,其特征在于,所述损失函数获取模块还被设置为:
获取所述神经网络模型每次训练得到的声纹特征信息和信道噪声信息;
基于所述声纹特征信息和信道噪声信息,计算所述差异损失函数。
7.如权利要求5所述的装置,其特征在于,所述损失函数获取模块还被设置为:
通过梯度反转对所述声纹特征信息进行处理,以除去所述声纹特征信息与所属信道的关联性。
8.一种声纹识别装置,其特征在于,所述装置包括:
语音获取设备,被设置为获取用户的语音,所述语音获取设备上设置有如权利要求5-7中任一项所述的声纹提取模型训练装置训练的声纹提取模型;
关系确定模块,被设置为通过所述经训练的声纹提取模型获取所述用户的声纹特征,并确定所述声纹特征与所述用户信息的对应关系;
云端存储模块,被设置为将所述声纹特征与所述用户信息的对应关系存储在云端存储器上;
信息获取模块,被设置为在所述用户进行声纹识别时,获取用户信息;
声纹获取模块,被设置为基于所述用户信息,从所述云端存储器上获取所述用户的声纹特征;
识别模块,被设置为基于所述用户的声纹特征对所述用户进行声纹识别。
9.一种声纹提取模型训练装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为在运行所述可执行指令时实现以下步骤:
获取用户在T个设备上的语音数据,并基于所述语音数据,提取声学特征,构建训练数据集合,T为大于等于2的正整数;
将所述训练数据集合输入到神经网络模型中,对所述神经网络模型进行训练,并获取所述神经网络模型每次训练的损失函数;
当所述损失函数收敛时,确定所述神经网络模型训练完成;
其中,所述损失函数为分类损失函数、重构损失函数、差异损失函数和相似性损失函数的加权和;
其中,所述获取所述神经网络模型每次训练的损失函数,包括:获取所述神经网络模型每次训练得到的声纹特征信息;对所述声纹特征信息进行处理,以除去所述声纹特征信息与所属信道的关联性;将处理后的声纹特征信息输入所述神经网络模型的域分类器;基于所述域分类器的分类结果和所述神经网络模型输出的分类正确概率,获取所述相似性损失函数。
10.一种非临时性计算机可读存储介质,当所述存储介质中的指令由装置的处理器执行时,使得装置能够执行一种声纹提取模型训练方法,所述方法包括:
获取用户在T个设备上的语音数据,并基于所述语音数据,提取声学特征,构建训练数据集合,T为大于等于2的正整数;
将所述训练数据集合输入到神经网络模型中,对所述神经网络模型进行训练,并获取所述神经网络模型每次训练的损失函数;
当所述损失函数收敛时,确定所述神经网络模型训练完成;
其中,所述损失函数为分类损失函数、重构损失函数、差异损失函数和相似性损失函数的加权和;
其中,所述获取所述神经网络模型每次训练的损失函数,包括:获取所述神经网络模型每次训练得到的声纹特征信息;对所述声纹特征信息进行处理,以除去所述声纹特征信息与所属信道的关联性;将处理后的声纹特征信息输入所述神经网络模型的域分类器;基于所述域分类器的分类结果和所述神经网络模型输出的分类正确概率,获取所述相似性损失函数。
CN202010324112.8A 2020-04-22 2020-04-22 声纹提取模型训练方法和声纹识别方法、及其装置和介质 Active CN111524521B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202010324112.8A CN111524521B (zh) 2020-04-22 2020-04-22 声纹提取模型训练方法和声纹识别方法、及其装置和介质
US17/023,821 US20210335368A1 (en) 2020-04-22 2020-09-17 Method for training a voiceprint extraction model and method for voiceprint recognition, and device and medium thereof
JP2020156101A JP7221258B2 (ja) 2020-04-22 2020-09-17 声紋抽出モデル訓練方法及び声紋認識方法、その装置並びに媒体
EP20198729.4A EP3901948A1 (en) 2020-04-22 2020-09-28 Method for training a voiceprint extraction model and method for voiceprint recognition, and device and medium thereof
KR1020200167099A KR102603466B1 (ko) 2020-04-22 2020-12-03 성문 추출 모델 훈련 방법 및 성문 인식 방법, 이의 장치 및 매체, 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010324112.8A CN111524521B (zh) 2020-04-22 2020-04-22 声纹提取模型训练方法和声纹识别方法、及其装置和介质

Publications (2)

Publication Number Publication Date
CN111524521A CN111524521A (zh) 2020-08-11
CN111524521B true CN111524521B (zh) 2023-08-08

Family

ID=71904118

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010324112.8A Active CN111524521B (zh) 2020-04-22 2020-04-22 声纹提取模型训练方法和声纹识别方法、及其装置和介质

Country Status (5)

Country Link
US (1) US20210335368A1 (zh)
EP (1) EP3901948A1 (zh)
JP (1) JP7221258B2 (zh)
KR (1) KR102603466B1 (zh)
CN (1) CN111524521B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112017670B (zh) * 2020-08-13 2021-11-02 北京达佳互联信息技术有限公司 一种目标账户音频的识别方法、装置、设备及介质
CN112259105B (zh) * 2020-10-10 2022-09-20 西南政法大学 一种声纹识别模型的训练方法、存储介质和计算机设备
CN112435672A (zh) * 2020-10-15 2021-03-02 讯飞智元信息科技有限公司 一种声纹识别方法、装置、设备及存储介质
WO2022086045A1 (ko) * 2020-10-22 2022-04-28 삼성전자주식회사 전자 장치 및 이의 제어 방법
CN112466311B (zh) * 2020-12-22 2022-08-19 深圳壹账通智能科技有限公司 声纹识别方法、装置、存储介质及计算机设备
CN112820298B (zh) * 2021-01-14 2022-11-22 中国工商银行股份有限公司 声纹识别方法及装置
CN112597984B (zh) * 2021-03-04 2021-05-25 腾讯科技(深圳)有限公司 图像数据处理方法、装置、计算机设备和存储介质
US11926279B2 (en) 2021-08-17 2024-03-12 Hyundai Mobis Co., Ltd. Roof airbag apparatus for a vehicle
CN113921030B (zh) * 2021-12-07 2022-06-07 江苏清微智能科技有限公司 一种基于加权语音损失的语音增强神经网络训练方法及装置
CN114049900B (zh) * 2021-12-08 2023-07-25 马上消费金融股份有限公司 模型训练方法、身份识别方法、装置及电子设备
CN117470976B (zh) * 2023-12-28 2024-03-26 烟台宇控软件有限公司 一种基于声纹特征的输电线路缺陷检测方法及系统
CN117672200B (zh) * 2024-02-02 2024-04-16 天津市爱德科技发展有限公司 一种物联网设备的控制方法、设备及系统

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017012496A1 (zh) * 2015-07-23 2017-01-26 阿里巴巴集团控股有限公司 一种用户声纹模型构建方法、装置及系统
US9824692B1 (en) * 2016-09-12 2017-11-21 Pindrop Security, Inc. End-to-end speaker recognition using deep neural network
CN108766440A (zh) * 2018-05-28 2018-11-06 平安科技(深圳)有限公司 说话人分离模型训练方法、两说话人分离方法及相关设备
CN108766445A (zh) * 2018-05-30 2018-11-06 苏州思必驰信息科技有限公司 声纹识别方法及系统
CN108958810A (zh) * 2018-02-09 2018-12-07 北京猎户星空科技有限公司 一种基于声纹的用户识别方法、装置及设备
CN109243466A (zh) * 2018-11-12 2019-01-18 成都傅立叶电子科技有限公司 一种声纹鉴权训练方法及系统
CN109243467A (zh) * 2018-11-14 2019-01-18 龙马智声(珠海)科技有限公司 声纹模型构建方法、声纹识别方法及系统
CN109346088A (zh) * 2018-12-06 2019-02-15 泰康保险集团股份有限公司 身份识别方法、装置、介质及电子设备
CN109801636A (zh) * 2019-01-29 2019-05-24 北京猎户星空科技有限公司 声纹识别模型的训练方法、装置、电子设备及存储介质
CN109903774A (zh) * 2019-04-12 2019-06-18 南京大学 一种基于角度间隔损失函数的声纹识别方法
CN110265040A (zh) * 2019-06-20 2019-09-20 Oppo广东移动通信有限公司 声纹模型的训练方法、装置、存储介质及电子设备
CN110349585A (zh) * 2018-04-04 2019-10-18 富士通株式会社 语音认证方法和信息处理设备
CN110444214A (zh) * 2017-11-24 2019-11-12 深圳市腾讯计算机系统有限公司 语音信号处理模型训练方法、装置、电子设备及存储介质
CN110491393A (zh) * 2019-08-30 2019-11-22 科大讯飞股份有限公司 声纹表征模型的训练方法及相关装置
CN110610709A (zh) * 2019-09-26 2019-12-24 浙江百应科技有限公司 基于声纹识别的身份辨别方法
CN110675881A (zh) * 2019-09-05 2020-01-10 北京捷通华声科技股份有限公司 一种语音校验方法和装置
CN110838295A (zh) * 2019-11-17 2020-02-25 西北工业大学 一种模型生成方法、声纹识别方法及对应装置
CN110942777A (zh) * 2019-12-05 2020-03-31 出门问问信息科技有限公司 一种声纹神经网络模型的训练方法、装置及存储介质
CN110970036A (zh) * 2019-12-24 2020-04-07 网易(杭州)网络有限公司 声纹识别方法及装置、计算机存储介质、电子设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107492382B (zh) * 2016-06-13 2020-12-18 阿里巴巴集团控股有限公司 基于神经网络的声纹信息提取方法及装置
EP3475879A1 (en) * 2016-07-28 2019-05-01 Google LLC Domain separation neural networks
US10347256B2 (en) * 2016-09-19 2019-07-09 Pindrop Security, Inc. Channel-compensated low-level features for speaker recognition
KR102563752B1 (ko) * 2017-09-29 2023-08-04 삼성전자주식회사 뉴럴 네트워크를 위한 트레이닝 방법, 뉴럴 네트워크를 이용한 인식 방법 및 그 장치들
JP6457682B1 (ja) * 2018-04-16 2019-01-23 パスロジ株式会社 認証システム、認証方法、ならびに、プログラム
EP3834135A4 (en) * 2018-08-07 2022-05-04 BlinkAI Technologies, Inc. IMAGE ENHANCEMENT ARTIFICIAL INTELLIGENCE TECHNIQUES
CN110289003B (zh) * 2018-10-10 2021-10-29 腾讯科技(深圳)有限公司 一种声纹识别的方法、模型训练的方法以及服务器
JP6739828B1 (ja) * 2020-01-22 2020-08-12 クリスタルメソッド株式会社 学習方法、評価装置、データ構造、及び評価システム

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017012496A1 (zh) * 2015-07-23 2017-01-26 阿里巴巴集团控股有限公司 一种用户声纹模型构建方法、装置及系统
US9824692B1 (en) * 2016-09-12 2017-11-21 Pindrop Security, Inc. End-to-end speaker recognition using deep neural network
CN110444214A (zh) * 2017-11-24 2019-11-12 深圳市腾讯计算机系统有限公司 语音信号处理模型训练方法、装置、电子设备及存储介质
CN108958810A (zh) * 2018-02-09 2018-12-07 北京猎户星空科技有限公司 一种基于声纹的用户识别方法、装置及设备
CN110349585A (zh) * 2018-04-04 2019-10-18 富士通株式会社 语音认证方法和信息处理设备
CN108766440A (zh) * 2018-05-28 2018-11-06 平安科技(深圳)有限公司 说话人分离模型训练方法、两说话人分离方法及相关设备
CN108766445A (zh) * 2018-05-30 2018-11-06 苏州思必驰信息科技有限公司 声纹识别方法及系统
CN109243466A (zh) * 2018-11-12 2019-01-18 成都傅立叶电子科技有限公司 一种声纹鉴权训练方法及系统
CN109243467A (zh) * 2018-11-14 2019-01-18 龙马智声(珠海)科技有限公司 声纹模型构建方法、声纹识别方法及系统
CN109346088A (zh) * 2018-12-06 2019-02-15 泰康保险集团股份有限公司 身份识别方法、装置、介质及电子设备
CN109801636A (zh) * 2019-01-29 2019-05-24 北京猎户星空科技有限公司 声纹识别模型的训练方法、装置、电子设备及存储介质
CN109903774A (zh) * 2019-04-12 2019-06-18 南京大学 一种基于角度间隔损失函数的声纹识别方法
CN110265040A (zh) * 2019-06-20 2019-09-20 Oppo广东移动通信有限公司 声纹模型的训练方法、装置、存储介质及电子设备
CN110491393A (zh) * 2019-08-30 2019-11-22 科大讯飞股份有限公司 声纹表征模型的训练方法及相关装置
CN110675881A (zh) * 2019-09-05 2020-01-10 北京捷通华声科技股份有限公司 一种语音校验方法和装置
CN110610709A (zh) * 2019-09-26 2019-12-24 浙江百应科技有限公司 基于声纹识别的身份辨别方法
CN110838295A (zh) * 2019-11-17 2020-02-25 西北工业大学 一种模型生成方法、声纹识别方法及对应装置
CN110942777A (zh) * 2019-12-05 2020-03-31 出门问问信息科技有限公司 一种声纹神经网络模型的训练方法、装置及存储介质
CN110970036A (zh) * 2019-12-24 2020-04-07 网易(杭州)网络有限公司 声纹识别方法及装置、计算机存储介质、电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
俞建强 ; 颜雁 ; 刘葳 ; 孙一鸣 ; .基于改进门控单元神经网络的语音识别声学模型研究.长春理工大学学报(自然科学版).2020,(01),全文. *

Also Published As

Publication number Publication date
CN111524521A (zh) 2020-08-11
EP3901948A1 (en) 2021-10-27
KR20210131211A (ko) 2021-11-02
JP7221258B2 (ja) 2023-02-13
US20210335368A1 (en) 2021-10-28
KR102603466B1 (ko) 2023-11-17
JP2021173987A (ja) 2021-11-01

Similar Documents

Publication Publication Date Title
CN111524521B (zh) 声纹提取模型训练方法和声纹识别方法、及其装置和介质
CN110210535B (zh) 神经网络训练方法及装置以及图像处理方法及装置
CN110909815B (zh) 神经网络训练、图像处理方法、装置及电子设备
CN111612070B (zh) 基于场景图的图像描述生成方法及装置
CN111435432B (zh) 网络优化方法及装置、图像处理方法及装置、存储介质
CN113538519A (zh) 目标追踪方法及装置、电子设备和存储介质
CN111242303B (zh) 网络训练方法及装置、图像处理方法及装置
CN110532956B (zh) 图像处理方法及装置、电子设备和存储介质
CN109165738B (zh) 神经网络模型的优化方法及装置、电子设备和存储介质
CN111461304B (zh) 分类神经网络的训练方法、文本分类方法、装置及设备
CN111582383B (zh) 属性识别方法及装置、电子设备和存储介质
JP2022533065A (ja) 文字認識方法及び装置、電子機器並びに記憶媒体
CN110633470A (zh) 命名实体识别方法、装置及存储介质
CN116166843A (zh) 基于细粒度感知的文本视频跨模态检索方法和装置
CN109447258B (zh) 神经网络模型的优化方法及装置、电子设备和存储介质
CN112559673A (zh) 语言处理模型的训练方法及装置、电子设备及存储介质
CN112259122A (zh) 音频类型识别方法、装置及存储介质
CN110070046B (zh) 人脸图像识别方法及装置、电子设备和存储介质
CN111178115B (zh) 对象识别网络的训练方法及系统
CN109460458B (zh) 查询改写意图的预测方法及装置
CN111046780A (zh) 神经网络训练及图像识别方法、装置、设备和存储介质
CN115422932A (zh) 一种词向量训练方法及装置、电子设备和存储介质
CN112801116B (zh) 图像的特征提取方法及装置、电子设备和存储介质
CN114842404A (zh) 时序动作提名的生成方法及装置、电子设备和存储介质
CN110908523A (zh) 一种输入方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant