CN116844553A - 数据处理方法、装置及设备 - Google Patents
数据处理方法、装置及设备 Download PDFInfo
- Publication number
- CN116844553A CN116844553A CN202310651826.3A CN202310651826A CN116844553A CN 116844553 A CN116844553 A CN 116844553A CN 202310651826 A CN202310651826 A CN 202310651826A CN 116844553 A CN116844553 A CN 116844553A
- Authority
- CN
- China
- Prior art keywords
- audio data
- data
- feature vector
- voiceprint feature
- target audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 19
- 238000001514 detection method Methods 0.000 claims abstract description 202
- 238000012545 processing Methods 0.000 claims abstract description 130
- 238000001228 spectrum Methods 0.000 claims abstract description 79
- 238000000605 extraction Methods 0.000 claims abstract description 56
- 238000000034 method Methods 0.000 claims abstract description 50
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 37
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 37
- 238000012549 training Methods 0.000 claims description 23
- 238000010801 machine learning Methods 0.000 claims description 5
- 230000003595 spectral effect Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 13
- 238000004590 computer program Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 230000006872 improvement Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000012546 transfer Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000007418 data mining Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/08—Use of distortion metrics or a particular distance between probe pattern and reference templates
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本说明书实施例提供了一种数据处理方法、装置及设备,其中,该方法包括:接收待检测的目标音频数据,通过预先训练的检测模型对目标音频数据进行频谱提取处理,得到与目标音频数据对应的目标频谱数据,并通过预先训练的检测模型对目标频谱数据进行音频合成处理,得到与目标音频数据对应的合成音频数据,通过预先训练的检测模型分别对目标音频数据和合成音频数据进行声纹提取处理,得到与目标音频数据对应的第一声纹特征向量,以及与合成音频数据对应的第二声纹特征向量,基于第一声纹特征向量和第二声纹特征向量之间的相似度,对目标音频数据为合成数据或非合成数据进行判断,得到针对目标音频数据的检测结果。
Description
技术领域
本文件涉及数据处理技术领域,尤其涉及一种数据处理方法、装置及设备。
背景技术
随着语音合成和语音转换技术的发展与成熟,合成语音越来越真实,这给说话人识别系统带来了很大的安全隐患。由于合成语音是将人工智能、机器学习、大数据挖掘等新技术应用于恶意窃取等场景,因此,合成语音的科技手段含量较高,更具有欺骗性和迷惑性,人耳很难辨别语音是否为合成语音,因此,需要一种能够提高对音频是否为合成音频进行检测的检测效率和检测准确性的解决方案。
发明内容
本说明书实施例的目的是提供一种数据处理方法、装置及设备,以提供一种能够提高对音频是否为合成音频进行检测的检测效率和检测准确性的解决方案。
为了实现上述技术方案,本说明书实施例是这样实现的:
第一方面,本说明书实施例提供了一种数据处理方法,包括:接收待检测的目标音频数据;通过预先训练的检测模型对所述目标音频数据进行频谱提取处理,得到与所述目标音频数据对应的目标频谱数据,并通过所述预先训练的检测模型对所述目标频谱数据进行音频合成处理,得到与所述目标音频数据对应的合成音频数据;通过所述预先训练的检测模型分别对所述目标音频数据和所述合成音频数据进行声纹提取处理,得到与所述目标音频数据对应的第一声纹特征向量,以及与所述合成音频数据对应的第二声纹特征向量;基于所述第一声纹特征向量和所述第二声纹特征向量之间的相似度,对所述目标音频数据为合成数据或非合成数据进行判断,得到针对所述目标音频数据的检测结果。
第二方面,本说明书实施例提供了一种数据处理装置,所述装置包括:数据接收模块,用于接收待检测的目标音频数据;第一处理模块,用于通过预先训练的检测模型对所述目标音频数据进行频谱提取处理,得到与所述目标音频数据对应的目标频谱数据,并通过所述预先训练的检测模型对所述目标频谱数据进行音频合成处理,得到与所述目标音频数据对应的合成音频数据;第二处理模块,用于通过所述预先训练的检测模型分别对所述目标音频数据和所述合成音频数据进行声纹提取处理,得到与所述目标音频数据对应的第一声纹特征向量,以及与所述合成音频数据对应的第二声纹特征向量;数据检测模块,用于基于所述第一声纹特征向量和所述第二声纹特征向量之间的相似度,对所述目标音频数据为合成数据或非合成数据进行判断,得到针对所述目标音频数据的检测结果。
第三方面,本说明书实施例提供了一种数据处理设备,所述数据处理设备包括:处理器;以及被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:接收待检测的目标音频数据;通过预先训练的检测模型对所述目标音频数据进行频谱提取处理,得到与所述目标音频数据对应的目标频谱数据,并通过所述预先训练的检测模型对所述目标频谱数据进行音频合成处理,得到与所述目标音频数据对应的合成音频数据;通过所述预先训练的检测模型分别对所述目标音频数据和所述合成音频数据进行声纹提取处理,得到与所述目标音频数据对应的第一声纹特征向量,以及与所述合成音频数据对应的第二声纹特征向量;基于所述第一声纹特征向量和所述第二声纹特征向量之间的相似度,对所述目标音频数据为合成数据或非合成数据进行判断,得到针对所述目标音频数据的检测结果。
第四方面,本说明书实施例提供一种存储介质,所述存储介质用于存储计算机可执行指令,所述可执行指令在被执行时实现以下流程:接收待检测的目标音频数据;通过预先训练的检测模型对所述目标音频数据进行频谱提取处理,得到与所述目标音频数据对应的目标频谱数据,并通过所述预先训练的检测模型对所述目标频谱数据进行音频合成处理,得到与所述目标音频数据对应的合成音频数据;通过所述预先训练的检测模型分别对所述目标音频数据和所述合成音频数据进行声纹提取处理,得到与所述目标音频数据对应的第一声纹特征向量,以及与所述合成音频数据对应的第二声纹特征向量;基于所述第一声纹特征向量和所述第二声纹特征向量之间的相似度,对所述目标音频数据为合成数据或非合成数据进行判断,得到针对所述目标音频数据的检测结果。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书一种数据处理系统的示意图;
图2A为本说明书一种数据处理方法实施例的流程图;
图2B为本说明书一种数据处理方法的处理过程示意图;
图3为本说明书一种数据处理过程的示意图;
图4为本说明书又一种数据处理方法的处理过程示意图;
图5为本说明书又一种数据处理过程的示意图;
图6为本说明书一种数据处理装置实施例的结构示意图;
图7为本说明书一种数据处理设备的结构示意图。
具体实施方式
本说明书实施例提供一种数据处理方法、装置及设备。
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。
本说明书实施例提供一种数据处理方法、装置及设备。
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。
本说明书的技术方案,可以应用于数据处理系统中,如图1所示,该数据处理系统中可以有终端设备和服务器,其中,服务器可以是独立的服务器,也可以是由多个服务器组成的服务器集群,终端设备可以如个人计算机等设备,也可以如手机、平板电脑等移动终端设备。
其中,数据处理系统中可以包括n个终端设备和m个服务器,n和m为大于等于1的正整数,终端设备可以用于采集音频数据样本,例如,终端设备可以针对不同的合成音频检测场景,获取对应的音频数据样本,如,针对问答系统的合成音频检测场景,终端设备可以采集用户针对话术的音频反馈信息作为音频数据样本,针对身份认证的合成音频检测场景,终端设备可以采集与身份认证对应的音频数据(如用户输入的用于进行身份认证的音频数据)作为音频数据样本等。
终端设备可以将采集的音频数据样本发送给数据处理系统中的任意服务器,服务器可以基于采集的音频数据样本进行合成音频检测,或者,服务器还可以存储采集的音频数据样本,以在到达模型训练周期的情况下,将存储的音频数据样本作为历史音频数据,并基于历史音频数据对检测模型进行训练。
在对目标音频数据是否为合成数据进行检测时,服务器可以通过检测模型的语音合成能力,对目标音频数据进行频谱提取处理,在基于提取出的目标频谱数据进行音频合成处理,得到与目标音频数据对应的合成音频数据,进而通过与目标音频数据对应的第一声纹特征向量,以及与合成音频数据对应的第二声纹特征向量,可以准确的区分出合成音频和非合成音频,即可以确定目标音频数据是否为合成数据。
基于上述数据处理系统结构可以实现下述实施例中的数据处理方法。
实施例一
如图2A和图2B所示,本说明书实施例提供一种数据处理方法,该方法的执行主体可以是服务器,其中,服务器可以是独立的服务器,也可以是由多个服务器组成的服务器集群。该方法具体可以包括以下步骤:
在S202中,接收待检测的目标音频数据。
其中,目标音频数据可以是服务器接收到任意音频数据,例如,目标音频数据可以是终端设备采集的用户针对话术的音频反馈信息,或者,目标音频数据还可以是终端设备采集的用于对用户进行身份认证的音频数据,又或者,目标音频数据还可以是终端设备采集的用户针对某控制系统或某预设业务输入的语音指令数据等。
在实施中,随着语音合成和语音转换技术的发展与成熟,合成语音越来越真实,这给说话人识别系统带来了很大的安全隐患。由于合成语音是将人工智能、机器学习、大数据挖掘等新技术应用于恶意窃取等场景,因此,合成语音的科技手段含量较高,更具有欺骗性和迷惑性,人耳很难辨别语音是否为合成语音,因此,需要一种能够提高对音频是否为合成音频进行检测的检测效率和检测准确性的解决方案。为此,本说明书实施例提供一种可以解决上述问题的技术方案,具体可以参见下述内容。
以目标音频数据为用户针对某预设业务的控制系统(如基于用户输入的语音指令数据执行音频播放业务的系统、基于用户输入的语音指令数据执行资源转移业务的系统等)输入的语音指令数据为例,终端设备可以接收用户输入的语音指令数据,并将接收到的语音指令数据发送给服务器,服务器可以将该语音指令数据确定为待检测的目标音频数据,以对用户输入的语音指令数据是否为合成数据进行检测。
在S204中,通过预先训练的检测模型对目标音频数据进行频谱提取处理,得到与目标音频数据对应的目标频谱数据,并通过预先训练的检测模型对目标频谱数据进行音频合成处理,得到与目标音频数据对应的合成音频数据。
其中,检测模型可以为基于预设机器学习算法构建的用于对音频数据进行频谱提取处理、音频合成处理以及声纹提取处理的模型。
在实施中,服务器可以基于历史音频数据对检测模型进行训练,得到训练后的检测模型。以检测模型包含基于从文本到语音(Text To Speech,TTS)算法构建的模型为例,如图3所示,服务器可以将目标音频模型输入预先训练的检测模型,以通过预先训练的检测模型的滤波器对目标音频数据进行频谱提取处理,得到与目标音频数据对应的目标频谱数据。在将得到的目标频谱数据输入到声码器中,以通过声码器将目标频谱数据转换为语音数据,即可以得到与目标音频数据对应的合成音频数据。
在S206中,通过预先训练的检测模型分别对目标音频数据和合成音频数据进行声纹提取处理,得到与目标音频数据对应的第一声纹特征向量,以及与合成音频数据对应的第二声纹特征向量。
在实施中,服务器可以将目标音频数据和合成音频数据输入到预先训练的检测模型,以通过预先训练的检测模型的声纹提取模块分别对目标音频数据和合成音频数据进行声纹提取处理,得到与目标音频数据对应的第一声纹特征向量,以及与合成音频数据对应的第二声纹特征向量。
在S208中,基于第一声纹特征向量和第二声纹特征向量之间的相似度,对目标音频数据为合成数据或非合成数据进行判断,得到针对目标音频数据的检测结果。
在实施中,服务器可以基于预设相似度算法,确定第一声纹特征向量和第二声纹特征向量之间的相似度,其中,预设相似度算法可以包括余弦相似度算法、皮尔森相关系数算法、欧式距离算法等。
服务器可以基于预设相似度阈值,以及第一声纹特征向量和第二声纹特征向量之间的相似度,对目标音频数据为合成数据或非合成数据进行判断,得到针对目标音频数据的检测结果。
例如,在相似度大于相似度阈值的情况下,可以认为目标音频数据与合成音频数据之间的相似度较大,服务器可以确定针对目标音频数据的检测结果为合成数据;在相似度不大于相似度阈值的情况下,可以认为目标音频数据与合成音频数据之间的相似度较小,服务器可以确定针对目标音频数据的检测结果为非合成数据。
上述对目标音频数据为合成数据或非合成数据进行判断的方法,是一种可选地、可实现的判断方法,在实际应用场景中,还可以有多种不同的判断方法,可以根据实际应用场景的不同而有所不同,本说明书实施例对此不做具体限定。
本说明书实施例提供一种数据处理方法,接收待检测的目标音频数据,通过预先训练的检测模型对目标音频数据进行频谱提取处理,得到与目标音频数据对应的目标频谱数据,并通过预先训练的检测模型对目标频谱数据进行音频合成处理,得到与目标音频数据对应的合成音频数据,通过预先训练的检测模型分别对目标音频数据和合成音频数据进行声纹提取处理,得到与目标音频数据对应的第一声纹特征向量,以及与合成音频数据对应的第二声纹特征向量,基于第一声纹特征向量和第二声纹特征向量之间的相似度,对目标音频数据为合成数据或非合成数据进行判断,得到针对目标音频数据的检测结果。这样,可以通过目标音频数据,以及基于目标音频数据进行音频合成处理得到的合成音频数据,确定目标音频数据和合成音频数据在声纹特征上的相似度,进而通过该相似度,可以准确的对目标音频数据是合成数据或非合成数据进行判断,以得到针对目标音频数据的检测结果,提高对音频是否为合成音频进行检测的检测效率和检测准确性。
实施例二
如图4所示,本说明书实施例提供一种数据处理方法,该方法的执行主体可以是服务器,其中,服务器可以是独立的服务器,也可以是由多个服务器组成的服务器集群。该方法具体可以包括以下步骤:
在S402中,获取用于训练检测模型的历史音频数据。
在实施中,历史音频数据可以是终端设备在模型训练周期内采集的与检测模型对应的音频数据,例如,假设检测模型为针对语音指令是否为合成数据进行检测的模型为例,终端设备可以在模型训练周期(如近一个月、近三个月等)内将采集到的用户输入的语音指令数据发送到服务器,服务器可以将接收到的语音指令数据存储到与该检测模型对应的数据库中,并在达到模型训练周期的情况下,从该数据库中选取预设数量的语音指令数据,用于训练该检测模型,其中,选取的语音指令数据即为历史音频数据。
在S404中,通过检测模型对历史音频数据进行频谱提取处理,得到与历史音频数据对应的第一频谱数据,并通过检测模型对第一频谱数据进行音频合成处理,得到与历史音频数据对应的第一合成数据。
其中,第一频谱数据可以为梅尔频谱数据。
在实施中,由于人耳对低频信号的区别的敏感度较高,对高频信号的区别的敏感度角度,即人们更容易区分低频段上的两个频度,而对高频段上的两个频度较难区分。因此,频域上相等距离的两对频度,对于人耳来说的距离不一定相等。
所以,服务器可以通过梅尔(Mel)刻度调整频域上的刻度,使得新刻度上相等距离的两对频度对人耳来说也是相等的。
服务器可以将历史音频数据转换为梅尔频谱数据,如服务器可以历史音频数据输入公式
得到与历史音频数据对应的第一频谱数据,其中,m为第一频谱数据,f为用赫兹表示的历史音频数据的频度。
这样,服务器可以通过检测模型的Mel滤波器,得到与历史音频数据对应的第一频谱数据,虽然在转换过程中,会造成历史音频数据中原本的数据信息的部分损失,但是,由于梅尔刻度是针对人耳设计的,因此,梅尔频谱数据在很大程度上保留了人耳理解原本语音(即历史音频数据)所需的信息。
服务器可以将第一频谱数据输入到检测模型的声码器中,声码器可以将Mel频谱数据转换成语音数据,即可以对第一频谱数据进行音频合成处理,得到与历史音频数据对应的第一合成数据。在音频合成过程中,声码器可以通过HiFi-gan算法,将第一频谱数据转换为高质量的音频数据。
在S406中,通过检测模型分别对历史音频数据和第一合成数据进行声纹提取处理,得到与历史音频数据对应的第三声纹特征向量,以及与第一合成数据对应的第四声纹特征向量。
在实施中,虽然第一合成数据是经过检测模型对历史音频数据进行音频合成处理得到的,但在对检测模型的声纹提取模块的训练中,可以将历史音频数据和第一合成数据视为不同说话人的音频数据,这样,可以让声纹提取模块更多的去学习合成数据和真实的音频数据之间的差异。
在S408中,基于第三声纹特征向量和第四声纹特征向量之间的第一相似度,对检测模型进行迭代训练,直到检测模型收敛,得到训练后的检测模型。
在实施中,可以基于预设损失函数,以及第三声纹特征向量和第四声纹特征向量之间的第一相似度,确定损失值,并基于损失值确定检测模型是否收敛,在基于损失值确定检测模型未收敛的情况下,可以基于历史音频数据继续对检测模型进行训练,直到检测模型收敛,得到训练后的检测模型。
此外,在实际应用中,上述S408的处理方式可以多种多样,以下提供一种可选的实现方式,具体可以参见下述步骤一~步骤三处理:
步骤一,获取与历史音频数据对应的第一音频数据。
其中,历史音频数据对应的用户与第一音频数据对应的用户相同,即历史音频数据与第一音频数据对应的说话人相同,如服务器可以获取历史音频数据对应的用户标识,并基于该用户标识,获取与该用户标识对应的第一音频数据,具体如,假设历史音频数据为近三天内采集的用户1输入的语音指令数据(如用于对某控制系统进行控制输入的语音数据),那么,服务器可以获取近一周内采集的用户1输入的语音验证数据(如用于对用户1的身份进行验证输入的语音数据),并将该语音验证数据确定为第一音频数据,除此之外,第一音频数据的获取方法还可以有多种,可以根据实际应用场景的不同而有所不同,本说明书实施例对此不做具体限定。
步骤二,通过检测模型对第一音频数据进行声纹提取处理,得到与第一音频数据对应的第五声纹特征向量。
在实施中,如图5所示,服务器可以通过检测模型的声纹提取模块,对历史音频数据进行声纹特征提取处理,得到与历史音频数据对应的第三声纹特征向量(e),对第一合成数据进行声纹特征提取处理,得到与第一合成数据对应的第三声纹特征向量(e’),并对第一音频数据进行声纹提取处理,得到与第一音频数据对应的第五声纹特征向量(e1)。
步骤三,基于第三声纹特征向量与第四声纹特征向量之间的第一相似度、第三声纹特征向量与第五声纹特征向量之间的第二相似度,以及第四声纹特征向量与第五声纹特征向量之间的第三相似度,对检测模型进行迭代训练,直到检测模型收敛,得到训练后的检测模型。
在实施中,服务器可以获取第二相似度与第一相似度之间的第一差值,以及第二相似度与第三相似度之间的第二差值。服务器可以基于第一差值和第二差值,对检测模型进行迭代训练,直到检测模型收敛,得到训练后的检测模型。例如,服务器可以基于预设损失函数、第一差值和第二差值,确定损失值,并基于损失值确定检测模型是否收敛,在基于损失值确定检测模型未收敛的情况下,服务器可以基于历史音频数据继续对检测模型进行训练,直到检测模型收敛,得到训练后的检测模型。
此外,经过对上述检测模型的训练,采用余弦相似度确定第一相似度、第二相似度和第三相似度可知:cos(e,e1)>cos(e,e'),且cos(e,e1)>cos(e1,e'),其中,cos(e,e')为第一相似度,cos(e,e1)为第二相似度,cos(e1,e')为第三相似度,即第一差值和第二差值大于零,这样,可以使得检测模型更有利于去区分合成数据和非合成数据。
在S202中,接收待检测的目标音频数据。
在S204中,通过预先训练的检测模型对目标音频数据进行频谱提取处理,得到与目标音频数据对应的目标频谱数据,并通过预先训练的检测模型对目标频谱数据进行音频合成处理,得到与目标音频数据对应的合成音频数据。
在S206中,通过预先训练的检测模型分别对目标音频数据和合成音频数据进行声纹提取处理,得到与目标音频数据对应的第一声纹特征向量,以及与合成音频数据对应的第二声纹特征向量。
在S410中,基于第一差值、第二差值、第一相似度以及第三相似度,确定相似度阈值。
在实施中,在第一差值和第二差值大于零的情况下,可以基于第一相似度和第三相似度,从预设阈值范围内,选取相似度阈值。例如,假设第一差值为0.1,第二差值为0.15,第一相似度为0.5,第二相似度为0.6,那么,可以在0.5-1之间选取相似度阈值,如可以通过随机选取的方式,从0.5-1之间选取相似度阈值,具体如,相似度阈值可以为0.7,其中,预设阈值范围可以是基于第一相似度和/或第二相似度确定的。
此外,相似度阈值的确定方法还可以有多种,可以根据实际应用场景的不同选取不同的确定方法,本说明书实施例对此不做具体限定。另外,服务器还可以根据不同的业务处理需求对预设相似度阈值进行调整,具体的调整方法可以有多种,本说明书实施例对此不做具体限定。
如果直接将基于相同说话人的音频数据生成的合成音频输入到检测模型中,检测模型是很难识别出该音频是合成数据还是非合成数据,因此,服务器可以利用检测模型中的声码器的音频合成能力,基于输入的音频数据的Mel特征,合成对应的音频数据,并将合成的音频数据和输入的音频数据作为不同说话人的音频数据输入到检测模型中进行训练,可以使得训练后的检测模型能更好的区分合成数据和非合成数据,同时,还可以针对合成音频输出其对应的相似度阈值,以供业务决策使用。
在S412中,基于第一声纹特征向量和第二声纹特征向量之间的相似度,以及相似度阈值,对目标音频数据为合成数据或非合成数据进行判断,得到针对目标音频数据的检测结果。
在实施中,在第一声纹特征向量和第二声纹特征向量之间的相似度大于相似度阈值的情况下,确定针对目标音频数据的检测结果为合成数据。
在第一声纹特征向量和第二声纹特征向量之间的相似度不大于相似度阈值的情况下,确定针对目标音频数据的检测结果为非合成数据。
在S414中,在目标音频数据的检测结果为合成数据的情况下,获取与目标音频数据对应的目标业务的业务数据。
在S416中,通过预先训练的风险检测模型,基于目标音频数据和业务数据,确定执行目标业务是否存在风险。
其中,风险检测模型可以为基于预设机器学习算法构建的用于进行风险检测的模型。
在实施中,服务器在确定目标音频数据为合成数据的情况下,服务器可以获取与目标音频数据对应的目标业务的业务数据,例如,假设目标音频数据为用户输入的用于执行资源转移业务的语音指令数据为例,终端设备可以接收用于触发执行资源转移业务的语音指令数据,具体如,终端设备接收的语音指令数据可以为“向用户1转账2000”,终端设备可以将该语音指令数据发送给服务器。
服务器可以将该语音指令数据确定为待检测的目标音频数据,并对该目标音频数据是否为合成数据进行检测,在目标音频数据的检测结果为合成数据的情况下,服务器可以获取与目标音频数据对应的目标业务的业务数据,业务数据可以是执行目标业务所需的数据,如资源转移对象、资源转移时间和资源转移数量等。
服务器可以对目标音频数据进行文本转换处理,得到与目标音频数据对应的目标文本数据,并将目标文本数据和业务数据输入预先训练的风险检测模型,以得到针对目标音频数据的风险检测结果,服务器可以基于风险检测结果确定执行目标业务是否存在风险。
本说明书实施例提供一种数据处理方法,接收待检测的目标音频数据,通过预先训练的检测模型对目标音频数据进行频谱提取处理,得到与目标音频数据对应的目标频谱数据,并通过预先训练的检测模型对目标频谱数据进行音频合成处理,得到与目标音频数据对应的合成音频数据,通过预先训练的检测模型分别对目标音频数据和合成音频数据进行声纹提取处理,得到与目标音频数据对应的第一声纹特征向量,以及与合成音频数据对应的第二声纹特征向量,基于第一声纹特征向量和第二声纹特征向量之间的相似度,对目标音频数据为合成数据或非合成数据进行判断,得到针对目标音频数据的检测结果。这样,可以通过目标音频数据,以及基于目标音频数据进行音频合成处理得到的合成音频数据,确定目标音频数据和合成音频数据在声纹特征上的相似度,进而通过该相似度,可以准确的对目标音频数据是合成数据或非合成数据进行判断,以得到针对目标音频数据的检测结果,提高对音频是否为合成音频进行检测的检测效率和检测准确性。
实施例三
以上为本说明书实施例提供的数据处理方法,基于同样的思路,本说明书实施例还提供一种数据处理装置,如图6所示。
该数据处理装置包括:数据接收模块601、第一处理模块602、第二处理模块603和数据检测模块604,其中:
数据接收模块601,用于接收待检测的目标音频数据;
第一处理模块602,用于通过预先训练的检测模型对所述目标音频数据进行频谱提取处理,得到与所述目标音频数据对应的目标频谱数据,并通过所述预先训练的检测模型对所述目标频谱数据进行音频合成处理,得到与所述目标音频数据对应的合成音频数据;
第二处理模块603,用于通过所述预先训练的检测模型分别对所述目标音频数据和所述合成音频数据进行声纹提取处理,得到与所述目标音频数据对应的第一声纹特征向量,以及与所述合成音频数据对应的第二声纹特征向量;
数据检测模块604,用于基于所述第一声纹特征向量和所述第二声纹特征向量之间的相似度,对所述目标音频数据为合成数据或非合成数据进行判断,得到针对所述目标音频数据的检测结果。
本说明书实施例中,所述装置还包括:
数据获取模块,用于获取用于训练所述检测模型的历史音频数据;
第三处理模块,用于通过所述检测模型对所述历史音频数据进行频谱提取处理,得到与所述历史音频数据对应的第一频谱数据,并通过所述检测模型对所述第一频谱数据进行音频合成处理,得到与所述历史音频数据对应的第一合成数据;
第四处理模块,用于通过所述检测模型分别对所述历史音频数据和所述第一合成数据进行声纹提取处理,得到与所述历史音频数据对应的第三声纹特征向量,以及与所述第一合成数据对应的第四声纹特征向量;
模型训练模块,用于基于所述第三声纹特征向量和所述第四声纹特征向量之间的第一相似度,对所述检测模型进行迭代训练,直到所述检测模型收敛,得到所述训练后的检测模型。
本说明书实施例中,所述模型训练模块,用于:
获取与所述历史音频数据对应的第一音频数据,所述历史音频数据对应的用户与所述第一音频数据对应的用户相同;
通过所述检测模型对所述第一音频数据进行声纹提取处理,得到与所述第一音频数据对应的第五声纹特征向量;
基于所述第三声纹特征向量与所述第四声纹特征向量之间的第一相似度、所述第三声纹特征向量与所述第五声纹特征向量之间的第二相似度,以及所述第四声纹特征向量与所述第五声纹特征向量之间的第三相似度,对所述检测模型进行迭代训练,直到所述检测模型收敛,得到所述训练后的检测模型。
本说明书实施例中,所述模型训练模块,用于:
获取所述第二相似度与所述第一相似度之间的第一差值,以及所述第二相似度与所述第三相似度之间的第二差值;
基于所述第一差值和所述第二差值,对所述检测模型进行迭代训练,直到所述检测模型收敛,得到所述训练后的检测模型。
本说明书实施例中,所述数据检测模块604,用于:
基于所述第一差值、所述第二差值、所述第一相似度以及所述第三相似度,确定相似度阈值;
基于所述第一声纹特征向量和所述第二声纹特征向量之间的相似度,以及所述相似度阈值,对所述目标音频数据为合成数据或非合成数据进行判断,得到针对所述目标音频数据的检测结果。
本说明书实施例中,所述数据检测模块604,用于:
在所述第一声纹特征向量和所述第二声纹特征向量之间的相似度大于所述相似度阈值的情况下,确定针对所述目标音频数据的检测结果为合成数据;
在所述第一声纹特征向量和所述第二声纹特征向量之间的相似度不大于所述相似度阈值的情况下,确定针对所述目标音频数据的检测结果为非合成数据。
本说明书实施例中,所述第一频谱数据为梅尔频谱数据。
本说明书实施例提供一种数据处理装置,接收待检测的目标音频数据,通过预先训练的检测模型对目标音频数据进行频谱提取处理,得到与目标音频数据对应的目标频谱数据,并通过预先训练的检测模型对目标频谱数据进行音频合成处理,得到与目标音频数据对应的合成音频数据,通过预先训练的检测模型分别对目标音频数据和合成音频数据进行声纹提取处理,得到与目标音频数据对应的第一声纹特征向量,以及与合成音频数据对应的第二声纹特征向量,基于第一声纹特征向量和第二声纹特征向量之间的相似度,对目标音频数据为合成数据或非合成数据进行判断,得到针对目标音频数据的检测结果。这样,可以通过目标音频数据,以及基于目标音频数据进行音频合成处理得到的合成音频数据,确定目标音频数据和合成音频数据在声纹特征上的相似度,进而通过该相似度,可以准确的对目标音频数据是合成数据或非合成数据进行判断,以得到针对目标音频数据的检测结果,提高对音频是否为合成音频进行检测的检测效率和检测准确性。
实施例四
基于同样的思路,本说明书实施例还提供一种数据处理设备,如图7所示。
数据处理设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器701和存储器702,存储器702中可以存储有一个或一个以上存储应用程序或数据。其中,存储器702可以是短暂存储或持久存储。存储在存储器702的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括对数据处理设备中的一系列计算机可执行指令。更进一步地,处理器701可以设置为与存储器702通信,在数据处理设备上执行存储器702中的一系列计算机可执行指令。数据处理设备还可以包括一个或一个以上电源703,一个或一个以上有线或无线网络接口704,一个或一个以上输入输出接口705,一个或一个以上键盘706。
具体在本实施例中,数据处理设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对数据处理设备中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
接收待检测的目标音频数据;
通过预先训练的检测模型对所述目标音频数据进行频谱提取处理,得到与所述目标音频数据对应的目标频谱数据,并通过所述预先训练的检测模型对所述目标频谱数据进行音频合成处理,得到与所述目标音频数据对应的合成音频数据;
通过所述预先训练的检测模型分别对所述目标音频数据和所述合成音频数据进行声纹提取处理,得到与所述目标音频数据对应的第一声纹特征向量,以及与所述合成音频数据对应的第二声纹特征向量;
基于所述第一声纹特征向量和所述第二声纹特征向量之间的相似度,对所述目标音频数据为合成数据或非合成数据进行判断,得到针对所述目标音频数据的检测结果。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于数据处理设备实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书实施例提供一种数据处理设备,接收待检测的目标音频数据,通过预先训练的检测模型对目标音频数据进行频谱提取处理,得到与目标音频数据对应的目标频谱数据,并通过预先训练的检测模型对目标频谱数据进行音频合成处理,得到与目标音频数据对应的合成音频数据,通过预先训练的检测模型分别对目标音频数据和合成音频数据进行声纹提取处理,得到与目标音频数据对应的第一声纹特征向量,以及与合成音频数据对应的第二声纹特征向量,基于第一声纹特征向量和第二声纹特征向量之间的相似度,对目标音频数据为合成数据或非合成数据进行判断,得到针对目标音频数据的检测结果。这样,可以通过目标音频数据,以及基于目标音频数据进行音频合成处理得到的合成音频数据,确定目标音频数据和合成音频数据在声纹特征上的相似度,进而通过该相似度,可以准确的对目标音频数据是合成数据或非合成数据进行判断,以得到针对目标音频数据的检测结果,提高对音频是否为合成音频进行检测的检测效率和检测准确性。
实施例五
本说明书实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述数据处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
本说明书实施例提供一种计算机可读存储介质,接收待检测的目标音频数据,通过预先训练的检测模型对目标音频数据进行频谱提取处理,得到与目标音频数据对应的目标频谱数据,并通过预先训练的检测模型对目标频谱数据进行音频合成处理,得到与目标音频数据对应的合成音频数据,通过预先训练的检测模型分别对目标音频数据和合成音频数据进行声纹提取处理,得到与目标音频数据对应的第一声纹特征向量,以及与合成音频数据对应的第二声纹特征向量,基于第一声纹特征向量和第二声纹特征向量之间的相似度,对目标音频数据为合成数据或非合成数据进行判断,得到针对目标音频数据的检测结果。这样,可以通过目标音频数据,以及基于目标音频数据进行音频合成处理得到的合成音频数据,确定目标音频数据和合成音频数据在声纹特征上的相似度,进而通过该相似度,可以准确的对目标音频数据是合成数据或非合成数据进行判断,以得到针对目标音频数据的检测结果,提高对音频是否为合成音频进行检测的检测效率和检测准确性。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书一个或多个实施例时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书的实施例是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书一个或多个实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书一个或多个实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
Claims (10)
1.一种数据处理方法,包括:
接收待检测的目标音频数据;
通过预先训练的检测模型对所述目标音频数据进行频谱提取处理,得到与所述目标音频数据对应的目标频谱数据,并通过所述预先训练的检测模型对所述目标频谱数据进行音频合成处理,得到与所述目标音频数据对应的合成音频数据;
通过所述预先训练的检测模型分别对所述目标音频数据和所述合成音频数据进行声纹提取处理,得到与所述目标音频数据对应的第一声纹特征向量,以及与所述合成音频数据对应的第二声纹特征向量;
基于所述第一声纹特征向量和所述第二声纹特征向量之间的相似度,对所述目标音频数据为合成数据或非合成数据进行判断,得到针对所述目标音频数据的检测结果。
2.根据权利要求1所述的方法,在所述通过预先训练的检测模型对所述目标音频数据进行频谱提取处理,得到与所述目标音频数据对应的目标频谱数据之前,还包括:
获取用于训练所述检测模型的历史音频数据;
通过所述检测模型对所述历史音频数据进行频谱提取处理,得到与所述历史音频数据对应的第一频谱数据,并通过所述检测模型对所述第一频谱数据进行音频合成处理,得到与所述历史音频数据对应的第一合成数据;
通过所述检测模型分别对所述历史音频数据和所述第一合成数据进行声纹提取处理,得到与所述历史音频数据对应的第三声纹特征向量,以及与所述第一合成数据对应的第四声纹特征向量;
基于所述第三声纹特征向量和所述第四声纹特征向量之间的第一相似度,对所述检测模型进行迭代训练,直到所述检测模型收敛,得到所述训练后的检测模型。
3.根据权利要求2所述的方法,所述基于所述第三声纹特征向量和所述第四声纹特征向量之间的第一相似度,对所述检测模型进行迭代训练,直到所述检测模型收敛,得到所述训练后的检测模型,包括:
获取与所述历史音频数据对应的第一音频数据,所述历史音频数据对应的用户与所述第一音频数据对应的用户相同;
通过所述检测模型对所述第一音频数据进行声纹提取处理,得到与所述第一音频数据对应的第五声纹特征向量;
基于所述第三声纹特征向量与所述第四声纹特征向量之间的第一相似度、所述第三声纹特征向量与所述第五声纹特征向量之间的第二相似度,以及所述第四声纹特征向量与所述第五声纹特征向量之间的第三相似度,对所述检测模型进行迭代训练,直到所述检测模型收敛,得到所述训练后的检测模型。
4.根据权利要求3所述的方法,所述基于所述第三声纹特征向量与所述第四声纹特征向量之间的第一相似度、所述第三声纹特征向量与所述第五声纹特征向量之间的第二相似度,以及所述第四声纹特征向量与所述第五声纹特征向量之间的第三相似度,对所述检测模型进行迭代训练,直到所述检测模型收敛,得到所述训练后的检测模型,包括:
获取所述第二相似度与所述第一相似度之间的第一差值,以及所述第二相似度与所述第三相似度之间的第二差值;
基于所述第一差值和所述第二差值,对所述检测模型进行迭代训练,直到所述检测模型收敛,得到所述训练后的检测模型。
5.根据权利要求4所述的方法,所述基于所述第一声纹特征向量和所述第二声纹特征向量之间的相似度,对所述目标音频数据为合成数据或非合成数据进行判断,得到针对所述目标音频数据的检测结果,包括:
基于所述第一差值、所述第二差值、所述第一相似度以及所述第三相似度,确定相似度阈值;
基于所述第一声纹特征向量和所述第二声纹特征向量之间的相似度,以及所述相似度阈值,对所述目标音频数据为合成数据或非合成数据进行判断,得到针对所述目标音频数据的检测结果。
6.根据权利要求5所述的方法,所述基于所述第一声纹特征向量和所述第二声纹特征向量之间的相似度,以及所述相似度阈值,对所述目标音频数据为合成数据或非合成数据进行判断,得到针对所述目标音频数据的检测结果,包括:
在所述第一声纹特征向量和所述第二声纹特征向量之间的相似度大于所述相似度阈值的情况下,确定针对所述目标音频数据的检测结果为合成数据;
在所述第一声纹特征向量和所述第二声纹特征向量之间的相似度不大于所述相似度阈值的情况下,确定针对所述目标音频数据的检测结果为非合成数据。
7.根据权利要求2所述的方法,所述第一频谱数据为梅尔频谱数据。
8.根据权利要求6所述的方法,所述方法还包括:
在所述目标音频数据的检测结果为合成数据的情况下,获取与所述目标音频数据对应的目标业务的业务数据;
通过预先训练的风险检测模型,基于所述目标音频数据和所述业务数据,确定执行所述目标业务是否存在风险,所述风险检测模型为基于预设机器学习算法构建的用于进行风险检测的模型。
9.一种数据处理装置,包括:
数据接收模块,用于接收待检测的目标音频数据;
第一处理模块,用于通过预先训练的检测模型对所述目标音频数据进行频谱提取处理,得到与所述目标音频数据对应的目标频谱数据,并通过所述预先训练的检测模型对所述目标频谱数据进行音频合成处理,得到与所述目标音频数据对应的合成音频数据;
第二处理模块,用于通过所述预先训练的检测模型分别对所述目标音频数据和所述合成音频数据进行声纹提取处理,得到与所述目标音频数据对应的第一声纹特征向量,以及与所述合成音频数据对应的第二声纹特征向量;
数据检测模块,用于基于所述第一声纹特征向量和所述第二声纹特征向量之间的相似度,对所述目标音频数据为合成数据或非合成数据进行判断,得到针对所述目标音频数据的检测结果。
10.一种数据处理设备,所述数据处理设备包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
接收待检测的目标音频数据;
通过预先训练的检测模型对所述目标音频数据进行频谱提取处理,得到与所述目标音频数据对应的目标频谱数据,并通过所述预先训练的检测模型对所述目标频谱数据进行音频合成处理,得到与所述目标音频数据对应的合成音频数据;
通过所述预先训练的检测模型分别对所述目标音频数据和所述合成音频数据进行声纹提取处理,得到与所述目标音频数据对应的第一声纹特征向量,以及与所述合成音频数据对应的第二声纹特征向量;
基于所述第一声纹特征向量和所述第二声纹特征向量之间的相似度,对所述目标音频数据为合成数据或非合成数据进行判断,得到针对所述目标音频数据的检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310651826.3A CN116844553A (zh) | 2023-06-02 | 2023-06-02 | 数据处理方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310651826.3A CN116844553A (zh) | 2023-06-02 | 2023-06-02 | 数据处理方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116844553A true CN116844553A (zh) | 2023-10-03 |
Family
ID=88162557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310651826.3A Pending CN116844553A (zh) | 2023-06-02 | 2023-06-02 | 数据处理方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116844553A (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110675881A (zh) * | 2019-09-05 | 2020-01-10 | 北京捷通华声科技股份有限公司 | 一种语音校验方法和装置 |
CN110969006A (zh) * | 2019-12-02 | 2020-04-07 | 支付宝(杭州)信息技术有限公司 | 一种文本排序模型的训练方法和系统 |
KR20210038468A (ko) * | 2020-05-21 | 2021-04-07 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | 모델 평가 방법, 장치 및 전자 기기 |
CN113223536A (zh) * | 2020-01-19 | 2021-08-06 | Tcl集团股份有限公司 | 声纹识别方法、装置及终端设备 |
CN113327621A (zh) * | 2021-06-09 | 2021-08-31 | 携程旅游信息技术(上海)有限公司 | 模型训练方法、用户识别方法、系统、设备及介质 |
CN113450806A (zh) * | 2021-05-18 | 2021-09-28 | 科大讯飞股份有限公司 | 语音检测模型的训练方法以及相关方法、装置、设备 |
CN114842826A (zh) * | 2022-04-25 | 2022-08-02 | 马上消费金融股份有限公司 | 语音合成模型的训练方法、语音合成方法及相关设备 |
US20220318354A1 (en) * | 2021-03-31 | 2022-10-06 | Samsung Electronics Co., Ltd. | Anti-spoofing method and apparatus |
CN116129853A (zh) * | 2022-09-16 | 2023-05-16 | 马上消费金融股份有限公司 | 语音合成模型的训练方法、语音合成方法及相关设备 |
-
2023
- 2023-06-02 CN CN202310651826.3A patent/CN116844553A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110675881A (zh) * | 2019-09-05 | 2020-01-10 | 北京捷通华声科技股份有限公司 | 一种语音校验方法和装置 |
CN110969006A (zh) * | 2019-12-02 | 2020-04-07 | 支付宝(杭州)信息技术有限公司 | 一种文本排序模型的训练方法和系统 |
CN113223536A (zh) * | 2020-01-19 | 2021-08-06 | Tcl集团股份有限公司 | 声纹识别方法、装置及终端设备 |
KR20210038468A (ko) * | 2020-05-21 | 2021-04-07 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | 모델 평가 방법, 장치 및 전자 기기 |
US20220318354A1 (en) * | 2021-03-31 | 2022-10-06 | Samsung Electronics Co., Ltd. | Anti-spoofing method and apparatus |
CN113450806A (zh) * | 2021-05-18 | 2021-09-28 | 科大讯飞股份有限公司 | 语音检测模型的训练方法以及相关方法、装置、设备 |
CN113327621A (zh) * | 2021-06-09 | 2021-08-31 | 携程旅游信息技术(上海)有限公司 | 模型训练方法、用户识别方法、系统、设备及介质 |
CN114842826A (zh) * | 2022-04-25 | 2022-08-02 | 马上消费金融股份有限公司 | 语音合成模型的训练方法、语音合成方法及相关设备 |
CN116129853A (zh) * | 2022-09-16 | 2023-05-16 | 马上消费金融股份有限公司 | 语音合成模型的训练方法、语音合成方法及相关设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107808098B (zh) | 一种模型安全检测方法、装置以及电子设备 | |
CN109428719B (zh) | 一种身份验证方法、装置及设备 | |
CN112802459A (zh) | 一种基于语音识别的咨询业务处理方法及装置 | |
KR20190093962A (ko) | 화자 인식을 수행하기 위한 음성 신호 처리 방법 및 그에 따른 전자 장치 | |
CN115712866B (zh) | 数据处理方法、装置及设备 | |
CN115563366A (zh) | 一种模型训练和数据分析的方法、装置、存储介质及设备 | |
CN117392694B (zh) | 数据处理方法、装置及设备 | |
CN116049761A (zh) | 数据处理方法、装置及设备 | |
CN116402165B (zh) | 一种算子检测的方法、装置、存储介质以及电子设备 | |
CN115620706B (zh) | 一种模型训练方法、装置、设备及存储介质 | |
CN116844553A (zh) | 数据处理方法、装置及设备 | |
CN116630480A (zh) | 一种交互式文本驱动图像编辑的方法、装置和电子设备 | |
CN115019781A (zh) | 一种对话业务执行方法、装置、存储介质及电子设备 | |
CN112397073B (zh) | 一种音频数据处理方法及装置 | |
CN114973426B (zh) | 活体检测方法、装置及设备 | |
CN115331673B (zh) | 一种复杂声音场景下的声纹识别家电控制方法和装置 | |
CN115423485B (zh) | 数据处理方法、装置及设备 | |
CN117011924B (zh) | 一种基于语音和图像的说话人数目估计方法和系统 | |
CN115831127B (zh) | 基于语音转换的声纹重构模型构建方法、装置和存储介质 | |
CN115859975B (zh) | 数据处理方法、装置及设备 | |
CN116501852B (zh) | 一种可控对话模型训练方法、装置、存储介质及电子设备 | |
CN114495982A (zh) | 风险检测方法、装置及设备 | |
Husen et al. | GlitchOS: An Open Source Virtual Assistant | |
CN116543747A (zh) | 语音环境音效切换方法、装置、电子设备及存储介质 | |
CN116416999A (zh) | 说话人分割模型的训练方法、说话人分割方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |