CN112185417A - 人工合成语音检测方法、装置、计算机设备及存储介质 - Google Patents
人工合成语音检测方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN112185417A CN112185417A CN202011134504.4A CN202011134504A CN112185417A CN 112185417 A CN112185417 A CN 112185417A CN 202011134504 A CN202011134504 A CN 202011134504A CN 112185417 A CN112185417 A CN 112185417A
- Authority
- CN
- China
- Prior art keywords
- voice data
- voice
- generation network
- speech
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000012549 training Methods 0.000 claims abstract description 32
- 238000009432 framing Methods 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 18
- 238000001514 detection method Methods 0.000 claims description 32
- 238000000605 extraction Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Abstract
本发明公开了一种人工合成语音检测方法、装置、计算机设备及存储介质,该人工合成语音检测方法包括:采集用户接收到的语音数据;将语音数据输入预训练深度卷积对抗生成网络中,对语音数据进行分帧、加窗处理并提取语音数据的音频特征;对音频特征进行识别分析并获得语音数据的可信度;根据可信度判别语音数据的真实性。通过上述方式,本发明能够通过对抗生成网络对用户接收到的语音数据的真实性进行识别,帮助用户更好地提高对语音诈骗的防范意识。
Description
技术领域
本发明涉及语音识别技术领域,特别是涉及人工合成语音检测方法、装置、计算机设备及存储介质。
背景技术
语音识别是人工智能语音领域中的一个重要方向,近年来,随着计算机硬件能力提升以及深度学习模型的不断完善,语音合成技术已经有了非常完善的发展。其合成速度越来越快,模拟人声的能力也越来越强。因此,虚假语音识别技术近年来也逐渐成为研究的热点。
目前对于虚假语音识别的论文和产品依然很少,还没有十分具有突破性的技术与进展。所以,急需一种用于预防聊天语音诈骗的、基于语音合成及声音转换技术产生的数字语音与真实语音的判别技术设计合成语音检测系统。
发明内容
本发明提供人工合成语音检测方法、装置、计算机设备及存储介质,能够基于对抗生成网络对用户接收到的语音数据的真实性进行识别,帮助用户更好地提高对语音诈骗的防范意识。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种人工合成语音检测方法,包括:
采集用户接收到的语音数据;
将所述语音数据输入预训练深度卷积对抗生成网络中,对所述语音数据进行分帧、加窗处理并提取所述语音数据的音频特征;
对所述音频特征进行识别分析并获得所述语音数据的可信度;
根据所述可信度判别所述语音数据的真实性。
根据本发明的一个实施例,所述将所述语音数据输入预训练深度卷积对抗生成网络中的步骤之前,还包括:
接收随机噪声并通过所述随机噪声生成合成语音;
利用所述合成语音和预设真实语音对深度卷积对抗生成网络进行训练,获得预训练深度卷积对抗生成网络。
根据本发明的一个实施例,所述利用所述合成语音和预设真实语音对深度卷积对抗生成网络进行训练,获得预训练深度卷积对抗生成网络的步骤还包括:
计算所述合成语音预测为真实的期望值以及所述预设真实语音预测为虚假的期望值;
将所述合成语音预测为真实的期望值以及所述预设真实语音预测为虚假的期望值之和作为所述深度卷积对抗生成网络的损失函数并对所述深度卷积对抗生成网络进行优化。
根据本发明的一个实施例,所述根据所述可信度判别所述语音数据的真实性的步骤包括:
将所述可信度与预设阈值作比对;
当可信度低于预设阈值时,确定所述语音数据为虚假语音;
当可信度高于预设阈值时,确定所述语音数据为真实语音。
根据本发明的一个实施例,在所述根据所述可信度判别所述语音数据的真实性的步骤之后,还包括:
当确定所述语音数据为虚假语音时,通过文本信息或短信的方式向用户发送预警信号;
当确定所述语音数据为真实语音时,删除所述语音数据。
根据本发明的一个实施例,在所述通过文本信息或短信的方式向用户发送预警信号的步骤之后,还包括:
获取用户对反馈所述语音数据的判别结果的意见;
若用户同意反馈所述判别结果,将所述语音数据发送至服务器,在预设间隔时间内采用所述语音数据优化所述深度卷积对抗生成网络;
若用户不同意反馈所述判别结果,删除所述语音数据。
根据本发明的一个实施例,所述在预设间隔时间内采用所述语音数据优化所述深度卷积对抗生成网络的步骤还包括:
计算所述预设真实语音预测为虚假的期望值以及确定为虚假语音的所述语音数据预测为真实的期望值;
将所述预设真实语音预测为虚假的期望值以及确定为虚假语音的所述语音数据预测为真实的期望值之和作为所述深度卷积对抗生成网络的损失函数并对所述深度卷积对抗生成网络进行优化。
为解决上述技术问题,本发明采用的另一个技术方案是:提供一种人工合成语音检测装置,包括:
采集模块,用于采集用户接收到的语音数据;
特征提取模块,用于将所述语音数据输入预训练深度卷积对抗生成网络中,对所述语音数据进行分帧、加窗处理并提取所述语音数据的音频特征;
检测模块,用于对所述音频特征进行识别分析并获得所述语音数据的可信度;
判别模块,用于根据所述可信度判别所述语音数据的真实性。
为解决上述技术问题,本发明采用的再一个技术方案是:提供一种计算机设备,存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现所述的人工合成语音检测方法。
为解决上述技术问题,本发明采用的再一个技术方案是:提供一种存储介质,存储有能够实现上述人工合成语音检测方法的程序文件。
本发明的有益效果是:通过对抗生成网络对用户接收到的语音数据的真实性进行识别,帮助用户更好地提高对语音诈骗的防范意识;并在后续根据用户反馈数据不断优化对抗生成网络,从而更加准确的判别用户接收到的语音数据的准确性,同时仅在用户同意反馈的情况下才将语音数据用于优化对抗生成网络,在安全防范的基础上保护了用户的隐私安全。
附图说明
图1是本发明第一实施例的人工合成语音检测方法的流程示意图;
图2是本发明第二实施例的人工合成语音检测方法的流程示意图;
图3是本发明第三实施例的人工合成语音检测方法的流程示意图;
图4是本发明第四实施例的人工合成语音检测方法的流程示意图;
图5是本发明第五实施例的人工合成语音检测方法的流程示意图;
图6是本发明第一实施例的人工合成语音检测装置的架构示意图;
图7是本发明第二实施例的人工合成语音检测装置的架构示意图;
图8是本发明第三实施例的人工合成语音检测装置的架构示意图;
图9是本发明第四实施例的人工合成语音检测装置的架构示意图;
图10是本发明第五实施例的人工合成语音检测装置的架构示意图;
图11是本发明实施例的终端设备的结构示意图;
图12是本发明实施例的存储介质的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明中的术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括至少一个该特征。本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。本发明实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
图1是本发明第一实施例的人工合成语音检测方法的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图1所示的流程顺序为限。如图1所示,该方法包括步骤:
步骤S101:采集用户接收到的语音数据。
在步骤S101中,对开通防诈骗功能的用户安装本地合成语音检测模型,本地合成语音检测模型首先采集用户接收到的所有语音数据。
步骤S102:将语音数据输入预训练深度卷积对抗生成网络中,对语音数据进行分帧、加窗处理并提取语音数据的音频特征。
在步骤S102中,本实施例采用分帧、加窗方法对语音数据进行处理,将语音数据分为若干语音帧,再提取每一个语音帧的音频特征。因为后期语音数据处理需要平稳的语音信号,而一端语音信号整体看是不平稳的,但是局部信号是平稳的,所以将一段语音数据进行分帧处理,另外,由于每一语音帧的起始端和末尾端会出现不连续的地方,所以分帧越多,与原始信号的误差也就越大,用加窗的方法能够使分帧后的语音信号变得连续。
步骤S103:对音频特征进行识别分析并获得语音数据的可信度。
在步骤S103中,采用预训练深度卷积对抗生成网络中的判别网络对音频特征进行识别并获得语音数据的可信度。
步骤S104:根据可信度判别语音数据的真实性。
在步骤S104中,将可信度与预设阈值作比对;当可信度低于预设阈值时,确定语音数据为虚假语音;当可信度高于预设阈值时,确定语音数据为真实语音。
本发明第一实施例的人工合成语音检测方法通过预训练深度卷积对抗生成网络对用户接收到的语音数据的真实性进行识别,帮助用户更好地提高对语音诈骗的防范意识。
图2是本发明第二实施例的人工合成语音检测方法的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图2所示的流程顺序为限。如图2所示,该方法包括步骤:
步骤S201:采集用户接收到的语音数据。
在本实施例中,图2中的步骤S201和图1中的步骤S101类似,为简约起见,在此不再赘述。
步骤S202:接收随机噪声并通过随机噪声生成合成语音。
步骤S203:利用合成语音和预设真实语音对深度卷积对抗生成网络进行训练,获得预训练深度卷积对抗生成网络。
在步骤S203中,深度卷积对抗生成网络的结构包括生成网络和判别网络,生成网络用于生成合成语音,判别网络用于判别语音数据的真实性;在训练的过程中,生成网络的目标是生成接近真实的合成语音,判别网络的目标是把合成语音和真实语音区别开来,以使生成网络和判别网络形成一个动态的“博弈过程”。本实施例首先计算合成语音预测为真实的期望值以及预设真实语音预测为虚假的期望值;然后将合成语音预测为真实的期望值以及预设真实语音预测为虚假的期望值之和作为深度卷积对抗生成网络的损失函数并对深度卷积对抗生成网络进行优化。
具体地,本实施例采用合成语音和预设真实语音对深度卷积对抗生成网络进行训练,深度卷积对抗生成网络的损失函数按照如下公式进行计算:
其中,E(*)表示期望值,X表示预设真实语音,Pdata表示真实语音的分布,D(X)表示判别网络的输出,z表示用于生成合成语音的噪声,G(z)表示生成网络的输出,D(G(z))表示判别网络D判断生成网络G生成的合成语音为真实的概率。
步骤S204:将语音数据输入预训练深度卷积对抗生成网络中,对语音数据进行分帧、加窗处理并提取语音数据的音频特征。
在本实施例中,图2中的步骤S204和图1中的步骤S102类似,为简约起见,在此不再赘述。
步骤S205:对音频特征进行识别分析并获得语音数据的可信度。
在本实施例中,图2中的步骤S205和图1中的步骤S103类似,为简约起见,在此不再赘述。
步骤S206:根据可信度判别语音数据的真实性。
在本实施例中,图2中的步骤S206和图1中的步骤S104类似,为简约起见,在此不再赘述。
本发明第二实施例的人工合成语音检测方法在第一实施例的基础上,采用合成语音预测为真实的期望值以及预设真实语音预测为虚假的期望值之和作为深度卷积对抗生成网络的损失函数并对深度卷积对抗生成网络进行优化,提高深度卷积对抗生成网络识别的准确性和可靠性。
图3是本发明第三实施例的人工合成语音检测方法的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图3所示的流程顺序为限。如图3所示,该方法包括步骤:
步骤S301:采集用户接收到的语音数据。
在本实施例中,图3中的步骤S301和图1中的步骤S101类似,为简约起见,在此不再赘述。
步骤S302:将语音数据输入预训练深度卷积对抗生成网络中,对语音数据进行分帧、加窗处理并提取语音数据的音频特征。
在本实施例中,图3中的步骤S302和图1中的步骤S102类似,为简约起见,在此不再赘述。
步骤S303:对音频特征进行识别分析并获得语音数据的可信度。
在本实施例中,图3中的步骤S303和图1中的步骤S103类似,为简约起见,在此不再赘述。
步骤S304:根据可信度判别语音数据的真实性。
在本实施例中,图3中的步骤S304和图1中的步骤S104类似,为简约起见,在此不再赘述。当确定语音数据为虚假语音时,执行步骤S305,当确定语音数据为真实语音时,执行步骤S306。
步骤S305:通过文本信息或短信的方式向用户发送预警信号。
在步骤S305中,通过文本信息或短信的方式提醒用户该语音数据为虚假语音,若涉及账户交易内容,请谨慎操作,谨防诈骗。
步骤S306:删除语音数据。
本发明第三实施例的人工合成语音检测方法在第一实施例的基础上,通过在确定语音数据为虚假数据时,通过文本信息或短信的方式向用户发送预警信号,进一步提高用户对语音诈骗的防范意识。
图4是本发明第四实施例的人工合成语音检测方法的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图4所示的流程顺序为限。如图4所示,该方法包括步骤:
步骤S401:采集用户接收到的语音数据。
在本实施例中,图4中的步骤S401和图1中的步骤S101类似,为简约起见,在此不再赘述。
步骤S402:将语音数据输入预训练深度卷积对抗生成网络中,对语音数据进行分帧、加窗处理并提取语音数据的音频特征。
在本实施例中,图4中的步骤S402和图1中的步骤S102类似,为简约起见,在此不再赘述。
步骤S403:对音频特征进行识别分析并获得语音数据的可信度。
在本实施例中,图4中的步骤S403和图1中的步骤S103类似,为简约起见,在此不再赘述。
步骤S404:根据可信度判别语音数据的真实性。
在本实施例中,图4中的步骤S404和图1中的步骤S104类似,为简约起见,在此不再赘述。当确定语音数据为虚假语音时,执行步骤S405,当确定语音数据为真实语音时,执行步骤S408。
步骤S405:通过文本信息或短信的方式向用户发送预警信号。
在步骤S405中,通过文本信息或短信的方式提醒用户该语音数据为虚假语音,若涉及账户交易内容,请谨慎操作,谨防诈骗。在步骤S405之后执行步骤S406。
步骤S406:获取用户对反馈语音数据的判别结果的意见。
在步骤S406中,若用户同意反馈判别结果,执行步骤S407。
步骤S407:将语音数据发送至服务器,在预设间隔时间内采用语音数据优化深度卷积对抗生成网络。
在步骤S407中,具体地,首先计算预设真实语音预测为虚假的期望值以及确定为虚假语音的语音数据预测为真实的期望值;然后将预设真实语音预测为虚假的期望值以及确定为虚假语音的语音数据预测为真实的期望值之和作为深度卷积对抗生成网络的损失函数并对深度卷积对抗生成网络进行优化。本实施例采用确定为虚假语音的语音数据对深度卷积对抗生成网络进一步训练,该训练不依赖于生成网络。深度卷积对抗生成网络的损失函数按照如下公式进行计算: 其中,E(*)表示期望值,X表示预设真实语音,Pdata表示预设真实语音的分布,D(X)表示判别网络的输出,表示确定为虚假语音的语音数据,表示判别确定为虚假语音的语音数据为真实的概率。
若用户不同意反馈判别结果,执行步骤S408。
步骤S408:删除语音数据。
本发明第四实施例的人工合成语音检测方法在第三实施例的基础上,通过用户反馈数据不断优化对抗生成网络,从而更加准确的判别用户接收到的语音数据的准确性,同时仅在用户同意反馈的情况下才将语音数据用于优化对抗生成网络,在安全防范的基础上保护了用户的隐私安全。
图5是本发明第五实施例的人工合成语音检测方法的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图5所示的流程顺序为限。如图5所示,该方法包括步骤:
步骤S501:采集用户接收到的语音数据。
在本实施例中,图5中的步骤S501和图1中的步骤S101类似,为简约起见,在此不再赘述。
步骤S502:对语音数据进行采样及预处理。
在步骤S502中,通过特定采样率和采样位数对采集到的语音数据进行收集,并进行降噪、过滤首尾静音等预处理,提高语音数据的质量并保留完整的语音数据。
步骤S503:将语音数据输入预训练深度卷积对抗生成网络中,对语音数据进行分帧、加窗处理并提取语音数据的音频特征。
在本实施例中,图5中的步骤S503和图1中的步骤S102类似,为简约起见,在此不再赘述。
步骤S504:对音频特征进行识别分析并获得语音数据的可信度。
在本实施例中,图5中的步骤S504和图1中的步骤S103类似,为简约起见,在此不再赘述。
步骤S505:根据可信度判别语音数据的真实性。
在本实施例中,图5中的步骤S505和图1中的步骤S104类似,为简约起见,在此不再赘述。
本发明第五实施例的人工合成语音检测方法在第一实施例的基础上,通过对语音数据进行采样及预处理,提高语音数据的质量并保留完整的语音数据。
图6是本发明第一实施例的人工合成语音检测装置的结构示意图。如图6所示,该装置60包括采集模块61、特征提取模块62、检测模块63以及判别模块64。
采集模块61用于采集用户接收到的语音数据。
特征提取模块62用于将语音数据输入预训练深度卷积对抗生成网络中,对语音数据进行分帧、加窗处理并提取语音数据的音频特征。
检测模块63用于对音频特征进行识别分析并获得语音数据的可信度。
判别模块64用于根据可信度判别语音数据的真实性。
可选地,判别模块64包括比对单元、第一判别单元和第二判别单元。比对单元用于将可信度与预设阈值作比对;第一判别单元用于当可信度低于预设阈值时,确定语音数据为虚假语音;第二判别单元用于当可信度高于预设阈值时,确定语音数据为真实语音。
图7是本发明第二实施例的人工合成语音检测装置的结构示意图。如图7所示,该装置70包括采集模块71、生成模块72、训练模块73、特征提取模块74、检测模块75以及判别模块76。
采集模块71用于采集用户接收到的语音数据。
生成模块72用于接收随机噪声并通过随机噪声生成合成语音。
训练模块73用于利用合成语音和预设真实语音对深度卷积对抗生成网络进行训练,获得预训练深度卷积对抗生成网络。
特征提取模块74用于将语音数据输入预训练深度卷积对抗生成网络中,对语音数据进行分帧、加窗处理并提取语音数据的音频特征。
检测模块75用于对音频特征进行识别分析并获得语音数据的可信度。
判别模块76用于根据可信度判别语音数据的真实性。
图8是本发明第三实施例的人工合成语音检测装置的结构示意图。如图8所示,该装置80包括采集模块81、特征提取模块82、检测模块83、判别模块84、发送模块85以及删除模块86。
采集模块81用于采集用户接收到的语音数据。
特征提取模块82用于将语音数据输入预训练深度卷积对抗生成网络中,对语音数据进行分帧、加窗处理并提取语音数据的音频特征。
检测模块83用于对音频特征进行识别分析并获得语音数据的可信度。
判别模块84用于根据可信度判别语音数据的真实性。
发送模块85用于当判别模块84确定语音数据为虚假语音时,通过文本信息或短信的方式向用户发送预警信号。
删除模块86用于当判别模块84确定语音数据为真实语音时,删除语音数据。
图9是本发明第四实施例的人工合成语音检测装置的结构示意图。如图9所示,该装置90包括采集模块91、特征提取模块92、检测模块93、判别模块94、发送模块95、删除模块96、获取模块97以及传输及优化模块98。
采集模块91用于采集用户接收到的语音数据。
特征提取模块92用于将语音数据输入预训练深度卷积对抗生成网络中,对语音数据进行分帧、加窗处理并提取语音数据的音频特征。
检测模块93用于对音频特征进行识别分析并获得语音数据的可信度。
判别模块94用于根据可信度判别语音数据的真实性。
发送模块95用于当判别模块94确定语音数据为虚假语音时,通过文本信息或短信的方式向用户发送预警信号。
删除模块96用于当判别模块94确定语音数据为真实语音时,删除语音数据。
获取模块97用于获取用户对反馈语音数据的判别结果的意见。
传输及优化模块98用于若用户同意反馈判别结果,将语音数据发送至服务器,在预设间隔时间内采用语音数据优化深度卷积对抗生成网络。
图10是本发明第五实施例的人工合成语音检测装置的结构示意图。如图10所示,该装置10包括采集模块11、采样及预处理模块12、特征提取模块13、检测模块14以及判别模块15。
采集模块11用于采集用户接收到的语音数据。
采样及预处理模块12用于对语音数据进行采样及预处理。
特征提取模块13用于将语音数据输入预训练深度卷积对抗生成网络中,对语音数据进行分帧、加窗处理并提取语音数据的音频特征。
检测模块14用于对音频特征进行识别分析并获得语音数据的可信度。
判别模块15用于根据可信度判别语音数据的真实性。
请参阅图11,图11为本发明实施例的计算机设备的结构示意图。如图11所示,该计算机设备11包括处理器111及和处理器111耦接的存储器112。
存储器112存储有用于实现上述任一实施例所述的人工合成语音检测方法的程序指令。
处理器111用于执行存储器112存储的程序指令以实现人工合成语音检测。
其中,处理器111还可以称为CPU(Central Processing Unit,中央处理单元)。处理器111可能是一种集成电路芯片,具有信号的处理能力。处理器111还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
参阅图12,图12为本发明实施例的存储介质的结构示意图。本发明实施例的存储介质存储有能够实现上述所有方法的程序文件121,其中,该程序文件121可以以软件产品的形式存储在上述存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施方式所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质,或者是计算机、服务器、手机、平板等终端设备。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种人工合成语音检测方法,其特征在于,包括:
采集用户接收到的语音数据;
将所述语音数据输入预训练深度卷积对抗生成网络中,对所述语音数据进行分帧、加窗处理并提取所述语音数据的音频特征;
对所述音频特征进行识别分析并获得所述语音数据的可信度;
根据所述可信度判别所述语音数据的真实性。
2.根据权利要求1所述的方法,其特征在于,所述将所述语音数据输入预训练深度卷积对抗生成网络中的步骤之前,还包括:
接收随机噪声并通过所述随机噪声生成合成语音;
利用所述合成语音和预设真实语音对深度卷积对抗生成网络进行训练,获得预训练深度卷积对抗生成网络。
3.根据权利要求2所述的方法,其特征在于,所述利用所述合成语音和预设真实语音对深度卷积对抗生成网络进行训练,获得预训练深度卷积对抗生成网络的步骤还包括:
计算所述合成语音预测为真实的期望值以及所述预设真实语音预测为虚假的期望值;
将所述合成语音预测为真实的期望值以及所述预设真实语音预测为虚假的期望值之和作为所述深度卷积对抗生成网络的损失函数并对所述深度卷积对抗生成网络进行优化。
4.根据权利要求1所述的方法,其特征在于,所述根据所述可信度判别所述语音数据的真实性的步骤包括:
将所述可信度与预设阈值作比对;
当可信度低于预设阈值时,确定所述语音数据为虚假语音;
当可信度高于预设阈值时,确定所述语音数据为真实语音。
5.根据权利要求4所述的方法,其特征在于,在所述根据所述可信度判别所述语音数据的真实性的步骤之后,还包括:
当确定所述语音数据为虚假语音时,通过文本信息或短信的方式向用户发送预警信号;
当确定所述语音数据为真实语音时,删除所述语音数据。
6.根据权利要求5所述的方法,其特征在于,在所述通过文本信息或短信的方式向用户发送预警信号的步骤之后,还包括:
获取用户对反馈所述语音数据的判别结果的意见;
若用户同意反馈所述判别结果,将所述语音数据发送至服务器,在预设间隔时间内采用所述语音数据优化所述深度卷积对抗生成网络;
若用户不同意反馈所述判别结果,删除所述语音数据。
7.根据权利要求6所述的方法,其特征在于,所述在预设间隔时间内采用所述语音数据优化所述深度卷积对抗生成网络的步骤还包括:
计算所述预设真实语音预测为虚假的期望值以及确定为虚假语音的所述语音数据预测为真实的期望值;
将所述预设真实语音预测为虚假的期望值以及确定为虚假语音的所述语音数据预测为真实的期望值之和作为所述深度卷积对抗生成网络的损失函数并对所述深度卷积对抗生成网络进行优化。
8.一种人工合成语音检测装置,其特征在于,包括:
采集模块,用于采集用户接收到的语音数据;
特征提取模块,用于将所述语音数据输入预训练深度卷积对抗生成网络中,对所述语音数据进行分帧、加窗处理并提取所述语音数据的音频特征;
检测模块,用于对所述音频特征进行识别分析并获得所述语音数据的可信度;
判别模块,用于根据所述可信度判别所述语音数据的真实性。
9.一种计算机设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-7任一项所述的人工合成语音检测方法。
10.一种存储介质,其特征在于,存储有能够实现如权利要求1-7中任一项所述的人工合成语音检测方法的程序文件。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011134504.4A CN112185417A (zh) | 2020-10-21 | 2020-10-21 | 人工合成语音检测方法、装置、计算机设备及存储介质 |
PCT/CN2020/135177 WO2021179714A1 (zh) | 2020-10-21 | 2020-12-10 | 人工合成语音检测方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011134504.4A CN112185417A (zh) | 2020-10-21 | 2020-10-21 | 人工合成语音检测方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112185417A true CN112185417A (zh) | 2021-01-05 |
Family
ID=73923733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011134504.4A Pending CN112185417A (zh) | 2020-10-21 | 2020-10-21 | 人工合成语音检测方法、装置、计算机设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112185417A (zh) |
WO (1) | WO2021179714A1 (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107293289A (zh) * | 2017-06-13 | 2017-10-24 | 南京医科大学 | 一种基于深度卷积生成对抗网络的语音生成方法 |
CN110619886A (zh) * | 2019-10-11 | 2019-12-27 | 北京工商大学 | 一种针对低资源土家语的端到端语音增强方法 |
CN110930976A (zh) * | 2019-12-02 | 2020-03-27 | 北京声智科技有限公司 | 一种语音生成方法及装置 |
CN111243621A (zh) * | 2020-01-14 | 2020-06-05 | 四川大学 | 一种用于合成语音检测的gru-svm深度学习模型的构造方法 |
CN111383641A (zh) * | 2018-12-29 | 2020-07-07 | 华为技术有限公司 | 语音识别方法、装置和控制器 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107368724A (zh) * | 2017-06-14 | 2017-11-21 | 广东数相智能科技有限公司 | 基于声纹识别的防作弊网络调研方法、电子设备及存储介质 |
CN109559736B (zh) * | 2018-12-05 | 2022-03-08 | 中国计量大学 | 一种基于对抗网络的电影演员自动配音方法 |
CN109801638B (zh) * | 2019-01-24 | 2023-10-13 | 平安科技(深圳)有限公司 | 语音验证方法、装置、计算机设备及存储介质 |
US20200322377A1 (en) * | 2019-04-08 | 2020-10-08 | Pindrop Security, Inc. | Systems and methods for end-to-end architectures for voice spoofing detection |
-
2020
- 2020-10-21 CN CN202011134504.4A patent/CN112185417A/zh active Pending
- 2020-12-10 WO PCT/CN2020/135177 patent/WO2021179714A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107293289A (zh) * | 2017-06-13 | 2017-10-24 | 南京医科大学 | 一种基于深度卷积生成对抗网络的语音生成方法 |
CN111383641A (zh) * | 2018-12-29 | 2020-07-07 | 华为技术有限公司 | 语音识别方法、装置和控制器 |
CN110619886A (zh) * | 2019-10-11 | 2019-12-27 | 北京工商大学 | 一种针对低资源土家语的端到端语音增强方法 |
CN110930976A (zh) * | 2019-12-02 | 2020-03-27 | 北京声智科技有限公司 | 一种语音生成方法及装置 |
CN111243621A (zh) * | 2020-01-14 | 2020-06-05 | 四川大学 | 一种用于合成语音检测的gru-svm深度学习模型的构造方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2021179714A1 (zh) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11508366B2 (en) | Whispering voice recovery method, apparatus and device, and readable storage medium | |
CN106504744A (zh) | 一种语音处理方法及装置 | |
CN110910901A (zh) | 一种情绪识别方法及装置、电子设备和可读存储介质 | |
CN108564941A (zh) | 语音识别方法、装置、设备及存储介质 | |
CN108447471A (zh) | 语音识别方法及语音识别装置 | |
CN107305774A (zh) | 语音检测方法和装置 | |
CN110309799B (zh) | 基于摄像头的说话判断方法 | |
CN111768760B (zh) | 一种多模态语音端点检测方法及装置 | |
WO2022116487A1 (zh) | 基于生成对抗网络的语音处理方法、装置、设备及介质 | |
CN109993044B (zh) | 电信诈骗识别系统、方法、装置、电子设备及存储介质 | |
CN110853646A (zh) | 会议发言角色的区分方法、装置、设备及可读存储介质 | |
CN110443350B (zh) | 基于数据分析的模型质量检测方法、装置、终端及介质 | |
CN111369981A (zh) | 一种方言地域识别方法、装置、电子设备及存储介质 | |
CN109584881B (zh) | 基于语音处理的号码识别方法、装置及终端设备 | |
CN113409771B (zh) | 一种伪造音频的检测方法及其检测系统和存储介质 | |
CN111145202A (zh) | 模型生成方法、图像处理方法、装置、设备及存储介质 | |
CN113191787A (zh) | 电信数据的处理方法、装置电子设备及存储介质 | |
US9190061B1 (en) | Visual speech detection using facial landmarks | |
CN112185417A (zh) | 人工合成语音检测方法、装置、计算机设备及存储介质 | |
CN113643706B (zh) | 语音识别方法、装置、电子设备及存储介质 | |
CN106340310A (zh) | 语音检测方法及装置 | |
CN116416992A (zh) | 一种通信设备的监控方法、监控设备、装置和电子设备 | |
CN110533297B (zh) | 一种识别异常设备的方法及装置 | |
CN112985575A (zh) | 敲击事件检测方法、装置、电子设备及检测系统 | |
CN112489630A (zh) | 一种语音识别方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |