CN112992156A - 一种基于声纹认证的配电网调度身份认证系统 - Google Patents

一种基于声纹认证的配电网调度身份认证系统 Download PDF

Info

Publication number
CN112992156A
CN112992156A CN202110166200.4A CN202110166200A CN112992156A CN 112992156 A CN112992156 A CN 112992156A CN 202110166200 A CN202110166200 A CN 202110166200A CN 112992156 A CN112992156 A CN 112992156A
Authority
CN
China
Prior art keywords
data
original
voice
identification
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110166200.4A
Other languages
English (en)
Other versions
CN112992156B (zh
Inventor
李晓波
蒋雪冬
徐武威
范江平
汪超群
乔辉
王翔
陈宇涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Zheda Energy Technology Co ltd
Original Assignee
Zhejiang Zheda Energy Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Zheda Energy Technology Co ltd filed Critical Zhejiang Zheda Energy Technology Co ltd
Priority to CN202110166200.4A priority Critical patent/CN112992156B/zh
Publication of CN112992156A publication Critical patent/CN112992156A/zh
Application granted granted Critical
Publication of CN112992156B publication Critical patent/CN112992156B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/18Artificial neural networks; Connectionist approaches

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明公开了一种基于声纹认证的配电网调度身份认证系统,涉及身份认证技术领域,解决了现有方案中对调度人员身份认证精度不高,且认证方法复杂的技术问题;本发明设置了语音处理模块,该设置根据分帧数据获取对应的原始曲线和原始矩阵,获取原始数据的本质特征,为身份验证奠定了基础,能够提高身份验证的精度;本发明设置了在线识别模块,该设置通过将初筛数据与语音库进行分析匹配,获取身份验证结果,验证方法简单有效,能够完成快速完成身份验证;本发明设置了模型识别模块,该设置利用人工智能模型的优势建立识别模型,并对在线识别模块的分析结果进一步分析,保证了身份验证的高精度,有助于提高配电网身份验证的效率,同时降低失误率。

Description

一种基于声纹认证的配电网调度身份认证系统
技术领域
本发明属于身份认证领域,涉及声纹识别技术,具体是一种基于声纹认证的配电网调度身份认证系统。
背景技术
电网安全规定,工作票签发人、工作负责人和工作许可人(简称“三种人”)每年应该进行“三种人”资格考试,合格后以发文的形式公布;另外,与上级调度机构进行调度业务联系的值班调度员和运行单位值班人员必须通过机构组织的认证培训和受令资格考核,并取得受令资格;调度业务都是通过电话联系,以自报名字的方式确认身份;因此,若对方没有通过“三种人”资格考试以及没有受令资格,而以谎报合格人员名字的方式开展工作,由于安全意识不足和业务技能薄弱,会存在很大的安全隐患。
公开号为CN112164404A的发明专利提供了一种基于声纹识别技术的远程身份认证方法及系统,远程身份认证方法包括:采集相关人员的个人语音样本和个人身份信息;利用个人语音样本,生成个人识别模型;关联个人识别模型与个人身份信息,生成相关人员识别模型库;采集识别人员的个人声纹信息;利用个人声纹信息,采用声纹确认方法,二次确认识别人员的个人身份信息;匹配校验识别人员的个人身份信息与合格人员名单。
上述方案采用远程身份认证方法及系统能够确保对方身份和业务能力的合格,避免造成安全隐患;但是,上述方案只对调度员进行了分析识别,而没有结合调度员声音的采集质量进行分别处理,会导致语音识别的精度不高,降低了工作效率;因此,上述方案仍需进一步改进。
发明内容
为了解决上述方案存在的问题,本发明提供了一种基于声纹认证的配电网调度身份认证系统。
本发明的目的可以通过以下技术方案实现:一种基于声纹认证的配电网调度身份认证系统,包括处理器、语音采集模块、语音处理模块、在线识别模块、模型识别模块、预警管理模块和数据存储模块;
所述语音采集模块与采集控制器电气连接;所述语音采集模块通过采集控制器和音频采集器采集语音数据,并在所述语音数据初始位置添加识别标签,将添加识别标签之后的语音数据标记为原始数据;将原始数据分别发送至语音处理模块和数据存储模块;
所述在线识别模块用于对初筛数据进行在线分析,包括:
当在线识别模块接收到初筛数据之后获取初筛数据的识别标签;所述初筛数据包括分帧数据i及对应的原始曲线和原始矩阵YJ;
通过数据存储模块获取语音库;
获取初筛数据中原始曲线的导函数并标记为第一导函数;获取语音库中原始曲线的导函数并标记为第二导函数;
将分帧数据的帧编号i分别带入第一导函数和第二导函数中获取第一导数集和第二导数集,计算第一导数集和第二导数集的均方差并分别标记为第一均方差和第二均方差;
当第一均方差和第二均方差的差值小于等于均方差阈值时,则获取第二导函数对应原始曲线所在的调度人员语音序列,并标记为目标语音序列;
获取初筛数据中原始矩阵并标记为第一矩阵;提取目标语音序列中的原始矩阵,并标记为第二矩阵;
当第一矩阵和第二矩阵相似时,则判定初筛数据匹配成功,将目标语音序列发送至后台管理模块,同时将初筛数据中分帧数据i对应的原始数据转换成文字指令并分别发送至数据存储模块和后台管理模块;当第一矩阵和第二矩阵不相似时,提取初筛数据的识别标签,当识别标签为1时,则判定初筛数据匹配失败,发送重新采集信号至采集控制器,当识别标签为2时,则将初筛数据发送至模型识别模块。
优选的,所述模型识别模块通过识别模型对初筛数据进行分析,包括:
当模型识别模块接收到初筛数据之后,获取数据存储模块中的识别模型;
将初筛数据中的原始曲线和原始矩阵YJ处理之后输入至识别模型获取识别结果;所述识别结果包括姓名和年龄;
提取识别结果中的姓名并标记为搜索关键词,通过搜索关键词在语音库中进行匹配,当匹配成功时,则判定初筛数据匹配正常,将初筛数据对应的原始数据转换成文字指令并分别发送至数据存储模块和后台管理模块;当匹配失败时,则判定初筛数据匹配异常,发送匹配异常信号至采集控制器。
优选的,所述识别模型的获取步骤具体包括:
根据数据库生成调度人员语音序列;
构建融合模型;所述融合模型通过SVM、LR、GBDT和BP神经网络四种模型中的至少两种结合融合方式构建,所述融合方式包括线性加权融合法、交叉融合法、瀑布融合法、特征融合法和预测融合法;
将调度人员语音序列处理之后按照设定比例划分为训练集和测试集;所述设定比例包括4:1、3:1和3:2;
通过训练集和测试集对融合模型进行训练和测试,当融合模型的训练精度达到目标精度时,则判定融合模型完成训练,将完成训练的融合模型标记为识别模型;
通过处理器将识别模型分别发送至模型识别模块和数据存储模块。
优选的,所述语音库的具体获取步骤包括:
获取调度人员的录音数据;所述调度人员指从事调度工作且资质齐全的工作人员;
对录音数据进行去噪处理之后获取对应的原始矩阵和原始曲线;
结合调度人员的姓名、年龄、原始矩阵和原始曲线生成调度人员语音序列;
生成语音库,将至少一条调度人员语音序列存储在语音库中;
将语音库发送至数据存储模块进行存储。
优选的,所述语音处理模块用于对原始数据进行预处理并判定分析模式,包括:
当语音处理模块接收到原始数据之后,将原始数据进行去噪处理之后进行语音分帧获取分帧数据;
将分帧数据按照帧编号为i,i=1,2,……,n;获取分帧数据i的频率和能量,并将频率和能量分别标记为PLi和NLi;
根据频率PLi和能量NLi建立原始矩阵YJ;所述原始矩阵YJ具体为
Figure BDA0002936566410000041
根据分帧数据中的帧编号i为自变量,以频率和能量的乘积为因变量通过多项式拟合建立原始曲线;
获取分帧数据i的识别标签,当识别标签为1时,则对分帧数据i进行快速识别方式进行分析;
当识别标签为2时,获取分帧数据i的时长、频率均值和能量均值,并分别标记为SCi、PJi和NJi;
通过公式
Figure BDA0002936566410000051
获取模式评估系数MPXi;其中α1和α2为比例系数,且α1和α2为大于0的实数,且
Figure BDA0002936566410000052
当模式评估系数MPXi满足0<MPXi≤L1时,则将对应的分帧数据i的识别标签修改为1;当模式评估系数MPXi满足L1<MPXi时,则判定对应的分帧数据i通过智能识别方式进行分析识别,保持对应分帧数据i的识别标签不变;
通过处理器将分帧数据i、原始曲线、原始矩阵YJ分别发送至在线识别模块和数据存储模块,同时将模式评估系数发送至数据存储模块进行存储。
优选的,所述语音数据是通过音频采集器采集的调度指令,所述调度指令包括调度正令和调度预令,所述调度正令包括口头指令、综合指令和逐项指令。
优选的,所述识别标签包括1和2;其中,当识别标签为1时,表示所述原始数据通过快速识别方式进行分析识别,当识别标签为2时,表示所述原始数据通过智能识别的方式进行分析识别。
优选的,所述采集控制器与至少两个音频采集器电气连接;所述采集控制器包括两个控制按钮;两个所述控制按钮的功能分别为快速识别和智能识别。
优选的,所述处理器分别与语音采集模块、语音处理模块、在线识别模块、模型识别模块、预警管理模块和数据存储模块通信连接;所述语音处理模块分别与语音采集模块和在线识别模块通信连接,所述预警管理模块分别与数据存储模块和模型识别模块通信连接,所述模型识别模块和在线识别模块通信连接。
与现有技术相比,本发明的有益效果是:
1、本发明设置了语音处理模块,该设置用于对原始数据进行预处理并判定分析模式;语音处理模块对原始数据进行去噪和语音分帧获取分帧数据,并根据分帧数据获取对应的原始曲线和原始矩阵,获取原始数据的本质特征,为后续身份验证奠定了基础,能够提高身份验证的精度;
2、本发明设置了在线识别模块,该设置用于对初筛数据进行在线分析;在线识别模块通过将初筛数据与语音库进行分析匹配,获取身份验证结果,验证方法简单有效,能够完成快速完成身份验证;
3、本发明设置了模型识别模块,该设置通过识别模型对初筛数据进行分析;模型识别模块利用人工智能模型的优势建立识别模型,并对在线识别模块的分析结果进一步分析,保证了身份验证的高精度,有助于提高配电网身份验证的效率,同时降低失误率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例一的原理示意图;
图2为本发明实施例二的原理示意图;
图3为本发明实施例三的原理示意图。
具体实施方式
下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1-3,本发明提供三种实施例:
如图1所示,实施例一:
一种基于声纹认证的配电网调度身份认证系统,包括处理器、语音采集模块、语音处理模块、在线识别模块、模型识别模块、预警管理模块和数据存储模块;
所述语音采集模块与采集控制器电气连接;所述语音采集模块通过采集控制器和音频采集器采集语音数据,并在所述语音数据初始位置添加识别标签,将添加识别标签之后的语音数据标记为原始数据;将原始数据分别发送至语音处理模块和数据存储模块;
所述在线识别模块用于对初筛数据进行在线分析,包括:
当在线识别模块接收到初筛数据之后获取初筛数据的识别标签;所述初筛数据包括分帧数据i及对应的原始曲线和原始矩阵YJ;
通过数据存储模块获取语音库;
获取初筛数据中原始曲线的导函数并标记为第一导函数;获取语音库中原始曲线的导函数并标记为第二导函数;
将分帧数据的帧编号i分别带入第一导函数和第二导函数中获取第一导数集和第二导数集,计算第一导数集和第二导数集的均方差并分别标记为第一均方差和第二均方差;
当第一均方差和第二均方差的差值小于等于均方差阈值时,则获取第二导函数对应原始曲线所在的调度人员语音序列,并标记为目标语音序列;
获取初筛数据中原始矩阵并标记为第一矩阵;提取目标语音序列中的原始矩阵,并标记为第二矩阵;
当第一矩阵和第二矩阵相似时,则判定初筛数据匹配成功,将目标语音序列发送至后台管理模块,同时将初筛数据中分帧数据i对应的原始数据转换成文字指令并分别发送至数据存储模块和后台管理模块;当第一矩阵和第二矩阵不相似时,提取初筛数据的识别标签,当识别标签为1时,则判定初筛数据匹配失败,发送重新采集信号至采集控制器,当识别标签为2时,则将初筛数据发送至模型识别模块。
所述模型识别模块通过识别模型对初筛数据进行分析,包括:
当模型识别模块接收到初筛数据之后,获取数据存储模块中的识别模型;
将初筛数据中的原始曲线和原始矩阵YJ处理之后输入至识别模型获取识别结果;所述识别结果包括姓名和年龄;
提取识别结果中的姓名并标记为搜索关键词,通过搜索关键词在语音库中进行匹配,当匹配成功时,则判定初筛数据匹配正常,将初筛数据对应的原始数据转换成文字指令并分别发送至数据存储模块和后台管理模块;当匹配失败时,则判定初筛数据匹配异常,发送匹配异常信号至采集控制器。
所述识别模型的获取步骤具体包括:
根据数据库生成调度人员语音序列;
构建融合模型;所述融合模型通过SVM、LR、GBDT和BP神经网络四种模型中的至少两种结合融合方式构建,所述融合方式包括线性加权融合法、交叉融合法、瀑布融合法、特征融合法和预测融合法;
将调度人员语音序列处理之后按照设定比例划分为训练集和测试集;所述设定比例包括4:1、3:1和3:2;
通过训练集和测试集对融合模型进行训练和测试,当融合模型的训练精度达到目标精度时,则判定融合模型完成训练,将完成训练的融合模型标记为识别模型;
通过处理器将识别模型分别发送至模型识别模块和数据存储模块。
所述语音库的具体获取步骤包括:
获取调度人员的录音数据;所述调度人员指从事调度工作且资质齐全的工作人员;
对录音数据进行去噪处理之后获取对应的原始矩阵和原始曲线;
结合调度人员的姓名、年龄、原始矩阵和原始曲线生成调度人员语音序列;
生成语音库,将至少一条调度人员语音序列存储在语音库中;
将语音库发送至数据存储模块进行存储。
所述语音处理模块用于对原始数据进行预处理并判定分析模式,包括:
当语音处理模块接收到原始数据之后,将原始数据进行去噪处理之后进行语音分帧获取分帧数据;
将分帧数据按照帧编号为i,i=1,2,……,n;获取分帧数据i的频率和能量,并将频率和能量分别标记为PLi和NLi;
根据频率PLi和能量NLi建立原始矩阵YJ;所述原始矩阵YJ具体为
Figure BDA0002936566410000101
根据分帧数据中的帧编号i为自变量,以频率和能量的乘积为因变量通过多项式拟合建立原始曲线;
获取分帧数据i的识别标签,当识别标签为1时,则对分帧数据i进行快速识别方式进行分析;
当识别标签为2时,获取分帧数据i的时长、频率均值和能量均值,并分别标记为SCi、PJi和NJi;
通过公式
Figure BDA0002936566410000102
获取模式评估系数MPXi;其中α1和α2为比例系数,且α1和α2为大于0的实数,且
Figure BDA0002936566410000103
当模式评估系数MPXi满足0<MPXi≤L1时,则将对应的分帧数据i的识别标签修改为1;当模式评估系数MPXi满足L1<MPXi时,则判定对应的分帧数据i通过智能识别方式进行分析识别,保持对应分帧数据i的识别标签不变;
通过处理器将分帧数据i、原始曲线、原始矩阵YJ分别发送至在线识别模块和数据存储模块,同时将模式评估系数发送至数据存储模块进行存储。
所述语音数据是通过音频采集器采集的调度指令,所述调度指令包括调度正令和调度预令,所述调度正令包括口头指令、综合指令和逐项指令。
所述识别标签包括1和2;其中,当识别标签为1时,表示所述原始数据通过快速识别方式进行分析识别,当识别标签为2时,表示所述原始数据通过智能识别的方式进行分析识别。
所述采集控制器与至少两个音频采集器电气连接;所述采集控制器包括两个控制按钮;两个所述控制按钮的功能分别为快速识别和智能识别。
所述处理器分别与语音采集模块、语音处理模块、在线识别模块、模型识别模块、预警管理模块和数据存储模块通信连接;所述语音处理模块分别与语音采集模块和在线识别模块通信连接,所述预警管理模块分别与数据存储模块和模型识别模块通信连接,所述模型识别模块和在线识别模块通信连接。
如图2所示,实施例二:本实施例与实施例区别在于通过在线识别模块实现快速准确的身份认证;
一种基于声纹认证的配电网调度身份认证系统,包括处理器、语音采集模块、语音处理模块、在线识别模块、预警管理模块和数据存储模块;
所述语音采集模块与采集控制器电气连接;所述语音采集模块通过采集控制器和音频采集器采集语音数据,并在所述语音数据初始位置添加识别标签,将添加识别标签之后的语音数据标记为原始数据;将原始数据分别发送至语音处理模块和数据存储模块;
所述在线识别模块用于对初筛数据进行在线分析,包括:
当在线识别模块接收到初筛数据之后获取初筛数据的识别标签;所述初筛数据包括分帧数据i及对应的原始曲线和原始矩阵YJ;
通过数据存储模块获取语音库;
获取初筛数据中原始曲线的导函数并标记为第一导函数;获取语音库中原始曲线的导函数并标记为第二导函数;
将分帧数据的帧编号i分别带入第一导函数和第二导函数中获取第一导数集和第二导数集,计算第一导数集和第二导数集的均方差并分别标记为第一均方差和第二均方差;
当第一均方差和第二均方差的差值小于等于均方差阈值时,则获取第二导函数对应原始曲线所在的调度人员语音序列,并标记为目标语音序列;
获取初筛数据中原始矩阵并标记为第一矩阵;提取目标语音序列中的原始矩阵,并标记为第二矩阵;
当第一矩阵和第二矩阵相似时,则判定初筛数据匹配成功,将目标语音序列发送至后台管理模块,同时将初筛数据中分帧数据i对应的原始数据转换成文字指令并分别发送至数据存储模块和后台管理模块;当第一矩阵和第二矩阵不相似时,则判定初筛数据匹配失败,发送重新采集信号至采集控制器。
所述语音库的具体获取步骤包括:
获取调度人员的录音数据;所述调度人员指从事调度工作且资质齐全的工作人员;
对录音数据进行去噪处理之后获取对应的原始矩阵和原始曲线;
结合调度人员的姓名、年龄、原始矩阵和原始曲线生成调度人员语音序列;
生成语音库,将至少一条调度人员语音序列存储在语音库中;
将语音库发送至数据存储模块进行存储。
所述语音处理模块用于对原始数据进行预处理,包括:
当语音处理模块接收到原始数据之后,将原始数据进行去噪处理之后进行语音分帧获取分帧数据;
将分帧数据按照帧编号为i,i=1,2,……,n;获取分帧数据i的频率和能量,并将频率和能量分别标记为PLi和NLi;
根据频率PLi和能量NLi建立原始矩阵YJ;所述原始矩阵YJ具体为
Figure BDA0002936566410000121
通过处理器将分帧数据i、原始曲线、原始矩阵YJ分别发送至在线识别模块和数据存储模块,同时将模式评估系数发送至数据存储模块进行存储。
如图3所示,实施例三:本实施例与实施例一和实施例二的区别是通过人工智能模型的优势降低系统的计算量,提高识别精度和识别效率;
一种基于声纹认证的配电网调度身份认证系统,包括处理器、语音采集模块、语音处理模块、模型识别模块、预警管理模块和数据存储模块;
所述语音采集模块与采集控制器电气连接;所述语音采集模块通过采集控制器和音频采集器采集语音数据,并在所述语音数据初始位置添加识别标签,将添加识别标签之后的语音数据标记为原始数据;将原始数据分别发送至语音处理模块和数据存储模块;
所述模型识别模块通过识别模型对初筛数据进行分析,包括:
当模型识别模块接收到初筛数据之后,获取数据存储模块中的识别模型;所述初筛数据包括分帧数据i及对应的原始曲线和原始矩阵YJ;
将初筛数据中的原始曲线和原始矩阵YJ处理之后输入至识别模型获取识别结果;所述识别结果包括姓名和年龄;
提取识别结果中的姓名并标记为搜索关键词,通过搜索关键词在语音库中进行匹配,当匹配成功时,则判定初筛数据匹配正常,将初筛数据对应的原始数据转换成文字指令并分别发送至数据存储模块和后台管理模块;当匹配失败时,则判定初筛数据匹配异常,发送匹配异常信号至采集控制器。
所述识别模型的获取步骤具体包括:
根据数据库生成调度人员语音序列;
构建融合模型;所述融合模型通过SVM、LR、GBDT和BP神经网络四种模型中的至少两种结合融合方式构建,所述融合方式包括线性加权融合法、交叉融合法、瀑布融合法、特征融合法和预测融合法;
将调度人员语音序列处理之后按照设定比例划分为训练集和测试集;所述设定比例包括4:1、3:1和3:2;
通过训练集和测试集对融合模型进行训练和测试,当融合模型的训练精度达到目标精度时,则判定融合模型完成训练,将完成训练的融合模型标记为识别模型;
通过处理器将识别模型分别发送至模型识别模块和数据存储模块。
所述语音处理模块用于对原始数据进行预处理,包括:
当语音处理模块接收到原始数据之后,将原始数据进行去噪处理之后进行语音分帧获取分帧数据;
将分帧数据按照帧编号为i,i=1,2,……,n;获取分帧数据i的频率和能量,并将频率和能量分别标记为PLi和NLi;
根据频率PLi和能量NLi建立原始矩阵YJ;所述原始矩阵YJ具体为
Figure BDA0002936566410000141
根据分帧数据中的帧编号i为自变量,以频率和能量的乘积为因变量通过多项式拟合建立原始曲线;
通过处理器将分帧数据i、原始曲线、原始矩阵YJ分别发送至模型识别模块和数据存储模块,同时将模式评估系数发送至数据存储模块进行存储。
上述公式均是去除量纲取其数值计算,公式是由采集大量数据进行软件模拟得到最接近真实情况的一个公式,公式中的预设参数和预设阈值由本领域的技术人员根据实际情况设定或者大量数据模拟获得。
本发明的工作原理:
语音采集模块通过采集控制器和音频采集器采集语音数据,并在所述语音数据初始位置添加识别标签,将添加识别标签之后的语音数据标记为原始数据;将原始数据分别发送至语音处理模块和数据存储模块;
当语音处理模块接收到原始数据之后,将原始数据进行去噪处理之后进行语音分帧获取分帧数据;将分帧数据按照帧编号为i;获取分帧数据i的频率和能量,根据频率PLi和能量NLi建立原始矩阵YJ;根据分帧数据中的帧编号i为自变量,以频率和能量的乘积为因变量通过多项式拟合建立原始曲线;获取分帧数据i的识别标签,当识别标签为1时,则对分帧数据i进行快速识别方式进行分析;当识别标签为2时,获取分帧数据i的时长、频率均值和能量均值,获取模式评估系数MPXi;当模式评估系数MPXi满足0<MPXi≤L1时,则将对应的分帧数据i的识别标签修改为1;当模式评估系数MPXi满足L1<MPXi时,则判定对应的分帧数据i通过智能识别方式进行分析识别,保持对应分帧数据i的识别标签不变;
当在线识别模块接收到初筛数据之后获取初筛数据的识别标签;所述初筛数据包括分帧数据i及对应的原始曲线和原始矩阵YJ;通过数据存储模块获取语音库;获取初筛数据中原始曲线的导函数并标记为第一导函数;获取语音库中原始曲线的导函数并标记为第二导函数;将分帧数据的帧编号i分别带入第一导函数和第二导函数中获取第一导数集和第二导数集,计算第一导数集和第二导数集的均方差并分别标记为第一均方差和第二均方差;当第一均方差和第二均方差的差值小于等于均方差阈值时,则获取第二导函数对应原始曲线所在的调度人员语音序列,并标记为目标语音序列;获取初筛数据中原始矩阵并标记为第一矩阵;提取目标语音序列中的原始矩阵,并标记为第二矩阵;当第一矩阵和第二矩阵相似时,则判定初筛数据匹配成功,将目标语音序列发送至后台管理模块,同时将初筛数据中分帧数据i对应的原始数据转换成文字指令并分别发送至数据存储模块和后台管理模块;当第一矩阵和第二矩阵不相似时,提取初筛数据的识别标签,当识别标签为1时,则判定初筛数据匹配失败,发送重新采集信号至采集控制器,当识别标签为2时,则将初筛数据发送至模型识别模块;
当模型识别模块接收到初筛数据之后,获取数据存储模块中的识别模型;将初筛数据中的原始曲线和原始矩阵YJ处理之后输入至识别模型获取识别结果;提取识别结果中的姓名并标记为搜索关键词,通过搜索关键词在语音库中进行匹配,当匹配成功时,则判定初筛数据匹配正常,将初筛数据对应的原始数据转换成文字指令并分别发送至数据存储模块和后台管理模块;当匹配失败时,则判定初筛数据匹配异常,发送匹配异常信号至采集控制器。
在本说明书的描述中,参考术语“一个实施例”、“示例”、“具体示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上内容仅仅是对本发明结构所作的举例和说明,所属本技术领域的技术人员对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,只要不偏离发明的结构或者超越本权利要求书所定义的范围,均应属于本发明的保护范围。

Claims (7)

1.一种基于声纹认证的配电网调度身份认证系统,其特征在于,包括处理器、语音采集模块、语音处理模块、在线识别模块、模型识别模块、预警管理模块和数据存储模块;
所述语音采集模块与采集控制器电气连接;所述语音采集模块通过采集控制器和音频采集器采集语音数据,并在所述语音数据初始位置添加识别标签,将添加识别标签之后的语音数据标记为原始数据;将原始数据分别发送至语音处理模块和数据存储模块;
所述在线识别模块用于对初筛数据进行在线分析,包括:
当在线识别模块接收到初筛数据之后获取初筛数据的识别标签;所述初筛数据包括分帧数据i及对应的原始曲线和原始矩阵YJ;
通过数据存储模块获取语音库;
获取初筛数据中原始曲线的导函数并标记为第一导函数;获取语音库中原始曲线的导函数并标记为第二导函数;
将分帧数据的帧编号i分别带入第一导函数和第二导函数中获取第一导数集和第二导数集,计算第一导数集和第二导数集的均方差并分别标记为第一均方差和第二均方差;
当第一均方差和第二均方差的差值小于等于均方差阈值时,则获取第二导函数对应原始曲线所在的调度人员语音序列,并标记为目标语音序列;
获取初筛数据中原始矩阵并标记为第一矩阵;提取目标语音序列中的原始矩阵,并标记为第二矩阵;
当第一矩阵和第二矩阵相似时,则判定初筛数据匹配成功,将目标语音序列发送至后台管理模块,同时将初筛数据中分帧数据i对应的原始数据转换成文字指令并分别发送至数据存储模块和后台管理模块;当第一矩阵和第二矩阵不相似时,提取初筛数据的识别标签,当识别标签为1时,则判定初筛数据匹配失败,发送重新采集信号至采集控制器,当识别标签为2时,则将初筛数据发送至模型识别模块。
2.根据权利要求1所述的一种基于声纹认证的配电网调度身份认证系统,其特征在于,所述模型识别模块通过识别模型对初筛数据进行分析,包括:
当模型识别模块接收到初筛数据之后,获取数据存储模块中的识别模型;
将初筛数据中的原始曲线和原始矩阵YJ处理之后输入至识别模型获取识别结果;所述识别结果包括姓名和年龄;
提取识别结果中的姓名并标记为搜索关键词,通过搜索关键词在语音库中进行匹配,当匹配成功时,则判定初筛数据匹配正常,将初筛数据对应的原始数据转换成文字指令并分别发送至数据存储模块和后台管理模块;当匹配失败时,则判定初筛数据匹配异常,发送匹配异常信号至采集控制器。
3.根据权利要求1所述的一种基于声纹认证的配电网调度身份认证系统,其特征在于,所述语音库的具体获取步骤包括:
获取调度人员的录音数据;所述调度人员指从事调度工作且资质齐全的工作人员;
对录音数据进行去噪处理之后获取对应的原始矩阵和原始曲线;
结合调度人员的姓名、年龄、原始矩阵和原始曲线生成调度人员语音序列;
生成语音库,将至少一条调度人员语音序列存储在语音库中;
将语音库发送至数据存储模块进行存储。
4.根据权利要求1所述的一种基于声纹认证的配电网调度身份认证系统,其特征在于,所述语音处理模块用于对原始数据进行预处理并判定分析模式,包括:
当语音处理模块接收到原始数据之后,将原始数据进行去噪处理之后进行语音分帧获取分帧数据;
将分帧数据按照帧编号为i,i=1,2,……,n;获取分帧数据i的频率和能量,并将频率和能量分别标记为PLi和NLi;
根据频率PLi和能量NLi建立原始矩阵YJ;所述原始矩阵YJ具体为
Figure FDA0002936566400000031
根据分帧数据中的帧编号i为自变量,以频率和能量的乘积为因变量通过多项式拟合建立原始曲线;
获取分帧数据i的识别标签,当识别标签为1时,则对分帧数据i进行快速识别方式进行分析;
当识别标签为2时,获取分帧数据i的时长、频率均值和能量均值,并分别标记为SCi、PJi和NJi;
通过公式
Figure FDA0002936566400000032
获取模式评估系数MPXi;其中α1和α2为比例系数,且α1和α2为大于0的实数,且
Figure FDA0002936566400000033
当模式评估系数MPXi满足0<MPXi≤L1时,则将对应的分帧数据i的识别标签修改为1;当模式评估系数MPXi满足L1<MPXi时,则判定对应的分帧数据i通过智能识别方式进行分析识别,保持对应分帧数据i的识别标签不变;
通过处理器将分帧数据i、原始曲线、原始矩阵YJ分别发送至在线识别模块和数据存储模块,同时将模式评估系数发送至数据存储模块进行存储。
5.根据权利要求1所述的一种基于声纹认证的配电网调度身份认证系统,其特征在于,所述语音数据是通过音频采集器采集的调度指令,所述调度指令包括调度正令和调度预令,所述调度正令包括口头指令、综合指令和逐项指令。
6.根据权利要求1所述的一种基于声纹认证的配电网调度身份认证系统,其特征在于,所述识别标签包括1和2;其中,当识别标签为1时,表示所述原始数据通过快速识别方式进行分析识别,当识别标签为2时,表示所述原始数据通过智能识别的方式进行分析识别。
7.根据权利要求1所述的一种基于声纹认证的配电网调度身份认证系统,其特征在于,所述采集控制器与至少两个音频采集器电气连接;所述采集控制器包括两个控制按钮。
CN202110166200.4A 2021-02-05 2021-02-05 一种基于声纹认证的配电网调度身份认证系统 Active CN112992156B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110166200.4A CN112992156B (zh) 2021-02-05 2021-02-05 一种基于声纹认证的配电网调度身份认证系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110166200.4A CN112992156B (zh) 2021-02-05 2021-02-05 一种基于声纹认证的配电网调度身份认证系统

Publications (2)

Publication Number Publication Date
CN112992156A true CN112992156A (zh) 2021-06-18
CN112992156B CN112992156B (zh) 2022-01-04

Family

ID=76348651

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110166200.4A Active CN112992156B (zh) 2021-02-05 2021-02-05 一种基于声纹认证的配电网调度身份认证系统

Country Status (1)

Country Link
CN (1) CN112992156B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116895273A (zh) * 2023-09-11 2023-10-17 南京硅基智能科技有限公司 合成音频的输出方法及装置、存储介质、电子装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102543084A (zh) * 2010-12-29 2012-07-04 盛乐信息技术(上海)有限公司 在线声纹认证系统及其实现方法
US20120330663A1 (en) * 2011-06-27 2012-12-27 Hon Hai Precision Industry Co., Ltd. Identity authentication system and method
CN109256138A (zh) * 2018-08-13 2019-01-22 平安科技(深圳)有限公司 身份验证方法、终端设备及计算机可读存储介质
WO2019136912A1 (zh) * 2018-01-12 2019-07-18 平安科技(深圳)有限公司 电子装置、身份验证的方法、系统及存储介质
CN112164404A (zh) * 2020-10-28 2021-01-01 广西电网有限责任公司贺州供电局 一种基于声纹识别技术的远程身份认证方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102543084A (zh) * 2010-12-29 2012-07-04 盛乐信息技术(上海)有限公司 在线声纹认证系统及其实现方法
US20120330663A1 (en) * 2011-06-27 2012-12-27 Hon Hai Precision Industry Co., Ltd. Identity authentication system and method
WO2019136912A1 (zh) * 2018-01-12 2019-07-18 平安科技(深圳)有限公司 电子装置、身份验证的方法、系统及存储介质
CN109256138A (zh) * 2018-08-13 2019-01-22 平安科技(深圳)有限公司 身份验证方法、终端设备及计算机可读存储介质
CN112164404A (zh) * 2020-10-28 2021-01-01 广西电网有限责任公司贺州供电局 一种基于声纹识别技术的远程身份认证方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李秋华等: "基于声纹识别和语音识别的网络账号身份认证系统", 《信息网络安全》 *
王东等: "基于音频比对的声纹识别技术", 《佛山科学技术学院学报(自然科学版)》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116895273A (zh) * 2023-09-11 2023-10-17 南京硅基智能科技有限公司 合成音频的输出方法及装置、存储介质、电子装置
CN116895273B (zh) * 2023-09-11 2023-12-26 南京硅基智能科技有限公司 合成音频的输出方法及装置、存储介质、电子装置

Also Published As

Publication number Publication date
CN112992156B (zh) 2022-01-04

Similar Documents

Publication Publication Date Title
EP2993616A1 (en) Method and apparatus for generating facial feature verification model
CN111915148B (zh) 一种基于信息技术的课堂教学评价方法和系统
CN107452385A (zh) 一种基于语音的数据评价方法及装置
CN112069970B (zh) 课堂教学事件分析方法及装置
CN104538035B (zh) 一种基于Fisher超向量的说话人识别方法及系统
CN112700325A (zh) 一种基于Stacking集成学习的网贷回头客预测的方法
CN109917200B (zh) 列车牵引变流器故障诊断方法、系统、设备及存储介质
CN109492859B (zh) 基于神经网络模型的员工分类方法及装置、设备、介质
CN112992156B (zh) 一种基于声纹认证的配电网调度身份认证系统
CN113535848A (zh) 基于区块链的征信等级确定方法、装置、设备及存储介质
CN116896452B (zh) 基于数据处理的计算机网络信息安全管理方法及系统
CN110796336B (zh) 一种基于数据分析的审计项目实施质量监测方法和设备
CN109272262B (zh) 一种自然语言特征的分析方法
CN116611447A (zh) 一种基于深度学习方法的信息抽取和语义匹配系统及方法
CN112558512A (zh) 基于大数据与物联网技术的智慧控申系统
CN113673421A (zh) 基于视频流的定损方法、装置、设备及存储介质
CN110956471A (zh) 装修行业征信数据的分析方法
CN116682414B (zh) 一种基于大数据的方言语音识别系统
CN115001941B (zh) 一种通信网管故障的确定方法及装置
CN113642336B (zh) 一种基于SaaS的保险自动问答方法及系统
CN116389644B (zh) 一种基于大数据分析的外呼系统
KR102116186B1 (ko) 선진특허분류 기반의 핵심기술 추출 시스템
CN117725173A (zh) 一种数据处理方法和装置
CN116385222A (zh) 教学质量评价方法、装置、电子设备及存储介质
CN118038733A (zh) 一种音视频全方位拟真培训方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant