CN111628866B - 神经网络校验方法、装置、设备及可读存储介质 - Google Patents
神经网络校验方法、装置、设备及可读存储介质 Download PDFInfo
- Publication number
- CN111628866B CN111628866B CN202010453606.6A CN202010453606A CN111628866B CN 111628866 B CN111628866 B CN 111628866B CN 202010453606 A CN202010453606 A CN 202010453606A CN 111628866 B CN111628866 B CN 111628866B
- Authority
- CN
- China
- Prior art keywords
- hash
- data
- preset
- neural network
- hashed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/32—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
- H04L9/3236—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using cryptographic hash functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/06—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols the encryption apparatus using shift registers or memories for block-wise or stream coding, e.g. DES systems or RC4; Hash functions; Pseudorandom sequence generators
- H04L9/0643—Hash functions, e.g. MD5, SHA, HMAC or f9 MAC
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Power Engineering (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本申请公开了一种神经网络校验方法、装置、设备及可读存储介质,所述神经网络校验方法包括:获取预设可执行程序对应的待哈希数据,并将所述待哈希数据输入预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果,进而将所述哈希编码结果转化为目标执行程序,并基于所述目标执行程序,校验所述待哈希数据对应的待校验神经网络。本申请解决了神经网络校验安全性低的技术问题。
Description
技术领域
本申请涉及金融科技(Fintech)的人工智能领域,尤其涉及一种神经网络校验方法、装置、设备及可读存储介质。
背景技术
随着金融科技,尤其是互联网科技金融的不断发展,越来越多的技术(如分布式、区块链Blockchain、人工智能等)应用在金融领域,但金融业也对技术提出了更高的要求,如对金融业对应待办事项的分发也有更高的要求。
随着计算机软件和人工智能的不断发展,神经网络的应用也越来越广泛,神经网络越来越容易遭受非法攻击,进而导致神经网络中的网络参数被篡改,造成了极大的安全隐患,例如,违法人员篡改人脸识别模型中的神经网络参数,进而窃取用户手机的人脸解锁或者付款权限等,目前,通常通过在训练数据集中添加更多的对抗样本,以避免部分对神经网络的非法攻击,但是,神经网络在遭受非法攻击后,神经网络的网络参数将遭受篡改,而用户通常无法得知网络参数已遭受篡改的信息,进而为神经网络带来持续性的安全隐患,所以,神经网络仍然存在极大的安全隐患,所以,现有技术中存在神经网络安全性低的技术问题。
发明内容
本申请的主要目的在于提供一种神经网络校验方法、装置、设备及可读存储介质,旨在解决现有技术中神经网络安全性低的技术问题。
为实现上述目的,本申请提供一种神经网络校验方法,所述神经网络校验方法应用于神经网络校验设备,所述神经网络校验方法包括:
获取预设可执行程序对应的待哈希数据,并将所述待哈希数据输入预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果;
将所述哈希编码结果转化为目标执行程序,并基于所述目标执行程序,校验所述待哈希数据对应的待校验神经网络。
可选地,所述获取预设可执行程序对应的待哈希数据,并将所述待哈希数据输入预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果的步骤包括:
获取所述预设可执行程序对应的待验证数据,并确定所述预设可执行程序对应的待校验神经网络;
将所述待验证数据输入所述待校验神经网络,输出所述待哈希数据;
将所述待哈希数据输入所述预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果。
可选地,所述将所述待哈希数据输入所述预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果的步骤包括:
将所述待哈希数据输入预设哈希层,对所述待哈希数据进行极化,获得极化结果;
提取所述极化结果中每一比特位对应的极化标识,并基于各所述极化标识,生成所述哈希编码结果。
可选地,所述目标执行程序包括解密程序,
所述基于所述目标执行程序,校验所述待哈希数据对应的待校验神经网络的步骤包括:
获取待解密数据和所述待解密数据对应的标准明文数据,并基于所述解密程序,对所述待解密程序进行解密处理,获得目标明文数据;
将所述目标明文数据与所述标准明文数据进行比对,若所述目标明文数据与所述标准明文数据一致,则判定所述待校验神经网络的网络参数未遭受篡改;
若所述目标明文数据与所述标准明文数据不一致,则判定所述网络参数已遭受篡改。
可选地,在所述获取预设可执行程序对应的待哈希数据,并将所述待哈希数据输入预设哈希层,对所述待验证数据进行哈希编码,获得哈希编码结果的步骤之前,所述神经网络校验方法包括:
提取待训练哈希层,并获取所述预设可执行程序对应的目标哈希编码结果和训练数据;
基于所述目标哈希编码结果和所述训练数据,对所述待训练哈希层进行迭代训练,以优化所述待训练哈希层对应的极化损失函数,直至所述待训练哈希层达到预设迭代结束条件,获得所述预设哈希层。
可选地,所述基于所述目标哈希编码结果和所述训练数据,对所述待训练哈希层进行迭代训练,以优化所述待训练哈希层对应的极化损失函数,直至所述待训练哈希层达到预设迭代结束条件,获得所述预设哈希层的步骤包括:
将所述训练数据输入所述待训练哈希层,以基于所述极化损失函数,对所述训练数据进行哈希编码,获得初始哈希编码结果;
计算所述初始哈希编码结果和所述目标哈希编码结果之间的训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对;
若所述训练汉明距离大于所述预设汉明距离阀值,则判定所述待训练哈希层未达到所述预设迭代结束条件,并基于所述初始哈希编码结果优化所述极化损失函数;
基于优化后的所述极化损失函数,重新进行所述待训练哈希层的训练,直至所述训练汉明距离小于或者等于所述预设汉明距离阀值;
若所述训练汉明距离小于或者等于所述预设汉明距离阀值,则判定所述待训练哈希层达到所述预设迭代结束条件,并将所述待训练哈希层作为所述预设哈希层。
可选地,所述目标哈希编码结果至少包括一个目标哈希编码向量,
所述获取所述预设可执行程序对应的目标哈希编码结果的步骤包括:
获取所述预设可执行程序对应的机器代码流,并对所述机器代码流进行分割,获得所述机器代码流对应的各机器码块;
分别将每一所述机器码块转化为所述目标哈希编码向量。
本申请还提供一种神经网络校验装置,所述神经网络校验装置为虚拟装置,且所述神经网络校验装置应用于神经网络校验设备,所述神经网络校验装置包括:
哈希编码模块,用于获取预设可执行程序对应的待哈希数据,并将所述待哈希数据输入预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果;
校验模块,用于将所述哈希编码结果转化为目标执行程序,并基于所述目标执行程序,校验所述待哈希数据对应的待校验神经网络。
可选地,所述哈希编码模块包括:
确定单元,用于获取所述预设可执行程序对应的待验证数据,并确定所述预设可执行程序对应的待校验神经网络;
输入单元,用于将所述待验证数据输入所述待校验神经网络,输出所述待哈希数据;
哈希编码单元,用于将所述待哈希数据输入所述预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果。
可选地,所述哈希编码单元包括:
极化子单元,用于将所述待哈希数据输入预设哈希层,对所述待哈希数据进行极化,获得极化结果;
生成子单元,用于提取所述极化结果中每一比特位对应的极化标识,并基于各所述极化标识,生成所述哈希编码结果。
可选地,所述校验模块包括:
解密单元,用于获取待解密数据和所述待解密数据对应的标准明文数据,并基于所述解密程序,对所述待解密程序进行解密处理,获得目标明文数据;
第一判定单元,用于将所述目标明文数据与所述标准明文数据进行比对,若所述目标明文数据与所述标准明文数据一致,则判定所述待校验神经网络的网络参数未遭受篡改;
第二判定单元,用于若所述目标明文数据与所述标准明文数据不一致,则判定所述网络参数已遭受篡改。
可选地,所述神经网络校验装置还包括:
获取模块,用于提取待训练哈希层,并获取所述预设可执行程序对应的目标哈希编码结果和训练数据;
迭代训练模块,用于基于所述目标哈希编码结果和所述训练数据,对所述待训练哈希层进行迭代训练,以优化所述待训练哈希层对应的极化损失函数,直至所述待训练哈希层达到预设迭代结束条件,获得所述预设哈希层。
可选地,所述迭代训练模块包括:
哈希单元,用于将所述训练数据输入所述待训练哈希层,以基于所述极化损失函数,对所述训练数据进行哈希编码,获得初始哈希编码结果;
计算单元,用于计算所述初始哈希编码结果和所述目标哈希编码结果之间的训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对;
优化单元,用于若所述训练汉明距离大于所述预设汉明距离阀值,则判定所述待训练哈希层未达到所述预设迭代结束条件,并基于所述初始哈希编码结果优化所述极化损失函数;
训练单元,用于基于优化后的所述极化损失函数,重新进行所述待训练哈希层的训练,直至所述训练汉明距离小于或者等于所述预设汉明距离阀值;
确定单元,用于若所述训练汉明距离小于或者等于所述预设汉明距离阀值,则判定所述待训练哈希层达到所述预设迭代结束条件,并将所述待训练哈希层作为所述预设哈希层。
可选地,所述获取模块包括:
分割单元,用于对所述待补全语句进行依存句法分析,确定所述待补全语句是否缺少预设语句成分;
第二执行模块,用于获取所述预设可执行程序对应的机器代码流,并对所述机器代码流进行分割,获得所述机器代码流对应的各机器码块;
转化单元,用于分别将每一所述机器码块转化为所述目标哈希编码向量。
本申请还提供一种神经网络校验设备,所述神经网络校验设备为实体设备,所述神经网络校验设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的所述神经网络校验方法的程序,所述神经网络校验方法的程序被处理器执行时可实现如上述的神经网络校验方法的步骤。
本申请还提供一种可读存储介质,所述可读存储介质上存储有实现神经网络校验方法的程序,所述神经网络校验方法的程序被处理器执行时实现如上述的神经网络校验方法的步骤。
本申请通过获取预设可执行程序对应的待哈希数据,并将所述待哈希数据输入预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果,进而将所述哈希编码结果转化为目标执行程序,并基于所述目标执行程序,校验所述待哈希数据对应的待校验神经网络。也即,本申请提供了一种基于预设可执行程序的神经网络校验方法,也即,将预设可执行程序对应的待哈希数据输入预设哈希层,即可进行对所述待哈希数据的哈希编码,获得哈希编码结果,进而将所述哈希编码结果转化为目标执行程序,进而通过判定所述目标执行程序是否可执行,校验所述待校验神经网络,也即,若所述目标执行程序可执行,则判定所述待校验神经网络未遭受非法篡改,若所述目标执行程序不可执行,则判定所述待校验神经网络已遭受非法篡改,进而实现了检测待校验神经网络是否已遭受非法篡改的目的,进而解决了神经网络的安全隐患,提高了神经网络的安全性,所以,解决了神经网络安全性低的技术问题。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请神经网络校验方法第一实施例的流程示意图;
图2为本申请神经网络校验方法第二实施例的流程示意图;
图3为本申请实施例方案涉及的硬件运行环境的设备结构示意图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本申请实施例提供一种神经网络校验方法,在本申请神经网络校验方法的第一实施例中,参照图1,所述神经网络校验方法包括:
步骤S10,获取预设可执行程序对应的待哈希数据,并将所述待哈希数据输入预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果;
在本实施例中,需要说明的是,所述待哈希数据为预设深度极化网络中的隐藏层输出的中间向量或者中间矩阵,其中,所述隐藏层为所述预设深度极化网络的数据处理层,用于进行卷积处理、池化处理等数据处理过程,且所述隐藏层为基于深度学习训练好的一层或者多层神经网络,所述预设哈希层为所述预设深度极化网络的输出层,用于对所述待哈希数据进行哈希编码,并输出对应的哈希编码结果,且所述预设哈希层为基于深度学习训练好的一层或者多层神经网络,所述待哈希数据可从预设存储数据库中进行提取或者将预设深度极化网络的隐藏层的输出作为所述待哈希数据,所预设述深度极化网络为基于所述预设可执行程序关联的训练数据集和目标哈希编码值训练而获得的神经网络,且针对于所述预设深度极化网络,对于属于同一分类的输入样本,可输出相同的哈希编码值,其中,所述目标哈希编码值由所述预设可执行程序生成的哈希编码值。
获取预设可执行程序对应的待哈希数据,并将所述待哈希数据输入预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果,具体地,获取预设可执行程序关联的待验证数据,将所述待验证数据输入预设深度极化网络的隐藏层,对所述待验证数据进行数据处理,其中,所述数据处理包括卷积处理、池化处理等,进而获得待哈希数据,并将所述待哈希数据输入预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果,其中,所述待验证数据至少包括一个待验证样本。
其中,所述获取预设可执行程序对应的待哈希数据,并将所述待哈希数据输入预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果的步骤包括:
步骤S11,获取所述预设可执行程序对应的待验证数据,并确定所述预设可执行程序对应的待校验神经网络;
在本实施例中,需要说明的是,所述待校验神经网络为所述预设深度极化网络的隐藏层,所述待验证数据为所述预设可执行程度对应的待验证数据分类中的样本。
获取所述预设可执行程序对应的待验证数据,并确定所述预设可执行程序对应的待校验神经网络,具体地,从预设数据库中提取所述预设可执行程序对应的待验证数据,并确定所述预设可执行程序对应的预设深度极化网络的隐藏层,并将所述隐藏层作为所述待校验神经网络。
步骤S12,将所述待验证数据输入所述待校验神经网络,输出所述待哈希数据;
在本实施例中,需要说明的是,所述待验证数据可用待验证矩阵进行表示,其中,所述待验证矩阵为存储各所述待验证样本的编码矩阵,所述待验证矩阵的每一列对应一所述待验证样本,所述待验证矩阵的每一行对应所述待验证样本对应的各特征。
将所述待验证数据输入所述待校验神经网络,输出所述待哈希数据,具体地,将所述待验证矩阵输入所述待校验神经网络,对所述待验证矩阵进行数据处理,获得待哈希矩阵,并将所述待哈希矩阵作为所述待哈希数据,其中,所述数据处理包括卷积处理、池化处理等。
步骤S13,将所述待哈希数据输入所述预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果。
在本实施例中,需要说明的是,所述待哈希数据可用待哈希矩阵进行表示,所述待哈希矩阵为所述中间矩阵。
将所述待哈希数据输入所述预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果,具体地,将所述待哈希矩阵输入所述预设哈希层,对所述待哈希矩阵中的每一比特位进行极化,获得目标极化矩阵,进而提取所述目标极化矩阵中每一比特位的极化标识,并基于各所述极化标识,生成所述哈希编码结果,其中,所述极化标识为所述比特位的正负符号,例如,假设所述待哈希矩阵为(a,b),所述目标极化矩阵为(a,-b),进而比特位a的极化标识为正,比特位-b的极化标识为负,进而所述哈希编码结果为(1,0)。
其中,所述将所述待哈希数据输入所述预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果的步骤包括:
步骤S131,将所述待哈希数据输入预设哈希层,对所述待哈希数据进行极化,获得极化结果;
在本实施例中,需要说明的是,所述待哈希数据包括待哈希矩阵,所述待哈希矩阵至少包括一个比特位,其中,所述待哈希矩阵中的每一数值对应一所述比特位,例如,假设所述待哈希矩阵为3*3的矩阵,则所述待哈希矩阵包括9个比特位,所述预设哈希层至少包括一个极化输出通道,其中,所述极化输出通道为用于输出极化后的待哈希矩阵上的每一数值的输出通道,一所述极化输出通道对应一所述比特位。
将所述待哈希数据输入预设哈希层,对所述待哈希数据进行极化,获得极化结果,具体地,将所述待哈希矩阵输入所述预设哈希层,并基于各所述比特位在所述待哈希矩阵中的位置,为各所述比特位匹配对应的极化输出通道,进而基于各所述极化输出通道,为所述待哈希矩阵中的各比特位赋予极化标识,获得目标极化矩阵,并将所述目标极化矩阵作为所述极化结果。
步骤S132,提取所述极化结果中每一比特位对应的极化标识,并基于各所述极化标识,生成所述哈希编码结果。
在本实施例中,提取所述极化结果中每一比特位对应的极化标识,并基于各所述极化标识,生成所述哈希编码结果,具体地,提取所述极化结果中每一比特位对应的极化标识,并基于各所述极化标识和各所述极化标识在所述极化结果对应的目标极化矩阵中的位置,生成所述待哈希数据对应的哈希编码矩阵,并将所述哈希编码矩阵作为所述哈希编码结果,例如,假设所述极化结果对应的目标极化矩阵为1*3的向量(a,-b,c),则a对的极化标识为正,-b对应的极化标识为负,c对应的极化标识为正,进而所述哈希编码结果为(1,0,1)。
步骤S20,将所述哈希编码结果转化为目标执行程序,并基于所述目标执行程序,校验所述待哈希数据对应的待校验神经网络。
在本实施例中,需要说明的是,所述哈希编码结果可由哈希编码矩阵进行表示,所述哈希编码矩阵至少包括一个比特位,且所述哈希编码矩阵的每一列为一哈希编码向量,且一所述哈希编码向量对应一所述待验证样本。
将所述哈希编码结果转化为目标执行程序,并基于所述目标执行程序,校验所述待哈希数据对应的待校验神经网络,具体地,基于所述预设可执行程序对应的各二进制目标向量和所述目标哈希编码值之间的对应关系,获取所述哈希编码矩阵转化为对应的各二进制向量,并将各所述二进制向量组合目标执行程序,进一步地,执行所述目标执行程序,并确定所述目标执行程序是否执行成功,若所述目标执行程序执行成功,则判定所述待校验神经网络的网络参数未遭受篡改,若所述目标执行程序执行失败,则判定所述待校验神经网络的网络参数已遭受篡改,所述目标执行程序包括用于对神经网络输出值进行后处理的程序、在预设硬件设备或者硬件下执行的程序等,其中,所述后处理包括变换、解密和传输等,所述预设硬件结构包括结构CPU、GPU和IOT设备等。
其中,所述目标执行程序包括解密程序,
所述基于所述目标执行程序,校验所述待哈希数据对应的待校验神经网络的步骤包括:
步骤S21,获取待解密数据和所述待解密数据对应的标准明文数据,并基于所述解密程序,对所述待解密程序进行解密处理,获得目标明文数据;
在本实施例中,获取待解密数据和所述待解密数据对应的标准明文数据,并基于所述解密程序,对所述待解密程序进行解密处理,获得目标明文数据,具体地,从预设数据库中提取待解密数据和所述待解密数据对应的标准明文数据,并获取所述解密程序对应的密钥,其中,所述密钥可设置为所述解密程序对应的二进制代码,进而对所述密钥集合所述待解密数据进行异或操作,获得所述目标明文数据。
步骤S22,将所述目标明文数据与所述标准明文数据进行比对,若所述目标明文数据与所述标准明文数据一致,则判定所述待校验神经网络的网络参数未遭受篡改;
在本实施例中,将所述目标明文数据与所述标准明文数据进行比对,若所述目标明文数据与所述标准明文数据一致,则判定所述待校验神经网络的网络参数未遭受篡改,具体地,对所述目标明文数据和所述标准明文数据进行异或操作,以判定所述目标明文数据与所述标准明文数据是否一致,若所述目标明文数据与所述标准明文数据一致,则证明所述神经网络的输出并未发生改变,进而判定所述待校验神经网络的网络参数未遭受篡改。
步骤S23,若所述目标明文数据与所述标准明文数据不一致,则判定所述网络参数已遭受篡改。
在本实施例中,若所述目标明文数据与所述标准明文数据不一致,则判定所述网络参数已遭受篡改,具体地,若所述目标明文数据与所述标准明文数据不一致,则证明所述神经网络的输出并已发生改变,进而判定所述待校验神经网络的网络参数已遭受篡改。
本实施例通过获取预设可执行程序对应的待哈希数据,并将所述待哈希数据输入预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果,进而将所述哈希编码结果转化为目标执行程序,并基于所述目标执行程序,校验所述待哈希数据对应的待校验神经网络。也即,本实施例提供了一种基于预设可执行程序的神经网络校验方法,也即,将预设可执行程序对应的待哈希数据输入预设哈希层,即可进行对所述待哈希数据的哈希编码,获得哈希编码结果,进而将所述哈希编码结果转化为目标执行程序,进而通过判定所述目标执行程序是否可执行,校验所述待校验神经网络,也即,若所述目标执行程序可执行,则判定所述待校验神经网络未遭受非法篡改,若所述目标执行程序不可执行,则判定所述待校验神经网络已遭受非法篡改,进而实现了检测待校验神经网络是否已遭受非法篡改的目的,进而解决了神经网络的安全隐患,提高了神经网络的安全性,所以,解决了神经网络安全性低的技术问题。
进一步地,参照图2,基于本申请中第一实施例,在本申请的另一实施例中,在所述获取预设可执行程序对应的待哈希数据,并将所述待哈希数据输入预设哈希层,对所述待验证数据进行哈希编码,获得哈希编码结果的步骤之前,所述神经网络校验方法包括:
步骤C10,提取待训练哈希层,并获取所述预设可执行程序对应的目标哈希编码结果和训练数据;
在本实施例中,需要说明的是,所述待训练哈希层为未训练好的一层或者多层神经网络,所述训练数据为用于训练所述待训练哈希层的数据,且所述训练数据为所述隐藏层输出的数据,所述训练数据对应一个或者多个训练样本分类,所述目标哈希编码结果至少包括一个目标哈希编码向量,其中,一所述目标哈希编码向量对应一所述训练样本分类。
提取待训练哈希层,并获取所述预设可执行程序对应的目标哈希编码结果和训练数据,具体地,从预设数据库中提取待训练哈希层和各训练样本分类,并将各所述训练样本分类中的训练样本输入所述隐藏层,输出所述训练数据,进而获取所述预设可执行程序对应的机器代码流,并对所述机器代码流进行分割,获得所述机器代码流对应的各二进制目标向量,进而将各所述二进制目标向量作为各所述训练样本分类对应的目标哈希编码向量。
另外地,为了获取所述目标哈希编码结果,还可通过对所述预设哈希层对应的训练数据进行随机目标哈希编码,以基于预设高斯随机方法生成所述训练数据对应的随机哈希编码结果,其中,所述随机哈希编码结果至少包括一个随机哈希向量,且每一所述训练样本分类对应一个或者多个随机哈希向量,其中,一所述训练样本分类中的一训练样本对应一所述随机哈希向量,进而确定所述随机哈希编码结果中属于同一所述训练样本分类的各随机哈希向量,并分别求取每一所述训练样本分类对应的各随机哈希向量的平均值,获得各所述分类样本对应的平均哈希向量,进而基于各所述平均哈希向量,生成所述目标哈希编码结果,也即,将所述平均哈希向量作为对应的训练样本分类对应的目标哈希编码向量,其中,各所述目标哈希编码向量可设置为与所述预设可执行程序相对应,也即,各所述目标哈希编码向量可转化为所述预设可执行程序,进而在校验所述待校验神经网络时,向所述预设深度极化网络输入多个输入样本,输出各所述输入样本对应的哈希编码值,进而计算每一训练样本分类对应的输入样本对应的哈希编码值的平均值,即可获得各训练样本分类对应的哈希编码向量,进而将各所述哈希编码向量转化为目标执行程序,以校验所述待校验神经网络。
其中,所述目标哈希编码结果至少包括一个目标哈希编码向量,
所述获取所述预设可执行程序对应的目标哈希编码结果的步骤包括:
步骤C11,获取所述预设可执行程序对应的机器代码流,并对所述机器代码流进行分割,获得所述机器代码流对应的各机器码块;
在本实施例中,需要说明的是,所述机器代码流为所述预设可执行程序的二进制机器代码,且所述二进制机器代码的长度小于或者等于所述待校验神经网络中的滤波器的数量。
获取所述预设可执行程序对应的机器代码流,并对所述机器代码流进行分割,获得所述机器代码流对应的各机器码块,具体地,获取所述待校验神经网络中每层神经网络的滤波器数量,并基于所述滤波器数量,将所述机器代码流分割为各机器码块,例如,假设所述机器代码流的长度为N,所述待校验神经网络中每层神经网络的滤波器数量为K,则所述机器码块的长度为K,所述机器码块的数量为N/K。
步骤C12,分别将每一所述机器码块转化为所述目标哈希编码向量。
在本实施例中,分别将每一所述机器码块转化为所述目标哈希编码向量,具体地,分别将每一所述机器码块转化为向量,获得各所述目标哈希编码向量,例如,假设所述机器码块为01010101,则对应的所述目标哈希编码向量为(0,1,0,1,0,1,0,1)。
步骤C20,基于所述目标哈希编码结果和所述训练数据,对所述待训练哈希层进行迭代训练,以优化所述待训练哈希层对应的极化损失函数,直至所述待训练哈希层达到预设迭代结束条件,获得所述预设哈希层。
在本实施例中,在本实施例中,需要说明的是,所述预设迭代结束条件包括达到预设迭代次数阀值、极化损失函数收敛等,所述迭代训练包括一轮或者多轮训练。
基于所述目标哈希编码结果和所述训练数据,对所述待训练哈希层进行迭代训练,以优化所述待训练哈希层对应的极化损失函数,直至所述待训练哈希层达到预设迭代结束条件,获得所述预设哈希层,具体地,将所述训练数据输入所述待训练哈希层,基于所述目标哈希编码结果,对所述待训练哈希层进行训练更新,并判断训练更新后的所述待训练哈希层是否满足预设迭代结束条件,若训练更新后的所述待训练哈希层满足预设迭代结束条件,则将训练更新后的所述待训练哈希层作为所述预设哈希层,若训练更新后的所述待训练哈希层不满足预设迭代结束条件,则获取本轮训练的初始哈希编码结果,并基于所述初始哈希编码结果和所述目标哈希编码结果,优化所述待训练哈希层的各极化输出通道对应的所述极化损失函数,并重新对优化后的所述待训练哈希层进行训练更新,直至训练更新后的所述待训练哈希层满足预设迭代结束条件。
其中,所述基于所述目标哈希编码结果和所述训练数据,对所述待训练哈希层进行迭代训练,以优化所述待训练哈希层对应的极化损失函数,直至所述待训练哈希层达到预设迭代结束条件,获得所述预设哈希层的步骤包括:
步骤C21,将所述训练数据输入所述待训练哈希层,以基于所述极化损失函数,对所述训练数据进行哈希编码,获得初始哈希编码结果;
在本实施例中,将所述训练数据输入所述待训练哈希层,以基于所述极化损失函数,对所述训练数据进行哈希编码,获得初始哈希编码结果,具体地,将所述训练数据对应的待哈希训练矩阵输入所述待训练哈希层,以基于所述极化损失函数,对所述待哈希训练矩阵的每一比特位进行强制极化,获得所述待哈希训练矩阵对应的强制极化矩阵,进而基于所述强制极化矩阵中每一比特位对应的极化标识,对所述训练数据进行哈希编码,获得初始哈希编码结果,其中,所述极化损失函数如下所示,
L(v,t^c)=max(m-v*t^c,0)
其中,L为所述极化损失函数,m为预设强制极化参数,v为所述待哈希训练矩阵中每一比特位上的数值,且v的绝对值大于m,t^c为所述比特位对应的目标哈希值,且t^c={-1,+1},且所述极化损失函数收敛于0,例如,假设m为1,t^c为1,v为-1,此时,L=2,若要使得极化损失函数收敛于0,则需要对v进行强制极化,使得v为1,此时L=0,需要说明的是,所述待哈希训练矩阵中每一比特位对应所述待训练哈希层的一所述极化输出通道,每一所述极化输出通道对应的预设强制极化参数均由对所述待训练哈希层进行训练而得到,进而每一所述极化输出通道对应的预设强制极化参数可能相同,也可能不同,其中,所述极化输出通道用于基于所述预设强制极化参数,通过对应的所述极化损失函数,强制极化所述待哈希训练矩阵中对应的比特位的编码数值,并输出所述初始编码结果中对应的比特位的编码数值。
步骤C22,计算所述初始哈希编码结果和所述目标哈希编码结果之间的训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对;
在本实施例中,计算所述初始哈希编码结果和所述目标哈希编码结果之间的训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对,具体地,将所述初始哈希编码结果的每一比特位上的数值与所述目标哈希编码结果的每一比特位上的数值进行比对,确定所述初始哈希编码结果和所述目标哈希编码结果比特位不相同的比特位数量,并将所述比特位数量作为所述训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对,例如,假设所述初始哈希编码结果为向量(1,1,1,1),所述目标哈希编码结果为向量(-1,1,1,-1),则所述比特位数量为2,则所述训练汉明距离为2。
步骤C23,若所述训练汉明距离大于所述预设汉明距离阀值,则判定所述待训练哈希层未达到所述预设迭代结束条件,并基于所述初始哈希编码结果优化所述极化损失函数;
在本实施例中,若所述训练汉明距离大于所述预设汉明距离阀值,则判定所述待训练哈希层未达到所述预设迭代结束条件,并基于所述初始哈希编码结果优化所述极化损失函数,具体地,若所述训练汉明距离大于所述预设汉明距离阀值,则判定所述极化损失函数并未在所述待哈希训练矩阵的所有比特位上收敛,也即,所述极化损失函数未收敛,进而判定所述待训练哈希层未达到所述预设迭代结束条件,进而确定所述初始哈希编码结果和所述目标哈希编码结果之间的一个或者多个不同比特位,并确定各所述不同比特位对应的未收敛极化输出通道,并调整各所述未收敛极化输出通道对应的极化损失函数中的预设强制极化参数,其中,所述未收敛极化输出通道为未收敛的极化损失函数对应的极化输出通道,其中,所述待训练哈希层至少包括一个极化输出通道,且所述极化输出通道的数量与所述待哈希训练矩阵的比特位的数量相关,也即,一所述比特位对应一所述极化输出通道。
步骤C24,基于优化后的所述极化损失函数,重新进行所述待训练哈希层的训练,直至所述训练汉明距离小于或者等于所述预设汉明距离阀值;
在本实施例中,基于优化后的所述极化损失函数,重新进行所述待训练哈希层的训练,直至所述训练汉明距离小于或者等于所述预设汉明距离阀值,具体地,重新获取所述训练数据对应的待哈希训练矩阵,并基于重新获取的待哈希训练矩阵,对优化后的所述极化损失函数对应的待训练哈希层重新进行迭代训练,以继续优化所述极化损失函数,直至所述训练汉明距离小于或者等于所述预设汉明距离阀值。
步骤C25,若所述训练汉明距离小于或者等于所述预设汉明距离阀值,则判定所述待训练哈希层达到所述预设迭代结束条件,并将所述待训练哈希层作为所述预设哈希层。
在本实施例中,若所述训练汉明距离小于或者等于所述预设汉明距离阀值,则判定所述待训练哈希层达到所述预设迭代结束条件,并将所述待训练哈希层作为所述预设哈希层,若所述训练汉明距离小于或者等于所述预设汉明距离阀值,则判定所述待训练哈希层达到所述预设迭代结束条件,也即,所述待训练哈希层中各所述极化输出通道对应的极化损失函数收敛,进而将所述待训练哈希层作为所述预设哈希层。
本实施例通过提取待训练哈希层,并获取所述预设可执行程序对应的目标哈希编码结果和训练数据,并基于所述目标哈希编码结果和所述训练数据,对所述待训练哈希层进行迭代训练,以优化所述待训练哈希层对应的极化损失函数,直至所述待训练哈希层达到预设迭代结束条件,获得所述预设哈希层。也即,本实施例提供了一种基于深度学习直接训练预设哈希层的方法,也即,基于所述训练数据和所述目标哈希编码结果,对所述待训练哈希层进行迭代训练,以优化所述待训练哈希层对应的极化损失函数,直至所述待训练哈希层达到预设迭代结束条件,获得所述预设哈希层,且对于输入的每一样本,所述预设哈希层对应的深度极化网络均能输出样本所属样本分类对应的目标哈希编码向量,进而为解决神经网络安全性低的技术问题奠定了基础。
参照图3,图3是本申请实施例方案涉及的硬件运行环境的设备结构示意图。
如图3所示,该神经网络校验设备可以包括:处理器1001,例如CPU,存储器1005,通信总线1002。其中,通信总线1002用于实现处理器1001和存储器1005之间的连接通信。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储设备。
可选地,该神经网络校验设备还可以包括矩形用户接口、网络接口、摄像头、RF(Radio Frequency,射频)电路,传感器、音频电路、WiFi模块等等。矩形用户接口可以包括显示屏(Display)、输入子模块比如键盘(Keyboard),可选矩形用户接口还可以包括标准的有线接口、无线接口。网络接口可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。
本领域技术人员可以理解,图3中示出的神经网络校验设备结构并不构成对神经网络校验设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图3所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块以及神经网络校验程序。操作系统是管理和控制神经网络校验设备硬件和软件资源的程序,支持神经网络校验程序以及其它软件和/或程序的运行。网络通信模块用于实现存储器1005内部各组件之间的通信,以及与神经网络校验系统中其它硬件和软件之间通信。
在图3所示的神经网络校验设备中,处理器1001用于执行存储器1005中存储的神经网络校验程序,实现上述任一项所述的神经网络校验方法的步骤。
本申请神经网络校验设备具体实施方式与上述神经网络校验方法各实施例基本相同,在此不再赘述。
本申请实施例还提供一种神经网络校验装置,所述神经网络校验装置应用于神经网络校验设备,所述神经网络校验装置包括:
哈希编码模块,用于获取预设可执行程序对应的待哈希数据,并将所述待哈希数据输入预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果;
校验模块,用于将所述哈希编码结果转化为目标执行程序,并基于所述目标执行程序,校验所述待哈希数据对应的待校验神经网络。
可选地,所述哈希编码模块包括:
确定单元,用于获取所述预设可执行程序对应的待验证数据,并确定所述预设可执行程序对应的待校验神经网络;
输入单元,用于将所述待验证数据输入所述待校验神经网络,输出所述待哈希数据;
哈希编码单元,用于将所述待哈希数据输入所述预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果。
可选地,所述哈希编码单元包括:
极化子单元,用于将所述待哈希数据输入预设哈希层,对所述待哈希数据进行极化,获得极化结果;
生成子单元,用于提取所述极化结果中每一比特位对应的极化标识,并基于各所述极化标识,生成所述哈希编码结果。
可选地,所述校验模块包括:
解密单元,用于获取待解密数据和所述待解密数据对应的标准明文数据,并基于所述解密程序,对所述待解密程序进行解密处理,获得目标明文数据;
第一判定单元,用于将所述目标明文数据与所述标准明文数据进行比对,若所述目标明文数据与所述标准明文数据一致,则判定所述待校验神经网络的网络参数未遭受篡改;
第二判定单元,用于若所述目标明文数据与所述标准明文数据不一致,则判定所述网络参数已遭受篡改。
可选地,所述神经网络校验装置还包括:
获取模块,用于提取待训练哈希层,并获取所述预设可执行程序对应的目标哈希编码结果和训练数据;
迭代训练模块,用于基于所述目标哈希编码结果和所述训练数据,对所述待训练哈希层进行迭代训练,以优化所述待训练哈希层对应的极化损失函数,直至所述待训练哈希层达到预设迭代结束条件,获得所述预设哈希层。
可选地,所述迭代训练模块包括:
哈希单元,用于将所述训练数据输入所述待训练哈希层,以基于所述极化损失函数,对所述训练数据进行哈希编码,获得初始哈希编码结果;
计算单元,用于计算所述初始哈希编码结果和所述目标哈希编码结果之间的训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对;
优化单元,用于若所述训练汉明距离大于所述预设汉明距离阀值,则判定所述待训练哈希层未达到所述预设迭代结束条件,并基于所述初始哈希编码结果优化所述极化损失函数;
训练单元,用于基于优化后的所述极化损失函数,重新进行所述待训练哈希层的训练,直至所述训练汉明距离小于或者等于所述预设汉明距离阀值;
确定单元,用于若所述训练汉明距离小于或者等于所述预设汉明距离阀值,则判定所述待训练哈希层达到所述预设迭代结束条件,并将所述待训练哈希层作为所述预设哈希层。
可选地,所述获取模块包括:
分割单元,用于对所述待补全语句进行依存句法分析,确定所述待补全语句是否缺少预设语句成分;
第二执行模块,用于获取所述预设可执行程序对应的机器代码流,并对所述机器代码流进行分割,获得所述机器代码流对应的各机器码块;
转化单元,用于分别将每一所述机器码块转化为所述目标哈希编码向量。
本申请神经网络校验装置的具体实施方式与上述神经网络校验方法各实施例基本相同,在此不再赘述。
本申请实施例提供了一种可读存储介质,且所述可读存储介质存储有一个或者一个以上程序,所述一个或者一个以上程序还可被一个或者一个以上的处理器执行以用于实现上述任一项所述的神经网络校验方法的步骤。
本申请可读存储介质具体实施方式与上述神经网络校验方法各实施例基本相同,在此不再赘述。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利处理范围内。
Claims (9)
1.一种神经网络校验方法,其特征在于,所述神经网络校验方法包括:
获取预设可执行程序对应的待哈希数据,并将所述待哈希数据输入预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果;
将由所述哈希编码结果转化的各二进制向量组合为目标执行程序,并通过确定所述目标执行程序是否执行成功,校验所述待哈希数据对应的待校验神经网络;
其中,所述获取预设可执行程序对应的待哈希数据,并将所述待哈希数据输入预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果的步骤包括:
获取所述预设可执行程序对应的待验证数据,并确定所述预设可执行程序对应的待校验神经网络;
将所述待验证数据输入所述待校验神经网络,输出所述待哈希数据;
将所述待哈希数据输入所述预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果。
2.如权利要求1所述神经网络校验方法,其特征在于,所述将所述待哈希数据输入所述预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果的步骤包括:
将所述待哈希数据输入预设哈希层,对所述待哈希数据进行极化,获得极化结果;
提取所述极化结果中每一比特位对应的极化标识,并基于各所述极化标识,生成所述哈希编码结果。
3.如权利要求1所述神经网络校验方法,其特征在于,所述目标执行程序包括解密程序,
所述基于所述目标执行程序,校验所述待哈希数据对应的待校验神经网络的步骤包括:
获取待解密数据和所述待解密数据对应的标准明文数据,并基于所述解密程序,对所述待解密数据进行解密处理,获得目标明文数据;
将所述目标明文数据与所述标准明文数据进行比对,若所述目标明文数据与所述标准明文数据一致,则判定所述待校验神经网络的网络参数未遭受篡改;
若所述目标明文数据与所述标准明文数据不一致,则判定所述网络参数已遭受篡改。
4.如权利要求1所述神经网络校验方法,其特征在于,在所述获取预设可执行程序对应的待哈希数据,并将所述待哈希数据输入预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果的步骤之前,所述神经网络校验方法包括:
提取待训练哈希层,并获取所述预设可执行程序对应的目标哈希编码结果和训练数据;
基于所述目标哈希编码结果和所述训练数据,对所述待训练哈希层进行迭代训练,以优化所述待训练哈希层对应的极化损失函数,直至所述待训练哈希层达到预设迭代结束条件,获得所述预设哈希层。
5.如权利要求4所述神经网络校验方法,其特征在于,所述基于所述目标哈希编码结果和所述训练数据,对所述待训练哈希层进行迭代训练,以优化所述待训练哈希层对应的极化损失函数,直至所述待训练哈希层达到预设迭代结束条件,获得所述预设哈希层的步骤包括:
将所述训练数据输入所述待训练哈希层,以基于所述极化损失函数,对所述训练数据进行哈希编码,获得初始哈希编码结果;
计算所述初始哈希编码结果和所述目标哈希编码结果之间的训练汉明距离,并将所述训练汉明距离与预设汉明距离阈值进行比对;
若所述训练汉明距离大于所述预设汉明距离阈值,则判定所述待训练哈希层未达到所述预设迭代结束条件,并基于所述初始哈希编码结果优化所述极化损失函数;
基于优化后的所述极化损失函数,重新进行所述待训练哈希层的训练,直至所述训练汉明距离小于或者等于所述预设汉明距离阈值;
若所述训练汉明距离小于或者等于所述预设汉明距离阈值,则判定所述待训练哈希层达到所述预设迭代结束条件,并将所述待训练哈希层作为所述预设哈希层。
6.如权利要求4所述神经网络校验方法,其特征在于,所述目标哈希编码结果至少包括一个目标哈希编码向量,
所述获取所述预设可执行程序对应的目标哈希编码结果的步骤包括:
获取所述预设可执行程序对应的机器代码流,并对所述机器代码流进行分割,获得所述机器代码流对应的各机器码块;
分别将每一所述机器码块转化为所述目标哈希编码向量。
7.一种神经网络校验装置,其特征在于,所述神经网络校验装置包括:
哈希编码模块,用于获取预设可执行程序对应的待哈希数据,并将所述待哈希数据输入预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果;
校验模块,用于将由所述哈希编码结果转化的各二进制向量组合为目标执行程序,并通过确定所述目标执行程序是否执行成功,校验所述待哈希数据对应的待校验神经网络;
其中,所述哈希编码模块还用于:
获取所述预设可执行程序对应的待验证数据,并确定所述预设可执行程序对应的待校验神经网络;
将所述待验证数据输入所述待校验神经网络,输出所述待哈希数据;
将所述待哈希数据输入所述预设哈希层,对所述待哈希数据进行哈希编码,获得哈希编码结果。
8.一种神经网络校验设备,其特征在于,所述神经网络校验设备包括:存储器、处理器以及存储在存储器上的用于实现所述神经网络校验方法的程序,
所述存储器用于存储实现神经网络校验方法的程序;
所述处理器用于执行实现所述神经网络校验方法的程序,以实现如权利要求1至6中任一项所述神经网络校验方法的步骤。
9.一种可读存储介质,其特征在于,所述可读存储介质上存储有实现神经网络校验方法的程序,所述实现神经网络校验方法的程序被处理器执行以实现如权利要求1至6中任一项所述神经网络校验方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010453606.6A CN111628866B (zh) | 2020-05-22 | 2020-05-22 | 神经网络校验方法、装置、设备及可读存储介质 |
PCT/CN2021/093403 WO2021233183A1 (zh) | 2020-05-22 | 2021-05-12 | 神经网络校验方法、装置、设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010453606.6A CN111628866B (zh) | 2020-05-22 | 2020-05-22 | 神经网络校验方法、装置、设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111628866A CN111628866A (zh) | 2020-09-04 |
CN111628866B true CN111628866B (zh) | 2021-08-31 |
Family
ID=72260728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010453606.6A Active CN111628866B (zh) | 2020-05-22 | 2020-05-22 | 神经网络校验方法、装置、设备及可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111628866B (zh) |
WO (1) | WO2021233183A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111628866B (zh) * | 2020-05-22 | 2021-08-31 | 深圳前海微众银行股份有限公司 | 神经网络校验方法、装置、设备及可读存储介质 |
CN113300830B (zh) * | 2021-05-25 | 2022-05-27 | 湖南遥昇通信技术有限公司 | 基于加权概率模型的数据传输方法、设备及存储介质 |
WO2023164868A1 (en) * | 2022-03-03 | 2023-09-07 | Huawei Technologies Co., Ltd. | Methods, devices and systems for trustworthiness certification of inference requests and inference responses |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104346440B (zh) * | 2014-10-10 | 2017-06-23 | 浙江大学 | 一种基于神经网络的跨媒体哈希索引方法 |
CN104462459A (zh) * | 2014-12-16 | 2015-03-25 | 芜湖乐锐思信息咨询有限公司 | 基于神经网络的大数据分析处理系统及方法 |
US9721190B2 (en) * | 2014-12-19 | 2017-08-01 | Google Inc. | Large-scale classification in neural networks using hashing |
CN107402947B (zh) * | 2017-03-29 | 2020-12-08 | 北京猿力教育科技有限公司 | 图片检索模型建立方法和装置、图片检索方法和装置 |
US11526745B2 (en) * | 2018-02-08 | 2022-12-13 | Intel Corporation | Methods and apparatus for federated training of a neural network using trusted edge devices |
CN108304573A (zh) * | 2018-02-24 | 2018-07-20 | 江苏测联空间大数据应用研究中心有限公司 | 基于卷积神经网络和监督核哈希的目标检索方法 |
CN108491528B (zh) * | 2018-03-28 | 2021-09-21 | 苏州大学 | 一种图像检索方法、系统及装置 |
CN108629414B (zh) * | 2018-05-09 | 2020-04-14 | 清华大学 | 深度哈希学习方法及装置 |
CN109257361A (zh) * | 2018-10-11 | 2019-01-22 | 湖南警察学院 | 一种防污染攻击的安全网络编码方法 |
CN109684839A (zh) * | 2018-12-19 | 2019-04-26 | Oppo广东移动通信有限公司 | 自定义模型防篡改方法、装置、终端设备及存储介质 |
CN109783682B (zh) * | 2019-01-19 | 2021-01-15 | 北京工业大学 | 一种基于点对相似度的深度非松弛哈希图像检索方法 |
CN110019652B (zh) * | 2019-03-14 | 2022-06-03 | 九江学院 | 一种基于深度学习的跨模态哈希检索方法 |
US11625584B2 (en) * | 2019-06-17 | 2023-04-11 | Intel Corporation | Reconfigurable memory compression techniques for deep neural networks |
CN111628866B (zh) * | 2020-05-22 | 2021-08-31 | 深圳前海微众银行股份有限公司 | 神经网络校验方法、装置、设备及可读存储介质 |
-
2020
- 2020-05-22 CN CN202010453606.6A patent/CN111628866B/zh active Active
-
2021
- 2021-05-12 WO PCT/CN2021/093403 patent/WO2021233183A1/zh active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN111628866A (zh) | 2020-09-04 |
WO2021233183A1 (zh) | 2021-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111628866B (zh) | 神经网络校验方法、装置、设备及可读存储介质 | |
CN111967609B (zh) | 模型参数验证方法、设备及可读存储介质 | |
US20180054299A1 (en) | Encrypting and decrypting information | |
KR101755995B1 (ko) | 동형 암호를 이용한 특성벡터 기반 원격 바이오 인증 방법 및 시스템 | |
CN111612079B (zh) | 数据确权方法、设备及可读存储介质 | |
CN111626408B (zh) | 哈希编码方法、装置、设备及可读存储介质 | |
KR20160144375A (ko) | 생물학적 특징 이미지의 유용성을 검증하는 방법 및 장치 | |
CN113612767B (zh) | 基于多任务学习增强的加密恶意流量检测方法及系统 | |
WO2021047482A1 (en) | Method and system for performing steganographic technique | |
Rassan et al. | Securing mobile cloud computing using biometric authentication (SMCBA) | |
CN116383793B (zh) | 人脸数据处理方法、装置、电子设备和计算机可读介质 | |
CN111614679B (zh) | 联邦学习资格恢复方法、设备及可读存储介质 | |
CN111565179B (zh) | 身份校验方法、装置、电子设备及存储介质 | |
CN113660205B (zh) | 一种软件授权码加密方法 | |
Li et al. | Extracting embedded messages using adaptive steganography based on optimal syndrome-trellis decoding paths | |
CN112398861A (zh) | web组态化系统中敏感数据的加密系统及方法 | |
CN117131490A (zh) | 基于设备硬件指纹的配电网无线终端设备身份认证方法 | |
CN114780932B (zh) | 管理三化平台的跨区块链数据交互验证方法、系统及设备 | |
CN114218561A (zh) | 一种弱口令检测方法、终端设备及存储介质 | |
CN112329025A (zh) | 电力终端旁路安全分析方法及电力终端旁路安全分析系统 | |
Hadmi et al. | A novel approach for robust perceptual image hashing | |
CN116579774B (zh) | 基于交叉加密的支付平台系统及方法 | |
CN117688565B (zh) | 恶意应用检测方法及其系统 | |
CN117155546B (zh) | 分组密码类立方攻击的搜索方法、装置、电子设备及介质 | |
CN117240578A (zh) | 流量完整性验证方法、装置、计算机设备及其存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |