CN108920981B - 涉及数据迭代加密的神经网络模型加密保护系统及方法 - Google Patents

涉及数据迭代加密的神经网络模型加密保护系统及方法 Download PDF

Info

Publication number
CN108920981B
CN108920981B CN201810736618.2A CN201810736618A CN108920981B CN 108920981 B CN108920981 B CN 108920981B CN 201810736618 A CN201810736618 A CN 201810736618A CN 108920981 B CN108920981 B CN 108920981B
Authority
CN
China
Prior art keywords
data
module
encryption
neural network
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810736618.2A
Other languages
English (en)
Other versions
CN108920981A (zh
Inventor
尹愚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Daxiang Fractal Intelligent Technology Co ltd
Original Assignee
Chengdu Daxiang Fractal Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Daxiang Fractal Intelligent Technology Co ltd filed Critical Chengdu Daxiang Fractal Intelligent Technology Co ltd
Priority to CN201810736618.2A priority Critical patent/CN108920981B/zh
Publication of CN108920981A publication Critical patent/CN108920981A/zh
Application granted granted Critical
Publication of CN108920981B publication Critical patent/CN108920981B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/71Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer to assure secure computing or processing of information
    • G06F21/72Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer to assure secure computing or processing of information in cryptographic circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computer Security & Cryptography (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Neurology (AREA)
  • Bioethics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Complex Calculations (AREA)
  • Storage Device Security (AREA)

Abstract

本发明属于人工神经网络保护机制领域,特别涉及一种涉及数据迭代加密的神经网络模型加密保护系统及方法,包括数据输入模块、加密模块、加密数据输入模块、人工神经网络模型模块和数据输出模块;加密模块包括结构转换模块及迭代处理模块;所述迭代处理模块包括分布变换模块与单层卷积神经网络模型模块,本发明提供了一种涉及数据迭代加密的神经网络模型加密保护系统及方法,该系统及方法在不影响人工神经网络结构和性能的基础上,通过加密步骤将保护性密码嵌入用于训练神经网络的输入数据,在人工神经网络的训练中,该保护性密码所附带的统计特征将嵌入人工神经网络中,并至少部分嵌入加密机制涉及的单层卷积神经网络中。

Description

涉及数据迭代加密的神经网络模型加密保护系统及方法
技术领域
本发明属于人工神经网络保护机制领域,特别涉及一种涉及数据迭代加密的神经网络模型加密保护系统及方法。
背景技术
深度学习是当前人工智能应用的主要技术方案。以深度学习技术所训练完成的人工神经网络模型是汇集了初始开发者智慧的劳动成果。但在发布和应用人工神经网络模型的过程中,其网络结构和节点权重会完全对外暴露。人工神经网络模型经发布和/或第三方应用后,容易被复制、二次开发或修改,导致初始开发者权益受损。现有技术中适用于人工神经网络模型的保护方案主要包括网络整体加密、训练数据加密及网络同态加密训练。
网络整体加密方案是对训练完成的网络模型进行加密发布,没有密钥则无法使用该网络模型。然而该加密方式仅仅是网络模型的二次封装,利用密钥解密网络模型后,仍可分析得到网络模型的结构和节点权重等核心信息,并能进行复制、传播、二次开发或修改,从而无法保护网络模型初始研发者的权益;
训练数据加密方案将训练数据转义,对映射后的数据进行网络训练,并将该映射方案用于网络模型后续使用,以保护网络模型的核心内容。该加密技术要求破坏数据内部统计规律以避免利用统计分析破解加密,而人工神经网络训练是基于训练数据的重要统计特征完成数据分类和预测,其本质是一种统计学习,因此与训练数据加密方案本质相矛盾,例如,采用MD5算法对数据进行现代高级加密,待训练数据的每个值不会产生唯一映射值,其内在统计特性会被破坏,因此不适于人工神经网络训练。而简单映射加密虽然可以维持数据内在统计特性,但容易由深度学习的大量训练数据分析出加密方式,使加密保护失败;
同态加密训练方案允许以特定方式修改加密信息而无需读懂加密信息,对经同态加密后的数据进行网络训练,能够保护网络模型的核心内容,且同态加密后的训练数据仍可保留其内部统计结构,以弥补训练数据加密方案的弱点。但该方案会导致计算量大量提升,并且由于同态加密各种算法具有不同程度的计算不完备性,造成某些数学运算无法直接实现,使大量已投入使用的人工神经网络训练方法无法实现,导致人工神经网络性能下降。
发明内容
针对现有人工神经网络保护机制的上述缺陷,本发明提供了一种涉及数据迭代加密的神经网络模型加密保护系统及方法。
具体方案为:
一种涉及数据迭代加密的神经网络模型加密保护系统,其特征在于:包括数据输入模块、加密模块、加密数据输入模块、人工神经网络模型模块和数据输出模块;所述数据输入模块与加密模块信号相连,所述加密模块与加密数据输入模块信号相连,所述加密数据输入模块与人工神经网络模型模块信号相连,所述人工神经网络模型模块与数据输出模块信号相连。
具体而言,数据输入模块用于向加密模块提供原始数据;加密模块用于对数据输入模块提供的原始数据进行加密处理,输出加密数据;加密数据输入模块用于接收加密模块输出的加密数据,并将加密数据传输至人工神经网络模型模块;人工神经网络模型模块用于接收加密数据,并基于加密数据进行计算;数据输出模块用于将人工神经网络模型模块计算的结果进行输出处理。
进一步地,在网络训练阶段,人工神经网络模型模块通过正向网络计算与逆向误差传播计算实现网络训练;在使用阶段,人工神经网络模型模块通过正向网络计算得出结果。
进一步地,在网络训练阶段,数据输出模块对人工神经网络模型模块的输出进行损失函数的计算,用于人工神经网络模型模块经梯度反向传播算法实现网络训练;在使用阶段,数据输出模块采用人工神经网络模型模块的输出判断实际功能。
进一步地,加密模块由一组具有N位数字的密钥作为控制量,对数据输入模块提供的所有原始数据进行加密处理,以实现数据加密;密钥的长度由加密处理中的加密方式及加密要求所限定;密钥的N位数字的每一位分别选自阿拉伯数字0-9之间的一个。
进一步地,加密模块包括结构转换模块及迭代处理模块;结构转换模块用于将原始数据转换为二维结构;迭代处理模块接收结构转换后的原始数据作为第一次迭代处理的输入数据,并将第一次迭代处理的输出作为第二次迭代处理的输入数据,以此类推,经过多次迭代处理后生成加密数据;其中,密钥中预设定的任意一位上的数字与迭代处理的次数相关联。
进一步地,迭代处理模块包括分布变换模块与单层卷积神经网络模型模块;针对每次迭代处理,分布变换模块用于定义输入数据的分布模型,继而分别构建目标数据分布模型,并将输入数据转换为对应本次迭代处理的目标数据分布模型下的数值形式;其中,密钥中预设定的任意几位上的数字与对应于各次迭代处理的目标数据分布模型的均值及方差相关联;针对每次迭代处理,单层卷积神经网络模型模块用于对经过分布变换的输入数据进行网络计算,并将计算结果进行输出;其中,非最终次迭代处理的计算结果作为下一次迭代处理的输入数据被分布变换模块接收,最终次迭代处理的网络计算结果即为加密数据。
进一步地,在网络训练阶段,在人工神经网络模型模块通过正向网络计算与逆向误差传播计算实现网络训练的同时,单层卷积神经网络模型模块也通过正向网络计算与逆向误差传播计算实现其网络参数训练;
进一步地,当结构转换模块将原始数据转换为二维结构时,当原始数据为一维结构时,将其视为行数或列数为1的二维数据矩阵的形式;当原始数据为大于二维的结构时,将其降维转换为二维数据矩阵的形式,加密步骤完成后再将其重新映射为原始结构。
进一步地,对应于每次迭代处理的目标数据分布模型分别选自正态分布、F分布、卡方分布、T分布或其他联合分布的一种。
进一步地,N位数字的密钥中,每一位上可选的阿拉伯数字0-9分别映射至一个可执行数值,该可执行数值分别确定了迭代处理的次数、对应于每次迭代处理的目标数据分布模型的均值及方差。
一种涉及数据迭代加密的神经网络模型加密保护方法,其特征在于,包括以下步骤:
步骤S1.提供原始数据;
步骤S2.对原始数据进行加密处理,生成加密数据;
步骤S3.将加密数据输入至人工神经网络模型,人工神经网络模型对加密数据进行计算,得出结果;
步骤S4.将计算所得结果进行输出。
其中,步骤S2具体包括:
步骤S21.提供一组具有N位数字的密钥作为控制量,该密钥具体限定了针对原始数据的加密处理;其中,密钥的长度由加密处理中的加密方式及加密要求所限定;密钥的N位数字的每一位分别选自阿拉伯数字0-9之间的一个;
步骤S22.将原始数据转换为二维结构;
步骤S23.将结构转换后的原始数据作为第一次迭代处理的输入数据,将第一次迭代处理的输出作为第二次迭代处理的输入数据,以此类推,经过多次迭代处理后生成加密数据;其中,密钥中预设定的任意一位上的数字与迭代处理的次数相关联。
其中,针对每次迭代处理,步骤S23具体包括:
步骤S231.定义输入数据的分布模型,并构建目标数据分布模型,将输入数据转换为对应本次迭代处理的目标数据分布模型下的数值形式;其中,密钥中预设定的任意几位上的数字与对应于各次迭代处理的目标数据分布模型的均值及方差相关联;
步骤S232.利用单层卷积神经网络对经过分布变换的输入数据进行计算,并将计算结果进行输出;其中,非最终次迭代处理的计算结果作为下一次迭代处理的输入数据,最终次迭代处理的网络计算结果即为加密数据。
进一步地,在步骤S22中,当原始数据为一维结构时,将其视为行数或列数为1的二维数据矩阵的形式;当原始数据为大于二维的结构时,将其降维转换为二维数据矩阵的形式,加密步骤完成后再将其重新映射为原始结构。
进一步地,在步骤S231中,对应于每次迭代处理的目标数据分布模型分别选自正态分布、F分布、卡方分布、T分布或其他联合分布的一种。
进一步地,N位数字的密钥中,每一位上可选的阿拉伯数字0-9分别映射至一个可执行数值,该可执行数值分别确定了迭代处理的次数、对应于每次迭代处理的目标数据分布模型的均值及方差。
本发明的优点在于:
本发明提供了一种涉及数据迭代加密的神经网络模型加密保护系统及方法,该系统及方法在不影响人工神经网络结构和性能的基础上,通过加密步骤将保护性密码嵌入用于训练神经网络的输入数据,在人工神经网络的训练中,该保护性密码所附带的统计特征将嵌入人工神经网络中,并至少部分嵌入加密机制涉及的单层卷积神经网络中。由此,训练完成的人工神经网络无法合理处理未经密码嵌入的输入数据、嵌入不正确密码的输入数据,以及采用不正确加密机制嵌入密码后的输入数据。与现有技术相比,本发明可以在计算量无显著增加且保持人工神经网络性能的情况下,对人工神经网络模型嵌入保护性密码,使得在人工神经网络模型发布后,任何的复制、二次开发或修改均无法影响该保护性密码,并且破坏该保护性密码会导致人工神经网络模型性能降低或无法做出有效输出,使得人工神经网络模型的研发者权益得以保护,对人工神经网络模型的使用和发布实现了技术可控。
附图说明
图1为本发明实施例提供的一种涉及数据迭代加密的神经网络模型加密保护系统的系统结构图。
图2为本发明实施例提供的一种涉及数据迭代加密的神经网络模型加密保护系统的加密模块的加密原理。其中,CNN代表单层卷积神经网络。
图3为本发明实施例提供的一种涉及数据迭代加密的神经网络模型加密保护系统的加密模块的密钥中每一位上的数字-可执行数值的映射关系。
图4为本发明实施例提供的一种涉及数据迭代加密的神经网络模型加密保护方法的方法流程图。其中,CNN代表单层卷积神经网络。
附图中:
100-加密保护系统,1-输入模块,2-加密模块,3-加密数据输入模块,4-人工神经网络模型模块,5-数据输出模块,21-结构转换模块,22-迭代处理模块,221-分布变换模块,222-单层卷积神经网络模型模块。
具体实施方式
深度学习人工神经网络的核心思想是:利用梯度反向传播算法,调整人工神经网络权重,实现对已知输入数据集内含的某些特征,进行具备统计性质的归纳收敛,以达到对未知输入数据集进行识别和判断的目的。
人工神经网络的训练目标是让网络以迭代的方式,完成对已知输入数据集内含某种能实现对该数据集进行区别的非显式的特征组合的探索和统计。所以在输入数据进入网络训练前,可以进行一些特征工程操作,使经训练的人工神经网络具有更优的性能。
在本发明公开的一种针对神经网络模型的加密保护系统的加密步骤中,输入数据经过加密模块实现数据加密,加密步骤中的统计变化不会破坏输入数据内在的与识别特征相关的统计特征,并加入了额外定义的附加统计特征。在人工神经网络的训练阶段,附加统计特征会被人工神经网络的训练过程所习得,并会被加密模块中单层卷积神经网络所习得,由此将附加统计特征嵌入人工神经网络及单层卷积神经网络的权重等某些无法直接探测到的位置。若后续的输入数据没有这个附加的统计特性,已经训练好的人工神经网络模型会产生错误判断,且训练好的单层人工神经网络模型会引起错误的数据加密,进一步影响人工神经网络模型的判断。
本发明公开的加密保护系统在输入数据中加入的附加统计特性仅略微增加了人工神经网络及单层卷积神经网络待整理和归纳的统计特征,但从测试数据和理论而言,这个额外的统计特征,对于人工神经网络及单层卷积神经网络是可以非常容易习得的。而由于反向传播算法,这些习得过程是对人工神经网络及单层卷积神经网络的全体权重参数的调整,因此是完全融合于人工神经网络及单层卷积神经网络中,无法单纯拆分出来的一部分。
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
实施例1
一种涉及数据迭代加密的神经网络模型加密保护系统100的系统结构图参见说明书附图1,加密保护系统100的加密模块2的加密原理参见说明书附图2,加密保护系统100包括数据输入模块1、加密模块2、加密数据输入模块3、人工神经网络模型模块4和数据输出模块5。数据输入模块1与加密模块2信号相连,加密模块2与加密数据输入模块3信号相连,加密数据输入模块3与人工神经网络模型模块4信号相连,人工神经网络模型模块4与数据输出模块5信号相连。
进一步地,数据输入模块1用于向加密模块提供原始数据D0;加密模块2用于对数据输入模块1提供的原始数据D0进行加密处理,输出加密数据D’;加密数据输入模块3用于接收加密模块2输出的加密数据D’,并将加密数据D’传输至人工神经网络模型模块4;人工神经网络模型模块4用于接收加密数据D’,并基于加密数据D’进行计算;数据输出模块5用于将人工神经网络模型模块4计算的结果进行输出处理。
进一步地,在网络训练阶段,人工神经网络模型模块4通过正向网络计算与逆向误差传播计算实现网络训练;在使用阶段,人工神经网络模型模块4通过正向网络计算得出结果。
进一步地,在网络训练阶段,数据输出模块5对人工神经网络模型模块4的输出进行损失函数的计算,用于人工神经网络模型模块4经梯度反向传播算法实现网络训练;在使用阶段,数据输出模块5采用人工神经网络模型模块4的输出判断实际功能。
加密模块2由一组具有N位数字的密钥S作为控制量,对数据输入模块1提供的所有原始数据D0进行加密处理,以实现数据加密;密钥S的长度由加密处理中的加密方式及加密要求所限定;密钥S的N位数字的每一位分别选自阿拉伯数字0-9之间的一个。
进一步地,加密模块2包括结构转换模块21及迭代处理模块22;结构转换模块21用于将原始数据D0转换为二维结构;迭代处理模块22接收结构转换后的原始数据D0作为第一次迭代处理T1的输入数据D1,并将第一次迭代处理T1的输出作为第二次迭代处理T2的输入数据D2,以此类推,经过多次迭代处理T1-Tn后生成加密数据D’;其中,密钥S中预设定的任意一位上的数字与迭代处理的次数相关联。例如,可选择密钥S第1位上的数字与迭代处理的次数相关联。
进一步地,迭代处理模块22包括分布变换模块221与单层卷积神经网络模型模块222;针对每次迭代处理T1-Tn,分布变换模块221用于定义输入数据D1-Dn的分布模型,继而分别构建目标数据分布模型A1-An,并将输入数据D1-Dn转换为对应本次迭代处理的目标数据分布模型A1-An下的数值形式;其中,密钥S中预设定的任意几位上的数字与对应于各次迭代处理T1-Tn的目标数据分布模型A1-An的均值及方差相关联。例如,密钥S第2-3位上的数字与对应第一次迭代处理T1的目标数据分布模型A1的均值及方差相关联,密钥S第4-5位上的数字与对应第二次迭代处理T2的目标数据分布模型A2的均值及方差相关联,以此类推。针对每次迭代处理T1-Tn,单层卷积神经网络模型模块222用于对经过分布变换的输入数据D1-Dn进行网络计算,并将计算结果进行输出;其中,非最终次迭代处理的计算结果作为下一次迭代处理的输入数据被分布变换模块221接收,最终次迭代处理的网络计算结果即为加密数据D’。
进一步地,在网络训练阶段,在人工神经网络模型模块4通过正向网络计算与逆向误差传播计算实现网络训练的同时,单层卷积神经网络模型模块222也通过正向网络计算与逆向误差传播计算实现其网络参数训练;
进一步地,当结构转换模块21将原始数据D0转换为二维结构时,当原始数据D0为一维结构时,将其视为行数或列数为1的二维数据矩阵的形式;当原始数据D0为大于二维的结构时,将其降维转换为二维数据矩阵的形式,加密步骤完成后再将其重新映射为原始结构。
进一步地,对应于每次迭代处理T1-Tn的目标数据分布模型A1-An分别选自正态分布、F分布、卡方分布、T分布或其他联合分布的一种。
进一步地,N位数字的密钥S中,每一位上可选的阿拉伯数字0-9分别映射至一个可执行数值,该可执行数值分别确定了迭代处理的次数、对应于每次迭代处理T1-Tn的目标数据分布模型A1-An的均值及方差。
如说明书附图3所示,密钥S每一位上可选的阿拉伯数字0-9分别映射到可执行数值Cp,q,其中,p的取值范围为1-N,q的取值范围为0-9,Cp,q指密钥S第p位的数字q映射得到的可执行数值。
实施例2
一种涉及数据迭代加密的神经网络模型加密保护方法的方法流程图参见说明书附图4,方法包括以下步骤:
步骤S1.提供原始数据D0
步骤S2.对原始数据D0进行加密处理,生成加密数据D’;
步骤S3.将加密数据D’输入至人工神经网络模型,人工神经网络模型对加密数据D’进行计算,得出结果;
步骤S4.将计算所得结果进行输出。
其中,步骤S2具体包括:
步骤S21.提供一组具有N位数字的密钥S作为控制量,该密钥S具体限定了针对原始数据D0的加密处理;其中,密钥S的长度由加密处理中的加密方式及加密要求所限定;密钥S的N位数字的每一位分别选自阿拉伯数字0-9之间的一个;
步骤S22.将原始数据D0转换为二维结构;
步骤S23.将结构转换后的原始数据D0作为第一次迭代处理T1的输入数据D1,将第一次迭代处理T1的输出作为第二次迭代处理T2的输入数据D2,以此类推,经过多次迭代处理T1-Tn后生成加密数据D’;其中,密钥S中预设定的任意一位上的数字与迭代处理的次数相关联。例如,可选择密钥S第1位上的数字与迭代处理的次数相关联。
其中,针对每次迭代处理T1-Tn,步骤S23具体包括:
步骤S231.定义输入数据D1-Dn的分布模型,并构建目标数据分布模型A1-An,将输入数据D1-Dn转换为对应本次迭代处理的目标数据分布模型A1-An下的数值形式;其中,密钥S中预设定的任意几位上的数字与对应于各次迭代处理T1-Tn的目标数据分布模型A1-An的均值及方差相关联。例如,密钥S第2-3位的数字与对应第一次迭代处理T1的目标数据分布模型A1的均值及方差相关联,密钥S第4-5位的数字与对应第二次迭代处理T2的目标数据分布模型A2的均值及方差相关联,以此类推。
步骤S232.利用单层卷积神经网络对经过分布变换的输入数据D1-Dn进行计算,并将计算结果进行输出;其中,非最终次迭代处理的计算结果作为下一次迭代处理的输入数据,最终次迭代处理的网络计算结果即为加密数据D’。
进一步地,在步骤S22中,当原始数据D0为一维结构时,将其视为行数或列数为1的二维数据矩阵的形式;当原始数据D0为大于二维的结构时,将其降维转换为二维数据矩阵的形式,加密步骤完成后再将其重新映射为原始结构。
进一步地,在步骤S231中,对应于每次迭代处理T1-Tn的目标数据分布模型A1-An分别选自正态分布、F分布、卡方分布、T分布或其他联合分布的一种。
进一步地,N位数字的密钥S中,每一位上可选的阿拉伯数字0-9分别映射至一个可执行数值,该可执行数值分别确定了迭代处理的次数、对应于每次迭代处理T1-Tn的目标数据分布模型A1-An的均值及方差。
如说明书附图3所示,密钥S每一位上可选的阿拉伯数字0-9分别映射到可执行数值Cp,q,其中,p的取值范围为1-N,q的取值范围为0-9,Cp,q指密钥S第p位的数字q映射得到的可执行数值。

Claims (8)

1.一种涉及数据迭代加密的神经网络模型加密保护系统,其特征在于:包括数据输入模块(1)、加密模块(2)、加密数据输入模块(3)、人工神经网络模型模块(4)和数据输出模块(5);所述数据输入模块(1)与所述加密模块(2)信号相连,所述加密模块(2)与所述加密数据输入模块(3)信号相连,所述加密数据输入模块(3)与所述人工神经网络模型模块(4)信号相连,所述人工神经网络模型模块(4)与所述数据输出模块(5)信号相连;
其中,所述加密模块(2)包括结构转换模块(21)及迭代处理模块(22);所述迭代处理模块(22)包括分布变换模块(221)与单层卷积神经网络模型模块(222);
所述加密模块(2)由一组具有N位数字的密钥作为控制量,对所述数据输入模块(1)提供的所有原始数据进行加密处理,以实现数据加密;
所述结构转换模块(21)用于将原始数据转换为二维结构;所述迭代处理模块(22)接收结构转换后的原始数据作为第一次迭代处理的输入数据,并将第一次迭代处理的输出作为第二次迭代处理的输入数据,以此类推,经过多次迭代处理后生成加密数据;其中,所述密钥中预设定的任意一位上的数字与迭代处理的次数相关联;
针对每次迭代处理,所述分布变换模块(221)用于定义输入数据的分布模型,继而分别构建目标数据分布模型,并将输入数据转换为对应本次迭代处理的目标数据分布模型下的数值形式;其中,所述密钥中预设定的任意几位上的数字与对应于各次迭代处理的目标数据分布模型的均值及方差相关联;针对每次迭代处理,所述单层卷积神经网络模型模块(222)用于对经过分布变换的输入数据进行网络计算,并将计算结果进行输出;其中,非最终次迭代处理的计算结果作为下一次迭代处理的输入数据被分布变换模块(221)接收,最终次迭代处理的网络计算结果即为加密数据。
2.根据权利要求1所述的一种涉及数据迭代加密的神经网络模型加密保护系统,其特征在于,所述数据输入模块(1)用于向所述加密模块(2)提供原始数据;所述加密模块(2)用于对所述数据输入模块(1)提供的原始数据进行加密处理,输出加密数据;所述加密数据输入模块(3)用于接收所述加密模块(2)输出的加密数据,并将加密数据传输至所述人工神经网络模型模块(4);所述人工神经网络模型模块(4)用于接收加密数据,并基于加密数据进行计算;所述数据输出模块(5)用于将所述人工神经网络模型模块(4)计算的结果进行输出处理;
在网络训练阶段,所述人工神经网络模型模块(4)通过正向网络计算与逆向误差传播计算实现网络训练;在使用阶段,所述人工神经网络模型模块(4)通过正向网络计算得出结果;
在网络训练阶段,所述数据输出模块(5)对人工神经网络模型模块(4)的输出进行损失函数的计算,用于所述人工神经网络模型模块(4)经梯度反向传播算法实现网络训练;在使用阶段,所述数据输出模块(5)采用所述人工神经网络模型模块(4)的输出判断实际功能。
3.根据权利要求1所述的一种涉及数据迭代加密的神经网络模型加密保护系统,其特征在于,所述密钥的长度由加密处理中的加密方式及加密要求所限定;所述密钥的N位数字的每一位分别选自阿拉伯数字0-9之间的一个。
4.根据权利要求1所述的一种涉及数据迭代加密的神经网络模型加密保护系统,其特征在于,在网络训练阶段,在所述人工神经网络模型模块(4)通过正向网络计算与逆向误差传播计算实现网络训练的同时,所述单层卷积神经网络模型模块(222)也通过正向网络计算与逆向误差传播计算实现其网络参数训练。
5.根据权利要求1所述的一种涉及数据迭代加密的神经网络模型加密保护系统,其特征在于,N位数字的所述密钥中,每一位上可选的阿拉伯数字0-9分别映射至一个可执行数值,该可执行数值分别确定了迭代处理的次数、对应于每次迭代处理的目标数据分布模型的均值及方差。
6.一种涉及数据迭代加密的神经网络模型加密保护方法,其特征在于,方法包括以下步骤:
步骤S1.提供原始数据;
步骤S2.对原始数据进行加密处理,生成加密数据;
步骤S3.将加密数据输入至人工神经网络模型,所述人工神经网络模型对加密数据进行计算,得出结果;
步骤S4.将计算所得结果进行输出;
其中,步骤S2具体包括:
步骤S21.提供一组具有N位数字的密钥作为控制量,该密钥具体限定了针对原始数据的加密处理;其中,所述密钥的长度由加密处理中的加密方式及加密要求所限定;所述密钥的N位数字的每一位分别选自阿拉伯数字0-9之间的一个;
步骤S22.将原始数据转换为二维结构;
步骤S23.将结构转换后的原始数据作为第一次迭代处理的输入数据,将第一次迭代处理的输出作为第二次迭代处理的输入数据,以此类推,经过多次迭代处理后生成加密数据;其中,所述密钥中预设定的任意一位上的数字与迭代处理的次数相关联。
7.根据权利要求6所述的一种涉及数据迭代加密的神经网络模型加密保护方法,其特征在于,针对每次迭代处理,步骤S23具体包括:
步骤S231.定义输入数据的分布模型,并构建目标数据分布模型,将输入数据转换为对应本次迭代处理的目标数据分布模型下的数值形式;其中,所述密钥中预设定的任意几位上的数字与对应于各次迭代处理的目标数据分布模型的均值及方差相关联;
步骤S232.利用单层卷积神经网络对经过分布变换的输入数据进行计算,并将计算结果进行输出;其中,非最终次迭代处理的计算结果作为下一次迭代处理的输入数据,最终次迭代处理的网络计算结果即为加密数据。
8.根据权利要求7所述的一种涉及数据迭代加密的神经网络模型加密保护方法,其特征在于,N位数字的所述密钥中,每一位上可选的阿拉伯数字0-9分别映射至一个可执行数值,该可执行数值分别确定了迭代处理的次数、对应于每次迭代处理的目标数据分布模型的均值及方差。
CN201810736618.2A 2018-07-06 2018-07-06 涉及数据迭代加密的神经网络模型加密保护系统及方法 Active CN108920981B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810736618.2A CN108920981B (zh) 2018-07-06 2018-07-06 涉及数据迭代加密的神经网络模型加密保护系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810736618.2A CN108920981B (zh) 2018-07-06 2018-07-06 涉及数据迭代加密的神经网络模型加密保护系统及方法

Publications (2)

Publication Number Publication Date
CN108920981A CN108920981A (zh) 2018-11-30
CN108920981B true CN108920981B (zh) 2020-06-30

Family

ID=64425086

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810736618.2A Active CN108920981B (zh) 2018-07-06 2018-07-06 涉及数据迭代加密的神经网络模型加密保护系统及方法

Country Status (1)

Country Link
CN (1) CN108920981B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3745316A4 (en) * 2018-12-17 2021-06-02 Sony Corporation LEARNING DEVICE, IDENTIFICATION DEVICE AND PROGRAM
CN110062014B (zh) * 2019-06-11 2021-08-20 思必驰科技股份有限公司 网络模型的加密、解密方法及系统
CN110263919A (zh) * 2019-06-20 2019-09-20 福州数据技术研究院有限公司 一种基于医疗健康数据安全的反向传播神经网络训练方法
US11495145B2 (en) 2019-09-27 2022-11-08 Wipro Limited Method and system for selectively encrypting dataset
US11455331B2 (en) 2019-12-12 2022-09-27 Motorola Solutions, Inc. Device, system and method for anonymously comparing query images to reference images
EP3885996A1 (en) * 2020-03-27 2021-09-29 Aptiv Technologies Limited Method and system for determining an output of a convolutional block of an artificial neural network
CN112214776B (zh) * 2020-10-10 2022-10-21 上海双深信息技术有限公司 一种基于卷积神经网络的加密、解密方法及装置
CN113014570B (zh) * 2021-02-22 2022-08-02 西安理工大学 一种基于卷积神经网络的通信数据加解密方法
US11720991B2 (en) * 2021-05-20 2023-08-08 International Business Machines Corporation Signing and authentication of digital images and other data arrays

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102123026A (zh) * 2011-04-12 2011-07-13 南开大学 基于混沌与超混沌的两层次视频流媒体加密方法
CN104104496A (zh) * 2014-07-08 2014-10-15 华侨大学 一种基于混沌动力理论的单向哈希函数构造方法
US9740817B1 (en) * 2002-10-18 2017-08-22 Dennis Sunga Fernandez Apparatus for biological sensing and alerting of pharmaco-genomic mutation
CN107204844A (zh) * 2017-04-21 2017-09-26 中山大学 一种基于组合细胞自动机的多媒体加密及解密方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9946970B2 (en) * 2014-11-07 2018-04-17 Microsoft Technology Licensing, Llc Neural networks for encrypted data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9740817B1 (en) * 2002-10-18 2017-08-22 Dennis Sunga Fernandez Apparatus for biological sensing and alerting of pharmaco-genomic mutation
CN102123026A (zh) * 2011-04-12 2011-07-13 南开大学 基于混沌与超混沌的两层次视频流媒体加密方法
CN104104496A (zh) * 2014-07-08 2014-10-15 华侨大学 一种基于混沌动力理论的单向哈希函数构造方法
CN107204844A (zh) * 2017-04-21 2017-09-26 中山大学 一种基于组合细胞自动机的多媒体加密及解密方法

Also Published As

Publication number Publication date
CN108920981A (zh) 2018-11-30

Similar Documents

Publication Publication Date Title
CN108920981B (zh) 涉及数据迭代加密的神经网络模型加密保护系统及方法
CN108898028B (zh) 涉及迭代与随机加密的神经网络模型加密保护系统及方法
CN108629193B (zh) 一种针对人工神经网络模型的加密保护系统及方法
CN108830092B (zh) 涉及数据随机加密的神经网络模型加密保护系统及方法
CN110490128B (zh) 一种基于加密神经网络的手写识别方法
Chai et al. Dynamic prototype network based on sample adaptation for few-shot malware detection
WO2020011200A1 (zh) 跨域数据融合方法、系统以及存储介质
CN108804931B (zh) 涉及域变换数据加密的神经网络模型加密保护系统及方法
Won et al. Non-profiled side-channel attack based on deep learning using picture trace
CN117094008A (zh) 神经网络模型加密方法、解密方法、装置、设备及介质
CN108900294B (zh) 涉及指定频段加密的神经网络模型加密保护系统及方法
Sun et al. Decentralized detection with robust information privacy protection
Ibarrondo et al. Banners: Binarized neural networks with replicated secret sharing
Xie et al. DeepMark: embedding watermarks into deep neural network using pruning
Huang et al. Secure XOR-CIM engine: Compute-in-memory sram architecture with embedded xor encryption
Shahrakht et al. A Novel Attack on Complex APUFs Using the Evolutionary Deep Convolutional Neural Network.
US11829468B2 (en) Neural network confidentiality
Tsmots et al. Neural network technology for protecting cryptographic data
CN116861485A (zh) 一种基于深度学习融合的学生信息隐私保护方法
Khavalko et al. Application of neural network technologies for information protection in real time
KR20230169432A (ko) 완전 동형 평가를 위한 컴퓨테이션 네트워크 변환
Zhao et al. PPCNN: An efficient privacy‐preserving CNN training and inference framework
Wang et al. A privacy-preserving cross-media retrieval on encrypted data in cloud computing
Wen et al. A novel PUF architecture against non-invasive attacks
CN114117487A (zh) 加密字符串的明文相似性预估方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant