CN111935179B - 一种基于可信执行环境的模型训练方法和装置 - Google Patents
一种基于可信执行环境的模型训练方法和装置 Download PDFInfo
- Publication number
- CN111935179B CN111935179B CN202011012420.3A CN202011012420A CN111935179B CN 111935179 B CN111935179 B CN 111935179B CN 202011012420 A CN202011012420 A CN 202011012420A CN 111935179 B CN111935179 B CN 111935179B
- Authority
- CN
- China
- Prior art keywords
- training
- target
- model
- encrypted
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 401
- 238000000034 method Methods 0.000 title claims abstract description 225
- 238000000605 extraction Methods 0.000 claims abstract description 47
- 230000008569 process Effects 0.000 claims description 148
- 238000012545 processing Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000013175 transesophageal echocardiography Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000013478 data encryption standard Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000013058 risk prediction model Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/04—Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks
- H04L63/0428—Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks wherein the data content is protected, e.g. by encrypting or encapsulating the payload
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/57—Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/52—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems during program execution, e.g. stack integrity ; Preventing unwanted data erasure; Buffer overflow
- G06F21/53—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems during program execution, e.g. stack integrity ; Preventing unwanted data erasure; Buffer overflow by executing in a restricted environment, e.g. sandbox or secure virtual machine
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioethics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Storage Device Security (AREA)
Abstract
本说明书披露一种基于可信执行环境的模型训练方法和装置。在一个实施例中,该方法,包括:从加密训练样本集中获取若干加密目标样本;将所述若干加密目标样本输入可信执行环境,在可信执行环境中对所述加密目标样本解密并将解密后的目标样本输入特征提取模型,得到样本特征;将所述可信执行环境输出的样本特征确定为用于本次迭代的目标样本特征;利用所述目标样本特征对目标模型进行本次迭代训练。
Description
技术领域
本说明书涉及网络安全领域,特别涉及一种基于可信执行环境的模型训练方法和装置。
背景技术
随着技术的发展,网络中的数据种类越来越多,数据安全和数据隐私也显得越来越重要。相关技术中,可以采用多方安全计算、联邦学习等方法对数据进行加密处理,从而保证数据的安全。然而,当模型的训练数据量十分大时,采用这种方法会带来巨大的计算开销。
发明内容
有鉴于此,本说明书提供一种基于可信执行环境的模型训练方法和装置。
具体地,本说明书是通过如下技术方案实现的:
一种基于可信执行环境的模型训练方法,包括:
从加密训练样本集中获取若干加密目标样本;
将所述若干加密目标样本输入可信执行环境,在可信执行环境中对所述加密目标样本解密并将解密后的目标样本输入特征提取模型,得到样本特征;
将所述可信执行环境输出的样本特征确定为用于本次迭代的目标样本特征;
利用所述目标样本特征对目标模型进行本次迭代训练。
一种基于可信执行环境的模型训练装置,包括:
获取单元,从加密训练样本集中获取若干加密目标样本;
输入单元,将所述若干加密目标样本输入可信执行环境,在可信执行环境中对所述加密目标样本解密并将解密后的目标样本输入特征提取模型,得到样本特征;
确定单元,将所述可信执行环境输出的样本特征确定为用于本次迭代的目标样本特征;
训练单元,利用所述目标样本特征对目标模型进行本次迭代训练。
一种基于可信执行环境的模型训练装置,包括:
处理器;
用于存储机器可执行指令的存储器;
其中,通过读取并执行所述存储器存储的与基于可信执行环境的模型训练逻辑对应的机器可执行指令,所述处理器被促使:
从加密训练样本集中获取若干加密目标样本;
将所述若干加密目标样本输入可信执行环境,在可信执行环境中对所述加密目标样本解密并将解密后的目标样本输入特征提取模型,得到样本特征;
将所述可信执行环境输出的样本特征确定为用于本次迭代的目标样本特征;
利用所述目标样本特征对目标模型进行本次迭代训练。
本说明书一个实施例实现了,可以从加密训练样本集中获取若干加密目标样本,然后将加密目标样本输入到可信执行环境中,在可信执行环境中对加密目标样本进行解密,并将解密后的目标样本输入到特征提取模型中,得到目标样本特征,从而利用所述目标样本特征对目标模型进行本次迭代训练。
采用上述方法,一方面,相比于相关技术中在可信执行环境中进行整个目标模型的训练过程来说,可以仅在可信执行环境中执行特征提取这一计算量更少的步骤,减轻可信执行环境的处理压力。另一方面,在常规执行环境中仅涉及加密训练样本、样本特征,并非原始的训练样本数据,可以避免了原始的训练样本数据被泄露的问题,保证了数据安全。
附图说明
图1为本说明书一示例性实施例示出的一种基于可信执行环境的模型训练方法的流程示意图;
图2为本说明书一示例性实施例示出的一种架构图;
图3为本说明书一示例性实施例示出的另一种基于可信执行环境的模型训练方法的流程示意图;
图4为本说明书一示例性实施例示出的一种反向传播方法的示意图;
图5为本说明书一示例性实施例示出的一种交换加密训练样本的示意图;
图6为本说明书一示例性实施例示出的一种基于可信执行环境的模型训练装置的一结构示意图;
图7为本说明书一示例性实施例示出的一种基于可信执行环境的模型训练装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本说明书相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本说明书的一些方面相一致的装置和方法的例子。
在本说明书使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书。在本说明书和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本说明书可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
众所周知,许多机器学习的任务都需要使用大量的数据来训练,特别对于一些深度学习的任务,其使用的训练数据甚至达到了TB、PB(1TB=1024GB,1PB=1024TB)量级。而在执行这些机器学习任务的过程中,保证数据安全、避免泄露隐私十分重要。
在一些情况下,机器学习模型可以是由多个数据持有方提供的数据联合训练得到的,每个数据持有方都可以提供一些训练样本数据,并且不同数据持有方提供的训练样本数据可以是不同维度的。可以将各个数据持有方提供的训练样本数据进行整合,得到维度更丰富的训练样本数据,从而训练出效果更佳的模型。然而,在大数据时代,数据本身就是一种十分有价值的资源,数据持有方在贡献自身的训练样本数据的同时,并不希望把这些数据原封不动地分享出来,以防这些数据被其它数据持有方恶意窃取。基于此,有必要采取一些保证数据安全的措施。
在另一些情况下,机器学习模型也可以是由单个数据持有方自身的数据训练得到的。采用这种方法,虽然不存在上述数据被其它数据持有方恶意窃取的情况,但是为了避免开发人员在训练模型的过程中接触到原始训练数据(比如用户人脸图像、用户账号等涉及用户个人隐私的数据),同样有必要对这些原始训练数据采取保护措施。
相关技术中,可以采取联邦学习、多方安全计算等方法来保证数据安全。在这些方法中,可以借助一个第三方(即区别于各个数据持有方的一方)来训练模型,各个数据持有方可以将自身的训练样本数据加密后发送给第三方,第三方可以调用可信执行环境(Trusted Execution Environment,TEE)来训练模型,从而保证数据安全。
其中,可信执行环境是设备处理器上的一个安全区域,其可以保证加载到该环境内部的代码和数据的安全性、机密性以及完整性。TEE提供一个隔离的执行环境,提供的安全特征包含:隔离执行、可信应用的完整性、可信数据的机密性、安全存储等。总体来说,TEE可以提供比操作系统更高级别的安全性。
然而,在TEE中训练模型,一方面,当存在多个数据持有方时,第三方需要针对每个数据持有方都创建一个对应的可信执行环境,并且在每个数据持有方对应的TEE中分别训练模型、更新模型参数等等,在TEE中产生巨大的计算开销,并且各个TEE之间进行通讯也会带来巨大的通讯量。另一方面,即便是只存在一个数据持有方,当面对深度机器学习任务海量的训练样本数据时,采用TEE来基于这些海量的训练样本数据训练模型,同样会给TEE带来巨大的计算压力。
本说明书提供了一种基于可信执行环境的模型训练方法。
图1是本说明书一示例性实施例示出的一种基于可信执行环境的模型训练方法的流程示意图。
所述基于可信执行环境的模型训练方法可以应用于具有处理器、存储器的电子设备中,本说明书对此不作特殊限制。
请参考图1,所述基于可信执行环境的模型训练方法可以包括以下步骤:
步骤102,从加密训练样本集中获取若干加密目标样本;
步骤104,将所述若干加密目标样本输入可信执行环境,在可信执行环境中对所述加密目标样本解密并将解密后的目标样本输入特征提取模型,得到样本特征;
步骤106,将所述可信执行环境输出的样本特征确定为用于本次迭代的目标样本特征;
步骤108,利用所述目标样本特征对目标模型进行本次迭代训练。
下面对上述步骤进行详细说明。
本实施例中,以存在一个数据持有方为例,对所述基于可信执行环境的模型训练方法进行说明。并且,本实施例中可以由该数据持有方自身来训练目标模型。当然,在其它实施例中,也可以由第三方来训练目标模型,本说明书对此不作特殊限制。
本实施例中,所述数据持有方可以预先获取一些训练样本,然后对这些训练样本进行加密,得到加密训练样本集。其中,加密的方法可以参照相关技术,本实施例对此不作特殊限制。
数据持有方可以先在常规执行环境中从加密训练样本集中获取若干加密目标样本。所述常规执行环境可以指:除可信执行环境外的其余执行环境。
确定加密目标样本后,数据持有方可以调用TEE,在TEE中对加密目标样本进行解密处理,解密处理的方法与加密处理的方法相对应,同样可以参照相关技术。然后在TEE中针对每条解密后的目标样本,提取出所述目标样本的样本特征。比如,当目标模型为人脸识别模型时,所述样本特征可以是人脸特征;再比如,当目标模型为风险预测模型时,所述样本特征可以为用户年龄、性别、交易记录等等。本实施例对此不作特殊限制。提取出的样本特征通常是向量、矩阵等形式,不会泄露样本的隐私信息。
本实施例中,可以通过以下的方法来获取样本特征:
在一个例子中,可以根据预设的规则来提取样本特征。
可以指定待提取的信息,然后从每个目标样本中提取出所述待提取信息作为样本特征。比如,假设目标样本为用户的账号信息,可以指定待提取的信息为:用户的姓名、年龄、身份证、居住地;再比如,假设目标样本为用户的历史交易信息,可以指定待提取的信息为:转账金额、转账时间、收款方信息。
本例中,还可以将样本特征转换为向量、字符串等形式,比如,若待提取的信息包括用户的居住地,假设用户的居住地为浙江,则确定样本特征为1;假设用户的居住地为北京,则确定样本特征为0。采用这种方法不仅可以将样本特征转换为计算机易于处理的形式,还可以弱化样本特征的实际含义,有助于保护隐私数据。
当然,上述例子仅仅是示意性的说明,在实际应用中也可以采取其它方法提取样本特征,本实施例对此不作特殊限制。
在另一个例子中,也可以将上述目标样本输入到可信执行环境中的特征提取模型中,利用所述特征提取模型预测得到样本特征。所述特征提取模型可以是预先训练得到的,也可以是在目标模型迭代训练的过程中与目标模型联合训练得到的,本实施例对此不作特殊限制。
本实施例中,可以采用迭代训练的方法来训练目标模型,在每次迭代中可以采用不同的样本特征对目标模型进行训练。
在一个例子中,数据持有方在一次迭代中,可以从加密训练样本集中选取一部分加密目标样本,将这些加密目标样本输入TEE以提取样本特征(即目标样本特征),在本次迭代中利用这些目标样本特征对目标模型进行训练。在下次迭代中则可以从加密训练样本集中获取另一部分加密目标样本,再次执行上述步骤,以此进行多次迭代。
在另一个例子中,数据持有方也可以在开始迭代训练之前,预先将加密训练样本集中的加密目标样本均输入到TEE中以提取样本特征,然后可以将这些样本特征保存(可以保存在TEE中,也可以保存在常规执行环境中)。那么在每次迭代训练中,数据持有方可以不用获取加密目标样本,而是根据所述加密目标样本与样本特征之间的对应关系,直接获取本次迭代所需的目标样本特征即可。本实施例对此不作特殊限制。
本实施例中,当采用迭代训练的方法来训练目标模型时,可以通过以下的方法来判断是否满足目标模型的训练要求。
比如,可以判断迭代训练的次数是否达到了次数阈值,所述次数阈值可以人为设置,若达到次数阈值,则满足训练要求;反之,则不满足训练要求。
再比如,还可以基于损失函数,计算目标模型每次迭代对应的损失,判断所述损失是否小于损失阈值,若小于,则满足训练要求;反之,则可以利用梯度下降法等方法更新目标模型的模型参数,再次进行迭代训练。
当然,也可以采取其它方法判断目标模型是否已训练完成,本实施例对此不作特殊限制。
由以上描述可以看出,在本说明书的一个实施例中,从加密训练样本集中获取加密目标样本,然后调用TEE对加密目标样本进行解密,然后将解密得到的目标样本输入到TEE中的特征提取模型中,得到样本特征,将所述样本特征确定为用于本次迭代的目标样本特征,然后利用所述目标样本特征对目标模型进行训练。可以按照上述的方法对目标模型进行多次的迭代训练,直到满足目标模型的训练要求。
采用上述方法,一方面,相比于相关技术中在可信执行环境中进行整个目标模型的训练过程来说,本实施例所述方法可以仅在TEE中执行特征提取这一计算量更少的步骤,而将模型训练这种较为复杂的步骤放在常规执行环境中进行,从而减少TEE中的计算量,减轻TEE的处理压力。另一方面,本实施例所述方法在常规执行环境中仅涉及加密训练样本、样本特征,并非原始的训练样本数据,也就避免了原始的训练样本数据被泄露的问题,保证了数据安全。
下面对本说明书提供的另一种基于可信执行环境的模型训练方法进行说明。
本实施例所述方法中,可以存在多个数据持有方,并且这些数据持有方都可以作为训练目标模型的执行主体,共同地训练目标模型。
首先对本实施例的场景架构进行说明。请参见图2,图2为本说明书一示例性实施例示出的一种架构图。图2中,存在服务器S0、S1、S2、Sx、Sx+1……Sn。
其中,服务器S1—Sx可以是数据持有方A对应的服务器,服务器Sx+1—Sn可以是数据持有方B对应的服务器。其中,服务器S1—Sn中的每个服务器上可以运行一个训练进程,分别为s1、s2……sn,可以通过n个训练进程来一起训练得到目标模型。当然,在其他实施例中,也可以在一台服务器上运行有多个训练进程,本说明书对此不作特殊限制。各个训练进程可以彼此独立运行,即若一台服务器发生了故障,不会对其它服务器上运行的训练进程产生影响。
服务器S0可以理解为管理服务器S1—Sn的总服务器,服务器S0可以属于数据持有方A,也可以属于数据持有方B,或者也可以属于第三方,本实施例对此不作特殊限制。
服务器S1—Sn中的每个服务器都可以将本地存储的若干训练样本数据加密后发送给服务器S0,服务器S0可以对接收到的加密训练样本数据进行存储,得到加密训练样本集。
服务器S0可以将所述加密训练样本集分成若干份。举例来说,S0可以将加密训练样本集分为n份,得到n个子训练样本集,分别为S0(1)、S0(2)……S0(n)。那么服务器S1、S2……Sn上运行的训练进程可以分别从S0上分别获取对应的子训练样本集作为目标样本,比如训练进程s1可以获取S0(1)、s2可以获取S0(2)……sn可以获取S0(n)。当然,也可以各个训练进程随机从S0上获取子训练样本集,本实施例对此不作特殊限制。各个服务器上的训练进程获取到对应的子训练样本集后,还可以将所述子训练样本集存储于本地,用于后续计算。
当然,在其它实施例中,也可以不存在服务器S0,本说明书对此不作特殊限制。
采用这样的方法,可以将大量的加密训练样本数据拆分为若干份,每个训练进程只需要获取其对应的一小部分加密训练样本数据即可,可以减轻服务器的计算压力,提高计算效率。
请参见图3,图3为本说明书一示例性实施例示出的另一种基于可信执行环境的模型训练方法的流程示意图。
本实施例中,服务器S1、S2……Sn上的每个训练进程都可以执行以下步骤进行迭代训练,直到满足目标模型的训练要求:
步骤202,获取用于本次迭代的若干加密目标样本。
本步骤中,训练进程在首次迭代训练时,可以从服务器S0上获取对应的子训练样本集,并将所述子训练样本集中的加密训练样本确定为本次迭代的加密目标样本。
在非首次迭代训练时,每个训练进程可以在上一迭代执行步骤214后得到交换后的子训练样本集,然后将交换后的子训练样本集中的加密训练样本确定为本次迭代的加密目标样本。其中,交换的方法在后续步骤214中详细说明。
步骤204,在TEE中,对所述若干加密目标样本进行解密。
本步骤中,训练进程可以调用TEE,在TEE中对加密目标样本进行解密。
其中,目标样本的加密方法可以是DES(Date Encryption Standard,数据加密标准)法、AES(Advanced Encryption Standard,高级加密标准)法、3DES(Triple DateEncryption Algorithm,三重数据加密)法、RSA法等,也可以是相关技术中的其它加密方法,本实施例对此不作特殊限制。具体的加密、解密方法参照相关技术,在此不再赘述。
值得说明的是,在本实施例的一个例子中,每个训练进程都可以存在对应的一个TEE,各个训练进程之间并不共享TEE。那么每个训练进程在执行步骤204时,可以直接调取其对应的TEE。
在本实施例的另一个例子中,也可以各个训练进程共用一个TEE,那么每个训练进程在执行步骤204时,都可以调用这个共用的TEE。
在本实施例的另一个例子中,也可以不同数据持有方存在不同的TEE。比如当存在数据持有方A和数据持有方B这两个数据持有方时,可以存在数据持有方A对应的TEE(A)和数据持有方B对应的TEE(B),那么这两个数据持有方对应的训练进程在执行步骤204时,可以分别调用各自对应的TEE。
当然,在其它例子中,也可以采取其它方法,本实施例对此不作特殊限制。
步骤206,在TEE中,对解密后的目标样本进行特征增强处理。
本步骤中,可以在TEE中对解密后的目标样本进行特征增强处理,便于后续在步骤208中提取样本特征。
例如,当所述目标样本为图像时,所述特征增强处理可以包括以下一种或多种:裁剪、翻转、基于预设角度对图像进行旋转、灰度化、更改图像中像素点的像素值等。
再例如,当所述目标样本为文本时,所述特征增强处理可以包括以下一种或多种:分词、过滤标点符号、去除停用词、将文本转换为向量等。
当然,在其它例子中,也可以采取其它的特征增强处理方法,本实施例对此不作特殊限制。
步骤208,在TEE中,提取出所述目标样本的目标样本特征。
本实施例中,可以将目标样本输入到TEE中的特征提取模型中,根据特征提取模型的输出结果确定目标样本特征。
值得说明的是,本步骤中,服务器S1、S2……Sn上的各个训练进程可以利用同一个特征提取模型来预测样本特征,也可以利用多个特征提取模型来预测样本特征,比如每个训练进程分别对应着一个特征提取模型(即有n个训练进程就有n个特征提取模型)。
步骤210,基于所述目标样本特征对目标模型进行训练,并判断是否达到目标模型的训练要求。
本步骤中,训练进程可以利用提取得到的目标样本特征对目标模型进行训练。还可以判断是否达到目标模型的训练要求。
例如,可以根据目标模型的损失函数,计算出本次迭代中所述目标模型对应的第一梯度值,然后判断所述第一梯度值是否小于梯度阈值,若小于,则确定达到目标模型的训练要求,执行步骤212,结束训练;若不小于,则确定未达到目标模型的训练要求,执行步骤214。其中,计算梯度值的方法参照相关技术,在此不再赘述。
本例中,若未达到目标模型的训练要求,还可以基于所述第一梯度值更新目标模型的模型参数,利用更新后的模型参数进行下一次迭代训练。
比如,当目标模型存在大量的模型参数时,每个模型参数的收敛条件很可能是不一样的,那么可以为这些模型参数分别指定对应的训练进程,每个训练进程负责对目标模型的指定模型参数计算相关损失、梯度值,以更新模型参数。具体的参数更新方法参照相关技术,在此不再一一说明。
本例中,对于步骤208中提及的,特征提取模型与目标模型联合训练的情况,在常规执行环境中得到目标模型对应的第一梯度值后,还可以基于所述第一梯度值计算得到第二梯度值,并且将第二梯度值输入到TEE中,并利用第二梯度值更新TEE中特征提取模型的模型参数。
下面以一个具体的例子进行说明,请参见图4,可以将解密后的目标样本输入到TEE中的特征提取模型中,得到目标样本特征为x。然后可以将x输入到目标模型中。假设目标模型包括MatMul和Softmax两层。目标样本特征x首先输入到MatMul这一层中,得到结果为xs,然后将xs输入到Softmax这一层中,得到结果为y,y即目标模型的预测结果。
在反向传播计算梯度时,可以先基于损失函数的公式L计算得到损失值,然后计算
L对y求偏导,得到,然后将传播到Softmax这一层,按照计算Softmax这
一层的梯度,其中可以根据Sotmax这一层的函数计算得到。然后将传播到MatMul这
一层,按照计算MatMul这一层的梯度,其中同样可以根据MatMul这一层
的函数计算得到。最终可以将输入到TEE中,以利用更新特征提取模型的模型参数。
当然,上述例子仅仅是示意性的说明,在实际情况下目标模型也可以不是上述MatMul和Sotmax的结构,本说明书对此不作特殊限制。
步骤214,与其他训练进程交换部分加密训练样本,得到交换后的子训练样本集。
本步骤中,每个训练进程都可以与其他训练进行交换部分加密训练样本,然后将交换后得到的子训练样本作为下一次迭代时的目标样本。
在一个例子中,可以由各个训练进程完成交换。
例如,每个训练进程可以将自身的子训练样本集中预设比例的加密训练样本发送给第一指定训练进程,然后将这部分训练样本从自身的子训练样本集中删除。接收由第二指定训练进程发送的加密训练样本,将所述第二指定训练进程发送的加密训练样本自身的子训练样本集,最终得到交换后的子训练样本集。
下面以一个具体的例子进行说明。请参见图5,图5为本说明书一示例性实施例示出的一种交换加密训练样本的示意图。
图5中存在s1、s2、s3这三个训练进程,并且每个训练进程都存在对应的2个加密训练样本,其中,训练进程s1的加密训练样本为样本1a、样本1b;训练进程s2的加密训练样本为样本2a、样本2b;训练进程s3的加密训练样本为样本3a、样本3b。假设s1、s2、s3在交换加密训练样本时,上述预设比例均为1/2,也就是说,每个训练进程都将自身拥有的2个训练样本中的1个加密训练样本发送出去,并且每个训练进程都可以得到来自其他训练进程发送的1个加密训练样本,这样交换结束后每个训练进程仍然拥有2个加密训练样本。
可参见图5,假设s1的第一指定训练进程为s2,第二指定训练进程为s3,那么s1可以把样本1a发送给s2,且接收到s3发送的样本3a,那么交换后s1的子训练样本集包括样本3a、样本1b。同理,假设s2的第一指定训练进程为s3,第二指定训练进程为s1,那么s2可以把样本2a发送给s3,且接收到s1发送的样本1a,那么交换后s2的子训练样本集包括样本1a、样本2b。假设s3的第一指定训练进程为s1,第二指定训练进程为s2,那么s3可以把样本3a发送给s1,且接收到s2发送的样本2a,那么交换后s3的子训练样本集包括样本2a、样本3b。
当然,上述例子仅仅是示意性的说明,在其它情况下,也可以采取其它方法交换加密训练样本,本实施例对此不作特殊限制。
在另一个例子中,也可以由交换进程来完成交换。
例如,可以在图2中的服务器S0上运行一个交换进程,并且服务器S0可以和服务器S1、S2……Sn进行通信。服务器S1、S2……Sn上的训练进程执行步骤210后,确定未达到目标模型的训练要求,则各个训练进程可以向服务器S0发送一个通知,以通知服务器S0运行交换进程。服务器S0可以在接收到服务器S1、S2……Sn上共n个训练进程发送的通知后再运行交换进程,也可以在接收到预设数量的训练进程发送通知后就运行交换进程,比如预设数量可以为n-5。
交换进程可以是按照上述类似的方法,对各个训练进程的子训练样本集进行交换,也可以采取其它方法进行交换。比如,交换进程可以获取所有训练进程对应的子训练样本集,然后将这些子训练样本集中的加密训练样本“打乱”后重新排列,然后再将重新排列后的加密训练样本随机地分为若干份,得到若干份交换后的子训练样本集。
并且,在交换完成后,服务器S0还可以向服务器S1、S2……Sn发送交换完成的通知,以使服务器S1、S2……Sn上的训练进程在下次迭代训练中获取新的加密目标样本。
采用上述方法,一方面,对加密训练样本进行交换、重组后再训练,可以使用不同组合方式来训练模型,以得到性能更优的模型。另一方面,各个训练进程交换各自的加密训练样本后,可以在下次迭代训练中将这些加密训练样本再次输入到TEE中以提取得到样本特征,由于在提取样本特征前会先对训练样本进行特征增强,如对于图像样本,可以对图像进行随机裁切、随机更改像素值等增强处理,那么同一训练样本每次经过增强处理后提取得到的样本特征很可能是不同的,可以使用尽可能多的样本特征来训练模型,同样可以提高模型性能。
当然,各个训练进程除了按照上述方法进行加密训练样本的交换外,也可以直接交换目标样本特征,交换目标样本特征的方法可以与前述交换加密目标样本的方法类似。那么在下次迭代训练中,各个训练进程可以直接利用交换后得到的目标样本特征进行训练,而不必执行再次将加密训练样本输入TEE中进行特征提取的步骤。
本实施例中,可以采用上述方法对目标模型进行迭代训练,直到得到训练好的目标模型。
值得说明的是,本实施例中,在每次迭代训练时,一方面,考虑到系统的一致性要求,可以等待每一个训练进程都完成本次迭代后再进行下一次迭代训练。另一方面,考虑到系统的稳定性要求,在训练进程数量很多的情况下很可能会出现一些训练进程因故障导致无法顺利完成迭代的问题,那么还可以不必等待所有训练进程都完成本次迭代,比如“算得快”的训练进程完成本次迭代后可以继续下一轮迭代,但是可以设置其比“算的最慢”的训练进程领先的迭代步不得超过x步,x的数值可以人为预设。这样不仅可以省去等待的时间,也可以在整体上保持系统的稳定性。当然,在实际情况下也可以选择其他的方法,本实施例对此不作特殊限制。
由以上描述可以看出,在本说明书中的一个实施例中,可以开启多个训练进程以执行目标模型的迭代训练,每个训练进程在迭代训练的过程中可以获取其对应的子训练样本集作为目标样本,然后调用TEE提取出目标样本的样本特征,在常规执行环境中利用样本特征训练目标模型,从而保证了数据的安全。
其中,采用多个训练进程对目标模型进行训练,一方面,可以多个训练进程同时运行,提高了训练效率;另一方面,由于目标模型在训练过程中需要用到大量的训练样本数据,将这些训练样本数据切分后分别交给多个训练进程来执行,每个训练进程只需要负责处理一部分训练样本数据即可,可以减轻设备的处理压力;再一方面,还可以在目标模型的模型参数数量规模巨大的情况下,将这些模型参数分别指派给各个训练进程,每个训练进程负责更新其对应的模型参数,通过多个训练进程联合训练目标模型。
与前述基于可信执行环境的模型训练方法的实施例相对应,本说明书还提供了基于可信执行环境的模型训练装置的实施例。
本说明书基于可信执行环境的模型训练装置的实施例可以应用在电子设备上。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在电子设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。从硬件层面而言,如图6所示,为本说明书基于可信执行环境的模型训练装置的一结构示意图,除了图6所示的处理器、内存、网络接口、以及非易失性存储器之外,实施例中装置所在的基于可信执行环境的模型训练通常根据该电子设备的实际功能,还可以包括其他硬件,对此不再赘述。
图7为本说明书一示例性实施例示出的一种基于可信执行环境的模型训练装置的框图。
请参考图7,所述基于可信执行环境的模型训练装置600可以应用在前述图6所示的电子设备中,包括有获取单元610、输入单元620、确定单元630、训练单元640。
其中,获取单元610,从加密训练样本集中获取若干加密目标样本;
输入单元620,将所述若干加密目标样本输入可信执行环境,在可信执行环境中对所述加密目标样本解密并将解密后的目标样本输入特征提取模型,得到样本特征;
确定单元630,将所述可信执行环境输出的样本特征确定为用于本次迭代的目标样本特征;
训练单元640,利用所述目标样本特征对目标模型进行本次迭代训练。
可选的,所述训练单元640:
根据所述目标模型的损失函数,确定本次迭代中所述目标模型对应的第一梯度值;
利用所述第一梯度值更新所述目标模型的模型参数;
所述训练单元还:
基于所述第一梯度值计算出本次迭代中所述特征提取模型对应的第二梯度值;
利用所述第二梯度值更新所述特征提取模型的模型参数。
可选的,所述输入单元620在将解密后的目标样本输入特征提取模型之前,还:
在可信执行环境中对所述解密后的目标样本进行特征增强处理。
可选的,所述装置基于多个训练进程执行所述目标模型的迭代训练;
每个训练进程执行所述获取单元610中获取若干加密目标样本时:
在首次迭代时,获取本训练进程对应的子训练样本集,并将所述子训练样本集中的加密训练样本确定为本次迭代的加密目标样本;
在非首次迭代时,与指定训练进程交换部分加密训练样本,得到本次迭代的加密目标样本。
可选的,所述获取单元610在与指定训练进程交换部分加密训练样本时:
每个训练进程将对应的子训练样本集中预设比例的加密训练样本发送给第一指定训练进程;
接收由第二指定训练进程发送的加密训练样本。
可选的,各个训练进程分别用于训练得到所述目标模型的指定模型参数。
可选的,所述训练单元640,还:
针对每个训练进程,执行以下操作:
与指定训练进程交换部分目标样本特征,得到本训练进程用于下次迭代的交换后的目标样本特征,并在下次迭代中利用所述交换后的目标样本特征对所述目标模型进行训练。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本说明书方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机,计算机的具体形式可以是个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件收发设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任意几种设备的组合。
与前述基于可信执行环境的模型训练方法的实施例相对应,本说明书还提供一种基于可信执行环境的模型训练装置,该装置包括:处理器以及用于存储机器可执行指令的存储器。其中,处理器和存储器通常借由内部总线相互连接。在其他可能的实现方式中,所述设备还可能包括外部接口,以能够与其他设备或者部件进行通信。
在本实施例中,通过读取并执行所述存储器存储的与基于可信执行环境的模型训练逻辑对应的机器可执行指令,所述处理器被促使:
从加密训练样本集中获取若干加密目标样本;
将所述若干加密目标样本输入可信执行环境,在可信执行环境中对所述加密目标样本解密并将解密后的目标样本输入特征提取模型,得到样本特征;
将所述可信执行环境输出的样本特征确定为用于本次迭代的目标样本特征;
利用所述目标样本特征对目标模型进行本次迭代训练。
可选的,在利用所述目标样本特征对所述目标模型进行本次迭代训练时,所述处理器被促使:
根据所述目标模型的损失函数,确定本次迭代中所述目标模型对应的第一梯度值;
利用所述第一梯度值更新所述目标模型的模型参数;
所述处理器还被促使:
基于所述第一梯度值计算出本次迭代中所述特征提取模型对应的第二梯度值;
利用所述第二梯度值更新所述特征提取模型的模型参数。
可选的,在将解密后的目标样本输入特征提取模型之前,所述处理器还被促使:
在可信执行环境中对所述解密后的目标样本进行特征增强处理。
可选的,所述装置基于多个训练进程执行所述目标模型的迭代训练;
在每个训练进程获取用于本次迭代的若干目标样本的过程,所述处理器被促使:
在首次迭代时,获取本训练进程对应的子训练样本集,并将所述子训练样本集中的加密训练样本确定为本次迭代的加密目标样本;
在非首次迭代时,与指定训练进程交换部分加密训练样本,得到本次迭代的加密目标样本。
可选的,在与指定训练进程交换部分加密训练样本时,所述处理器被促使:
每个训练进程将对应的子训练样本集中预设比例的加密训练样本发送给第一指定训练进程;
接收由第二指定训练进程发送的加密训练样本。
可选的,各个训练进程分别用于训练得到所述目标模型的指定模型参数。
可选的,在利用所述目标样本特征对所述目标模型进行本次迭代训练之后,所述处理器还被促使:
针对每个训练进程,执行以下操作:
与指定训练进程交换部分目标样本特征,得到本训练进程用于下次迭代的交换后的目标样本特征,并在下次迭代中利用所述交换后的目标样本特征对所述目标模型进行训练。与前述基于可信执行环境的模型训练方法的实施例相对应,本说明书还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,该程序被处理器执行时实现以下步骤:
从加密训练样本集中获取若干加密目标样本;
将所述若干加密目标样本输入可信执行环境,在可信执行环境中对所述加密目标样本解密并将解密后的目标样本输入特征提取模型,得到样本特征;
将所述可信执行环境输出的样本特征确定为用于本次迭代的目标样本特征;
利用所述目标样本特征对目标模型进行本次迭代训练。
可选的,所述利用所述目标样本特征对所述目标模型进行本次迭代训练,包括:
根据所述目标模型的损失函数,确定本次迭代中所述目标模型对应的第一梯度值;
利用所述第一梯度值更新所述目标模型的模型参数;
还包括:
基于所述第一梯度值计算出本次迭代中所述特征提取模型对应的第二梯度值;
利用所述第二梯度值更新所述特征提取模型的模型参数。
可选的,所述将解密后的目标样本输入特征提取模型之前,还包括:
在可信执行环境中对所述解密后的目标样本进行特征增强处理。
可选的,基于多个训练进程执行所述目标模型的迭代训练;
每个训练进程获取若干目标样本的过程,包括:
在首次迭代时,获取本训练进程对应的子训练样本集,并将所述子训练样本集中的加密训练样本确定为本次迭代的加密目标样本;
在非首次迭代时,与指定训练进程交换部分加密训练样本,得到本次迭代的加密目标样本。
可选的,所述与指定训练进程交换部分加密训练样本,包括:
每个训练进程将对应的子训练样本集中预设比例的加密训练样本发送给第一指定训练进程;
接收由第二指定训练进程发送的加密训练样本。
可选的,各个训练进程分别用于训练得到所述目标模型的指定模型参数。
可选的,所述利用所述目标样本特征对所述目标模型进行本次迭代训练之后,还包括:针对每个训练进程,执行以下操作:
与指定训练进程交换部分目标样本特征,得到本训练进程用于下次迭代的交换后的目标样本特征,并在下次迭代中利用所述交换后的目标样本特征对所述目标模型进行训练。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
以上所述仅为本说明书的较佳实施例而已,并不用以限制本说明书,凡在本说明书的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本说明书保护的范围之内。
Claims (13)
1.一种基于可信执行环境的模型训练方法,包括:
从加密训练样本集中获取若干加密目标样本;
将所述若干加密目标样本输入可信执行环境,在可信执行环境中对所述加密目标样本解密并将解密后的目标样本输入特征提取模型,得到样本特征;
将所述可信执行环境输出的样本特征确定为用于本次迭代的目标样本特征;
利用所述目标样本特征对目标模型进行本次迭代训练;
所述利用所述目标样本特征对目标模型进行本次迭代训练,包括:
根据所述目标模型的损失函数,确定本次迭代中所述目标模型对应的第一梯度值;
利用所述第一梯度值更新所述目标模型的模型参数;
所述方法还包括:
基于所述第一梯度值计算出本次迭代中所述特征提取模型对应的第二梯度值;
将所述第二梯度值输入到所述可信执行环境中,并利用所述第二梯度值更新所述可信执行环境中特征提取模型的模型参数。
2.根据权利要求1所述方法,所述将解密后的目标样本输入特征提取模型之前,所述方法还包括:
在可信执行环境中对所述解密后的目标样本进行特征增强处理。
3.根据权利要求1至2任一项所述方法,基于多个训练进程执行所述目标模型的迭代训练;
每个训练进程获取若干加密目标样本的过程,包括:
在首次迭代时,获取本训练进程对应的子训练样本集,并将所述子训练样本集中的加密训练样本确定为本次迭代的加密目标样本;
在非首次迭代时,与指定训练进程交换部分加密训练样本,得到本次迭代的加密目标样本。
4.根据权利要求3所述方法,所述与指定训练进程交换部分加密训练样本,包括:
每个训练进程将对应的子训练样本集中预设比例的加密训练样本发送给第一指定训练进程;
接收由第二指定训练进程发送的加密训练样本。
5.根据权利要求3所述方法,各个训练进程分别用于训练得到所述目标模型的指定模型参数。
6.根据权利要求3所述方法,所述利用所述目标样本特征对所述目标模型进行本次迭代训练之后,所述方法还包括:
针对每个训练进程,执行以下操作:
与指定训练进程交换部分目标样本特征,得到本训练进程用于下次迭代的交换后的目标样本特征,并在下次迭代中利用所述交换后的目标样本特征对所述目标模型进行训练。
7.一种基于可信执行环境的模型训练装置,包括:
获取单元,从加密训练样本集中获取若干加密目标样本;
输入单元,将所述若干加密目标样本输入可信执行环境,在可信执行环境中对所述加密目标样本解密并将解密后的目标样本输入特征提取模型,得到样本特征;
确定单元,将所述可信执行环境输出的样本特征确定为用于本次迭代的目标样本特征;
训练单元,利用所述目标样本特征对目标模型进行本次迭代训练;
所述训练单元:
根据所述目标模型的损失函数,确定本次迭代中所述目标模型对应的第一梯度值;
利用所述第一梯度值更新所述目标模型的模型参数;
所述训练单元还:
基于所述第一梯度值计算出本次迭代中所述特征提取模型对应的第二梯度值;
利用所述第二梯度值更新所述特征提取模型的模型参数。
8.根据权利要求7所述装置,所述输入单元在将解密后的目标样本输入特征提取模型之前,还:
在可信执行环境中对所述解密后的目标样本进行特征增强处理。
9.根据权利要求7至8任一项所述装置,基于多个训练进程执行所述目标模型的迭代训练;
每个训练进程执行所述获取单元中获取若干加密目标样本时:
在首次迭代时,获取本训练进程对应的子训练样本集,并将所述子训练样本集中的加密训练样本确定为本次迭代的加密目标样本;
在非首次迭代时,与指定训练进程交换部分加密训练样本,得到本次迭代的加密目标样本。
10.根据权利要求9所述装置,所述获取单元在与指定训练进程交换部分加密训练样本时:
每个训练进程将对应的子训练样本集中预设比例的加密训练样本发送给第一指定训练进程;
接收由第二指定训练进程发送的加密训练样本。
11.根据权利要求9所述装置,各个训练进程分别用于训练得到所述目标模型的指定模型参数。
12.根据权利要求9所述装置,所述训练单元,还:
针对每个训练进程,执行以下操作:
与指定训练进程交换部分目标样本特征,得到本训练进程用于下次迭代的交换后的目标样本特征,并在下次迭代中利用所述交换后的目标样本特征对所述目标模型进行训练。
13.一种基于可信执行环境的模型训练装置,包括:
处理器;
用于存储机器可执行指令的存储器;
其中,通过读取并执行所述存储器存储的与基于可信执行环境的模型训练逻辑对应的机器可执行指令,所述处理器被促使:
从加密训练样本集中获取若干加密目标样本;
将所述若干加密目标样本输入可信执行环境,在可信执行环境中对所述加密目标样本解密并将解密后的目标样本输入特征提取模型,得到样本特征;
将所述可信执行环境输出的样本特征确定为用于本次迭代的目标样本特征;
利用所述目标样本特征对所述目标模型进行本次迭代训练;
所述利用所述目标样本特征对目标模型进行本次迭代训练,包括:
根据所述目标模型的损失函数,确定本次迭代中所述目标模型对应的第一梯度值;
利用所述第一梯度值更新所述目标模型的模型参数;
所述处理器还被促使:
基于所述第一梯度值计算出本次迭代中所述特征提取模型对应的第二梯度值;
将所述第二梯度值输入到所述可信执行环境中,并利用所述第二梯度值更新所述可信执行环境中特征提取模型的模型参数。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011012420.3A CN111935179B (zh) | 2020-09-23 | 2020-09-23 | 一种基于可信执行环境的模型训练方法和装置 |
EP21180855.5A EP3975023A1 (en) | 2020-09-23 | 2021-06-22 | Trusted execution environment-based model training methods and apparatuses |
US17/359,946 US11500992B2 (en) | 2020-09-23 | 2021-06-28 | Trusted execution environment-based model training methods and apparatuses |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011012420.3A CN111935179B (zh) | 2020-09-23 | 2020-09-23 | 一种基于可信执行环境的模型训练方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111935179A CN111935179A (zh) | 2020-11-13 |
CN111935179B true CN111935179B (zh) | 2021-01-12 |
Family
ID=73335092
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011012420.3A Active CN111935179B (zh) | 2020-09-23 | 2020-09-23 | 一种基于可信执行环境的模型训练方法和装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11500992B2 (zh) |
EP (1) | EP3975023A1 (zh) |
CN (1) | CN111935179B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112580085A (zh) * | 2021-02-22 | 2021-03-30 | 支付宝(杭州)信息技术有限公司 | 一种模型训练方法及装置 |
CN113095507A (zh) * | 2021-04-02 | 2021-07-09 | 支付宝(杭州)信息技术有限公司 | 机器学习模型进行训练、预测的方法、装置、设备及介质 |
CN113157400B (zh) * | 2021-05-17 | 2022-11-22 | 北京冲量在线科技有限公司 | 基于x86计算芯片的多方非监督学习联合建模方法 |
CN115563564B (zh) * | 2022-12-02 | 2023-03-17 | 腾讯科技(深圳)有限公司 | 决策树模型的处理方法、装置、计算机设备和存储介质 |
Family Cites Families (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7668790B2 (en) * | 2006-07-27 | 2010-02-23 | The United States Of America As Represented By The Secretary Of The Navy | System and method for fusing data from different information sources with shared-sampling distribution based boosting |
US11263432B2 (en) * | 2015-02-06 | 2022-03-01 | Veridium Ip Limited | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices |
US10831444B2 (en) * | 2016-04-04 | 2020-11-10 | Technion Research & Development Foundation Limited | Quantized neural network training and inference |
GB201610883D0 (en) * | 2016-06-22 | 2016-08-03 | Microsoft Technology Licensing Llc | Privacy-preserving machine learning |
US10416619B2 (en) * | 2016-07-25 | 2019-09-17 | General Electric Company | System modeling, control and optimization |
CN109308418B (zh) * | 2017-07-28 | 2021-09-24 | 创新先进技术有限公司 | 一种基于共享数据的模型训练方法及装置 |
GB2571703A (en) * | 2018-02-07 | 2019-09-11 | Thoughtriver Ltd | A computer system |
US11586743B2 (en) * | 2018-03-22 | 2023-02-21 | Via Science, Inc. | Secure data processing |
US11836576B2 (en) * | 2018-04-13 | 2023-12-05 | International Business Machines Corporation | Distributed machine learning at edge nodes |
US11443182B2 (en) * | 2018-06-25 | 2022-09-13 | International Business Machines Corporation | Privacy enhancing deep learning cloud service using a trusted execution environment |
CN110738323B (zh) * | 2018-07-03 | 2022-06-28 | 百度在线网络技术(北京)有限公司 | 基于数据共享建立机器学习模型的方法和装置 |
US11521090B2 (en) * | 2018-08-09 | 2022-12-06 | International Business Machines Corporation | Collaborative distributed machine learning |
US10740694B2 (en) * | 2018-08-10 | 2020-08-11 | Vis Machina Inc. | System and method for capture and adaptive data generation for training for machine vision |
US11816575B2 (en) * | 2018-09-07 | 2023-11-14 | International Business Machines Corporation | Verifiable deep learning training service |
US11244242B2 (en) * | 2018-09-07 | 2022-02-08 | Intel Corporation | Technologies for distributing gradient descent computation in a heterogeneous multi-access edge computing (MEC) networks |
US11886989B2 (en) * | 2018-09-10 | 2024-01-30 | International Business Machines Corporation | System for measuring information leakage of deep learning models |
CN109710636B (zh) * | 2018-11-13 | 2022-10-21 | 广东工业大学 | 一种基于深度迁移学习的无监督工业系统异常检测方法 |
CN111788585B (zh) * | 2019-01-16 | 2024-04-12 | 华为云计算技术有限公司 | 一种深度学习模型的训练方法、系统 |
CN111460453B (zh) * | 2019-01-22 | 2023-12-12 | 百度在线网络技术(北京)有限公司 | 机器学习训练方法、控制器、装置、服务器、终端和介质 |
US11966818B2 (en) * | 2019-02-21 | 2024-04-23 | Hewlett Packard Enterprise Development Lp | System and method for self-healing in decentralized model building for machine learning using blockchain |
CN109886417B (zh) * | 2019-03-01 | 2024-05-03 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数训练方法、装置、设备及介质 |
JP7470476B2 (ja) * | 2019-03-22 | 2024-04-18 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 蒸留を用いたそれぞれのターゲット・クラスを有するモデルの統合 |
US11494637B2 (en) * | 2019-03-28 | 2022-11-08 | International Business Machines Corporation | Layer-wise distillation for protecting pre-trained neural network models |
US11599774B2 (en) * | 2019-03-29 | 2023-03-07 | International Business Machines Corporation | Training machine learning model |
US20200311583A1 (en) * | 2019-04-01 | 2020-10-01 | Hewlett Packard Enterprise Development Lp | System and methods for fault tolerance in decentralized model building for machine learning using blockchain |
US20200364608A1 (en) * | 2019-05-13 | 2020-11-19 | International Business Machines Corporation | Communicating in a federated learning environment |
US20200387777A1 (en) * | 2019-06-05 | 2020-12-10 | University Of Southern California | Lagrange coded computing: optimal design for resiliency, security, and privacy |
FR3097353B1 (fr) * | 2019-06-12 | 2021-07-02 | Commissariat Energie Atomique | Méthode d’apprentissage collaboratif d’un réseau de neurones artificiels sans divulgation des données d’apprentissage |
US20200410288A1 (en) * | 2019-06-26 | 2020-12-31 | Here Global B.V. | Managed edge learning in heterogeneous environments |
US20210042645A1 (en) * | 2019-08-06 | 2021-02-11 | doc.ai, Inc. | Tensor Exchange for Federated Cloud Learning |
US20210049473A1 (en) * | 2019-08-14 | 2021-02-18 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and Methods for Robust Federated Training of Neural Networks |
US11303448B2 (en) * | 2019-08-26 | 2022-04-12 | Accenture Global Solutions Limited | Decentralized federated learning system |
US11470053B2 (en) * | 2019-10-14 | 2022-10-11 | Nec Corporation | Privacy-preserving machine learning |
CN110728375B (zh) * | 2019-10-16 | 2021-03-19 | 支付宝(杭州)信息技术有限公司 | 多个计算单元联合训练逻辑回归模型的方法和装置 |
US20210143987A1 (en) * | 2019-11-13 | 2021-05-13 | International Business Machines Corporation | Privacy-preserving federated learning |
US20210150042A1 (en) * | 2019-11-15 | 2021-05-20 | International Business Machines Corporation | Protecting information embedded in a machine learning model |
US11188791B2 (en) * | 2019-11-18 | 2021-11-30 | International Business Machines Corporation | Anonymizing data for preserving privacy during use for federated machine learning |
US20210166111A1 (en) * | 2019-12-02 | 2021-06-03 | doc.ai, Inc. | Systems and Methods of Training Processing Engines |
US11818145B2 (en) * | 2019-12-09 | 2023-11-14 | International Business Machines Corporation | Characterizing user behavior in a computer system by automated learning of intention embedded in a system-generated event graph |
CN111079153B (zh) * | 2019-12-17 | 2022-06-03 | 支付宝(杭州)信息技术有限公司 | 安全建模方法、装置、电子设备及存储介质 |
US11423171B2 (en) * | 2019-12-23 | 2022-08-23 | Intel Corporation | Protection of privacy and data on smart edge devices |
US12056609B2 (en) * | 2020-02-24 | 2024-08-06 | Qualcomm Incorporated | Gradient feedback framework for joint transceiver neural network training |
US11948096B2 (en) * | 2020-03-13 | 2024-04-02 | International Business Machines Corporation | Adaptively adjusting influence in federated learning model updates |
US12001509B2 (en) * | 2020-03-17 | 2024-06-04 | Google Llc | Fast adaptive optimization |
US11494496B2 (en) * | 2020-03-30 | 2022-11-08 | International Business Machines Corporation | Measuring overfitting of machine learning computer model and susceptibility to security threats |
US11610128B2 (en) * | 2020-03-31 | 2023-03-21 | Amazon Technologies, Inc. | Neural network training under memory restraint |
CN111291401B (zh) * | 2020-05-09 | 2020-11-03 | 支付宝(杭州)信息技术有限公司 | 基于隐私保护的业务预测模型训练方法和装置 |
CN111490995A (zh) * | 2020-06-12 | 2020-08-04 | 支付宝(杭州)信息技术有限公司 | 保护隐私的模型训练方法和装置、数据处理方法、服务器 |
US20210390389A1 (en) * | 2020-06-15 | 2021-12-16 | Michael R. Limotta | Data exchange for machine learning system and method |
US20200320206A1 (en) * | 2020-06-24 | 2020-10-08 | Intel Corporation | Systems, methods, apparatus and articles of manufacture to prevent unauthorized release of information associated with a function as a service |
JP2022007168A (ja) * | 2020-06-25 | 2022-01-13 | 富士通株式会社 | 学習プログラム、学習方法および情報処理装置 |
US20210406772A1 (en) * | 2020-06-30 | 2021-12-30 | DeepSee.ai Inc. | Rules-based template extraction |
-
2020
- 2020-09-23 CN CN202011012420.3A patent/CN111935179B/zh active Active
-
2021
- 2021-06-22 EP EP21180855.5A patent/EP3975023A1/en active Pending
- 2021-06-28 US US17/359,946 patent/US11500992B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20220092185A1 (en) | 2022-03-24 |
US11500992B2 (en) | 2022-11-15 |
EP3975023A1 (en) | 2022-03-30 |
CN111935179A (zh) | 2020-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111935179B (zh) | 一种基于可信执行环境的模型训练方法和装置 | |
US20210312334A1 (en) | Model parameter training method, apparatus, and device based on federation learning, and medium | |
CN110457912B (zh) | 数据处理方法、装置和电子设备 | |
TWI689841B (zh) | 資料加密、機器學習模型訓練方法、裝置及電子設備 | |
CN110751291B (zh) | 实现安全防御的多方联合训练神经网络的方法及装置 | |
CN112052942B (zh) | 神经网络模型训练方法、装置及系统 | |
CN112000991B (zh) | 多方数据联合处理方法、装置及系统 | |
CN111428887B (zh) | 一种基于多个计算节点的模型训练控制方法、装置及系统 | |
WO2020156004A1 (zh) | 模型训练方法、装置及系统 | |
CN111126628B (zh) | 在可信执行环境中训练gbdt模型的方法、装置及设备 | |
CN113537633B (zh) | 基于纵向联邦学习的预测方法、装置、设备、介质和系统 | |
CN111144576A (zh) | 模型训练方法、装置和电子设备 | |
CN110826420A (zh) | 人脸识别模型的训练方法及装置 | |
CN112434326B (zh) | 一种基于数据流的可信计算方法及装置 | |
CN111861099A (zh) | 联邦学习模型的模型评估方法及装置 | |
CN113722755A (zh) | 实现隐私保护的数据处理系统、方法、装置和设备 | |
CN108229190B (zh) | 透明加解密的控制方法、装置、程序、存储介质和电子设备 | |
CN111475690A (zh) | 字符串的匹配方法和装置、数据检测方法、服务器 | |
US11809603B2 (en) | Systems and methods for real-time encryption of sensitive data | |
CN112183757A (zh) | 模型训练方法、装置及系统 | |
CN115952529B (zh) | 一种用户数据处理方法、计算设备及存储介质 | |
CN111091197B (zh) | 在可信执行环境中训练gbdt模型的方法、装置及设备 | |
CN114547684A (zh) | 一种保护隐私数据的多方联合训练树模型的方法及装置 | |
CN114943073B (zh) | 加密流量的通用对称加密协议脱壳方法 | |
CN112765898B (zh) | 多任务联合训练模型方法、系统、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CB03 | Change of inventor or designer information |
Inventor after: Liu Yongchao Inventor after: Jia Bei Inventor after: Jin Yue Inventor after: Yang Chengping Inventor before: Liu Yongchao Inventor before: Jia Bei Inventor before: Jin Yue Inventor before: Yang Chengping Inventor before: Zhang Yao |
|
CB03 | Change of inventor or designer information |