CN114707175B - 机器学习模型敏感信息的处理方法、系统、设备及终端 - Google Patents
机器学习模型敏感信息的处理方法、系统、设备及终端 Download PDFInfo
- Publication number
- CN114707175B CN114707175B CN202210276269.7A CN202210276269A CN114707175B CN 114707175 B CN114707175 B CN 114707175B CN 202210276269 A CN202210276269 A CN 202210276269A CN 114707175 B CN114707175 B CN 114707175B
- Authority
- CN
- China
- Prior art keywords
- data
- training
- model
- sensitive information
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 33
- 238000003672 processing method Methods 0.000 title claims description 13
- 238000012549 training Methods 0.000 claims abstract description 73
- 238000000034 method Methods 0.000 claims abstract description 41
- 238000013145 classification model Methods 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 16
- 230000009467 reduction Effects 0.000 claims abstract description 16
- 230000000694 effects Effects 0.000 claims description 7
- 230000004931 aggregating effect Effects 0.000 claims description 6
- 230000010365 information processing Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000013138 pruning Methods 0.000 abstract description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000002474 experimental method Methods 0.000 description 6
- 238000007796 conventional method Methods 0.000 description 5
- 230000007547 defect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioethics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明属于人工智能及信息安全技术领域,公开了一种机器学习模型敏感信息的处理方法、系统、设备及终端,包括初次训练以及删除信息后重新训练两部分;采用数据集削减算法,同时使用组合多个单分类器的方案使得需要删除敏感信息时仅需重新训练部分模型。本发明在删除模型内敏感数据时无需重新训练整个模型,只需重新训练包含敏感数据的单分类器,大幅度减少了删除模型内敏感数据的开销。同时本发明结合数据削减算法以削减数据集内包含信息量较少的数据,能够在几乎不影响精准度的情况下大大提高训练的速度。同时该方法在训练单分类模型时将数据分为多个子数据集进行训练,使得删除数据后无需从头训练单分类器,进一步减少了开销。
Description
技术领域
本发明属于人工智能及信息安全技术领域,尤其涉及一种机器学习模型敏感信息的处理方法、系统、设备及终端。
背景技术
目前,许多公司利用搜集到的用户信息训练模型来使他们的服务更加智能化。而根据《中华人民共和国个人信息保护法》,用户有权要求公司删除模型中关于其个人信息的部分,包括该部分数据对于模型的梯度更新的贡献等。现存的多项研究都证明模型会潜在记住其训练数据集,这给用户的数据隐私带来了极大的风险。目前使机器学习模型遗忘敏感信息的方法可被分为精确遗忘和近似遗忘。
现有技术一基于精确遗忘的敏感信息遗忘方法:精确遗忘方法一般直接删除数据集中的所有敏感信息,并重新训练模型。正在广泛应用的多分类机器学习模型需要频繁删减数据集并重新训练,后续的相关研究与进展主要围绕如何减弱因数据集减少导致的效果下降。然而,商业使用的数据集一般十分庞大,每次训练都需要消耗价值巨大的计算资源。同时,不同用户可能频繁提出删除个人信息的要求,使得使用该方法的代价高昂。
现有技术二基于近似遗忘的敏感信息遗忘方法:近似遗忘方法一般通过改变模型的参数来消除敏感数据为模型训练造成的影响,以达到与删除敏感数据后重新训练所得的模型近似的效果。尽管使用该方法所消耗的资源远小于基于精确遗忘实现的方法,但最近的研究表明此方法无法证明其精确消除了敏感信息对模型的所有影响,因此本方法并不可靠。
虽然精确遗忘方法往往开销比近似遗忘方法大,但它能够保证消除了所有敏感信息对于模型的影响,具有可靠性。
通过上述分析,现有技术存在的问题及缺陷为:现有的模型信息遗忘方法非常缺乏,且存在的方案如精确遗忘开销高,近似遗忘可靠性差等劣势。因此现在仍缺乏实用的高可靠性的模型遗忘方法。
解决以上问题及缺陷的难度为:要使模型完全可靠地遗忘敏感信息,目前只能通过使用不包含敏感数据的数据集重新训练整个模型,而这带来了非常高的计算开销,实际实用性不高。
解决以上问题及缺陷的意义为:本发明无需重新在整个数据集上进行训练,就可以使模型完全遗忘敏感信息,大幅度降低了使模型遗忘敏感信息的开销,且可信度非常高。
发明内容
针对现有技术存在的问题,本发明提供了一种机器学习模型敏感信息的处理方法、系统、设备及终端。
本发明是这样实现的,一种机器学习模型敏感信息的处理方法,所述机器学习模型敏感信息的处理方法包括初次训练以及删除信息后重新训练两部分;采用数据集削减算法,同时使用组合多个单分类器的方案使得需要删除敏感信息时仅需重新训练部分模型。
进一步,所述初次训练包括以下步骤:
第一步,将数据集按照类别进行划分;
第二步,进行数据集削减,从单类数据集中提取所含信息量最大的一组数据;
第三步,对削减后的数据集进行划块,将所取数据划分为多个数据集,组成一个有序的数据集序列;
第四步,训练单分类器,保存模型训练的中间状态;依次使用序列中的数据集训练单分类模型并保存每一数据集训练完成时的模型;当需要进行敏感信息遗忘时,复用之前的中间训练状态;
第五步,聚合单分类模型,完成多分类任务。
进一步,所述第三步数据集削减在计算完所有数据之间的互信息后,使用贪心算法来提取数据集中互信息最低的部分数据,具体优化目标为:
其中S′i是削减后的数据集,H(S′i)是该训练数据集的熵,α是权重系数,I(Xi;Xj)是计算待削减数据集中任意两个样本之间的互信息量。需要注意的是,关于信息削减的部分,本发明以信息论中互信息的方法为例进行说明,但仍有其余多种方式如聚类、置信度等方式可进行信息削减,所述初次训练包括但不仅局限于使用信息论的方法进行数据削减。
进一步,所述第三步将所取数据划分为多个数据集,对于子数据集数据块序列的划分:所有的子数据集之间不包含重复数据,同时所有子数据集的并集为整个单类数据集;如果预先知道某些数据有较高的概率被要求删除,则将部分数据集中到数个子数据集之内,并将子数据集置于子数据集序列的末尾。
进一步,所述第三步数据集训练单分类模型的目标函数是:
其中n为训练样本个数,fi为第i个单分类模型,xi是训练数据,θ是模型参数,ri为相应的样本平均值,λ是超参数,W[l]是模型第l层的权重。
进一步,所述删除信息后重新训练包括以下步骤:
步骤一,找到敏感信息所属单分类器的数据集,确认所属的数据块位置;
步骤二,读取最后一个未使用该数据的模型训练中间状态,
步骤三,将敏感信息从所属的数据块中删除;
步骤四,从读取的模型训练中间状态开始,使用新的数据块及序列中位于其后的数据块继续训练所读模型;
步骤五,将新得单分类器与原有的其他单分类器重新聚合。
本发明的另一目的在于提供一种计算机设备,所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行所述机器学习模型敏感信息的处理方法的步骤。
本发明的另一目的在于提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行所述机器学习模型敏感信息的处理方法的步骤。
本发明的另一目的在于提供一种信息数据处理终端,所述信息数据处理终端用于实现所述机器学习模型敏感信息的处理方法。
本发明的另一目的在于提供一种实施所述机器学习模型敏感信息的处理方法的机器学习模型敏感信息的处理系统,所述机器学习模型敏感信息的处理系统包括:
初次训练模块,用于使用序列中的数据集训练单分类模型并保存每一数据集训练完成时的模型;聚合单分类模型,完成多分类任务;
删除信息后重新训练模块,用于将敏感信息从所属的数据块中删除;从读取的模型训练中间状态开始,使用新的数据块及序列中位于其后的数据块继续训练所读模型。
结合上述的所有技术方案,本发明所具备的优点及积极效果为:本发明为基于精确遗忘的敏感信息遗忘方法,在保证可靠性的条件下进一步减少开销。旨在减少商业应用机器学习模型在因用户要求删除相关数据需重新训练时所需的开销。低开销的能够精确遗忘敏感信息的模型遗忘信息方法。本发明在删除模型内敏感数据时无需重新训练整个模型,只需重新训练包含敏感数据的单分类器,大幅度减少了删除模型内敏感数据的开销。同时本发明结合数据削减算法以削减数据集内包含信息量较少的数据,能够在几乎不影响精准度的情况下大大提高训练的速度。同时该方法在训练单分类模型时将数据分为多个子数据集进行训练,使得删除数据后无需从头训练单分类器,进一步减少了开销。
附图说明
图1是本发明实施例提供的机器学习模型敏感信息的处理方法流程图。
图2是本发明实施例提供的机器学习模型敏感信息的处理系统的结构示意图。
图3是本发明实施例提供的本发明和传统方法的具体的精准度对比示意图。
图4是本发明实施例提供的本发明和传统方法的具体的开销对比示意图。
图5是本发明实施例提供的本发明方法与传统方法的流程区别对比示意图。
图中:1、初次训练模块;2、删除信息后重新训练模块。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
针对现有技术存在的问题,本发明提供了一种机器学习模型敏感信息的处理方法、系统、设备及终端,下面结合附图对本发明作详细的描述。
如图1所示,本发明提供的机器学习模型敏感信息的处理方法包括以下步骤:
S101:将数据集按照类别进行划分,进行数据集削减;对削减后的数据集进行划块;
S102:训练单分类器,保存模型训练的中间状态;聚合单分类模型,完成多分类任务;
S103:找到敏感信息所属单分类器的数据集,确认所属的数据块位置;读取最后一个未使用该数据的模型训练中间状态;
S104:将敏感信息从所属的数据块中删除;从读取的模型训练中间状态开始,使用新的数据块及序列中位于其后的数据块继续训练所读模型;
S105:将新得单分类器与原有的其他单分类器重新聚合。
本发明提供的机器学习模型敏感信息的处理方法业内的普通技术人员还可以采用其他的步骤实施,图1的本发明提供的机器学习模型敏感信息的处理方法仅仅是一个具体实施例而已。
如图2所示,本发明提供的机器学习模型敏感信息的处理系统包括:
初次训练模块1,用于使用序列中的数据集训练单分类模型并保存每一数据集训练完成时的模型;聚合单分类模型,完成多分类任务。
删除信息后重新训练模块2,用于将敏感信息从所属的数据块中删除;从读取的模型训练中间状态开始,使用新的数据块及序列中位于其后的数据块继续训练所读模型。
下面结合实验对本发明的技术效果作详细的描述。
本发明提供的机器学习模型敏感信息的处理方法通过组合单分类器实现多分类效果,在删除敏感信息时只需重新训练包含敏感信息的单分类器,从而大幅度降低了开销。同时在训练时采用数据削减算法进一步减少了开销。
1、本实验分别使用MNIST数据集、CIFAR-10数据集和Imagenet-30数据集进行了训练和试验。为了对比本发明方法的效果,选用了与Deep SVDD结构相同的多分类模型进行训练,并与现有的方案retraining对比了训练速度与精准度。实验硬件设施如下:系统:Ubuntu 16.04.1LTS 64bit;CPU:Intel(R)Xeon(R)Silver4214;RAM:128GB;GPU:RTX2080Ti*1。
2、实验过程
依照本发明的方案步骤,实验实施过程如下:
初次训练:
1)读取MNIST数据集,将其按类别划分为10个单类数据集。
2)对单类数据集进行数据削减后,将每个单类数据集划分为了5数据块,形成一个子数据集数据块序列。
在具体的数据集削减算法实现中,使用互信息来评估同一类别的两条数据之间包含的信息的重复度(互信息是信息论里的一种信息度量,它可以看成是一个随机变量中包含的关于另一个随机变量的信息量)。在计算完所有数据之间的互信息后,使用贪心算法来提取数据集中互信息最低的部分数据。具体优化目标为:
其中S′i是削减后的数据集,H(S′i)是该训练数据集的熵,α是权重系数,I(Xi;Xj)是计算待削减数据集中任意两个样本之间的互信息量。
对于子数据集数据块序列的划分:所有的子数据集之间不包含重复数据,同时所有子数据集的并集为整个单类数据集。如果可以预先知道某些数据有较高的概率被要求删除,则将该部分数据集中到数个子数据集之内,并将该子数据集置于子数据集序列的末尾。
3)依次读取子数据集数据块序列中的数据块并将其作为训练数据集。
在具体实现中,选用子数据集序列中的子数据集作为数据集训练50轮后保存模型参数,再读取子数据集数据块序列中的下一个子数据集作为数据集进行模型训练,重复上述操作直至数据集序列中的数据全部使用一遍。
4)训练单分类模型。模型的目标函数是:
其中n为训练样本个数,fi为第i个单分类模型,xi是训练数据,θ是模型参数,ri为相应的样本平均值,λ是超参数,W[l]是模型第l层的权重。
删除敏感信息:
1)判断敏感数据是否在数据削减步骤中已被删除,若已删除则无需再次重新训练。
2)找到敏感数据所处的子数据集,并读取上一个子数据集数据块训练完成时存储的模型参数。
3)删除子数据集中的敏感信息后,重新用更新后的该子数据集数据块来继续训练读取的模型。
因在训练时将数据分成了子数据集序列,并将他们依次作为数据集训练同一个模型。则任意子数据集训练所得模型只包含了该子数据集及序列中位置先于该子数据集的数据内容。因此敏感信息所属子训练集的前一个子训练集训练完成时所存储的模型不包含敏感信息,无需重新训练。
例如子数据集序列为A~Z,敏感信息位于子数据集M,则读取初次训练时子数据集L所得模型参数并使用删减后的M数据集及N~Z数据集重新训练即可,而无需重新使用A~L子数据集。
本发明在对精度影响不大的同时极大地降低了需删除模型中的敏感数据时重新训练模型所需的开销。在具体实验中,使用MNIST、CIFAR-10和Imagenet-30数据集进行实验并与传统方法进行了相比。实验证明,与传统方法相比,使用本发明在精度下降不多的情况下大幅度提高了训练速度:在极端情况下,使用MNIST数据集时使用本发明在精度仅下降不到3%的情况下,重新训练所需时间为传统方法的1/2891;使用Imagenet时,精度下降7%,重新训练所需时间为传统方法的1/204。图3和图4展示了本发明和传统方法的具体的精准度与开销对比。本发明通过组合单分类器实现多分类效果,在删除敏感信息时只需重新训练包含敏感信息的单分类器,从而大幅度降低了开销。同时在训练时采用数据削减算法进一步减少了开销。本发明的方法与传统方法的流程区别对比如图5所示。
应当注意,本发明的实施方式可以通过硬件、软件或者软件和硬件的结合来实现。硬件部分可以利用专用逻辑来实现;软件部分可以存储在存储器中,由适当的指令执行系统,例如微处理器或者专用设计硬件来执行。本领域的普通技术人员可以理解上述的设备和方法可以使用计算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、CD或DVD-ROM的载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据载体上提供了这样的代码。本发明的设备及其模块可以由诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用由各种类型的处理器执行的软件实现,也可以由上述硬件电路和软件的结合例如固件来实现。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,都应涵盖在本发明的保护范围之内。
Claims (8)
1.一种机器学习模型敏感信息的处理方法,其特征在于,所述机器学习模型敏感信息的处理方法包括初次训练以及删除敏感信息后重新训练两部分;在训练时使用组合多个单分类器达到多分类效果的方案使得需要删除敏感信息时仅需重新训练部分模型,同时采用数据集削减算法提高训练速度;
所述初次训练包括以下步骤:
第一步,将数据集按照类别进行划分;
第二步,进行数据集削减,从单类数据集中提取所含信息量最大的一组数据;
第三步,对削减后的数据集进行划块,将所取数据划分为多个数据集,组成一个有序的数据集序列;
第四步,训练单分类器,保存模型训练的中间状态;依次使用序列中的数据集训练单分类模型并保存每一数据集训练完成时的模型;当需要进行敏感信息遗忘时,复用之前的中间训练状态;
第五步,聚合单分类模型,完成多分类任务;
所述删除信息后重新训练包括以下步骤:
步骤一,找到敏感信息所属单分类器的数据集,确认所属的数据块位置;
步骤二,读取最后一个未使用该数据的模型训练中间状态,
步骤三,将敏感信息从所属的数据块中删除;
步骤四,从读取的模型训练中间状态开始,使用新的数据块及序列中位于其后的数据块继续训练所读模型;
步骤五,将新得单分类器与原有的其他单分类器重新聚合。
2.如权利要求1所述的机器学习模型敏感信息的处理方法,其特征在于,所述第三步数据集削减在计算完所有数据之间的互信息后,使用贪心算法来提取数据集中互信息最低的部分数据,具体优化目标为:
其中S′i是削减后的数据集,H(S′i)是训练数据集的熵,α是权重系数,I(Xi;Xj)是计算待削减数据集中任意两个样本之间的互信息量。
3.如权利要求1所述的机器学习模型敏感信息的处理方法,其特征在于,所述第三步将所取数据划分为多个数据集,对于子数据集数据块序列的划分:所有的子数据集之间不包含重复数据,同时所有子数据集的并集为整个单类数据集;如果预先知道某些数据有较高的概率被要求删除,则将部分数据集中到数个子数据集之内,并将子数据集置于子数据集序列的末尾。
4.如权利要求1所述的机器学习模型敏感信息的处理方法,其特征在于,所述第三步数据集训练单分类模型的目标函数是:
其中n为训练样本个数,fi为第i个单分类模型,xi是训练数据,θ是模型参数,ri为相应的样本平均值,λ是超参数,W[l]是模型第l层的权重。
5.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行权利要求1~4任意一项所述机器学习模型敏感信息的处理方法的步骤。
6.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行权利要求1~4任意一项所述机器学习模型敏感信息的处理方法的步骤。
7.一种信息数据处理终端,其特征在于,所述信息数据处理终端用于实现权利要求1~4任意一项所述机器学习模型敏感信息的处理方法。
8.一种实施权利要求1~4任意一项所述机器学习模型敏感信息的处理方法的机器学习模型敏感信息的处理系统,其特征在于,所述机器学习模型敏感信息的处理系统包括:
初次训练模块,用于使用序列中的数据集训练单分类模型并保存每一数据集训练完成时的模型;聚合单分类模型,完成多分类任务;
删除信息后重新训练模块,用于将敏感信息从所属的数据块中删除;从读取的模型训练中间状态开始,使用新的数据块及序列中位于其后的数据块继续训练所读模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210276269.7A CN114707175B (zh) | 2022-03-21 | 2022-03-21 | 机器学习模型敏感信息的处理方法、系统、设备及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210276269.7A CN114707175B (zh) | 2022-03-21 | 2022-03-21 | 机器学习模型敏感信息的处理方法、系统、设备及终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114707175A CN114707175A (zh) | 2022-07-05 |
CN114707175B true CN114707175B (zh) | 2024-07-23 |
Family
ID=82169745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210276269.7A Active CN114707175B (zh) | 2022-03-21 | 2022-03-21 | 机器学习模型敏感信息的处理方法、系统、设备及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114707175B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110276248A (zh) * | 2019-05-10 | 2019-09-24 | 杭州电子科技大学 | 一种基于样本权值分配和深度学习的人脸表情识别方法 |
CN112598127A (zh) * | 2020-12-16 | 2021-04-02 | 百度在线网络技术(北京)有限公司 | 联邦学习模型训练方法和装置、电子设备、介质和产品 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101974769B1 (ko) * | 2015-03-03 | 2019-05-02 | 난토믹스, 엘엘씨 | 앙상블-기반 연구 추천 시스템 및 방법 |
CN113177630B (zh) * | 2021-04-13 | 2024-02-13 | 中国科学院信息工程研究所 | 一种针对深度学习模型的数据记忆消除方法和装置 |
CN113344214B (zh) * | 2021-05-31 | 2022-06-14 | 北京百度网讯科技有限公司 | 数据处理模型的训练方法、装置、电子设备及存储介质 |
-
2022
- 2022-03-21 CN CN202210276269.7A patent/CN114707175B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110276248A (zh) * | 2019-05-10 | 2019-09-24 | 杭州电子科技大学 | 一种基于样本权值分配和深度学习的人脸表情识别方法 |
CN112598127A (zh) * | 2020-12-16 | 2021-04-02 | 百度在线网络技术(北京)有限公司 | 联邦学习模型训练方法和装置、电子设备、介质和产品 |
Also Published As
Publication number | Publication date |
---|---|
CN114707175A (zh) | 2022-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113378632B (zh) | 一种基于伪标签优化的无监督域适应行人重识别方法 | |
WO2019232853A1 (zh) | 中文模型训练、中文图像识别方法、装置、设备及介质 | |
CN112580346B (zh) | 事件抽取方法、装置、计算机设备和存储介质 | |
CN105183792B (zh) | 一种基于局部敏感哈希的分布式快速文本分类方法 | |
CN114677646A (zh) | 一种基于Vision Transformer的跨域行人重识别方法 | |
CN114937021A (zh) | 一种基于Swin-Transformer的农作物病害细粒度分类方法 | |
CN113408897A (zh) | 应用于大数据业务的数据资源共享方法及大数据服务器 | |
CN115953123A (zh) | 机器人自动化流程的生成方法、装置、设备及存储介质 | |
Huang et al. | Hinging hyperplanes for time-series segmentation | |
CN114707175B (zh) | 机器学习模型敏感信息的处理方法、系统、设备及终端 | |
CN110705631B (zh) | 一种基于svm的散货船舶设备状态检测方法 | |
CN109977737A (zh) | 一种基于循环神经网络的字符识别鲁棒性方法 | |
CN116958809A (zh) | 一种特征库迁移的遥感小样本目标检测方法 | |
CN115512143A (zh) | 图像聚类方法、图像增量聚类方法、计算机设备及介质 | |
CN112598082B (zh) | 基于非校验集预测图像识别模型泛化误差的方法及系统 | |
CN115587313A (zh) | 一种轨迹数据半监督分类方法及装置 | |
CN113326864A (zh) | 一种图像检索模型、训练方法 | |
CN114443840A (zh) | 一种文本分类方法、装置及设备 | |
CN111582307A (zh) | 签到结果判定方法、系统、存储介质、计算机程序、终端 | |
CN111507195A (zh) | 虹膜分割神经网络模型的训练方法、虹膜分割方法及装置 | |
CN111401783A (zh) | 一种电力系统运行数据集成特征选择方法 | |
CN111160391A (zh) | 基于空间划分的快速相对密度噪声检测方法及存储介质 | |
CN117421244B (zh) | 多源跨项目软件缺陷预测方法、装置及存储介质 | |
Chen et al. | Pruning deep feature networks using channel importance propagation | |
CN118196397B (zh) | 一种图像目标检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |