CN112348200A - 一种基于联邦学习的受控共享学习方法及系统 - Google Patents

一种基于联邦学习的受控共享学习方法及系统 Download PDF

Info

Publication number
CN112348200A
CN112348200A CN202011203717.8A CN202011203717A CN112348200A CN 112348200 A CN112348200 A CN 112348200A CN 202011203717 A CN202011203717 A CN 202011203717A CN 112348200 A CN112348200 A CN 112348200A
Authority
CN
China
Prior art keywords
model
client
clients
data
shared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011203717.8A
Other languages
English (en)
Other versions
CN112348200B (zh
Inventor
葛仕明
卢江虎
王伟平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Information Engineering of CAS
Original Assignee
Institute of Information Engineering of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Information Engineering of CAS filed Critical Institute of Information Engineering of CAS
Priority to CN202011203717.8A priority Critical patent/CN112348200B/zh
Publication of CN112348200A publication Critical patent/CN112348200A/zh
Application granted granted Critical
Publication of CN112348200B publication Critical patent/CN112348200B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/17Details of further file system functions
    • G06F16/176Support for shared access to files; File sharing support
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供一种基于联邦学习的受控共享学习方法及系统,包括接收各客户端模型Vi,t的参数,并根据参数从各客户端中选取一或多个共享客户端,向共享的客户端发送共享指令,其中模型Vi,0通过各客户端的算力构建并依据相应私有数据集训练得到,且各模型Vi,0的分类模块结构一致;获取共享客户端模型Vi,t的分类模块参数St,并将计算得到的分类模块参数St+1发送至各客户端,以使各客户端依据私有数据集与分类模块参数St+1得到模型Vi,t+1。本发明仅需提供模型部分参数完成共享学习,使数据安全得到了很好的保障;且各客户端模型、是否参与共享学习等都自主可控。

Description

一种基于联邦学习的受控共享学习方法及系统
技术领域
本发明涉及计算机软件领域,尤其涉及一种基于联邦学习的受控共享学习方法及系统。
背景技术
数据作为人工智能技术的基石,随着人工智能技术的快速发展,数据安全隐私问题受到人们的广泛关注。由于数据隐私、通信安全等问题,导致深度学习模型无法充分利用这些数据。故人们为解决这类问题,提出了诸如联邦学习、共享学习等分布式机器学习方法。这些方法能够在不直接暴露本地数据的前提下,使得模型有效学习到各个客户端的本地数据。
联邦学习是指通过在多个相互独立的客户端上进行机器学习,并在服务端联合客户端模型梯度的一种方法。联邦学习是通过聚合各个客户端的模型,以此进行机器学习建模的方法。客户端无需向其他客户端暴露本地数据,只上传客户端训练好的模型相关参数即可。因而联邦学习可以在有效利用数据的前提下,保证客户端的数据不被泄露。
联邦学习的一轮完整流程是:客户端根据本地的数据来训练模型,客户端发送模型梯度至服务端,服务端对梯度参数进行加权平均后发送回客户端,客户端根据收到的梯度参数进行梯度下降,以此更新模型。联邦学习中的客户端之间是相互独立、阻断通信的,因此数据不会被直接泄露给外部,是一种能够很好地保护客户端数据隐私与安全的学习方法。
一般的联邦学习要求客户端模型架构一致,这对于客户端的数据与算力提出了一定的要求。并且当模型体积较大时,会提高客户端与服务端间的通信成本。更甚,现在已有技术可根据模型梯度还原客户端的本地数据,例如专利申请CN111008709A公开了一种联邦学习、资料风险评估方法、装置和系统,因此联邦学习还存在一定的安全性问题。
例如中国专利申请CN111260061A公开了一种联邦学习梯度交换中的差异化加噪方法,其通过每一数据方将对应的梯度进行分层处理,计算每一层梯度对应的二范数,并将二范数对每一层梯度进行加噪的数据发送至服务中心,以得到聚和后的梯度,但该方法会增加额外的计算成本,降低训练速度;中国专利申请CN110704860A公开了一种提升安全性的纵向联邦学习方法、设备、系统及存储介质,其通过各数据方的加随机数加密梯度值,将计算得到加随机数梯度值返回至各数据方,以训练模型,但该方法需要更多的硬件设施。上述两个专利申请均需传输完整的模型参数或者梯度,网络通信参数量很大,均会不同地增加计算成本,提高通信成本,并使训练速度降低。
综上所述,现有的联邦学习技术中具有以下技术缺陷:
1)由于本地客户端模型的体积庞大、客户端数量众多,这导致通信开销大大增加,提高了训练成本,影响整体学习速度;
2)在模型传输过程中,不论是传输模型的梯度还是模型的参数,都有泄露客户端数据的风险,不能很好地保障数据安全;
3)联邦学习要求各个模型一致,各个模型不能被定制,导致模型性能下降、无法按需训练模型。
发明内容
为解决上述问题,本发明的目的在于提供一种基于联邦学习的受控共享学习方法及系统,旨在降低联邦学习中的通信成本、保障本地数据不会在通信过程中被模型泄露、客户端可控地定制模型,从而解决当前联邦学习应用场景受限的技术问题。
为实现上述目的,本发明的技术方案如下:
一种基于联邦学习的受控共享学习方法,适用于一服务端与若干客户端组成的网络系统,其步骤包括:
1)接收各客户端模型Vi,t的参数,并根据参数从各客户端中选取一或多个共享客户端,向共享的客户端发送共享指令,其中i为客户端序号,t为完成联邦学习次数,t≥0,模型Vi,0通过各客户端的算力构建并依据相应私有数据集训练得到,且各模型Vi,0的分类模块架构一致;
2)获取共享客户端模型Vi,t的分类模块参数St,并将计算得到的分类模块参数St+1发送至各客户端,以使各客户端依据私有数据集与分类模块参数St+1得到模型Vi,t+1
进一步地,训练模型Vi,0之前,对私有数据集进行预处理;所述预处理包括:数据清洗和数据加强。
进一步地,除分类模块之外,模型Vi,0的其它模块架构可灵活设计。
进一步地,所述服务端设置一时间阈值;若发送指令后,超过该时间阈值,则不再接收客户端模型Vi,t的分类模块参数St
进一步地,所述参数包括:梯度值之和。
进一步地,通过以下步骤选取若干共享客户端:
1)将模型Vi,t梯度值之和由小到大进行排序;
2)选取排序前n个的梯度值之和,作为共享依据值,1≤n≤客户端总数;
3)将共享依据值相应的客户端,作为共享客户端。
进一步地,得到分类模块参数St+1的方法包括:将各分类模块参数St进行加权平均。
一种基于联邦学习的受控共享学习系统,包括:
一服务端,用以接收各客户端模型Vi,t的参数,并根据参数从各客户端中选取一或多个共享客户端,向共享客户端发送共享指令,其中i为客户端序号,t为完成联邦学习次数;获取共享客户端模型Vi,t的分类模块参数St,并将计算得到的分类模块参数St+1发送至各客户端;
若干客户端,其中每一客户端包括:
管理平台,用以根据算力构建模型Vi,0的架构;
计算平台,用以依据私有数据集训练得到模型Vi,0;用以依据私有数据集与分类模块参数St+1得到模型Vi,t+1
通信平台,用以将模型Vi,t的参数发送至服务端;若被选为共享客户端,将模型Vi,t的分类模块参数St发送至服务端;
进一步地,所述客户端还包括数据平台,用以对私有数据集进行数据清洗和数据增强。
进一步地,所述管理平台还用以调度计算平台、通信平台和数据平台及对客户端进行管理并对信息进行可视化展示。
进一步地,所述参数包括:梯度值之和。
与现有技术相比,本发明的改进了已有技术的不足:
1.在通信成本上,无需提供所有模型参数,仅需提供模型部分参数完成共享学习;
2.在通信安全上,由于传输过程中模型参数不完整,故数据安全得到了很好的保障;
3.在模型控制上,客户端可以根据数据集的特点定制模型,使得模型自主可控;通信传输也是完全由客户端自主决定是否参与更新,使得客户端能够根据需求自主控制更新时间。
附图说明
图1为本发明提供的受控共享学习方法过程图。
图2为本发明提供的受控共享学习方法的步骤流程示意图。
图3为本发明提供的受控共享学习方法的时序流程图。
图4为本发明提供的受控共享学习装置结构示意图。
具体实施方式
为帮助更好的理解与实施上述方案,下面结合附图对本发明进行详细说明。
如图1所示,本申请实施例提供的基于联邦学习的受控共享学习方法,根据客户端的数据与算力定制模型架构,并且无需传输完整的客户端模型,这样不仅降低了服务端与客户端的通信成本,还能确保数据不被还原,保障本地的数据隐私与安全。这种联邦学习方法称为受控共享学习。
比如有若干家医院,拥有相似的数据样本,均满足机器学习的基本条件,但其中甲医院的数据样本数量远大于其他医院拥有的数据样本数量。此时,甲医院的模型架构相较于其他家医院需要更加复杂,这样才能使得甲医院的数据被充分利用。
如图2所示,本发明提供的受控共享学习方法,所述受控共享学习方法应用于受控共享学习系统,所述受控共享学习系统包括多个客户端,所述受控共享学习方法包括以下步骤:
1)各客户端采集所需的训练数据集,并对数据集进行预处理;
2)各客户端根据数据集大小与算力强弱等设计模型架构,并保证各个模型分类模块一致;
3)客户端根据数据集进行训练,客户端将模型训练好的梯度值求和发送至服务端。
4)服务端收到所有客户端发送的梯度值后,选取其中最小的若干个梯度值对应的客户端,向其发送共享指令。
5)收到共享指令的客户端,发送本地模型的分类模块参数至服务端,即各客户端模型架构相同部分。
6)服务端收到上述客户端的模型参数后,对所有的模型参数进行加权平均,得到聚合后的模型参数。
7)服务端将更新后的模型参数发送至所有客户端。
8)客户端收到模型参数后,替换对应的分类模块的模型参数。
9)步骤3-8以此往复,不断迭代更新模型。
其中,根据客户端本地数据样本设计好对应的模型架构。需要说明的是,这里客户端模型架构需要保证模型的分类模块相同。客户端根据本地的数据训练模型,并且对模型的梯度求和,发送该梯度值至服务端。这里发送梯度值有两个作用:(a)客户端请求参与该轮的共享学习;(b)服务端可根据模型梯度值来判断模型的收敛程度。客户端发送梯度值后,保存训练的模型参数,便于模型的回滚以及模型的更新;并且进入等待状态,准备接受服务端的共享指令或更新后的模型参数。
服务端在收到第一个客户端发送的梯度值后,通过设定一个时间阈值,确保及时收到其余客户端发送的梯度值,避免个别客户端由于网络等原因影响训练速度。之后服务端对所有梯度值进行排序操作,再向其中梯度值最小的若干个客户端发送共享指令。
收到共享指令的客户端,截取模型中分类模块的模型参数,发送至服务端,随后便又进入等待状态,直至服务端发回更新后的模型参数。
服务端在确保收到对应的客户端模型参数后,对模型参数进行加权平均操作。服务端最后聚合后的模型参数发回各个客户端,客户端将更新后的模型参数替换原有模型的分类模块。以此进行下一轮学习。
在时间上,这样一轮学习中,客户端与服务端交互过程,如图3所示。客户端由于只需要发送模型的分类模型,故模型整体的架构可自由调整,并且无需传输完整的模型参数,大大减小了通信成本。而还原数据的前提是需要完整的模型参数或梯度,但这里只有部分模型参数,故无法被还原客户端数据,因此保障了客户端数据的隐私与安全。
本发明可根据实际情况对模型进行长期的定期学习更新,也可在一定条件下截止受控共享学习。其中,截止条件包括:
1)所有客户端模型精度波动不大,即模型达到较好的收敛;
2)服务端根据系统的学习情况,即各客户端模型收敛情况,主动结束学习。
如图4所示,本申请提供一种受控共享学习系统,该系统适用于客户端模型异构的受控共享学习,其中客户端数据样本特征相似但数量有一定的差异。该客户端包括四个平台:管理平台、数据平台、计算平台、通信平台。其中,管理平台包括对模型架构的设计,客户端信息的可视化展示,如网络、硬件状态等,客户端模型的调度等;数据平台只处于客户端,含数据清洗、数据增强等数据操作;计算平台包括模型的训练、截取、更新、保存、读取等;通信平台保证客户端与服务端能够正常进行网络通信。
管理平台对其余平台进行调度与监控。首先,管理平台对数据平台下发指令,对原始数据进行预处理;之后,数据平台输出的数据直接进入计算平台,由管理平台下达指令开始受控共享学习;计算平台完成模型的训练后,相应参数交由通信平台与服务端进行通信;通信平台获取更新后的模型交由计算平台进行模型的更新;计算平台对模型进行更新后,重复上述过程。
下述为本发明的一实际应用:
在医疗影像领域,为保证各大医院的患者数据隐私,这些数据不允许公开及共享。为安全有效地利用这些影像数据,利用本平台可以在不泄露各医院数据的前提下,联合参与医院的模型进行训练学习。
实验数据(医疗影像):对于语义分割任务而言,主要有BraTs 2018数据集,它包含285例脑肿瘤患者的术前MRI扫描,扫描方式有T1加权,T1加权增强,T2加权和T2液体衰减反转恢复四种扫描方式。该数据集常用于评估具有多模态和多分类分割任务。
对于图像分类任务而言,NIH Chest X-Ray数据集包含10万张胸部X射线检查的去标识化图像。每张图片均由多位专家审核打上标签。
表1列出了对于几种任务的通信参数量对比。这里以五个客户端、一百轮迭代为例,其中M表示109
Figure BDA0002756309450000061
表1
由表1可知,本发明可以显著减少通信过程中的参数量,10倍至20倍不等,在大模型、多客户端等场景下会愈加明显。
以上所述实施例仅表达了本发明的实施方式,其描述较为具体,但并不能因此理解为对本发明专利范围的限制。应当指出,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应当以所附权利要求为准。

Claims (10)

1.一种基于联邦学习的受控共享学习方法,适用于一服务端与若干客户端组成的网络系统,其步骤包括:
1)接收各客户端模型Vi,t的参数,并根据参数从各客户端中选取一或多个共享客户端,向共享的客户端发送共享指令,其中i为客户端序号,t为完成联邦学习次数,t≥0,模型Vi,0通过各客户端的算力构建并依据相应私有数据集训练得到,且各模型Vi,0的分类模块架构一致;
2)获取共享客户端模型Vi,t的分类模块参数St,并将计算得到的分类模块参数St+1发送至各客户端,以使各客户端依据私有数据集与分类模块参数St+1得到模型Vi,t+1
2.如权利要求1所述的方法,其特征在于,训练模型Vi,0之前,对私有数据集进行预处理;所述预处理包括:数据清洗和数据加强。
3.如权利要求1所述的方法,其特征在于,除分类模块之外,模型Vi,0的其它模块架构可灵活设计。
4.如权利要求1所述的方法,其特征在于,所述服务端设置一时间阈值;若发送指令后,超过该时间阈值,则不再接收客户端模型Vi,t的分类模块参数St
5.如权利要求1所述的方法,其特征在于,所述参数包括:梯度值之和。
6.如权利要求1所述的方法,其特征在于,通过以下步骤选取若干共享客户端:
1)将模型Vi,t梯度值之和由小到大进行排序;
2)选取排序前n个的梯度值之和,作为共享依据值,1≤n≤客户端总数;
3)将共享依据值相应的客户端,作为共享客户端。
7.如权利要求1所述的方法,其特征在于,得到分类模块参数St+1的方法包括:将各分类模块参数St进行加权平均。
8.一种基于联邦学习的受控共享学习系统,包括:
一服务端,用以接收各客户端模型Vi,t的参数,并根据参数从各客户端中选取一或多个共享客户端,向共享客户端发送共享指令,其中i为客户端序号,t为完成联邦学习次数;获取共享客户端模型Vi,t的分类模块参数St,并将计算得到的分类模块参数St+1发送至各客户端;若干客户端,其中每一客户端包括:
管理平台,用以根据算力构建模型Vi,0的架构;
计算平台,用以依据私有数据集训练得到模型Vi,0;用以依据私有数据集与分类模块参数St+1得到模型Vi,t+1
通信平台,用以将模型Vi,t的参数发送至服务端;若被选为共享客户端,将模型Vi,t的分类模块参数St发送至服务端。
9.如权利要求8所述的系统,其特征在于,所述客户端还包括数据平台,用以对私有数据集进行数据清洗和数据增强。
10.如权利要求8所述的系统,其特征在于,所述管理平台还用以调度计算平台、通信平台和数据平台及对客户端进行管理并对信息进行可视化展示。
CN202011203717.8A 2020-11-02 2020-11-02 一种基于联邦学习的受控共享学习方法及系统 Active CN112348200B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011203717.8A CN112348200B (zh) 2020-11-02 2020-11-02 一种基于联邦学习的受控共享学习方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011203717.8A CN112348200B (zh) 2020-11-02 2020-11-02 一种基于联邦学习的受控共享学习方法及系统

Publications (2)

Publication Number Publication Date
CN112348200A true CN112348200A (zh) 2021-02-09
CN112348200B CN112348200B (zh) 2022-11-15

Family

ID=74355831

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011203717.8A Active CN112348200B (zh) 2020-11-02 2020-11-02 一种基于联邦学习的受控共享学习方法及系统

Country Status (1)

Country Link
CN (1) CN112348200B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113112312A (zh) * 2021-05-13 2021-07-13 支付宝(杭州)信息技术有限公司 针对用户生成模型的方法、装置和计算机可读存储介质
CN113537509A (zh) * 2021-06-28 2021-10-22 南方科技大学 协作式的模型训练方法及装置
CN113901505A (zh) * 2021-12-06 2022-01-07 北京笔新互联网科技有限公司 数据共享方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110572253A (zh) * 2019-09-16 2019-12-13 济南大学 一种联邦学习训练数据隐私性增强方法及系统
CN111553483A (zh) * 2020-04-30 2020-08-18 同盾控股有限公司 基于梯度压缩的联邦学习的方法、装置及系统
CN111553484A (zh) * 2020-04-30 2020-08-18 同盾控股有限公司 联邦学习的方法、装置及系统
US20200272945A1 (en) * 2019-02-21 2020-08-27 Hewlett Packard Enterprise Development Lp System and method of decentralized model building for machine learning and data privacy preserving using blockchain
CN111865815A (zh) * 2020-09-24 2020-10-30 中国人民解放军国防科技大学 一种基于联邦学习的流量分类方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200272945A1 (en) * 2019-02-21 2020-08-27 Hewlett Packard Enterprise Development Lp System and method of decentralized model building for machine learning and data privacy preserving using blockchain
CN110572253A (zh) * 2019-09-16 2019-12-13 济南大学 一种联邦学习训练数据隐私性增强方法及系统
CN111553483A (zh) * 2020-04-30 2020-08-18 同盾控股有限公司 基于梯度压缩的联邦学习的方法、装置及系统
CN111553484A (zh) * 2020-04-30 2020-08-18 同盾控股有限公司 联邦学习的方法、装置及系统
CN111865815A (zh) * 2020-09-24 2020-10-30 中国人民解放军国防科技大学 一种基于联邦学习的流量分类方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
董业等: "基于秘密分享和梯度选择的高效安全联邦学习", 《计算机研究与发展》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113112312A (zh) * 2021-05-13 2021-07-13 支付宝(杭州)信息技术有限公司 针对用户生成模型的方法、装置和计算机可读存储介质
CN113537509A (zh) * 2021-06-28 2021-10-22 南方科技大学 协作式的模型训练方法及装置
CN113901505A (zh) * 2021-12-06 2022-01-07 北京笔新互联网科技有限公司 数据共享方法、装置、电子设备及存储介质
CN113901505B (zh) * 2021-12-06 2022-04-15 北京笔新互联网科技有限公司 数据共享方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN112348200B (zh) 2022-11-15

Similar Documents

Publication Publication Date Title
CN112348200B (zh) 一种基于联邦学习的受控共享学习方法及系统
US11645833B2 (en) Generative adversarial network medical image generation for training of a classifier
US10540578B2 (en) Adapting a generative adversarial network to new data sources for image classification
US10937540B2 (en) Medical image classification based on a generative adversarial network trained discriminator
US10902588B2 (en) Anatomical segmentation identifying modes and viewpoints with deep learning across modalities
CN111178542B (zh) 基于机器学习建模的系统和方法
WO2020199693A1 (zh) 一种大姿态下的人脸识别方法、装置及设备
US20210225463A1 (en) System and Method with Federated Learning Model for Medical Research Applications
CN112686385B (zh) 面向多站点三维影像的联邦深度学习方法及系统
CN111932529B (zh) 一种图像分类分割方法、装置及系统
CN113850272A (zh) 基于本地差分隐私的联邦学习图像分类方法
CN113627433B (zh) 基于数据扰动的跨域自适应语义分割方法及装置
CN113821668A (zh) 数据分类识别方法、装置、设备及可读存储介质
CN115098885A (zh) 数据处理方法、系统及电子设备
US20230206080A1 (en) Model training method, system, device, and medium
Chang et al. Privacy-preserving collaborative deep learning methods for multiinstitutional training without sharing patient data
TWI742312B (zh) 機器學習系統、機器學習方法及其非暫態電腦可讀媒體
CN115965782A (zh) 面向小样本医学图像语义分割的高效通信联邦学习方法
Wang et al. Trustworthy Machine Learning: Robustness, Generalization, and Interpretability
CN111415331B (zh) 一种正位胸片中基于类别关系的异常检测方法及系统
Sun Pattern recognition in convolutional neural network (cnn)
CN114494484A (zh) 数据识别模型的训练方法、数据识别方法、装置及设备
CN113673476A (zh) 人脸识别模型训练方法、装置、存储介质与电子设备
Antun Stability and accuracy in compressive sensing and deep learning
CN111599447B (zh) 一种数据处理方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant