CN114492831B - 联邦学习模型的生成方法及其装置 - Google Patents
联邦学习模型的生成方法及其装置 Download PDFInfo
- Publication number
- CN114492831B CN114492831B CN202111592650.6A CN202111592650A CN114492831B CN 114492831 B CN114492831 B CN 114492831B CN 202111592650 A CN202111592650 A CN 202111592650A CN 114492831 B CN114492831 B CN 114492831B
- Authority
- CN
- China
- Prior art keywords
- pruning
- learning model
- pruned
- federal learning
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1446—Point-in-time backing up or restoration of persistent data
- G06F11/1458—Management of the backup or restore process
- G06F11/1469—Backup restoration techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1476—Error detection or correction of the data by redundancy in operation in neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioethics (AREA)
- Databases & Information Systems (AREA)
- Quality & Reliability (AREA)
- Computer Security & Cryptography (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Processing (AREA)
Abstract
本公开提供了联邦学习模型的生成方法及其装置,涉及人工智能技术领域中的深度学习和联邦学习技术领域。具体实现方案为:获取图片,获取图片的分类结果,以及根据图片和分类结果对待训练的联邦学习模型进行训练,以生成训练好的联邦学习模型,其中,待训练的联邦学习模型为待剪枝的联邦学习模型经过剪枝处理后得到的,在剪枝处理过程中待剪枝的联邦学习模型中卷积层的剪枝率是根据模型精度自动调整的。从而加速模型训练、有效地减少资源占用,生成能够更好的适应资源有限的边缘化使用场景的模型,且根据待剪枝的联邦学习模型的精度自动调整模型中卷积层的剪枝率,无需人工选择参数,实现了自适应剪枝。
Description
技术领域
本公开涉及人工智能技术领域中的深度学习和联邦学习技术领域,尤其涉及一种联邦学习模型的生成方法及其装置。
背景技术
模型的量化、剪枝等一系列技术是为了解决深度神经网络过参数化问题、加速模型训练、适应资源受限场景而被提出的。其主要目标就是在尽可能不牺牲模型精度(甚至在一些场景能提升精度)的前提下,减小模型的内存消耗,剪枝主要分为结构化剪枝和非结构化剪枝,结构化剪枝主要是通道剪枝、层剪枝等;非结构化剪枝也即权重剪枝。
联邦学习作为能够在不牺牲数据安全性和隐私条件下训练深度神经网络的解决方案,一个重要的应用便是在手机等边缘设备上学习模型。然而,边缘设备有限的计算能力和有限的资源限制阻碍了联邦学习在模型训练和部署中的应用,尤其是基于联邦学习对大型的深度神经网络的训练。
因此,如何通过联邦学习场景下的模型剪枝,加速联邦学习模型的训练,生成能够更好的适应资源有限的边缘化使用场景的模型,已经成为业内亟待解决的问题。
发明内容
提供了一种联邦学习模型的生成方法及其装置。
根据第一方面,提供了一种联邦学习模型的生成方法,包括:获取图片;获取所述图片的分类结果;以及根据所述图片和所述分类结果对待训练的联邦学习模型进行训练,以生成训练好的联邦学习模型,其中,所述待训练的联邦学习模型为待剪枝的联邦学习模型经过剪枝处理后得到的,在剪枝处理过程中所述待剪枝的联邦学习模型中卷积层的剪枝率是根据模型精度自动调整的。
根据第二方面,提供了一种联邦学习模型的生成装置,包括:第一获取模块,用于获取图片;第二获取模块,用于获取所述图片的分类结果;以及训练模块,用于根据所述图片和所述分类结果对待训练的联邦学习模型进行训练,以生成训练好的联邦学习模型,其中,所述待训练的联邦学习模型为待剪枝的联邦学习模型经过剪枝处理后得到的,在剪枝处理过程中所述待剪枝的联邦学习模型中卷积层的剪枝率是根据模型精度自动调整的。
根据第三方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本公开第一方面所述的联邦学习模型的生成方法。
根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据本公开第一方面所述的联邦学习模型的生成方法。
根据第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据本公开第一方面所述联邦学习模型的生成方法的步骤。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的联邦学习模型的生成方法的流程示意图;
图2是根据本公开第二实施例的联邦学习模型的生成方法的流程示意图;
图3是根据本公开实施例的联邦学习模型的生成方法的整体流程示意图;
图4是根据本公开第一实施例的联邦学习模型的生成装置的框图;
图5是根据本公开第二实施例的联邦学习模型的生成装置的框图;
图6是用来实现本公开实施例的联邦学习模型的生成方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
人工智能(ArtificialIntelligence,简称AI)是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门技术科学。目前,AI技术具有自动化程度高、精确度高、成本低的优点,得到了广泛的应用。
深度学习(Deep Learning,简称DL),是机器学习(Machine Learning,简称ML)领域中一个新的研究方向,学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。就具体研究内容而言,主要包括基于卷积运算的神经网络系统,即卷积神经网络;基于多层神经元的自编码神经网络;以多层自编码神经网络的方式进行预训练,进而结合鉴别信息进一步优化神经网络权值的深度置信网络。深度学习在搜索技术,数据挖掘,机器学习,机器翻译,自然语言处理,多媒体学习,语音,推荐和个性化技术,以及其他相关领域都取得了很多成果。深度学习使机器模仿视听和思考等人类的活动,解决了很多复杂的模式识别难题,使得人工智能相关技术取得了很大进步。
联邦学习(Federated Learning)是一个机器学习框架,能有效帮助多个机构在满足用户隐私保护、数据安全和政府法规的要求下,进行数据使用和机器学习建模,根据孤岛数据的分布特点可以将联邦学习分为三类:横向联邦学习、纵向联邦学习和联邦迁移学习,联邦学习可以避免非授权的数据扩散和解决数据孤岛问题。
下面结合附图描述本公开实施例的联邦学习模型的生成方法及其装置。
图1是根据本公开第一实施例的联邦学习模型的生成方法的流程示意图。
如图1所示,本公开实施例的联邦学习模型的生成方法具体可包括以下步骤:
S101,获取图片。
具体的,本公开实施例的联邦学习模型的生成方法的执行主体可为本公开实施例提供的联邦学习模型的生成装置,该联邦学习模型的生成装置可为具有数据信息处理能力的硬件设备和/或驱动该硬件设备工作所需必要的软件。可选的,执行主体可包括工作站、服务器,计算机、用户终端及其他设备。其中,用户终端包括但不限于手机、电脑、智能语音交互设备、智能家电、车载终端等。
本公开实施例可应用于联邦学习场景下对大型的深度神经网络进行模型训练,以适应于资源有限的边缘化使用场景,加速模型的训练。
在本公开实施例中,获取图片以构建训练样本,例如从云端或数据库中获取图片,或者从视频中获取视频帧。
S102,获取图片的分类结果。
在本公开实施例中,根据获取到的图片获取对应的分类结果。
S103,根据图片和分类结果对待训练的联邦学习模型进行训练,以生成训练好的联邦学习模型,其中,待训练的联邦学习模型为待剪枝的联邦学习模型经过剪枝处理后得到的,在剪枝处理过程中待剪枝的联邦学习模型中卷积层的剪枝率是根据模型精度自动调整的。
在本公开实施例中,根据获取的图片和图片的分类结果对待训练的联邦学习模型进行训练,以生成训练好的联邦学习模型。本公开实施例对待剪枝的联邦学习模型进行剪枝处理,将剪枝处理后的学习模型作为待训练的联邦学习模型,从而提高对待训练的联邦学习模型的训练速度,减少模型占用的内存资源,生成能够更好的适应资源有限的边缘化使用场景的模型。此外在剪枝处理过程中根据待剪枝的联邦学习模型的精度自动调整模型中卷积层的剪枝率,无需人工选择参数,实现自适应剪枝。
综上,本公开实施例的联邦学习模型的生成方法,获取图片,获取图片的分类结果,以及根据图片和分类结果对待训练的联邦学习模型进行训练,以生成训练好的联邦学习模型,其中,待训练的联邦学习模型为待剪枝的联邦学习模型经过剪枝处理后得到的,在剪枝处理过程中待剪枝的联邦学习模型中卷积层的剪枝率是根据模型精度自动调整的。从而加速模型训练、有效地减少资源占用,生成能够更好的适应资源有限的边缘化使用场景的模型,且根据待剪枝的联邦学习模型的精度自动调整模型中卷积层的剪枝率,无需人工选择参数,实现了自适应剪枝。
图2是根据本公开第二实施例的联邦学习模型的生成方法的流程示意图。
如图2所示,在图1所示实施例的基础上,本公开实施例的联邦学习模型的生成方法还包括对待剪枝的联邦学习模型进行剪枝处理得到待训练的联邦学习模型的过程,具体可包括以下步骤:
S201,获取客户端发送的模型更新梯度。
在一些实施例中,多个客户端通过联邦学习实现联合建模,例如采用基于FedSGD算法的横向联邦学习框架,使用VGG11的模型结构构建联邦学习模型,多个客户端各自生成模型更新梯度。本公开实施例获取多个客户端发送的模型更新梯度。
S202,根据模型更新梯度更新待剪枝的联邦学习模型。
在本公开实施例中,根据从多个客户端获取到的模型更新梯度更新待剪枝的联邦学习模型,例如在基于FedSGD算法的横向联邦学习场景中,应用FedSGD算法接收客户端的模型更新梯度并更新全局模型即更新待剪枝的联邦学习模型。
S203,响应于当前轮为回滚轮,则计算更新后的待剪枝的联邦学习模型的模型精度。
在本公开实施例中,预先设置回滚轮间隔数和剪枝轮间隔数,在剪枝轮对卷积层进行结构化剪枝,在回滚轮基于设置的模型回滚条件回滚全局模型。例如,设置回滚轮间隔数为30和剪枝轮间隔数为70,则第70轮为剪枝轮,100(70+30)轮为回滚轮。
在本公开实施例中判断当前轮是否为回滚轮,若为回滚轮则计算更新后的待剪枝的联邦学习模型的模型精度。若当前轮不为回滚轮则判断当前轮是否为剪枝轮。
在一些实施例中,若当前轮为剪枝轮,则根据当前轮对应的卷积层的剪枝率对更新后的待剪枝的联邦学习模型进行剪枝,并将剪枝后的待剪枝的联邦学习模型发送至客户端。
作为一种可行的实施方式,在剪枝前设置模型快照,以便后续回滚,以结构化剪枝的方式进行模型剪枝。
本公开实施例中,每个剪枝轮对应不同的卷积层。例如,第一个剪枝轮对应的是l0卷积层,第二个剪枝轮对应的为l1卷积层,到达最后一个卷积层后,下一个剪枝轮重新对应l0卷积层,以此循环。
在剪枝轮对卷积层进行剪枝时计算更新后的待剪枝的联邦学习模型特征图的秩,对秩值低于(maxRank-minRank)*x%+minRank的滤波器进行修剪,其中maxRank为当前轮对应的卷积层的特征图的秩中的最大值,minRank为最小值,x为当前轮对应的卷积层的剪枝率,在剪枝完成后调整x为下一层卷积层的剪枝率以便在下一轮剪枝轮对下一层卷积层进行剪枝。
若当前轮不为剪枝轮则无需进行剪枝,将更新后的待剪枝的联邦学习模型发送至客户端,客户端根据接收到的待剪枝的联邦学习模型重新生成模型更新梯度,以此进行循环剪枝,直至剪枝完成。
S204,响应于模型精度低于最近一次剪枝后的待剪枝的联邦学习模型的模型精度,则确定最近一次剪枝不合理。
在本公开实施例中,响应于当前轮为回滚轮,根据更新后的待剪枝的联邦学习模型的模型精度,判断该模型精度是否低于最近一次剪枝后的待剪枝的联邦学习模型的模型精度,若低于,则将最近一次剪枝确定为不合理。
若该模型精度等于或者高于最近一次剪枝后的待剪枝的联邦学习模型的模型精度,则将最近一次剪枝确定为合理,并将更新后的待剪枝的联邦学习模型发送至客户端,客户端根据接收到的待剪枝的联邦学习模型的模型结构和权重数据,计算新的模型更新梯度。
S205,响应于剪枝未完成,则将更新后的待剪枝的联邦学习模型回滚至最近一次剪枝前的待剪枝的联邦学习模型,并降低最近一次剪枝对应的卷积层的剪枝率,将最近一次剪枝前的待剪枝的联邦学习模型发送至客户端,以供客户端根据接收到的待剪枝的联邦学习模型重新生成模型更新梯度。
在本公开实施例中,可以在确定最近一次剪枝不合理后判断剪枝是否完成,若在对更新后的待剪枝的联邦学习模型的所有卷积层的剪枝过程中存在合理的剪枝,则认定剪枝未完成,还可以通过继续剪枝来压缩模型;否则,认定剪枝完成。
响应于剪枝未完成将更新后的待剪枝的联邦学习模型回滚至最近一次剪枝前的待剪枝的联邦学习模型,并降低最近一次剪枝对应的卷积层的剪枝率。例如将最近一次剪枝对应的卷积层的剪枝率降低为当前的一半。以此动态更新每一层的剪枝率。
作为一种可行的实施方式,当降低后的最近一次剪枝对应的卷积层的剪枝率低于预设的剪枝率阈值时,将剪枝率阈值确定为降低后的最近一次剪枝对应的卷积层的剪枝率。例如,当降低后的最近一次剪枝对应的卷积层的剪枝率低于预设剪枝率阈值10%时,将最近一次剪枝对应的卷积层的剪枝率设置为10%。
S206,响应于剪枝已完成,则将更新后的待剪枝的联邦学习模型确定为待训练的联邦学习模型。
在本公开实施例中,若所有卷积层的剪枝均被确定为不合理,则认定剪枝已完成,无需再进入回滚轮,即剪枝结束。将更新后的待剪枝的联邦学习模型确定为待训练的联邦学习模型。
综上,本公开实施例的联邦学习模型的生成方法,获取图片,获取图片的分类结果,以及根据图片和分类结果对待训练的联邦学习模型进行训练,以生成训练好的联邦学习模型,其中,待训练的联邦学习模型为待剪枝的联邦学习模型经过剪枝处理后得到的,在剪枝处理过程中待剪枝的联邦学习模型中卷积层的剪枝率是根据模型精度自动调整的。本公开实施例在回滚轮动态更新每一个卷积层的剪枝率,无需人工选择参数,实现了联邦学习场景下的自适应模型剪枝,加速了联邦学习模型的训练,从而生成能够更好的适应资源有限的边缘化使用场景的模型。
为清楚地说明本公开实施例的联邦学习模型的生成方法,下面结合图3进行详细描述。图3是根据本公开实施例的联邦学习模型的生成方法的整体流程示意图,如图3所示,本公开实施例的联邦学习模型的生成方法具体可包括以下步骤:
S301,获取客户端发送的模型更新梯度。
S302,根据模型更新梯度更新待剪枝的联邦学习模型。
S303,判断当前轮是否为回滚轮。
若是,则执行步骤S304,若否,则执行步骤S315。
S304,计算更新后的待剪枝的联邦学习模型的模型精度。
S305,判断模型精度是否低于最近一次剪枝后的待剪枝的联邦学习模型的模型精度。
若是,则执行步骤S306,若否,则执行步骤S314。
S306,确定最近一次剪枝不合理。
S307,判断剪枝是否完成。
若是,则执行步骤S308,若否,则执行步骤S312。
S308,将更新后的待剪枝的联邦学习模型确定为待训练的联邦学习模型。
S309,获取图片。
S310,获取图片的分类结果。
S311,根据图片和分类结果对待训练的联邦学习模型进行训练,以生成训练好的联邦学习模型。
S312,将更新后的待剪枝的联邦学习模型回滚至最近一次剪枝前的待剪枝的联邦学习模型,并降低最近一次剪枝对应的卷积层的剪枝率。
S313,将最近一次剪枝前的待剪枝的联邦学习模型发送至客户端,以供客户端根据接收到的待剪枝的联邦学习模型重新生成模型更新梯度。
S314,最近一次剪枝合理,并将更新后的待剪枝的联邦学习模型发送至客户端,以供客户端根据接收到的待剪枝的联邦学习模型重新生成模型更新梯度。
S315,判断当前轮是否为剪枝轮。
若是,则执行步骤S316,若否,则执行步骤S318。
S316,根据当前轮对应的卷积层的剪枝率对更新后的待剪枝的联邦学习模型进行剪枝。
S317,将剪枝后的待剪枝的联邦学习模型发送至客户端,以供客户端根据接收到的待剪枝的联邦学习模型重新生成模型更新梯度。
S318,将更新后的待剪枝的联邦学习模型发送至客户端,以供客户端根据接收到的待剪枝的联邦学习模型重新生成模型更新梯度。
图4是根据本公开第一实施例的联邦学习模型的生成装置的框图。
如图4所示,本公开实施例的联邦学习模型的生成装置400,包括:第一获取模块401、第二获取模块402和训练模块403。
第一获取模块401,用于获取图片。
第二获取模块402,用于获取图片的分类结果。
训练模块403,用于根据图片和分类结果对待训练的联邦学习模型进行训练,以生成训练好的联邦学习模型,其中,待训练的联邦学习模型为待剪枝的联邦学习模型经过剪枝处理后得到的,在剪枝处理过程中待剪枝的联邦学习模型中卷积层的剪枝率是根据模型精度自动调整的。
需要说明的是,上述对联邦学习模型的生成方法实施例的解释说明,也适用于本公开实施例的联邦学习模型的生成装置,具体过程此处不再赘述。
综上,本公开实施例的联邦学习模型的生成装置,获取图片和图片的分类结果,以及根据图片和分类结果对待训练的联邦学习模型进行训练,以生成训练好的联邦学习模型,其中,待训练的联邦学习模型为待剪枝的联邦学习模型经过剪枝处理后得到的,在剪枝处理过程中待剪枝的联邦学习模型中卷积层的剪枝率是根据模型精度自动调整的。从而加速模型训练、有效地减少资源占用,生成能够更好的适应资源有限的边缘化使用场景的模型,且根据待剪枝的联邦学习模型的精度自动调整模型中卷积层的剪枝率,无需人工选择参数,实现了自适应剪枝。
图5是根据本公开第二实施例的联邦学习模型的生成装置的框图。
如图5所示,本公开实施例的联邦学习模型的生成装置500,包括:第一获取模块501、第二获取模块502和训练模块503。
其中,第一获取模块501与上一实施例中的第一获取模块401具有相同的结构和功能,第二获取模块502与上一实施例中的第二获取模块402具有相同的结构和功能,训练模块503与上一实施例中训练模块403具有相同的结构和功能。
进一步地,生成装置500还可包括:第三获取模块504,用于获取客户端发送的模型更新梯度;更新模块505,用于根据模型更新梯度更新待剪枝的联邦学习模型;计算模块506,用于响应于当前轮为回滚轮,则计算更新后的待剪枝的联邦学习模型的模型精度;第一确定模块507,用于响应于模型精度低于最近一次剪枝后的待剪枝的联邦学习模型的模型精度,则确定最近一次剪枝不合理;回滚模块508,用于响应于剪枝未完成,则将更新后的待剪枝的联邦学习模型回滚至最近一次剪枝前的待剪枝的联邦学习模型,并降低最近一次剪枝对应的卷积层的剪枝率,将最近一次剪枝前的待剪枝的联邦学习模型发送至客户端,以供客户端根据接收到的待剪枝的联邦学习模型重新生成模型更新梯度;第二确定模块509,用于响应于剪枝已完成,则将更新后的待剪枝的联邦学习模型确定为待训练的联邦学习模型。
进一步地,回滚模块508,包括:降低单元,用于将最近一次剪枝对应的卷积层的剪枝率降低一半。
进一步地,生成装置500,还可包括:第三确定模块,用于响应于降低后的最近一次剪枝对应的卷积层的剪枝率低于预设的剪枝率阈值,则将降低后的最近一次剪枝对应的卷积层的剪枝率确定为剪枝率阈值。
进一步地,生成装置500,还可包括:第四确定模块,用于响应于模型精度等于或者高于最近一次剪枝后的待剪枝的联邦学习模型的模型精度,则确定最近一次剪枝合理,并将更新后的待剪枝的联邦学习模型发送至客户端,以供客户端根据接收到的待剪枝的联邦学习模型重新生成模型更新梯度。
进一步地,生成装置500,还可包括:发送模块,用于响应于当前轮不为回滚轮且当前轮不为剪枝轮,则将更新后的待剪枝的联邦学习模型发送至客户端,以供客户端根据接收到的待剪枝的联邦学习模型重新生成模型更新梯度。
进一步地,生成装置500,还可包括:剪枝模块,用于响应于当前轮不为回滚轮且当前轮为剪枝轮,则根据当前轮对应的卷积层的剪枝率对更新后的待剪枝的联邦学习模型进行剪枝,并将剪枝后的待剪枝的联邦学习模型发送至客户端,以供客户端根据接收到的待剪枝的联邦学习模型重新生成模型更新梯度。
综上,本公开实施例的联邦学习模型的生成装置,获取图片和图片的分类结果,以及根据图片和分类结果对待训练的联邦学习模型进行训练,以生成训练好的联邦学习模型,其中,待训练的联邦学习模型为待剪枝的联邦学习模型经过剪枝处理后得到的,在剪枝处理过程中待剪枝的联邦学习模型中卷积层的剪枝率是根据模型精度自动调整的。本公开实施例通过在回滚轮动态更新每一个卷积层的剪枝率,无需人工选择参数,实现了自适应剪枝,实现了联邦学习场景下的模型剪枝,加速了联邦学习模型的训练,从而生成能够更好的适应资源有限的边缘化使用场景的模型。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图6示出了可以用来实施本公开的实施例的示例电子设备600的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,电子设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储电子设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
电子设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许电子设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如图1至图3所示的联邦学习模型的生成方法。例如,在一些实施例中,联邦学习模型的生成方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM602和/或通信单元609而被载入和/或安装到电子设备600上。当计算机程序加载到RAM603并由计算单元601执行时,可以执行上文描述的联邦学习模型的生成方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行联邦学习模型的生成方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网以及区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
根据本公开的实施例,本公开还提供了一种计算机程序产品,包括计算机程序,其中,计算机程序在被处理器执行时实现根据本公开上述实施例所示的联邦学习模型的生成方法的步骤。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (16)
1.一种联邦学习模型的生成方法,应用于联邦学习场景下对大型的深度神经网络进行模型训练,以适应于资源有限的边缘化使用场景,包括:
获取图片;
获取所述图片的分类结果;以及
根据所述图片和所述分类结果对待训练的联邦学习模型进行训练,以生成训练好的联邦学习模型,其中,所述待训练的联邦学习模型为待剪枝的联邦学习模型经过剪枝处理后得到的,在剪枝处理过程中所述待剪枝的联邦学习模型中卷积层的剪枝率是根据模型精度自动调整的;
其中,所述获取图片,包括:从云端或数据库中获取图片,或者从视频中获取视频帧;
所述方法还包括:
在剪枝轮对卷积层进行剪枝时计算更新后的待剪枝的联邦学习模型特征图的秩,对秩值低于(maxRank-minRank)*x%+minRank的滤波器进行修剪,其中maxRank为当前轮对应的卷积层的特征图的秩中的最大值,minRank为最小值,x为当前轮对应的卷积层的剪枝率,在剪枝完成后调整x为下一层卷积层的剪枝率。
2.根据权利要求1所述的生成方法,还包括:
获取客户端发送的模型更新梯度;
根据所述模型更新梯度更新所述待剪枝的联邦学习模型;
响应于当前轮为回滚轮,则计算更新后的待剪枝的联邦学习模型的所述模型精度;
响应于所述模型精度低于最近一次剪枝后的待剪枝的联邦学习模型的模型精度,则确定最近一次剪枝不合理;
响应于剪枝未完成,则将所述更新后的待剪枝的联邦学习模型回滚至最近一次剪枝前的待剪枝的联邦学习模型,并降低最近一次剪枝对应的卷积层的剪枝率,将所述最近一次剪枝前的待剪枝的联邦学习模型发送至所述客户端,以供所述客户端根据接收到的待剪枝的联邦学习模型重新生成所述模型更新梯度;
响应于剪枝已完成,则将所述更新后的待剪枝的联邦学习模型确定为所述待训练的联邦学习模型。
3.根据权利要求2所述的生成方法,其中,所述降低最近一次剪枝对应的卷积层的剪枝率,包括:
将所述最近一次剪枝对应的卷积层的剪枝率降低一半。
4.根据权利要求2所述的生成方法,还包括:
响应于降低后的最近一次剪枝对应的卷积层的剪枝率低于预设的剪枝率阈值,则将所述降低后的最近一次剪枝对应的卷积层的剪枝率确定为所述剪枝率阈值。
5.根据权利要求2所述的生成方法,还包括:
响应于所述模型精度等于或者高于最近一次剪枝后的待剪枝的联邦学习模型的模型精度,则确定最近一次剪枝合理,并将所述更新后的待剪枝的联邦学习模型发送至所述客户端,以供所述客户端根据接收到的待剪枝的联邦学习模型重新生成所述模型更新梯度。
6.根据权利要求2所述的生成方法,还包括:
响应于当前轮不为回滚轮且当前轮不为剪枝轮,则将所述更新后的待剪枝的联邦学习模型发送至所述客户端,以供所述客户端根据接收到的待剪枝的联邦学习模型重新生成所述模型更新梯度。
7.根据权利要求2所述的生成方法,还包括:
响应于当前轮不为回滚轮且当前轮为剪枝轮,则根据当前轮对应的卷积层的剪枝率对所述更新后的待剪枝的联邦学习模型进行剪枝,并将剪枝后的待剪枝的联邦学习模型发送至所述客户端,以供所述客户端根据接收到的待剪枝的联邦学习模型重新生成所述模型更新梯度。
8.一种联邦学习模型的生成装置,应用于联邦学习场景下对大型的深度神经网络进行模型训练,以适应于资源有限的边缘化使用场景,包括:
第一获取模块,用于获取图片;
第二获取模块,用于获取所述图片的分类结果;以及
训练模块,用于根据所述图片和所述分类结果对待训练的联邦学习模型进行训练,以生成训练好的联邦学习模型,其中,所述待训练的联邦学习模型为待剪枝的联邦学习模型经过剪枝处理后得到的,在剪枝处理过程中所述待剪枝的联邦学习模型中卷积层的剪枝率是根据模型精度自动调整的;
其中,所述第一获取模块,具体用于:从云端或数据库中获取图片,或者从视频中获取视频帧;
所述装置还包括:
剪枝模块,用于在剪枝轮对卷积层进行剪枝时计算更新后的待剪枝的联邦学习模型特征图的秩,对秩值低于(maxRank-minRank)*x%+minRank的滤波器进行修剪,其中maxRank为当前轮对应的卷积层的特征图的秩中的最大值,minRank为最小值,x为当前轮对应的卷积层的剪枝率,在剪枝完成后调整x为下一层卷积层的剪枝率。
9.根据权利要求8所述的生成装置,还包括:
第三获取模块,用于获取客户端发送的模型更新梯度;
更新模块,用于根据所述模型更新梯度更新所述待剪枝的联邦学习模型;
计算模块,用于响应于当前轮为回滚轮,则计算更新后的待剪枝的联邦学习模型的所述模型精度;
第一确定模块,用于响应于所述模型精度低于最近一次剪枝后的待剪枝的联邦学习模型的模型精度,则确定最近一次剪枝不合理;
回滚模块,用于响应于剪枝未完成,则将所述更新后的待剪枝的联邦学习模型回滚至最近一次剪枝前的待剪枝的联邦学习模型,并降低最近一次剪枝对应的卷积层的剪枝率,将所述最近一次剪枝前的待剪枝的联邦学习模型发送至所述客户端,以供所述客户端根据接收到的待剪枝的联邦学习模型重新生成所述模型更新梯度;
第二确定模块,用于响应于剪枝已完成,则将所述更新后的待剪枝的联邦学习模型确定为所述待训练的联邦学习模型。
10.根据权利要求9所述的生成装置,其中,所述回滚模块,包括:
降低单元,用于将所述最近一次剪枝对应的卷积层的剪枝率降低一半。
11.根据权利要求9所述的生成装置,还包括:
第三确定模块,用于响应于降低后的最近一次剪枝对应的卷积层的剪枝率低于预设的剪枝率阈值,则将所述降低后的最近一次剪枝对应的卷积层的剪枝率确定为所述剪枝率阈值。
12.根据权利要求9所述的生成装置,还包括:
第四确定模块,用于响应于所述模型精度等于或者高于最近一次剪枝后的待剪枝的联邦学习模型的模型精度,则确定最近一次剪枝合理,并将所述更新后的待剪枝的联邦学习模型发送至所述客户端,以供所述客户端根据接收到的待剪枝的联邦学习模型重新生成所述模型更新梯度。
13.根据权利要求9所述的生成装置,还包括:
发送模块,用于响应于当前轮不为回滚轮且当前轮不为剪枝轮,则将所述更新后的待剪枝的联邦学习模型发送至所述客户端,以供所述客户端根据接收到的待剪枝的联邦学习模型重新生成所述模型更新梯度。
14.根据权利要求9所述的生成装置,还包括:
剪枝模块,用于响应于当前轮不为回滚轮且当前轮为剪枝轮,则根据当前轮对应的卷积层的剪枝率对所述更新后的待剪枝的联邦学习模型进行剪枝,并将剪枝后的待剪枝的联邦学习模型发送至所述客户端,以供所述客户端根据接收到的待剪枝的联邦学习模型重新生成所述模型更新梯度。
15. 一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7中任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111592650.6A CN114492831B (zh) | 2021-12-23 | 2021-12-23 | 联邦学习模型的生成方法及其装置 |
US17/991,977 US20230080230A1 (en) | 2021-12-23 | 2022-11-22 | Method for generating federated learning model |
US17/991,958 US20230084055A1 (en) | 2021-12-23 | 2022-11-22 | Method for generating federated learning model |
EP22216303.2A EP4131083A3 (en) | 2021-12-23 | 2022-12-23 | Method and apparatus for generating federated learning model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111592650.6A CN114492831B (zh) | 2021-12-23 | 2021-12-23 | 联邦学习模型的生成方法及其装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114492831A CN114492831A (zh) | 2022-05-13 |
CN114492831B true CN114492831B (zh) | 2023-04-07 |
Family
ID=81494827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111592650.6A Active CN114492831B (zh) | 2021-12-23 | 2021-12-23 | 联邦学习模型的生成方法及其装置 |
Country Status (3)
Country | Link |
---|---|
US (2) | US20230084055A1 (zh) |
EP (1) | EP4131083A3 (zh) |
CN (1) | CN114492831B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115759248B (zh) * | 2022-11-07 | 2023-06-13 | 吉林大学 | 基于去中心混合联邦学习的金融系统分析方法及存储介质 |
CN115829064B (zh) * | 2023-02-17 | 2023-05-05 | 山东浪潮科学研究院有限公司 | 一种联邦学习加速方法、装置、设备及存储介质 |
CN116306884B (zh) * | 2023-03-03 | 2024-02-06 | 北京泰尔英福科技有限公司 | 联邦学习模型剪枝方法、装置及非易失性存储介质 |
CN116578674B (zh) * | 2023-07-07 | 2023-10-31 | 北京邮电大学 | 联邦变分自编码主题模型训练方法、主题预测方法及装置 |
CN117910601A (zh) * | 2024-03-20 | 2024-04-19 | 浙江大学滨江研究院 | 一种个性化联邦潜在扩散模型学习方法和系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112070207A (zh) * | 2020-07-31 | 2020-12-11 | 华为技术有限公司 | 一种模型训练方法及装置 |
CN113468130A (zh) * | 2021-05-20 | 2021-10-01 | 杭州趣链科技有限公司 | 基于区块链的联邦学习模型压缩防御方法和装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2019366366A1 (en) * | 2018-10-22 | 2021-05-20 | William D. Carlson | Therapeutic combinations of TDFRPs and additional agents and methods of use |
US11948096B2 (en) * | 2020-03-13 | 2024-04-02 | International Business Machines Corporation | Adaptively adjusting influence in federated learning model updates |
-
2021
- 2021-12-23 CN CN202111592650.6A patent/CN114492831B/zh active Active
-
2022
- 2022-11-22 US US17/991,958 patent/US20230084055A1/en not_active Abandoned
- 2022-11-22 US US17/991,977 patent/US20230080230A1/en not_active Abandoned
- 2022-12-23 EP EP22216303.2A patent/EP4131083A3/en not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112070207A (zh) * | 2020-07-31 | 2020-12-11 | 华为技术有限公司 | 一种模型训练方法及装置 |
CN113468130A (zh) * | 2021-05-20 | 2021-10-01 | 杭州趣链科技有限公司 | 基于区块链的联邦学习模型压缩防御方法和装置 |
Non-Patent Citations (3)
Title |
---|
Liu S, Yu G, Yin R, et al..Adaptive network pruning for wireless federated learning.IEEE Wireless Communications Letters, 2021.2021,第7卷(第10期),1572-1576. * |
王以忠.基于自适应阈值的循环剪枝算法.计算机应用研究.2021,(第22期),66-68. * |
王国栋 ; 叶剑 ; 谢萦 ; 钱跃良.基于梯度的自适应阈值结构化剪枝算法.计算机工程.2021,第48卷(第9期),113-120. * |
Also Published As
Publication number | Publication date |
---|---|
EP4131083A2 (en) | 2023-02-08 |
US20230080230A1 (en) | 2023-03-16 |
EP4131083A3 (en) | 2023-06-28 |
CN114492831A (zh) | 2022-05-13 |
US20230084055A1 (en) | 2023-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114492831B (zh) | 联邦学习模型的生成方法及其装置 | |
US20230069197A1 (en) | Method, apparatus, device and storage medium for training video recognition model | |
CN113344089B (zh) | 模型训练方法、装置及电子设备 | |
CN115309877A (zh) | 对话生成方法、对话模型训练方法及装置 | |
JP2022173453A (ja) | ディープラーニングモデルのトレーニング方法、自然言語処理方法及び装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN114494815A (zh) | 神经网络训练方法、目标检测方法、装置、设备和介质 | |
US20230013796A1 (en) | Method and apparatus for acquiring pre-trained model, electronic device and storage medium | |
CN114841315A (zh) | 混合专家模型实现方法、系统、电子设备及存储介质 | |
CN115861462A (zh) | 图像生成模型的训练方法、装置、电子设备及存储介质 | |
CN113658586A (zh) | 语音识别模型的训练方法、语音交互方法及装置 | |
CN114969195B (zh) | 对话内容挖掘方法和对话内容评估模型的生成方法 | |
CN112527127B (zh) | 输入法长句预测模型的训练方法、装置、电子设备及介质 | |
CN115565186A (zh) | 文字识别模型的训练方法、装置、电子设备和存储介质 | |
CN115292467A (zh) | 信息处理与模型训练方法、装置、设备、介质及程序产品 | |
CN114490969A (zh) | 基于表格的问答方法、装置以及电子设备 | |
CN114119972A (zh) | 模型获取及对象处理方法、装置、电子设备及存储介质 | |
CN114118937A (zh) | 基于任务的信息推荐方法、装置、电子设备及存储介质 | |
CN113903071A (zh) | 人脸识别方法、装置、电子设备和存储介质 | |
CN113886543A (zh) | 生成意图识别模型的方法、装置、介质及程序产品 | |
CN113033179A (zh) | 知识获取方法、装置、电子设备及可读存储介质 | |
CN113807390A (zh) | 模型训练方法、装置、电子设备及存储介质 | |
CN113553413A (zh) | 对话状态的生成方法、装置、电子设备和存储介质 | |
CN114078274A (zh) | 人脸图像检测方法、装置、电子设备以及存储介质 | |
CN113704256A (zh) | 数据识别方法、装置、电子设备及存储介质 | |
CN113408632A (zh) | 提高图像分类准确性的方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |