CN116363449A - 一种基于分层联邦学习的图像识别方法 - Google Patents
一种基于分层联邦学习的图像识别方法 Download PDFInfo
- Publication number
- CN116363449A CN116363449A CN202310208568.1A CN202310208568A CN116363449A CN 116363449 A CN116363449 A CN 116363449A CN 202310208568 A CN202310208568 A CN 202310208568A CN 116363449 A CN116363449 A CN 116363449A
- Authority
- CN
- China
- Prior art keywords
- model parameters
- local
- edge
- training
- aggregation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000012549 training Methods 0.000 claims abstract description 58
- 230000002776 aggregation Effects 0.000 claims abstract description 38
- 238000004220 aggregation Methods 0.000 claims abstract description 38
- 230000008569 process Effects 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims abstract description 5
- 230000032683 aging Effects 0.000 claims abstract description 4
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000012360 testing method Methods 0.000 claims description 7
- 238000012935 Averaging Methods 0.000 claims description 2
- 230000005540 biological transmission Effects 0.000 abstract description 6
- 238000004891 communication Methods 0.000 abstract description 6
- 238000013527 convolutional neural network Methods 0.000 abstract description 2
- 230000001360 synchronised effect Effects 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 5
- 238000009826 distribution Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Bioethics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于分层联邦学习的图像识别方法,利用分层联邦学习的训练方式优化具有分类功能的卷积神经网络模型训练过程,避免用户数据在传递过程中被恶意攻击造成隐私泄露,同时可以联合多个数据拥有方协同训练一个模型;本发明构建在“云‑边‑端”分层的架构中,通过层级结构减少与中心服务器的直接通信频率,进而降低通信成本;其次,本发明采用基于时效的聚合策略,边缘服务器采用异步聚合策略,仅接受在时效内到达的局部模型参数,对于未到达的需要参与后续轮次聚合,中心服务器采用同步聚合策略,等待全部边缘服务器完成边缘聚合后进行全局聚合,并更新全局模型参数开启下一轮迭代更新,通过该策略可以有效提高模型的训练效率。
Description
技术领域
本发明属于面向边缘终端设备的图像识别领域,具体涉及一种基于分层联邦学习的图像识别方法。
背景技术
随着现代科技水平的发展,图像识别技术已经成为信息时代下的常规技术之一,其中热度最高的为基于深度学习的图像识别技术,该项技术是传统图像识别技术与神经网络算法的有机融合,在现实生活中已经拥有着广泛的应用空间,如人脸识别、指纹识别等。在采用人工智能的图像识别方法时,提高神经网络模型的训练效果和效率对提升应用服务质量起到关键作用。同时,用户的隐私和数据的安全也是需要重点关注的问题。
目前,基于深度学习的图像识别方法通常采用集中训练方式,在模型训练时需要中心服务器集中采集并存储大量数据。客户端设备将本地数据上传至服务器的过程中会产生大量的通信消耗,造成中心服务器的通信和计算资源负担过重。在数据的传递过程中,也存在巨大的安全隐患,容易出现被恶意攻击的情况。联邦学习作为一种新兴的分布式机器学习范式,无需进行样本数据交换,各数据拥有方在本地利用自身数据进行训练即可,并通过隐私保护技术实现模型信息交互,最终协同构建一个全局模型。对于图像识别任务而言,通过机器学习技术训练得到的具有预测或分类功能的模型,其性能好坏非常依赖训练数据的数量和质量,采用联邦学习可以显著降低数据泄露的风险,同时利用协同训练的优势能够学习到自身缺少的数据特征。因此,将分层联邦学习算法应用到图像识别领域,对保障用户隐私安全和提高识别服务质量都具有重要意义。
发明内容
针对现有技术的不足,本发明提出一种基于分层联邦学习的图像识别方法,利用分层的联邦学习架构训练得到具有分类功能的模型;其主要目的是避免用户本地数据集中上传,在此方法中用户与服务器之间仅传递模型参数,用户的本地数据对于用户是不可见、不可推测的;用户利用本地数据和服务器下发的模型参数进行本地训练,训练得到的局部模型参数需要回传给服务器进行聚合,通过多轮的本地训练以及模型信息交互,不断优化全局模型,使最终的模型性能充分逼近于理想的模型性能。
一种基于分层联邦学习的图像识别方法,具体包括以下步骤:
步骤1:设定一台实现全局模型聚合、更新和发送的服务器作为中心服务器,在中心服务器的下层设置多台边缘服务器,边缘服务器作为客户端设备与中心服务器通信的中介桥梁,转发模型参数;在训练时,中心服务器初始化全局模型参数ω0;
其中,η为预设的学习率;
步骤5.1:确定边缘服务器的等待时间τ;等待时间τ,表示边缘服务器从开始下发全局模型参数到开启边缘聚合所花费的总时长,设τ的取值为上一轮各参与客户端本地训练时间T(cmp,i)与模型上传时间T(com,i)之和的中值;对于参与客户端i而言,从开始本地训练到完成局部模型上传所消耗的时间为:
Ti=T(cmp,i)+T(com,i) (2)
步骤5.3:那些未在等待时间内上传成功的局部模型参数,需要参与后续轮次的边缘聚合;
步骤6:边缘服务器接收客户端传来的局部模型参数,并对局部模型参数进行分组聚合,得到边缘聚合模型;
步骤6.2:参与客户端k′的局部模型参数ωk′,是根据本轮下发的最新的全局模型参数训练得到的,在聚合时必须保留其价值;那些相对陈旧的局部模型参数ωk′也拥有价值,因此也不能将其丢弃;对于每组局部模型参数分别采用如下方法得到边缘分组聚合模型;
其中,α为动态加权因子,取值由S″的局部模型平均陈旧程度εt决定,定义为:
步骤7:中心服务器根据聚合后的边缘聚合模型参数更新全局模型参数,进行下一轮全局训练,重复步骤2-7直至达到最大全局迭代次数;
其中,|D|表示全部参与客户端的本地数据量,|Dm|表示参与边缘服务器m聚合的客户端本地数据大小;
步骤8:得到训练后的全局模型,输入测试图像数据进行分类测试。
本发明有益技术效果:
本发明提出了一种基于分层联邦学习算法的图像识别方法,通过分层的联邦学习架构可以有效减少中心服务器的计算和存储压力,同时也避免了用户本地数据在传输过程中可能遇到的泄露风险。针对频繁的模型信息交互问题,本发明采用分层半异步的聚合方法,可以显著减少消耗的总时长,实现在保证模型精度的同时提高训练效率。最终得到的模型可以部署在各参与客户端设备中,为用户提供高质量、高效率的图像识别服务。
附图说明
图1为本发明中基于分层联邦学习的图像识别方法流程图;
图2为本发明提出的全局模型结构图;
图3为本发明中在CIFAR-10数据集IID情况下的分类准确率情况;
图4为本发明中在CIFAR-10数据集Non-IID情况下的分类准确率情况。
具体实施方式
下面结合附图和具体实施实例对发明做进一步说明。
一种基于分层联邦学习的图像识别方法,如附图1所示,具体包括以下步骤:
本发明采用彩色图像CIFAR-10数据集进行效果验证,实验任务可以理解为简单的分类任务,因此实验采用准确率作为模型的评价指标,对比不同时间或轮次下模型的训练效果。CIFAR-10数据集由60000张32*32的RGB彩色图片构成,其中包括50000张训练图像和10000张测试图像,共10个分类。在这个数据集上的训练任务为训练一个包含三个卷积层的CNN(CNN_Cifar10)模型,模型结构如图2所示。
本发明在一台计算机上模拟出100个客户端节点、2个边缘服务器与一个中心服务器组成的分层架构,每个参与客户端独占一个进程,给每个参与客户端设置一个随机时延来模拟不同算力和不同本地数据量下各客户端训练时间的差异,并模拟出现实应用场景中会出现的独立同分布(IID)和非独立同分布(Non-IID)情况。基于分层联邦学习的CIFAR-10图像数据分类模型训练过程和测试结果入下:
步骤1:随机生成100个客户端;
步骤2:划分训练数据集,包括IID和Non-IID两种情况。当数据为IID时,将训练数据平均分成100组,每组数据随机从10种分类中进行抽取,并将分组结果随机分给100个客户端,模拟各客户端设备本地训练数据。当数据为Non-IID时,每组训练数据是从其中指定数量的分类中随机抽取,模拟各客户端的本地数据分布情况的差异性,同时可通过控制指定分类数量来调整Non-IID的程度;
步骤3:配置训练参数,主要包括参与客户端比例、全局迭代次数、局部迭代次数、边缘服务器数量、学习率、批量大小等,具体参数设置如表1所示。
表1实验参数表;
步骤3:服务器加载网络模型,初始化全局模型参数;
步骤4:从100个客户端中随机选择C×N个参与客户端,作为本轮参与协同训练的设备,设置边缘等待时间τ;
步骤5:将全局模型参数下发给参与方;
步骤6:参与客户端i接收到全局模型参数后,开始进行本地训练;
步骤6.1:将接收到的全局模型参数作为本地迭代优化的初始局部模型参数;
客户端设备进行本地训练所消耗的时间受设备算力(CPU)和训练数据集大小影响,设备i在本地经过E轮迭代计算所产生的总时延定义如下:
其中,ci为设备i处理一个数据样本所需的CPU周期数,由于每个数据样本(xi,yj)具有相同的大小,因此进行一次本地迭代的总CPU周期数可表示为ci|Di|。fi表示客户端设备i分配的CPU频率。
步骤6.3:客户端完成本地训练后上传局部模型参数,此过程会产生通信时延Tcom,设备i的传输时延定义如下:
其中,Wm为边缘服务器m提供部分的总带宽,βi:m为客户端设备i的带宽分配比,Pi:m表示参与客户端设备i的传输功率,hi是客户端设备i的信道增益,N0为高斯噪声。
步骤6.4:计算每个客户端的总消耗时长Ti=T(cmp,i)+T(com,i);
步骤7:边缘服务器在等待时间τ内接收局部模型参数;
步骤7.1:将接收到的局部模型参数根据全局训练轮次划分为两组:新的ωk′和相对陈旧的ωk″;
步骤8:各边缘服务器将边缘聚合模型上传至中心服务器;
步骤9:中心服务器等待全部边缘模型参数到达后开始全局聚合,计算过程如公式(7)所示;
步骤10:输入测试数据集,计算本轮训练得到的全局模型分类准确率情况。准确率(Accuracy,ACC)的定义如下:
其中,TP(True Positive)指实际为正例且被模型划分为正例的样本数;TN(TrueNegative)指实际为负例且被模型划分为负例的样本数;FP(False Positive)指实际为负例但被模型划分为正例的样本数;FN(False Negative)指实际为正例但被模型划分为负例的样本数。TP、TN为分类正确的样本数,因此准确率可以看出被正确分类的样本占所有样本的比例,准确率越高,模型的训练效果越好。
步骤11:中心服务器更新全局模型参数,开始下一轮全局迭代,重复上述工作,直至达到最大迭代次数。经过200轮全局训练后,模型对CIFAR-10数据集IID和Non-IID情况的分类准确率情况分别如图3和图4所示。
Claims (4)
1.一种基于分层联邦学习的图像识别方法,其特征在于,具体包括以下步骤:
步骤1:设定一台实现全局模型聚合、更新和发送的服务器作为中心服务器,在中心服务器的下层设置多台边缘服务器,边缘服务器作为客户端设备与中心服务器通信的中介桥梁,转发模型参数;在训练时,中心服务器初始化全局模型参数ω0;
步骤6:边缘服务器接收客户端传来的局部模型参数,并对局部模型参数进行分组聚合,得到边缘聚合模型;
步骤7:中心服务器根据聚合后的边缘聚合模型参数更新全局模型参数,进行下一轮全局训练,重复步骤2-7直至达到最大全局迭代次数;
步骤8:得到训练后的全局模型,输入测试图像数据进行分类测试。
3.根据权利要求1所述的一种基于分层联邦学习的图像识别方法,其特征在于,步骤5具体为:
步骤5.1:确定边缘服务器的等待时间τ;等待时间τ,表示边缘服务器从开始下发全局模型参数到开启边缘聚合所花费的总时长,设τ的取值为上一轮各参与客户端本地训练时间T(cmp,i)与模型上传时间T(com,i)之和的中值;对于参与客户端i而言,从开始本地训练到完成局部模型上传所消耗的时间为:
Ti=T(cmp,i)+T(com,i) (2)
步骤5.3:那些未在等待时间内上传成功的局部模型参数,需要参与后续轮次的边缘聚合。
4.根据权利要求1所述的一种基于分层联邦学习的图像识别方法,其特征在于,步骤6具体为:
步骤6.2:参与客户端k′的局部模型参数ωk′,是根据本轮下发的最新的全局模型参数训练得到的,在聚合时必须保留其价值;那些相对陈旧的局部模型参数ωk′也拥有价值,因此也不能将其丢弃;对于每组局部模型参数分别采用如下方法得到边缘分组聚合模型;
其中,α为动态加权因子,取值由S″的局部模型平均陈旧程度εt决定,定义为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310208568.1A CN116363449A (zh) | 2023-03-07 | 2023-03-07 | 一种基于分层联邦学习的图像识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310208568.1A CN116363449A (zh) | 2023-03-07 | 2023-03-07 | 一种基于分层联邦学习的图像识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116363449A true CN116363449A (zh) | 2023-06-30 |
Family
ID=86912856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310208568.1A Pending CN116363449A (zh) | 2023-03-07 | 2023-03-07 | 一种基于分层联邦学习的图像识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116363449A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116611115A (zh) * | 2023-07-20 | 2023-08-18 | 数据空间研究院 | 基于联邦学习的医疗数据诊断模型、方法、系统和存储器 |
CN117010485A (zh) * | 2023-10-08 | 2023-11-07 | 之江实验室 | 边缘场景下的分布式模型训练系统及梯度规约方法 |
CN117688425A (zh) * | 2023-12-07 | 2024-03-12 | 重庆大学 | 面向Non-IID图数据的多任务图分类模型构建方法及系统 |
-
2023
- 2023-03-07 CN CN202310208568.1A patent/CN116363449A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116611115A (zh) * | 2023-07-20 | 2023-08-18 | 数据空间研究院 | 基于联邦学习的医疗数据诊断模型、方法、系统和存储器 |
CN117010485A (zh) * | 2023-10-08 | 2023-11-07 | 之江实验室 | 边缘场景下的分布式模型训练系统及梯度规约方法 |
CN117010485B (zh) * | 2023-10-08 | 2024-01-26 | 之江实验室 | 边缘场景下的分布式模型训练系统及梯度规约方法 |
CN117688425A (zh) * | 2023-12-07 | 2024-03-12 | 重庆大学 | 面向Non-IID图数据的多任务图分类模型构建方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116363449A (zh) | 一种基于分层联邦学习的图像识别方法 | |
Han et al. | Adaptive gradient sparsification for efficient federated learning: An online learning approach | |
Lu et al. | Low-latency federated learning and blockchain for edge association in digital twin empowered 6G networks | |
Lu et al. | Differentially private asynchronous federated learning for mobile edge computing in urban informatics | |
CN113222179B (zh) | 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法 | |
CN113242568A (zh) | 一种不确定网络环境中的任务卸载和资源分配方法 | |
CN111629380B (zh) | 面向高并发多业务工业5g网络的动态资源分配方法 | |
CN113191484A (zh) | 基于深度强化学习的联邦学习客户端智能选取方法及系统 | |
CN114143891A (zh) | 移动边缘网络中基于fdql的多维资源协同优化方法 | |
CN113518007B (zh) | 一种基于联邦学习的多物联网设备异构模型高效互学习方法 | |
CN114169543A (zh) | 一种基于模型陈旧性与用户参与度感知的联邦学习算法 | |
CN115271099A (zh) | 一种支持异构模型的自适应个性化联邦学习方法 | |
CN110233755A (zh) | 一种物联网中雾计算的计算资源和频谱资源分配方法 | |
CN115374853A (zh) | 基于T-Step聚合算法的异步联邦学习方法及系统 | |
CN113378474B (zh) | 一种基于贡献量的联邦学习客户机选择方法、系统及介质 | |
CN116384504A (zh) | 联邦迁移学习系统 | |
CN113094180B (zh) | 无线联邦学习调度优化方法及装置 | |
CN117421115A (zh) | 一种集群驱动的物联网环境下资源受限的联邦学习客户端选择方法 | |
CN117252253A (zh) | 异步联邦边缘学习中的客户端选择和个性化隐私保护方法 | |
CN115759289A (zh) | 基于用户分组协同的联邦学习方法、系统及装置 | |
Chen et al. | Smart futures based resource trading and coalition formation for real-time mobile data processing | |
CN114118444A (zh) | 一种利用启发式算法降低联邦学习中设备空跑时间的方法 | |
CN114422605A (zh) | 一种基于联邦学习的通信梯度自适应压缩方法 | |
Han et al. | Analysis and Optimization of Wireless Federated Learning with Data Heterogeneity | |
CN113033653A (zh) | 一种边-云协同的深度神经网络模型训练方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |