CN112906745B - 基于边缘协同的诚信智能网络训练方法 - Google Patents
基于边缘协同的诚信智能网络训练方法 Download PDFInfo
- Publication number
- CN112906745B CN112906745B CN202110085063.1A CN202110085063A CN112906745B CN 112906745 B CN112906745 B CN 112906745B CN 202110085063 A CN202110085063 A CN 202110085063A CN 112906745 B CN112906745 B CN 112906745B
- Authority
- CN
- China
- Prior art keywords
- edge node
- training
- value
- edge
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本公开提供了一种基于边缘协同的诚信智能网络训练方法,包括:将深度网络模型分割为多个子模型,并将多个子模型分配给多个边缘节点;基于边缘节点的信誉值,调整在边缘节点中训练的子模型;训练经过调整的子模型,并在任务节点中聚合经过训练的子模型,得到更迭后的深度网络模型;以及基于更迭后的深度网络模型的损失值,调整边缘节点的信誉值,最终得到诚信智能网络。
Description
技术领域
本公开涉及智能网络技术领域/边缘计算技术领域,更具体地,涉及一种基于边缘协同的诚信智能网络训练方法。
背景技术
在过去的几年里,AI(Artificial Intelligence,人工智能)技术取得了突破性的进展。人工智能可以提高机器自动化和提高资源利用率,在为我们的经济发展带来了巨大的潜力。边缘智能网络可以满足用户对高数据速率、无处不在的可访问性和低响应延迟的需求。
边缘智能网络一般采用分布式方法通过若干个边缘节点完成训练,然而现有的分布式方法通常训练同一个模型,使用不同的训练数据集,在不同的领域执行,没有考虑深度网络的可分性;同时由于边缘节点存在安全问题,例如边缘节点在通信过程中会发生数据丢失等情况,这些边缘节点的安全问题会对边缘智能网络的整体表现产生不利影响。
在实现本公开的过程中发现,现有技术在训练深度网络时,对执行训练的边缘节点的计算资源要求较高,缺乏对低计算资源的边缘节点的应用,造成了较大的资源浪费;同时,现有技术忽视了对边缘节点的可靠性的考察,导致新的边缘节点的加入可能反而会降低边缘智能网络的整体表现。
发明内容
有鉴于此,本公开提供了一种基于边缘协同的诚信智能网络训练方法。
本公开实施例的基于边缘协同的诚信智能网络训练方法包括:将深度网络模型分割为多个子模型,并将上述多个子模型分配给多个边缘节点;基于上述边缘节点的信誉值,调整在上述边缘节点中训练的上述子模型;训练经过调整的子模型,并在任务节点中聚合经过训练的子模型,得到更迭后的深度网络模型;以及基于上述更迭后的深度网络模型的损失值,调整上述边缘节点的信誉值,最终得到诚信智能网络。
根据本公开的实施例,上述将深度网络模型分割为多个子模型,并将上述多个子模型分配给多个边缘节点包括:基于上述多个边缘节点的剩余计算资源,通过计算得到子模型分配方案;以及基于上述子模型分配方案,将上述深度网络模型分割为上述多个子模型,并将上述多个子模型分配给上述多个边缘节点。
根据本公开的实施例,上述基于上述多个边缘节点的剩余计算资源,通过计算得到子模型分配方案包括:通过计算各个上述边缘节点的剩余计算资源在所有上述边缘节点的剩余计算资源的和值中所占的比例,确定上述子模型分配方案。
根据本公开的实施例,上述基于边缘节点的信誉值,调整在上述边缘节点中训练的上述子模型包括:在上述边缘节点的信誉值小于预设信任值的情况下,基于上述信誉值的大小,将在上述边缘节点中训练的上述子模型中的一层或多层替换为随机参数层;以及在上述边缘节点的信誉值大于或等于上述预设信任值的情况下,保持上述子模型不变。
根据本公开的实施例,上述训练经过调整的子模型,并在任务节点中聚合经过训练的子模型,得到更迭后的深度网络模型包括:基于上述经过调整的子模型的层数,确定各个上述边缘节点训练相应的上述经过调整的子模型的训练顺序;在上述边缘节点完成对上述经过调整的子模型的训练后,将训练信息封装为训练数据包,并基于上述训练顺序发送给下一个上述边缘节点;下一个上述边缘节点基于上述训练数据包训练对应的上述经过调整的子模型;在基于上述训练顺序完成训练后,将对应的上述训练数据包发送给上述任务节点;以及在最后一个已训练子模型的后端添加一层或多层随机参数层,获得层数与上述深度网络模型的层数相等的待训练模型,并在上述任务节点中基于上述训练数据包训练上述待训练模型,得到上述更迭后的深度网络模型。
根据本公开的实施例,上述训练信息包括:训练过程中采用的训练参数,输入模型的训练数据,已完成训练的各层的模型参数,以及已完成训练的模型的损失值;其中,上述训练信息在后续训练中保持不变。
根据本公开的实施例,上述基于上述更迭后的深度网络模型的损失值,调整上述边缘节点的信誉值,最终得到诚信智能网络包括:在上述更迭后的深度网络模型的损失值大于预设收敛值的情况下,基于上述经过训练的子模型的损失值,调整对应的上述边缘节点的信誉值;以及在上述深度网络模型的损失值小于或等于上述预设收敛值的情况下,结束训练并将上述更迭后的深度网络模型视为上述诚信智能网络。
根据本公开的实施例,上述基于上述经过训练的子模型的损失值,调整对应的上述边缘节点的信誉值包括:在上述经过训练的子模型的损失值小于或等于子模型预设收敛值的情况下,上述边缘节点的正反馈数量加一;在上述经过训练的子模型的损失值大于上述子模型预设收敛值的情况下,上述边缘节点的负反馈数量加一;以及基于上述边缘节点的正反馈数量与上述边缘节点的负反馈数量,通过计算得到调整后的上述边缘节点的信誉值。
根据本公开的实施例,在调整对应的上述边缘节点的信誉值之后,还包括:在调整后的上述边缘节点的信誉值低于预设阈值的情况下,弃用上述边缘节点;以及将上述更迭后的深度网络模型分割为多个更迭后的子模型,并将上述多个更迭后的子模型分配给对应的上述多个边缘节点。
本公开实施例的方法还包括:基于上述边缘节点的信任值和不确定值,通过加权求和得到上述边缘节点的信誉值;其中,上述边缘节点的信任值取决于上述边缘节点的正反馈数量在上述边缘节点的正反馈数量与上述边缘节点的负反馈数量的和值中所占的比例;上述边缘节点的不确定值表示上述边缘节点与上述任务节点通信不成功的概率。
根据本公开的实施例,通过将深度网络模型分割为多个子模型,并将多个子模型分配给多个边缘节点;基于边缘节点的信誉值,调整在边缘节点中训练的子模型;训练经过调整的子模型,并在任务节点中聚合经过训练的子模型,得到更迭后的深度网络模型;以及基于更迭后的深度网络模型的损失值,调整边缘节点的信誉值,最终得到诚信智能网络。通过对深度网络模型的分割,实现了对受资源约束的边缘节点的应用,有效提升了深度网络模型的训练效率;同时通过记录每一个边缘节点的信誉值,实现了对边缘节点是否存在安全问题的判别,有效降低了训练表现较差的边缘节点对整体网络的影响。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的可以应用基于边缘协同的诚信智能网络训练方法的示例性系统架构100;
图2示意性示出了根据本公开实施例的基于边缘协同的诚信智能网络训练方法200的流程图;
图3A示意性示出了根据本公开另一实施例的IoI系统300的示意图;
图3B示意性示出了根据本公开另一实施例的IoI系统300的训练过程的示意图;
图4A示意性示出了根据本公开另一实施例的IoI系统300的训练次数与资源利用率之间的关系示意图;
图4B示意性示出了根据本公开另一实施例的IoI系统300的训练次数与损失率之间的关系示意图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
随着文本、图像、视频等多维信息的普及,未来连接已经进入多维度连接时代。多维度连接时代在网络边缘存在大量的终端设备,包括基站、手机、个人电脑等,这些终端设备即是信息的产生者,也是资源的需求者,这些终端设备在运行时会产生大量信息连接到互联网上,从而在网络边缘生成大量字节的数据,并且需要网络及时给出信息的反馈,对信息的响应时间提出了更高的要求。例如AR设备,其工作时需要和配套的传感器进行信息交互,如从感光类传感器处获取光照信息、从测距类传感器处获取相对位置信息等,同时也需要对这些信息进行运算,以获取良好的动画效果;如果将所有信息发送给云中心进行处理,容易导致信息反馈不及时,从而导致动画出现撕裂感或清晰度下降,对其性能造成很大的影响。因此,多维度连接时代提出了在网络边缘侧部署计算和缓存功能的要求,以及进行联合资源分配决策的需求,而不是将所有数据发送给云中心,等待云中心进行反馈。然而,由于较高的数据维数和训练复杂度,在一个资源受限的边缘节点上训练这样的模型具有挑战性。
本公开提供了一种基于边缘协同的诚信智能网络训练方法,包括将深度网络模型分割为多个子模型,并将多个子模型分配给多个边缘节点;基于边缘节点的信誉值,调整在边缘节点中训练的子模型;训练经过调整的子模型,并在任务节点中聚合经过训练的子模型,得到更迭后的深度网络模型;以及基于更迭后的深度网络模型的损失值,调整边缘节点的信誉值,最终得到诚信智能网络。
图1示意性示出了根据本公开实施例的可以应用基于边缘协同的诚信智能网络训练方法的示例性系统架构100。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的系统架构100可以包括边缘节点101、102、103和网络104。其中,边缘节点101、102、103可以是边缘网关、边缘控制器、边缘服务器等边缘侧产品。网络104用以在边缘节点101、102、103之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等等。
本公开实施例所提供的基于边缘协同的诚信智能网络训练方法一般由边缘节点101、102、103执行,控制该方法执行的主体可以是边缘节点101、102、103中的一个节点,也可以是能够与边缘节点101、102、103通信的服务器或服务器集群。
应该理解,图1中的网络和边缘节点的数目和类型仅仅是示意性的。根据实现需要,可以具有任意数目、任意类型的网络和边缘节点。
图2示意性示出了根据本公开实施例的基于边缘协同的诚信智能网络训练方法200的流程图。
如图2所示,该方法200包括操作S210~S240。
本公开实施例的基于边缘协同的诚信智能网络训练方法200在智能网络系统中执行,该智能网络系统包括多个边缘节点和一个任务节点。
在操作S210,将深度网络模型分割为多个子模型,并将多个子模型分配给多个边缘节点。
根据本公开的实施例,包括多层感知器、卷积神经网络等无反馈机制的神经网络可以直接按层分割为多个子网络。例如,深度网络模型是一个多层的卷积神经网络,其包含1个输入层、5个中间层和1个输出层,该智能网络系统中有两个边缘节点,则可以将输入层和2个中间层作为第一个子模型分配给第一个边缘节点,将剩余的中间层和输出层作为第二个子模型分配给第二个边缘节点。
根据本公开的实施例,包括反向传播网络等具有反馈机制的神经网络若直接按层分割会将子模型之间的相关性切断,导致聚合后的模型难以收敛,所以,对于反向传播网络等可以按照特定规律进行分割。例如,深度网络模型是一个6层的反向传播网络,该智能网络系统中有两个边缘节点,则可以分别取反向传播网络的前4层和前5层作为子模型,分配给两个边缘节点。
在操作S220,基于边缘节点的信誉值,调整在边缘节点中训练的子模型。
根据本公开的实施例,可以采用例如区块链等技术用于边缘节点的信誉值的存储与查询。
根据本公开的实施例,边缘节点的信誉值表征该边缘节点在该智能网络系统中的可信度,在本公开的实施例中,根据信誉值的大小,可以对在边缘节点中进行训练的子模型进行参数替换、弃用模型等操作,例如,将子模型的后端的一层或多层替换为随机参数层。
在操作S230,训练经过调整的子模型,并在任务节点中聚合经过训练的子模型,得到更迭后的深度网络模型。
根据本公开的实施例,模型的聚合对应于操作S210中的模型分割。例如,对于卷积神经网络等前馈网络,可以直接将各个子模型按分割时的顺序进行拼接,即可得到更迭后的卷积神经网络。又例如,对于反向传播网络,可以通过补全子模型并在任务节点中训练的方式,得到更迭后的反向传播网络。聚合后的网络具有与分割前的网络相同的模型层数与结构。
在操作S240,基于更迭后的深度网络模型的损失值,调整边缘节点的信誉值,最终得到诚信智能网络。
根据本公开的实施例,采用聚合得到的深度网络的损失值作为深度网络是否得到充分训练的判断标准。在本文的其他实施例中,可以采用设定训练次数的方式判断何时结束训练,也可以采用深度网络中损失函数的梯度作为结束训练的判断标准。需要注意的是,以上数种方法的各种组合方法也应在本公开的保护范围内。
根据本公开的实施例,边缘节点的信誉值在完成每一次训练后都会进行更新,其更新依据可以包括在该边缘节点中训练的子模型的损失值、梯度下降值等,还包括该边缘节点的网络延迟、丢包率等。
根据本公开的实施例,通过将深度网络模型分割为多个子模型,并将多个子模型分配给多个边缘节点;基于边缘节点的信誉值,调整在边缘节点中训练的子模型;训练经过调整的子模型,并在任务节点中聚合经过训练的子模型,得到更迭后的深度网络模型;以及基于更迭后的深度网络模型的损失值,调整边缘节点的信誉值,最终得到诚信智能网络。通过对深度网络模型的分割,实现了对受资源约束的边缘节点的应用,有效提升了深度网络模型的训练效率;同时通过记录每一个边缘节点的信誉值,实现了对边缘节点是否存在安全问题的判别,有效降低了训练表现较差的边缘节点对整体网络的影响。
图3A示意性示出了根据本公开另一实施例的IoI系统300的示意图。
如图3A所示,IoI(Internet of Intelligence,智能互联网)系统300是一个集体智能系统,它可以应用于VR/AR设备、自动驾驶车辆等对信息处理效率要求较高的设备或场景。
根据本公开的实施例,IoI系统300中包括一个集成的深度网络模型301,集成的深度网络模型301由多个充分训练的子模型302通过连接或聚合的方式得到。
根据本公开的实施例,IoI系统300中还包括一个任务节点303和多个边缘节点304。任务节点303用于实现该IoI系统300的功能的,同时,也可以用于在训练IoI系统300时进行资源分配的决策。边缘节点304为IoI系统300提供了运行时所需要的计算资源,同时也用于训练被分配的模型从而得到充分训练的子模型302。
图3B示意性示出了根据本公开另一实施例的IoI系统300的训练过程的示意图。
如图3B所示,在IoI系统300内部,深度网络模型305被分解成多个子模型306,这些子模型306被部署在不同的边缘节点304上进行训练。通过这种方式,边缘节点304可以以较低的资源消耗对一部分复杂深度网络进行训练,相对于在一个资源受限的节点上训练整个模式,获得更好的训练性能。待子模型306得到充分训练后,在任务节点303上聚合成为集成的深度网络305。
根据本公开的实施例,为了使IoI系统300得到充分的训练,采用DRL(DeepReinforcement Learning,深度强化学习算法)作为训练时的学习算法。在DRL中,采用Q值表征在某一状态下采取某一行动带来的有益效果,在高维状态和动作下,可以认为Q(s,a,ω)≈Q(s,a),其中s和a表示状态和动作,ω表示采取该动作的概率。
根据本公开的实施例,DRL包括4个组成部分,分别为学习智能体、状态空间、动作空间和激励函数。其中,学习智能体例如图3A或图3B中的任务节点303,它可以收集状态空间,学习如何分配资源,并执行操作。状态空间包括所有的网络、计算和缓存资源。动作空间包括分配操作、计算操作、存储操作等。激励函数即为网络中资源分配策略的表现形式。在本公开的实施例中,通过DRL算法可以解决资源分配决策的问题,更好地分配IoI系统300的计算和存储资源等。
根据本公开的实施例,在对深度网络模型305进行分解时,可以基于多个边缘节点304的剩余计算资源,通过计算得到子模型306的分配方案。例如,假定用Ue用于边缘节点e的剩余计算资源,则IoI系统300中(该IoI系统300中例如有m个边缘节点304)可用计算资源的总量为则分配方案可以通过计算各个边缘节点304的剩余计算资源在IoI系统300中可用计算资源的总量中所占的比例来确定,如下式所示:
在式中,Le表示边缘节点e可训练的子模型的层数。
根据本公开的实施例,在对深度网络模型305进行分解时,还可以基于多个边缘节点304的其他信息或其他信息与剩余计算资源信息的组合,决定子模型306的分配方案。例如,在实际应用中,边缘节点304可能是不稳定的,即存在数据包丢失率α和通信失败概率β,这时可以认为的边缘节点e的可使用的剩余计算资源U′e如下式所示:
U′e=Ue×(1-α)×(1-β) (2)
根据本公开的实施例,在确定分配方案之后,便可基于该分配方案,将深度网络模型305分割为多个子模型306,并将多个子模型306分配给多个边缘节点304。
根据本公开的实施例,在完成模型分割后,便可对各个子模型306进行训练,训练时采取串行训练的方式按特定的训练顺序进行训练。训练顺序依据分割方式的不同具有较大的区别。例如,对于采取直接按层分割的深度网络模型305,其子模型306的训练顺序与深度网络模型305各层之间的连接顺序相同。对于不可直接按层分割的深度网络模型305,可以基于子模型306的层数,确定各个边缘节点304训练相应的子模型306的训练顺序。
根据本公开的实施例,在任务节点303或边缘节点304中进行训练时,采用相同的训练数据307,例如相同的训练样本、学习率、损失函数、训练次数等。
根据本公开的实施例,在训练中,其中一个边缘节点304在完成对子模型306的训练后,会将训练信息封装为训练数据包,并基于训练顺序发送给下一个边缘节点304。训练数据包的内容和格式可以如表1所示,需要注意的是,表1中的内容和格式仅为本公开的示范性实施例,不应用于限制本公开的保护范围。
表1数据包的格式
根据本公开的实施例,后续边缘节点304依据先前边缘节点304发送的训练数据包训练对应的子模型306,并且在训练时保持训练数据包中的内容不变。例如,先前边缘节点304完成了一个6层反向传播网络的训练,此次训练需要训练一个7层反向传播网络,则在此次训练中,可以使用该6层反向传播网络的直接替换7层反向传播网络的前6层,并且在训练过程中不对前6层的模型参数进行更迭。
根据本公开的实施例,在基于训练顺序完成训练后,最后一个边缘节点304会将对应的训练数据包发送给任务节点303。在任务节点303中会完成模型的聚合工作,例如,在最后一个已训练子模型308的后端添加一层或多层随机参数层,获得层数与深度网络模型的层数相等的待训练模型,并在任务节点303中基于训练数据包训练待训练模型,得到更迭后的深度网络模型309。
根据本公开的实施例,边缘节点304具有开放性、异质性和不确定性,这些特性可能导致边缘节点304向任务节点303提交无效或错误的子模型,从而阻碍系统训练。因此,本公开的实施例基于区块链技术,建立了IoI系统300内的智能合约310。建立智能合约310的目标是通过添加约束条件,包括基于任务节点303中的深度模型对边缘节点304进行评估,并基于评估结果计算边缘节点304在IoI系统300内的信誉值,以减少边缘节点304的恶意或意外异常。
根据本公开的实施例,在边缘节点304训练子模型306前,会基于边缘节点304的信誉值,对在边缘节点中训练的子模型306进行调整。例如,在边缘节点304的信誉值小于预设信任值的情况下,基于信誉值的大小,将在边缘节点304中训练的子模型306中的一层或多层替换为随机参数层;在边缘节点304的信誉值大于或等于预设信任值的情况下,保持子模型306不变。
根据本公开的实施例,智能合约310会根据更迭后的深度网络模型309的损失值对边缘节点304的信誉值进行调整。例如,在更迭后的深度网络模型309的损失值大于预设收敛值的情况下,基于经过训练的子模型308的损失值,调整对应的边缘节点304的信誉值;在深度网络模型309的损失值小于或等于预设收敛值的情况下,结束训练并将更迭后的深度网络模型309视为集成的深度网络模型301。
根据本公开的实施例,调整对应的边缘节点304的信誉值可以通过调整构成信誉值的某个参数,从而实现对信誉值的调整。例如,在经过训练的子模型308的损失值小于或等于子模型预设收敛值的情况下,边缘节点的正反馈数量加一;在经过训练的子模型308的损失值大于子模型预设收敛值的情况下,边缘节点的负反馈数量加一。
在本公开的实施例中,边缘节点304的信任值取决于边缘节点304的正反馈数量在边缘节点304的正反馈数量与边缘节点304的负反馈数量的和值中所占的比例,边缘节点304的不确定值表示边缘节点与任务节点通信不成功的概率,并且边缘节点304的信任值和不确定值通过加权求和得到可以边缘节点304的信誉值。因此,可以通过下式计算得到调整后的边缘节点304的信誉值:
repk=belk+αuncerk (4)
在式中,belk表示边缘节点k的信任值,α是一个预设的权值,uncerk表示边缘节点k的不确定值,即边缘节点k通信不成功的概率;表示边缘节点k的正反馈的数量,表示边缘节点k的负反馈的数量;repk表示边缘节点k的信誉值,α是一个预设的权值参数。
根据本公开的实施例,在完成对边缘节点304的信誉值的调整后,智能合约310还会根据信誉值判断边缘节点304是否存在安全问题。例如,预设一个安全阈值,在调整后的边缘节点304的信誉值低于预设阈值的情况下,认为该边缘节点304属于不安全节点,可以采取包括在IoI系统300中弃用该边缘节点304的操作。
根据本公开的实施例,还可以基于边缘节点304的不信任值判断边缘节点304是否存在安全问题,边缘节点k的不信任值由下式计算得出:
例如,若边缘节点k的不信任值disk大于一个预设的阈值,则认为该边缘节点k的加入可能会对IoI系统300的可靠性造成影响。
根据本公开的实施例,在基于智能合约310完成对边缘节点304的操作后,将更迭后的深度网络模型基于现有的边缘节点304的数量和资源信息再次进行分割,并对分割得到的子模型再次进行训练。
图4A示意性示出了根据本公开另一实施例的IoI系统300的训练次数与资源利用率之间的关系示意图。
如图4A所示,实线部分表示基于IoI系统300的DQL(Deep Q-Learning,基于Q值的深度强化学习算法)的训练次数和资源利用率的关系,虚线部分表示传统的DQL的训练次数和资源利用率的关系。由图4A可见,本公开实施例的IoI系统300有效提升了模型的收敛速度,在10000Q值左右已经实现了收敛。
图4B示意性示出了根据本公开另一实施例的IoI系统300的训练次数与损失率之间的关系示意图。
如图4B所示,1oI系统300中的DQL具有更好的收敛能力,在经过大约1000次训练后,它已经实现了收敛,而传统的DQL的损失率仍在显著波动。由此可见,本公开的实施例可以将边缘节点连接起来,有效提高训练效率。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。
Claims (7)
1.一种基于边缘协同的诚信智能网络训练方法,包括:
将深度网络模型分割为多个子模型,并将所述多个子模型分配给多个边缘节点;
基于所述边缘节点的信誉值,调整在所述边缘节点中训练的所述子模型;
训练经过调整的子模型,并在任务节点中聚合经过训练的子模型,得到更迭后的深度网络模型;以及
基于所述更迭后的深度网络模型的损失值,调整所述边缘节点的信誉值,最终得到诚信智能网络;
其中,所述将深度网络模型分割为多个子模型,并将所述多个子模型分配给多个边缘节点包括:
基于所述多个边缘节点的剩余计算资源,通过计算得到子模型分配方案;以及
基于所述子模型分配方案,将所述深度网络模型分割为所述多个子模型,并将所述多个子模型分配给所述多个边缘节点;
其中,所述基于所述多个边缘节点的剩余计算资源,通过计算得到子模型分配方案包括:
通过计算各个所述边缘节点的剩余计算资源在所有所述边缘节点的剩余计算资源的和值中所占的比例,确定所述子模型分配方案;
其中,所述训练经过调整的子模型,并在任务节点中聚合经过训练的子模型,得到更迭后的深度网络模型包括:
基于所述经过调整的子模型的层数,确定各个所述边缘节点训练相应的所述经过调整的子模型的训练顺序;
在所述边缘节点完成对所述经过调整的子模型的训练后,将训练信息封装为训练数据包,并基于所述训练顺序发送给下一个所述边缘节点;
下一个所述边缘节点基于所述训练数据包训练对应的所述经过调整的子模型;
在基于所述训练顺序完成训练后,将对应的所述训练数据包发送给所述任务节点;以及
在最后一个已训练子模型的后端添加一层或多层随机参数层,获得层数与所述深度网络模型的层数相等的待训练模型,并在所述任务节点中基于所述训练数据包训练所述待训练模型,得到所述更迭后的深度网络模型。
2.根据权利要求1所述的方法,其中,所述基于边缘节点的信誉值,调整在所述边缘节点中训练的所述子模型包括:
在所述边缘节点的信誉值小于预设信任值的情况下,基于所述信誉值的大小,将在所述边缘节点中训练的所述子模型中的一层或多层替换为随机参数层;以及
在所述边缘节点的信誉值大于或等于所述预设信任值的情况下,保持所述子模型不变。
3.根据权利要求1所述的方法,其中:
所述训练信息包括:训练过程中采用的训练参数,输入模型的训练数据,已完成训练的各层的模型参数,以及已完成训练的模型的损失值;
其中,所述训练信息在后续训练中保持不变。
4.根据权利要求1所述的方法,其中,所述基于所述更迭后的深度网络模型的损失值,调整所述边缘节点的信誉值,最终得到诚信智能网络包括:
在所述更迭后的深度网络模型的损失值大于预设收敛值的情况下,基于所述经过训练的子模型的损失值,调整对应的所述边缘节点的信誉值;以及
在所述深度网络模型的损失值小于或等于所述预设收敛值的情况下,结束训练并将所述更迭后的深度网络模型视为所述诚信智能网络。
5.根据权利要求4所述的方法,其中,所述基于所述经过训练的子模型的损失值,调整对应的所述边缘节点的信誉值包括:
在所述经过训练的子模型的损失值小于或等于子模型预设收敛值的情况下,所述边缘节点的正反馈数量加一;
在所述经过训练的子模型的损失值大于所述子模型预设收敛值的情况下,所述边缘节点的负反馈数量加一;以及
基于所述边缘节点的正反馈数量与所述边缘节点的负反馈数量,通过计算得到调整后的所述边缘节点的信誉值。
6.根据权利要求4所述的方法,其中,在调整对应的所述边缘节点的信誉值之后,还包括:
在调整后的所述边缘节点的信誉值低于预设阈值的情况下,弃用所述边缘节点;以及
将所述更迭后的深度网络模型分割为多个更迭后的子模型,并将所述多个更迭后的子模型分配给对应的所述多个边缘节点。
7.根据权利要求1至6中任一项所述的方法,其中,还包括:
基于所述边缘节点的信任值和不确定值,通过加权求和得到所述边缘节点的信誉值;
其中,所述边缘节点的信任值取决于所述边缘节点的正反馈数量在所述边缘节点的正反馈数量与所述边缘节点的负反馈数量的和值中所占的比例;
所述边缘节点的不确定值表示所述边缘节点与所述任务节点通信不成功的概率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110085063.1A CN112906745B (zh) | 2021-01-21 | 2021-01-21 | 基于边缘协同的诚信智能网络训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110085063.1A CN112906745B (zh) | 2021-01-21 | 2021-01-21 | 基于边缘协同的诚信智能网络训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112906745A CN112906745A (zh) | 2021-06-04 |
CN112906745B true CN112906745B (zh) | 2022-03-29 |
Family
ID=76118284
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110085063.1A Active CN112906745B (zh) | 2021-01-21 | 2021-01-21 | 基于边缘协同的诚信智能网络训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112906745B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116341633B (zh) * | 2023-05-29 | 2023-09-01 | 山东浪潮科学研究院有限公司 | 一种模型部署方法、装置、设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108876702A (zh) * | 2018-06-21 | 2018-11-23 | 北京邮电大学 | 一种加速分布式深度神经网络的训练方法及装置 |
CN110909865A (zh) * | 2019-11-18 | 2020-03-24 | 福州大学 | 边缘计算中基于分层张量分解的联邦学习方法 |
CN110955463A (zh) * | 2019-12-03 | 2020-04-03 | 天津大学 | 支持边缘计算的物联网多用户计算卸载方法 |
CN111242282A (zh) * | 2020-01-09 | 2020-06-05 | 中山大学 | 基于端边云协同的深度学习模型训练加速方法 |
CN111260076A (zh) * | 2020-01-13 | 2020-06-09 | 天津大学 | 基于区块链的边缘节点训练方法、区块链及存储介质 |
CN111444395A (zh) * | 2019-01-16 | 2020-07-24 | 阿里巴巴集团控股有限公司 | 获取实体间关系表达的方法、系统和设备、广告召回系统 |
CN111866869A (zh) * | 2020-07-07 | 2020-10-30 | 兰州交通大学 | 面向边缘计算的联邦学习室内定位隐私保护方法 |
CN112132293A (zh) * | 2020-09-30 | 2020-12-25 | 腾讯科技(深圳)有限公司 | 纵向联邦学习中的计算方法、装置、设备及介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107909597B (zh) * | 2017-11-14 | 2021-05-14 | 西安建筑科技大学 | 一种具有边缘保持的多尺度mrf模型图像分割方法 |
US20200334524A1 (en) * | 2019-04-17 | 2020-10-22 | Here Global B.V. | Edge learning |
CN110503188A (zh) * | 2019-08-01 | 2019-11-26 | 三星(中国)半导体有限公司 | 实现基于异构模型图的深度神经网络模型的方法和装置 |
CN111325821B (zh) * | 2020-02-18 | 2023-06-06 | Oppo广东移动通信有限公司 | 网格模型处理方法及装置、设备、存储介质 |
-
2021
- 2021-01-21 CN CN202110085063.1A patent/CN112906745B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108876702A (zh) * | 2018-06-21 | 2018-11-23 | 北京邮电大学 | 一种加速分布式深度神经网络的训练方法及装置 |
CN111444395A (zh) * | 2019-01-16 | 2020-07-24 | 阿里巴巴集团控股有限公司 | 获取实体间关系表达的方法、系统和设备、广告召回系统 |
CN110909865A (zh) * | 2019-11-18 | 2020-03-24 | 福州大学 | 边缘计算中基于分层张量分解的联邦学习方法 |
CN110955463A (zh) * | 2019-12-03 | 2020-04-03 | 天津大学 | 支持边缘计算的物联网多用户计算卸载方法 |
CN111242282A (zh) * | 2020-01-09 | 2020-06-05 | 中山大学 | 基于端边云协同的深度学习模型训练加速方法 |
CN111260076A (zh) * | 2020-01-13 | 2020-06-09 | 天津大学 | 基于区块链的边缘节点训练方法、区块链及存储介质 |
CN111866869A (zh) * | 2020-07-07 | 2020-10-30 | 兰州交通大学 | 面向边缘计算的联邦学习室内定位隐私保护方法 |
CN112132293A (zh) * | 2020-09-30 | 2020-12-25 | 腾讯科技(深圳)有限公司 | 纵向联邦学习中的计算方法、装置、设备及介质 |
Non-Patent Citations (5)
Title |
---|
Convergence of Edge Computing and Deep Learning;Xiaofei Wang等;《IEEE Communications Surveys & Tutorials》;20200130;第22卷(第2期);第869-904页 * |
Intelligent Edge: Leveraging Deep Imitation Learning for Mobile Edge Computation Offloading;Shuai Yu等;《IEEE Wireless Communications》;20200304;第27卷(第1期);第92-99页 * |
边缘智能:边缘节点通信;Ian Beavers;《中国电子商情 (基础电子)》;20181231(第5期);第13-18页 * |
边缘计算和深度学习之间的交融;刘志成等;《自动化博览》;20200215;第37卷(第2期);第54-58页 * |
面向边缘智能的资源分配和任务调度的研究;姜婧妍;《中国博士学位论文全文数据库 (信息科技辑)》;20200815;第I139-3页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112906745A (zh) | 2021-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112181666B (zh) | 一种基于边缘智能的设备评估和联邦学习重要性聚合方法 | |
US20190221187A1 (en) | System, apparatus and methods for adaptive data transport and optimization of application execution | |
Yang et al. | A parallel intelligence-driven resource scheduling scheme for digital twins-based intelligent vehicular systems | |
CN111629380B (zh) | 面向高并发多业务工业5g网络的动态资源分配方法 | |
CN111711666B (zh) | 一种基于强化学习的车联网云计算资源优化方法 | |
US20240135191A1 (en) | Method, apparatus, and system for generating neural network model, device, medium, and program product | |
CN115686846B (zh) | 边缘计算中融合图神经网络和强化学习的容器集群在线部署方法 | |
CN116541106B (zh) | 计算任务卸载方法、计算设备及存储介质 | |
Qi et al. | Vehicular edge computing via deep reinforcement learning | |
Huang et al. | Enabling dnn acceleration with data and model parallelization over ubiquitous end devices | |
da Silva et al. | Towards federated learning in edge computing for real-time traffic estimation in smart cities | |
CN112906745B (zh) | 基于边缘协同的诚信智能网络训练方法 | |
Zhang et al. | Efficient instance reuse approach for service function chain placement in mobile edge computing | |
CN115543626A (zh) | 采用异构计算资源负载均衡调度的电力缺陷图像仿真方法 | |
Zhao et al. | Adaptive Swarm Intelligent Offloading Based on Digital Twin-assisted Prediction in VEC | |
CN114548416A (zh) | 数据模型训练方法及装置 | |
CN116367190A (zh) | 一种面向6g移动网络的数字孪生功能虚拟化方法 | |
Peng et al. | Tofds: A two-stage task execution method for fake news in digital twin-empowered socio-cyber world | |
CN115292044A (zh) | 数据处理方法、装置、电子设备及存储介质 | |
Lei et al. | A heuristic services binding algorithm to improve fault-tolerance in microservice based edge computing architecture | |
Zhang et al. | Novel resource allocation algorithm of edge computing based on deep reinforcement learning mechanism | |
CN111784029A (zh) | 一种雾节点资源分配方法 | |
Doe et al. | DSORL: Data Source Optimization With Reinforcement Learning Scheme for Vehicular Named Data Networks | |
Chen et al. | ASTPPO: A proximal policy optimization algorithm based on the attention mechanism and spatio–temporal correlation for routing optimization in software-defined networking | |
Niu et al. | A pipelining task offloading strategy via delay-aware multi-agent reinforcement learning in Cybertwin-enabled 6G network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230425 Address after: Room 801, No. 2, Boyun Road, Free Trade Pilot Zone, Pudong New Area, Shanghai, March 2012 Patentee after: Pioneer Cloud Computing (Shanghai) Co.,Ltd. Address before: 300072 Tianjin City, Nankai District Wei Jin Road No. 92 Patentee before: Tianjin University |