CN115600681A - 智能模型的训练方法和装置 - Google Patents
智能模型的训练方法和装置 Download PDFInfo
- Publication number
- CN115600681A CN115600681A CN202110770808.8A CN202110770808A CN115600681A CN 115600681 A CN115600681 A CN 115600681A CN 202110770808 A CN202110770808 A CN 202110770808A CN 115600681 A CN115600681 A CN 115600681A
- Authority
- CN
- China
- Prior art keywords
- gradient information
- synthesized
- information
- central node
- model training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 254
- 238000000034 method Methods 0.000 title claims abstract description 100
- 238000004891 communication Methods 0.000 claims description 89
- 230000005540 biological transmission Effects 0.000 claims description 53
- 238000012545 processing Methods 0.000 claims description 31
- 238000004590 computer program Methods 0.000 claims description 12
- 230000004913 activation Effects 0.000 claims description 7
- 230000006870 function Effects 0.000 description 28
- 230000000875 corresponding effect Effects 0.000 description 26
- 239000002131 composite material Substances 0.000 description 22
- 238000013473 artificial intelligence Methods 0.000 description 15
- 238000013528 artificial neural network Methods 0.000 description 15
- 230000002776 aggregation Effects 0.000 description 13
- 238000004220 aggregation Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 238000013461 design Methods 0.000 description 5
- 239000002699 waste material Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005562 fading Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001617 migratory effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本申请提供了一种智能模型的训练方法和装置。多个参与节点联合执行智能模型的训练,该方法由该多个参与节点中的一个参与节点执行,该方法包括:对该智能模型执行第K次模型训练,得到第一梯度信息;向中心节点发送第一合成梯度信息,该第一合成梯度信息包括该第一梯度信息与残差梯度信息的合成信息,该残差梯度信息用于表征该第K次模型训练之前未传输至中心节点的合成梯度信息的残差估计量,其中,K为正整数。以期提高智能模型训练的效率。
Description
技术领域
本申请涉及通信领域,并且更具体地,涉及一种智能模型的训练方法和装置。
背景技术
人工智能(artificial intelligence,AI)是未来无线通信网络(如物联网)中的一类非常重要的应用。与数据集都统一汇聚到服务器,由服务器执行模型训练的传统集中式智能模型训练的应用不同,现代机器学习提出了联邦学习(federated learning)的方式,联邦学习是一种分布式智能模型训练方法,服务器为多个设备提供模型参数,由该多个设备各自基于各自的数据集执行智能模型训练后,将损失函数的梯度信息反馈给服务器,由服务器基于来自多个设备的梯度信息得到更新的模型参数。联邦学习能够解决集中式机器学习收集数据导致的耗时和大量通信开销问题。同时,由于不用将设备数据发送到服务器,也能够减少隐私安全问题。
然而,服务器接收到的梯度信息可能受到传输信道条件影响存在失真的情况,使得目前联邦学习进行模型训练的效率较低。
发明内容
本申请提供了一种智能模型的训练方法和装置,能够提高智能模型训练的效率。
第一方面,提供了一种智能模型的训练方法,多个参与节点联合执行智能模型的训练,该方法由该多个参与节点中的一个参与节点执行。
该方法包括:对该智能模型执行第K次模型训练,得到第一梯度信息;向中心节点发送第一合成梯度信息,该第一合成梯度信息包括该第一梯度信息与残差梯度信息的合成信息,该残差梯度信息用于表征该第K次模型训练之前未传输至中心节点的合成梯度信息的残差估计量,其中,K为正整数。
根据上述方案,参与节点可以在一次模型训练后,将训练得到的梯度信息以及由参与节点估计的本次模型训练之前未传输至中心节点的残差梯度信息发送给参与节点。使得中心节点能够获取到残差梯度信息(或者称为补偿的梯度信息),能够提高损失函数的收敛速度,提高模型训练的效率。
结合第一方面,在第一方面的某些实现方式中,该残差梯度信息包括由加权系数加权的第二合成梯度信息的残差估计量,该第二合成梯度信息为第K次模型训练之前最近一次向中心节点发送的合成梯度信息。
结合第一方面,在第一方面的某些实现方式中,该方法还包括:根据该第二合成梯度信息、该第二合成梯度信息对应的传输功率和该第二合成梯度信息对应的信道信息,确定该第二合成梯度信息的残差估计量。
根据上述方案,第二合成梯度信息对应的传输功率和信道信息,估计第二合成梯度信息在传输过程中的损失作为残差估计量,通过第一合成梯度信息传递至中心节点,使得中心节点能够获取到残差梯度信息,能够提高损失函数的收敛速度,提高模型训练的效率。
结合第一方面,在第一方面的某些实现方式中,该第二合成梯度信息具体为第Q次模型训练后向该中心节点发送的合成梯度信息,其中,Q为小于K的正整数;该加权系数与该第K次模型训练的学习率相关和/或与该第Q次模型训练的学习率相关。
结合第一方面,在第一方面的某些实现方式中,该第二合成梯度信息为第Q次模型训练后向中心节点发送的合成梯度信息,该残差梯度信息还包括N个梯度信息的合成信息,该N个梯度信息为该第Q次模型训练之后与该第K次模型训练之前的N次模型训练得到的、且在该第K次模型训练之前未发送给中心节点的梯度信息,其中,K大于Q,N=K-Q-1,且Q为正整数。
根据上述方案,残差梯度信息还包括第Q次模型训练与第K次模型训练之间的N次模型训练得到的N个梯度信息的合成信息。以便中心节点既能够获取到未反馈的梯度信息又能够获取到前一次合成梯度信息的残差量,能够提高损失函数的收敛速度,提高模型训练的效率。
结合第一方面,在第一方面的某些实现方式中,该向中心节点发送第一合成梯度信息,包括:确定该第一合成梯度信息对应的传输功率大于功率阈值;向该中心节点发送该第一合成梯度信息。
结合第一方面,在第一方面的某些实现方式中,该方法还包括:若该第一合成梯度信息对应的传输功率小于或等于该功率阈值,不向该中心节点发送该第一合成梯度信息。
根据上述方案,在通信开销较大且信道条件较差的情况下不向中心节点发送合成梯度信息。能够减少资源浪费,提高资源利用率。
结合第一方面,在第一方面的某些实现方式中,该方法还包括:基于通信代价度量信息、该第一合成梯度信息对应的信道信息以及该第一合成梯度信息,确定该第一合成梯度信息的传输功率,该通信代价度量信息用于表征该一个参与节点与该中心节点之间通信的开销量。
结合第一方面,在第一方面的某些实现方式中,该功率阈值与通信代价度量信息成正比和/或该功率阈值与该参与节点的激活功率成正比,该通信代价度量信息用于表征该一个参与节点与该中心节点之间通信的开销量。
结合第一方面,在第一方面的某些实现方式中,该方法还包括:接收来自该中心节点的该通信代价度量信息。
根据上述方案,参与节点可以从中心节点获取通信代价度量信息,以便参与节点可以基于通信代价度量确定是否向中心节点发送合成梯度信息。
结合第一方面,在第一方面的某些实现方式中,该对该智能模型执行第K次模型训练,包括:接收来自该中心节点的模型参数信息;对该智能模型执行第K次模型训练,该智能模型为基于该模型参数信息配置后的模型。
第二方面,提供了一种智能模型的训练装置,该装置是参与节点或配置于(或用于)参与节点的模块(如芯片)。
该通信装置包括:处理单元,用于对该智能模型执行第K次模型训练,得到第一梯度信息;收发单元,用于向中心节点发送第一合成梯度信息,该第一合成梯度信息包括该第一梯度信息与残差梯度信息的合成信息,该残差梯度信息用于表征该第K次模型训练之前未传输至中心节点的合成梯度信息的残差估计量,其中,K为正整数。
结合第二方面,在第二方面的某些实现方式中,该残差梯度信息包括由加权系数加权的第二合成梯度信息的残差估计量,该第二合成梯度信息为第K次模型训练之前最近一次向中心节点发送的合成梯度信息。
结合第二方面,在第二方面的某些实现方式中,该处理单元还用于根据该第二合成梯度信息、该第二合成梯度信息对应的传输功率和该第二合成梯度信息对应的信道信息,确定该第二合成梯度信息的残差估计量。
结合第二方面,在第二方面的某些实现方式中,该第二合成梯度信息具体为第Q次模型训练后向该中心节点发送的合成梯度信息,其中,Q为小于K的正整数;该加权系数与该第K次模型训练的学习率和/或该第Q次模型训练的学习率相关。
结合第二方面,在第二方面的某些实现方式中,该第二合成梯度信息为第Q次模型训练后向中心节点发送的合成梯度信息,该残差梯度信息还包括N个梯度信息的合成信息,该N个梯度信息为该第Q次模型训练之后与该第K次模型训练之前的N次模型训练得到的、且在该第K次模型训练之前未发送给中心节点的梯度信息,其中,K大于Q,N=K-Q-1,且Q为正整数。
结合第二方面,在第二方面的某些实现方式中,该处理单元还用于确定该第一合成梯度信息对应的传输功率大于功率阈值;该收发单元还用于在该第一合成梯度信息对应的传输功率大于功率阈值的情况下,向该中心节点发送该第一合成梯度信息。
结合第二方面,在第二方面的某些实现方式中,该收发单元还用于在该第一合成梯度信息对应的传输功率小于或等于该功率阈值的情况下,不向该中心节点发送该第一合成梯度信息。
结合第二方面,在第二方面的某些实现方式中,该处理单元用于基于通信代价度量信息、该第一合成梯度信息对应的信道信息以及该第一合成梯度信息,确定该第一合成梯度信息的传输功率,该通信代价度量信息用于表征该一个参与节点与该中心节点之间通信的开销量。
结合第二方面,在第二方面的某些实现方式中,该功率阈值与通信代价度量信息成正比和/或该功率阈值与该参与节点的激活功率成正比,该通信代价度量信息用于表征该一个参与节点与该中心节点之间通信的开销量。
结合第二方面,在第二方面的某些实现方式中,该收发单元还用于接收来自该中心节点的该通信代价度量信息。
结合第二方面,在第二方面的某些实现方式中,该收发单元还用于接收来自该中心节点的模型参数信息;该处理单元具体用于对该智能模型执行第K次模型训练,该智能模型为基于该模型参数信息配置后的模型。
第三方面,提供了一种智能模型的训练装置,包括处理器。该处理器可以实现上述第一方面以及第一方面中任一种可能实现方式中的方法。可选地,该通信装置还包括存储器,该处理器与该存储器耦合,可用于执行存储器中的指令,以实现上述第一方面以及第一方面中任一种可能实现方式中的方法。可选地,该通信装置还包括通信接口,处理器与通信接口耦合。本申请实施例中,通信接口可以是收发器、管脚、电路、总线、模块或其它类型的通信接口,不予限制。
在一种实现方式中,该智能模型的训练装置为参与节点。当该智能模型的训练装置为参与节点为参与节点时,该通信接口可以是收发器,或,输入/输出接口。
在另一种实现方式中,该智能模型的训练装置为参与节点为配置于参与节点中的芯片。当该智能模型的训练装置为参与节点为配置于参与节点中的芯片时,该通信接口可以是输入/输出接口,该处理器可以是逻辑电路。
该输入/输出接口用于用于向中心节点发送第一合成梯度信息,所述第一合成梯度信息包括所述第一梯度信息与残差梯度信息的合成信息,所述残差梯度信息用于表征所述第K次模型训练之前未传输至中心节点的合成梯度信息的残差估计量,其中,K为正整数;该逻辑电路用于用于对所述智能模型执行第K次模型训练,得到第一梯度信息。可选地,该通信装置还包括通信接口,处理器与通信接口耦合。
可选地,该收发器可以为收发电路。可选地,该输入/输出接口可以为输入/输出电路。
第四方面,提供了一种处理器,包括:输入电路、输出电路和处理电路。该处理电路用于通过该输入电路接收信号,并通过该输出电路发射信号,使得该处理器执行第一方面以及第一方面中任一种可能实现方式中的方法。
在具体实现过程中,上述处理器可以为一个或多个芯片,输入电路可以为输入管脚,输出电路可以为输出管脚,处理电路可以为晶体管、门电路、触发器和各种逻辑电路等。输入电路所接收的输入的信号可以是由例如但不限于接收器接收并输入的,输出电路所输出的信号可以是例如但不限于输出给发射器并由发射器发射的,且输入电路和输出电路可以是同一电路,该电路在不同的时刻分别用作输入电路和输出电路。本申请实施例对处理器及各种电路的具体实现方式不做限定。
第五方面,提供了一种计算机程序产品,该计算机程序产品包括:计算机程序(也可以称为代码,或指令),当该计算机程序被运行时,使得计算机执行上述第一方面以及第一方面中任一种可能实现方式中的方法。
第六方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序(也可以称为代码,或指令)当其在计算机上运行时,使得计算机执行上述第一方面以及第一方面中任一种可能实现方式中的方法。
第七方面,提供了一种通信系统,包括前述的多个参与节点和至少一个中心节点。
上述第二方面至第七方面中任一方面及其任一方面中任意一种可能的实现可以达到的技术效果,请参照上述第一方面及其第一方面中相应实现可以带来的技术效果描述,这里不再重复赘述。
附图说明
图1是适用于本申请实施例的通信系统的一个示意图;
图2是本申请实施例提供的智能模型训练方法的一个示意性流程图;
图3是本申请实施例提供的智能模型训练方法的另一个示意性流程图;
图4是本申请实施例提供的多个参与节点共享传输资源的一个示意图;
图5是本申请的通信装置的一例的示意性框图;
图6是本申请的通信设备的一例的示意性结构图。
具体实施方式
在本申请实施例中,“/”可以表示前后关联的对象是一种“或”的关系,例如,A/B可以表示A或B;“和/或”可以用于描述关联对象存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况,其中A,B可以是单数或者复数。为了便于描述本申请实施例的技术方案,在本申请实施例中,可以采用“第一”、“第二”等字样对功能相同或相似的技术特征进行区分。该“第一”、“第二”等字样并不对数量和执行次序进行限定,并且“第一”、“第二”等字样也并不限定一定不同。在本申请实施例中,“示例性的”或者“例如”等词用于表示例子、例证或说明,被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念,便于理解。
在本申请实施例中,至少一个(种)还可以描述为一个(种)或多个(种),多个(种)可以是两个(种)、三个(种)、四个(种)或者更多个(种),本申请不做限制。
下面将结合附图,对本申请中的技术方案进行描述。
本申请实施例的技术方案可以应用于各种通信系统,例如:长期演进(long termevolution,LTE)系统、LTE频分双工(frequency division duplex,FDD)系统、LTE时分双工(time division duplex,TDD)、第五代(5th generation,5G)通信系统、未来的通信系统(如第六代(6th generation,6G)通信系统)、或者多种通信系统融合的系统等,本申请实施例不做限定。其中,5G还可以称为新无线(new radio,NR)。
图1是适用于本申请实施例的通信系统的示意图。
如图1所示,适用于本申请实施例的通信系统可以包括至少一个中心节点,以及至少一个参与节点,如图1所示的参与节点1、2、N,中心节点可以向各个参与节点提供模型参数,各个参与节点基于中心节点提供的模型参数更新模型后,采用本地数据集分别对更新后的模型进行训练。例如,参与节点1采用本地数据集1对模型进行训练,参与节点2采用本地数据集2对模型进行训练,参与节点N采用本地数据集N对模型进行训练。各个参与节点进行模型训练后向中心节点发送本次训练得到的损失函数的梯度信息。中心节点确定来自各个参与节点的梯度信息的聚合梯度信息,并基于聚合梯度信息确定更新后的模型参数,并通知各个参与节点,由各个参与节点执行下一次模型训练。
本申请实施例提供的中心节点可以是网络设备,例如,服务器、基站等。中心节点可以是一种部署在无线接入网中能够与参与节点进行直接或间接通信的设备。
本申请实施例提供的参与节点可以是终端或终端设备,参与节点可以是一种具有收发功能的设备。参与节点可以被部署在陆地上,包括室内、室外、手持、和/或车载;也可以被部署在水面上(如轮船等),示例性地,参与节点可以是传感器;参与节点还可以被部署在空中(例如飞机、气球和卫星上等)。参与节点可以是用户设备(user equipment,UE)。UE包括具有无线通信功能的手持式设备、车载设备、可穿戴设备或计算设备。示例性地,UE可以是手机(mobile phone)、平板电脑或带无线收发功能的电脑。终端设备还可以是虚拟现实(virtual reality,VR)终端设备、增强现实(augmented reality,AR)终端设备、工业控制中的无线终端、无人驾驶中的无线终端、远程医疗中的无线终端、智能电网中的无线终端、智慧城市(smart city)中的无线终端、和/或智慧家庭(smart home)中的无线终端等等。
本申请实施例提供的技术方案可以用于在多种场景中,例如,智能零售、智慧家庭、视频监控(video surveillance)、车辆网(如自动驾驶、无人驾驶等)、以及工业无线传感器网络(industrial wireless sens or network,IWSN)等。但本申请不限于此。
在一种实施方式中,本申请提供的技术方案可以应用于智能家庭,实现基于客户需求为客户提供个性化服务。中心节点可以是基站或服务器,参与节点可以是设置在各个家庭中的客户端设备。基于本申请提供的技术方案,客户端设备仅向服务器提供基于本地数据进行模型训练后通过路由器将合成梯度信息,能够在保护客户数据隐私的同时与服务器共享训练结果信息。服务器获取多个客户端设备提供的合成梯度信息的聚合梯度信息,确定更新后的模型参数并通知各个客户端设备,继续智能模型的训练,完成模型训练后客户端设备应用训练后的模型为客户提供个性化服务。
在另一种实施方式中,本申请提供的技术方案可以应用于工业无线传感器网络,实现工业智能化。中心节点可以是服务器,参与节点可以是工厂内的多个传感器(例如,可移动智能机器人等),传感器基于本地数据进行模型训练后向服务器发送合成梯度信息,并由服务器获基于传感器提供的合成梯度信息的聚合梯度信息,确定更新后的模型参数并通知各个传感器,继续智能模型的训练,完成模型训练后传感器应用训练后的模型为执行工厂任务,例如,传感器为可移动智能机器人,可以基于训练后的模型获取移动路线,完成工厂搬运任务、快递分拣任务等。
为了更好地理解本申请实施例,下面对本文中涉及到的术语做简单说明。
1、人工智能AI
人工智能AI是让机器具有学习能力,能够积累经验,从而能够解决人类通过经验可以解决的诸如自然语言理解、图像识别和/或下棋等问题。
2、神经网络(neural network,NN):作为人工智能的重要分支,是一种模仿动物神经网络行为特征进行信息处理的网络结构。神经网络的结构由大量的节点(或称神经元)相互联接构成。神经网络基于特定运算模型,通过对输入信息进行学习和训练达到处理信息的目的。一个神经网络包括输入层、隐藏层及输出层。输入层负责接收输入信号,输出层负责输出神经网络的计算结果,隐藏层负责特征表达等复杂的功能。隐藏层的功能由权重矩阵和对应的激活函数来表征。
深度神经网络(deep neural network,DNN)一般为多层结构。增加神经网络的深度和宽度,可以提高它的表达能力,为复杂系统提供更强大的信息提取和抽象建模能力。神经网络的深度可以表示为神经网络的层数。对于其中一层,神经网络的宽度可以表示为该层包括的神经元的个数。
DNN可以有多种构建方式,例如包括但不限于,递归神经网络(recurrent neuralnetwork,RNN)、卷积神经网络(convolutional neural network,CNN)以及全连接神经网络等。
3、训练(training)或学习
训练是指对模型(或称为训练模型)的处理过程。在该处理过程中通过优化该模型中的参数,如加权值,使该模型学会执行某项特定的任务。本申请实施例适用于但不限于以下一种或多种训练方法:监督学习、无监督学习、强化学习、和迁移学习等。有监督学习是利用一组具有已经打好正确标签的训练样本来训练。其中,已经打好正确标签是指每个样本有一个期望的输出值。与有监督学习不同,无监督学习是指一种方法,该方法没有给定事先标记过的训练样本,自动对输入的数据进行分类或分群。
4、推理
推理是指利用训练后的模型(训练后的模型可以称为推理模型)执行数据处理。将实际数据输入推理模型进行处理,得到对应的推理结果。推理还可以称为预测或决策,推理结果还可以称为预测结果、或决策结果等。
5、联邦学习(federated learning)
一种分布式AI训练方法,将AI算法的训练过程放在多个设备上进行,而不是聚合到一个服务器上,能够解决集中式AI训练时收集数据导致的耗时和大量通信开销问题。同时,由于不用将设备数据发送到服务器,也能够减少隐私安全问题。具体过程如下:中心节点向多个参与节点发送AI模型,参与节点基于自己的数据进行AI模型训练,并将自己训练的AI模型以梯度的方式上报给中心节点。中心节点对多个参与节点反馈的梯度信息进行平均或其他运算,得到新的AI模型的参数。中心节点可以将AI模型的更新后的参数发送给多个参与节点,参与节点再次执行对AI模型的训练。不同次联邦学习过程中,中心节点选择的参与节点可能相同,也可能不同,本申请对此不做限定。
然而,在联邦学习中,中心节点接收到的梯度信息可能受到传输信道条件影响存在失真的情况,使得目前联邦学习进行模型训练的效率较低。本申请提出可以由参与节点向中心节点补发失真损失的部分梯度信息,使得中心节点能够获取到失真补偿。参与节点可以在一次模型训练后,将本次训练得到的梯度信息以及由参与节点估计的本次模型训练之前未传输至中心节点的残差梯度信息发送给参与节点。使得中心节点能够获取到残差梯度信息(或者称为补偿的梯度信息),能够提高损失函数的收敛速度,提高模型训练的效率。
下面结合附图对本申请提供的智能模型训练方法进行说明。
实施例一
图2是本申请提供的智能模型训练方法的一个示意性流程图。
S201,参与节点对智能模型执行第K次模型训练,得到第一梯度信息。
可选地,在该参与节点对智能模型执行第K次模型训练之前,该参与节点可以接收来自中心节点的模型参数信息1,第K次模型训练中训练的该智能模型为基于该模型参数信息1配置后的模型。
例如,参与节点在接收到该模型参数信息1之前,智能模型可以记作智能模型1,参与节点接收到该模型参数信息1后,基于该模型参数信息1配置智能模型1的参数,得到智能模型2。参与节点对智能模型2执行第K次模型训练。
参与节点采用用于训练的数据样本对智能模型进行训练,并计算得到第一梯度信息。
例如,参与节点可以在该本地数据集D中获取该第K次模型训练的随机选择数据样本ξK(D),参与节点采用该数据样本对智能模型进行训练,并计算得到第一梯度信息其中,ΘK为模型参数信息1指示的模型权重。可选地,该本地数据集D可以是该参与节点采集样本数据得到的样本数据集。该第一梯度信息可以简写为
例如,在智能家庭场景中,样本数据可以是客户偏好数据,客户端设备基于客户偏好数据对智能模型进行训练,训练后的智能模型能够基于客户需求为客户提供个性化服务。
再例如,在工业无线传感器网络中,样本数据可以是传感器采集到的工厂任务对应的可移动路线数据,传感器基于可移动路线数据对智能模型进行训练,训练后的智能模型能够基于工厂任务需求提供最优路线,以便传感器(例如智能机器人)可以基于最优路线完成工厂任务。
需要说明的是,以上仅以以上两个场景为例进行了说明,但本申请不限于此。本申请提供的方法还可以应用与其他场景中。
S202,该参与节点向中心节点发送第一合成梯度信息,该第一合成梯度信息包括该第一梯度信息与残差梯度信息的合成信息,该残差梯度信息用于表征该第K次模型训练之前未传输至该中心节点的合成梯度信息的残差估计量。
其中,K为正整数。相应地,中心节点接收来自参与节点的该第一合成梯度信息。
可选地,该残差梯度信息包括由加权系数加权的第二合成梯度信息的残差估计量。该第二合成梯度信息为参与节点对智能模型执行第Q次模型训练后参与节点向中心节点发送的合成梯度信息,Q为小于K的正整数。参与节点可以在第n次智能模型训练后得到合成梯度信息其中,n为正整数,可以记作:
可选地,该加权系数an可以为1,或者,该加权系数an可以与第n次模型训练的学习率相关。
其中,aK·rK为残差梯度信息,即第K次模型训练后得到的第一合成梯度信息中包含的残差梯度信息,该残差梯度信息包括第K次模型训练之前未传输至中心节点的合成梯度信息的残差估计量,具体地,rK中可以包括上述第二合成梯度信息的残差估计量,在该残差梯度信息aK·rK中,该第二合成梯度信息的残差估计量被加权系数aK加权。
下面介绍参与节点获取一个合成梯度信息的残差估计量的方法。
参与节点发送合成梯度信息(即第n次智能模型训练后得到的合成梯度信息)的传输功率增益可以记作pn,该参与节点与中心节点之间的信道信息可以记作hn,如信道信息可以是信道衰落。该信道衰落可以是该参与节点基于参考信号进行信道估计得到的或由中心节点反馈的,本申请对此不做限定。则合成梯度信息的等效传输部分可以表示为从而可以基于下式得到合成梯度信息的残差估计量δn。
在本申请实施例中,rK可以包括但不限于以下实施方式一和实施方式二:
实施方式一,rK即为第二合成梯度信息的残差估计量δQ,即rK=δQ。
也就是说,rK中包括参与节点执行第K次智能模型训练之前,最近一次发送给中心节点的一个合成梯度信息的残差估计量。在本实施例中,第K次智能模型训练之前,最近一次发送给中心节点的合成梯度信息为第Q次智能模型训练后得到的合成梯度信息,即第二合成梯度信息,因此,该rK=δQ。
可选地,在本实施方式一中,该加权系数aK可以为1,或者,该加权系数aK可以与第K次模型训练的学习率和/或第Q次模型训练的学习率相关。
一个示例中,第Q次模型训练为第K次模型训练的前一次模型训练,即Q=K-1,也就是说,参与节点在一次模型训练后向中心节点发送的合成梯度信息中包括前一次模型训练后向中心节点发送的合成梯度信息的残差梯度信息。
另一个示例中,第Q次模型训练与第K次模型训练之间还包括N次模型训练,即Q=K-N-1,该参与节点未向中心节点发送该N次模型训练后得到的梯度信息。也就是说,参与节点在一次模型训练后向中心节点发送的合成梯度信息中包括前一次向中心节点发送的合成梯度信息的残差梯度信息。
可选地,在本实施方式一中,若该第二合成梯度信息为该参与节点第一次向中心节点发送的合成梯度信息,(如第Q次训练为第一次模型训练,或者,前Q-1次模型训练得到的梯度信息均未发送给中心节点)由于不存在上一次向中心节点发送的合成梯度信息(即已发送的合成梯度信息),因此不存在残差估计量,则该第二合成梯度信息仅包括第Q次模型训练得到的梯度信息
可选地,在本实施方式一中,若该第二合成梯度信息不是该参与节点第一次向中心节点发送的合成梯度信息(也就是说,在第Q次模型训练之前该参与节点向中心节点发送过合成梯度信息),则该第二合成梯度信息包括该第Q次模型训练得到的梯度信息以及在第Q次模型训练之前的最近一次已发送给中心节点的合成梯度信息的残差梯度信息。
根据本申请的实施方式一,参与节点合成该第一梯度信息、第二合成梯度信息的残差梯度信息发送给中心节点。以便中心节点可以获取到为前一次接收到的来自该参与节点的合成梯度信息的残差估计量,能够补偿传输过程中的数据失真,提高损失函数的收敛速度、进而提高模型训练的性能。
实施方式二,该rK包括第二合成梯度信息的残差估计量δQ以及N个梯度信息的合成信息。该N个梯度信息为第K次模型训练与第Q次模型训练之间的N次模型训练后得到的、且参与节点未向中心节点发送的N个梯度信息,N=K-Q-1。
也就是说,rK中包括第K次智能模型训练的前一次智能模型训练(即第K-1次智能模型训练)得到的合成梯度信息的残差估计量,即rK=δK-1。
在本实施方式中,由于第Q次模型训练至第K次模型训练之间的N次模型训练后未向中心节点发送合成梯度信息,则该N次模型训练对应的传输功率增益pi=0,其中,i=K-1,...,K-N,则由于pK-1=0,则即:
继续推导可以得到:
其中,rK-N=δK-N-1=δQ,rK可以记作:
因此,基于式(3),该rK包括第二合成梯度信息的残差估计量δQ与N个梯度信息的合成信息。
一个示例中,每次智能模型训练对应的加权系数an,可以为1,n为正整数。则当an=1时,rK可以如下式,即rK可以包括第Q次模型训练之后与第K次模型训练之前的N次模型训练得到的梯度信息与第Q次模型训练后得到的第二合成梯度信息的残差估计量的和值。
另一个示例中,该加权系数an可以与第n次模型训练的学习率和/或第n-1次模型训练的学习率相关。
可选地,在本实施方式二中,若该第二合成梯度信息为第一次向中心节点发送的合成梯度信息。
另一种情况中,第Q次模型训练不是第一次模型训练,第Q次模型训练之前的Q-1模型训练后得到的合成梯度信息未发送给中心节点,即Q>1,则该第二合成梯度信息中包括第Q次模型训练得到的梯度信息以及前Q-1次模型训练后得到的Q-1个梯度信息的合成信息,由于前Q-1次得到的合成梯度信息均未发送给中心节点,因此,pi=0,i=1,...,Q-1,则该情况下第二合成梯度信息可以表示为:
可选地,在本实施方式二中,若该第二合成梯度信息不是第一次向中心节点发送的合成梯度信息,也就是说,在第Q次模型训练之前该参与节点向中心节点发送过合成梯度信息,则该第二合成梯度信息包括第Q次模型训练得到的梯度信息以及Q次模型训练之前的残差梯度信息,如第Q次模型训练之前最近一次向中心节点发送的合成梯度信息为第三合成梯度信息,该第三合成梯度信息为第M次模型训练后得到的,则该Q次模型训练之前的残差梯度信息包括由加权系数加权的第三合成梯度信息的残差估计量以及第M次模型训练之后至第Q次模型训练之前的Q-M-1次模型训练后得到的Q-M-1个梯度信息的合成信息。则该可选地实施方式中第二合成梯度信息可以表示为:
可选地,中心节点或执行联邦学习的多个参与节点可以基于策略,确定是否在一次模型训练后向中心节点发送梯度信息。
一种实施方式中,由中心节点基于策略,确定至少一个参与节点,该至少一个参与节点在模型训练后向中心节点发送梯度信息,并通知该多个参与节点是否发送梯度信息。该多个参与节点接收到来自中心节点的通知后,确定是否向中心节点发送梯度信息。
例如,中心节点的策略可以是基于数据重要度和/或中心节点与参与节点之间的信道条件等度量,确定被调度发送梯度信息的参与节点。中心节点通知该多个参与节点是否被调度,该多个参与节点中被调度的参与节点在下一次模型训练后向中心节点发送合成梯度信息。未被调度的参与节点在下一次模型训练后不向中心节点发送合成梯度信息,将存储模型训练后得到的梯度信息。
另一种实施方式中,由参与节点基于策略,确定模型训练后是否向中心节点发送梯度信息。
例如,参与节点可以基于合成梯度信息的传输功率确定是否向中心节点发送合成该梯度信息。比如,当传输功率大于功率阈值时,参与节点可以向中心节点发送该合成梯度信息;当传输功率小于或等于功率阈值时,参与节点可以不向中心节点发送该合成梯度信息。可以实现参与节点基于自主判断确定是否向中心节点发送合成梯度信息。能够减少数据失真问题。在该示例中,参与节点向中心基点发送该第一合成梯度信息前,参与节点确定该第一合成梯度信息的传输功率大于功率阈值。
根据本实施方式二的方案,在参与节点执行第K次模型训练之前,参与节点执行的N次模型训练得到的N个梯度信息未向中心节点发送。参与节点合成该第一梯度信息、第二合成梯度信息的残差梯度信息以及未向中心节点发送的N个梯度信息,发送给中心节点。以便中心节点既能够获取到未反馈的梯度信息又能够获取到前一次合成梯度信息的残差量,能够提高损失函数的收敛速度、进而提高模型训练的性能。
实施例二
本申请实施例二提供了一种参与节点基于策略,确定模型训练后是否向中心节点发送梯度信息的方法。需要说明的是,实施例二中与实施例一中相同的部分可以参考实施例一终中的描述,为了简要,在此不再赘述。
参与节点在第K次模型训练后,计算第一合成梯度信息的传输功率,若该传输功率大于功率阈值,则参与节点向中心节点发送该第一合成梯度信息;若该传输功率小于或等于功率阈值,则参与节点不向中心节点发送该第一合成梯度信息。
可选地,该功率阈值与参与节点的激活功率成正比。其中,参与节点的激活功率是指在一次传输中除用于传输信号(或信息)消耗的功率外该参与节点消耗的其他功率。例如,激活参与节点准备传输信号的过程成中消耗的功率。
例如,该功率阈值为通信代价度量γ与该参与节点的激活功率Pon的乘积,则该功率阈值可以记作γ·Pon。其中,通信代价度量用于表征该参与节点与中心节点之间通信的开销量。γ越大对合成梯度信息的传输功率的要求越高,使得信道条件较差的参与节点向中心节点不发送合成梯度信息的可能性越大,能够基于通信代价度量在通信开销较大的情况下减少信道条件较差的参与节点发送合成梯度信息。能够减少资源浪费,提高资源利用率。
可选地,中心节点向参与节点发送该通信代价度量(price metric),相应地,参与节点接收来自中心节点的该通信代价度量。
例如,中心节点可以基于网络的当前负载情况、联合训练的当前损失值、来自多个参与节点的梯度信息的统计信息和数据集的先验分布信息中的一项或多项,计算通信代价度量,并通知各个参与节点。
可选地,上述参与节点基于比较传输功率与传输功率阈值大小的方式判断是否向中心节点发送合成梯度信息可以表示为下式,具体参与节点基于比较传输功率与传输功率阈值大小,确定传输功率是否为0。
其中,|x|表示复数x的振幅,||x||2表示x的l2范数(l2-norm),ⅡⅡ(A)是事件A的指示函数,如果A为真,ⅡⅡ(A)为1,否则为0。
可选地,本实施例二可以与实施例一结合实施。
例如,本实施例二应用于实施例一中的实施方式二时,上述rK可以记作:
当式(1)中的加权系数为1时,由于第Q次模型训练至第K次模型训练之间的N次模型训练后得到的合成梯度信息未发送给中心节点,也就是说,在这N次模型训练后,参与节点基于式(5)计算得到的传输功率增益均为0,其中,pK-1=0带入式(6)则基于式(1)可以得到:则有:
则继续推导可以得到:
其中,rK-N=δK-N-1=δQ,与式(4),在加权系数为1的情况下,得到的rK相同。
根据本申请实施例二提供的方案,参与节点基于通信代价度量,在通信开销较大且信道条件较差的情况下不向中心节点发送合成梯度信息。能够减少资源浪费,提高资源利用率。另外,参与节点向中心节点发送合成梯度信息,以便中心节点既能够获取到未反馈的梯度信息(如残差梯度信息和/或之前训练中未发送的梯度信息),能够提高损失函数的收敛速度、进而提高模型训练的性能。
实施例三
图3是本申请提供的智能模型训练方法的另一个示意性流程图。如图3中,参与节点1、2、3和中心节点执行联邦学习,由参与节点1、2、3执行智能模型的训练,由中心节点确定每次智能模型训练的模型权重。需要说明的是,图3以3个参与节点参与联邦学习为例进行说明,但本申请对参与节点的个数不做限定,可以是至少一个参与节点和中心节点进行联邦学习。例如,图3所示的智能模型训练方法可以应用于图1所示的系统中。
S301,中心节点向参与联合训练的参与节点发送通信代价度量γ。
相应地,参与节点1、2、3接收来自中心节点的通信代价度量γ。
例如,中心节点可以基于网络的当前负载情况、联合训练的当前损失值、来自多个参与节点的梯度信息的统计信息和数据集的先验分布信息中的一项或多项,计算通信代价度量,并通知各个参与节点。
S302,中心节点向参与联合训练的参与节点发送模型参数信息ΘK。
该模型参数信息K用于参与节点调整智能模型的参数。例如,该模型参数信息K包括智能模型的权重。
相应地,参与节点1、2、3接收来自中心节点的该模型参数信息ΘK。
需要说明的是,本申请对中心节点执行上述S301和S302的先后顺序不做限定,上述通信代价度量γ和模型参数信息K可以承载在同一消息中(即S301、S302可以为同一步骤),也可以承载在不同消息中分别发送。
例如,通信代价度量可以由中心节点周期性地发送给参与节点。参与节点采用最近一个周期内更新的通信代价度量,确定传输功率增益等。
S303,参与节点1、2、3根据该模型参数信息ΘK,调整智能模型的参数。
S304,参与联合训练的参与节点执行第K次模型训练,并判断是否向中心节点发送合成梯度信息。
参与节点1、2、3执行第K次模型训练后,得到合成梯度信息。参与节点1、2、3可以基于上述实施例一或实施例二提供的方法得到合成梯度信息,但本申请不限于此。
如参与节点1、2、3得到的合成梯度信息分别为合成梯度信息1、合成梯度信息2和合成梯度信息3。参与节点1、2、3可以判断是否向中心节点发送合成梯度信息。
例如,参与节点可以计算合成梯度信息的传输功率以确定是否向中心节点发送合成梯度信息,比如根据上述式(4)判断传输功率增益是否为0,以确定是否向中心节点发送合成梯度信息。
本实施例中,参与节点1、3确定中心节点发送合成梯度信息,参与节点2确定不向中心节点发送合成梯度信息。
S305,参与节点1、3向中心节点发送合成梯度信息1、合成梯度信息3。
S306,中心节点获取合成梯度信息1、3聚合而成的聚合信息。
一种实施方式中,参与节点1、3分别向中心节点发送合成梯度信息,中心节点分别接收到合成梯度信息1、合成梯度信息3后,聚合合成梯度信息1和合成梯度信息3,得到聚合信息。
例如,参与节点1、3分别在不同时间资源和/或频率资源上向中心节点发送梯度信息1、合成梯度信息3。
另一种实施方式中,中心节点为参与节点分配一个由参与节点共享的传输资源。参与节点均在该传输资源上传输合成梯度信息。
该实施方式能够实现当多个参与节点在该传输资源上均发送多个合成梯度信息时,该多个合成梯度信息在无线信道中被聚合。中心节点在该传输资源上接收、得到聚合信息。该方式也可以成为空中聚合、空中叠加或空中计算,本申请对此不做限定。
可选地,该传输资源上可以包括聚合导频符号(或称为公共导频符号),中心节点可以具体根据该聚合导频符号估计聚合信道的信道信息,再根据信道信息以及该传输资源上接收到的接收信号,得到聚合信息,该聚合信息可以称为无偏梯度估计信息。
例如图4所示,中心节点为参与节点分配一块无线资源块作为合成梯度信息的传输资源,参与节点1、3在该无线资源块上分别发送合成梯度信息1、合成梯度信息3,使得合成梯度信息1、合成梯度信息3在无线资源块上实现空中聚合,中心节点在该无线资源块上接收空中聚合后的聚合信息,具体地,中心节点根据该无线资源块中包含的共享导频符号估/计信道信息,在根据信道信息以及该传输资源上接收到的接收信号,得到聚合信息。
S307,中心节点基于聚合信息,得到模型参数信息ΘK+1。
S308,中心节点向参与联合学习的参与节点发送模型参数信息ΘK+1。
相应地,参与节点1、2、3接收来自中心节点的该模型参数信息ΘK+1。
中心节点可以将更新后的通信代价度量与该模型参数信息ΘK+1承载在同一消息中发送给参与节点1、2、3。但本申请不限于此,如前文所述通信代价度量可以不与模型参数信息承载在同一消息中,或者,中心节点以一定的周期周期性地发送通信代价度量。
根据实施例三的方案,中心节点可以向参与节点发送通信代价度量,能够基于通信代价度量在通信开销较大的情况下减少信道条件较差的参与节点发送合成梯度信息。减少资源浪费,提高资源利用率。另外,参与节点向中心节点发送合成梯度信息,以便中心节点既能够获取到未反馈的梯度信息(如残差梯度信息和/或之前训练中未发送的梯度信息),能够提高损失函数的收敛速度、进而提高模型训练的性能。
以上,结合图2、图3详细说明了本申请实施例提供的方法。以下详细说明本申请实施例提供的装置。为了实现上述本申请实施例提供的方法中的各功能,各网元可以包括硬件结构和/或软件模块,以硬件结构、软件模块、或硬件结构加软件模块的形式来实现上述各功能。上述各功能中的某个功能以硬件结构、软件模块、还是硬件结构加软件模块的方式来执行,取决于技术方案的特定应用和设计约束条件。
图5是本申请实施例提供的智能模型的训练装置的示意性框图。如图5所示,该智能模型的训练装置500可以包括处理单元510和收发单元520。
在一种可能的设计中,该智能模型的训练装置500可对应于上文方法实施例中的参与节点,或者配置于(或用于)参与节点中的芯片,或者是其他能够实现参与节点执行的方法的装置、模块、电路或单元等。
应理解,该智能模型的训练装置500可对应于本申请实施例的方法200、300中的参与节点,该智能模型的训练装置500可以包括用于执行图2、图3中的方法200、300中第一设备执行的方法的单元。并且,该智能模型的训练装置500中的各单元和上述其他操作和/或功能分别为了实现图2、图3中的方法200、300的相应流程。
当该智能模型的训练装置500用于实现上述方法实施例中的参与节点执行的相应流程时,该处理单元510,对该智能模型执行第K次模型训练,得到第一梯度信息;用于收发单元520,用于向中心节点发送第一合成梯度信息,该第一合成梯度信息包括该第一梯度信息与残差梯度信息的合成信息,该残差梯度信息用于表征该第K次模型训练之前未传输至中心节点的合成梯度信息的残差估计量,其中,K为正整数。
还应理解,该智能模型的训练装置500为配置于(或用于)参与节点中的芯片时,该智能模型的训练装置500中的收发单元520可以为芯片的输入/输出接口或电路,该智能模型的训练装置500中的处理单元510可以为芯片中的逻辑电路。
在另一种可能的设计中,该智能模型的训练装置500可对应于上文方法实施例中的中心节点,例如,或者配置于(或用于)中心节点中的芯片,或者是其他能够实现中心节点执行的方法的装置、模块、电路或单元等。
应理解,该智能模型的训练装置500可对应于根据本申请实施例的方法200、300中的中心节点,该智能模型的训练装置500可以包括用于执行图2、图3中的方法200、300中中心节点执行的方法的单元。并且,该智能模型的训练装置500中的各单元和上述其他操作和/或功能分别为了实现图2、图3中的方法200、300的相应流程。
还应理解,该智能模型的训练装置500为配置于(或用于)中心节点中的芯片时,该智能模型的训练装置500中的收发单元520可以为芯片的输入/输出接口或电路,该智能模型的训练装置500中的处理单元510可以为芯片中的逻辑电路。可选地,智能模型的训练装置500还可以包括存储单元530,该存储单元530可以用于存储指令或者数据,处理单元510可以执行该存储单元中存储的指令或者数据,以使该智能模型的训练装置实现相应的操作。
应理解,该智能模型的训练装置500中的收发单元520为可通过通信接口(如收发器或输入/输出接口)实现,例如可对应于图6中示出的通信设备600中的收发器610。该智能模型的训练装置500中的处理单元510可通过至少一个处理器实现,例如可对应于图6中示出的通信设备600中的处理器620。该智能模型的训练装置500中的处理单元510还可以通过至少一个逻辑电路实现。该智能模型的训练装置500中的存储单元530可对应于图6中示出的通信设备600中的存储器。
还应理解,各单元执行上述相应步骤的具体过程在上述方法实施例中已经详细说明,为了简洁,在此不再赘述。
图6是本申请实施例提供的终端设备600的结构示意图。
该通信设备600可对应于上述方法实施例中的参与节点,如图6所示,该参与节点600包括处理器620和收发器610。可选地,该参与节点600还包括存储器。其中,处理器620、收发器610和存储器之间可以通过内部连接通路互相通信,传递控制和/或数据信号。该存储器用于存储计算机程序,该处理器620用于执行该存储器中的该计算机程序,以控制该收发器610收发信号。
应理解,图6所示的通信设备600能够实现图2、图3所示方法实施例中涉及参与节点的过程。参与节点600中的各个模块的操作和/或功能,分别为了实现上述方法实施例中的相应流程。具体可参见上述方法实施例中的描述,为避免重复,此处适当省略详细描述。
该通信设备600可对应于上述方法实施例中的中心节点,如图6所示,该中心节点600包括处理器620和收发器610。可选地,该中心节点600还包括存储器。其中,处理器620、收发器610和存储器之间可以通过内部连接通路互相通信,传递控制和/或数据信号。该存储器用于存储计算机程序,该处理器620用于执行该存储器中的该计算机程序,以控制该收发器610收发信号。
应理解,图6所示的通信设备600能够实现图2、图3所示方法实施例中涉及中心节点的过程。中心节点600中的各个模块的操作和/或功能,分别为了实现上述方法实施例中的相应流程。具体可参见上述方法实施例中的描述,为避免重复,此处适当省略详细描述。
上述处理器620可以和存储器可以合成一个处理装置,处理器620用于执行存储器中存储的程序代码来实现上述功能。具体实现时,该存储器也可以集成在处理器620中,或者独立于处理器620。该处理器620可以与图5中的处理单元对应。
上述收发器610可以与图5中的收发单元对应。收发器610可以包括接收器(或称接收机、接收电路)和发射器(或称发射机、发射电路)。其中,接收器用于接收信号,发射器用于发射信号。
应理解,图6所示的通信设备600能够实现图2、图3所示方法实施例中涉及终端设备的过程。终端设备600中的各个模块的操作和/或功能,分别为了实现上述方法实施例中的相应流程。具体可参见上述方法实施例中的描述,为避免重复,此处适当省略详细描述。
本申请实施例还提供了一种处理装置,包括处理器和(通信)接口;所述处理器用于执行上述任一方法实施例中的方法。
应理解,上述处理装置可以是一个或多个芯片。例如,该处理装置可以是现场可编程门阵列(field programmable gate array,FPGA),可以是专用集成芯片(applicationspecific integrated circuit,ASIC),还可以是系统芯片(system on chip,SoC),还可以是中央处理器(central processor unit,CPU),还可以是网络处理器(networkprocessor,NP),还可以是数字信号处理电路(digital signal processor,DSP),还可以是微控制器(micro controller unit,MCU),还可以是可编程控制器(programmable logicdevice,PLD)或其他集成芯片。
根据本申请实施例提供的方法,本申请还提供一种计算机程序产品,该计算机程序产品包括:计算机程序代码,当该计算机程序代码由一个或多个处理器执行时,使得包括该处理器的装置执行图2、图3所示实施例中的方法。
本申请实施例提供的技术方案可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、网络设备、终端设备、核心网设备、机器学习设备或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriberline,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机可以存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,数字视频光盘(digital video disc,DVD))、或者半导体介质等。
根据本申请实施例提供的方法,本申请还提供一种计算机可读存储介质,该计算机可读存储介质存储有程序代码,当该程序代码由一个或多个处理器运行时,使得包括该处理器的装置执行图2、图3所示实施例中的方法。
根据本申请实施例提供的方法,本申请还提供一种系统,其包括前述的一个或多个第一设备。还系统还可以进一步包括前述的一个或多个第二设备。
可选地,第一设备可以是网络设备或终端设备,第二设备可以是与第一设备通过无线链路进行通信的设备。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (26)
1.一种智能模型的训练方法,其特征在于,多个参与节点联合执行智能模型的训练,所述方法由所述多个参与节点中的一个参与节点执行,包括:
对所述智能模型执行第K次模型训练,得到第一梯度信息;
向中心节点发送第一合成梯度信息,所述第一合成梯度信息包括所述第一梯度信息与残差梯度信息的合成信息,所述残差梯度信息用于表征所述第K次模型训练之前未传输至中心节点的合成梯度信息的残差估计量,其中,K为正整数。
2.根据权利要求1所述的方法,其特征在于,所述残差梯度信息包括由加权系数加权的第二合成梯度信息的残差估计量,所述第二合成梯度信息为第K次模型训练之前最近一次向中心节点发送的合成梯度信息。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
根据所述第二合成梯度信息、所述第二合成梯度信息对应的传输功率和所述第二合成梯度信息对应的信道信息,确定所述第二合成梯度信息的残差估计量。
4.根据权利要求2或3所述的方法,其特征在于,所述第二合成梯度信息具体为第Q次模型训练后向所述中心节点发送的合成梯度信息,其中,Q为小于K的正整数;
所述加权系数与所述第K次模型训练的学习率相关和/或与所述第Q次模型训练的学习率相关。
5.根据权利要求2至4中任一项所述的方法,其特征在于,所述第二合成梯度信息为第Q次模型训练后向中心节点发送的合成梯度信息,所述残差梯度信息还包括N个梯度信息的合成信息,所述N个梯度信息为所述第Q次模型训练之后与所述第K次模型训练之前的N次模型训练得到的、且在所述第K次模型训练之前未发送给中心节点的梯度信息,其中,K大于Q,N=K-Q-1,且Q为正整数。
6.根据权利要求1至5中任一项所述的方法,其特征在于,所述向中心节点发送第一合成梯度信息,包括:
确定所述第一合成梯度信息对应的传输功率大于功率阈值;
向所述中心节点发送所述第一合成梯度信息。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
若所述第一合成梯度信息对应的传输功率小于或等于所述功率阈值,不向所述中心节点发送所述第一合成梯度信息。
8.根据权利要求6或7所述的方法,其特征在于,所述方法还包括:
基于通信代价度量信息、所述第一合成梯度信息对应的信道信息以及所述第一合成梯度信息,确定所述第一合成梯度信息的传输功率,所述通信代价度量信息用于表征所述一个参与节点与所述中心节点之间通信的开销量。
9.根据权利要求6至8中任一项所述的方法,其特征在于,所述功率阈值与通信代价度量信息成正比和/或所述功率阈值与所述一个参与节点的激活功率成正比,所述通信代价度量信息用于表征所述一个参与节点与所述中心节点之间通信的开销量。
10.根据权利要求8或9所述的方法,其特征在于,所述方法还包括:
接收来自所述中心节点的所述通信代价度量信息。
11.根据权利要求1至10中任一项所述的方法,其特征在于,所述对所述智能模型执行第K次模型训练,包括:
接收来自所述中心节点的模型参数信息;
对所述智能模型执行第K次模型训练,所述智能模型为基于所述模型参数信息配置后的模型。
12.一种智能模型的训练装置,其特征在于,包括:
处理单元,用于对智能模型执行第K次模型训练,得到第一梯度信息;
收发单元,用于向中心节点发送第一合成梯度信息,所述第一合成梯度信息包括所述第一梯度信息与残差梯度信息的合成信息,所述残差梯度信息用于表征所述第K次模型训练之前未传输至中心节点的合成梯度信息的残差估计量,其中,K为正整数。
13.根据权利要求12所述的装置,其特征在于,所述残差梯度信息包括由加权系数加权的第二合成梯度信息的残差估计量,所述第二合成梯度信息为第K次模型训练之前最近一次向中心节点发送的合成梯度信息。
14.根据权利要求13所述的装置,其特征在于,
所述处理单元还用于根据所述第二合成梯度信息、所述第二合成梯度信息对应的传输功率和所述第二合成梯度信息对应的信道信息,确定所述第二合成梯度信息的残差估计量。
15.根据权利要求13或14所述的装置,其特征在于,所述第二合成梯度信息具体为第Q次模型训练后向所述中心节点发送的合成梯度信息,其中,Q为小于K的正整数;
所述加权系数与所述第K次模型训练的学习率和/或所述第Q次模型训练的学习率相关。
16.根据权利要求13至15中任一项所述的装置,其特征在于,所述第二合成梯度信息为第Q次模型训练后向中心节点发送的合成梯度信息,所述残差梯度信息还包括N个梯度信息的合成信息,所述N个梯度信息为所述第Q次模型训练之后与所述第K次模型训练之前的N次模型训练得到的、且在所述第K次模型训练之前未发送给中心节点的梯度信息,其中,K大于Q,N=K-Q-1,且Q为正整数。
17.根据权利要求12至16中任一项所述的装置,其特征在于,
所述处理单元还用于确定所述第一合成梯度信息对应的传输功率大于功率阈值;
所述收发单元还用于在所述第一合成梯度信息对应的传输功率大于功率阈值的情况下,向所述中心节点发送所述第一合成梯度信息。
18.根据权利要求17所述的装置,其特征在于,
所述收发单元还用于在所述第一合成梯度信息对应的传输功率小于或等于所述功率阈值的情况下,不向所述中心节点发送所述第一合成梯度信息。
19.根据权利要求17或18所述的装置,其特征在于,
所述处理单元用于基于通信代价度量信息、所述第一合成梯度信息对应的信道信息以及所述第一合成梯度信息,确定所述第一合成梯度信息的传输功率,所述通信代价度量信息用于表征参与节点与所述中心节点之间通信的开销量。
20.根据权利要求17至19中任一项所述的装置,其特征在于,所述功率阈值与通信代价度量信息成正比和/或所述功率阈值与参与节点的激活功率成正比,所述通信代价度量信息用于表征参与节点与所述中心节点之间通信的开销量。
21.根据权利要求19或20所述的装置,其特征在于,
所述收发单元还用于接收来自所述中心节点的所述通信代价度量信息。
22.根据权利要求12至21中任一项所述的装置,其特征在于,
所述收发单元还用于接收来自所述中心节点的模型参数信息;
所述处理单元具体用于对所述智能模型执行第K次模型训练,所述智能模型为基于所述模型参数信息配置后的模型。
23.一种通信装置,其特征在于,包括至少一个处理器,与存储器耦合;
所述存储器用于存储程序或指令;
所述至少一个处理器用于执行所述程序或指令,以使所述装置实现如权利要求1至11中任一项所述的方法。
24.一种芯片,其特征在于,包括至少一个逻辑电路和输入输出接口;
所述逻辑电路用于对智能模型执行第K次模型训练,得到第一梯度信息;
所述输入输出接口用于向中心节点发送第一合成梯度信息,所述第一合成梯度信息包括所述第一梯度信息与残差梯度信息的合成信息,所述残差梯度信息用于表征所述第K次模型训练之前未传输至中心节点的合成梯度信息的残差估计量,其中,K为正整数。
25.一种计算机可读存储介质,其特征在于,存储有指令,当所述指令在计算机上运行时,使得所述计算机执行如权利要求1至11中任一项所述的方法。
26.一种计算机程序产品,其特征在于,包括指令,当所述指令在计算机上运行时,使得计算机执行如权利要求1至11中任一项所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110770808.8A CN115600681A (zh) | 2021-07-07 | 2021-07-07 | 智能模型的训练方法和装置 |
PCT/CN2022/100555 WO2023279967A1 (zh) | 2021-07-07 | 2022-06-22 | 智能模型的训练方法和装置 |
US18/404,069 US20240185087A1 (en) | 2021-07-07 | 2024-01-04 | Intelligent model training method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110770808.8A CN115600681A (zh) | 2021-07-07 | 2021-07-07 | 智能模型的训练方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115600681A true CN115600681A (zh) | 2023-01-13 |
Family
ID=84800362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110770808.8A Pending CN115600681A (zh) | 2021-07-07 | 2021-07-07 | 智能模型的训练方法和装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240185087A1 (zh) |
CN (1) | CN115600681A (zh) |
WO (1) | WO2023279967A1 (zh) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180075347A1 (en) * | 2016-09-15 | 2018-03-15 | Microsoft Technology Licensing, Llc | Efficient training of neural networks |
CN108491928B (zh) * | 2018-03-29 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 模型参数发送方法、装置、服务器及存储介质 |
CN111382844B (zh) * | 2020-03-11 | 2023-07-07 | 华南师范大学 | 一种深度学习模型的训练方法及装置 |
CN112235384B (zh) * | 2020-10-09 | 2023-10-31 | 腾讯科技(深圳)有限公司 | 分布式系统中的数据传输方法、装置、设备及存储介质 |
-
2021
- 2021-07-07 CN CN202110770808.8A patent/CN115600681A/zh active Pending
-
2022
- 2022-06-22 WO PCT/CN2022/100555 patent/WO2023279967A1/zh unknown
-
2024
- 2024-01-04 US US18/404,069 patent/US20240185087A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20240185087A1 (en) | 2024-06-06 |
WO2023279967A1 (zh) | 2023-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109617584B (zh) | 一种基于深度学习的mimo系统波束成形矩阵设计方法 | |
CN111628855B (zh) | 基于深度强化学习的工业5g动态多优先级多接入方法 | |
CN112491442B (zh) | 一种自干扰消除方法及装置 | |
CN114125785A (zh) | 数字孪生网络低时延高可靠传输方法、装置、设备及介质 | |
CN110601777B (zh) | 一种低轨移动卫星星座下星地下行链路同频干扰估计方法 | |
Dai et al. | Delay-sensitive energy-efficient UAV crowdsensing by deep reinforcement learning | |
CN112769510B (zh) | 用于基于机器学习来估计干扰的装置及方法 | |
CN109117856A (zh) | 基于智能边缘云的人及物追踪方法、装置及系统 | |
CN113613301B (zh) | 一种基于dqn的空天地一体化网络智能切换方法 | |
CN111224905A (zh) | 一种大规模物联网中基于卷积残差网络的多用户检测方法 | |
WO2022217210A1 (en) | Privacy-aware pruning in machine learning | |
Chua et al. | Resource allocation for mobile metaverse with the Internet of Vehicles over 6G wireless communications: A deep reinforcement learning approach | |
CN114007231B (zh) | 异构无人机数据卸载方法、装置、电子设备及存储介质 | |
Cui et al. | Multiagent reinforcement learning-based cooperative multitype task offloading strategy for internet of vehicles in B5G/6G network | |
CN115600681A (zh) | 智能模型的训练方法和装置 | |
CN116362327A (zh) | 一种模型训练方法、系统及电子设备 | |
WO2023179675A1 (zh) | 信息处理方法和通信装置 | |
WO2023116787A1 (zh) | 智能模型的训练方法和装置 | |
CN115720707A (zh) | 在通信系统中训练 | |
Zhou et al. | DRL-Based Workload Allocation for Distributed Coded Machine Learning | |
Zecchin et al. | Team deep mixture of experts for distributed power control | |
CN115834580B (zh) | 面向海洋大数据的分布式数据处理方法、装置和设备 | |
CN112446485A (zh) | 一种神经网络协同训练方法、装置以及相关产品 | |
CN117289725B (zh) | 无人机分布式通算一体资源调度方法和装置 | |
CN116957067B (zh) | 公共安全事件预测模型的强化联邦学习方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |