CN116580448B - 一种行为预测方法、系统、电子设备及存储介质 - Google Patents

一种行为预测方法、系统、电子设备及存储介质 Download PDF

Info

Publication number
CN116580448B
CN116580448B CN202310401786.7A CN202310401786A CN116580448B CN 116580448 B CN116580448 B CN 116580448B CN 202310401786 A CN202310401786 A CN 202310401786A CN 116580448 B CN116580448 B CN 116580448B
Authority
CN
China
Prior art keywords
model
training
sample data
aggregation
resource manager
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310401786.7A
Other languages
English (en)
Other versions
CN116580448A (zh
Inventor
寇卫斌
朱光旭
王帅
陈颖贤
史清江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Research Institute of Big Data SRIBD
Original Assignee
Shenzhen Research Institute of Big Data SRIBD
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Research Institute of Big Data SRIBD filed Critical Shenzhen Research Institute of Big Data SRIBD
Priority to CN202310401786.7A priority Critical patent/CN116580448B/zh
Publication of CN116580448A publication Critical patent/CN116580448A/zh
Application granted granted Critical
Publication of CN116580448B publication Critical patent/CN116580448B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了行为预测方法、系统、电子设备及存储介质,应用于客户端,客户端包括至少一个信息采集设备,方法包括:对信息采集设备运动过程中的周围环境进行信息采集,得到第一样本数据和第二样本数据;基于预设的资源管理器以及第一样本数据对本地模型进行联邦学习,得到第一训练模型;根据资源管理器以及预设的聚合间隔向边缘服务器以及云服务器发送第一训练模型以及第一样本数据进行聚合操作,得到预训练的联邦模型;将第二样本数据输入联邦模型进行在线行为预测,输出目标行为信息。本发明实施例中,能够在通信流量受限的情况下,基于通信量、数据传输和模型聚合的优化方法来有效管理分配有限的通信资源,提高对行为的预测准确性。

Description

一种行为预测方法、系统、电子设备及存储介质
技术领域
本发明属于数据处理技术领域,尤其涉及一种行为预测方法、系统、电子设备及存储介质。
背景技术
随着人工智能技术的广泛应用,为更好的保护用户隐私,联邦学习的概念被提出。联邦学习被广泛应用于汽车驾驶、图像识别、动作预测等技术领域。在联邦学习系统中,设备先进行本地计算,将训练之后的神经网络模型上传到云服务器进行全局聚合。云服务器会将生成的全局模型反馈给设备,从而进行下一个周期的训练。然而,由于云服务器与设备距离较远,并且无线资源有限,直接和云服务器通信可靠性较低,并且会产生较大的传输时延。为解决该问题,在现有主流的Cloud-based FL(Federated Learning,联邦学习)中,参与的客户总数可以达到数百万,提供了深度学习中需要的大量数据集,有助于提高联邦模型的泛化性。但是Cloud-based的FL协议的一个关键特征是其高度依赖于广域网(WideArea Network,WAN),网络已成为联邦学习过程的主要瓶颈,并严重减慢了FL模型的收敛速度。并且相关技术模型在进行联邦学习的过程中,忽略了通信资源对联邦学习模型的效果的影响,没有考虑联邦学习各个阶段的通信资源的分配与平衡问题,从而影响对特定行为的预测能力。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一,提供一种行为预测方法、系统、电子设备及存储介质,能够在通信流量受限的情况下,基于通信量、数据传输和模型聚合的优化方法来有效管理分配有限的通信资源,提高对行为的预测准确性。
第一方面,本发明提供一种行为预测方法,应用于客户端,所述客户端包括至少一个信息采集设备,所述方法包括:
对所述信息采集设备运动过程中的周围环境进行信息采集,得到第一样本数据和第二样本数据,其中,所述第一样本数据用于表征所述信息采集设备的历史运动状态以及所述信息采集设备周围环境的状态,所述第二样本数据用于表征所述信息采集设备的当前运动状态以及所述信息采集设备周围环境的状态;
基于预设的资源管理器以及所述第一样本数据对预设的本地模型进行联邦学习,得到第一训练模型,其中,所述资源管理器用于分配训练模型过程中各个阶段所用的通信流量;
根据所述资源管理器以及预设的聚合间隔向边缘服务器以及云服务器发送所述第一训练模型以及所述第一样本数据进行聚合操作,得到预训练的联邦模型;
接收所述边缘服务器发送的所述联邦模型,并将所述第二样本数据输入所述联邦模型进行在线行为预测,输出目标行为信息。
根据本发明实施例提供的行为预测方法,至少有如下有益效果:通过客户端对信息采集设备运动过程中的周围环境进行信息采集,得到用于表征信息采集设备历史运动状态的第一样本数数据以及信息采集设备当前运动状态的第二样本数据,并基于预设的资源管理器分配各个训练阶段的通信流量,从而能够权衡数据传输以及模型传输的情况,实现对通信资源的合理利用,在资源管理器分配的通信流量下根据第一样本数据对预设的本地模型进行联邦学习,得到第一训练模型,之后,根据资源管理器分配的各个阶段的通信流量以及预设的聚合间隔向边缘服务器以及云服务器发送第一训练模型以及第一样本数据进行聚合操作,得到经过边缘聚合以及云聚合操作的预训练的联邦模型,从而提高联邦模型的泛化性以及预测的准确性,最后,接收边缘服务器发送的联邦模型,并将第二样本数据输入联邦模型进行在线行为预测,输出目标行为信息,能够在通信流量受限的情况下,基于通信量、数据传输和模型聚合的优化方法来有效管理分配有限的通信资源,提高对行为的预测准确性。
根据本发明的一些实施例,所述对所述信息采集设备运动过程中的环境进行信息采集,得到第一样本数据和第二样本数据,包括:
在所述信息采集设备的正前方视角下拍摄得到第一视角图像集以及在所述信息采集设备除正前方视角之外的视角下拍摄得到第二视角图像集;
对所述信息采集设备运动过程中的周围环境进行坐标采集,得到点云数据;
根据所述第一视角图像集、所述第二视角图像集以及所述点云数据生成第一样本数据以及第二样本数据。
根据本发明的一些实施例,所述本地模型包括第一分支模型以及第二分支模型,所述第一分支和所述第二分支用于表征所述本地模型不同的动作特征;所述基于预设的资源管理器以及所述第一样本数据对预设的本地模型进行联邦学习,得到第一训练模型,包括:
获取所述资源管理器分配的第一通信流量;
根据所述第一通信流量将所述第一视角图像集输入所述第一分支模型进行联邦学习,输出第一训练数据;
对所述第二视角图像集中的第二图像进行图像结合,得到多通道图像;
将所述多通道图像输入所述第二分支模型进行联邦学习,输出第二训练数据;
根据所述第一训练数据以及所述第二训练数据对所述本地模型进行离线训练,得到第一训练模型。
根据本发明的一些实施例,所述根据所述资源管理器以及预设的聚合间隔向边缘服务器以及云服务器发送所述第一训练模型以及所述第一样本数据进行聚合操作,得到预训练的联邦模型,包括:
根据所述聚合间隔从所述资源管理器中确定第二通信流量和第三通信流量;
基于所述第二通信流量向所述边缘服务器发送所述第一训练模型以及所述第一样本数据,以使所述边缘服务器根据所述第二通信流量以及所述第一样本数据对所述第一训练模型进行边缘聚合训练,得到第二训练模型;
接收所述边缘服务器发送的所述第二训练模型以及预训练的联邦模型,其中,所述联邦模型为所述云服务器根据所述第三通信流量对所述第二训练模型进行云聚合训练得到。
第二方面,本发明提供一种行为预测方法,应用于边缘服务器,所述边缘服务器与多个客户端通信连接,所述方法包括:
基于预设的聚合间隔接收客户端发送的第一样本数据以及第一训练模型,其中,所述第一样本数据用于表征信息采集设备的历史运动状态以及所述信息采集设备周围环境的状态,所述第一训练模型为所述客户端基于预设的资源管理器以及所述第一样本数据对预设的本地模型进行联邦学习得到,所述资源管理器用于分配训练模型过程中各个阶段所用的通信流量;
根据所述资源管理器以及所述第一样本数据对所述第一训练模型进行边缘聚合训练,得到第二训练模型;
向所述客户端以及云服务器发送所述第二训练模型,以使所述云服务器对所述第二训练模型进行云聚合训练,得到预训练的联邦模型;
接收所述云服务器发送的所述联邦模型,并向所述客户端发送所述联邦模型,使得所述客户端根据所述联邦模型进行在线行为预测。
根据本发明的一些实施例,所述根据所述资源管理器以及所述第一样本数据对所述第一训练模型进行边缘聚合训练,得到第二训练模型,包括:
根据所述聚合间隔在所述资源管理器中确定第二通信流量;
基于所述第二通信流量以及所述第一样本数据对所述第一训练模型进行边缘分布式训练,得到第二训练模型。
第三方面,本发明提供一种行为预测方法,应用于云服务器,所述云服务器与至少一个边缘服务器连接,所述方法包括:
基于预设的资源管理器接收所有所述边缘服务器发送的第二训练模型,其中,所述第二训练模型由所述边缘服务器根据所述资源管理器以及第一样本数据对第一训练模型进行边缘聚合训练,所述第一样本数据用于表征信息采集设备的历史运动状态以及所述信息采集设备周围环境的状态,所述第一训练模型为客户端基于预设的资源管理器以及所述样本数据对预设的本地模型进行联邦学习得到,所述资源管理器用于分配训练模型过程中各个阶段所用的通信流量;
对所述第二训练模型进行云聚合训练,得到预训练的联邦模型;
向所述边缘服务器发送所述联邦模型,以使所述客户端根据所述联邦模型进行在线行为预测。
第四方面,本发明提供一种服务器,一种行为预测系统,包括:
客户端,包括至少一个信息采集设备,所述客户端用于对所述信息采集设备运动过程中的周围环境进行信息采集,得到第一样本数据和第二样本数据,其中,所述第一样本数据用于表征所述信息采集设备的历史运动状态以及所述信息采集设备周围环境的状态,所述第二样本数据用于表征所述信息采集设备的当前运动状态以及所述信息采集设备周围环境的状态;并基于预设的资源管理器以及所述第一样本数据对预设的本地模型进行联邦学习,得到第一训练模型,其中,所述资源管理器用于分配训练模型过程中各个阶段所用的通信流量;根据所述资源管理器以及预设的聚合间隔向边缘服务器以及云服务器发送所述第一训练模型以及所述第一样本数据进行聚合操作,得到预训练的联邦模型;
以及接收所述边缘服务器发送的所述联邦模型,并将所述第二样本数据输入所述联邦模型进行在线行为预测,输出目标行为信息;
边缘服务器,与多个所述客户端通信连接,所述边缘服务器用于基于预设的聚合间隔接收客户端发送的第一样本数据以及第一训练模型;根据所述资源管理器以及所述第一样本数据对所述第一训练模型进行边缘聚合训练,得到第二训练模型;并向所述客户端以及云服务器发送所述第二训练模型,以使所述云服务器对所述第二训练模型进行云聚合训练,得到预训练的联邦模型;接收所述云服务器发送的所述联邦模型,并向所述客户端发送所述联邦模型,使得所述客户端根据所述联邦模型进行在线行为预测;
云服务器,与至少一个所述边缘服务器连接,所述云服务器用于基于预设的资源管理器接收所有所述边缘服务器发送的第二训练模型;对所述第二训练模型进行云聚合训练,得到预训练的联邦模型;并向所述边缘服务器发送所述联邦模型,以使所述客户端根据所述联邦模型进行在线行为预测。
第五方面,本发明提供一种电子设备,所述电子设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现第一方面、第二方面和\或第三方面所述的行为预测方法。
第六方面,本发明提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于执行第一方面、第二方面和\或第三方面所述的行为预测方法。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在说明书以及附图中所特别指出的结构来实现和获得。
附图说明
附图用来提供对本发明技术方案的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明的技术方案,并不构成对本发明技术方案的限制。
图1为本发明一实施例提供的行为预测系统的结构示意图;
图2是本发明一实施例提供的行为预测方法的流程图;
图3是图2中的步骤S101的具体方法流程图;
图4是图2中的步骤S102的具体方法流程图
图5是图2中的步骤S103的具体方法流程图;
图6是本发明另一个实施例提供的行为预测方法的流程图;
图7是图6中的步骤S502的具体方法流程图;
图8是本发明另一实施例提供的行为预测方法的流程图;
图9为本发明一个具体示例提供的行为预测系统的性能示意图;
图10为本发明另一个具体示例提供的行为预测系统的性能示意图;
图11为本发明另一个具体示例提供的行为预测系统的性能示意图;
图12为本发明另一个具体示例提供的行为预测系统的性能示意图;
图13为本发明一个具体示例提供的行为预测系统的结构示意图;
图14是本申请实施例提供的电子设备的硬件结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
需要说明的是,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
如今,在现有主流的基于云服务器的星状网拓扑结构(Single-hop FederatedLearning,SFL)中,参与的客户总数可以达到数百万,提供了机器学习中需要的大量数据集,有助于提高模型的泛化性,例如,自动驾驶模型、可穿戴设备模型。但是基于云服务器的FL协议的一个关键特征是其高度依赖于广域网,例如城市间、州间的数据传输。这是因为在一个典型的FL过程中,云服务器从大量地理分布的设备中反复收集模型更新,并将汇总的结果分发给他们。在模型收敛之前,这种聚合通常会重复很多轮。然而,这样一个广域网驱动的设计导致了广域网通常是高度受限和不稳定的,例如,通信传输速率时常低至1Mbps(Million bits per second,每秒百万比特),此时当模型大小为150M时,进行一次联邦学习则需要花费5min,这个时间已与车辆计算时间相当。因此,网络已成为联邦学习过程的主要瓶颈,并严重减慢了FL模型的收敛速度。其次,广域网是一种宝贵的、计量的资源,给FL开发者增加了计费成本。有实验表明,在AWS EC2(Amazon Elastic Compute Cloud,亚马逊弹性计算云)上执行一个FL任务直到模型收敛,通常要花费数百美元,其中80%是网络流量的费用,这样的成本对于自动驾驶厂商是巨大的。
对于另一种主流的客户-边缘-云的结构化FL系统,也称为HFL,模型聚合可以在客户端-边缘-云端的多阶段程序中进行,即首先通过边缘服务器的数个轮次的本地聚合,然后再进行云服务器全局聚合。与基于云的SFL相比,HFL系统将大大减少与云的昂贵的通信费用以及云端通信不稳定导致的低收敛速度问题。然而HFL模型的都是没有考虑模型性能表现与通信流量之间的关系的,通常来讲通信流量越充足,HFL模型的性能越好。但是实际情况下通信资源通常是有限的,这对HFL的性能造成影响。
为解决在资源受限情况下,无法权衡数据传输和模型传输,从而影响数据预测准确性的问题,本发明实施例提供了一种行为预测方法,通过信息采集设备对客户端运动过程中的周围环境进行信息采集,得到用于表征信息采集设备历史运动状态的第一样本数数据以及信息采集设备当前运动状态的第二样本数据,并基于预设的资源管理器分配各个训练阶段的通信流量,从而能够权衡数据传输以及模型传输的情况,实现对通信资源的合理利用,在资源管理器分配的通信流量下根据第一样本数据对预设的本地模型进行联邦学习,得到第一训练模型,之后,根据资源管理器分配的各个阶段的通信流量以及预设的聚合间隔向边缘服务器以及云服务器发送第一训练模型以及第一样本数据进行聚合操作,得到经过边缘聚合以及云聚合操作的预训练的联邦模型,从而提高联邦模型的泛化性以及预测的准确性,最后,接收边缘服务器发送的联邦模型,并将第二样本数据输入联邦模型进行在线行为预测,输出目标行为信息,能够在通信流量受限的情况下,基于通信量、数据传输和模型聚合的优化方法来有效管理分配有限的通信资源,提高对行为的预测准确性。
下面结合附图,对本发明实施例作进一步阐述。
参考图1,图1为本发明实施例提供的行为预测系统的结构示意图;
在一些实施例中,本实施的行为预测系统包括客户端100、边缘服务器200以及云服务器300,客户端100包括至少一个信息采集设备110,边缘服务器200与多个客户端100通信连接,云服务器300与至少一个边缘服务器200连接。
需要说明的是,客户端100通常是一种智能设备,例如自动驾驶汽车、可穿戴设备等。通常这些智能设备上面都会带有可以测量周围环境的信息采集设备110,信息采集设备110可以为传感器,例如摄像头、激光雷达、毫米波雷达、单目双目立体视觉、被动红外摄像技术、主动红外摄像技术、超声波雷达、激光测距传感器、远程雷达、短程雷达、心率计、血压计等等。此外这些客户端100通常具有一定的存储(如,SSDs)和计算单元(如,GPUs),客户端100可以借助这些存储、计算资源并利用收集到的数据进行本地模型训练,并将更新之后的模型上传到就近的边缘服务器200。此外,这些设备还可以上传适量的收集到的数据到边缘服务器200或者云服务进行中心化的训练来降低分布在各个客户端100上的数据的异质性。对于这些传感器采集到的非隐私数据可以上传至相关服务器,对于采集到的隐私数据可在用户许可的情况下传递到相关服务器。然后服务提供商可以利用这些数据来进一步完善这些智能设备的表现,例如提高自动驾驶模型的泛化性、可穿戴设备测量的准确性等等。
边缘服务器200和云服务器300都是用来做联邦学习的模型聚合的。具体来讲,边缘服务器200用来聚合距离较近设备的模型并将优化后的模型下发到相关的客户端100上。而云服务器300则用来聚合所有边缘服务器200的上传的模型,然后将更新之后的模型下发到所有边缘服务器200和客户端100上。由此可知,边缘服务器200和云服务器300处在不同的层次上来进行模型训练的,这种训练通常需要很多次的迭代来完成。通常而言,迭代的次数越多,模型则越准确、越稳定。
值得注意的是,本实施例中的行为预测系统还设置有资源管理器,资源管理器主要用基于通信流量的优化方法来管理分配有限的通信资源来保证训练模型性能的最优化。资源管理器会同时考虑数据上传、模型上传与下发的各种情况,这样就保证了合理有效利用相关的通信资源。
本领域技术人员可以理解的是,图1中示出的示意图并不构成对本发明实施例的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,下面对本实施例中的行为预测方法进行具体说明。
参照图2,图2是本发明一个实施例提供的行为预测方法的流程图,应用但不限于应用于行为预测方法中的客户端,客户端包括至少一个信息采集设备,行为预测方法包括但不限于步骤S101至S104。
可以理解的是,客户端通常是一种智能设备,例如自动驾驶汽车、可穿戴设备等。信息采集设备为可以测量周围环境的传感器,例如摄像头、激光雷达、毫米波雷达、单目双目立体视觉、被动红外摄像技术、主动红外摄像技术、超声波雷达、激光测距传感器、远程雷达、短程雷达、心率计、血压计等等。
步骤S101:对信息采集设备运动过程中的周围环境进行信息采集,得到第一样本数据和第二样本数据;
需要说明的是,第一样本数据用于表征信息采集设备的历史运动状态以及信息采集设备周围环境的状态,第二样本数据用于表征信息采集设备的当前运动状态以及信息采集设备周围环境的状态。
在一些实施例的步骤S101中,对信息采集设备运动过程中的周围环境进行信息采集,得到第一样本数据以及第二样本数据,其中,信息采集设备可以为摄像机或者激光雷达等,从而增加样本的丰富度,提高模型对行为预测的准确性。
步骤S102:基于预设的资源管理器以及第一样本数据对预设的本地模型进行联邦学习,得到第一训练模型;
需要说明的是,资源管理器用于分配训练模型过程中各个阶段所用的通信流量。
在一些实施例的步骤S102中,在预设的通信流量下,根据第一样本数据对预设的本地模型进行联邦学习,得到第一训练模型,其中,对本地模型进行联邦学习的过程中为离线训练阶段,所有客户端利用收集到的数据在本地训练模型,之后再向边缘服务器以及云服务器发送第一训练模型。
需要说明的是,通信流量包括无线流量以及有线流量,无线流量指的是wireless的通信,例如wifi、移动数据等,有线流量指的是通过网线通信的,例如互联网。
步骤S103:根据资源管理器以及预设的聚合间隔向边缘服务器以及云服务器发送第一训练模型以及第一样本数据进行聚合操作,得到预训练的联邦模型;
在一些实施例的步骤S103中,根据资源管理器以及预设的聚合间隔向边缘服务器以及云服务器发送第一训练模型以及第一样本数据,使得边缘服务器根据预设的聚合间隔以及第一样本进行边缘分布式训练操作,并将边缘分布式训练操作后的模型发送至云服务器进行边云分布式训练,最后得到预训练的联邦模型,完成对联邦模型的边缘聚合以及云聚合,从而提高联邦模型预测的准确性以及稳定性,权衡数据传输和模型传输的情况,节省通信资源。
步骤S104:接收边缘服务器发送的联邦模型,并将第二样本数据输入联邦模型进行在线行为预测,输出目标行为信息。
在一些实施例的步骤S104中,接收边缘服务器发送的联邦模型,并将第二样本数据输入联邦模型进行在线行为预测,推理输出目标行为信息,从而指引客户端的下一步操作,实现对客户端行为的精准预测。
参照图3,图3是图2中的步骤S101的具体方法流程图,步骤S101包括但不限于包括步骤S201至S203。
步骤S201:在信息采集设备的正前方视角下拍摄得到第一视角图像集以及在信息采集设备除正前方视角之外的视角下拍摄得到第二视角图像集;
在一些实施例的步骤S201中,在信息采集设备的正前方视角下拍摄得到第一视角图像集,以及在信息采集设备除正前方视角之外的视角下拍摄得到第二图像集,其中,除正前方视角包括信息采集设备的左视角、信息采集设备的右视角以及信息采集设备前方的地面视图,从而提高本地模型预测的准确性。
可以理解的是,信息采集设备可以采用各种型号或各种参数。例如对于摄像图,可以采用各种分辨率的摄像图,例如1920x1080,960x640等;采用不同的三色空间,例如RGB(Red、Green、Blue,红色、绿色、蓝色)、Gray、CMY、HSV(Hue,Saturation,Value,色调、饱和度、值)、Lab、YUV(Luminance、Chrominance、Chroma,亮度、色度、浓度)等;还可以设置各种采集图片的时间间隔,例如500ms、1s、1.5s等等;还可以设置不同的FOV(Field of View,视场角),例如120°等。在信息采集设备为激光雷达的情况下,可以采用各种通道的激光雷达,例如单线、32线、64线、128线等;采用不同测量距离的激光雷达,例如10m、100m、150m等;采用不同的水平方向和竖直方向的FOV,例如120°、150°等。
值得注意的是,除了上述各种型号和参数外,对于摄像图或者激光雷达在客户端上的配置本实施例也有各种选择的组合。例如对于摄像头,可以有多个或者单个;可以配置在车辆的前部,我们还可以在车辆前部、左侧、右侧各配置一个或多个;我们还可以调整摄像头的俯仰角(pitch)、航向角(yaw)、翻滚角(roll)进行适当调整,这样可以让我们采集到各种我们需要的环境信息。对于激光雷达也可以采用与上述类似的配置来将其安装到客户端上。
步骤S202:对信息采集设备运动过程中的周围环境进行坐标采集,得到点云数据;
在一些实施例的步骤S202中,对信息采集设备运动过程中的周围环境进行坐标采集,得到点云数据,其中,第一视角图像集、第二视角图像集以及点云数据代表了不同的维度信息,第一视角图像集以及第二视角图像集用于表征客户端不同视角下的宏观信息,而点云数据则是用于表征图像信息的深度信息,便于精准确定客户端所处的环境,提高模型预测的准确性。
步骤S203:根据第一视角图像集、第二视角图像集以及点云数据生成第一样本数据以及第二样本数据。
在一些实施例中,对第一视角图像集、第二视角图像集以及点云数据进行特征融合,生成第一样本数据以及第二样本数据,其中,对于特征融合,从时间的角度上看,可以分为早期融合、中期融合和晚期融合。早期融合为在输入层上做融合,先融合多层特征,然后在融合后的特征上训练预测器;中期融合为先将不同数据源上的特征转成中间的高维特征表达,然后再做融合并最终训练预测器;后端融合为在预测层上做融合,在不同的特征上做预测,然后再融合这些预测的结果,得到第一样本数据以及第二样本数据,提高预测的精准度。
可以理解的是,在收集第一视角图像集以及第二视角图像集的过程中,需要收集客户端经过途中环境的图像信息、点云信息以及用户发送的指令信息,并将这些信息整理并保存。在收集数据的时候,不仅要收集大量的数据,而且要注意收据的丰富性,即采集到的数据要包含各种情况,从而提高数据的丰富度,提高模型进行预测的准确性。
参照图4,图4是图2中的步骤S102的具体方法流程图,步骤S102包括但不限于包括步骤S301至S305。
需要说明的是,本地模型包括第一分支模型以及第二分支模型,第一分支模型和第二分支模型用于表征本地模型不同的动作特征,由于各个动作的复杂程度不同,因此,本实施例中需要分别采用第一分支模型以及第二分支模型来训练不同的动作特征以实现对不同动作的训练。
步骤S301:获取资源管理器分配的第一通信流量;
步骤S302:根据第一通信流量将第一视角图像集输入第一分支模型进行联邦学习,输出第一训练数据;
步骤S303:对第二视角图像集中的第二图像进行图像结合,得到多通道图像;
步骤S304:将多通道图像输入第二分支模型进行联邦学习,输出第二训练数据;
步骤S305:根据第一训练数据以及第二训练数据对本地模型进行离线训练,得到第一训练模型。
在一些实施例的步骤S301至步骤S305中,首先获取资源管理分配的第一通信流量,其中,第一通信流量为分配给训练本地模型的流量,再根据第一通信流量将第一视角图像集输入第一分支模型进行联邦学习,计算其损失、梯度,并且使用Adam优化器进行反向传播,输出第一训练数据,并对第二视角图像集中的第二图像进行图像结合,以建立一个多通道图像,将多通道图像输入第二分支模型进行联邦学习,计算其损失、梯度,并且使用Adam优化器进行反向传播,输出第二训练数据,最后,根据第一训练数据以及第二训练数据对本地模型进行离线训练,得到第一训练模型,从而提高本地模型的训练精度。
需要说明的是,输入第二分支模型的动作特征比第一分支模型的动作特征复杂,例如,在自动驾驶的情况下,第一训练数据为油门动作、刹车动作等,第二训练数据为转向动作等,本实施例不做具体限制。
参照图5,图5是图2中的步骤S103的具体方法流程图,步骤S103包括但不限于包括步骤S401至S403。
步骤S401:根据聚合间隔从资源管理器中确定第二通信流量和第三通信流量;
在一些实施例的步骤S401中,根据聚合间隔从资源管理器中确定用于边缘聚合训练的第二通信流量以及用于云聚合训练的第三通信流量,能够在通信流量受限的情况下,基于通信量、数据传输和模型聚合的优化方法来有效管理分配有限的通信资源,完成联邦模型的训练。
步骤S402:基于第二通信流量向边缘服务器发送第一训练模型以及第一样本数据,以使边缘服务器根据第二通信流量以及第一样本数据对第一训练模型进行边缘聚合训练,得到第二训练模型;
在一些实施例的步骤S402中,基于第二通信流量向边缘服务器发送第一训练模型以及第一样本数据,以使边缘服务器根据第二通信流量以及第一样本数据对第一训练模型进行边缘聚合训练,得到第二训练模型,从而完成对第一训练模型的边缘分布式训练,使得边缘服务器上的模型对与之相连的所有客户端的数据由更好的理解能力。
需要说明的是,边缘服务器用来聚合距离较近设备的模型并将优化后的模型下发到相关的客户端上。
步骤S403:接收边缘服务器发送的第二训练模型以及预训练的联邦模型。
需要说明的是,联邦模型为云服务器根据第三通信流量对第二训练模型进行云聚合训练得到。
在一些实施例的步骤S403中,接收边缘服务器发送的第二训练模型以及预训练的联邦模型,其中,联邦模型为云服务器根据第三通信流量对第二训练模型进行云聚合训练得到,并将联邦模型发送给边缘服务器,边缘服务器发送联邦模型给客户端。
值得注意的是,本实施例中的第三通信流量大于第二通信流量以及第一通信流量,从而充分考虑联邦学习各个阶段的通信资源的分配与平衡问题。
参照图6,图6是本发明另一个实施例提供的行为预测方法的流程图,应用但不限于应用于图1中的边缘服务器,边缘服务器与多个客户端通信连接,行为预测方法包括但不限于步骤S501至S504。
步骤S501:基于预设的聚合间隔接收客户端发送的第一样本数据以及第一训练模型;
在一些实施例的步骤S501中,基于预设的聚合间隔接收距离较近的客户端发送的第一样本数据以及第一训练模型,便于后续对第一训练模型的边缘聚合训练。
步骤S502:根据资源管理器以及第一样本数据对第一训练模型进行边缘聚合训练,得到第二训练模型;
在一些实施例的步骤S502中,根据资源管理器以及第一样本数据对第一训练模型进行边缘聚合训练,边缘服务器利用收到的各个服务器的第一训练模型来更新各自本地模型,得到第二训练模型,这样经过多次迭代,边缘服务器上的第二训练模型对与之相连的所有客户端的数据具有更好的理解的能力。
步骤S503:向客户端以及云服务器发送第二训练模型,以使云服务器对第二训练模型进行云聚合训练,得到预训练的联邦模型;
在一些实施例的步骤S503中,经过上述的边缘聚合训练阶段,各个边缘服务器都有了对各自域内的数据的更强的理解能力,但是缺乏对其他域内数据的理解力,所以需要向客户端以及云服务器发送第二训练模型,以使云服务器对第二训练模型进行云聚合训练,得到预训练的联邦模型。
步骤S504:接收云服务器发送的联邦模型,并向客户端发送联邦模型,使得客户端根据联邦模型进行在线行为预测。
在一些实施例的步骤S504中,接收云服务器发送的联邦模型,并向客户端下发联邦模型,便于客户端根据联邦模型进行在线行为预测。
参照图7,图7是图6中的步骤S502的具体方法流程图,步骤S502包括但不限于步骤S601-S602。
步骤S601:根据聚合间隔在资源管理器中确定第二通信流量;
步骤S602:基于第二通信流量以及第一样本数据对第一训练模型进行边缘分布式训练,得到第二训练模型。
在一些实施例的步骤S601至步骤S602中,根据聚合间隔在资源管理器中确定用于边缘分布式训练的第二通信流量,从而限制边缘分布式训练所需的通信流量,再基于第二通信流量以及第一样本数据对第一训练模型进行边缘分布式训练,通过联邦平均操作来更新边缘服务器各自的本地模型,得到第二训练模型,从而使得边缘服务器上的模型对与之相连的所有客户端的数据具有更好的理解能力。
参照图8,图8是本发明另一个实施例提供的行为预测方法的流程图,应用但不限于应用于图1中的云服务器,云服务器与至少一个边缘服务器连接,包括但不限于包括步骤S701至S703。
步骤S701:基于预设的资源管理器接收所有边缘服务器发送的第二训练模型;
步骤S702:对第二训练模型进行云聚合训练,得到预训练的联邦模型;
步骤S703:向边缘服务器发送联邦模型,以使客户端根据联邦模型进行在线行为预测。
在一些实施例的步骤S701至步骤S703中,基于预设的资源管理器接收所有边缘服务器发送的第二训练模型,对第二训练模型进行云聚合训练,通过联邦平均等操作来更新云服务器上的模型,得到预训练的联邦模型,向边缘服务器发送联邦模型,以使客户端根据联邦模型进行在线行为预测。
需要说明的是,边缘服务器用来聚合距离较近客户端的第一训练模型并将优化后的模型下发到相关的客户端上。而云服务器则用来聚合所有边缘服务器的上传的第二训练模型,然后将更新之后的联邦模型下发到所有边缘服务器和客户端上,这样经过多次迭代,云服务端上的联邦模型就具有了跨区域、跨时域的数据理解能力。
为了更加清楚、明白地说明本实施例的行为预测方法,下面以具体示例进行说明:
示例一:
参考图9-10,图9为本发明一个具体示例提供的行为预测系统的性能示意图;
图10为本发明另一个具体示例提供的行为预测系统的性能示意图;
在一些实施例中,本示例以自动驾驶场景为例来比较一下行为预测系统、HFL和SFL之间的性能。在固定的通信流量(即20G)设置下,SFL可以执行13轮FL,而HFL只能执行9轮FL,因为边缘服务器和云服务器之间增加了通信。
相比之下,虽然设计的行为预测系统在预训练阶段传输数据样本时消耗了部分通信吞吐量,但由于增加了优化算法,可以在边缘聚合和云聚合之间安排通信资源,因此也可以执行9轮FL。这三种方法的推理性能如图9-图10所示。不难发现,本实施例提出的行为预测系统在准确性和损失方面取得了最好的性能。具体来说,参考图9可以得出本实施例的行为预测系统的准确率比HFL高10.33%,比SFL高12.41%,参考图10可以得出行为预测系统的损失是最小的。
参考图11-12,图11为本发明另一个具体示例提供的行为预测系统的性能示意图;
图12为本发明另一个具体示例提供的行为预测系统的性能示意图;
另一方面,虽然上面的比较已经说明了本实施例提出的行为预测系统框架的优势,因为这三种方法的联邦聚合的轮次不一样,图11-12将从另一个角度进一步比较这三种方法。具体来说,通过比较SFL、HFL和行为预测系统在一个训练过程中随着消耗的流量增加时的表现,进一步研究SFL、HFL和行为预测系统。
从图11可以看出三种情况的性能都随着消耗的通信流量的增加而提高,这与实际情况是一致的;提出的方案在消耗相同的流量时,本实施的行为预测系统的准确性高于SFL以及HFL;从图12可以看出行为预测系统的损失值低于SFL以及HFL,因此行为预测系统不仅准确性和损失比其他两种情况好,而且变化的趋势也更稳定。这从另一个角度进一步验证了我们提出的方案的有效性和稳健性。总之,就像图9-12一样,本示例从两个角度评估了SFL、HFL和行为预测系统。两个结果都表明,行为预测系统框架具有更好的通用性和更快的收敛率。
示例二:
参考图13,图13为本发明一个具体示例提供的行为预测系统的结构示意图;
在一些实施例中,图13中条形代表通信流量,此外每个条形图的大小代表其相关链路的通信吞吐量的大小。
为了研究通信流量在不同阶段的变化,可以改变优化问题的条件,导致不同的优化结果。通过比较这些结果,得出通信流量的变化模式。具体来说,通过将边缘聚合间隔分别固定为2、3和4,分配给每个阶段的通信流量发生了变化,随着边缘聚合间隔的增加,通信流量更多地被分配到云聚合训练阶段,而更少地被分配到本地联邦学习阶段和边缘聚合训练阶段,这意味着更多的通信资源被用于云模型的聚合,更少的通信资源被用于预训练样本传输和边缘模型的聚合。为了探索行为预测系统在通信资源分布变化时的表现,通过设置不同的聚合间隔进行试验,最后确定在聚合间隔为4的情况下具有最高的准确性和最低的损失,因为它具有最大的FL轮数。这意味着,当更多的通信资源被用于云聚合时,有助于提高模型的性能,这也符合我们的预期。同时发现,在第一轮联合学习中,三种情况的准确率和损失相差不大,尤其是准确率,这也说明在预训练阶段只需要上传少量的样本就可以加快收敛速度。总之,通过以上实验和模拟,行为预测系统框架在通信资源有限的情况下表现明显优于HFL和SFL。
可以理解的是,本实施例中的行为预测系统在预训练阶段,从客户端上上传少量的数据样本到云服务器,形成一个集中的数据集,并以此对模型进行预训练,加速其收敛速度,同时通过基于通信流量优化的方法设置边缘聚合的时间间隔,可以为更多轮的云联合聚合节省一些资源,进而全面提高模型性能。
请参阅图14,图14示意了另一实施例的电子设备的硬件结构,电子设备包括:
处理器1001,可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application SpecificIntegrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案;
存储器1002,可以采用只读存储器(Read Only Memory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(Random Access Memory,RAM)等形式实现。存储器1002可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器1002中,并由处理器1001来调用执行本申请实施例的行为预测方法;
输入/输出接口1003,用于实现信息输入及输出;
通信接口1004,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;
总线1005,在设备的各个组件(例如处理器1001、存储器1002、输入/输出接口1003和通信接口1004)之间传输信息;
其中处理器1001、存储器1002、输入/输出接口1003和通信接口1004通过总线1005实现彼此之间在设备内部的通信连接。
此外,本发明的一个实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个处理器或控制器执行,例如,被上述系统实施例中的一个处理器执行,可使得上述处理器执行上述实施例中的行为预测方法。
本申请实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图1-8中示出的技术方案并不构成对本申请实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例的方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本申请实施例的优选实施例,并非因此局限本申请实施例的权利范围。本领域技术人员不脱离本申请实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本申请实施例的权利范围之内。

Claims (8)

1.一种行为预测方法,其特征在于,应用于客户端,所述客户端包括至少一个信息采集设备,所述方法包括:
对所述信息采集设备运动过程中的周围环境进行信息采集,得到第一样本数据和第二样本数据,其中,所述第一样本数据用于表征所述信息采集设备的历史运动状态以及所述信息采集设备周围环境的状态,所述第二样本数据用于表征所述信息采集设备的当前运动状态以及所述信息采集设备周围环境的状态;
基于预设的资源管理器以及所述第一样本数据对预设的本地模型进行联邦学习,得到第一训练模型,其中,所述资源管理器用于分配训练模型过程中各个阶段所用的通信流量;
根据所述资源管理器以及预设的聚合间隔向边缘服务器以及云服务器发送所述第一训练模型以及所述第一样本数据进行聚合操作,得到预训练的联邦模型;
接收所述边缘服务器发送的所述联邦模型,并将所述第二样本数据输入所述联邦模型进行在线行为预测,输出目标行为信息;
其中,所述根据所述资源管理器以及预设的聚合间隔向边缘服务器以及云服务器发送所述第一训练模型以及所述第一样本数据进行聚合操作,得到预训练的联邦模型,包括:
根据所述聚合间隔从所述资源管理器中确定第二通信流量和第三通信流量;
基于所述第二通信流量向所述边缘服务器发送所述第一训练模型以及所述第一样本数据,以使所述边缘服务器根据所述第二通信流量以及所述第一样本数据对所述第一训练模型进行边缘聚合训练,得到第二训练模型;
接收所述边缘服务器发送的所述第二训练模型以及预训练的联邦模型,其中,所述联邦模型为所述云服务器根据所述第三通信流量对所述第二训练模型进行云聚合训练得到。
2.根据权利要求1所述的行为预测方法,其特征在于,所述对所述信息采集设备运动过程中的周围环境进行信息采集,得到第一样本数据和第二样本数据,包括:
在所述信息采集设备的正前方视角下拍摄得到第一视角图像集以及在所述信息采集设备除正前方视角之外的视角下拍摄得到第二视角图像集;
对所述信息采集设备运动过程中的周围环境进行坐标采集,得到点云数据;
根据所述第一视角图像集、所述第二视角图像集以及所述点云数据生成第一样本数据以及第二样本数据。
3.根据权利要求2所述的行为预测方法,其特征在于,所述本地模型包括第一分支模型以及第二分支模型,所述第一分支模型和所述第二分支模型用于表征所述本地模型不同的动作特征;所述基于预设的资源管理器以及所述第一样本数据对预设的本地模型进行联邦学习,得到第一训练模型,包括:
获取所述资源管理器分配的第一通信流量;
根据所述第一通信流量将所述第一视角图像集输入所述第一分支模型进行联邦学习,输出第一训练数据;
对所述第二视角图像集中的第二图像进行图像结合,得到多通道图像;
将所述多通道图像输入所述第二分支模型进行联邦学习,输出第二训练数据;
根据所述第一训练数据以及所述第二训练数据对所述本地模型进行离线训练,得到第一训练模型。
4.一种行为预测方法,其特征在于,应用于边缘服务器,所述边缘服务器与多个客户端通信连接,所述方法包括:
基于预设的聚合间隔接收客户端发送的第一样本数据以及第一训练模型,其中,所述第一样本数据用于表征信息采集设备的历史运动状态以及所述信息采集设备周围环境的状态,所述第一训练模型为所述客户端基于预设的资源管理器以及所述第一样本数据对预设的本地模型进行联邦学习得到,所述资源管理器用于分配训练模型过程中各个阶段所用的通信流量;
根据所述资源管理器以及所述第一样本数据对所述第一训练模型进行边缘聚合训练,得到第二训练模型;
向所述客户端以及云服务器发送所述第二训练模型,以使所述云服务器对所述第二训练模型进行云聚合训练,得到预训练的联邦模型;
接收所述云服务器发送的所述联邦模型,并向所述客户端发送所述联邦模型,使得所述客户端根据所述联邦模型进行在线行为预测;
其中,所述根据所述资源管理器以及所述第一样本数据对所述第一训练模型进行边缘聚合训练,得到第二训练模型,包括:
根据所述聚合间隔在所述资源管理器中确定第二通信流量;
基于所述第二通信流量以及所述第一样本数据对所述第一训练模型进行边缘分布式训练,得到第二训练模型。
5.一种行为预测方法,其特征在于,应用于云服务器,所述云服务器与至少一个边缘服务器连接,所述方法包括:
基于预设的资源管理器接收所有所述边缘服务器发送的第二训练模型,其中,所述第二训练模型由所述边缘服务器根据聚合间隔在所述资源管理器中确定第二通信流量,再基于所述第二通信流量以及第一样本数据对第一训练模型进行边缘分布式训练得到,所述第一样本数据用于表征信息采集设备的历史运动状态以及所述信息采集设备周围环境的状态,所述第一训练模型为客户端基于预设的资源管理器以及所述样本数据对预设的本地模型进行联邦学习得到,所述资源管理器用于分配训练模型过程中各个阶段所用的通信流量;
对所述第二训练模型进行云聚合训练,得到预训练的联邦模型;
向所述边缘服务器发送所述联邦模型,以使所述客户端根据所述联邦模型进行在线行为预测。
6.一种行为预测系统,其特征在于,包括:
客户端,包括至少一个信息采集设备,所述客户端用于对所述信息采集设备运动过程中的周围环境进行信息采集,得到第一样本数据和第二样本数据,其中,所述第一样本数据用于表征所述信息采集设备的历史运动状态以及所述信息采集设备周围环境的状态,所述第二样本数据用于表征所述信息采集设备的当前运动状态以及所述信息采集设备周围环境的状态;并基于预设的资源管理器以及所述第一样本数据对预设的本地模型进行联邦学习,得到第一训练模型,其中,所述资源管理器用于分配训练模型过程中各个阶段所用的通信流量;根据所述资源管理器以及预设的聚合间隔向边缘服务器以及云服务器发送所述第一训练模型以及所述第一样本数据进行聚合操作,得到预训练的联邦模型;
以及接收所述边缘服务器发送的所述联邦模型,并将所述第二样本数据输入所述联邦模型进行在线行为预测,输出目标行为信息;
其中,所述根据所述资源管理器以及预设的聚合间隔向边缘服务器以及云服务器发送所述第一训练模型以及所述第一样本数据进行聚合操作,得到预训练的联邦模型,包括:
根据所述聚合间隔从所述资源管理器中确定第二通信流量和第三通信流量;
基于所述第二通信流量向所述边缘服务器发送所述第一训练模型以及所述第一样本数据,以使所述边缘服务器根据所述第二通信流量以及所述第一样本数据对所述第一训练模型进行边缘聚合训练,得到第二训练模型;
接收所述边缘服务器发送的所述第二训练模型以及预训练的联邦模型,其中,所述联邦模型为所述云服务器根据所述第三通信流量对所述第二训练模型进行云聚合训练得到;
边缘服务器,与多个所述客户端通信连接,所述边缘服务器用于基于预设的聚合间隔接收客户端发送的第一样本数据以及第一训练模型;根据所述资源管理器以及所述第一样本数据对所述第一训练模型进行边缘聚合训练,得到第二训练模型;并向所述客户端以及云服务器发送所述第二训练模型,以使所述云服务器对所述第二训练模型进行云聚合训练,得到预训练的联邦模型;接收所述云服务器发送的所述联邦模型,并向所述客户端发送所述联邦模型,使得所述客户端根据所述联邦模型进行在线行为预测;
其中,所述根据所述资源管理器以及所述第一样本数据对所述第一训练模型进行边缘聚合训练,得到第二训练模型,包括:
根据所述聚合间隔在所述资源管理器中确定第二通信流量;
基于所述第二通信流量以及所述第一样本数据对所述第一训练模型进行边缘分布式训练,得到第二训练模型;
云服务器,与至少一个所述边缘服务器连接,所述云服务器用于基于预设的资源管理器接收所有所述边缘服务器发送的第二训练模型;对所述第二训练模型进行云聚合训练,得到预训练的联邦模型;并向所述边缘服务器发送所述联邦模型,以使所述客户端根据所述联邦模型进行在线行为预测。
7.一种电子设备,其特征在于,所述电子设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现权利要求1至5任一项所述的行为预测方法。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于执行权利要求1至5任意一项所述的行为预测方法。
CN202310401786.7A 2023-04-11 2023-04-11 一种行为预测方法、系统、电子设备及存储介质 Active CN116580448B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310401786.7A CN116580448B (zh) 2023-04-11 2023-04-11 一种行为预测方法、系统、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310401786.7A CN116580448B (zh) 2023-04-11 2023-04-11 一种行为预测方法、系统、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN116580448A CN116580448A (zh) 2023-08-11
CN116580448B true CN116580448B (zh) 2024-04-16

Family

ID=87544403

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310401786.7A Active CN116580448B (zh) 2023-04-11 2023-04-11 一种行为预测方法、系统、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN116580448B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112114648A (zh) * 2020-11-23 2020-12-22 中国人民解放军国防科技大学 可穿戴设备电源管理方法、系统及计算机设备
CN112181666A (zh) * 2020-10-26 2021-01-05 华侨大学 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、系统、设备和可读存储介质
US11017322B1 (en) * 2021-01-28 2021-05-25 Alipay Labs (singapore) Pte. Ltd. Method and system for federated learning
CN113221470A (zh) * 2021-06-10 2021-08-06 南方电网科学研究院有限责任公司 一种用于电网边缘计算系统的联邦学习方法及其相关装置
CN113435472A (zh) * 2021-05-24 2021-09-24 西安电子科技大学 车载算力网络用户需求预测方法、系统、设备、介质
CN114827198A (zh) * 2022-03-31 2022-07-29 电子科技大学 一种应用于车联网的多层中心异步联邦学习方法
CN114930347A (zh) * 2020-02-03 2022-08-19 英特尔公司 用于无线边缘动态的分布式学习的系统和方法
CN115204026A (zh) * 2021-04-12 2022-10-18 奥迪股份公司 车辆数据模型的训练方法、装置、车辆、介质和程序产品
CN115408151A (zh) * 2022-08-23 2022-11-29 哈尔滨工业大学 一种联邦学习训练加速方法
CN115830709A (zh) * 2022-11-23 2023-03-21 深圳市大数据研究院 基于联邦边缘学习的动作识别方法、服务器及电子设备
CN115830700A (zh) * 2022-09-27 2023-03-21 深圳市大数据研究院 应用于无线感知场景的联邦学习训练平台及训练方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114930347A (zh) * 2020-02-03 2022-08-19 英特尔公司 用于无线边缘动态的分布式学习的系统和方法
CN112181666A (zh) * 2020-10-26 2021-01-05 华侨大学 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、系统、设备和可读存储介质
CN112114648A (zh) * 2020-11-23 2020-12-22 中国人民解放军国防科技大学 可穿戴设备电源管理方法、系统及计算机设备
US11017322B1 (en) * 2021-01-28 2021-05-25 Alipay Labs (singapore) Pte. Ltd. Method and system for federated learning
CN115204026A (zh) * 2021-04-12 2022-10-18 奥迪股份公司 车辆数据模型的训练方法、装置、车辆、介质和程序产品
CN113435472A (zh) * 2021-05-24 2021-09-24 西安电子科技大学 车载算力网络用户需求预测方法、系统、设备、介质
CN113221470A (zh) * 2021-06-10 2021-08-06 南方电网科学研究院有限责任公司 一种用于电网边缘计算系统的联邦学习方法及其相关装置
CN114827198A (zh) * 2022-03-31 2022-07-29 电子科技大学 一种应用于车联网的多层中心异步联邦学习方法
CN115408151A (zh) * 2022-08-23 2022-11-29 哈尔滨工业大学 一种联邦学习训练加速方法
CN115830700A (zh) * 2022-09-27 2023-03-21 深圳市大数据研究院 应用于无线感知场景的联邦学习训练平台及训练方法
CN115830709A (zh) * 2022-11-23 2023-03-21 深圳市大数据研究院 基于联邦边缘学习的动作识别方法、服务器及电子设备

Also Published As

Publication number Publication date
CN116580448A (zh) 2023-08-11

Similar Documents

Publication Publication Date Title
CN110942154B (zh) 基于联邦学习的数据处理方法、装置、设备及存储介质
CN108449286A (zh) 网络带宽资源分配方法及装置
CN113609521A (zh) 一种基于对抗训练的联邦学习隐私保护方法及系统
CN113435544B (zh) 一种联邦学习系统,方法与装置
CN112870726B (zh) 图形处理器的资源分配方法、装置和存储介质
EP4318338A1 (en) Federated learning method and apparatus
CN114330125A (zh) 基于知识蒸馏的联合学习训练方法、装置、设备及介质
WO2023142316A1 (zh) 飞行决策生成方法和装置、计算机设备、存储介质
CN113590359A (zh) 应用于车辆编队的数据分享方法、装置、介质及电子设备
da Silva et al. Towards federated learning in edge computing for real-time traffic estimation in smart cities
Cao et al. A deep reinforcement learning approach to multi-component job scheduling in edge computing
CN105786626B (zh) 基于K划分的Storm平台线程分配方法
CN116580448B (zh) 一种行为预测方法、系统、电子设备及存储介质
CN113870588A (zh) 一种基于深度q网络的交通灯控制方法、终端及存储介质
CN116109698B (zh) 目标虚拟车位坐标值的确定方法、装置及存储介质
CN115830709A (zh) 基于联邦边缘学习的动作识别方法、服务器及电子设备
CN113613194A (zh) 应用于车辆间的数据分享方法、装置、介质及电子设备
CN115499657A (zh) 视频码率自适应网络的训练方法、应用方法、装置及设备
CN116050557A (zh) 电力负荷预测方法、装置、计算机设备和介质
Xie et al. Soft Actor–Critic-Based Multilevel Cooperative Perception for Connected Autonomous Vehicles
Kitagawa et al. Urban traffic control using distributed multi-agent deep reinforcement learning
CN113470067A (zh) 数据处理方法、装置、存储介质和处理器
CN117094355B (zh) 模型更新方法、非易失性存储介质及计算机设备
CN116341691B (zh) 一种去中心化联邦学习系统、方法、存储介质及计算设备
CN116600361B (zh) 无人机组网配置方法、设备和可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant