CN117255368B - 车载边缘服务器协同固定边缘服务器的边缘动态集成方法 - Google Patents
车载边缘服务器协同固定边缘服务器的边缘动态集成方法 Download PDFInfo
- Publication number
- CN117255368B CN117255368B CN202311536696.5A CN202311536696A CN117255368B CN 117255368 B CN117255368 B CN 117255368B CN 202311536696 A CN202311536696 A CN 202311536696A CN 117255368 B CN117255368 B CN 117255368B
- Authority
- CN
- China
- Prior art keywords
- edge server
- vehicle
- traffic flow
- grids
- grid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000010354 integration Effects 0.000 title claims abstract description 20
- 238000004364 calculation method Methods 0.000 claims abstract description 37
- 230000008859 change Effects 0.000 claims description 15
- 238000010586 diagram Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 12
- 238000003062 neural network model Methods 0.000 claims description 10
- 230000003203 everyday effect Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000004891 communication Methods 0.000 abstract description 8
- 238000005265 energy consumption Methods 0.000 abstract description 6
- 230000003068 static effect Effects 0.000 description 24
- 238000005457 optimization Methods 0.000 description 5
- 230000006855 networking Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000013468 resource allocation Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000000137 annealing Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000004146 energy storage Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/08—Load balancing or load distribution
- H04W28/09—Management thereof
- H04W28/0958—Management thereof based on metrics or performance parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0129—Traffic data processing for creating historical data or processing based on historical data
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/08—Load balancing or load distribution
- H04W28/09—Management thereof
- H04W28/0925—Management thereof using policies
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/08—Load balancing or load distribution
- H04W28/09—Management thereof
- H04W28/0958—Management thereof based on metrics or performance parameters
- H04W28/0967—Quality of Service [QoS] parameters
- H04W28/0975—Quality of Service [QoS] parameters for reducing delays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
- H04W4/44—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Quality & Reliability (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明属于无线通信网络领域,其目的在于提供一种车载边缘服务器协同固定边缘服务器的边缘动态集成方法,包括:将待研究区域的地图划分为至少2个网格,并在任一所述网格中部署用户终端,将所述用户终端产生的任务转移至车载边缘服务器;通过预测模型,对任一所述网格的交通流量进行预测,得到车流量预测数据;根据所述车流量预测数据,得到所述网格在设定时间内的车载边缘服务器计算容量;在所述网格满足车载边缘服务器计算容量的前提下,使至少2辆车载边缘服务器在不同所述网格之间的移动路径最短,以得到车载边缘服务器的最优调度结果。本发明所述的方法实现了边缘计算资源的有效利用,降低了计算资源的能耗。
Description
技术领域
本发明涉及无线通信网络技术,具体涉及一种车载边缘服务器协同固定边缘服务器的边缘动态集成方法。
背景技术
众所周知的,车联网是以车内网、车际网和车云网组成,进行无线电通信和信息交互的大系统网络。
现有的,针对车联网中的车载边缘服务器与固定边缘服务器在进行通信部署的过程中,移动单元搭载边缘服务器可以解决固定边缘服务器不能解决的时空变化问题,但如何选择合适的移动单元载体与优化移动单元的部署仍是领域内一个开放问题。
已知的技术方案,有的在车辆网络和边缘计算领域引入了一种分布式的车辆边缘计算解决方案,称为自动驾驶车辆边缘(AVE);该解决方案的关键在于通过车对车(V2V)通信,并在相邻车辆之间共享可用资源,基于此提出了一种更通用的在线解决方案,即混合动力汽车边缘云(HVC);HVC使用多访问网络有效地共享所有可访问的计算资源,包括路边单元(RSU)和云。这种架构允许车辆之间的资源共享,但是其在访问的过程中,仅仅进行车辆间的资源共享,仅仅能够对静态负载进行设计;再有的,通过构建由多架无人机(UAV)辅助的移动边缘计算(MEC)系统,可以通过无人机作为MEC节点,向本地计算能力有限的地面物联网节点提供计算卸载服务,但是无人机承载的计算资源有限,也存在着续航与一些安全性问题。
可见,现有的技术主要针对静态负载进行设计,且在地图上的各个区域的负载基本恒定,难以迅速适应动态负载变化的同时,也难以找到合适的载体,搭载边缘服务器适应动态负载变化;尤其在城市中,由于车辆的快速流动,负载可能出现时空上的波动,从而引发不均衡的负载分布,导致不必要的计算资源的能耗。
基于此,一种充分考虑负载的时空动态性,考虑车辆位置、移动距离、边缘服务器的计算力和负载状况等多方面因素的边缘动态集成方法亟待研发。
发明内容
本发明的目的在于提供一种车载边缘服务器协同固定边缘服务器的边缘动态集成方法,用于至少解决现有技术中的一个技术问题。
本发明的技术方案是:
一种车载边缘服务器协同固定边缘服务器的边缘动态集成方法,包括:
将待研究区域的地图划分为至少2个网格,并在任一所述网格中部署用户终端,将所述用户终端产生的任务转移至车载边缘服务器;
通过预测模型,对任一所述网格的交通流量进行预测,得到车流量预测数据;
根据所述车流量预测数据,得到所述网格在设定时间内的车载边缘服务器计算容量;
在所述网格满足车载边缘服务器计算容量的前提下,使至少2辆车载边缘服务器在不同所述网格之间的移动路径最短,以得到车载边缘服务器的最优调度结果。
所述通过预测模型,对所述待研究区域的交通流量进行预测,得到车流量预测数据,包括:
构建时间一致性的神经网络模型;
使用已知的车流量数据训练所述时间一致性的神经网络模型,得到预测模型;
将待预测时间点以前的第一时段中的每天每个时间片对应的所有网格的车流量数据作为输入数据,输入所述预测模型中,得到待预测时间点的第二时段中每天每个时间片的车流量预测数据。
所述构建时间一致性的神经网络模型,包括:
通过分组卷积和逐点卷积构建特征提取块;
通过所述特征提取块构建神经网络模型的编码器和解码器,得到所述神经网络模型。
对于神经网络中的任一特征图,卷积核为,输出
特征图为,那么标准卷积操作可以被描述为:;
其中,表示卷积操作符,和表述特征图的输入和输出通道数,和表示
特征图的长和宽,表示卷积核的大小,和输出特征图的长和宽,;其中,表示卷积核移动的步长,表示特征图填充的长度。
所述特征提取块表示为:
;
其中,和分别表示特征提取块的输入和输出。
所述将待研究区域的地图划分为至少2个网格,并在任一所述网格中部署用户终端,将所述用户终端产生的任务转移至车载边缘服务器,包括:
将待研究区域的地图划分为网格的二维地图,并将网格的索引集记为,其中表示网格的总数;
在任一所述网格中部署固定边缘服务器、用户终端以及车载边缘服务器,并将所述用户终端产生的任务转移到所述固定边缘服务器和车载边缘服务器中,通过所述固定边缘服务器和/或车载边缘服务器来执行任一任务。
所述根据所述车流量预测数据,得到所述网格在设定时间内的车载边缘服务器计算容量,包括:
根据所述车流量预测数据,得到不同时间段的平均车辆流量和变化系数,并将交通量和变化系数均在前10-30%的网格部署固定边缘服务器和车载边缘服务器的主要候选网格,其他网格则仅依赖于固定边缘服务器;
使用孤立森林算法来检测任一所述网格内用户需求,得到所述网格内车流量激增时段;
以所述网格内车流量激增时段的最小车流量作为需要部署固定边缘服务器的最大容量,且以所述网格内车流量激增时段的最大车流量与最小车流量之差作为需要部署车载边缘服务器的计算容量。
所述在所述网格满足车载边缘服务器计算容量的前提下,使至少2辆车载边缘服务器在不同所述网格之间的移动路径最短,包括:
设定一个初始空解作为车载边缘服务器的调度方案,并设置迭代次数;
进行聚类,并为每个聚类生成随机的初始解;
生成簇内路径,连接簇类路径;
通过迭代,最终得到车载边缘服务器在不同所述网格之间的最短移动路径。
所述生成簇内路径,连接簇类路径,包括:
对于所述聚类中的每一个簇,随机在其内部产生一条路径,并将不同集群之间的路径连接起来,形成一个整体的路线,作为路线规划的初始解决方案;
将未被归类到簇的噪声点加入到已有的路径中,或者将未被归类到簇的噪声点独立生成新路径。
所述通过迭代,最终得到车载边缘服务器在不同所述网格之间的最短移动路径,包括:
利用迭代局部搜索方法来不断改进初始值,直到达到预设的最大迭代计数,生成最终解,输出当前得到的最优车载边缘服务器调度方案;
且在迭代局部搜索方法来不断改进初始值的过程中,使用算法随机选
择两个节点进行交换,并且引入惩罚矩阵记录频繁的节点对交换。
本发明的有益效果至少包括:
本发明所述的方法,通过将待研究区域的地图划分为至少2个网格,并在任一所述网格中部署用户终端,将所述用户终端产生的任务转移至车载边缘服务器;然后,利用预测模型,对所述待预测的交通流量进行预测,得到车流量预测数据;根据所述车流量预测数据,得到所述网格在设定时间内的车载边缘服务器计算容量;在所述网格满足车载边缘服务器计算容量的前提下,使至少2辆车载边缘服务器在不同所述网格之间的移动路径最短,以得到车载边缘服务器的最优调度结果;本发明所述的方法,充分考虑负载的时空动态性,主动调配计算资源以预防高峰时资源不足,再结合高效调度算法,考虑车辆位置、移动速度、车载边缘服务器的计算力和负载状况等多方面因素设计车载边缘服务器的移动路线,提升资源的使用效率、降低延时,并保障任务的成功执行,适应了城市迅速适应动态负载变化,杜绝了不均衡的负载分布,实现了边缘计算资源的有效利用,降低了计算资源的能耗。
附图说明
图1是本发明所述方法的流程图;
图2是系统模型图;
图3是卷积示意图;
图4是网格在各个时间段内工作负载的变化趋势示意图;
图5是对应网格的工作量单位示意图;
图6是该分配的工作量的示意图;
图7是需要重点部署车载边缘服务器的网格编号示意图;
图8是三个时期内激增网格的地理分布;
图9为网格177中用户终端的计算资源需求示意图;
图10为选定网格的计算资源所需的平均车载边缘服务器的数量示意图;
图11为静态部署方法、混合静态动态部署方法以及边缘动态集成部署方法中每小时平均计算资源利用率的比较图;
图12为静态部署方法、混合静态动态部署方法以及边缘动态集成部署方法的总计算资源使用量比较图。
具体实施方式
为满足如自动驾驶、多车协同变道调度和高级驾驶辅助系统等无线通信的需求,迫切需要更多的计算资源和更短的响应时间。但车辆的计算能力有限,难以支撑上述应用。于是,边缘计算应运而生,它允许将计算任务从车辆迁移到接入网基站,路侧单元等计算能力强大的平台,确保车联网获得充足的计算支持。与此同时,传统的集中式云计算由于其接入带宽受限、较高的延迟和对稳定连接的依赖,很难满足车联网对实时和可靠性的要求。相较而言,边缘计算将计算任务布置在网络的边缘,近于数据源,能更好地满足用户对计算密集和延迟敏感应用的期望。
边缘计算服务器的部署对于自动驾驶的数字交通基础设施建设至关重要,它是一个综合性的系统工程,涉及部署载体、位置选择、服务范围、优化目标及车辆行为等多方面的因素。准确预测用户位置和移动轨迹对于优化边缘服务器部署,建立合理的动态资源分配机制,以及设计高效的调度算法尤为重要。
目前,国内外对于这一问题的实施例和应用都仍然处于起始阶段,众多理论和实践上的难题尚待解决。其中的主要挑战是由于车辆的高速移动而导致的用户位置和移动模式的频繁变化。在城市中,通常采用在网络基站和路侧单元上部署边缘服务器的策略,被称为固定边缘服务器部署方法。虽然这种方法相对容易实现,但部署完成后服务器位置固定,计算能力难以实时调整。而车联网终端用户是在路上移动的车辆,其计算需求天然具有时空动态性,导致边缘计算负载也呈现出同样的动态特征。然而,当利用这些固定边缘服务器为车联网用户提供服务时,其固定的位置、覆盖范围以及不易调整的计算能力可能导致其对动态负载的响应效率较低。
所以,本实施例引入车载边缘服务器与固定边缘服务器协同部署。车载边缘服务器线路规划以城市交通规划为基础,在所有城市主干道上,搭载边缘服务器的车辆均可通行。在支路上也可根据车流密度规划路线,保证良好的城市覆盖率。同时,运用预测算法分析历史工作负载可以预测未来需求的变化。基于预测结果启用主动的计算资源推送,可以避免在高峰时段出现资源短缺。并采用高效的调度算法,考虑了诸如车辆位置、移动速度、车载边缘服务器的计算能力和负载状态等各种因素,提高资源利用率、减少延迟,确保任务完成。此外,考虑车载边缘服务器在移动过程中消耗资源计算能力和能量储备有限等问题,车载边缘服务器必须规划合理的移动路线,最小化总体移动距离以节约能耗,达到边缘计算资源的有效利用的目的。
边缘服务器:是部署于网络边缘的服务器;与普通服务器一样,边缘服务器可以提供计算、网络和存储功能。边缘服务器接收终端用户的计算请求,完成相应的计算后将结果发回终端用户,即计算卸载。边缘服务器在物理上靠近终端用户和现场应用,因此处理请求的速度比集中式服务器如云服务器,能够为终端用户提供低延迟、高带宽、海量接入服务。
固定边缘服务器:部署在基站、路侧单元等无法移动的固定地点的边缘服务器,一经部署不能移动,也不容易做实时的计算能力调整;
车载边缘服务器:将任意车辆搭载边缘服务器,形成车载边缘服务器,在行驶过程中实时为其覆盖范围内的终端车辆提供计算卸载服务,处理周围的终端节点即车辆产生的计算请求;车载边缘服务器还可与远端的云计算和车联网控制中心通信,上交精炼数据以供汇总,以及接受控制中心的配置指令。
本发明的总体思路是:
首先,建立一个基于UNet的交通预测模型,对各时间片各地区的交通量进行预测。接下来,基于预测的数据,在固定边缘服务器和车载边缘服务器之间运用孤立森林算法分配各自的工作配额。最后,设计调度车载边缘服务器的优化算法,规划其移动路径,在行驶中对固定边缘服务器过载的区域进行补偿,以充分发挥其灵活性,实现对有限计算资源的高效调度。
下面,结合附图对本申请进行进一步的说明。
具体实施例1:
如图1,一种车载边缘服务器协同固定边缘服务器的边缘动态集成方法,具体包括以下步骤:
步骤一、数据网格化:
将某地理范围内的数据网格化,即将地图划分为多个网格,每个网格代表一个独
立的地理区域,将车辆位置和负载从经纬度归纳到对应网格。例如:将北京市划分为网格的二维地图,网格的索引集记为,其中表示网格的
总数即1024;在一个网格中,可部署如下组件:
如图2,UE(UserEquipment)代表用户终端,即IoV用户设备或车辆节点。用户终端将产生计算任务,并将这些计算任务转移到车载边缘服务器。BS(BaseStation)代表基站,基站的主要职责为建立和维护任务调度器、车载边缘服务器和用户终端UE之间的通信链接。TS(TaskScheduler)代表任务调度程序,可通过基站收集计算任务,并选择车载边缘服务器来执行每个任务。FES(FixedEdgeSever)为固定边缘服务器,可接收与执行TS分配的计算任务。VES(Vehicle-mountedEdgeServer)为车载边缘服务器,由于车辆在城市环境下的流动性,FES的工作量可能不稳定。因此,引入了车载边缘服务器来增加弹性计算资源,以适应用户高时空动态需求。
步骤二、针对城市交通流量的预测:
本实施例采用一种神经网络模型,该模型专为预测城市环境中的交通流设计。区别于传统方法,该模型先使用已知的,如前几年,车流量数据训练出预测模型,后输入需要预测的数据的前一周数据,对未来七天实现的相同时间点进行预测。即运用训练好的预测模型,输入前一周每天每个时间片所有网格的车流量数据,如30分钟为一个时间片,一天被分为48个时间片,来预测未来一周每天每个时间片的车流量数据。通过上述的时间片对齐的策略,使预测结果精确到每个时间片,可以更有效地部署资源,而且在相同的时间片内,不同日期的负载模式波动极小,所以可以选择基于时间一致性的UNet架构。
UNet体系结构主要包括一个编码器和一个解码器,这两者都由特征提取块组成。
对于交通流量预测,本实施例引入了两个特殊卷积包括分组卷积和逐点卷积,特征提取块
由分组卷积和逐点卷积组成。在上述的网络架构中,如图3,对于神经网络中的任一特征图,卷积核为,输出特征图为,那么标
准卷积操作可以被描述为:;
其中表示卷积操作符,和表述特征图的输入和输出通道数,和表示
特征图的长和宽,表示卷积核的大小,和输出特征图的长和宽,具体可以通过下式
计算得到:
;
在该式中,表示卷积核移动的步长,表示特征图填充的长度。
特殊的,本实施例采用了两种特殊卷积的组合构成特征提取块,分别为逐点卷积和分组卷积。对于逐点卷积,为标准卷积
的特殊形式。对于分组卷积,若我们假设分组数量为,那么对于输入特征会将其通道
划分为份,每一份,其对应的输出特征图维度为;;
基于这两种特殊的卷积,我们构建一次特征图的特征提取块为:;
例如上述模型中的和均为的数据,其中,代表连续七天中
某一特定时间片的车流数据,代表北京流入与流出数据,北京市被分为个网格;
则输入为的历史数据,即上一周的车流入流出数据,通过深度学习UNet用
内部大量已知数据,如北京四年的历史车流数据,进行模型训练,确定内部参数,最后输出的数据,即未来一周个网格某一时间片的车流量预测数据;
具体的,在使用上述模型进行交通流量预测时,可以将网络的隐藏特征维数设
置为512,并使用批量大小为16;选择Lion优化器进行初始学习速率为0.002的训练,并采用
余弦退火策略来动态调整学习速率,提高了模型的训练性能;为了训练上述模型,可以使用
均方误差损失MSELoss来最小化预测和实际值之间的差异。
为了对上述预测模型进行验证,进行了一项全面的比较研究,包括在TaxiBJ数据集上与目前使用的最佳方法TAU和SimVP进行比较。为了确保公平的比较,同样使用来自相同的前7天的数据进行预测,保证实验设置相匹配。此外,为了验证我预测模型的有效性,建立Avg作为空白参照组,不进行预测,只在同一时间点的平均数据,以获得接下来7天相同时间点的数据,具体数据如表1:
表1:各类预测方法的计算成本以及均方误差表
GICUNe | TAU | SimVP | STResNet | |
计算成本 | 1.37 | 6.12 | 9.42 | 3.14 |
均方误差 | 0.0155 | 0.0185 | 0.0190 | 0.0223 |
通过表1可知,在交通流量预测方面,本实施例公开的预测模型优于其他方法,即使在交通流量相对异常的星期天,上述预测模型也保持着优越的表现。此外,从数据计算成本的角度来看,本实施例提供的方法记录的最高计算成本仅为1.37G,明显低于TAU的6.12G、SimVP的9.42G和STResNet的3.14G。同时,该预测模型仍然保持了较高的预测精度,平均均方误差为0.0155,明显优于TAU的0.0185,SimVP的0.0190和STResNet的0.0223;
综上所述,本实施例公开的预测模型不仅实现了预测结果的绝对差异,而且显著降低了计算成本,为未来车载边缘服务器的部署提供了准确的交通流量预测数据。
步骤三、固定边缘服务器与车载边缘服务器配额规划:
根据未来一周的车流量预测数据,部署固定边缘服务器和车载边缘服务器的主要候选网格计算不同时间段的平均车辆流量和变化系数,捕捉交通的规模和变化。交通量和变异系数较高的网格被确定为部署固定边缘服务器和车载边缘服务器的主要候选网格,可选的,选择交通量和变异系数均在前10-30%,优选为20%的网格;而其他网格则仅依赖于固定边缘服务器;本实施例挑选出48个重点研究部署固定边缘服务器和车载边缘服务器的主要候选网格,并用孤立森林算法来检测这些网格内用户需求显著增加的时间片,这些时间片被称为激增时段。孤立森林算法通过递归划分数据空间,有效地区分异常数据和正常数据。由于树结构内的独立,树深较浅的数据点更容易被识别为异常。将树深较浅的数据点,且数据点的流量超过该网格流量75% 的时段定义为激增时段。这个条件确保能捕获与正常时段相比交通量显著增加的时段,以便在该时段调度车载边缘服务器满足用户需求。例如:图4为174号网格一个月车流量图,车流量激增时段在图中用点标出;
且在挑选出网格车流量激增时段后,需进一步明确固定边缘服务器与车载边缘服务器部署容量。本实施例以挑选出的激增时段的最小车流量,作为需要部署固定边缘服务器的最大容量。以激增时段最大车流量与最小车流量之差作为需要部署车载边缘服务器的计算容量。这一关键步骤确保了固定边缘服务器能够在大多数时间内满足每个网格的基本计算需求。且在负载需求显著增长的时期,也能协同利用车载边缘服务器和固定边缘服务器的计算资源来处理固定边缘服务器单独无法完成的计算任务。
下面通过具体实例进行详细说明:
首先,对2016年3月内1488个不同时间间隔的所有网格进行平均车流量的计算,并将这些网格按照车流量降序排列。在挑选出车流量最高的前300个网格后,进一步计算了这些网格的变异系数,并从中选出变异系数最高的前48个网格。这些网格不仅表现出车流量的高度集中,还在不同的时间间隔内显示出显著的波动特性。
接下来,对这些具有高度动态和变化特性的网格进行边缘计算资源的优化和分配,目的是在有限的FES和VES资源下实现最有效的部署。针对每一个区域,为其FES分配了足够的计算资源,以满足在常规时间段内出现的最大工作负载。在用户终端UE数量突然增加的特殊情况下,要求FES充分发挥其计算潜能以应对峰值工作负载,同时将超出能力的工作负载适当地转移给VES进行处理。
具体的,如图4,该图展示了2016年3月第177个网格在各个时间段内工作负载的变化趋势,在第799个时间段,工作量峰值达到330。在确定该网格所需的最大固定边缘服务器的计算资源时,应先排除用户终端UE数量激增时段,然后从剩余的时间片中选取工作负载最大的值。如图5所示,该值为221个工作量单位。在用户终端UE数量显著增长的特定时间段,本实施例将部分工作负载适当地分配给车载边缘服务器VES,如图6中所示,该分配的工作量为109个单位;通过上述方法迅速适应动态负载变化。
步骤四、车载边缘服务器的移动调度优化:
在确定各网格各个时间片内对应的车载边缘服务器计算容量和数量后,规划多辆车载边缘服务器在不同网格之间的移动路径,从而满足:1、所有网格对车载边缘服务器的需求都能得到满足,即服务用户;2、总移动路径最短,即节能。
如图7所示,图中纵坐标为挑选出需要重点部署车载边缘服务器的网格编号,横坐标为一天的48个时间片,图中展示了需重点部署车载边缘服务器的区域和各时间片需补充的计算资源量。图中箭头表示某车载边缘服务器的规划路径,即在10点30分从177号网格移动至179号网格,然后在后续时间片一直停留在179号网格。问题即寻找所有这样的车载边缘服务器的路径,满足上一段列出的两点要求。
为了解决车载边缘服务器的调度问题,即如何优化车载边缘服务器路径,以满足特定时间窗内不同区域的边缘计算资源需求并尽量降低能耗的问题。本实施例将该问题概括为具有硬时间窗的车辆路径问题,涉及到严格的时间约束。为了解决该问题,本实施例提出一种类优先路由迭代局部搜索算法,具体包括以下步骤:
1、设定一个初始空解作为车载边缘服务器的调度方案,设置迭代计数器 为 0,用于后续控制算法的迭代次数;
2、使用DBSCAN算法进行聚类,并为每个聚类生成随机的初始解;此算法对车载边缘服务器的部署节点A 进行聚类,得到多个簇,如C1,C2, ...CK,和一些未被归类到任何簇的噪声点N;
3、生成簇内路径,连接簇类路径;对于每一个簇,随机在其内部产生一条路径,并将不同集群之间的路径连接起来,形成一个整体的路线,作为路线规划的初始解决方案。对于那些未被归类到簇的噪声点,将它们加入到已有的路径中,或者为它们独立生成新路径;本实施例考虑到要部署的区域在地理上是成簇的,如图8所示,所以在CFRS阶段构建的初始解决方案有望提高算法的收敛速度。
4、迭代优化。本实施例应用迭代局部搜索方法来不断改进初始值。并在迭代的过
程中,使用算法随机选择两个节点进行交换,以增强当前的路径;例如:将原始路
径变为,通过比较新路径和原始路径的长度,如果新路径较短,
则接受变化,并将新路径视为当前路径;否则,保持原始路径不变;同时,引入惩罚矩阵来记
录频繁的节点对交换的实例,向具有高频交换的节点对分配更高的惩罚值,由于上述的节
点对在过去的计算过程中会导致不利的结果。并根据惩罚值的大小选择分布节点,惩罚值
越高,选择节点对的概率就越低。通过这种机制,能够减少选择过去经常交换但结果次优的
节点对的可能性。通过上述方法,能够逃避局部最优,并寻找全局更好的解决方案。通过重
复上述步骤,直到达到最大迭代计数,生成最终解。经过一系列的迭代优化后,能够输出当
前得到的最优车载边缘服务器调度方案。
验证:通过对比试验验证本实施例所述方法的有效性:首先:分别进行静态部署和混合静态动态部署;其中,静态部署为:对于每个网格,为每个网格的FES分配足够数量的计算资源,以满足在最大工作负载假设下潜在的计算卸载请求;混合静态动态部署为:使用固定边缘服务器与移动单元来分配网格的工作负载,以便由两者都进行处理。然而,一个关键的区别在于,混合静态动态部署中的每个VES在完成单个调度任务后返回到基地,然后继续执行新的调度任务;边缘动态集成部署为:使用本实施例提出的方法,充分考虑负载的时空动态性,考虑车辆位置、移动距离、车载边缘服务器的计算力和负载状况等多方面因素而进行的动态资源调度;
对如图7中的网格177进行分析,得到如图9的结果,其中,网格177中的用户终端UE的计算资源需求,以及混合静态动态部署和静态部署方案下的计算资源分配;其中,静态部署方案由于其静态边缘服务器放置策略,无法根据终端需求的动态变化灵活分配计算资源,导致大多数情况下资源利用率较低。相比之下,边缘动态集成部署具有灵活的资源分配策略,实现了更高的资源利用率;其中,图9中的静态部署用SD表示;混合静态动态部署用MSDD表示;边缘动态集成部署用IVAMEN表述。
同时,根据图10显示的在一天中的不同时间内补充48个选定网格的计算资源所需的平均车载边缘服务器VES数量,可以清楚地看出,大约有三个高峰期需要部署更多的车载边缘服务器VESs来满足终端的计算需求。混合静态动态部署方法中每个车载边缘服务器VES在完成单个调度任务后返回到基地会导致不必要的能耗浪费;图11比较了三种不同的部署方法在每小时的平均计算资源利用率方面的性能。结果表明,在高终端计算需求时期,边缘动态集成部署方法显著优于其他两种方法;图10-11中的静态部署用SD表示;混合静态动态部署用MSDD表示;边缘动态集成部署用IVAMEN表述。
最后,对总计算资源使用量进行统计,如图12,在总计算资源利用率方面,边缘动态集成部署方法比混合静态动态部署方法高出约4.83%,比静态部署方法高出约10.6%;简言之,边缘动态集成部署方法不仅在满足用户终端需求的同时,提高了计算资源利用率,而且显著降低了总计算资源使用量。从经济的角度来看,它提供了明显的优势。这表明,在车联网的背景下,边缘动态集成部署方法成功地解决了由时空因素引起的计算资源需求的波动,为车载边缘服务器的部署提供了一个经济上可行的解决方案。图12中的静态部署用SD表示;混合静态动态部署用MSDD表示;边缘动态集成部署用IVAMEN表述。
总之,本发明以城市交通规划为基础,提供了一种车载边缘服务器协同固定边缘服务器的边缘计算动态集成方案,建立了一个基于UNet的交通预测模型,对各网格各时间片的交通量进行时间片对齐的预测;并基于预测的数据,在固定边缘服务器和车载边缘服务器之间运用孤立森林算法合理地分配二者的工作负载;最后,利用调度车载边缘服务器和规划其路径的方法,实现对有限计算资源的高效调度,使固定边缘服务器提供基础覆盖,车载边缘服务器用于动态补偿;该解决方案为车联网环境中边缘计算资源的动态调整提供了一种全面的方法,实现了边缘计算资源的有效利用,降低了计算资源的能耗。本发明所述的方法具有安全性高,载荷容量大,成本低的特点。
以上公开的仅为本发明的几个具体实施场景,但是,本发明并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。上述本发明序号仅仅为了描述,不代表实施场景的优劣。
Claims (9)
1.一种车载边缘服务器协同固定边缘服务器的边缘动态集成方法,其特征在于,包括:将待研究区域的地图划分为至少2个网格,并在任一所述网格中部署用户终端,将所述用户终端产生的任务转移至车载边缘服务器;通过预测模型,对任一所述网格的交通流量进行预测,得到车流量预测数据;根据所述车流量预测数据,得到所述网格在设定时间内的车载边缘服务器计算容量;在所述网格满足车载边缘服务器计算容量的前提下,使至少2辆车载边缘服务器在不同所述网格之间的移动路径最短,以得到车载边缘服务器的最优调度结果;所述根据所述车流量预测数据,得到所述网格在设定时间内的车载边缘服务器计算容量,包括:根据所述车流量预测数据,得到不同时间段的平均车辆流量和变化系数,并将交通量和变化系数均在前10%-30%的网格部署固定边缘服务器和车载边缘服务器的主要候选网格,其他网格则仅依赖于固定边缘服务器;使用孤立森林算法来检测任一所述网格内用户需求,得到所述网格内车流量激增时段;以所述网格内车流量激增时段的最小车流量作为需要部署固定边缘服务器的最大容量,且以所述网格内车流量激增时段的最大车流量与最小车流量之差作为需要部署车载边缘服务器的计算容量。
2.根据权利要求1所述的车载边缘服务器协同固定边缘服务器的边缘动态集成方法,其特征在于,所述通过预测模型,对所述待研究区域的交通流量进行预测,得到车流量预测数据,包括:构建时间一致性的神经网络模型;使用已知的车流量数据训练所述时间一致性的神经网络模型,得到预测模型;将待预测时间点以前的第一时段中的每天每个时间片对应的所有网格的车流量数据作为输入数据,输入所述预测模型中,得到待预测时间点的第二时段中每天每个时间片的车流量预测数据。
3.根据权利要求2所述的车载边缘服务器协同固定边缘服务器的边缘动态集成方法,其特征在于,所述构建时间一致性的神经网络模型,包括:通过分组卷积和逐点卷积构建特征提取块;通过所述特征提取块构建神经网络模型。
4.根据权利要求3所述的车载边缘服务器协同固定边缘服务器的边缘动态集成方法,其特征在于:对于神经网络中的任一特征图,卷积核为,输出特征图为/>,那么标准卷积操作被描述为:;其中,*表示卷积操作符,/>和/>表述特征图的输入和输出通道数,/>和表示特征图的长和宽,/>表示卷积核的大小,/>和/>输出特征图的长和宽,且;其中,/>表示卷积核移动的步长,/>表示特征图填充的长度。
5.根据权利要求3所述的车载边缘服务器协同固定边缘服务器的边缘动态集成方法,其特征在于:所述特征提取块表示为:;其中,X和Y分别表示特征提取模块的输入和输出。
6.根据权利要求1所述的车载边缘服务器协同固定边缘服务器的边缘动态集成方法,其特征在于,所述将待研究区域的地图划分为至少2个网格,并在任一所述网格中部署用户终端,将所述用户终端产生的任务转移至边缘服务器,包括:将待研究区域的地图划分为S×S网格的二维地图,并将网格的索引集记为A = {1,2,……,M},其中M表示网格的总数;在任一所述网格中部署固定边缘服务器、用户终端以及车载边缘服务器,并将所述用户终端产生的任务转移到所述固定边缘服务器和车载边缘服务器中,通过所述固定边缘服务器和/或车载边缘服务器来执行任一任务。
7.根据权利要求1所述的车载边缘服务器协同固定边缘服务器的边缘动态集成方法,其特征在于,所述在所述网格满足车载边缘服务器计算容量的前提下,使至少2辆车载边缘服务器在不同所述网格之间的移动路径最短,包括:设定一个初始空解作为车载边缘服务器的调度方案,并设置迭代次数;进行聚类,并为每个聚类生成随机的初始解;生成簇内路径,连接簇类路径;通过迭代,最终得到车载边缘服务器在不同所述网格之间的最短移动路径。
8.根据权利要求7所述的车载边缘服务器协同固定边缘服务器的边缘动态集成方法,其特征在于,所述生成簇内路径,连接簇类路径,包括:对于所述聚类中的每一个簇,随机在其内部产生一条路径,并将不同集群之间的路径连接起来,形成一个整体的路线,作为路线规划的初始解决方案;将未被归类到簇的噪声点加入到已有的路径中,或者将未被归类到簇的噪声点独立生成新路径。
9.根据权利要求7所述的车载边缘服务器协同固定边缘服务器的边缘动态集成方法,其特征在于,所述通过迭代,最终得到车载边缘服务器在不同所述网格之间的最短移动路径,包括:利用迭代局部搜索方法来不断改进初始值,直到达到预设的最大迭代计数,生成最终解,输出当前得到的最优车载边缘服务器调度方案;且在迭代局部搜索方法来不断改进初始值的过程中,使用2-opt算法随机选择两个节点进行交换,并且引入惩罚矩阵记录频繁的节点对交换。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311536696.5A CN117255368B (zh) | 2023-11-17 | 2023-11-17 | 车载边缘服务器协同固定边缘服务器的边缘动态集成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311536696.5A CN117255368B (zh) | 2023-11-17 | 2023-11-17 | 车载边缘服务器协同固定边缘服务器的边缘动态集成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117255368A CN117255368A (zh) | 2023-12-19 |
CN117255368B true CN117255368B (zh) | 2024-02-27 |
Family
ID=89128050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311536696.5A Active CN117255368B (zh) | 2023-11-17 | 2023-11-17 | 车载边缘服务器协同固定边缘服务器的边缘动态集成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117255368B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117573376B (zh) * | 2024-01-16 | 2024-04-05 | 杭州天舰信息技术股份有限公司 | 一种数据中心资源调度监控管理方法与系统 |
CN117992230A (zh) * | 2024-02-21 | 2024-05-07 | 北京驭达科技有限公司 | 一种基于自主学习的车载边缘计算方法及系统 |
CN117952285B (zh) * | 2024-03-27 | 2024-06-14 | 广东工业大学 | 针对无人机移动充电站的动态调度方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113391647A (zh) * | 2021-07-20 | 2021-09-14 | 中国人民解放军国防科技大学 | 多无人机边缘计算服务部署及调度方法和系统 |
WO2022193511A1 (zh) * | 2021-03-18 | 2022-09-22 | 湖北亿咖通科技有限公司 | 一种地图数据传输方法、系统、边缘服务器及存储介质 |
CN115361689A (zh) * | 2022-08-08 | 2022-11-18 | 广东工业大学 | 固定站点与无人机搭载边缘服务器的协同部署方法 |
WO2023108718A1 (zh) * | 2021-12-16 | 2023-06-22 | 苏州大学 | 一种云边协同光载网络频谱资源分配方法及系统 |
CN116339748A (zh) * | 2023-03-06 | 2023-06-27 | 南京航空航天大学 | 基于移动性预测的边缘计算网络中的自适应应用程序部署方法 |
CN116600347A (zh) * | 2023-05-25 | 2023-08-15 | 上海电器科学研究所(集团)有限公司 | 一种基于路径预测的边缘计算动态调整和卸载方法 |
CN116828515A (zh) * | 2023-06-15 | 2023-09-29 | 浙江大学 | 一种车联网下基于时空图卷积的边缘服务器负载预测方法 |
CN116866931A (zh) * | 2023-07-18 | 2023-10-10 | 广东工业大学 | 一种城市移动边缘服务器部署方法 |
-
2023
- 2023-11-17 CN CN202311536696.5A patent/CN117255368B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022193511A1 (zh) * | 2021-03-18 | 2022-09-22 | 湖北亿咖通科技有限公司 | 一种地图数据传输方法、系统、边缘服务器及存储介质 |
CN113391647A (zh) * | 2021-07-20 | 2021-09-14 | 中国人民解放军国防科技大学 | 多无人机边缘计算服务部署及调度方法和系统 |
WO2023108718A1 (zh) * | 2021-12-16 | 2023-06-22 | 苏州大学 | 一种云边协同光载网络频谱资源分配方法及系统 |
CN115361689A (zh) * | 2022-08-08 | 2022-11-18 | 广东工业大学 | 固定站点与无人机搭载边缘服务器的协同部署方法 |
CN116339748A (zh) * | 2023-03-06 | 2023-06-27 | 南京航空航天大学 | 基于移动性预测的边缘计算网络中的自适应应用程序部署方法 |
CN116600347A (zh) * | 2023-05-25 | 2023-08-15 | 上海电器科学研究所(集团)有限公司 | 一种基于路径预测的边缘计算动态调整和卸载方法 |
CN116828515A (zh) * | 2023-06-15 | 2023-09-29 | 浙江大学 | 一种车联网下基于时空图卷积的边缘服务器负载预测方法 |
CN116866931A (zh) * | 2023-07-18 | 2023-10-10 | 广东工业大学 | 一种城市移动边缘服务器部署方法 |
Non-Patent Citations (2)
Title |
---|
Joint Offloading with Fixed-Site and UAV-Mounted Edge Servers Based on Particle Swarm Optimization;Hong Zhang,Sheng Jin,Zhihai Tang,Le Chang;2023 9th International Conference on Control Science and Systems Engineering (ICCSSE);全文 * |
面向数字孪生边缘网络的区块链分片及资源自适应优化机制;蒋丽,谢胜利,田辉;通信学报;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117255368A (zh) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN117255368B (zh) | 车载边缘服务器协同固定边缘服务器的边缘动态集成方法 | |
Yadav et al. | Energy-latency tradeoff for dynamic computation offloading in vehicular fog computing | |
Ning et al. | Deep reinforcement learning for intelligent internet of vehicles: An energy-efficient computational offloading scheme | |
Yang et al. | Efficient mobility-aware task offloading for vehicular edge computing networks | |
Xu et al. | A computation offloading method for edge computing with vehicle-to-everything | |
Midya et al. | Multi-objective optimization technique for resource allocation and task scheduling in vehicular cloud architecture: A hybrid adaptive nature inspired approach | |
CN111277437B (zh) | 一种智能电网的网络切片资源分配方法 | |
Huang et al. | Energy-efficient offloading decision-making for mobile edge computing in vehicular networks | |
CN110650457B (zh) | 一种车联网中任务卸载计算成本与时延的联合优化方法 | |
Yang et al. | Learning based channel allocation and task offloading in temporary UAV-assisted vehicular edge computing networks | |
CN106341826B (zh) | 基于虚拟化技术的面向无线电力专网的资源优化分配方法 | |
Wang et al. | Radio resource allocation for bidirectional offloading in space-air-ground integrated vehicular network | |
Kovalenko et al. | Robust resource allocation using edge computing for vehicle to infrastructure (v2i) networks | |
CN113918240A (zh) | 任务卸载方法及装置 | |
Wang et al. | Complex network theoretical analysis on information dissemination over vehicular networks | |
CN106060145A (zh) | 一种分布式多云数据中心中基于收益的请求访问控制方法 | |
Li et al. | Vehicular edge cloud computing: Depressurize the intelligent vehicles onboard computational power | |
Wang et al. | QoS‐enabled resource allocation algorithm in internet of vehicles with mobile edge computing | |
CN112055335A (zh) | 一种基于noma的上行车载通信资源分配方法及系统 | |
Chang et al. | Edge server placement for vehicular ad hoc networks in metropolitans | |
Wang et al. | Vehicular computation offloading in UAV-enabled MEC systems | |
Xia et al. | Location-aware and delay-minimizing task offloading in vehicular edge computing networks | |
Naren et al. | A survey on computation resource allocation in IoT enabled vehicular edge computing | |
Mirza et al. | MCLA task offloading framework for 5G-NR-V2X-based heterogeneous VECNs | |
Zhu et al. | Optimal-delay-guaranteed energy efficient cooperative offloading in VEC networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |