CN110213796A - 一种车联网中的智能资源分配方法 - Google Patents
一种车联网中的智能资源分配方法 Download PDFInfo
- Publication number
- CN110213796A CN110213796A CN201910448363.4A CN201910448363A CN110213796A CN 110213796 A CN110213796 A CN 110213796A CN 201910448363 A CN201910448363 A CN 201910448363A CN 110213796 A CN110213796 A CN 110213796A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- server
- task
- resource
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013468 resource allocation Methods 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000006855 networking Effects 0.000 title claims abstract description 17
- 238000005457 optimization Methods 0.000 claims abstract description 27
- 238000013528 artificial neural network Methods 0.000 claims description 53
- 230000006870 function Effects 0.000 claims description 51
- 230000033001 locomotion Effects 0.000 claims description 41
- 230000005540 biological transmission Effects 0.000 claims description 28
- 238000009826 distribution Methods 0.000 claims description 24
- 238000004891 communication Methods 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 12
- 230000007613 environmental effect Effects 0.000 claims description 9
- 238000013527 convolutional neural network Methods 0.000 claims description 8
- 238000011156 evaluation Methods 0.000 claims description 6
- 239000012634 fragment Substances 0.000 claims description 6
- 230000009471 action Effects 0.000 claims description 5
- 238000005265 energy consumption Methods 0.000 claims description 4
- 238000000342 Monte Carlo simulation Methods 0.000 claims description 3
- 210000004218 nerve net Anatomy 0.000 claims description 3
- 238000005096 rolling process Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000003595 spectral effect Effects 0.000 claims description 3
- 239000003795 chemical substances by application Substances 0.000 claims description 2
- 239000004744 fabric Substances 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/56—Provisioning of proxy services
- H04L67/568—Storing data temporarily at an intermediate stage, e.g. caching
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/16—Central resource management; Negotiation of resources or communication parameters, e.g. negotiating bandwidth or QoS [Quality of Service]
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明公开了一种车联网中的智能资源分配方法,将人工智能算法应用于解决车辆网中的资源分配问题,从而最大化网络运营商的收益。具体地,建立基站——路边节点联合车辆边缘计算和缓存资源调度框架为车辆分配请求的资源;结合运营商收入和用户体验质量建立网络运营商收益函数评估资源分配问题,建立联合优化问题最大化网络运营商收益;通过深度强化学习求解上述联合优化问题,得到智能化的任务调度和资源分配方案,并将得到的方案布置在智能化控制系统中,对车辆请求和服务器资源进行智能化的调度和安排。本发明的车联网中的智能资源分配方法能够在考虑用户体验的同时,最大化网络运营商收益,为人工智能在实际化应用提供了一个新的思路和角度。
Description
技术领域
本发明属于车辆交通领域,具体涉及一种车联网中的智能资源分配方法,尤其涉及到一种基站——路边节点联合车辆边缘计算和缓存资源调度框架和人工智能算法相结合的方法,对车辆所需资源进行智能化调度和相关资源分配。
背景技术
随着5G时代的到来,智能交通系统在当今社会发挥着至关重要的作用,通过向用户提供高质量的服务最大化提升终端设备使用者的生活质量。物联网技术和无线通讯技术的飞速发展使得智能车联网走进了人们的日常生活,为车辆驾驶员提供了更舒适的驾驶体验,更高质量的流服务以及更精确的车辆线路规划服务。然而随着车辆数目和车辆产生数据的日益增加,服务运营商迫切地需要提升车联网系统的QoS和用户的QoE以便于吸引更多的用户。移动边缘计算(Mobile Edge Computing,MEC)技术让有限的资源能够合理地分配给请求资源的用户,从而满足用户任务的时延限制,减少网络中的能源消耗。现有的一些资源分配方案大多忽略了车联网中车辆的移动性和资源请求的时变性,使得这些方案在现实使用中存在一定局限。因此需要研究人员提出一种结合车辆状态和任务动态信息的实用性高,时变性强的资源分配方案,从而保证车联网中用户任务的高质量完成,并且提高网络运营商的服务收益。
发明内容
本发明的目的是针对于现有研究实用性差,时变性弱的不足,结合MEC技术和人工智能算法,提出一种车联网中智能缓存资源分配方案。本发明基于现有的无线通信技术,为智能交通系统提出了一种基站——路边节点联合车辆边缘计算和缓存资源调度框架,其包含了装备MEC服务器的基站和几个路边节点为车辆用户提供内容缓存和计算分载服务。在此框架的基础上,网络运营商调度服务器资源满足车辆用户的内容下载请求和计算需求,将资源分配问题公式化形成联合优化问题来最大化网络运营商收益。最后,建立智能化控制系统利用人工智能算法高效地解决联合优化问题,从而完成车辆任务分配和服务器资源调度。本发明首次使用新颖的联合服务框架和人工智能算法相结合的方法,实用、高效地解决了智能缓存资源分配问题,从而最大化网络运营商收益,为车联网的发展和人工智能的实际应用提供了一个良好的范例。
本发明的技术方案:
一种车联网中的智能资源分配方法,其包括以下步骤:
步骤1:建立基站——路边节点联合车辆边缘计算和缓存资源调度框架,所述框架包含移动的车辆、装备有智能边缘服务器的一个基站和多个路边节点,所述框架具有车辆——服务器通信模型、车辆——服务器计算模型和车辆——服务器缓存模型,其中:
所述车辆——服务器通信模型:
当车辆行驶在路边节点的覆盖范围内时,车辆可以和路边节点的服务器之间建立稳定的信道进行数据传输,设Ti j为车辆i在路边节点的服务器j的覆盖范围内停留的时间,在此时间内车辆环境和传输参数不变,车辆需要同时进行计算任务的分载和请求资源的下载,车辆和服务器之间信道的带宽包括计算所需带宽和缓存下载带宽,即其中是时间段t内车辆计算所需带宽,是时间段t内车辆下载所需资源占用的带宽,当车辆用户需要下载或者上传数据,服务器会给连接安排正交频分复用信道,基于香农理论,车辆i和路边节点的服务器j之间的数据传输速率为:
其中是服务器j为车辆i分配的频谱带宽,为服务器j和车辆i之间在时间段t的信噪比;
所述车辆——服务器计算模型:
车辆向网络运营商发送计算任务请求,网络运营商决定分配服务器空闲计算资源给车辆以保证车辆能够在其可接受时延范围内完成计算,基站可以覆盖到智能交通系统内的任一车辆,基站和离车辆最近的路边节点将采用合作的方式对任务进行共同计算,设车辆i在时间段t内完成计算任务大小为t的长度表示为|t|,其中在路边节点上计算,在基站上计算;计算任务所需的CPU周期为计算任务大小为t时间段路边节点和基站分别为车辆i分配的CPU资源fij(t)、fi0(t)分别为:
为了保证计算任务的分载,运营商需要分配足够的带宽保证计算任务的上传,则路边节点和基站分别为车辆i分配的用于计算任务的带宽分别为:
表示服务器j与车辆i之间在时间段t内用于传输计算任务的信道的信噪比,表示基站与车辆i之间在时间段t内用于传输计算任务的信道的信噪比;
所述车辆——服务器缓存模型:
车辆需要下载任务包括两部分相关信息,请求下载内容的总大小ci和请求下载内容的流行程度pi;设车辆i在时间段t内请求下载内容大小为t的长度表示为|t|,其中在路边节点上下载,在基站上下载;则t时间段路边节点和基站分别为车辆i分配的缓存资源gij(t)、gi0(t)分别为:
则路边节点和基站分别为车辆i分配的用于下载缓存任务的带宽分别为:
表示服务器j与车辆i之间在时间段t内用于传输下载缓存的信道的信噪比,表示基站与车辆i之间在时间段t内用于传输下载缓存的信道的信噪比;并且当车辆接到了所有的内容片段,车辆可以将这些片段组合成其所需的下载内容;并且因为缓存内容大小有限,同一个服务器不能缓存全部车辆所需下载的内容;
步骤2:基于步骤1)中的建立的框架,实例化联合优化目标优化函数,作为所述智能资源分配方法的基础;
2.1)综合网络运营商对于计算服务和缓存服务的收入以及用户的QoE质量建立运营商收益函数,所述运营商收益函数包括:服务收入、计算任务开销、缓存任务开销、用户QoE惩罚,其中:
所述服务收入为网络运营商向服务请求用户收取的费用,设用户每需要完成1GB的计算任务需要向运营商支付α,完成1GB的下载任务需要支付β,则在时间段t中的服务收入为:
其中V是经过智能交通系统的车辆集合,M是智能交通系统中的服务器集合,包括基站的服务器和路边节点的服务器;
所述计算任务开销为网络运营商完成车辆用户计算任务的开销,其包括通信开销和CPU计算开销,所述通信开销包括请求数据传输信道带宽的开销和车辆接入服务器虚拟网络的信道开销,时间段t内的总计算任务开销为:
其中δR和δ0分别为路边节点(RSU)和基站的带宽开销,νR和ν0分别为RSU和基站接入虚拟网络的开销,ηR和η0表示RSU和基站完成一个CPU周期的能量消耗,ωR和ω0表示RSU和基站的计算资源消耗;
时间段t内的缓存任务开销包括通信开销和缓存开销,其中通信开销的计算方法与所述计算任务开销中的通信开销相同,缓存开销为使用服务器缓存所需支付的开销,时间段t内的总缓存任务开销为:
其中和分别表示RSU和基站的缓存开销;
用户QoE惩罚涉及智能交通系统对用户的服务体验评价,用户QoE惩罚:
其中σca和σcp分别是请求任务和计算任务的惩罚系数,Ti为车辆i通过智能交通系统覆盖区域的时间;如果当前的资源分配方案不能够在车辆离开前完成计算或下载缓存任务,惩罚项σ(i,Ti)将是负数;反之,惩罚项σ(i,Ti)将等于0;
综合上述四项,运营商收益PMNO为:
2.2)联合考虑计算分载、边缘缓存和带宽资源分配,目标优化函数为:
P:
s.t.
其中,Bj、Fj、Gj分别表示服务器j的带宽、计算资源和缓存资源大小;
C1、C3和C5是对分配给车辆用户的带宽、计算资源和缓存资源大小分别进行限制;
C2、C4和C6保证了分配给车辆用户的带宽、计算资源和缓存资源总和不能超过服务器所能提供的最大值;
C7保证了服务器为车辆i提供的缓存资源不能超过车辆的需要;
C8保证了服务器为车辆i提供的计算资源不能超过车辆的计算需要;
步骤3:在智能交通系统中具有智能化控制系统,该智能化控制系统接收车辆和服务器的状态作为当前的环境信息,包括车辆的移动信息、车辆计算任务和内容下载的相关信息以及服务器可用资源的相关信息;在得到上述环境信息后,形成深度强化学习中的三要素:状态、动作和奖励,其中:
所述状态为车辆和服务器的状态:在时间段t内的智能交通系统的状态空间为st={Di(t),Fj(t),Gj(t),Bj(t)},其中Di(t)为车辆用户的状态集合,包括车辆的移动速度、车辆的所在位置、下载内容的流行程度、所需下载内容的大小、所需计算内容的大小、请求缓存资源大小、请求计算资源大小、计算任务所需的CPU周期数;Fj(t)、Gj(t)和Bj(t)分别为服务器的可用计算资源、可用缓存资源和可用带宽;
所述动作决定一个服务器为车辆分配资源以及为车辆分配资源的量,智能化控制系统接收到不同的请求后派遣不同的服务器资源给车辆用户进行任务的计算和内容的下载,在时间段t内智能交通系统的动作空间为at={fij(t),gij(t),bij(t)},其中fij(t)、gij(t)和bij(t)分别表示服务器j为车辆i分配的计算资源、缓存资源和带宽的大小,fij(t)、gij(t)和bij(t)都是连续变量从而保证智能交通系统中的资源准确分配;
基于当前的状态和智能化控制系统采取的动作,智能化控制系统将会获得一个奖励值,所述奖励值与目标优化函数相关,采用P(t)=Rrev(t)-Cca(t)-Ccp(t)作为智能交通系统的奖励函数,目标优化函数是奖励函数的累计值;
步骤4:基于步骤3)得到的状态空间、动作空间和奖励函数,进行基于深度强化学习算法的智能任务安排和资源调度,深度强化学习算法为DDPG算法,其中包含“演员”网络和“评价”网络,每一个网络中包含在线深度神经网络和目标深度神经网络,深度强化学习算法还包含经验重放池,用于储存训练数据,进行该深度强化学习算法的深度强化学习智能体布置在智能化控制系统中,控制着智能交通系统中所有的服务器和车辆,以决定每个时间段的动作并将此动作发送给车辆和对应的服务器;
4.1)智能化控制系统将收集得到的状态空间以元组的形式发送给“演员”网络,“演员”网络根据当前的动作策略Ω选择出当前的动作:
at=Ω(t)=μ(st,θμ)+Nt
其中μ为由卷积神经网络模拟出的当前在线策略,Nt为随机噪声,θμ为“演员-在线”深度神经网络的参数;
4.2)状态空间根据步骤4.1)产生的动作进行更新得到新的状态st+1,车辆将计算任务分载,将缓存任务从服务器上部分下载,同时服务器分配计算、缓存资源以及带宽给车辆;根据状态空间和动作空间计算t时间段的奖励值Rt,“演员”网络将转换元组储存在经验重放池中做训练集更新“演员-在线”深度神经网络;同时“演员-目标”深度神经网络根据得到的新的状态st+1,利用卷积神经网络模拟出目标动作at′:
a′t=μ′(st+1,θμ′)+Nt
其中μ′为由“演员-目标”深度神经网络模拟出的目标在线策略,Nt为随机噪声,θμ′为“演员-目标”深度神经网络的参数;
4.3)采用Q值评估当前在线策略μ,以表示在状态st下,采取动作at且一直采取当前在线策略μ的情况下所获得的奖励期望值;利用“评价”网络通过贝尔曼等式计算Q值,公式如下:
Qμ(st,at,θμ)=E[r(st,at)+γQμ(st+1,μ(st+1,θQ),θμ)]
其中r(st,at)为计算奖励值Rt的函数,γ为衰减系数,θQ为“评价-在线”深度神经网络的参数;
“评价-在线”深度神经网络通过在经验重放池中取样带入Qμ(st,at,θμ)训练卷积神经网络从而求出Q值;
“评价-目标”深度神经网络计算目标值来对“评价-在线”深度神经网络进行训练和参数更新,目标值的计算方法如下:
yt=r(st,at)+γQμ′(st+1,μ′(st+1,θμ′),θQ′)
其中γ为衰减系数,θQ′表示“评价-目标”深度神经网络的参数,Qμ′表示利用“评价-目标”深度神经网络求解在状态st+1下采用策略μ′情况下的Q值;
通过最小化均方差损失函数的方法计算出最优的θQ值,其均方差损失函数定义如下:
其中N表示从经验重放池中取样的数量,Qμ表示利用“评价-在线”深度神经网络求解在状态st下采取动作at且一直采取策略μ的情况下的Q值;
4.4)基于步骤4.3)中求解的最优θQ值以及从经验重放池中取出的训练数据,采用函数J(μ)来衡量策略μ的表现,通过最大化J(μ)来寻找最优策略;采用蒙特-卡洛法求解函数J(μ)策略梯度:
其中表示函数的梯度,N表示训练数据的数量;
利用软更新的方法使用“评价-在线”深度神经网络的参数和“演员-在线”深度神经网络的参数分别更新“评价-目标”深度神经网络的参数和“演员-目标”深度神经网络的参数:
θQ′←τθQ+(1-τ)θQ′
θμ′←τθμ+(1-τ)θμ′
其中τ更新系数,取0.001;
4.5)目标优化函数是智能化控制系统中的奖励函数的累计值,累计值在进行网络训练时收敛,则得到目标优化函数的最优解,即最优的任务安排和计算资源方案以最大化运营商收益;
步骤5:在得到步骤4)中的最优解后,智能化控制系统向车辆和服务器发送信号,进行相应的计算分载和缓存下载,并将得到的累计值作为运营商的最大收益。
本发明的效果和益处是:本发明提供的车联网中的智能资源分配方法能够在考虑用户体验的同时,最大化网络运营商收益,为人工智能在实际化应用提供了一个新的思路和角度。
附图说明
图1为基于移动边缘计算的、具有边缘缓存和计算分载能力的智能交通系统的车辆网络架构。
图2为基于人工智能算法的联合优化计算资源和缓存资源分配的智能交通系统架构。
图3为不同资源分配方案的收敛表现情况以及网络运营商收益情况对比。
图4为不同资源分配方案在车辆行驶速度不同时的网络运营商收益情况对比。
图5为不同资源分配方案在车辆数目不同时的网络运营商收益情况对比。
图6为不同资源分配方案在计算任务收费不同时的网络运营商收益情况对比。
图7为不同资源分配方案在缓存任务收费不同时的网络运营商收益情况对比。
具体实施方式
以下结合附图和技术方案,进一步说明本发明的具体实施方式。
图1为基于移动边缘计算的、具有边缘缓存和计算分载能力的智能交通系统的车辆网络架构。图2为基于人工智能算法的联合优化计算资源和缓存资源分配的智能交通系统架构。参见图1和图2,在本实施例中提供一种车联网中智能缓存资源分配方法,步骤如下:
步骤1:建立基站——路边节点联合车辆边缘计算和缓存资源调度框架:
基站——路边节点联合车辆边缘计算和缓存资源调度框架中包含移动的车辆、装备有智能边缘服务器(具备和车辆传输数据和执行计算任务能力)的一个基站和多个路边节点。框架中的基站可以覆盖智能交通系统中的所有车辆,根据当前无线技术的发展,车辆可以和多个服务器建立稳定的通信信道,因此基站可以联合离车辆最近的路边节点共同为车辆提供相应的内容缓存和任务计算服务。并且MEC服务器和车辆之间数据传输采用全双工信道,即不同的车辆可以同时从同一个服务器下载内容和上传任务。路边节点之间采用有线连接进行数据传输,即拥有稳定的数据传输速度。所有的计算任务和缓存任务可以划分成任意片段在不同服务器上分载和并行执行,当服务器完成所有任务片段意味着请求任务被成功执行,否则被认为是部分执行。车辆联合边缘计算和缓存资源调度框架如图1所示,其中的通信模型、计算模型和缓存模型分别为:
车辆——服务器通信模型:
当车辆行驶在路边节点的覆盖范围内时,车辆可以和路边节点的服务器之间建立稳定的信道进行数据传输,设Ti j为车辆i在路边节点的服务器j的覆盖范围内停留的时间,在此时间内车辆环境和传输参数不变,车辆需要同时进行计算任务的分载和请求资源的下载,车辆和服务器之间信道的带宽包括计算所需带宽和缓存下载带宽,即其中是时间段t内车辆计算所需带宽,是时间段t内车辆下载所需资源占用的带宽,当车辆用户需要下载或者上传数据,服务器会给连接安排正交频分复用信道,基于香农理论,车辆i和路边节点的服务器j之间的数据传输速率为:
其中是服务器j为车辆i分配的频谱带宽,为服务器j和车辆i之间在时间段t的信噪比。
车辆——服务器计算模型:
车辆向网络运营商发送计算任务请求,网络运营商决定分配服务器空闲计算资源给车辆以保证车辆能够在其可接受时延范围内完成计算,基站可以覆盖到智能交通系统内的任一车辆,基站和离车辆最近的路边节点将采用合作的方式对任务进行共同计算,设车辆i在时间段t内完成计算任务大小为t的长度表示为|t|,其中在路边节点上计算,在基站上计算;计算任务所需的CPU周期为计算任务大小为t时间段路边节点和基站分别为车辆i分配的CPU资源fij(t)、fi0(t)分别为:
为了保证计算任务的分载,运营商需要分配足够的带宽保证计算任务的上传,则路边节点和基站分别为车辆i分配的用于计算任务的带宽分别为:
表示服务器j与车辆i之间在时间段t内用于传输计算任务的信道的信噪比,表示基站与车辆i之间在时间段t内用于传输计算任务的信道的信噪比。
车辆——服务器缓存模型:
车辆需要下载任务包括两部分相关信息,请求下载内容的总大小ci和请求下载内容的流行程度pi;设车辆i在时间段t内请求下载内容大小为t的长度表示为|t|,其中在路边节点上下载,在基站上下载;则t时间段路边节点和基站分别为车辆i分配的缓存资源gij(t)、gi0(t)分别为:
则路边节点和基站分别为车辆i分配的用于下载缓存任务的带宽分别为:
表示服务器j与车辆i之间在时间段t内用于传输下载缓存的信道的信噪比,表示基站与车辆i之间在时间段t内用于传输下载缓存的信道的信噪比;并且当车辆接到了所有的内容片段,车辆可以将这些片段组合成其所需的下载内容;并且因为缓存内容大小有限,同一个服务器不能缓存全部车辆所需下载的内容。
步骤2:基于步骤1)中的建立的框架,本发明中将资源分配问题建立成一个联合优化问题来最大化运营商收益,实例化联合优化目标优化函数作为智能资源分配方法的基础;为了更合理、全面的衡量运营商收益,本发明综合网络运营商对于计算服务和缓存服务的收入以及用户的QoE质量建立收益函数。运营商收益函数主要由四个部分组成:服务收入、计算任务开销、缓存任务开销和用户QoE惩罚。
服务收入为网络运营商向服务请求用户收取的费用,设用户每需要完成1GB的计算任务需要向运营商支付α,完成1GB的下载任务需要支付β,则在时间段t中的服务收入为:
其中V是经过智能交通系统的车辆集合,M是智能交通系统中的服务器集合,包括基站的服务器和路边节点的服务器。
计算任务开销为网络运营商完成车辆用户计算任务的开销,其包括通信开销和CPU计算开销,通信开销包括请求数据传输信道带宽的开销和车辆接入服务器虚拟网络的信道开销,时间段t内的总计算任务开销为:
其中δR和δ0分别为路边节点(RSU)和基站的带宽开销,νR和ν0分别为RSU和基站接入虚拟网络的开销,ηR和η0表示RSU和基站完成一个CPU周期的能量消耗,ωR和ω0表示RSU和基站的计算资源消耗。
时间段t内的缓存任务开销包括通信开销和缓存开销,其中通信开销的计算方法与计算任务开销中的通信开销相同,缓存开销为使用服务器缓存所需支付的开销,时间段t内的总缓存任务开销为:
其中和分别表示RSU和基站的缓存开销。
用户QoE惩罚是考虑到智能交通系统对用户的服务体验评价,如果当车辆用户离开智能交通系统的控制区域时系统未完成他所请求的任务,那么智能交通系统会给用户造成一定的损失,因此本发明为运营商收益函数添加惩罚项:
其中σca和σcp分别是请求任务和计算任务的惩罚系数,Ti为车辆i通过智能交通系统覆盖区域的时间;如果当前的资源分配方案不能够在车辆离开前完成计算或下载缓存任务,惩罚项σ(i,Ti)将是负数;反之,惩罚项σ(i,Ti)将等于0。
综合上述四项,运营商收益PMNO为:
综合分析,上述定义的运营商收益评价函数是全面、合理的,网络运营商向用户收取费用基于他们不同的任务请求;同时,网络运营商需要支付各种资源的使用费用,比如网络、电能和信道等。
联合考虑计算分载、边缘缓存和带宽分配,本发明的优化目标函数可以表示为:
P:
s.t.
其中,Bj、Fj、Gj分别表示服务器j的带宽、计算资源和缓存资源大小;C1、C3和C5是对分配给车辆用户的带宽、计算资源和缓存资源大小分别进行限制;C2、C4和C6保证了分配给车辆用户的带宽、计算资源和缓存资源总和不能超过服务器所能提供的最大值;C7保证了服务器为车辆i提供的缓存资源不能超过车辆的需要;C8保证了服务器为车辆i提供的计算资源不能超过车辆的计算需要;通过求解上述优化函数的最优解,可得到最优的任务安排和资源分配方案。
步骤3:在智能交通系统中设立一个智能化控制系统来处理车辆的计算任务和内容缓存请求,当接受到车辆的请求后,由智能化控制系统进行方案的制定并将方案的具体实施信号传给车辆和对应的服务器。在智能化控制系统中,本发明采用基于深度强化学习的人工智能算法,对步骤2)中的优化函数进行求解,并得到最优的方案。
智能化控制系统首先接收车辆和服务器的状态作为当前的环境信息,包括车辆的移动信息(速度和所在位置,速度为了确定在智能交通系统中的停留时间;位置决定车辆最近的路边节点进行任务执行),车辆计算任务和内容下载的相关信息以及服务器可用资源的相关信息。在得到环境信息后,利用人工智能算法学习当前环境的特征并制定出一个最优的方案来引导车辆进行计算任务分载和下载内容边缘缓存。同时,智能化控制系统决定不同的服务器分配多少计算资源、缓存资源和带宽给不同的车辆以满足他们各种不同的请求。最终,服务器完成车辆的不同请求为用户提供高质量的服务。
本发明使用人工智能算法中的一个重点分支:深度强化学习算法,并利用上述收集到的信息形成深度强化学习中的三要素:状态,动作和奖励。
状态为车辆和服务器的状态:在时间段t内的智能交通系统的状态空间为st={Di(t),Fj(t),Gj(t),Bj(t)},其中Di(t)为车辆用户的状态集合,包括车辆的移动速度、车辆的所在位置、下载内容的流行程度、所需下载内容的大小、所需计算内容的大小、请求缓存资源大小、请求计算资源大小、计算任务所需的CPU周期数;Fj(t)、Gj(t)和Bj(t)分别为服务器的可用计算资源、可用缓存资源和可用带宽。
动作决定一个服务器为车辆分配资源以及为车辆分配资源的量,智能化控制系统接收到不同的请求后派遣不同的服务器资源给车辆用户进行任务的计算和内容的下载,在时间段t内智能交通系统的动作空间为at={fij(t),gij(t),bij(t)},其中fij(t)、gij(t)和bij(t)分别表示服务器j为车辆i分配的计算资源、缓存资源和带宽的大小,fij(t)、gij(t)和bij(t)都是连续变量从而保证智能交通系统中的资源准确分配。
基于当前的状态和智能化控制系统采取的动作,智能化控制系统将会获得一个奖励值,奖励值与目标优化函数相关,采用P(t)=Rrev(t)-Cca(t)-Ccp(t)作为智能交通系统的奖励函数,目标优化函数是奖励函数的累计值。
步骤4:基于步骤3)得到的状态空间、动作空间和奖励函数,进行基于深度强化学习算法的智能任务安排和资源调度,深度强化学习算法为DDPG算法,其中包含“演员”网络和“评价”网络,每一个网络中包含在线深度神经网络和目标深度神经网络,深度强化学习算法还包含经验重放池,用于储存训练数据,算法的具体架构如图2所示。深度强化学习智能体布置在智能化控制系统中,控制着车辆网中所有的服务器和车辆,决定着每个时间段的动作并将此动作发送给车辆和对应的服务器。
进行该深度强化学习算法的深度强化学习智能体布置在智能化控制系统中,控制着智能交通系统中所有的服务器和车辆,以决定每个时间段的动作并将此动作发送给车辆和对应的服务器。
4.1)智能化控制系统将收集得到的状态空间以元组(Tuples)的形式发送给“演员”网络,“演员”网络根据当前的动作策略Ω选择出当前的动作:
at=Ω(t)=μ(st,θμ)+Nt
其中μ为由卷积神经网络模拟出的当前在线策略,Nt为随机噪声,θμ为“演员-在线”深度神经网络的参数。
4.2)状态空间根据步骤4.1)产生的动作进行更新得到新的状态st+1,车辆将计算任务分载,将缓存任务从服务器上部分下载,同时服务器分配计算、缓存资源以及带宽给车辆;根据状态空间和动作空间计算t时间段的奖励值Rt,“演员”网络将转换元组储存在经验重放池中做训练集更新“演员-在线”深度神经网络;同时“演员-目标”深度神经网络根据得到的新的状态st+1,利用卷积神经网络模拟出目标动作a′t:
a′t=μ′(st+1,θμ′)+Nt
其中μ′为由“演员-目标”深度神经网络模拟出的目标在线策略,Nt为随机噪声,θμ′为“演员-目标”深度神经网络的参数。
4.3)采用Q值评估当前在线策略μ,以表示在状态st下,采取动作at且一直采取当前在线策略μ的情况下所获得的奖励期望值;利用“评价”网络通过贝尔曼等式计算Q值,公式如下:
Qμ(st,at,θμ)=E[r(st,at)+γQμ(st+1,μ(st+1,θQ),θμ)]
其中r(st,at)为计算奖励值Rt的函数,与P(t)=Rrev(t)-Cca(t)-Ccp(t)相同,由此计算出当前的奖励值Rt;γ为衰减系数,θμ为“演员-在线”深度神经网络的参数,θQ为“评价-在线”深度神经网络的参数;
“评价-在线”深度神经网络通过在经验重放池中取样带入Qμ(st,at,θμ)训练卷积神经网络从而求出Q值;
“评价-目标”深度神经网络计算目标值来对“评价-在线”深度神经网络进行训练和参数更新,目标值的计算方法如下:
yt=r(st,at)+γQμ′(st+1,μ′(st+1,θμ′),θQ′)
其中γ为衰减系数,θμ′表示“演员-目标”深度神经网络的参数,θQ′表示“评价-目标”深度神经网络的参数,Qμ′表示利用“评价-目标”深度神经网络求解在状态st+1下采用策略μ′情况下的Q值;
通过最小化均方差损失函数的方法计算出最优的θQ值,其均方差损失函数定义如下:
其中N表示从经验重放池中取样的数量,θQ为“评价-在线”深度神经网络的参数,Qμ表示利用“评价-在线”深度神经网络求解在状态st下采取动作at且一直采取策略μ的情况下的Q值。
4.4)基于步骤4.3)中求解的最优θQ值以及从经验重放池中取出的训练数据,采用函数J(μ)来衡量一个策略μ的表现,通过最大化J(μ)来寻找最优策略;采用蒙特-卡洛法求解函数J(μ)策略梯度:
其中表示函数的梯度,N表示训练数据的数量。
最后,利用软更新的方法使用“评价-在线”深度神经网络的参数和“演员-在线”深度神经网络的参数分别更新“评价-目标”深度神经网络的参数和“演员-目标”深度神经网络的参数:
θQ′←τθQ+(1-τ)θQ′
θμ′←τθμ+(1-τ)θμ′
其中τ更新系数,通常取0.001。
4.5)目标优化函数是智能化控制系统中的奖励函数的累计值,累计值在进行网络训练时收敛,则得到目标优化函数的最优解,即最优的任务安排和计算资源方案以最大化运营商收益。
步骤5:在得到步骤4)中的最优解后,智能化控制系统向车辆和服务器发送信号,进行相应的计算分载和缓存下载,并将得到的累计值作为运营商的最大收益。
图3为不同资源分配方案的收敛表现情况以及网络运营商收益情况对比。参见图3,本发明提出的方法相对于非联合资源分配方案、单独计算分载方案以及单独边缘缓存方案,会使运营商获得更大的收益。
图4为不同资源分配方案在车辆行驶速度不同时的网络运营商收益情况对比。参见图4,随着车辆行驶速度的增加,各个方案都使运营商收益都下降,相对去其他的方法,本发明所提出的方法可将运营商收益最大化。
图5为不同资源分配方案在车辆数目不同时的网络运营商收益情况对比。参见图5,随着智能交通系统中车辆数目的增加各个方案的运营商收益都下降,相对于其他方法,本发明所提出的方法可将运营商收益最大化;计算任务收费和缓存任务收费的提高使得各个方案下的运营商收益都有所提高。
图6为不同资源分配方案在计算任务收费不同时的网络运营商收益情况对比。图7为不同资源分配方案在缓存任务收费不同时的网络运营商收益情况对比。由图6和图7可以看出,本发明提出的资源分配方案将获得最大的运营商收益。
综上所述,本发明提供的车联网中的智能资源分配方法,将人工智能算法应用于解决车辆网中的资源分配问题,从而最大化网络运营商的收益。本发明的实验结果验证了提出的车联网中的智能资源分配方法能够在考虑用户体验的同时,最大化网络运营商收益,为人工智能在实际化应用提供了一个新的思路和角度。
以上示例性实施方式所呈现的描述仅用以说明本发明的技术方案,并不想要成为毫无遗漏的,也不想要把本发明限制为所描述的精确形式。显然,本领域的普通技术人员根据上述教导做出很多改变和变化都是可能的。选择示例性实施方式并进行描述是为了解释本发明的特定原理及其实际应用,从而使得本领域的其它技术人员便于理解、实现并利用本发明的各种示例性实施方式及其各种选择形式和修改形式。本发明的保护范围意在由所附权利要求书及其等效形式所限定。
Claims (1)
1.一种车联网中的智能资源分配方法,其特征在于,包括以下步骤:
步骤1:建立基站——路边节点联合车辆边缘计算和缓存资源调度框架,所述框架包含移动的车辆、装备有智能边缘服务器的基站和多个路边节点,所述框架具有车辆——服务器通信模型、车辆——服务器计算模型和车辆——服务器缓存模型,其中:
所述车辆——服务器通信模型:
当车辆行驶在路边节点的覆盖范围内时,车辆和路边节点的服务器之间建立稳定的信道进行数据传输,设Ti j为车辆i在路边节点的服务器j的覆盖范围内停留的时间,在此时间内车辆环境和传输参数不变,车辆需要同时进行计算任务的分载和请求资源的下载,车辆和服务器之间信道的带宽包括计算所需带宽和缓存下载带宽,即其中是时间段t内车辆计算所需带宽,是时间段t内车辆下载所需资源占用的带宽,当车辆用户需要下载或者上传数据,服务器会给连接安排正交频分复用信道,基于香农理论,车辆i和路边节点的服务器j之间的数据传输速率为:
其中,是服务器j为车辆i分配的频谱带宽,为服务器j和车辆i之间在时间段t的信噪比;
所述车辆——服务器计算模型:
车辆向网络运营商发送计算任务请求,网络运营商决定分配服务器空闲计算资源给车辆以保证车辆能够在其可接受时延范围内完成计算,基站可覆盖到智能交通系统内的任一车辆,基站和离车辆最近的路边节点将采用合作的方式对任务进行共同计算,设车辆i在时间段t内完成计算任务大小为t的长度表示为|t|,其中在路边节点上计算,在基站上计算;计算任务所需的CPU周期为计算任务大小为t时间段路边节点和基站分别为车辆i分配的CPU资源fij(t)、fi0(t)分别为:
为了保证计算任务的分载,运营商需要分配足够的带宽保证计算任务的上传,则路边节点和基站分别为车辆i分配的用于计算任务的带宽分别为:
表示服务器j与车辆i之间在时间段t内用于传输计算任务的信道的信噪比,表示基站与车辆i之间在时间段t内用于传输计算任务的信道的信噪比;
所述车辆——服务器缓存模型:
车辆需要下载任务包括两部分相关信息,请求下载内容的总大小ci和请求下载内容的流行程度pi;设车辆i在时间段t内请求下载内容大小为t的长度表示为|t|,其中在路边节点上下载,在基站上下载;则t时间段路边节点和基站分别为车辆i分配的缓存资源gij(t)、gi0(t)分别为:
则路边节点和基站分别为车辆i分配的用于下载缓存任务的带宽分别为:
表示服务器j与车辆i之间在时间段t内用于传输下载缓存的信道的信噪比,表示基站与车辆i之间在时间段t内用于传输下载缓存的信道的信噪比;并且当车辆接到了所有的内容片段,车辆可将这些片段组合成其所需的下载内容;并且因为缓存内容大小有限,同一个服务器不能缓存全部车辆所需下载的内容;
步骤2:基于步骤1)中的建立的框架,实例化联合优化目标优化函数,作为所述智能资源分配方法的基础;
2.1)综合网络运营商对于计算服务和缓存服务的收入以及用户的QoE质量建立运营商收益函数,所述运营商收益函数包括:服务收入、计算任务开销、缓存任务开销、用户QoE惩罚,其中:
所述服务收入为网络运营商向服务请求用户收取的费用,设用户每需要完成1GB的计算任务需要向网络运营商支付α,完成1GB的下载任务需要向网络运营商支付β,则在时间段t中的服务收入为:
其中V是经过智能交通系统的车辆集合,M是智能交通系统中的服务器集合,包括基站的服务器和路边节点的服务器;
所述计算任务开销为网络运营商完成车辆用户计算任务的开销,其包括通信开销和CPU计算开销,所述通信开销包括请求数据传输信道带宽的开销和车辆接入服务器虚拟网络的信道开销,时间段t内的总计算任务开销为:
其中δR和δ0分别为路边节点和基站的带宽开销,νR和ν0分别为路边节点和基站接入虚拟网络的开销,ηR和η0表示路边节点和基站完成一个CPU周期的能量消耗,ωR和ω0表示路边节点和基站的计算资源消耗;
时间段t内的缓存任务开销包括通信开销和缓存开销,其中通信开销的计算方法与所述计算任务开销中的通信开销相同,缓存开销为使用服务器缓存所需支付的开销,时间段t内的总缓存任务开销为:
其中和分别表示路边节点和基站的缓存开销;
用户QoE惩罚涉及智能交通系统对用户的服务体验评价,用户QoE惩罚:
其中σca和σcp分别是请求任务和计算任务的惩罚系数,Ti为车辆i通过智能交通系统覆盖区域的时间;如果当前的资源分配方案不能够在车辆离开前完成计算或下载缓存任务,惩罚项σ(i,Ti)将是负数;反之,惩罚项σ(i,Ti)将等于0;
综合上述四项,运营商收益PMNO为:
2.2)联合考虑计算分载、边缘缓存和带宽资源分配,目标优化函数为:
其中,Bj、Fj、Gj分别表示服务器j的带宽、计算资源和缓存资源大小;
C1、C3和C5是对分配给车辆用户的带宽、计算资源和缓存资源大小分别进行限制;
C2、C4和C6保证了分配给车辆用户的带宽、计算资源和缓存资源总和不能超过服务器所能提供的最大值;
C7保证了服务器为车辆i提供的缓存资源不能超过车辆的需要;
C8保证了服务器为车辆i提供的计算资源不能超过车辆的计算需要;
步骤3:在智能交通系统中具有智能化控制系统,该智能化控制系统接收车辆和服务器的状态作为当前的环境信息,包括车辆的移动信息、车辆计算任务和内容下载的相关信息以及服务器可用资源的相关信息;在得到上述环境信息后,形成深度强化学习中的三要素:状态、动作和奖励,其中:
所述状态为车辆和服务器的状态:在时间段t内的智能交通系统的状态空间为st={Di(t),Fj(t),Gj(t),Bj(t)},其中Di(t)为车辆用户的状态集合,包括车辆的移动速度、车辆的所在位置、下载内容的流行程度、所需下载内容的大小、所需计算内容的大小、请求缓存资源大小、请求计算资源大小、计算任务所需的CPU周期数;Fj(t)、Gj(t)和Bj(t)分别为服务器的可用计算资源、可用缓存资源和可用带宽;
所述动作决定一个服务器为车辆分配资源以及为车辆分配资源的量,智能化控制系统接收到不同的请求后派遣不同的服务器资源给车辆用户进行任务的计算和内容的下载,在时间段t内智能交通系统的动作空间为at={fij(t),gij(t),bij(t)},其中fij(t)、gij(t)和bij(t)分别表示服务器j为车辆i分配的计算资源、缓存资源和带宽的大小,fij(t)、gij(t)和bij(t)都是连续变量从而保证智能交通系统中的资源准确分配;
基于当前的状态和智能化控制系统采取的动作,智能化控制系统将获得一个奖励值,所述奖励值与目标优化函数相关,采用P(t)=Rrev(t)-Cca(t)-Ccp(t)作为智能交通系统的奖励函数,目标优化函数是奖励函数的累计值;
步骤4:基于步骤3)得到的状态空间、动作空间和奖励函数,进行基于深度强化学习算法的智能任务安排和资源调度,深度强化学习算法为DDPG算法,其中包含“演员”网络和“评价”网络,每一个网络中包含在线深度神经网络和目标深度神经网络,深度强化学习算法还包含经验重放池,用于储存训练数据,进行该深度强化学习算法的深度强化学习智能体布置在智能化控制系统中,控制着智能交通系统中所有的服务器和车辆,以决定每个时间段的动作并将此动作发送给车辆和对应的服务器;
4.1)智能化控制系统将收集得到的状态空间以元组的形式发送给“演员”网络,“演员”网络根据当前的动作策略Ω选择出当前的动作:
at=Ω(t)=μ(st,θμ)+Nt
其中μ为由卷积神经网络模拟出的当前在线策略,Nt为随机噪声,θμ为“演员-在线”深度神经网络的参数;
4.2)状态空间根据步骤4.1)产生的动作进行更新得到新的状态st+1,车辆将计算任务分载,将缓存任务从服务器上部分下载,同时服务器分配计算、缓存资源以及带宽给车辆;根据状态空间和动作空间计算t时间段的奖励值Rt,“演员”网络将转换元组储存在经验重放池中做训练集更新“演员-在线”深度神经网络;
同时“演员-目标”深度神经网络根据得到的新的状态st+1,利用卷积神经网络模拟出目标动作a′t:
a′t=μ′(st+1,θμ′)+Nt
其中μ′为由“演员-目标”深度神经网络模拟出的目标在线策略,Nt为随机噪声,θμ′为“演员-目标”深度神经网络的参数;
4.3)采用Q值评估当前在线策略μ,以表示在状态st下,采取动作at且一直采取当前在线策略μ的情况下所获得的奖励期望值,利用“评价”网络通过贝尔曼等式计算Q值,公式如下:
Qμ(st,at,θμ)=E[r(st,at)+γQμ(st+1,μ(st+1,θQ),θμ)]
其中r(st,at)为计算奖励值Rt的函数,γ为衰减系数,θQ为“评价-在线”深度神经网络的参数;
“评价-在线”深度神经网络通过在经验重放池中取样带入Qμ(st,at,θμ)训练卷积神经网络从而求出Q值;
“评价-目标”深度神经网络计算目标值来对“评价-在线”深度神经网络进行训练和参数更新,目标值的计算方法如下:
yt=r(st,at)+γQμ′(st+1,μ′(st+1,θμ′),θQ′)
其中γ为衰减系数,θQ′表示“评价-目标”深度神经网络的参数,Qμ′表示利用“评价-目标”深度神经网络求解在状态st+1下采用策略μ′情况下的Q值;
通过最小化均方差损失函数的方法计算出最优的θQ值,其均方差损失函数定义如下:
其中N表示从经验重放池中取样的数量,Qμ表示利用“评价-在线”深度神经网络求解在状态st下采取动作at且一直采取策略μ的情况下的Q值;
4.4)基于步骤4.3)中求解的最优θQ值以及从经验重放池中取出的训练数据,采用函数J(μ)来衡量策略μ的表现,通过最大化J(μ)来寻找最优策略;采用蒙特-卡洛法求解函数J(μ)策略梯度:
其中▽表示函数的梯度,N表示训练数据的数量;
利用软更新的方法使用“评价-在线”深度神经网络的参数和“演员-在线”深度神经网络的参数分别更新“评价-目标”深度神经网络的参数和“演员-目标”深度神经网络的参数:
θQ′←τθQ+(1-τ)θQ′
θμ←τθμ+(1-τ)θμ′
其中τ更新系数,取0.001;
4.5)目标优化函数是智能化控制系统中的奖励函数的累计值,累计值在进行网络训练时收敛,则得到目标优化函数的最优解,即最优的任务安排和计算资源方案以最大化运营商收益;
步骤5:在得到步骤4)中的最优解后,智能化控制系统向车辆和服务器发送信号,进行相应的计算分载和缓存下载,并将得到的累计值作为运营商的最大收益。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910448363.4A CN110213796B (zh) | 2019-05-28 | 2019-05-28 | 一种车联网中的智能资源分配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910448363.4A CN110213796B (zh) | 2019-05-28 | 2019-05-28 | 一种车联网中的智能资源分配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110213796A true CN110213796A (zh) | 2019-09-06 |
CN110213796B CN110213796B (zh) | 2021-08-06 |
Family
ID=67788966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910448363.4A Expired - Fee Related CN110213796B (zh) | 2019-05-28 | 2019-05-28 | 一种车联网中的智能资源分配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110213796B (zh) |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110312231A (zh) * | 2019-06-28 | 2019-10-08 | 重庆邮电大学 | 一种车联网中基于移动边缘计算的内容缓存决策和资源分配联合优化方法 |
CN111124647A (zh) * | 2019-12-25 | 2020-05-08 | 大连理工大学 | 一种车联网中的智能边缘计算方法 |
CN111262940A (zh) * | 2020-01-17 | 2020-06-09 | 中南大学 | 一种车载边缘计算应用缓存方法、装置及系统 |
CN111311091A (zh) * | 2020-02-13 | 2020-06-19 | 中国人民解放军国防科技大学 | 基于车载云及无人机的高速公路任务检测调度方法及系统 |
CN111385806A (zh) * | 2020-02-18 | 2020-07-07 | 清华大学 | 一种无人机基站路径规划和带宽资源分配方法及装置 |
CN111479238A (zh) * | 2020-04-14 | 2020-07-31 | 东华大学 | 一种车联网信息处理时延优化方法 |
CN111510882A (zh) * | 2020-04-07 | 2020-08-07 | 江南大学 | 基于用户体验质量的车联网频谱资源分配方法及系统 |
CN111526592A (zh) * | 2020-04-14 | 2020-08-11 | 电子科技大学 | 一种用于无线干扰信道中的非协作多智能体功率控制方法 |
CN111885155A (zh) * | 2020-07-22 | 2020-11-03 | 大连理工大学 | 一种车联网资源融合的车载任务协作迁移方法 |
CN111901833A (zh) * | 2020-07-13 | 2020-11-06 | 哈尔滨工业大学(深圳) | 一种面向不可靠信道传输的联合服务调度以及内容缓存方法 |
CN111915244A (zh) * | 2020-06-08 | 2020-11-10 | 宁波大学 | 一种集装箱移动智能搬运方法 |
CN112203228A (zh) * | 2020-07-20 | 2021-01-08 | 重庆邮电大学 | 一种基于车辆数预测的双层蜂窝车联网频谱分配方法 |
CN112260730A (zh) * | 2020-10-15 | 2021-01-22 | 东南大学 | 一种c-v2v宽带大规模mimo导频复用信道获取方法 |
CN112396501A (zh) * | 2020-12-10 | 2021-02-23 | 中国科学院深圳先进技术研究院 | 一种基于交互式强化学习的订单分派方法及系统 |
CN112492265A (zh) * | 2020-10-30 | 2021-03-12 | 广东电网有限责任公司电力调度控制中心 | 一种应用于智能电网的上下行资源联合分配方法 |
CN112512121A (zh) * | 2020-12-10 | 2021-03-16 | 齐鲁工业大学 | 基于强化学习算法的无线电频谱动态分配方法及装置 |
CN112732362A (zh) * | 2021-01-18 | 2021-04-30 | 北京展心展力信息科技有限公司 | 跨国软件资源访问方法、装置、电子设备及存储介质 |
CN112839082A (zh) * | 2020-12-31 | 2021-05-25 | 西安电子科技大学 | 一种异构边缘缓存分配方法、系统、介质及应用 |
CN112954651A (zh) * | 2021-03-12 | 2021-06-11 | 南京航空航天大学 | 一种基于深度强化学习的低时延高可靠性v2v资源分配方法 |
CN113094982A (zh) * | 2021-03-29 | 2021-07-09 | 天津理工大学 | 一种基于多智能体深度强化学习的车联网边缘缓存方法 |
CN113344255A (zh) * | 2021-05-21 | 2021-09-03 | 北京工业大学 | 基于移动边缘计算和区块链的车载网络应用数据传输和计费优化方法 |
CN113382383A (zh) * | 2021-06-11 | 2021-09-10 | 浙江工业大学 | 一种基于策略梯度的公交车辆计算任务卸载方法 |
CN113411779A (zh) * | 2021-06-10 | 2021-09-17 | 西南交通大学 | 一种保证可靠性的车联网用户容量最大化设计方法与装置 |
CN113676519A (zh) * | 2021-07-28 | 2021-11-19 | 北京信息科技大学 | 车辆内容预缓存和宽带分配的联合优化方法及装置 |
CN114786129A (zh) * | 2022-04-18 | 2022-07-22 | 北京工业大学 | 基于深度学习的车联网计算资源分配与优化方法 |
JP7108067B1 (ja) | 2021-02-10 | 2022-07-27 | Kddi株式会社 | 端末装置、管理サーバ、通信システム、及びプログラム |
US11427215B2 (en) | 2020-07-31 | 2022-08-30 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for generating a task offloading strategy for a vehicular edge-computing environment |
CN115355604A (zh) * | 2022-10-19 | 2022-11-18 | 北京理工大学 | 一种基于区块链和强化学习的空调控制方法及其系统 |
CN115550944A (zh) * | 2022-08-18 | 2022-12-30 | 重庆大学 | 一种车联网中基于边缘计算和深度强化学习的动态服务放置方法 |
CN116484922A (zh) * | 2023-04-23 | 2023-07-25 | 深圳大学 | 一种联邦学习方法、系统、设备及存储介质 |
CN116489683A (zh) * | 2023-06-21 | 2023-07-25 | 北京邮电大学 | 空天地网络中的计算任务卸载方法、装置和电子设备 |
CN117032832A (zh) * | 2023-08-25 | 2023-11-10 | 重庆邮电大学 | 一种基于移动边缘计算的最小化任务调用成本卸载方法 |
CN117615418A (zh) * | 2024-01-19 | 2024-02-27 | 北京邮电大学 | 一种移动感知辅助的车联网服务迁移方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109068391A (zh) * | 2018-09-27 | 2018-12-21 | 青岛智能产业技术研究院 | 基于边缘计算和Actor-Critic算法的车联网通信优化算法 |
CN109756378A (zh) * | 2019-01-12 | 2019-05-14 | 大连理工大学 | 一种车载网络下的智能计算卸载方法 |
-
2019
- 2019-05-28 CN CN201910448363.4A patent/CN110213796B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109068391A (zh) * | 2018-09-27 | 2018-12-21 | 青岛智能产业技术研究院 | 基于边缘计算和Actor-Critic算法的车联网通信优化算法 |
CN109756378A (zh) * | 2019-01-12 | 2019-05-14 | 大连理工大学 | 一种车载网络下的智能计算卸载方法 |
Non-Patent Citations (3)
Title |
---|
LE THANH TAN.ET AL: "Mobility-Aware Edge Caching and Computing in Vehicle Networks: A Deep Reinforcement Learning", 《IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY》 * |
TIANYU YANG.ET AL: "Deep Reinforcement Learning based Resource Allocation in Low Latency Edge Computing Networks", 《 2018 15TH INTERNATIONAL SYMPOSIUM ON WIRELESS COMMUNICATION SYSTEMS (ISWCS)》 * |
王威华等: "一种基于软件定义的弹性网络资源分配方案", 《重庆理工大学学报(自然科学)》 * |
Cited By (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110312231B (zh) * | 2019-06-28 | 2022-03-18 | 重庆邮电大学 | 车联网中基于mec的内容缓存决策和资源分配优化方法 |
CN110312231A (zh) * | 2019-06-28 | 2019-10-08 | 重庆邮电大学 | 一种车联网中基于移动边缘计算的内容缓存决策和资源分配联合优化方法 |
CN111124647B (zh) * | 2019-12-25 | 2022-11-18 | 大连理工大学 | 一种车联网中的智能边缘计算方法 |
CN111124647A (zh) * | 2019-12-25 | 2020-05-08 | 大连理工大学 | 一种车联网中的智能边缘计算方法 |
CN111262940A (zh) * | 2020-01-17 | 2020-06-09 | 中南大学 | 一种车载边缘计算应用缓存方法、装置及系统 |
CN111262940B (zh) * | 2020-01-17 | 2021-06-22 | 中南大学 | 一种车载边缘计算应用缓存方法、装置及系统 |
CN111311091A (zh) * | 2020-02-13 | 2020-06-19 | 中国人民解放军国防科技大学 | 基于车载云及无人机的高速公路任务检测调度方法及系统 |
CN111311091B (zh) * | 2020-02-13 | 2023-05-02 | 中国人民解放军国防科技大学 | 基于车载云及无人机的高速公路任务检测调度方法及系统 |
CN111385806A (zh) * | 2020-02-18 | 2020-07-07 | 清华大学 | 一种无人机基站路径规划和带宽资源分配方法及装置 |
CN111385806B (zh) * | 2020-02-18 | 2021-10-26 | 清华大学 | 一种无人机基站路径规划和带宽资源分配方法及装置 |
CN111510882A (zh) * | 2020-04-07 | 2020-08-07 | 江南大学 | 基于用户体验质量的车联网频谱资源分配方法及系统 |
CN111510882B (zh) * | 2020-04-07 | 2022-09-13 | 江南大学 | 基于用户体验质量的车联网频谱资源分配方法及系统 |
CN111479238A (zh) * | 2020-04-14 | 2020-07-31 | 东华大学 | 一种车联网信息处理时延优化方法 |
CN111526592B (zh) * | 2020-04-14 | 2022-04-08 | 电子科技大学 | 一种用于无线干扰信道中的非协作多智能体功率控制方法 |
CN111526592A (zh) * | 2020-04-14 | 2020-08-11 | 电子科技大学 | 一种用于无线干扰信道中的非协作多智能体功率控制方法 |
CN111479238B (zh) * | 2020-04-14 | 2021-10-15 | 东华大学 | 一种车联网信息处理时延优化方法 |
CN111915244B (zh) * | 2020-06-08 | 2023-04-25 | 宁波大学 | 一种集装箱移动智能搬运方法 |
CN111915244A (zh) * | 2020-06-08 | 2020-11-10 | 宁波大学 | 一种集装箱移动智能搬运方法 |
CN111901833A (zh) * | 2020-07-13 | 2020-11-06 | 哈尔滨工业大学(深圳) | 一种面向不可靠信道传输的联合服务调度以及内容缓存方法 |
CN111901833B (zh) * | 2020-07-13 | 2023-07-18 | 哈尔滨工业大学(深圳) | 一种面向不可靠信道传输的联合服务调度以及内容缓存方法 |
CN112203228B (zh) * | 2020-07-20 | 2022-05-03 | 重庆邮电大学 | 一种基于车辆数预测的双层蜂窝车联网频谱分配方法 |
CN112203228A (zh) * | 2020-07-20 | 2021-01-08 | 重庆邮电大学 | 一种基于车辆数预测的双层蜂窝车联网频谱分配方法 |
CN111885155A (zh) * | 2020-07-22 | 2020-11-03 | 大连理工大学 | 一种车联网资源融合的车载任务协作迁移方法 |
CN111885155B (zh) * | 2020-07-22 | 2021-06-18 | 大连理工大学 | 一种车联网资源融合的车载任务协作迁移方法 |
US11427215B2 (en) | 2020-07-31 | 2022-08-30 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for generating a task offloading strategy for a vehicular edge-computing environment |
CN112260730A (zh) * | 2020-10-15 | 2021-01-22 | 东南大学 | 一种c-v2v宽带大规模mimo导频复用信道获取方法 |
CN112492265A (zh) * | 2020-10-30 | 2021-03-12 | 广东电网有限责任公司电力调度控制中心 | 一种应用于智能电网的上下行资源联合分配方法 |
CN112492265B (zh) * | 2020-10-30 | 2023-05-02 | 广东电网有限责任公司电力调度控制中心 | 一种应用于智能电网的上下行资源联合分配方法 |
CN112396501A (zh) * | 2020-12-10 | 2021-02-23 | 中国科学院深圳先进技术研究院 | 一种基于交互式强化学习的订单分派方法及系统 |
CN112512121A (zh) * | 2020-12-10 | 2021-03-16 | 齐鲁工业大学 | 基于强化学习算法的无线电频谱动态分配方法及装置 |
WO2022120970A1 (zh) * | 2020-12-10 | 2022-06-16 | 中国科学院深圳先进技术研究院 | 一种基于交互式强化学习的订单分派方法及系统 |
CN112396501B (zh) * | 2020-12-10 | 2024-03-19 | 中国科学院深圳先进技术研究院 | 一种基于交互式强化学习的订单分派方法及系统 |
CN112839082A (zh) * | 2020-12-31 | 2021-05-25 | 西安电子科技大学 | 一种异构边缘缓存分配方法、系统、介质及应用 |
CN112732362A (zh) * | 2021-01-18 | 2021-04-30 | 北京展心展力信息科技有限公司 | 跨国软件资源访问方法、装置、电子设备及存储介质 |
CN112732362B (zh) * | 2021-01-18 | 2024-06-11 | 北京展心展力信息科技有限公司 | 跨国软件资源访问方法、装置、电子设备及存储介质 |
JP7108067B1 (ja) | 2021-02-10 | 2022-07-27 | Kddi株式会社 | 端末装置、管理サーバ、通信システム、及びプログラム |
JP2022122540A (ja) * | 2021-02-10 | 2022-08-23 | Kddi株式会社 | 端末装置、管理サーバ、通信システム、及びプログラム |
CN112954651B (zh) * | 2021-03-12 | 2022-04-08 | 南京航空航天大学 | 一种基于深度强化学习的低时延高可靠性v2v资源分配方法 |
CN112954651A (zh) * | 2021-03-12 | 2021-06-11 | 南京航空航天大学 | 一种基于深度强化学习的低时延高可靠性v2v资源分配方法 |
CN113094982A (zh) * | 2021-03-29 | 2021-07-09 | 天津理工大学 | 一种基于多智能体深度强化学习的车联网边缘缓存方法 |
CN113344255A (zh) * | 2021-05-21 | 2021-09-03 | 北京工业大学 | 基于移动边缘计算和区块链的车载网络应用数据传输和计费优化方法 |
CN113344255B (zh) * | 2021-05-21 | 2024-03-19 | 北京工业大学 | 基于移动边缘计算和区块链的车载网络应用数据传输和计费优化方法 |
CN113411779A (zh) * | 2021-06-10 | 2021-09-17 | 西南交通大学 | 一种保证可靠性的车联网用户容量最大化设计方法与装置 |
CN113382383A (zh) * | 2021-06-11 | 2021-09-10 | 浙江工业大学 | 一种基于策略梯度的公交车辆计算任务卸载方法 |
CN113676519A (zh) * | 2021-07-28 | 2021-11-19 | 北京信息科技大学 | 车辆内容预缓存和宽带分配的联合优化方法及装置 |
CN113676519B (zh) * | 2021-07-28 | 2023-06-06 | 北京信息科技大学 | 车辆内容预缓存和宽带分配的联合优化方法及装置 |
CN114786129A (zh) * | 2022-04-18 | 2022-07-22 | 北京工业大学 | 基于深度学习的车联网计算资源分配与优化方法 |
CN114786129B (zh) * | 2022-04-18 | 2024-04-26 | 北京工业大学 | 基于深度学习的车联网计算资源分配与优化方法 |
CN115550944B (zh) * | 2022-08-18 | 2024-02-27 | 重庆大学 | 一种车联网中基于边缘计算和深度强化学习的动态服务放置方法 |
CN115550944A (zh) * | 2022-08-18 | 2022-12-30 | 重庆大学 | 一种车联网中基于边缘计算和深度强化学习的动态服务放置方法 |
CN115355604A (zh) * | 2022-10-19 | 2022-11-18 | 北京理工大学 | 一种基于区块链和强化学习的空调控制方法及其系统 |
CN115355604B (zh) * | 2022-10-19 | 2022-12-23 | 北京理工大学 | 一种基于区块链和强化学习的空调控制方法及其系统 |
CN116484922B (zh) * | 2023-04-23 | 2024-02-06 | 深圳大学 | 一种联邦学习方法、系统、设备及存储介质 |
CN116484922A (zh) * | 2023-04-23 | 2023-07-25 | 深圳大学 | 一种联邦学习方法、系统、设备及存储介质 |
CN116489683B (zh) * | 2023-06-21 | 2023-08-18 | 北京邮电大学 | 空天地网络中的计算任务卸载方法、装置和电子设备 |
CN116489683A (zh) * | 2023-06-21 | 2023-07-25 | 北京邮电大学 | 空天地网络中的计算任务卸载方法、装置和电子设备 |
CN117032832A (zh) * | 2023-08-25 | 2023-11-10 | 重庆邮电大学 | 一种基于移动边缘计算的最小化任务调用成本卸载方法 |
CN117032832B (zh) * | 2023-08-25 | 2024-03-08 | 重庆邮电大学 | 一种基于移动边缘计算的最小化任务调用成本卸载方法 |
CN117615418A (zh) * | 2024-01-19 | 2024-02-27 | 北京邮电大学 | 一种移动感知辅助的车联网服务迁移方法 |
CN117615418B (zh) * | 2024-01-19 | 2024-04-12 | 北京邮电大学 | 一种移动感知辅助的车联网服务迁移方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110213796B (zh) | 2021-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110213796A (zh) | 一种车联网中的智能资源分配方法 | |
CN110312231B (zh) | 车联网中基于mec的内容缓存决策和资源分配优化方法 | |
CN113992676B (zh) | 端边云架构和完全信息下分层联邦学习的激励方法及系统 | |
CN111885155B (zh) | 一种车联网资源融合的车载任务协作迁移方法 | |
CN113377516B (zh) | 面向边缘计算的车辆任务卸载的集中式调度方法与系统 | |
CN108765948A (zh) | 一种弹性的公车调度方法和系统 | |
CN113268920B (zh) | 一种基于联邦学习的无人机群感知数据安全共享方法 | |
CN102076025B (zh) | 基于Stackelberg博弈认知网络资源分配方法 | |
CN114971819A (zh) | 基于多智能体强化学习算法在联邦学习下的用户竞价方法及装置 | |
CN103458482A (zh) | Vanet中解决rsu接入问题的演化博弈方法 | |
Cha et al. | Fuzzy logic based client selection for federated learning in vehicular networks | |
CN115580891B (zh) | 基于联邦学习的流量预测模型训练方法、预测方法和装置 | |
Tao et al. | Task allocation for mobile crowdsensing with deep reinforcement learning | |
CN111432361A (zh) | 一种基于群智感知网络的用户激励策略确定方法及系统 | |
CN113158544A (zh) | 车载内容中心网络下基于联邦学习的边缘预缓存策略 | |
CN115629873A (zh) | 车路云协同任务卸载与任务队列稳定性控制系统和方法 | |
CN114339842B (zh) | 基于深度强化学习无人机集群在时变场景下动态轨迹设计方法和装置 | |
CN115022322A (zh) | 一种车联网中基于群智进化的边云协作任务卸载方法 | |
Hu et al. | Autonomous valet parking optimization with two-step reservation and pricing strategy | |
CN114710410A (zh) | 基于深度强化学习的网络数据采集效率优化方法及系统 | |
CN113724507A (zh) | 基于深度强化学习的交通控制与车辆诱导协同方法和系统 | |
CN104822150B (zh) | 中心多跳认知蜂窝网络中的信息主动缓存的频谱管理方法 | |
CN116774584A (zh) | 一种基于多智能体深度强化学习的无人机差异化服务轨迹优化方法 | |
CN116501483A (zh) | 基于多智能体强化学习的车辆边缘计算任务调度方法 | |
CN113688200B (zh) | 一种基于决策树的特殊人群行动轨迹收集方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210806 |