CN113992945A - 一种基于博弈论的多服务器多用户视频分析任务卸载方法 - Google Patents

一种基于博弈论的多服务器多用户视频分析任务卸载方法 Download PDF

Info

Publication number
CN113992945A
CN113992945A CN202111463398.9A CN202111463398A CN113992945A CN 113992945 A CN113992945 A CN 113992945A CN 202111463398 A CN202111463398 A CN 202111463398A CN 113992945 A CN113992945 A CN 113992945A
Authority
CN
China
Prior art keywords
video
server
user
delay
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111463398.9A
Other languages
English (en)
Other versions
CN113992945B (zh
Inventor
杨定坤
赵南
马红双
王昕宇
尹雯姣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Electric Power Information Technology Co Ltd
Original Assignee
Jiangsu Electric Power Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Electric Power Information Technology Co Ltd filed Critical Jiangsu Electric Power Information Technology Co Ltd
Priority to CN202111463398.9A priority Critical patent/CN113992945B/zh
Publication of CN113992945A publication Critical patent/CN113992945A/zh
Application granted granted Critical
Publication of CN113992945B publication Critical patent/CN113992945B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/042Backward inferencing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/101Server selection for load balancing based on network conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/502Proximity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/509Offload

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本发明提出了一种基于博弈论方法的视频分析任务卸载方法,应用于多服务器多用户的边缘计算网络场景下。所述方法根据多服务器多用户卸载视频分析任务的边缘计算场景进行建模,将其视为一个综合了数据传输时延和任务计算时延的多人博弈问题,并基于潜在最优服务器选择方法和截断值的概念,提出视频单元分配算法,通过对该博弈问题进行求解,达到纳什均衡以及获得多用户的视频分析任务卸载方案。本发明填补了领域空白,支持多服务器多用户视频分析任务卸载,同时考虑了多用户之间对网络中有限资源的竞争性,具有广泛的适用性,提升了边缘计算场景下任务分配和资源利用效率。

Description

一种基于博弈论的多服务器多用户视频分析任务卸载方法
技术领域
本发明涉及边缘计算领域,具体是一种在边缘计算网络场景下的多服务器多用户视频分析任务卸载方法。
背景技术
随着智能设备(例如智能手机、平板电脑等设备)和大量新应用的出现,网络流量正在迅速增长。由于回程链路传输时延高、负载大,传统的集中式网络架构无法满足用户的需求。边缘计算是一种新兴的范式,将存储和计算资源带到网络的边缘。它允许终端设备产生的数据在网络边缘进行处理,而不是沿着长距离将其发送到云或数据中心。在过去的十几年里,有许多与边缘计算相关的研究工作,包括最优网络控制、多用户资源分配、服务缓存等。
与此同时,基于深度学习的人工智能服务和应用在近些年来蓬勃发展,例如视频监控、推荐系统等。与边缘计算环境中的其他服务和应用类似,人工智能相关的任务被推送到网络边缘进行计算。自2009年以来,微软一直在研究哪些类型的AI应用应该移至网络边缘,比如交互式云游戏、语音命令识别、VR/AR和实时视频分析等等。其中,实时视频分析应用被认为是边缘计算的杀手级应用。大多数运行在边缘服务器上的视频分析应用通过处理视频数据来检测一些特定对象,包括失踪儿童、遗弃行李等。一般来说,视频分析任务收集大量高清视频,并且需要高计算量,高带宽和低延迟的要求。因此,边缘计算被认为是满足这些严格要求的合适解决方案。
在边缘计算环境中,存在一些具有不同计算能力、内存的边缘服务器。服务器物理分布在不同的位置,并且它们的数据传输延迟不同。大量用户将他们的视频数据卸载到边缘服务器上进行视频分析。一些视频数据可以根据视频长度和视频配置(帧率和分辨率)分成更小的单元,然后视频分析服务可以对每个视频单元进行单独分析。用户需要选择合适的边缘服务器,并将他们的视频数据(或视频单元)卸载给这些服务器进行计算。但是具有挑战性的是,边缘服务器的计算能力和传输带宽有限,不合适的卸载决策可能会导致部分边缘服务器过载,造成CPU周期的浪费。例如,如果将过多的视频数据分配给同一边缘服务器,那么由于服务器过载,处理时间将显着延长。另一方面,如果分配给边缘服务器的视频数据太少,则会导致服务器上的计算资源利用率低。
发明内容
针对现有技术的空白,本发明的目的是提供一种边缘计算场景下基于博弈论方法的多服务器多用户视频分析任务卸载方法,实现了如何通过博弈论的方法确定每个用户的视频分析任务卸载决策。本发明填补了领域空白,支持多服务器多用户视频分析任务卸载,同时考虑了多用户之间对网络中有限资源的竞争性,具有广泛的适用性,提升了边缘计算场景下任务分配和资源利用效率。
本发明的目的通过以下技术方案实现:
一种边缘计算场景下基于博弈论的多服务器多用户视频分析任务卸载方法应用于边缘计算网络环境,其特征在于:根据多服务器多用户卸载视频分析任务的边缘计算场景进行建模,将其视为一个综合了数据传输时延和任务计算时延的多人博弈问题,并基于潜在最优服务器选择方法和截断值的概念,提出视频单元分配算法,通过对该博弈问题进行求解,达到纳什均衡以及获得多用户的视频分析任务卸载方案;包括以下步骤:
(1)对移动边缘计算场景建立数学模型:
(2)对建立的数学模型进行求解,得到多用户视频分析准确度策略。
其中,对移动边缘计算场景建立数学模型具体如下:
在网络边缘,考虑N个用户,记为N={1,2,...,N},以及M个边缘服务器,记为M={1,2,...,M}。视频分析应用(例如人脸识别、车辆跟踪、行人计数)部署在边缘服务器上,用户将视频分析任务卸载给它们进行计算。
根据视频长度和配置(帧率和分辨率),可以将一些视频数据分成更小的单元,然后通过视频分析应用程序分析每个视频单元。例如,在目标检测应用中,任务是在卸载的视频数据中找到某个目标(例如丢失的钱包)。视频长度为600秒,帧速率为30fps。可以将视频数据分成更小的单位,其长度和帧率分别为60秒和3fps。之后,可以将目标检测子(例如YOLO)并行应用于(600s*30fps)/(60s*3fps)=100个视频单元。
每个用户n都有一个视频分析任务
Figure 610683DEST_PATH_IMAGE001
,其中
Figure 670649DEST_PATH_IMAGE002
Figure 235623DEST_PATH_IMAGE003
分别表示长度、帧率和分辨率。在一些视频分析应用中,视频数据是从监控摄像头捕获的,视频分辨率是固定的。此外,输入到用于视频分析的卷积神经网络的视频帧的尺寸通常设置为常数。因此在本文中,假设所有用户的视频数据的分辨率都是相同的常数R,根据长度和帧率将视频数据划分成更小的单位。然后可以计算用户n的视频单元数为
Figure 681648DEST_PATH_IMAGE004
,其中
Figure 140311DEST_PATH_IMAGE005
设置为所有用户视频长度的公因数,
Figure 13589DEST_PATH_IMAGE006
为所有用户的视频帧率的公因数。值得一提的是,对于一组视频数据,总是可以有可行的
Figure 190492DEST_PATH_IMAGE007
Figure 174629DEST_PATH_IMAGE006
(例如,可以将
Figure 628744DEST_PATH_IMAGE007
设置为1秒并将
Figure 797557DEST_PATH_IMAGE006
设置为1fps)。因此,用户n需要将
Figure 337123DEST_PATH_IMAGE008
个视频单元卸载到边缘服务器进行计算。
当用户n将其视频单元卸载到边缘服务器进行计算时,用户n的任务卸载决策表示为
Figure 124950DEST_PATH_IMAGE009
,其中
Figure 59670DEST_PATH_IMAGE010
表示用户n卸载到边缘服务器m的视频单元的数量。对于每个服务器
Figure 274751DEST_PATH_IMAGE011
是一个非负整数,有
Figure 160667DEST_PATH_IMAGE012
卸载到特定服务器的任务过多会导致服务器拥塞和高计算延迟。因此,用户需要做出适当的卸载决策,以最小化计算延迟。视频可以被划分为一组更小的单元,每个视频单元的计算需求(如CPU周期)表示为
Figure 752186DEST_PATH_IMAGE013
。此外,使用虚拟并行处理来支持多个任务的处理。那么边缘服务器m上的计算延迟可以计算为:
Figure 915314DEST_PATH_IMAGE014
其中
Figure 425930DEST_PATH_IMAGE015
表示边缘服务器m的计算能力(如每秒的CPU周期数)。因此,可以将用户n的整体计算延迟表示为:
Figure 940088DEST_PATH_IMAGE016
从上面的等式中观察到,当用户n将其所有视频单元卸载到某一个边缘服务器m时,整体计算延迟仅取决于该服务器上的计算延迟。然而,当视频单元被卸载到多个边缘服务器时,整体计算延迟是这些服务器的计算延迟中最大的。因此,用户需要做出卸载决策,并且根据其他用户的决策来调整他们的决策,以最小化整体的计算延迟。
根据香农公式计算用户n卸载视频数据的速率为
Figure 69718DEST_PATH_IMAGE017
其中W代表信道带宽,
Figure 211986DEST_PATH_IMAGE018
代表用户n的发射功率,可以通过相关功率控制算法来确定。此外,
Figure 34449DEST_PATH_IMAGE019
表示用户n与其连接的边缘服务器m之间的信道增益,
Figure 393492DEST_PATH_IMAGE020
表示高斯白噪声的功率。
边缘服务器返回计算结果的时间开销被忽略,因为在许多视频分析应用程序(如行人计数应用)中,计算结果的大小远小于视频数据大小。因此,当用户n将
Figure 326813DEST_PATH_IMAGE021
个视频单元卸载到边缘服务器m时,传输延迟计算为:
Figure 198954DEST_PATH_IMAGE022
其中
Figure 316952DEST_PATH_IMAGE023
是每个视频单元的数据大小。在视频分析任务卸载场景中,观察到视频分析任务通常会消耗较大的计算延迟(即推理延迟),并且传输延迟远短于计算延迟。因此,可以忽略不同用户将视频数据卸载到同一服务器的传输时延差异。在本文中,收集了一个包含从用户到边缘服务器m的各种传输延迟的历史数据集
Figure 540123DEST_PATH_IMAGE024
,然后用
Figure 11555DEST_PATH_IMAGE024
中所有传输延迟的平均值来表示与服务器m相关的传输延迟。具体来说,对于任何用户n,数据传输到边缘服务器m的延迟表示为:
Figure 128416DEST_PATH_IMAGE025
其中
Figure 292681DEST_PATH_IMAGE026
是历史数据集的大小,
Figure 862203DEST_PATH_IMAGE027
Figure 871747DEST_PATH_IMAGE024
中的传输延迟历史数据。值得注意的是,可以根据视频分析应用程序的特定要求选择历史数据集,实际上
Figure 249639DEST_PATH_IMAGE024
的选择在本文研究的问题表述中无关紧要。
基于上述计算和通信模型,计算用户n的整体延迟为:
Figure 945325DEST_PATH_IMAGE028
给定其他用户的视频分析任务卸载决策
Figure 143088DEST_PATH_IMAGE029
,每个用户需要确定自己的任务卸载决策
Figure 956323DEST_PATH_IMAGE030
以最小化其整体延迟。因此,对于每个用户n,
Figure 47776DEST_PATH_IMAGE031
从上式可以看出,每个用户决定将其
Figure 22685DEST_PATH_IMAGE032
个视频单元卸载到一些适当的边缘服务器,旨在最小化计算和传输的整体延迟。
对建立的数学模型进行求解,得到多服务器多用户视频分析任务卸载策略,具体如下:
将多服务器多用户异构视频分析任务卸载问题建模为多人博弈问题,记为G=<N,S,U>,其中用户集合S被视为博弈玩家集合。
所有参与者的策略空间集合表示为
Figure 97957DEST_PATH_IMAGE033
,其中
Figure 449304DEST_PATH_IMAGE034
表示玩家n的策略空间,是用户n选择的所有策略的并集;策略空间
Figure 536209DEST_PATH_IMAGE034
中的策略个数也称为策略空间的势,取决于视频单元个数
Figure 72232DEST_PATH_IMAGE034
;任务卸载决策
Figure 244588DEST_PATH_IMAGE035
被视为每个玩家的策略,并且策略中的每个方向的量代表卸载到对应边缘服务器的视频单元的数量;让
Figure 593153DEST_PATH_IMAGE036
表示所有参与者的任务卸载策略,
Figure 534564DEST_PATH_IMAGE037
表示除玩家n之外所有其他玩家的卸载策略。
所有玩家效用函数的集合表示为
Figure 116855DEST_PATH_IMAGE038
。基于计算和传输的整体延迟
Figure 635561DEST_PATH_IMAGE039
,博弈模型G中构建每个博弈玩家n的效用函数为:
Figure 594290DEST_PATH_IMAGE040
对于每个博弈玩家来说,最大化其效用是赢得博弈的最佳策略。然而,由于每个博弈玩家的收益取决于其他玩家的策略,因此玩家决定策略是具有挑战性的。目标是设计算法以实现定义如下的纳什均衡:对于每个博弈玩家n,策略集
Figure 514841DEST_PATH_IMAGE041
在博弈模型G中构成纳什均衡,当且仅当任意博弈玩家不能通过单方面改变自己的任务卸载策略来提高个人效用,即:
Figure 533613DEST_PATH_IMAGE042
纳什均衡具有自稳定性,使得处于均衡状态的用户可以获得各方都满意的解决方案。通过实现纳什均衡,可以得到一个稳定的情况,每个用户都没有单方面改变其卸载决策的动机。
本文专注于每个用户的视频单元可以单独卸载到多个服务器的一般情况。每个用户可以选择多台服务器,并且卸载到不同服务器的视频单元数量根据服务器的计算能力而有所不同。
在视频分析任务卸载问题中定义Cut-off值如下:Cut-off值
Figure 414981DEST_PATH_IMAGE043
表示卸载到每个边缘服务器m的视频单元数量的阈值,从而最小化所有边缘服务器之间的计算和通信的最大延迟;所有Cut-off值形成集合
Figure 36455DEST_PATH_IMAGE044
,其中有下式满足:
Figure 686880DEST_PATH_IMAGE045
当所有边缘服务器的计算和通信的最大延迟最小时,有:
Figure 876552DEST_PATH_IMAGE046
其中M个边缘服务器的计算和通信延迟等于相同的常数
Figure 871316DEST_PATH_IMAGE047
,它是理论上的最优总延迟;对于每个截断值
Figure 171847DEST_PATH_IMAGE048
,有:
Figure 942357DEST_PATH_IMAGE049
通过移动上式中的项,得到:
Figure 161986DEST_PATH_IMAGE050
进一步地,通过将
Figure 17946DEST_PATH_IMAGE051
添加到上式的两边,得到:
Figure 981223DEST_PATH_IMAGE052
从而,为了最小化所有边缘服务器的计算和通信的最大延迟,对于服务器m,有:
Figure 871818DEST_PATH_IMAGE053
根据Cut-off值的定义,当卸载到边缘服务器m的视频单元数量小于
Figure 137715DEST_PATH_IMAGE054
时,至少有一个其他边缘服务器,其计算和通信延迟必定会更高。相反,当卸载到m的视频单元数量明显大于
Figure 605605DEST_PATH_IMAGE054
时,可能会提高所有服务器的整体延迟。因此,为了最小化所有边缘服务器之间计算和通信的最大延迟,卸载到每个边缘服务器的视频单元数m应该接近Cut-off值
Figure 513518DEST_PATH_IMAGE054
但是值得注意的是,根据Cut-off值相关定理计算的截断值可能不是整数,并且常量
Figure 993041DEST_PATH_IMAGE055
是理论上的最佳总延迟。因此,不能直接使用截断值作为卸载到服务器的视频单元的数量。为了确定每个用户卸载到服务器的视频单元数量,提出了一种基于GT的视频单元分配算法。通过该算法,可以实现纳什均衡,用户没有动机单方面改变他们的任务卸载决策。
基于GT的视频单元分配算法如图2所示,流程如下:
1)视频单元初始分配
基于一组截断值
Figure 318587DEST_PATH_IMAGE056
,计算用户n卸载到边缘服务器m的视频单元的初始分配量为:
Figure 883560DEST_PATH_IMAGE057
使用下取整数来近似初始视频单元分配
Figure 64006DEST_PATH_IMAGE058
。不难看出,最初倾向于将更多的视频单元分配给具有较大截断值的服务器。
2)信息收集和更新
在这个过程中,用户收集其他用户对视频单元数量的卸载决策信息,并了解边缘服务器的资源利用率。对于边缘服务器m,其视频单元数量
Figure 53828DEST_PATH_IMAGE059
更新为
Figure 661527DEST_PATH_IMAGE060
其中
Figure 979375DEST_PATH_IMAGE061
表示新卸载到服务器m的视频单元的数量,这取决于用户的视频单元分配。通过信息收集和更新,用户为剩余的视频单元分配做准备。
3)剩余视频单元分配
由于使用舍入整数来近似初始视频单元分配,因此初始视频单元分配与理论上的最佳分配之间存在差距。对于用户n,有剩余视频单元的数量:
Figure 88146DEST_PATH_IMAGE062
对于剩余的视频单元,用户将它们中的每一个卸载到潜在最优服务器。定义潜在最优服务器如下:在将视频单元卸载到某个边缘服务器之前,计算每个服务器m的潜在延迟为:
Figure 542261DEST_PATH_IMAGE063
,其中
Figure 586440DEST_PATH_IMAGE059
表示当前服务器m上的视频单元数。边缘服务器m是潜在的最优服务器当且仅当服务器m的潜在延迟在所有服务器中最小的。
考察每个边缘服务器最后达到的视频单元,因为每个边缘服务器上的每个视频单元在博弈中效用函数值是相等的。发现每个边缘服务器上最后达到的视频单元在到达该边缘服务器时,选择的是当时的潜在最优服务器,而从它达到该边缘服务器一直到所有视频单元分配完,非潜在最优服务器的总时延不会降低,因此每个边缘服务器最后达到的视频单元没有动机改变服务器选择的决策。因此,此时达到纳什均衡,没有用户有单方面改变其任务卸载决策的动机。
通过基于GT的视频单元分配算法,所有用户的视频单元被卸载到适当的边缘服务器进行视频分析,有实际的总体延迟为:
Figure 250640DEST_PATH_IMAGE064
实际总延迟D是所有边缘服务器之间计算和通信的最大延迟。在所有边缘服务器中,让
Figure 38467DEST_PATH_IMAGE065
表示计算和通信延迟最大的服务器,
Figure 973187DEST_PATH_IMAGE066
表示计算和通信延迟最小的服务器。此外,定义:
Figure 188268DEST_PATH_IMAGE067
由于计算的截止值可能不是整数,因此不能直接用作卸载到服务器的视频单元的数量。因此,可以肯定的是,卸载到服务器
Figure 949551DEST_PATH_IMAGE065
的视频单元数量不小于截止值
Figure 665703DEST_PATH_IMAGE068
,并且卸载到服务器
Figure 94410DEST_PATH_IMAGE066
的视频单元数量不大于
Figure 214813DEST_PATH_IMAGE069
。然后有
Figure 119184DEST_PATH_IMAGE070
因此,对于边缘服务器
Figure 983235DEST_PATH_IMAGE065
上的每个视频单元,如果将其传输到其他服务器
Figure 266448DEST_PATH_IMAGE066
,计算和传输的延迟不会减少,即
Figure 213545DEST_PATH_IMAGE071
。因此,有:
Figure 949420DEST_PATH_IMAGE072
即实际总延迟D与理论最优总延迟
Figure 617161DEST_PATH_IMAGE073
之间的差距不大于
Figure 378051DEST_PATH_IMAGE074
,其中
Figure 371414DEST_PATH_IMAGE075
为每个视频单元的计算需求和
Figure 453640DEST_PATH_IMAGE076
是所有边缘服务器中最小的计算能力。
本发明有益效果:
本发明提出了一种基于博弈论方法的视频分析任务卸载方法,应用于多服务器多用户的边缘计算网络场景下。根据多服务器多用户卸载视频分析任务的边缘计算场景进行建模,将其视为一个综合了数据传输时延和任务计算时延的多人博弈问题,并基于潜在最优服务器选择方法和截断值的概念,提出视频单元分配算法,通过对该博弈问题进行求解,达到纳什均衡以及获得多用户的视频分析任务卸载方案。本发明填补了领域空白,支持多服务器多用户视频分析任务卸载,同时考虑了多用户之间对网络中有限资源的竞争性,具有广泛的适用性,提升了边缘计算场景下任务分配和资源利用效率。
附图说明
图1是本发明实施多用户确定视频分析任务卸载场景示意图;
图2是本发明实施例提供的视频单元分配算法示意图。
具体实施方式
下面参照附图对本发明的技术方案做进一步的说明。
参照图1的边缘计算场景,在一个实施例中,考虑多用户确定视频分析任务卸载决策方法,包括以下步骤:
步骤(1),根据移动边缘计算场景为确定视频分析任务卸载决策问题建立数学模型。
在网络边缘,考虑N个用户,记为N={1,2,...,N},以及M个边缘服务器,记为M={1,2,...,M}。视频分析应用(例如人脸识别、车辆跟踪、行人计数)部署在边缘服务器上,用户将视频分析任务卸载给它们进行计算,如图1所示。
根据视频长度和配置(帧率和分辨率),可以将一些视频数据分成更小的单元,然后通过视频分析应用程序分析每个视频单元。例如,在目标检测应用中,任务是在卸载的视频数据中找到某个目标(例如丢失的钱包)。视频长度为600秒,帧速率为30fps。可以将视频数据分成更小的单位,其长度和帧率分别为60秒和3fps。之后,可以将目标检测子(例如YOLO)并行应用于(600s*30fps)/(60s*3fps)=100个视频单元。
每个用户n都有一个视频分析任务
Figure 190652DEST_PATH_IMAGE001
,其中
Figure 448458DEST_PATH_IMAGE002
Figure 206198DEST_PATH_IMAGE003
分别表示长度、帧率和分辨率。在一些视频分析应用中,视频数据是从监控摄像头捕获的,视频分辨率是固定的。此外,输入到用于视频分析的卷积神经网络的视频帧的尺寸通常设置为常数。因此在本文中,假设所有用户的视频数据的分辨率都是相同的常数R,根据长度和帧率将视频数据划分成更小的单位。然后可以计算用户n的视频单元数为
Figure 182244DEST_PATH_IMAGE077
,其中
Figure 457368DEST_PATH_IMAGE005
设置为所有用户视频长度的公因数,
Figure 428735DEST_PATH_IMAGE006
为所有用户的视频帧率的公因数。值得一提的是,对于一组视频数据,总是可以有可行的
Figure 763901DEST_PATH_IMAGE005
Figure 696085DEST_PATH_IMAGE006
(例如,可以将
Figure 400998DEST_PATH_IMAGE005
设置为1秒并将
Figure 633397DEST_PATH_IMAGE006
设置为1fps)。因此,用户n需要将
Figure 608306DEST_PATH_IMAGE008
个视频单元卸载到边缘服务器进行计算。
当用户n将其视频单元卸载到边缘服务器进行计算时,用户n的任务卸载决策表示为
Figure 683578DEST_PATH_IMAGE009
,其中
Figure 34925DEST_PATH_IMAGE010
表示用户n卸载到边缘服务器m的视频单元的数量。对于每个服务器
Figure 121830DEST_PATH_IMAGE011
是一个非负整数,有
Figure 657853DEST_PATH_IMAGE012
卸载到特定服务器的任务过多会导致服务器拥塞和高计算延迟。因此,用户需要做出适当的卸载决策,以最小化计算延迟。视频可以被划分为一组更小的单元,每个视频单元的计算需求(如CPU周期)表示为
Figure 564629DEST_PATH_IMAGE013
。此外,使用虚拟并行处理来支持多个任务的处理。那么边缘服务器m上的计算延迟可以计算为:
Figure 985246DEST_PATH_IMAGE014
其中
Figure 785712DEST_PATH_IMAGE078
表示边缘服务器m的计算能力(如每秒的CPU周期数)。因此,可以将用户n的整体计算延迟表示为:
Figure 633582DEST_PATH_IMAGE016
从上面的等式中观察到,当用户n将其所有视频单元卸载到某一个边缘服务器m时,整体计算延迟仅取决于该服务器上的计算延迟。然而,当视频单元被卸载到多个边缘服务器时,整体计算延迟是这些服务器的计算延迟中最大的。因此,用户需要做出卸载决策,并且根据其他用户的决策来调整他们的决策,以最小化整体的计算延迟。
根据香农公式计算用户n卸载视频数据的速率为
Figure 293234DEST_PATH_IMAGE017
其中W代表信道带宽,
Figure 609552DEST_PATH_IMAGE018
代表用户n的发射功率,可以通过相关功率控制算法来确定。此外,
Figure 671049DEST_PATH_IMAGE019
表示用户n与其连接的边缘服务器m之间的信道增益,
Figure 548875DEST_PATH_IMAGE020
表示高斯白噪声的功率。
边缘服务器返回计算结果的时间开销被忽略,因为在许多视频分析应用程序(如行人计数应用)中,计算结果的大小远小于视频数据大小。因此,当用户n将
Figure 430244DEST_PATH_IMAGE021
个视频单元卸载到边缘服务器m时,传输延迟计算为:
Figure 927084DEST_PATH_IMAGE022
其中
Figure 967721DEST_PATH_IMAGE023
是每个视频单元的数据大小。在视频分析任务卸载场景中,观察到视频分析任务通常会消耗较大的计算延迟(即推理延迟),并且传输延迟远短于计算延迟。因此,可以忽略不同用户将视频数据卸载到同一服务器的传输时延差异。在本文中,收集了一个包含从用户到边缘服务器m的各种传输延迟的历史数据集
Figure 891815DEST_PATH_IMAGE024
,然后用
Figure 385113DEST_PATH_IMAGE024
中所有传输延迟的平均值来表示与服务器m相关的传输延迟。具体来说,对于任何用户n,数据传输到边缘服务器m的延迟表示为:
Figure 685645DEST_PATH_IMAGE025
其中
Figure 190575DEST_PATH_IMAGE026
是历史数据集的大小,
Figure 177248DEST_PATH_IMAGE027
Figure 33209DEST_PATH_IMAGE024
中的传输延迟历史数据。值得注意的是,可以根据视频分析应用程序的特定要求选择历史数据集,实际上
Figure 871852DEST_PATH_IMAGE024
的选择在本文研究的问题表述中无关紧要。
基于上述计算和通信模型,计算用户n的整体延迟为:
Figure 887081DEST_PATH_IMAGE028
给定其他用户的视频分析任务卸载决策
Figure 152977DEST_PATH_IMAGE029
,每个用户需要确定自己的任务卸载决策
Figure 355289DEST_PATH_IMAGE030
以最小化其整体延迟。因此,对于每个用户n,
Figure 997622DEST_PATH_IMAGE031
从上式可以看出,每个用户决定将其
Figure 742725DEST_PATH_IMAGE032
个视频单元卸载到一些适当的边缘服务器,旨在最小化计算和传输的整体延迟。
下表展示了上述符号的含义:
表1 数学模型中使用的符号含义
Figure 304156DEST_PATH_IMAGE079
步骤(2),对建立的数学模型进行求解,得到边缘计算网络场景下的多服务器多用户视频分析任务卸载方案。
将多服务器多用户异构视频分析任务卸载问题建模为多人博弈问题,记为G=<N,S,U>,其中用户集合S被视为博弈玩家集合。
所有参与者的策略空间集合表示为
Figure 134709DEST_PATH_IMAGE080
,其中
Figure 580734DEST_PATH_IMAGE081
表示玩家n的策略空间,是用户n可以选择的所有策略的并集。策略空间
Figure 803511DEST_PATH_IMAGE081
中的策略个数也称为策略空间的势,取决于视频单元个数
Figure 676789DEST_PATH_IMAGE082
。任务卸载决策
Figure 463480DEST_PATH_IMAGE083
被视为每个玩家的策略,并且策略中的每个方向的量代表卸载到对应边缘服务器的视频单元的数量。让
Figure 572250DEST_PATH_IMAGE084
表示所有参与者的任务卸载策略,
Figure 291944DEST_PATH_IMAGE085
表示除玩家n之外所有其他玩家的卸载策略。
所有玩家效用函数的集合表示为
Figure 336124DEST_PATH_IMAGE086
。基于计算和传输的整体延迟
Figure 734744DEST_PATH_IMAGE087
,博弈模型G中构建每个博弈玩家n的效用函数为:
Figure 522571DEST_PATH_IMAGE040
对于每个博弈玩家来说,最大化其效用是赢得博弈的最佳策略。然而,由于每个博弈玩家的收益取决于其他玩家的策略,因此玩家决定策略是具有挑战性的。目标是设计算法以实现定义如下的纳什均衡:对于每个博弈玩家n,策略集
Figure 955827DEST_PATH_IMAGE088
在博弈模型G中构成纳什均衡,当且仅当任意博弈玩家不能通过单方面改变自己的任务卸载策略来提高个人效用,即:
Figure 170907DEST_PATH_IMAGE042
纳什均衡具有自稳定性,使得处于均衡状态的用户可以获得各方都满意的解决方案。通过实现纳什均衡,可以得到一个稳定的情况,每个用户都没有单方面改变其卸载决策的动机。
本文专注于每个用户的视频单元可以单独卸载到多个服务器的一般情况。每个用户可以选择多台服务器,并且卸载到不同服务器的视频单元数量根据服务器的计算能力而有所不同。
在视频分析任务卸载问题中定义Cut-off值如下:Cut-off值
Figure 197769DEST_PATH_IMAGE043
表示卸载到每个边缘服务器m的视频单元数量的阈值,从而可以最小化所有边缘服务器之间的计算和通信的最大延迟。所有Cut-off值形成集合
Figure 149807DEST_PATH_IMAGE044
,其中有下式满足:
Figure 844094DEST_PATH_IMAGE045
当所有边缘服务器的计算和通信的最大延迟最小时,有:
Figure 964496DEST_PATH_IMAGE046
其中M个边缘服务器的计算和通信延迟等于相同的常数
Figure 603288DEST_PATH_IMAGE047
,它是理论上的最优总延迟。对于每个截断值
Figure 467339DEST_PATH_IMAGE048
,有:
Figure 16132DEST_PATH_IMAGE049
通过移动上式中的项,得到:
Figure 432070DEST_PATH_IMAGE050
进一步地,通过将
Figure 433524DEST_PATH_IMAGE051
添加到上式的两边,得到:
Figure 366845DEST_PATH_IMAGE052
从而,为了最小化所有边缘服务器的计算和通信的最大延迟,对于服务器m,有:
Figure 629199DEST_PATH_IMAGE053
根据Cut-off值的定义,当卸载到边缘服务器m的视频单元数量小于
Figure 356983DEST_PATH_IMAGE054
时,至少有一个其他边缘服务器,其计算和通信延迟必定会更高。相反,当卸载到m的视频单元数量明显大于
Figure 845733DEST_PATH_IMAGE054
时,可能会提高所有服务器的整体延迟。因此,为了最小化所有边缘服务器之间计算和通信的最大延迟,卸载到每个边缘服务器的视频单元数m应该接近Cut-off值
Figure 940335DEST_PATH_IMAGE054
但是值得注意的是,根据Cut-off值相关定理计算的截断值可能不是整数,并且常量
Figure 198141DEST_PATH_IMAGE089
是理论上的最佳总延迟。因此,不能直接使用截断值作为卸载到服务器的视频单元的数量。为了确定每个用户卸载到服务器的视频单元数量,提出了一种基于GT的视频单元分配算法。通过该算法,可以实现纳什均衡,用户没有动机单方面改变他们的任务卸载决策。
基于GT的视频单元分配算法如图2所示,流程如下:
for每个用户 do:
发布其视频单元数量
Figure 955881DEST_PATH_IMAGE090
收集其他用户的视频单元数信息;
计算截断值
Figure 931928DEST_PATH_IMAGE091
计算视频单元初始分配
Figure 207051DEST_PATH_IMAGE092
for每个边缘服务器 do:
卸载
Figure 178418DEST_PATH_IMAGE092
个视频单元至边缘服务器m;
for每个用户 do:
收集他人视频单元分配信息;
Figure 513585DEST_PATH_IMAGE093
计算剩余视频单元的数量;
将剩余视频单元中的每个视频单元分配至潜在最佳服务器;
发布视频单元分配信息;
1)视频单元初始分配
基于一组截断值
Figure 445769DEST_PATH_IMAGE094
,计算用户n卸载到边缘服务器m的视频单元的初始分配量为:
Figure 649217DEST_PATH_IMAGE095
使用下取整数来近似初始视频单元分配
Figure 350457DEST_PATH_IMAGE092
。不难看出,最初倾向于将更多的视频单元分配给具有较大截断值的服务器。
2)信息收集和更新
在这个过程中,用户收集其他用户对视频单元数量的卸载决策信息,并了解边缘服务器的资源利用率。对于边缘服务器m,其视频单元数量
Figure 856524DEST_PATH_IMAGE059
更新为
Figure 902103DEST_PATH_IMAGE060
其中
Figure 519029DEST_PATH_IMAGE061
表示新卸载到服务器m的视频单元的数量,这取决于用户的视频单元分配。通过信息收集和更新,用户为剩余的视频单元分配做准备。
3)剩余视频单元分配
由于使用舍入整数来近似初始视频单元分配,因此初始视频单元分配与理论上的最佳分配之间存在差距。对于用户n,有剩余视频单元的数量:
Figure 464988DEST_PATH_IMAGE062
对于剩余的视频单元,用户将它们中的每一个卸载到潜在最优服务器。定义潜在最优服务器如下:在将视频单元卸载到某个边缘服务器之前,计算每个服务器m的潜在延迟为:
Figure 141957DEST_PATH_IMAGE063
,其中
Figure 48734DEST_PATH_IMAGE059
表示当前服务器m上的视频单元数。边缘服务器m是潜在的最优服务器当且仅当服务器m的潜在延迟在所有服务器中最小的。
考察每个边缘服务器最后达到的视频单元,因为每个边缘服务器上的每个视频单元在博弈中效用函数值是相等的。发现每个边缘服务器上最后达到的视频单元在到达该边缘服务器时,选择的是当时的潜在最优服务器,而从它达到该边缘服务器一直到所有视频单元分配完,非潜在最优服务器的总时延不会降低,因此每个边缘服务器最后达到的视频单元没有动机改变服务器选择的决策。因此,此时达到纳什均衡,没有用户有单方面改变其任务卸载决策的动机。
通过基于GT的视频单元分配算法,所有用户的视频单元被卸载到适当的边缘服务器进行视频分析,有实际的总体延迟为:
Figure 593984DEST_PATH_IMAGE064
实际总延迟D是所有边缘服务器之间计算和通信的最大延迟。在所有边缘服务器中,让
Figure 269816DEST_PATH_IMAGE096
表示计算和通信延迟最大的服务器,
Figure 117687DEST_PATH_IMAGE097
表示计算和通信延迟最小的服务器。此外,定义:
Figure 636393DEST_PATH_IMAGE067
由于计算的截止值可能不是整数,因此不能直接用作卸载到服务器的视频单元的数量。因此,可以肯定的是,卸载到服务器
Figure 595121DEST_PATH_IMAGE065
的视频单元数量不小于截止值
Figure 14208DEST_PATH_IMAGE068
,并且卸载到服务器
Figure 767400DEST_PATH_IMAGE066
的视频单元数量不大于
Figure 648769DEST_PATH_IMAGE069
。然后有
Figure 535822DEST_PATH_IMAGE070
因此,对于边缘服务器
Figure 186246DEST_PATH_IMAGE065
上的每个视频单元,如果将其传输到其他服务器
Figure 375919DEST_PATH_IMAGE066
,计算和传输的延迟不会减少,即
Figure 603638DEST_PATH_IMAGE071
。因此,有:
Figure 904170DEST_PATH_IMAGE072
即实际总延迟D与理论最优总延迟
Figure 799313DEST_PATH_IMAGE098
之间的差距不大于
Figure 159887DEST_PATH_IMAGE074
,其中
Figure 15848DEST_PATH_IMAGE075
为每个视频单元的计算需求和
Figure 480590DEST_PATH_IMAGE076
是所有边缘服务器中最小的计算能力。
以上详细描述了本发明的具体实施方案,但本发明并不限于上述实施方式中的具体细节,在本发明的技术构思范围内,可以对本发明的技术方案进行多种等同变换,这些等同变换均属于本发明的保护范围。

Claims (6)

1.一种基于博弈论的多服务器多用户视频分析任务卸载方法,其特征在于:根据多服务器多用户卸载视频分析任务的边缘计算场景进行建模,将其视为一个综合了数据传输时延和任务计算时延的多人博弈问题,并基于潜在最优服务器选择方法和截断值的概念,提出视频单元分配算法,通过对该博弈问题进行求解,达到纳什均衡以及获得多用户的视频分析任务卸载方案;包括以下步骤:
(1)对移动边缘计算场景建立数学模型:
(2)对建立的数学模型进行求解,得到多用户视频分析准确度策略。
2.根据权利要求1所述的基于博弈论的多服务器多用户视频分析任务卸载方法,其特征在于,步骤(1)具体如下:
在网络边缘,考虑N个用户,记为N={1,2,...,N},以及M个边缘服务器,记为M={1,2,...,M};视频分析应用部署在边缘服务器上,用户将视频分析任务卸载给它们进行计算;
根据视频长度和配置,将一些视频数据分成更小的单元,然后通过视频分析应用程序分析每个视频单元;
每个用户n都有一个视频分析任务
Figure 123738DEST_PATH_IMAGE001
,其中
Figure 366500DEST_PATH_IMAGE002
Figure 762846DEST_PATH_IMAGE003
分别表示长度、帧率和分辨率;在一些视频分析应用中,视频数据是从监控摄像头捕获的,视频分辨率是固定的;输入到用于视频分析的卷积神经网络的视频帧的尺寸设置为常数;假设所有用户的视频数据的分辨率都是相同的常数R,根据长度和帧率将视频数据划分成更小的单位;然后计算用户n的视频单元数为
Figure 167283DEST_PATH_IMAGE004
,其中
Figure 750711DEST_PATH_IMAGE005
设置为所有用户视频长度的公因数,
Figure 797164DEST_PATH_IMAGE006
为所有用户的视频帧率的公因数;对于一组视频数据,总是有
Figure 48017DEST_PATH_IMAGE007
Figure 623355DEST_PATH_IMAGE008
;用户n将
Figure 959658DEST_PATH_IMAGE009
个视频单元卸载到边缘服务器进行计算;
用户n的任务卸载决策表示为
Figure 278644DEST_PATH_IMAGE010
,其中
Figure 885468DEST_PATH_IMAGE011
表示用户n卸载到边缘服务器m的视频单元的数量;对于每个服务器
Figure 631708DEST_PATH_IMAGE012
是一个非负整数,有
Figure 720886DEST_PATH_IMAGE013
卸载到服务器的任务过多会导致服务器拥塞和高计算延迟,用户需要做出适当的卸载决策,以最小化计算延迟;视频被划分为一组更小的单元,每个视频单元的计算需求表示为
Figure 577984DEST_PATH_IMAGE014
;使用虚拟并行处理来支持多个任务的处理;那么边缘服务器m上的计算延迟计算为:
Figure 803429DEST_PATH_IMAGE015
其中
Figure 720569DEST_PATH_IMAGE016
表示边缘服务器m的计算能力;将用户n的整体计算延迟表示为:
Figure 31465DEST_PATH_IMAGE017
从上面的等式中观察到,当用户n将其所有视频单元卸载到某一个边缘服务器m时,整体计算延迟仅取决于该服务器上的计算延迟;然而,当视频单元被卸载到多个边缘服务器时,整体计算延迟是这些服务器的计算延迟中最大的,用户需要做出卸载决策,并且根据其他用户的决策来调整他们的决策,以最小化整体的计算延迟;
根据香农公式计算用户n卸载视频数据到边缘服务器m的速率为
Figure 692253DEST_PATH_IMAGE018
其中W代表信道带宽,
Figure 772205DEST_PATH_IMAGE019
代表用户n的发射功率,通过相关功率控制算法来确定,
Figure 860247DEST_PATH_IMAGE020
表示用户n与其连接的边缘服务器m之间的信道增益,
Figure 392859DEST_PATH_IMAGE021
表示高斯白噪声的功率,
Figure 122918DEST_PATH_IMAGE022
代表用户i的发射功率,
Figure 57376DEST_PATH_IMAGE023
表示用户i与其连接的边缘服务器j之间的信道增益;
边缘服务器返回计算结果的时间开销被忽略,当用户n将
Figure 814854DEST_PATH_IMAGE024
个视频单元卸载到边缘服务器m时,传输延迟计算为:
Figure 834762DEST_PATH_IMAGE025
其中
Figure 368512DEST_PATH_IMAGE026
是每个视频单元的数据大小;在视频分析任务卸载场景中,观察到视频分析任务会消耗计算延迟,并且传输延迟远短于计算延迟,忽略不同用户将视频数据卸载到同一服务器的传输时延差异;收集一个包含从用户到边缘服务器m的各种传输延迟的历史数据集
Figure 157476DEST_PATH_IMAGE027
,然后用
Figure 587321DEST_PATH_IMAGE027
中所有传输延迟的平均值来表示与服务器m相关的传输延迟,对于任何用户n,数据传输到边缘服务器m的延迟表示为:
Figure 94525DEST_PATH_IMAGE028
其中
Figure 900807DEST_PATH_IMAGE029
是历史数据集的大小,
Figure 809858DEST_PATH_IMAGE030
Figure 676182DEST_PATH_IMAGE027
中的传输延迟历史数据;
基于上述计算和通信模型,计算用户n的整体延迟为:
Figure 670683DEST_PATH_IMAGE031
3.根据权利要求2所述的基于博弈论的多服务器多用户视频分析任务卸载方法,其特征在于,所述模型的优化目标表示为:
给定其他用户的视频分析任务卸载决策
Figure 280656DEST_PATH_IMAGE032
,每个用户需要确定自己的任务卸载决策
Figure 778634DEST_PATH_IMAGE033
以最小化其整体延迟;因此,对于每个用户n,
Figure 815860DEST_PATH_IMAGE034
从上式看出,每个用户决定将其
Figure 533542DEST_PATH_IMAGE035
个视频单元卸载到一些适当的边缘服务器,旨在最小化计算和传输的整体延迟。
4.根据权利要求1所述的基于博弈论的多服务器多用户视频分析任务卸载方法,其特征在于,所述步骤(2)对建立的数学模型进行求解,包括以下的多人博弈问题的定义过程:
将多服务器多用户异构视频分析任务卸载问题建模为多人博弈问题,记为G=<N,S,U>,其中用户集合S被视为博弈玩家集合;
所有参与者的策略空间集合表示为
Figure 947206DEST_PATH_IMAGE036
,其中
Figure 565269DEST_PATH_IMAGE037
表示玩家n的策略空间,是用户n选择的所有策略的并集;策略空间
Figure 773397DEST_PATH_IMAGE037
中的策略个数也称为策略空间的势,取决于视频单元个数
Figure 476910DEST_PATH_IMAGE037
;任务卸载决策
Figure 428686DEST_PATH_IMAGE038
被视为每个玩家的策略,并且策略中的每个方向的量代表卸载到对应边缘服务器的视频单元的数量;让
Figure 166835DEST_PATH_IMAGE039
表示所有参与者的任务卸载策略,
Figure 545864DEST_PATH_IMAGE040
表示除玩家n之外所有其他玩家的卸载策略;
所有玩家效用函数的集合表示为
Figure 736673DEST_PATH_IMAGE041
;基于计算和传输的整体延迟
Figure 226561DEST_PATH_IMAGE042
,博弈模型G中构建每个博弈玩家n的效用函数为:
Figure 84795DEST_PATH_IMAGE043
对于每个博弈玩家来说,最大化其效用是赢得博弈的最佳策略,然而,由于每个博弈玩家的收益取决于其他玩家的策略,因此玩家决定策略是具有挑战性的;目标是设计算法以实现定义如下的纳什均衡:对于每个博弈玩家n,策略集
Figure 369146DEST_PATH_IMAGE044
在博弈模型G中构成纳什均衡,当且仅当任意博弈玩家不能通过单方面改变自己的任务卸载策略来提高个人效用,即:
Figure 47252DEST_PATH_IMAGE045
纳什均衡具有自稳定性,使得处于均衡状态的用户获得各方都满意的解决方案;通过实现纳什均衡,得到一个稳定的情况,每个用户都没有单方面改变其卸载决策的动机。
5.根据权利要求1所述的基于博弈论的多服务器多用户视频分析任务卸载方法,其特征在于,所述步骤(2)对建立的数学模型进行求解,包括以下的少数者博弈截断值计算过程:
每个用户选择多台服务器,并且卸载到不同服务器的视频单元数量根据服务器的计算能力而有所不同;
在视频分析任务卸载问题中定义Cut-off值如下:Cut-off值
Figure 839365DEST_PATH_IMAGE046
表示卸载到每个边缘服务器m的视频单元数量的阈值,从而最小化所有边缘服务器之间的计算和通信的最大延迟;所有Cut-off值形成集合
Figure 552106DEST_PATH_IMAGE047
,其中有下式满足:
Figure 272938DEST_PATH_IMAGE048
当所有边缘服务器的计算和通信的最大延迟最小时,有:
Figure 172761DEST_PATH_IMAGE049
其中M个边缘服务器的计算和通信延迟等于相同的常数
Figure 270030DEST_PATH_IMAGE050
,它是理论上的最优总延迟;对于每个截断值
Figure 837277DEST_PATH_IMAGE051
,有:
Figure 729010DEST_PATH_IMAGE052
通过移动上式中的项,得到:
Figure 381708DEST_PATH_IMAGE053
进一步地,通过将
Figure 17089DEST_PATH_IMAGE054
添加到上式的两边,得到:
Figure 438843DEST_PATH_IMAGE055
从而,为了最小化所有边缘服务器的计算和通信的最大延迟,对于服务器m,有:
Figure 767056DEST_PATH_IMAGE056
根据Cut-off值的定义,当卸载到边缘服务器m的视频单元数量小于
Figure 641471DEST_PATH_IMAGE057
时,至少有一个其他边缘服务器,其计算和通信延迟必定会更高;相反,当卸载到m的视频单元数量明显大于
Figure 316428DEST_PATH_IMAGE057
时,会提高所有服务器的整体延迟;为了最小化所有边缘服务器之间计算和通信的最大延迟,卸载到每个边缘服务器的视频单元数m接近Cut-off值
Figure 592689DEST_PATH_IMAGE057
6.根据权利要求1所述的基于博弈论的多服务器多用户视频分析任务卸载方法,其特征在于,所述步骤(2)对建立的数学模型进行求解,包括以下的基于博弈论的视频单元分配算法的设计:
基于GT的视频单元分配算法,流程如下:
1)视频单元初始分配
基于一组截断值
Figure 826224DEST_PATH_IMAGE058
,计算用户n卸载到边缘服务器m的视频单元的初始分配量为:
Figure 453514DEST_PATH_IMAGE059
使用下取整数来近似初始视频单元分配
Figure 430698DEST_PATH_IMAGE060
;不难看出,最初倾向于将更多的视频单元分配给截断值的服务器;
2)信息收集和更新
在这个过程中,用户收集其他用户对视频单元数量的卸载决策信息,并了解边缘服务器的资源利用率;对于边缘服务器m,其视频单元数量
Figure 561465DEST_PATH_IMAGE061
更新为
Figure 231480DEST_PATH_IMAGE062
其中
Figure 80488DEST_PATH_IMAGE063
表示新卸载到服务器m的视频单元的数量,这取决于用户的视频单元分配;通过信息收集和更新,用户为剩余的视频单元分配做准备;
3)剩余视频单元分配
由于使用舍入整数来近似初始视频单元分配,因此初始视频单元分配与理论上的最佳分配之间存在差距;对于用户n,有剩余视频单元的数量:
Figure 861362DEST_PATH_IMAGE064
对于剩余的视频单元,用户将它们中的每一个卸载到潜在最优服务器;定义潜在最优服务器如下:在将视频单元卸载到某个边缘服务器之前,计算每个服务器m的潜在延迟为:
Figure 846636DEST_PATH_IMAGE065
,其中
Figure 421973DEST_PATH_IMAGE066
表示当前服务器m上的视频单元数;边缘服务器m是潜在的最优服务器当且仅当服务器m的潜在延迟在所有服务器中最小的;
考察每个边缘服务器最后达到的视频单元,因为每个边缘服务器上的每个视频单元在博弈中效用函数值是相等的;发现每个边缘服务器上最后达到的视频单元在到达该边缘服务器时,选择的是当时的潜在最优服务器,而从它达到该边缘服务器一直到所有视频单元分配完,非潜在最优服务器的总时延不会降低,因此每个边缘服务器最后达到的视频单元没有动机改变服务器选择的决策;此时达到纳什均衡,没有用户有单方面改变其任务卸载决策的动机;
通过基于GT的视频单元分配算法,所有用户的视频单元被卸载到适当的边缘服务器进行视频分析,有实际的总体延迟为:
Figure 758277DEST_PATH_IMAGE067
实际总延迟D是所有边缘服务器之间计算和通信的最大延迟;在所有边缘服务器中,让
Figure 342842DEST_PATH_IMAGE068
表示计算和通信延迟最大的服务器,
Figure 970174DEST_PATH_IMAGE069
表示计算和通信延迟最小的服务器;定义:
Figure 716413DEST_PATH_IMAGE070
卸载到服务器
Figure 540012DEST_PATH_IMAGE068
的视频单元数量不小于截止值
Figure 397110DEST_PATH_IMAGE071
,并且卸载到服务器
Figure 622555DEST_PATH_IMAGE069
的视频单元数量不大于
Figure 805275DEST_PATH_IMAGE072
;然后有
Figure 850591DEST_PATH_IMAGE073
对于边缘服务器
Figure 776959DEST_PATH_IMAGE068
上的每个视频单元,如果将其传输到其他服务器
Figure 856910DEST_PATH_IMAGE069
,计算和传输的延迟不会减少,即
Figure 944952DEST_PATH_IMAGE074
;有:
Figure 477564DEST_PATH_IMAGE075
即实际总延迟D与理论最优总延迟
Figure 942044DEST_PATH_IMAGE076
之间的差距不大于
Figure 142081DEST_PATH_IMAGE077
,其中
Figure 902489DEST_PATH_IMAGE078
为每个视频单元的计算需求和,
Figure 922397DEST_PATH_IMAGE079
是所有边缘服务器中最小的计算能力。
CN202111463398.9A 2021-12-03 2021-12-03 一种基于博弈论的多服务器多用户视频分析任务卸载方法 Active CN113992945B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111463398.9A CN113992945B (zh) 2021-12-03 2021-12-03 一种基于博弈论的多服务器多用户视频分析任务卸载方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111463398.9A CN113992945B (zh) 2021-12-03 2021-12-03 一种基于博弈论的多服务器多用户视频分析任务卸载方法

Publications (2)

Publication Number Publication Date
CN113992945A true CN113992945A (zh) 2022-01-28
CN113992945B CN113992945B (zh) 2022-10-28

Family

ID=79733077

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111463398.9A Active CN113992945B (zh) 2021-12-03 2021-12-03 一种基于博弈论的多服务器多用户视频分析任务卸载方法

Country Status (1)

Country Link
CN (1) CN113992945B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114170560A (zh) * 2022-02-08 2022-03-11 深圳大学 一种基于深度强化学习的多设备边缘视频分析系统
CN115208894A (zh) * 2022-07-26 2022-10-18 福州大学 移动边缘计算中基于Stackelberg博弈的定价与计算卸载方法
CN116560839A (zh) * 2023-05-06 2023-08-08 湖南师范大学 一种基于主从博弈的边缘计算任务卸载方法和系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110377353A (zh) * 2019-05-21 2019-10-25 湖南大学 计算任务卸载系统与方法
WO2020255040A1 (en) * 2019-06-18 2020-12-24 Universidade Do Porto Method and device for live-streaming with opportunistic mobile edge cloud offloading

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110377353A (zh) * 2019-05-21 2019-10-25 湖南大学 计算任务卸载系统与方法
WO2020255040A1 (en) * 2019-06-18 2020-12-24 Universidade Do Porto Method and device for live-streaming with opportunistic mobile edge cloud offloading

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LIANG HUANG等: "Multi-Server Multi-User Multi-Task Computation Offloading for Mobile Edge Computing Networks", 《SENSORS》 *
SHERMILA RANADHEERA等: "Computation Offloading and Activation of Mobile Edge Computing Servers: A Minority Game", 《IEEE WIRELESS COMMUNICATIONS LETTERS》 *
YU CHEN等: "Multi-user Edge-assisted Video Analytics Task Offloading Game based on Deep Reinforcement Learning", 《2020 IEEE 26TH INTERNATIONAL CONFERENCE ON PARALLEL AND DISTRIBUTED SYSTEMS (ICPADS)》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114170560A (zh) * 2022-02-08 2022-03-11 深圳大学 一种基于深度强化学习的多设备边缘视频分析系统
CN114170560B (zh) * 2022-02-08 2022-05-20 深圳大学 一种基于深度强化学习的多设备边缘视频分析系统
CN115208894A (zh) * 2022-07-26 2022-10-18 福州大学 移动边缘计算中基于Stackelberg博弈的定价与计算卸载方法
CN115208894B (zh) * 2022-07-26 2023-10-13 福州大学 移动边缘计算中基于Stackelberg博弈的定价与计算卸载方法
CN116560839A (zh) * 2023-05-06 2023-08-08 湖南师范大学 一种基于主从博弈的边缘计算任务卸载方法和系统
CN116560839B (zh) * 2023-05-06 2023-11-10 湖南师范大学 一种基于主从博弈的边缘计算任务卸载方法和系统

Also Published As

Publication number Publication date
CN113992945B (zh) 2022-10-28

Similar Documents

Publication Publication Date Title
CN113992945B (zh) 一种基于博弈论的多服务器多用户视频分析任务卸载方法
CN109857546B (zh) 基于Lyapunov优化的多服务器移动边缘计算卸载方法及装置
CN109684075B (zh) 一种基于边缘计算和云计算协同进行计算任务卸载的方法
Baek et al. Managing fog networks using reinforcement learning based load balancing algorithm
CN110377353B (zh) 计算任务卸载系统与方法
Liu et al. Dare: Dynamic adaptive mobile augmented reality with edge computing
Liu et al. Adaptive multi-resource allocation for cloudlet-based mobile cloud computing system
CN110098969B (zh) 一种面向物联网的雾计算任务卸载方法
CN110798849A (zh) 一种超密网边缘计算的计算资源分配与任务卸载方法
CN110519370B (zh) 一种基于设施选址问题的边缘计算资源分配方法
CN110971706A (zh) Mec中近似最优化与基于强化学习的任务卸载方法
CN111401744B (zh) 一种移动边缘计算中不确定性环境下的动态任务卸载方法
CN111711666B (zh) 一种基于强化学习的车联网云计算资源优化方法
CN112380008A (zh) 一种面向移动边缘计算应用的多用户细粒度任务卸载调度方法
CN109992419A (zh) 一种优化的协同边缘计算低延迟任务分配卸载方法
Lai et al. Quality of experience-aware user allocation in edge computing systems: A potential game
Jia et al. Delay-sensitive multiplayer augmented reality game planning in mobile edge computing
Zhang et al. Adaptive configuration selection and bandwidth allocation for edge-based video analytics
CN110177055B (zh) 一种边缘计算场景下边缘域资源的预分配方法
CN115002113B (zh) 一种移动基站边缘计算力资源调度方法、系统、电子设备
CN113784373A (zh) 云边协同网络中时延和频谱占用联合优化方法及系统
CN112040512A (zh) 一种基于公平的雾计算任务卸载方法及系统
CN109005211B (zh) 一种无线城域网环境下的微云部署及用户任务调度方法
CN111506434A (zh) 一种任务处理方法、装置及计算机可读存储介质
Salem et al. Toward Inference Delivery Networks: Distributing Machine Learning With Optimality Guarantees

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant