CN117998327A - 一种结合容器与虚拟机的车联网任务卸载方法与系统 - Google Patents

一种结合容器与虚拟机的车联网任务卸载方法与系统 Download PDF

Info

Publication number
CN117998327A
CN117998327A CN202410345815.7A CN202410345815A CN117998327A CN 117998327 A CN117998327 A CN 117998327A CN 202410345815 A CN202410345815 A CN 202410345815A CN 117998327 A CN117998327 A CN 117998327A
Authority
CN
China
Prior art keywords
task
representing
processing
virtual machine
container
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410345815.7A
Other languages
English (en)
Other versions
CN117998327B (zh
Inventor
陈钇恺
张鸿薇
杨超
陈新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN202410345815.7A priority Critical patent/CN117998327B/zh
Publication of CN117998327A publication Critical patent/CN117998327A/zh
Application granted granted Critical
Publication of CN117998327B publication Critical patent/CN117998327B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/08Load balancing or load distribution
    • H04W28/09Management thereof
    • H04W28/0925Management thereof using policies

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种结合容器与虚拟机的车联网任务卸载方法及系统,该方法包括:获取任务;对所述任务进行分类,并选择卸载通道;基于所述卸载通道对所述任务进行处理,得到处理结果;所述卸载通道包括公交车服务器和RSU服务器;针对于公交车服务器,选择容器并建立处理通道,基于所述处理通道依序执行任务;针对于RSU服务器,建立虚拟机并基于所述虚拟机执行任务;将所述处理结果回传。该系统包括:卸载需求模块、卸载策略模块、任务处理模块和回传模块。通过使用本发明,能够在拥堵路况下为聚集车辆提供更快的处理速率以及更低的能源损耗。本发明可广泛应用于车联网技术领域。

Description

一种结合容器与虚拟机的车联网任务卸载方法与系统
技术领域
本发明涉及车联网技术领域,尤其涉及一种结合容器与虚拟机的车联网任务卸载方法与系统。
背景技术
随着5G和人工智能技术的不断发展,车辆和车内乘客的应用需求涌现、待处理任务的种类与数量不断增加,单凭车辆自身的资源不足以处理任务,进而影响服务质量(Quality of Service,QoS)。移动边缘计算将云计算资源下沉到网络边缘,能有效减少服务响应时间和核心网络流量,从而提高网络系统性能并降低总时延。
在智能交通系统中,当道路拥塞或发生事故时,聚集车辆的任务量激增,导致整体计算资源供不应求,且由于特殊路段 RSU 分布少无规律,难以满足拥堵状态下的车辆用户需求。
发明内容
有鉴于此,为了解决现有面向车联网的任务卸载方法中难以满足路面聚集车辆的计算需求,本发明提出一种结合容器与虚拟机的车联网任务卸载方法,引进公交车作为辅助的移动卸载目标,提高任务卸载的可选性与兼容性,所述方法包括以下步骤:
获取任务;
对所述任务进行分类,并选择卸载通道;
基于所述卸载通道对所述任务进行处理,得到处理结果;
所述卸载通道包括公交车服务器和RSU服务器;
针对于公交车服务器,选择容器并建立处理通道,基于所述处理通道依序执行任务;
针对于RSU服务器,建立虚拟机并基于所述虚拟机执行任务;
将所述处理结果回传。
在一些实施例中,所述对所述任务进行分类,并选择卸载通道这一步骤,其具体包括:
定义关联系数;
基于所述关联系数和预设的关联阈值对所述任务进行分类,得到分类结果;
根据所述分类结果和预设规则选择卸载通道。
通过该优选步骤,关联度进行分类,当任务关联度较高时,将任务卸载至公交车服务器中;当任务关联度交低时,将任务卸载RSU服务器中。
在一些实施例中,还包括,在公交车服务器:
将所述任务划分为若干个子任务;
根据所述子任务选择容器进行匹配,构建处理通道;
考虑当前容器的排队时延,所述子任务以任务流的形式在所述处理通道内执行。
通过该优选步骤,将任务按照种类划分成若干个子任务,为每个子任务选择合适的容器组合,构成容器通道,子任务以任务流的形式在通道内执行。
在一些实施例中,还包括,在RSU服务器:
根据所述任务的数据量与计算容量需求,创建虚拟机;
根据所述虚拟机的数量对所述任务进行等量划分,得到微任务;
将所述虚拟机与所述微任务进行匹配,并基于所述虚拟机执行所述微任务。
通过该优选步骤,任务被卸载到RSU后,可被分成多份微任务同时处理,处理后的结果整合后返还给车辆。对此在RSU服务器内创建若干虚拟机,实现对计算容量的划分。虚拟机分别处理同一个任务的不同微任务。
在一些实施例中,所述公交车服务器的时延模型包括传输时延、执行时延和排队时延,其中:
所述传输时延的表达式为:
其中,m表示在公交车服务器内的处理形式,表示任务上传的平均数据大小,表示平均带宽,/>代表用户设备的传输功率,/>代表用户设备与公交车的信道增益,/>代表噪声功率,D代表用户设备与公交车的物理距离,/>代表无线信道的传播速度;
所述执行时延的表达式为:
其中,i表示以任务流形式执行,j表示该任务流的一个节点任务,k表示容器,表示任务流中某个节点任务的任务处理时间,/>表示任务流中某个节点任务的任务数据量,/>表示按照任务流从上一节点传输过来的结果,/>表示容器的计算速度,表示被节点任务选中的容器的计算资源容量;
设某节点任务队列前有个任务等待,排队时延的表达式为:/>
其中,表示任务流中某节点任务的排队时延,/>表示排在当前任务的前一位,/>表示排在当前任务的前一位任务的处理时延。
在一些实施例中,所述公交车服务器的损耗模型表达式如下:
其中,表示任务流的资源损耗,/>表示总任务的资源损耗,/>表示任务流中某个节点任务的资源损耗,/>指的是最后一个节点任务选择的容器的计算资源容量,/>指的是任务流最后一个节点任务被处理所需的计算资源,/>表示最后一个节点任务,h的取值为任务流中节点任务的总个数,n的取值为任务流的总数。
在一些实施例中,所述RSU服务器的时延模型包括传输时延和计算时延,其中:
所述计算时延的表达式如下:
其中, RSU表示在RSU服务器内的处理形式,u表示在RSU服务器的总任务,v表示均分后的微任务,表示虚拟机,/>表示微任务的任务数据量,/>表示总任务的任务数据量,/>表示虚拟机数目,/>表示微任务的任务处理时间,/>表示虚拟机的计算速度,/>表示虚拟机的计算资源容量。
在一些实施例中,还包括:
定义多任务并行处理的目标函数;
设定约束条件,以最小化整体资源浪费以及最小化总时延为目标,对所述目标函数进行求解,得到虚拟机创建和容器选择的方案。
通过该优选步骤,设定目标函数、约束条件以及优化目标,以此求解最优的卸载策略。
在一些实施例中,还包括:
所述约束条件包括任务分类约束、公交车容器数量约束、任务处理顺序约束、虚拟机计算资源约束和资源总量约束。
本发明还提出了一种结合容器与虚拟机的车联网任务卸载系统,所述系统包括:
卸载需求模块,用于获取任务;
卸载策略模块,用于对所述任务进行分类,并选择卸载通道;
任务处理模块,基于所述卸载通道对所述任务进行处理,得到处理结果;
所述卸载通道包括公交车服务器和RSU服务器;
针对于公交车服务器,选择容器并建立处理通道,基于所述处理通道依序执行任务;
针对于RSU服务器,建立虚拟机并基于所述虚拟机执行任务;
回传模块,用于将所述处理结果回传。
基于上述方案,本发明提供了一种结合容器与虚拟机的车联网任务卸载方法及系统,以任务关联性作为划分标准,设置双卸载通道:关联性高的任务卸载到以容器为基础的公交车上;反之,选择卸载到以虚拟机为基础的RSU上。同时,针对任务处理方式的串行问题,利用不同服务器的特性构造对应虚拟化结构,使处理模式转变为并行处理。在RSU中采用动态创建虚拟机的技术,解决数据少、可划分的简单任务;在公交车中利用容器技术,为任务流选择合适的容器通道;最后,还给出了对应的基于容器与虚拟机技术相结合的双通道卸载车联网任务处理策略,以此提高任务处理效率。
附图说明
图 1 是本发明一种结合容器与虚拟机的车联网任务卸载方法的步骤流程图;
图2是本发明一种结合容器与虚拟机的车联网任务卸载系统的结构框图。
具体实施方式
本发明将任务内部的关联性作为分类标准,构建任务处理的双通道,既能简化处理流程,也能优化处理策略。进一步,基于虚拟化技术的任务处理策略,使任务在移动和固定节点上均实现并行处理,缓解了排队时延过大以及资源浪费的问题。综上,本发明从任务分类出发,将容器与虚拟机技术相结合构建了双通道任务卸载处理策略。通过在RSU内动态建立与释放虚拟机实现资源划分,对关联性低的任务分块处理;同时,在公交车内为关联性高的任务流选择容器通道,顺序处理节点任务。总之,利用任务分类与通道选择,结合虚拟机的并行处理策略,提高边缘网络的整体性能,尽量满足车辆用户的服务需求。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
应当理解,本申请中使用的“系统”、“装置”、“单元”和/或“模块”是用于区分不同级别的不同组件、元件、部件、部分或装配的一种方法。然而,如果其他词语可实现相同的目的,则可通过其他表达来替换该词语。
除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其它的步骤或元素。由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
在本申请实施例的描述中,“多个”是指两个或多于两个。以下术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。
另外,本申请中使用了流程图用来说明根据本申请的实施例的系统所执行的操作。应当理解的是,前面或后面操作不一定按照顺序来精确地执行。相反,可以按照倒序或同时处理各个步骤。同时,也可以将其他操作添加到这些过程中,或从这些过程移除某一步或数步操作。
参照图1,为本发明提出的结合容器与虚拟机的车联网任务卸载方法的一可选示例的流程示意图,该方法可以适用于计算机设备,本实施例提出的该任务卸载方法可以包括但并不局限于以下步骤:
步骤S1、获取任务;
步骤S2、对所述任务进行分类,并选择卸载通道;
步骤S3、基于所述卸载通道对所述任务进行处理,得到处理结果;
所述卸载通道包括公交车服务器和RSU服务器;
针对于公交车服务器,选择容器并建立处理通道,基于所述处理通道依序执行任务;
针对于RSU服务器,建立虚拟机并基于所述虚拟机执行任务;
步骤S4、将所述处理结果回传。
在一些可选的实施例中,所述步骤S1,其具体包括:
在车辆行驶过程中,产生任务卸载需求,获取任务,检测周围可用的RSU和公交车,并将所述任务上传至中心端进行分析。
在一些可行的实施例中,所述步骤S2,其具体包括:
S2.1、定义关联系数和设定关联阈值/>
S2.2、当时,将任务分类为关联度高的数据,将任务卸载至公交车服务器;
S2.3、当时,将任务分类为关联度低的数据,将任务卸载至RSU服务器。
当车辆在进行任务卸载时可以选择同区域的RSU或公交车。本发明提出了以任务关联度为基准的分类卸载方案。
在一些可行的实施例中,在RSU服务器内:
假定共有个任务被卸载到公交车处理。设任务/>为区域内某车辆的一个任务请求,/>被卸载至公交车后被划分成多个子任务/>e=1,...,n(如路线定位,路障检测,拥塞预测,道路规划等),/>为被划分的子任务总数。容器由于内部特性,在面对任务栏存在容器的选择以及与任务的匹配问题。容器选择并匹配任务后,依照合理的路径规划,任务以任务流的形式在通道内被处理。
例如,在与容器通道匹配后形成任务流/>,多个容器对应多个任务流节点/>,节点顺序与容器通道一一对应。单个节点任务在容器外排队,并等待前驱节点的处理结果。前驱节点的完成触发后驱节点,以此往复,最终任务如流水般被完成。
对公交车服务器进行分析:
时延模型包括:
1、传输时延,传输时延主要考虑用户上传数据的时间,包括端口速率引起的传输时延和传播时延。设任务上传的平均数据大小为,平均带宽为/>,则用户将数据上传到公交车上的时延为:/>
其中,m表示在公交车服务器内的处理形式,表示公交车服务器内的传输时延,代表用户设备的传输功率,/>代表用户设备与公交车的信道增益,/>代表噪声功率,/>代表用户设备与公交车的物理距离,/>代表无线信道的传播速度;由于处理结果数据量小,因此忽略结果回传时间。
2、执行时延,容器处理数据为被分配数据与其前驱容器处理结果之和。执行时间与该容器所在处理速度有关,设容器/>的/>处理速度为/>,任务流在容器间传输的损耗忽略不计,公交车内所有容器处理速度都相同,则节点任务进入容器/>后的执行时间为:/>
其中,i表示以任务流形式执行,j表示该任务流的一个节点任务,k表示容器,表示任务流中某个节点任务的任务处理时间,/>表示某个任务流中某个节点任务的任务数据量(若该节点为该任务流的第一个节点,则/>),/>是容器/>的计算资源容量,由系统的算法决定。
3、排队时延,容器同一时刻只能为一个通道的节点处理任务,故选择该容器建立通道的其他节点任务需在容器外排队。设某节点任务队列前有个任务等待,/>排队时延可用迭代表示:当前任务流节点/>的等待时延等于其排队队列上一个节点任务的排队时延与处理时延之和: />
其中,表示任务流中某节点任务的排队时延,/>表示排在当前任务的前一位,/>表示排在当前任务的前一位任务的处理时延,默认队列的前驱节点处理好任务后立刻传入该节点。
基于RSU服务器的任务处理方式,定义任务开始处理时间为:
由于任务的顺序流处理方式,等上一任务流节点的任务处理完并将结果运送至当前容器,容器才能对内部任务进行处理(若为工作流的首个节点,则等待前驱节点的时间为)。
其中,为节点任务的开始执行时间,/>指的是任务流前驱节点任务的完成时间,/>是处理结果在容器间的运输时间,由于容器间距很小,/>可忽略不计,默认为0。
综上,一个节点任务被处理,不仅需等待当前容器外的其他任务处理完毕,还需等待其所处任务流的所有前驱处理完成,故节点任务真正开始计算的时间是以上两个排队时延的最大值。
其中,是节点任务实际开始时间。
任务完成的总时延为:
假设不考虑其他加载时间,则任务的总完成时延为开始计算时间与执行时间之和。
完成节点任务j的总时延。
由于容器通道处理任务流的叠加性,故完成任务流的总时延取决于通道最后一个容器的完成时延,即,其中/>是任务流中最后一个节点任务。
任务被划分成了多个子任务,系统为各子任务选择容器通道处理,结果通过无线通信回传目标车辆,任务/>最终完成时间是各任务流完成时间的最大值。
其中,表示任务/>的最终完成时间,/>表示完成任务流的总时延。
损耗模型:
任务流匹配容器时,任务量如流水般从通道起点依次倒入各个容器,直至任务分配完毕,分配结束的容器代表通道的末尾。由于容器的计算资源固定,处理子任务所需计算资源往往小于该容器通道的总资源,且盈余资源来自通道的末尾容器,故这部分资源即为损耗。由于公交车内的容器可以直接连接,故不存在通信资源的损耗。综上,任务流/>的资源损耗来源于任务流末尾节点对应的容器。
其中,表示任务流的资源损耗,/>表示任务流中各个节点处理任务的资源损耗,/>为最后一个节点/>选择的容器/>的计算容量,/>指的是任务流最后一个节点任务被处理所需的计算资源,/>表示最后一个节点任务,h的取值为任务流中节点任务的总个数,n的取值为任务流的总数。
车辆任务被分成了多个子任务单独处理,任务总的资源损耗为所有子任务资源损耗之和。
其中,表示总任务的资源损耗。
在一些可行的实施例中,所述RSU服务器内:
共有个任务被卸载到RSU上进行处理。在RSU中任务内部关联性低,因此可以将任务数据划分成多份单独处理。设该区域内某车辆产生卸载任务/>,单个RSU的总计算资源为,当/>被卸载到RSU进行处理时,系统可以根据任务数据量大小与计算容量需求从/>中创建/>个虚拟机,并将/>划分成/>个微任务,微任务与虚拟机一一匹配,分别处理。
同样,当多辆车同时选择该RSU作卸载目标时,系统同样在中为各个任务创建多个虚拟机组,每个虚拟机组负责一个任务的处理,新的任务进入RSU后,系统在剩余计算资源/>中为其创建新的虚拟机组。任务被处理完成后,该任务所对应虚拟机组合的计算资源被释放并回归到/>,当RSU外有多个任务等待处理时,在/>充足的情况下,新的任务被放入RSU,重复以上操作。整个处理过程中,RSU的计算资源通过虚拟机组被动态分配、动态释放,实现了多个任务的并行处理。
对RSU服务器进行分析:
时延模型:
1、传输时延,相似于容器模型,在RSU中传输时延主要考虑用户上传数据的时间,其中包括端口速率引起的传输时延和传播时延。设用户与RSU的平均带宽为,则用户将输入数据全部上传到路边单元上的时延表示为:
其中,表示RSU服务器的传输时延,/>代表用户设备与边缘节点的信道增益,/>为噪声功率,/>代表用户设备与边缘节点的物理距离,/>代表无线信道的传播速度。
2、计算时延,任务的数据量被等分,故分配给每个虚拟机数据量均相同,则单个任务/>的计算时延等于每个微任务的处理时延。
其中,是均分后的微任务的任务数据量,/>是任务/>的数据总量,/>是经算法后得到的虚拟机数目。将任务划分后,各个微任务的处理时间满足:
其中,表示微任务的任务处理时间,/>表示虚拟机的计算速度,为固定值,表示单个虚拟机的计算容量。
3、总时延,目标车辆产生的单个任务卸载到RSU后,被处理的总时延来自传输时延和计算时延:
其中,表示RSU服务器的总时延。
损耗模型:
模型损耗主要来源于创建虚拟机不可避免的资源占用:从虚拟机生成角度来说,损耗与虚拟机数目有关,/>越大资源损耗越多;从任务大小与复杂度来说,数据量越大的任务需要虚拟机拥有更多的计算容量,任务复杂度越高,单个虚拟机的计算容量要求越高。
1、由虚拟机个数引起的资源损耗,通常情况下,虚拟机的个数与所消耗的计算资源(例如、内存、存储等)之间呈线性关系,创建越多虚拟机会占用越多的计算资源。设创建虚拟机所造成损耗的损耗系数为/>,/>表示由个数引起的损耗。
2、由任务数据量引起的资源损耗,同时损耗与单个虚拟机需处理微任务的数据大小有关,需处理的数据量越大,由计算任务引起的损耗也越大,任务数据量所引起的资源消耗与单个微任务的数据量大小同样呈线性关系,故设消耗系数来表示线性。
指的是由任务数据量引起的资源损耗。
3、总资源损耗,任务卸载到边缘节点的资源损耗来自虚拟机个数引起的资源损耗与任务数据量引起的资源损耗之和。
其中,表示任务卸载到边缘节点的资源损耗。
在一些可行的实施例中,还包括:
定义多任务并行处理的目标函数;
设定约束条件,以最小化整体资源浪费为目标,对所述目标函数进行求解,得到虚拟机创建和容器选择的方案。
约束条件包括:
1、任务分类约束:卸载的任务由传输到公交车和传输到路边单元两部分组成。
其中,表示分配至公交车服务器的任务数量,/>表示分配至RSU服务器的任务数量,/>表示总份额。
2、公交车容器数量约束:公交车的容器数量是固定的,其资源总数等于公交车可供的总计算量。
其中,指的是公交车内计算资源总数,由公交车自身决定,由于公交车规模与类型大同小异,/>一般取定值,K的取值为容器的总数。
3、任务处理顺序约束:限制了每个节点任务的开始执行时间,各任务必须等到其任务流前驱节点执行完毕,并将所需数据传输给它,才开始执行。
4、虚拟机计算资源约束:为一个总任务创建虚拟机时,每个虚拟机的计算资源相同,计算资源损耗相同;/>;/>指的是RSU内部的其中一个虚拟机的计算资源大小。
5、资源总量约束:同一时间内节点的计算资源等于当前计算资源,创建虚拟机损耗,剩余计算资源三部分之和,且节点资源大小固定。
指的是某一时间内RSU内部所有的虚拟机的计算资源大小,/>指的是创建所有虚拟机的总损耗,/>指的是剩余未被利用的计算资源,以上三部分均为含/>的变量,表示受不同时刻虚拟机内任务数量不同的影响。
由前述分析可知,结合公交车容器与RSU虚拟技术的双通道卸载处理策略的总时延为如下:
其中,表示双通道卸载处理策略的总时延。
在此双通道选择下的损耗为两者损耗的总和:
其中,表示双通道卸载处理策略的总损耗。
本发明构建了一种合理的节点选择与任务处理策略,在考虑任务依赖性和高度并发的情况下,最大限度地降低整体资源浪费,提高在任务的处理效率,因此,为实现多任务并行处理的目标函数定义为:
其中,和/>分别表示损耗和时延对应的权重。
最后,利用遗传算法模型来对目标函数进行求解:
首先为解决卸载目标选择问题构建分类模型。在本发明方法中,通过分析任务内部数据的关联性选择车辆卸载通道,因此本专利定义任务关联系数,衡量任务划分后的可独立处理程度。同时定义基于关联性的标准/>,基于/>与/>的比较判断卸载通道。由于任务的普适性,在本模型中/>趋于常值,可通过经验算法拟合得到。
为利用遗传算法求解双通道中虚拟机的最佳创建个数与容器的最佳选择方案,在RSU内的卸载处理策略中,需根据任务得到最佳的虚拟机的创建个数/>与计算资源大小,因此先根据数据量/>对/>进行随机编码(DNA基因编码),得到可能的编码集合,通过构建以最小化处理时延和最小化资源损耗的适应度函数,交叉并加以小概率扰动产生新DNA基因数据,判断是否达到最佳的服务性能。经过若干次的遗传算法迭代后,将最后得到的最佳虚拟机个数与容量大小的解经过解码实现从编码空间向解空间的映射,最终得到实现目标函数的最优解。
同理,在公交车内的容器选择方案中,优化目标是为子任务合并为任务流并选择最优的容器组。同样对容器选取方案(DNA基因编码)进行交叉与干扰,利用适应度函数对其进行筛选与选择,得到最优的容器选择方案,最后通过解码得到符合条件的选择方案。
综上,本专利拟优化决策任务的卸载路径以及决策各卸载方案的参数以最小化系统整体的服务时延与资源损耗。
基于上述具体实施例的描述,本发明的有益效果可以包括:
1、本发明构建了一种容器与虚拟机技术相结合的双通道任务卸载策略框架。现有的解决方案并没有考虑任务自身的特点,例如数据量的大小、子任务之间关联。本专利从任务的特点出发,优化选择任务的卸载目标,为不同种类的任务分配计算资源。
2、本发明构建了一种容器选择技术,用以处理内部数据较为紧密的任务,以适应动态的任务流需求。为每一个任务在公交车内选择多个容器形成“容器通道”,任务以任务流的形式在容器通道内按顺序执行,执行结果在“容器通道”的最后一个容器整合,后返还给车辆。
3、本发明设计了一种虚拟机动态创建策略,用来提高低紧密性任务的处理效率。通过分析任务的数据量与资源需求,在RSU内为每一个任务分布计算资源,并用其创建多个虚拟机,实现任务的划分与匹配,使得任务的串行输入与处理转变为并行输入与处理,提高了RSU的处理效率,实现资源损耗最小与总时延最小。
4、从整体来看,本发明通过在RSU上构建虚拟机以及在公交车内使用容器资源,使得无论是固定边缘服务点(RSU)还是移动服务点(公交车),均实现了从串行处理任务转变成并行处理任务的创新,使得任务处理效率在质上得到了提升。
如图2所示,一种结合容器与虚拟机的车联网任务卸载系统,包括:
卸载需求模块,用于获取任务;
卸载策略模块,用于对所述任务进行分类,并选择卸载通道;
任务处理模块,基于所述卸载通道对所述任务进行处理,得到处理结果;
所述卸载通道包括公交车服务器和RSU服务器;
针对于公交车服务器,选择容器并建立处理通道,基于所述处理通道依序执行任务;
针对于RSU服务器,建立虚拟机并基于所述虚拟机执行任务;
回传模块,用于将所述处理结果回传。
上述方法实施例中的内容均适用于本系统实施例中,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
一种结合容器与虚拟机的车联网任务卸载装置:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如上所述一种结合容器与虚拟机的车联网任务卸载方法。
上述方法实施例中的内容均适用于本装置实施例中,本装置实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
一种存储介质,其中存储有处理器可执行的指令,所述处理器可执行的指令在由处理器执行时用于实现如上所述一种结合容器与虚拟机的车联网任务卸载方法。
上述方法实施例中的内容均适用于本存储介质实施例中,本存储介质实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。

Claims (10)

1.一种结合容器与虚拟机的车联网任务卸载方法,其特征在于,包括以下步骤:
获取任务;
对所述任务进行分类,并选择卸载通道;
基于所述卸载通道对所述任务进行处理,得到处理结果;
所述卸载通道包括公交车服务器和RSU服务器;
针对于公交车服务器,选择容器并建立处理通道,基于所述处理通道依序执行任务;
针对于RSU服务器,建立虚拟机并基于所述虚拟机执行任务;
将所述处理结果回传。
2.根据权利要求1所述一种结合容器与虚拟机的车联网任务卸载方法,其特征在于,所述对所述任务进行分类,并选择卸载通道这一步骤,其具体包括:
定义关联系数;
基于所述关联系数和预设的关联阈值对所述任务进行分类,得到分类结果;
根据所述分类结果和预设规则选择卸载通道。
3.根据权利要求1所述一种结合容器与虚拟机的车联网任务卸载方法,其特征在于,在公交车服务器中:
将所述任务划分为若干个子任务;
根据所述子任务选择容器进行匹配,构建处理通道;
考虑当前容器的排队时延,所述子任务以任务流的形式在所述处理通道内执行。
4.根据权利要求1所述一种结合容器与虚拟机的车联网任务卸载方法,其特征在于,在RSU服务器中:
根据所述任务的数据量与计算容量需求,创建虚拟机;
根据所述虚拟机的数量对所述任务进行等量划分,得到微任务;
将所述虚拟机与所述微任务进行匹配,并基于所述虚拟机执行所述微任务。
5.根据权利要求3所述一种结合容器与虚拟机的车联网任务卸载方法,其特征在于,所述公交车服务器的时延模型包括传输时延、执行时延和排队时延,其中:
所述传输时延的表达式为:
其中,m表示在公交车服务器内的处理形式,表示任务上传的平均数据大小,/>表示公交车服务器的传输时延,/>表示平均带宽,/>代表用户设备的传输功率,/>代表用户设备与公交车的信道增益,/>代表噪声功率,/>代表用户设备与公交车的物理距离,代表无线信道的传播速度;
所述执行时延的表达式为:
其中,i表示以任务流形式执行,j表示该任务流的一个节点任务,k表示容器,表示任务流中某个节点任务的任务处理时间,/>表示任务流中某个节点任务的任务数据量,表示按照任务流从上一节点传输过来的结果,/>表示容器的计算速度,/>表示被节点任务选中的容器的计算资源容量;
设某节点任务队列前有个任务等待,排队时延的表达式为:/>
其中,表示任务流中某节点任务的排队时延,/>表示排在当前任务的前一位,表示排在当前任务的前一位任务的处理时延。
6.根据权利要求5所述一种结合容器与虚拟机的车联网任务卸载方法,其特征在于,所述公交车服务器的损耗模型表达式如下:
其中,表示任务流的资源损耗,/>表示总任务的资源损耗,/>表示任务流中某个节点任务的资源损耗,/>指的是最后一个节点任务选择的容器的计算资源容量,指的是任务流最后一个节点任务被处理所需的计算资源,/>表示最后一个节点任务,h的取值为任务流中节点任务的总个数,n的取值为任务流的总数。
7.根据权利要求4所述一种结合容器与虚拟机的车联网任务卸载方法,其特征在于,所述RSU服务器的时延模型包括传输时延和计算时延,其中:
所述计算时延的表达式如下:
其中,表示在RSU服务器内的处理形式,u表示在RSU服务器的总任务,v表示均分后的微任务,/>表示虚拟机,/>表示微任务的任务数据量,/>表示总任务的任务数据量,/>表示虚拟机数目,/>表示微任务的任务处理时间,/>表示虚拟机的计算速度,表示虚拟机的计算资源容量。
8.根据权利要求1所述一种结合容器与虚拟机的车联网任务卸载方法,其特征在于,还包括:
定义多任务并行处理的目标函数;
设定约束条件,以最小化整体资源浪费为目标,对所述目标函数进行求解,得到虚拟机创建和容器选择的方案。
9.根据权利要求8所述一种结合容器与虚拟机的车联网任务卸载方法,其特征在于,所述约束条件包括任务分类约束、公交车容器数量约束、任务处理顺序约束、虚拟机计算资源约束和资源总量约束。
10.一种结合容器与虚拟机的车联网任务卸载系统,其特征在于,包括:
卸载需求模块,用于获取任务;
卸载策略模块,用于对所述任务进行分类,并选择卸载通道;
任务处理模块,基于所述卸载通道对所述任务进行处理,得到处理结果;
所述卸载通道包括公交车服务器和RSU服务器;
针对于公交车服务器,选择容器并建立处理通道,基于所述处理通道依序执行任务;
针对于RSU服务器,建立虚拟机并基于所述虚拟机执行任务;
回传模块,用于将所述处理结果回传。
CN202410345815.7A 2024-03-26 2024-03-26 一种结合容器与虚拟机的车联网任务卸载方法与系统 Active CN117998327B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410345815.7A CN117998327B (zh) 2024-03-26 2024-03-26 一种结合容器与虚拟机的车联网任务卸载方法与系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410345815.7A CN117998327B (zh) 2024-03-26 2024-03-26 一种结合容器与虚拟机的车联网任务卸载方法与系统

Publications (2)

Publication Number Publication Date
CN117998327A true CN117998327A (zh) 2024-05-07
CN117998327B CN117998327B (zh) 2024-06-18

Family

ID=90891290

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410345815.7A Active CN117998327B (zh) 2024-03-26 2024-03-26 一种结合容器与虚拟机的车联网任务卸载方法与系统

Country Status (1)

Country Link
CN (1) CN117998327B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9697019B1 (en) * 2006-10-17 2017-07-04 Manageiq, Inc. Adapt a virtual machine to comply with system enforced policies and derive an optimized variant of the adapted virtual machine
CN112512018A (zh) * 2020-07-24 2021-03-16 北京航空航天大学 一种基于移动边缘计算的协作车辆间任务动态卸载方法
CN112883526A (zh) * 2021-03-15 2021-06-01 广西师范大学 一种任务延迟和可靠性约束下的工作负载分配方法
CN113708962A (zh) * 2021-08-20 2021-11-26 广东工业大学 一种基于网络切片的移动边缘计算资源管理方法
CN116233928A (zh) * 2023-02-15 2023-06-06 南京邮电大学 基于通感算一体化的卸载决策与资源分配方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9697019B1 (en) * 2006-10-17 2017-07-04 Manageiq, Inc. Adapt a virtual machine to comply with system enforced policies and derive an optimized variant of the adapted virtual machine
CN112512018A (zh) * 2020-07-24 2021-03-16 北京航空航天大学 一种基于移动边缘计算的协作车辆间任务动态卸载方法
CN112883526A (zh) * 2021-03-15 2021-06-01 广西师范大学 一种任务延迟和可靠性约束下的工作负载分配方法
CN113708962A (zh) * 2021-08-20 2021-11-26 广东工业大学 一种基于网络切片的移动边缘计算资源管理方法
CN116233928A (zh) * 2023-02-15 2023-06-06 南京邮电大学 基于通感算一体化的卸载决策与资源分配方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Q. ZHANG等: "Dynamic Task Offloading and Resource Allocation for Mobile-Edge Computing in Dense Cloud RAN", 《IEEE INTERNET OF THINGS JOURNAL》, vol. 7, no. 4, 17 January 2020 (2020-01-17), pages 3282 - 3299, XP011783807, DOI: 10.1109/JIOT.2020.2967502 *
于乾坤: "移动设备云中的资源分配算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》, no. 6, 15 June 2021 (2021-06-15), pages 1 - 72 *
刘伟等: "移动边缘计算中资源受限的串行任务卸载策略", 《软件学报》, vol. 31, no. 06, 8 June 2020 (2020-06-08), pages 1889 - 1908 *
周绪等: "边缘计算资源调度:历史、架构、建模与方法分析", 《计算机集成制造系统》, 2 January 2024 (2024-01-02), pages 1 - 43 *
赵梓铭等: "边缘计算:平台、应用与挑战", 《计算机研究与发展》, vol. 55, no. 02, 15 February 2018 (2018-02-15), pages 327 - 337 *

Also Published As

Publication number Publication date
CN117998327B (zh) 2024-06-18

Similar Documents

Publication Publication Date Title
CN113950066B (zh) 移动边缘环境下单服务器部分计算卸载方法、系统、设备
CN109669768B (zh) 一种面向边云结合架构的资源分配和任务调度方法
CN109104373B (zh) 网络拥塞的处理方法、装置及系统
US20170329643A1 (en) Distributed node intra-group task scheduling method and system
CN111614754B (zh) 面向雾计算的成本效率优化的动态自适应任务调度方法
CN112672382B (zh) 混合协作计算卸载方法、装置、电子设备及存储介质
CN113821318B (zh) 一种物联网跨域子任务组合协同计算方法及系统
CN113641417B (zh) 一种基于分支定界法的车辆安全任务卸载方法
CN112799843B (zh) 一种基于边缘计算的在线自适应服务配置优化方法及装置
WO2021115082A1 (zh) 作业调度方法以及作业调度装置
CN115529604A (zh) 一种基于服务器协作的联合资源分配与多元任务卸载方法
CN117998327B (zh) 一种结合容器与虚拟机的车联网任务卸载方法与系统
Bensalem et al. Towards optimal serverless function scaling in edge computing network
CN116915869A (zh) 基于云边协同的时延敏感型智能服务快速响应方法
Zhang et al. Vehicular multi-slice optimization in 5G: Dynamic preference policy using reinforcement learning
CN116996941A (zh) 基于配网云边端协同的算力卸载方法、装置及系统
CN110677352A (zh) 一种软件定义网络中单交换机单控制器传输控制方法
CN113452625B (zh) 基于深度强化学习的卸载调度与资源分配方法
CN109343940A (zh) 一种云平台中多媒体任务调度优化方法
CN1938684A (zh) 用于具有端对端延迟保证的多层基础设施的成本最小化方法和装置
CN111510882A (zh) 基于用户体验质量的车联网频谱资源分配方法及系统
Li et al. Energy-efficient offloading based on hybrid bio-inspired algorithm for edge–cloud integrated computation
Wei et al. Research on Task-Offloading Delay in the IoV Based on a Queuing Network
CN118394486B (zh) 一种算力网络任务调度方法及装置
CN116155750B (zh) 深度学习作业资源放置方法、系统、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant