CN115857491B - 一种基于合同网算法的多机器人动态任务分配方法及设备 - Google Patents
一种基于合同网算法的多机器人动态任务分配方法及设备 Download PDFInfo
- Publication number
- CN115857491B CN115857491B CN202211455637.0A CN202211455637A CN115857491B CN 115857491 B CN115857491 B CN 115857491B CN 202211455637 A CN202211455637 A CN 202211455637A CN 115857491 B CN115857491 B CN 115857491B
- Authority
- CN
- China
- Prior art keywords
- robot
- task
- tasks
- dynamic
- task allocation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Manipulator (AREA)
Abstract
本发明公开一种基于合同网算法的多机器人动态任务分配方法及设备,涉及多机器人协同控制领域。所述基于合同网算法的多机器人动态任务分配方法,在构建得到多机器人动态任务分配优化问题后,采用合同网算法求解多机器人动态任务分配优化问题,以快速、精确的完成多机器人的动态任务分配,进而解决现有技术存在的多机器人系统在动态环境下系统通信量剧增、任务完成率下降以及任务完成时间变长等问题。
Description
技术领域
本发明涉及多机器人协同控制领域,特别是涉及一种基于合同网算法的多机器人动态任务分配方法及设备。
背景技术
随着自动化技术的不断发展,多机器人协同控制在军事、工业生产等各个领域中得到了广泛的关注。相对单个机器人,多机器人系统通过相互通信和相互协调,可以更加高效的完成任务,具备更强的任务执行能力以及稳定性。作为多机器人系统中的一项关键技术,合理的任务规划是高效完成任务的前提和保障。任务规划是指在复杂约束条件下合理将多个任务分配给多个机器人去执行,以达到完成任务时间最短、总消耗能量最少以及任务完成率最优等目的。
根据应用场景的不同,多机器人任务分配的研究可以分为静态任务分配和动态任务分配。相对于静态任务分配,动态任务分配考虑到了实际中可能出现的各种突发情况例如出现新的任务、机器人能量不足等,其研究的内容更加切合实际应用,也因此得到了更多的关注。目前,解决多机器人系统动态任务分配问题的方法主要包括了基于合同网的拍卖方法以及基于优化的方法。基于优化的方法可以对动态任务分配问题进行启发式建模并以任务完成率最高、时间最短、代价最少等性能指标为目标函数求解问题的最优解或次最优解,但基于优化的方法往往需要消耗大量的计算资源(特别是在类似于多旅行商的NP-hard问题上),并且求解的结果往往难以适用于实际问题中。基于合同网的拍卖方法是一种分布式算法,其优点在于算法易于实现,可以将计算负荷分布到各机器人,具备较高的计算效率,但是基于合同网的拍卖方法需要拍卖者不断的与各机器人进行通信以发布任务并接收标值,进而导致了通信量剧增。
发明内容
为解决现有技术存在的上述问题,本发明提供了一种基于合同网算法的多机器人动态任务分配方法及设备。
为实现上述目的,本发明提供了如下方案:
一种基于合同网算法的多机器人动态任务分配方法,包括:
构建多机器人动态任务分配优化问题;
采用合同网算法求解所述多机器人动态任务分配优化问题,以完成多机器人的动态任务分配。
优选地,所述构建多机器人动态任务分配优化问题,具体包括:
基于机器人的平均移动速度、机器人执行任务实际花费的时间以及机器人所执行的相邻两个任务之间的距离确定机器人执行任务付出的时间代价;
基于机器人完成任务预计消耗的能量、机器人移动单位长度需消耗的能量和机器人所执行的相邻两个任务之间的距离确定机器人完成任务付出的能量代价;
根据所述时间代价和所述能量代价确定机器人执行任务付出的综合代价;
构建约束条件,并基于所述机器人执行任务所获得的奖励和所述综合代价构建所述多机器人动态任务分配优化问题。
优选地,所述多机器人动态任务分配优化问题为:
式中,为机器人i的任务数量,NU为机器人数量,Rewardij为机器人i执行任务j所获得的奖励,Ri为机器人i返回恢复区所需要的能量,xik为决策变量,Nmaxi为机器人i执行的最大任务数量,/>为机器人i任务列表中的任务j,/>为机器人执行任务付出的综合代价,/>为机器人i完成任务j需要付出的能量代价,energyi为机器人当前的能量状态,NT为当前目标任务的数量,s.t.为约束条件。
优选地,所述采用合同网算法求解所述多机器人动态任务分配优化问题,以完成多机器人的动态任务分配,具体包括:
基于所述多机器人动态任务分配优化问题,以距离任务目标最近的机器人作为招标者,所述招标者根据自己的能量状态决定是否进行投标,若所述招标者投标,则确定自身的标值函数得到标值,并将任务信息以及标值发送到其他机器人;其他机器人在接受到任务信息后,生成标值函数得到标值,若其他机器人的标值低于所述招标者的标值,则其他机器人不进行投标;若所述招标者不投标,则不作处理;
在执行任务的某一时刻若任务出现流拍情况,则任务进入流拍序列,等待下一个单位时间进行拍卖;当某一时刻机器人在执行任务过程中发现自身能量不足以支撑其完成任务时,任务也进入流拍序列,等待下一单位时间进行拍卖;每一机器人根据自身的任务列表中任务的综合优先级来执行任务;
在每一机器人执行任务过程中,采用A*算法确定机器人执行任务的最优路径,以生成所述多机器人动态任务分配结果。
优选地,每一机器人的任务列表中任务的综合优先级由下述公式确定:
式中,为每一机器人的任务列表中任务的综合优先级,Wtimek为机器人执行任务的等待时间、importancek为机器人执行任务的重要性,/>为机器人与任务之间的距离函数,Ui为第i个机器人,/>)为机器人i任务列表中的任务k。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供的基于合同网算法的多机器人动态任务分配方法,在构建得到多机器人动态任务分配优化问题后,采用合同网算法求解多机器人动态任务分配优化问题,以快速、精确的完成多机器人的动态任务分配,进而解决现有技术存在的多机器人系统在动态环境下系统通信量剧增、任务完成率下降以及任务完成时间变长等问题。
本发明还提供了一种电子设备,该电子设备包括:
存储器,用于存储计算机逻辑控制指令;所述计算机逻辑控制指令用于实施上述提供的基于合同网算法的多机器人动态任务分配方法;
处理器,与所述存储器连接,用于调取并执行所述计算机逻辑控制指令。
优选地,所述处理器包括:
优化问题构建模块,用于构建多机器人动态任务分配优化问题;
优化问题求解模块,用于采用合同网算法求解所述多机器人动态任务分配优化问题,以完成多机器人的动态任务分配。
优选地,所述存储器为计算机可读存储介质。
因本发明提供的电子设备实现的技术效果与上述提供的基于合同网算法的多机器人动态任务分配方法的技术效果相同,故在此不在进行赘述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的基于合同网算法的多机器人动态任务分配方法的流程图;
图2为本发明实施例提供的传统的CNP算法的流程图;
图3为本发明实施例提供的A*算法的流程图;
图4为本发明实施例提供的改进后的CNP算法流程图;
图5为本发明实施例提供的长宽比为20×10的二维栅格仿真地图;
图6为本发明实施例提供的长宽比为20×20的二维栅格仿真地图;
图7为本发明实施例提供的在20×10的地图中,多机器人系统的任务完成率随任务数量的变化曲线;
图8为本发明实施例提供的在20×10的地图中,多机器人系统的平均响应时间随任务数量的变化曲线;
图9为本发明实施例提供的在20×10的地图中,多机器人系统的平均奖励随任务数量的变化曲线。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于合同网算法的多机器人动态任务分配方法及设备,能够解决现有技术存在的多机器人系统在动态环境下系统通信量剧增、任务完成率下降以及任务完成时间变长等问题。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
本发明提供了一种基于合同网算法的多机器人动态任务分配方法,如图1所示,该方法包括:
步骤100:构建多机器人动态任务分配优化问题。
步骤101:采用合同网算法求解多机器人动态任务分配优化问题,以完成多机器人的动态任务分配。
基于上述提供的基于合同网算法的多机器人动态任务分配方法,假设在一个存在一定比例障碍物的密闭区域内有多个机器人执行多个动态任务,每个机器人在移动以及执行任务的过程都需消耗能量,在固定的恢复区域内可进行充能。任务出现的时间是随机的(任务的坐标是可获得的)且完成任务需要消耗的能量是未知的。每个机器人未被分配任务时在恢复区域内充能,收到任务时朝目标任务方向移动,并在一定条件下返回恢复区域。若执行任务的机器人数量为NU,则机器人集合为:
其中,U为有限集合,第i个机器人Ui可以如下五元组表示:
式中,是机器人当前的坐标位置,vi为机器人的平均移动速度,energyi为机器人当前的能量状态,Si表示需要执行的任务列表,γi表示机器人移动单位长度需消耗的能量,在本发明中假设机器人在移动过程中消耗的能量与路程成正比例关系。所有的任务集合可定义为:
式中,NT为当前目标任务的数量。在本发明中完成任务需要消耗的能量是未知的,因此,任务j可表示成如下形式:
式中,为任务出现的位置坐标,importancej是人为定义的任务重要程度,Wtimej为任务等待处理的时长(从任务出现到被成功分配出去的时长),costj是指完成该任务需要付出的预计能量。对于单个机器人Ui,其任务列表Si为任务集合T的子集即Si∈T。
进一步,根据移动机器人的特征,可计算移动机器人i执行任务j需要付出的时间代价为:
其中,表示机器人i任务列表中的任务j,j*表示任务j在当前任务列表中被执行的顺序,/>表示的是机器人i执行的第j*个任务的坐标,/>是指机器人i执行任务j实际花费的时间,/>为相邻两个任务之间的距离。当j*=1时,任务j是第一个被执行,表示的是机器人从初始位置移动到任务j的距离。机器人i完成任务j需要付出的能量代价为:
其中,是指机器人完成任务j预计消耗的能量。进一步的,机器人i执行任务j需要付出的综合代价可定义为:
式中α和β为正的可调系数。
考虑到实际应用中每个任务只能分配给一个机器人执行、机器人的能量和执行任务的数量是有限的以及机器人在执行任务的过程中要保证充足的能量回到固定区域进行充能,多机器人动态任务分配优化问题可以写成如下最优化问题:
其中,Rewardij表示机器人i执行任务j所获得的奖励或者回报。Ri为机器人返回恢复区所需要的能量,约束条件保证了任务载荷不能超过机器人的总载荷且机器人要保证充足的能量返回恢复区域。xik为决策变量,若任务k被分配给机器人i,则xik=1,否则xik=0。约束条件/>保证了每个任务只能分配给一个机器人。Nmaxi是指机器人i所能执行最大任务数量。/>是指机器人i的任务数量,满足/>
本发明拟采用合同网(ContractNet Protocal,CNP)算法来求解上述最优化问题。CNP算法是由Smith在1980年提出的一种启发于人们在商务过程中用于管理和服务的合同机制的算法,主要用来解决分布式系统中节点的动态信息交互问题。然而,传统的CNP算法,如图1所示,适用于任务发生频率低,任务数量少的任务分配场景中。在任务调整频率较高的动态任务分配场景中,该算法存在效率低、通信量大以及系统资源占用率高等问题。为此,本发明从以下几个方面对传统的CNP算法进行改进。
(1)招标者同样也是投标者
选择离目标最近的机器人作为招标者。招标者在收到任务信息后,首先根据自己的能量状态,决定是否进行投标,若投标,则计算自身的标值函数。然后将任务信息以及标值发送到其他机器人。其他机器人在接受到任务信息后,生成标值函数,若生成的标值要低于招标者,则不进行投标,进而减少与招标者之间的通信量。
(2)引入并发机制
引入并发机制,使得多个任务可以在一个单位时间内进行拍卖,从而减少目标拍卖的回合,提高了机器人之间的协商效率。在某一时刻若任务出现流拍的情况,则任务进入流拍序列,等待下一个单位时间进行拍卖。当某一时刻机器人在执行任务过程中发现能量不足以支撑其完成任务时,任务也进入流拍序列,等待下一单位时间进行拍卖。
(3)机器人根据任务的综合优先级来执行任务
为了尽快完成紧急的或者存在时间长的任务,进而提高任务完成率,本发明设定每个机器人采用贪心策略来执行任务,即根据其任务列表中任务的综合优先级来执行任务。进一步,本发明定义了机器人i的任务列表Si中任务的综合优先级/>为如下关于其等待时间Wtimek、重要性importancek以及机器人与任务之间距离/>的函数。
其中,a和b分别为基础时间常数和基础距离常数。若任务的重要性越高或者等待时间越长,则其优先级越高。
(4)利用A*算法求解最优路径
传统的CNP算法仅考虑了任务的分配问题,没有考虑到机器人在移动过程中的路径规划问题。为了使机器人能够快速安全的到达目标任务区域,本发明采用了A*算法来求解任务之间以及机器人与目标任务之间的最短路径,进而降低机器人在移动过程中需要的时间成本和能量消耗以及降低机器人与障碍物之间的碰撞风险。相对于其他常见的路径规划方法,A*算法具有更快的运算速度,在静态网路中能够迅速找到两点之间的最短路径。A*算法的流程图如图3所示。
基于上述描述,本发明上述提供的多机器人动态任务规划方法,用于解决在限定区域内的多机器人任务分配以及路径规划问题。首先,本发明在传统的CNP算法(如图2所示)上,引入了综合优先级以及并发机制等概念得到改进后的CNP算法(如图4所示),减少了机器人之间的通信量,提高了任务的完成率。其次,本发明采用了A*算法,将任务分配的输出作为路径规划的输入,以寻找机器人与目标任务之间的最短距离,降低机器人在移动过程的时间成本和能量消耗。
下面采用如图5和图6所示的两种不同大小的二维栅格地图来验证本发明上述提供的多机器人动态任务规划方法的有效性。
在本实施例中,为了模仿实际环境的复杂性,随机生成了多种不同的障碍物,设定了任务生成的时间间隔近似服从泊松分布,其在时间区间[0,∞)上的分布律为:
其中,λ是给定的任务生成时间间隔均值,τ是指任务生成的时间间隔,P(X=τ)是指任务时间间隔为τ的概率值,可通过设定λ以及时间区间长度控制任务出现频率。
进一步地,定义机器人i在完成其任务列表Si中任务后获得的累计奖励为:
其中,表示的是机器人i执行任务/>实际消耗的能量,是指任务/>的重要程度,ξ>0和δ分别为可调系数和常数,当任务/>的重要程度或者执行任务实际消耗能量越高,机器人所得到的回报值会越高。在本实施例中相关的参数设定如表1所示。
表1相关参数设定表
本实施例首先在一个较为简单的二维栅格地图(如图5所示)上进行仿真实验,设定时间区间为[0,200],任务出现的时间间隔服从λ∈[2,3,4,5,6]的泊松分布,机器人的数量Nr∈[3,4,5,8,10],测得的任务完成率、平均响应时间以及机器人获得的平均奖励随任务数量的变化曲线如图7-图9所示。
从图7-图9可以看出,本发明提出的上述多机器人动态任务分配方法能够较好的处理动态任务,尤其是当机器人数量Nr≥8时,任务完成率会超过90%,任务的平均响应时间能够保持在一个较低的水平。而对于机器人数量较少的多机器人系统(Nr<8),随着任务数量的增多,系统的工作压力越来越大,任务完成率会有所下降,平均响应时间也会增加。
进一步,本实施例在一个较为复杂的地图(如图6所示的20×20二维栅格地图)上进行仿真实验,对比改进CNP算法和传统CNP算法的性能。同样设定时间区间为[0,200],任务出现的时间间隔服从λ=3的泊松分布,机器人的数量Nr=5,重复十次仿真实验,测得的任务完成率(Task Completion Rate,TCR)、任务平均响应时间(Average TaskResponseTime,ATRT)以及机器人获得的平均奖励(Average Reward,AR)如表2所示。
表2实验仿真结果表
从表2所示的10次仿真实验结果可以看出,改进CNP算法不论在任务完成率还是任务平均响应时间上都要比传统CNP要好,说明了改进CNP算法可以有效的减少机器人之间的通信量,充分发多机器人系统中每个机器人的能力,提高了任务完成效率。进一步,为了对比验证基于改进CNP算法和传统CNP算法的多机器人系统在不同任务量的情况下的任务规划能力,设定时间区间为[0,200],任务出现的时间间隔服从λ∈[2,3,4,5,6]的泊松分布,机器人数量Nr=5,实验结果如表3所示,需要说明的是当λ取值越小时,任务数量越多。
表3当λ∈[2,3,4,5,6]且Nr=5时,传统CNP算法和改进CNP算法的实验对比结果。
表3实验结果表
从表3可以看出,改进CNP算法不论在任务数量较多或者较少的情况下都要比传统的CNP算法在任务完成率、平均响应时间以及平均奖励上表现的更加优秀,这充分说明了改进CNP算法能够有效地提高多机器人系统任务规划的能力。
此外,本发明还提供了一种电子设备,该电子设备包括:存储器和处理器。存储器可以是计算机可读存储介质。
其中,存储器用于存储计算机逻辑控制指令。计算机逻辑控制指令用于实施上述提供的基于合同网算法的多机器人动态任务分配方法。
处理器与存储器连接,处理器用于调取并执行计算机逻辑控制指令。
进一步,上述采用的处理器可以包括:优化问题构建模块和优化问题求解模块。
优化问题构建模块用于构建多机器人动态任务分配优化问题。
优化问题求解模块用于采用合同网算法求解多机器人动态任务分配优化问题,以完成多机器人的动态任务分配。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (7)
1.一种基于合同网算法的多机器人动态任务分配方法,其特征在于,包括:
构建多机器人动态任务分配优化问题;
采用合同网算法求解所述多机器人动态任务分配优化问题,以完成多机器人的动态任务分配,具体包括:
基于所述多机器人动态任务分配优化问题,以距离任务目标最近的机器人作为招标者,所述招标者根据自己的能量状态决定是否进行投标,若所述招标者投标,则确定自身的标值函数得到标值,并将任务信息以及标值发送到其他机器人;其他机器人在接受到任务信息后,生成标值函数得到标值,若其他机器人的标值低于所述招标者的标值,则其他机器人不进行投标;若所述招标者不投标,则不作处理;
在执行任务的某一时刻若任务出现流拍情况,则任务进入流拍序列,等待下一个单位时间进行拍卖;当某一时刻机器人在执行任务过程中发现自身能量不足以支撑其完成任务时,任务也进入流拍序列,等待下一单位时间进行拍卖;每一机器人根据自身的任务列表中任务的综合优先级来执行任务;
在每一机器人执行任务过程中,采用A*算法确定机器人执行任务的最优路径,以生成所述多机器人动态任务分配结果。
2.根据权利要求1所述的基于合同网算法的多机器人动态任务分配方法,其特征在于,所述构建多机器人动态任务分配优化问题,具体包括:
基于机器人的平均移动速度、机器人执行任务实际花费的时间以及机器人所执行的相邻两个任务之间的距离确定机器人执行任务付出的时间代价;
基于机器人完成任务预计消耗的能量、机器人移动单位长度需消耗的能量和机器人所执行的相邻两个任务之间的距离确定机器人完成任务付出的能量代价;
根据所述时间代价和所述能量代价确定机器人执行任务付出的综合代价;
构建约束条件,并基于所述机器人执行任务所获得的奖励和所述综合代价构建所述多机器人动态任务分配优化问题。
3.根据权利要求2所述的基于合同网算法的多机器人动态任务分配方法,其特征在于,所述多机器人动态任务分配优化问题为:
NSi≤Nmaxi,i=1,2,...,NU
式中,NSi为机器人i的任务数量,NU为机器人数量,Rewardij为机器人i执行任务j所获得的奖励,Ri为机器人i返回恢复区所需要的能量,xik为决策变量,Nmaxi为机器人i执行的最大任务数量,为机器人i任务列表中的任务j,/>为机器人执行任务付出的综合代价,/>为机器人i完成任务j需要付出的能量代价,energyi为机器人当前的能量状态,NT为当前目标任务的数量,s.t.为约束条件。
4.根据权利要求1所述的基于合同网算法的多机器人动态任务分配方法,其特征在于,每一机器人的任务列表中任务的综合优先级由下述公式确定:
式中,为每一机器人的任务列表中任务的综合优先级,Wtimek为机器人执行任务的等待时间、importancek为机器人执行任务的重要性,/>为机器人与任务之间的距离函数,Ui为第i个机器人,/>)为机器人i任务列表中的任务k,a为基础时间常数,b为基础距离常数。
5.一种电子设备,其特征在于,包括:
存储器,用于存储计算机逻辑控制指令;所述计算机逻辑控制指令用于实施如权利要求1-4任意一项所述的基于合同网算法的多机器人动态任务分配方法;
处理器,与所述存储器连接,用于调取并执行所述计算机逻辑控制指令。
6.根据权利要求5所述的电子设备,其特征在于,所述处理器包括:
优化问题构建模块,用于构建多机器人动态任务分配优化问题;
优化问题求解模块,用于采用合同网算法求解所述多机器人动态任务分配优化问题,以完成多机器人的动态任务分配。
7.根据权利要求5所述的电子设备,其特征在于,所述存储器为计算机可读存储介质。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211455637.0A CN115857491B (zh) | 2022-11-21 | 2022-11-21 | 一种基于合同网算法的多机器人动态任务分配方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211455637.0A CN115857491B (zh) | 2022-11-21 | 2022-11-21 | 一种基于合同网算法的多机器人动态任务分配方法及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115857491A CN115857491A (zh) | 2023-03-28 |
CN115857491B true CN115857491B (zh) | 2023-07-25 |
Family
ID=85664391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211455637.0A Active CN115857491B (zh) | 2022-11-21 | 2022-11-21 | 一种基于合同网算法的多机器人动态任务分配方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115857491B (zh) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0223464D0 (en) * | 2002-10-09 | 2002-11-13 | British Telecomm | Distributed scheduling method and apparatus |
JP2007052683A (ja) * | 2005-08-19 | 2007-03-01 | Matsushita Electric Ind Co Ltd | タスク分配システム、エージェントおよびタスク分配方法 |
CN109886574B (zh) * | 2019-02-20 | 2023-02-14 | 哈尔滨工程大学 | 一种基于改进阈值法的多机器人任务分配方法 |
CN114779813A (zh) * | 2022-05-12 | 2022-07-22 | 大连大学 | 基于改进合同网算法的多无人机动态任务分配方法 |
-
2022
- 2022-11-21 CN CN202211455637.0A patent/CN115857491B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN115857491A (zh) | 2023-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11886993B2 (en) | Method and apparatus for task scheduling based on deep reinforcement learning, and device | |
CN111835827B (zh) | 物联网边缘计算任务卸载方法及系统 | |
Yan et al. | Energy-aware systems for real-time job scheduling in cloud data centers: A deep reinforcement learning approach | |
CN108694077A (zh) | 基于改进二进制蝙蝠算法的分布式系统任务调度方法 | |
CN114340016A (zh) | 一种电网边缘计算卸载分配方法及系统 | |
CN112672382B (zh) | 混合协作计算卸载方法、装置、电子设备及存储介质 | |
Ye et al. | A new approach for resource scheduling with deep reinforcement learning | |
CN112187670B (zh) | 一种基于群体智能的网络化软件共享资源分配方法及装置 | |
Zeng et al. | Trust-based multi-agent imitation learning for green edge computing in smart cities | |
KR20230007941A (ko) | 에지 컴퓨팅 기반 산업용 사물 인터넷 환경에서 강화학습을 활용한 태스크 오프로딩 방법 | |
Tang et al. | Credibility-based cloud media resource allocation algorithm | |
Chen et al. | A3c-based and dependency-aware computation offloading and service caching in digital twin edge networks | |
CN115857491B (zh) | 一种基于合同网算法的多机器人动态任务分配方法及设备 | |
Kwon et al. | Dynamic scheduling method for cooperative resource sharing in mobile cloud computing environments | |
CN111930485A (zh) | 一种基于性能表现的作业调度方法 | |
Li et al. | Efficient data offloading using Markovian decision on state reward action in edge computing | |
Mao et al. | Priority combinatorial double auction based resource allocation in the cloud | |
CN115952054A (zh) | 一种仿真任务资源管理方法、装置、设备及介质 | |
Liu et al. | Dependency-aware task offloading for vehicular edge computing with end-edge-cloud collaborative computing | |
Zhang et al. | Online joint scheduling of delay-sensitive and computation-oriented tasks in edge computing | |
CN113448707A (zh) | 在边缘计算中在线批并行任务调度方法 | |
Wang et al. | Research on task offloading optimization strategies for vehicular networks based on game theory and deep reinforcement learning | |
Liu et al. | Implementation of ant colony optimization combined with tabu search for multi-resource fair allocation in heterogeneous cloud computing | |
Jin et al. | Extra budget-aware online task assignment in spatial crowdsourcing | |
CN116339955B (zh) | 计算换通信框架的局部优化方法、装置和计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |