CN115454614B - 一种机器人集群能量补给智能调度方法 - Google Patents
一种机器人集群能量补给智能调度方法 Download PDFInfo
- Publication number
- CN115454614B CN115454614B CN202211417396.0A CN202211417396A CN115454614B CN 115454614 B CN115454614 B CN 115454614B CN 202211417396 A CN202211417396 A CN 202211417396A CN 115454614 B CN115454614 B CN 115454614B
- Authority
- CN
- China
- Prior art keywords
- transition
- layer
- energy supply
- robot
- lpn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5083—Techniques for rebalancing the load in a distributed system
- G06F9/5088—Techniques for rebalancing the load in a distributed system involving task migration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/48—Indexing scheme relating to G06F9/48
- G06F2209/484—Precedence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/5021—Priority
Abstract
本发明涉及一种机器人集群能量补给智能调度方法,与现有技术相比解决了能量补给时未兼顾机器人集群作业考虑的缺陷。本发明包括以下步骤:机器人集群行为状态数据库及过程算子集合的构建;机器人集群状态及能量补给规划方案的监测;上层时延LPN的自动构建;双层协同逻辑Petri网的构建;机器人集群能量补给移动与补位调度协同处理。本发明基于双层协同逻辑Petri网利用分层协同思想,结合知识图谱技术,利用知识库对能量补给作业元行为数据和状态数据进行全面专业的知识表示与存储,有效降低了传统Petri网在解决调度问题过程中模型构建的复杂度。
Description
技术领域
本发明涉及机器人集群控制技术领域,具体来说是一种机器人集群能量补给智能调度方法。
背景技术
近年来,随着人工智能技术的迅猛发展,机器人及其集群相关技术的研究也取得了显著成果,但对于移动机器人尤其是移动机器人集群系统而言,其能量的存储与补充仍然是制约当前机器人及其集群技术发展的一个重要因素,《Science Robotics》更是将能量和能源问题列为了机器人技术领域未解决的十大挑战之一。
机器人集群能量不足主要表现为机器人集群个体能量随着时间和任务作业的持续进行而处于下降状态,某时刻集群个体能量数值小于一定阈值,不能满足完成当前执行任务所需的能量数值,或者由于对能量消耗估算不足导致无法满足后续任务的能量需求。该事件可能导致无法正常完成原规划的集群使命任务,严重时可能威胁集群个体自身安全。
虽然多年来随着可再生能源等新兴技术的出现有效推动了电池技术的长足进步,但是,在电池发展使得机器人一次性所获取的能量得到极大提升的同时,更要构建有效的机器人集群能量补给智能调度策略,以保证集群在相当长的时间内实现作业任务的有效完成。
同时,虽然目前相关研究人员对机器人集群的能量补给智能调度策略进行了一系列研究,但其大多只是有针对性地考虑机器人集群在能量补给智能调度过程中的有序性和协调性,以及能源的利用率来对机器人集群能量补给智能调度问题进行模型构建和策略优化,从而忽略了机器人集群本身因作业任务所需,而要保持的作业队形状态。除此之外,其针对机器人集群能量补给智能调度这一典型的离散事件系统,所构建模型的匹配程度及运算效率也缺乏考虑。因此,实现一种机器人集群能量补给智能调度方法,在满足机器人集群作业中存在的能量补给需求的同时,兼顾机器人集群作业时的队形保持状态,并考虑到所构建模型的匹配度和运算效率,具有重要的研究意义和应用价值。
发明内容
本发明的目的是为了解决现有技术中能量补给时未兼顾机器人集群作业考虑的缺陷,提供一种机器人集群能量补给智能调度方法来解决上述问题。
为了实现上述目的,本发明的技术方案如下:
一种机器人集群能量补给智能调度方法,包括以下步骤:
机器人集群行为状态数据库及过程算子集合的构建:收集整理机器人集群能量补给作业元行为数据和状态数据,构建基础知识库与过程算子集合;
机器人集群状态及能量补给规划方案的监测:监测机器人集群状态信息、监听能量补给规划方案;
上层时延LPN的自动构建:基于能量补给规划方案和基础知识库与过程算子集合,自动构建上层基于时延LPN的机器人集群能量补给智能调度方法;
双层协同逻辑Petri网的构建:构建下层基于DPN的队形补位调度方法,基于上层时延LPN中变迁逻辑条件表达式激活下层DPN,建立双层协同逻辑Petri网;
机器人集群能量补给移动与补位调度协同处理:基于双层协同逻辑Petri网进行机器人集群能量补给智能调度,实现上层时延LPN与下层DPN协同作业,能量补给移动与补位调度并行执行。
所述机器人集群行为状态数据库及过程算子集合的构建包括以下步骤:
构建基础知识库:
设计能量补给作业元行为的表示粒度与表示方法,形成机器人集群能量补给作业元行为数据,根据机器人集群作业的个体种类与个体作业特性,收集整理全部机器人集群能量补给作业元行为数据和其相关联的状态数据,设计基于“n库所-变迁-m库所”扩展三元组的知识表示形式,其中,n库所表示与其变迁相关联的n个输入库所,m库所表示与其变迁相关联的m个输出库所,然后分别将机器人集群能量补给作业元行为数据和其相关联的状态数据分别表示为变迁知识和库所知识,并对变迁知识和库所知识进行对应的知识关联,统一将能量补给作业数据以知识的形式进行存储,从而构建出基础知识库与知识图谱;
构建过程算子集合:
通过基本过程算子组合的方式建立相对应的知识组合模式,设定基本过程算子包括顺序算子-、循环算子@、与算子&&、或算子||、同步并行算子[]、同步并发算子=、同步阻塞通信算子$、同步非阻塞通信算子&,以及由上述基本过程算子构建的频繁有限组合算子,形成过程算子集合。
所述机器人集群状态及能量补给规划方案的监测包括以下步骤:
监测机器人集群状态信息:
机器人集群能量补给规划系统对机器人集群在作业区域的作业状态进行监测,其包括对机器人集群编队队形状态、机器人集群内各机器人的能耗信息进行实时监控与数据获取,对机器人集群作业任务能耗、机器人属性的实时状态信息进行监测记录;
监听能量补给规划方案:
根据机器人集群能量补给规划系统对机器人集群作业状态各类监测数据的实时反馈,基于时空序列预测方法利用反馈数据进行能耗数据预测计算,然后利用任务规划与最优化方法提供能量补给规划方案,输出机器人集群中各机器人出发进行能量补给的时刻及进行能量补给的位置,而后通过监听能量补给规划方案对能量补给规划方案数据进行实时获取与解析;在获取能量补给规划方案的基础上,将各机器人进行能量补给的任务序列作为上层时延LPN的输入,触发机器人集群能量补给智能调度。
所述上层时延LPN的自动构建包括以下步骤:
设上层时延LPN表示如下:
LPN={P, T, A, M, f I (t i ), f o (t i ), d(t i ), t(p i ), w(token i ), dt(t i )},
其中,P是有限库所集,T是基于能量补给规划方案所抽取的有限变迁集,设定T由普通变迁集TC、逻辑输入变迁集TI、逻辑输出变迁集TO和决策变迁集TD组成;
设定决策变迁只允许在指定时刻下引发变迁,在其它时间不发生变迁,所有决策变迁都为瞬时发生,将其作为决策变迁触发原则,
T=TC∪TI∪TO∪TD,
A为库所与变迁之间的连接弧,
A = (P×T)∪(T×P),
令牌标识M用向量形式表示,M中每个元素值为对应库所具有的令牌数;
f I (t i )为针对逻辑输入变迁t i 的逻辑输入条件表达式,对于∀t i ∊TI,t i 表示一个逻辑输入变迁,其变迁的引发受t i 所有输入库所集上的逻辑输入条件表达式f I (t i )的限制;
f o (t i )为针对逻辑输出变迁t i 的逻辑输出条件表达式,对于∀t i ∊TO,t i 表示一个逻辑输出变迁,其变迁t i 引发后的结果受t i 所有输出库所集上的逻辑输出条件表达式f o (t i )的限制;
d(t i )为变迁t i 执行的时延估计,设变迁t i 代表某一机器人前去进行能量补给作业,则其能量补给作业预计移动用时通过当前待补给的机器人到能量补给位置/>的距离计算所得,然后与补给机器人/>到能量补给位置/>的移动时间比较,取其最大值,然后加上能量补给准备时间pre(R i )和计划能量补给时间charge(R i ),其表达式如下:
w(token i )为在未到达决策变迁发生的时刻之前,令牌在决策变迁输入库所停留的时间;
t(p i )为令牌到达某个库所p i 的时刻,其计算公式如下:
当令牌传递过程中不含决策变迁:
当令牌传递过程中含有k个决策变迁:
dt(t i )为决策变迁t i 引发的时刻,当其满足如下条件时:
决策变迁t i 即触发;
通过监听获取能量补给规划方案,触发机器人集群能量补给智能调度,将各机器人进行能量补给的时刻序列作为上层时延LPN的输入,利用所构建的基础知识库与过程算子集合,自动构建上层时延LPN并完成初始化:
对上层时延LPN中的核心元素:变迁,进行变迁映射:
将解析能量补给规划方案所获取到的作业序列中的每一个作业单元作为变迁,直接通过单向映射的方式生成当前的变迁集合,并对应附加每个变迁的逻辑条件表达式;
对上层时延LPN中的核心元素:库所和弧,分别进行库所关联和有向弧映射关联:
库所描述机器人集群能量补给智能调度任务的状态,通过“n输入库所-变迁-m输出库所”的扩展三元组关系进行关联映射生成库所集合,其中,n库所表示与其变迁相关联的n个输入库所,m库所表示与其变迁相关联的m个输出库所,通过有向弧建立能量补给状态与能量补给作业序列之间的联系;
采用向量替换系统方法快速实现上层时延LPN的构建及初始化:
为每个变迁t建立一对U、V向量,U为输入向量,V为输出向量;
向量U在对应库所P 1的元素值由(P 1, t)输入弧的权值A 1表示,若P 1不是t的输入库所,则取零值;
向量V在对应库所P 2的元素值取决于(t, P 2)输出弧的权值A 2,若P 2不是t的输出库所,则取零值;
令牌标识M用向量形式表示,M中每个元素值为对应库所具有的令牌数,根据当前能量补给规划方案和系统的初始状态,确定上层时延LPN的初始状态,同时确定初始令牌标识M ini的值;
在构建及初始化上层时延LPN的基础上,进行上层时延LPN的变迁激发,实现上层时延LPN的更新:
判断变迁t在令牌标识M的条件下是否激发通过比较向量(M - U)的各分量元素值是否为非负整数得到;
若是,则变迁t允许激发,反之,则不能激发;
t激发后新的Petri网令牌标识为(M-U+V);
在初始令牌标识条件下,根据Petri网变迁激发规则开始激发变迁;
当变迁被激发后,令牌标识M ini会发生变化,新的令牌标识为(M ini-U+V),同时引发新的变迁激活,从而实现上层时延LPN的更新。
所述双层协同逻辑Petri网的构建包括以下步骤:
设下层DPN表示如下:
DPN={P, Tb, Ab, f i (P i+1,j ,p, E, D, Plan )},
其中,编队中机器人个数为N,构建(N-1)层组合库所集合P,第i层的第j个库所P ij 的含义为补位调度第i步第j个机器人的状态,包括原位状态和移位状态两种;
变迁Tb定义为下层DPN的核心变迁集;
Ab是库所变迁之间的连接弧,表示系统的流关系,定义为从第i层到第i+1层方向的笛卡尔积连接,
Ab=P×Tb∪Tb×P
优先级计算函数f i 基于机器人的任务优先级(p)、电量(E)、距离当前空位的距离(D)、能量补给规划方案(Plan)来设计,构建变迁选择优先级计算函数f i (P i+1,j ,p, E, D, Plan),其表达式如下:
其中:α、β、γ是影响因素偏好参数,默认均为1;
P i+1,j 的值为1或0,如果当前库所为原位状态,P i+1,j 的值为1,如果当前库所为移位状态,P i+1,j 的值为0;
plan(j)的值为0或k,如果待移位的个体在规划方案中是下一个能源补给个体,plan(j)的值为0,如果待移位的个体在规划方案中是后面第k个能源补给个体,plan(j)的值为k;
利用在上层时延LPN中的变迁逻辑条件表达式激活下层DPN,完成下层DPN的构建及初始化,触发补位调度:
调用上层时延LPN中的变迁,其如下:
基于决策变迁触发原则,根据监听到的能量补给规划方案所输出的各机器人进行能量补给的时刻序列,设定决策变迁t ds 的变迁触发时刻,当到达设定时刻时,决策变迁t ds 触发,从而下达机器人进行能量补给指令;
决策变迁t ds 的激发结果造成令牌移动,上层时延LPN进行更新,在此基础上,下一步变迁t cs 与t cm 满足变迁触发条件,从而进一步激活变迁t cs 和t cm ,由于设定变迁t cs 和变迁t cm 在上层时延LPN中的逻辑关系为并发关系,即机器人的补位调度与能量补给为并行执行,同时发生;
对上层时延LPN中的变迁t cs 进行节点层次化,进一步利用下层DPN对逻辑输出变迁t cs 进行替换,从而实现下层DPN的构建,形成双层协同逻辑Petri网;
上层时延LPN中的变迁t cs 为逻辑输出变迁,其变迁激发结果受t cs 所有输出库所集上的逻辑输出条件表达式f O (t cs )的限制;在变迁t cs 激活的同时,利用在上层时延LPN中的逻辑输出条件表达式f O (t cs )激活下层DPN,且变迁t cs 的激发结果所对应的下层DPN中库所的逻辑关系满足逻辑输出条件表达式f O (t cs ),即:f O (t cs ) = DPN;
在完成下层DPN构建的基础上,根据所获取的机器人集群状态信息,完成针对补位调度进程的下层DPN的初始化,从而激活补位调度;
针对下层DPN,基于其变迁规则实现下层DPN的更新:
调用下层DPN的变迁,其如下:
在下层DPN补位变迁t b 触发之前,基于变迁选择优先级计算函数f i (P i+1,j ,p, E, D, Plan)的计算结果选择最大值确定令牌移动方向,形成补位调度方案,调度机器人补位作业,直到无补位变迁可以激活或者设定的位置区域已经出现空位;其中,是否有补位变迁可以激活根据变迁选择优先级计算函数f i (P i+1,j ,p, E, D, Plan)的计算结果进行判断,如果该结果在补位调度阈值范围内,将依据其选取最大值关联的变迁进行激活,否则将不执行变迁t b 的激活,下层DPN更新停止,即结束补位调度;
将上层时延LPN与下层DPN相结合,形成双层协同逻辑Petri网。
所述机器人集群能量补给移动与补位调度协同处理包括以下步骤:
等待决策变迁触发时刻,激活决策变迁t ds ,令牌移动的同时,上层时延LPN进行更新,并进一步触发补位调度变迁t cs 与能量补给变迁t cm ;
变迁t cs 触发的同时,对变迁t cs 进行节点层次化,触发结果使得上层时延LPN中的变迁逻辑条件表达式激活下层DPN,下层DPN在满足变迁t b 的触发条件基础上,激活t b 执行补位变迁;变迁t cs 和变迁t cm 其逻辑关系为并发关系,同时触发,使得上层时延LPN与下层DPN协同作业,机器人的补位变迁与能量补给变迁并行执行;
根据所监测的机器人集群作业状态信息,以及上层时延LPN和下层DPN中各自变迁执行的反馈信息,及时动态调整机器人集群能量补给智能调度过程,进行能量补给与补位调度协同作业。
有益效果
本发明的一种机器人集群能量补给智能调度方法,与现有技术相比,基于双层协同逻辑Petri网利用分层协同思想,结合知识图谱技术,利用知识库对能量补给作业元行为数据和状态数据进行全面专业的知识表示与存储,有效降低了传统Petri网在解决调度问题过程中模型构建的复杂度,以最小的运算时间和成本解决机器人集群能量补给的智能调度问题。
本发明涉及的Petri网能够有效地对存在并发和冲突等问题进行建模,从而被广泛地用于调度问题的建模模拟和解决。同时,机器人集群能量补给智能调度是典型的离散事件系统,基于Petri网可以充分描述系统的并发性、异步性、非确定性和并行性,利用双层协同逻辑Petri网来对机器人能量补给与补位调度过程进行建模,基于能量补给规划方案和基础知识库与过程算子集合,采用单向映射的方式自动生成和更新上层时延LPN,采用双层协同的方式对两个Petri网进行有机融合;同时,能量补给调度主网调动补位调度子网,补位调度子网反馈影响能量补给调度主网。通过构建双层协同逻辑Petri网,充分响应系统的事件驱动、同步、并发的特性,提高能量补给调度的效率和灵活性,从而高效地实现机器人集群能量补给智能调度。
附图说明
图1为本发明的方法顺序图;
图2为本发明所涉及的双层协同Petri网的智能调度技术流程图;
图3为本发明针对机器人集群能量补给与补位调度结果展示图。
具体实施方式
为使对本发明的结构特征及所达成的功效有更进一步的了解与认识,用以较佳的实施例及附图配合详细的说明,说明如下:
本发明为了快速充分响应机器人集群能量补给智能调度这一典型的离散事件系统,提出“一种机器人集群能量补给智能调度方法”用于机器人集群能量补给与补位调度协同作业,构建双层协同逻辑Petri网,分别设计实现上层时延LPN的自动构建和下层DPN的构建,形成双层协同逻辑Petri网。基于基础知识库与过程算子集合和能量补给规划方案,自动构建基于上层时延LPN的机器人集群能量补给智能调度方法,上层时延LPN中的变迁逻辑条件表达式激活下层DPN,上层时延LPN与下层DPN双层协同,建立双层协同逻辑Petri网;同时,能量补给调度主网调动补位调度子网,补位调度子网反馈影响能量补给调度主网。通过构建双层协同逻辑Petri网,快速充分响应离散事件系统的非确定性、同步和并发的特性,实现机器人集群能量补给智能调度。
如图1和图2所示,本发明所述的一种机器人集群能量补给智能调度方法,包括以下步骤:
第一步,机器人集群行为状态数据库及过程算子集合的构建:收集整理机器人集群能量补给作业元行为数据和状态数据,构建基础知识库与过程算子集合。
分别将机器人集群能量补给作业元行为数据和状态数据表示为变迁知识和库所知识,将机器人集群能量补给作业中复杂多样化的数据以知识的形式进行结构化存储,通过知识图谱为双层协同逻辑Petri网的建模工作提供基础直观的知识引导;同时,通过构建过程算子集合,并将其融入双层协同逻辑Petri网的构建过程,为基于双层协同逻辑Petri网的机器人集群能量补给智能调度方法提供严密的数理逻辑支撑。
(1)构建基础知识库:
设计能量补给作业元行为的表示粒度与表示方法,形成机器人集群能量补给作业元行为数据,根据机器人集群作业的个体种类与个体作业特性,收集整理全部机器人集群能量补给作业元行为数据和其相关联的状态数据,设计基于“n库所-变迁-m库所”扩展三元组的知识表示形式,其中,n库所表示与其变迁相关联的n个输入库所,m库所表示与其变迁相关联的m个输出库所,然后分别将机器人集群能量补给作业元行为数据和其相关联的状态数据分别表示为变迁知识和库所知识,并对变迁知识和库所知识进行对应的知识关联,统一将能量补给作业数据以知识的形式进行存储,从而构建出基础知识库与知识图谱。
(2)构建过程算子集合:
通过基本过程算子组合的方式建立相对应的知识组合模式,设定基本过程算子包括顺序算子-、循环算子@、与算子&&、或算子||、同步并行算子[]、同步并发算子=、同步阻塞通信算子$、同步非阻塞通信算子&,以及由上述基本过程算子构建的频繁有限组合算子,形成过程算子集合。
第二步,机器人集群状态及能量补给规划方案的监测:监测机器人集群状态信息、监听能量补给规划方案。
(1)监测机器人集群状态信息:
机器人集群能量补给规划系统对机器人集群在作业区域的作业状态进行监测,其包括对机器人集群编队队形状态、机器人集群内各机器人的能耗信息进行实时监控与数据获取,对机器人集群作业任务能耗、机器人属性的实时状态信息进行监测记录;
(2)监听能量补给规划方案:
根据机器人集群能量补给规划系统对机器人集群作业状态各类监测数据的实时反馈,基于时空序列预测方法利用反馈数据进行能耗数据预测计算,然后利用任务规划与最优化方法,提供能量补给规划方案,输出机器人集群中各机器人出发进行能量补给的时刻及进行能量补给的位置,而后通过监听能量补给规划方案,对能量补给规划方案数据进行实时获取与解析;在获取能量补给规划方案的基础上,将各机器人进行能量补给的任务序列作为上层时延LPN的输入,触发机器人集群能量补给智能调度。
第三步,上层时延LPN的自动构建:基于能量补给规划方案和基础知识库与过程算子集合,自动构建上层基于时延LPN的机器人集群能量补给智能调度方法。
针对LPN的自动构建,主要包括对上层时延LPN中的核心元素:变迁、库所和弧进行映射和关联,直接通过单向映射的方式生成变迁集合,利用扩展三元组关系进行关联映射生成库所集合,并通过有向弧建立能量补给状态与能量补给作业序列之间的联系。基于此,再利用向量替换系统实现上层时延LPN的快速构建,通过自动构建方法可大幅提升模型构建的效率,有效降低机器人集群能量补给智能调度过程的模型运算时间和成本。
所述上层时延LPN的自动构建包括以下步骤:
(1)设上层时延LPN表示如下:
LPN={P, T, A, M, f I (t i ), f o (t i ), d(t i ), t(p i ), w(token i ), dt(t i )},
其中,P是有限库所集,T是基于能量补给规划方案所抽取的有限变迁集,设定T由普通变迁集TC、逻辑输入变迁集TI、逻辑输出变迁集TO和决策变迁集TD组成;
设定决策变迁只允许在指定时刻下引发变迁,在其它时间不发生变迁,所有决策变迁都为瞬时发生,将其作为决策变迁触发原则,
T=TC∪TI∪TO∪TD,
A为库所与变迁之间的连接弧,
A = (P×T)∪(T×P),
令牌标识M用向量形式表示,M中每个元素值为对应库所具有的令牌数;
f I (t i )为针对逻辑输入变迁t i 的逻辑输入条件表达式,对于∀t i ∊TI,t i 表示一个逻辑输入变迁,其变迁的引发受t i 所有输入库所集上的逻辑输入条件表达式f I (t i )的限制;
f o (t i )为针对逻辑输出变迁t i 的逻辑输出条件表达式,对于∀t i ∊TO,t i 表示一个逻辑输出变迁,其变迁t i 引发后的结果受t i 所有输出库所集上的逻辑输出条件表达式f o (t i )的限制;
d(t i )为变迁t i 执行的时延估计,设变迁t i 代表某一机器人前去进行能量补给作业,则其能量补给作业预计移动用时通过当前待补给的机器人到能量补给位置/>的距离计算所得,然后与补给机器人/>到能量补给位置/>的移动时间比较,取其最大值,然后加上能量补给准备时间pre(R i )和计划能量补给时间charge(R i ),其表达式如下:
w(token i )为在未到达决策变迁发生的时刻之前,令牌在决策变迁输入库所停留的时间;
t(p i )为令牌到达某个库所p i 的时刻,其计算公式如下:
当令牌传递过程中不含决策变迁:
当令牌传递过程中含有k个决策变迁:
dt(t i )为决策变迁t i 引发的时刻,当其满足如下条件时:
决策变迁t i 即触发。
(2)通过监听获取能量补给规划方案,触发机器人集群能量补给智能调度,将各机器人进行能量补给的时刻序列作为上层时延LPN的输入,利用所构建的基础知识库与过程算子集合,自动构建上层时延LPN并完成初始化:
A1)对上层时延LPN中的核心元素:变迁,进行变迁映射:
将解析能量补给规划方案所获取到的作业序列中的每一个作业单元作为变迁,直接通过单向映射的方式生成当前的变迁集合,并对应附加每个变迁的逻辑条件表达式;
A2)对上层时延LPN中的核心元素:库所和弧,分别进行库所关联和有向弧映射关联:
库所描述机器人集群能量补给智能调度任务的状态,通过“n输入库所-变迁-m输出库所”的扩展三元组关系进行关联映射生成库所集合,其中,n库所表示与其变迁相关联的n个输入库所,m库所表示与其变迁相关联的m个输出库所,通过有向弧建立能量补给状态与能量补给作业序列之间的联系;
A3)采用向量替换系统方法快速实现上层时延LPN的构建及初始化:
为每个变迁t建立一对U、V向量,U为输入向量,V为输出向量;
向量U在对应库所P 1的元素值由(P 1, t)输入弧的权值A 1表示,若P 1不是t的输入库所,则取零值;
向量V在对应库所P 2的元素值取决于(t, P 2)输出弧的权值A 2,若P 2不是t的输出库所,则取零值;
令牌标识M用向量形式表示,M中每个元素值为对应库所具有的令牌数,根据当前能量补给规划方案和系统的初始状态,确定上层时延LPN的初始状态,同时确定初始令牌标识M ini的值。
(3)在构建及初始化上层时延LPN的基础上,进行上层时延LPN的变迁激发,实现上层时延LPN的更新:
判断变迁t在令牌标识M的条件下是否激发通过比较向量(M - U)的各分量元素值是否为非负整数得到;
若是,则变迁t允许激发,反之,则不能激发;
t激发后新的Petri网令牌标识为(M-U+V);
在初始令牌标识条件下,根据Petri网变迁激发规则开始激发变迁;
当变迁被激发后,令牌标识M ini会发生变化,新的令牌标识为(M ini-U+V),同时引发新的变迁激活,从而实现上层时延LPN的更新。
第四步,双层协同逻辑Petri网的构建:构建下层基于DPN的队形补位调度方法,基于上层时延LPN中变迁逻辑条件表达式,激活下层DPN,建立双层协同逻辑Petri网。
针对机器人集群能量补给作业数据的复杂性和多样性特征,采用分层的思想构建双层协同逻辑Petri网,有效降低机器人集群能量补给智能调度问题的复杂性。同时,基于上层时延LPN的更新及上层时延LPN中变迁逻辑条件表达式,激活下层DPN,上层时延LPN调度下层DPN,下层DPN更新反馈上层时延LPN,形成双层协同逻辑Petri网,充分响应离散事件系统的非确定性、异步、并发等特性。
所述双层协同逻辑Petri网的构建包括以下步骤:
(1)设下层DPN表示如下:
DPN={P, Tb, Ab, f i (P i+1,j ,p, E, D, Plan )},
其中,编队中机器人个数为N,构建(N-1)层组合库所集合P,第i层的第j个库所P ij 的含义为补位调度第i步第j个机器人的状态,包括原位状态和移位状态两种;
变迁Tb定义为下层DPN的核心变迁集;
Ab是库所变迁之间的连接弧,表示系统的流关系,定义为从第i层到第i+1层方向的笛卡尔积连接,
Ab=P×Tb∪Tb×P
优先级计算函数f i 基于机器人的任务优先级(p)、电量(E)、距离当前空位的距离(D)、能量补给规划方案(Plan)来设计,构建变迁选择优先级计算函数f i (P i+1,j ,p, E, D, Plan),其表达式如下:
其中:α、β、γ是影响因素偏好参数,默认均为1;
P i+1,j 的值为1或0,如果当前库所为原位状态,P i+1,j 的值为1,如果当前库所为移位状态,P i+1,j 的值为0;
plan(j)的值为0或k,如果待移位的个体在规划方案中是下一个能源补给个体,plan(j)的值为0,如果待移位的个体在规划方案中是后面第k个能源补给个体,plan(j)的值为k;
(2)利用在上层时延LPN中的变迁逻辑条件表达式激活下层DPN,完成下层DPN的构建及初始化,触发补位调度:
B1)调用上层时延LPN中的变迁,其如下:
基于决策变迁触发原则,根据监听到的能量补给规划方案所输出的各机器人进行能量补给的时刻序列,设定决策变迁t ds 的变迁触发时刻,当到达设定时刻时,决策变迁t ds 触发,从而下达机器人进行能量补给指令;
决策变迁t ds 的激发结果造成令牌移动,上层时延LPN进行更新,在此基础上,下一步变迁t cs 与t cm 满足变迁触发条件,从而进一步激活变迁t cs 和t cm ,由于设定变迁t cs 和变迁t cm 在上层时延LPN中的逻辑关系为并发关系,即机器人的补位调度与能量补给为并行执行,同时发生;
B2)对上层时延LPN中的变迁t cs 进行节点层次化,进一步利用下层DPN对逻辑输出变迁t cs 进行替换,从而实现下层DPN的构建,形成双层协同逻辑Petri网;
上层时延LPN中的变迁t cs 为逻辑输出变迁,其变迁激发结果受t cs 所有输出库所集上的逻辑输出条件表达式f O (t cs )的限制;在变迁t cs 激活的同时,利用在上层时延LPN中的逻辑输出条件表达式f O (t cs )激活下层DPN,且变迁t cs 的激发结果所对应的下层DPN中库所的逻辑关系满足逻辑输出条件表达式f O (t cs ),即:f O (t cs ) = DPN;
B3)在完成下层DPN构建的基础上,根据所获取的机器人集群状态信息,完成针对补位调度进程的下层DPN的初始化,从而激活补位调度。
(3)针对下层DPN,基于其变迁规则实现下层DPN的更新:
调用下层DPN的变迁,其如下:
在下层DPN补位变迁t b 触发之前,基于变迁选择优先级计算函数f i (P i+1,j ,p, E, D, Plan)的计算结果选择最大值确定令牌移动方向,形成补位调度方案,调度机器人补位作业,直到无补位变迁可以激活或者设定的位置区域已经出现空位;其中,是否有补位变迁可以激活根据变迁选择优先级计算函数f i (P i+1,j ,p, E, D, Plan)的计算结果进行判断,如果该结果在补位调度阈值范围内,将依据其选取最大值关联的变迁进行激活,否则将不执行变迁t b 的激活,下层DPN更新停止,即结束补位调度。
(4)将上层时延LPN与下层DPN相结合,形成双层协同逻辑Petri网。
第五步,机器人集群能量补给移动与补位调度协同处理:基于双层协同逻辑Petri网,进行机器人集群能量补给智能调度,实现上层时延LPN与下层DPN协同作业,能量补给移动与补位调度并行执行。
(1)等待决策变迁触发时刻,激活决策变迁t ds ,令牌移动的同时,上层时延LPN进行更新,并进一步触发补位调度变迁t cs 与能量补给变迁t cm 。
(2)变迁t cs 触发的同时,对变迁t cs 进行节点层次化,触发结果使得上层时延LPN中的变迁逻辑条件表达式激活下层DPN,下层DPN在满足变迁t b 的触发条件基础上,激活t b 执行补位变迁;变迁t cs 和变迁t cm 其逻辑关系为并发关系,同时触发,使得上层时延LPN与下层DPN协同作业,机器人的补位变迁与能量补给变迁并行执行。
(3)根据所监测的机器人集群作业状态信息,以及上层时延LPN和下层DPN中各自变迁执行的反馈信息,及时动态调整机器人集群能量补给智能调度过程,进行能量补给与补位调度协同作业。
在此,以水下机器人集群在水下的作业任务为例,利用仿真实验来应用本发明所述方法,如图3所示,通过对能量补给规划方案数据进行实时获取与解析,将各机器人进行能量补给的任务序列作为上层时延LPN的输入,触发机器人集群能量补给智能调度,基于能量补给规划方案输出的各机器人出发进行能量补给的时刻,位于坐标(0,230)处的待补给机器人在当前时刻下前去位于坐标(0,0)处的补给机器人位置进行能量补给;在位于坐标(0,230)处的待补给机器人前去进行能量补给的同时,触发下层DPN进行补位调度,基于变迁选择优先级计算函数f i (P i+1,j ,p, E, D, Plan)的计算结果,使得位于坐标(-25,180)处的机器人前往(0,230)坐标处进行补位,同时,位于坐标(25,80)处的机器人前往(-25,180)坐标处进行补位;至此,完成基于双层协同逻辑Petri网的机器人集群能量补给智能调度,实现机器人集群能量补给移动与补位调度同时触发,协同并行执行。
其中,水下通信依赖于带宽较窄、误码率较高的水声通讯,因此优先级计算中的状态信息具有非实时性。本发明中将采用时间序列估计的方法估计当前时刻的机器人状态信息,主要包括机器人传感器信息和电量信息。补位调度指令考虑水声传播的时延,将根据待移动的机器人与指挥船的实时距离信息,计算时延后提前发出移动指令。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是本发明的原理,在不脱离本发明精神和范围的前提下本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明的范围内。本发明要求的保护范围由所附的权利要求书及其等同物界定。
Claims (5)
1.一种基于双层协同逻辑Petri网的机器人集群能量补给智能调度方法,其特征在于,包括以下步骤:
11)机器人集群行为状态数据库及过程算子集合的构建:收集整理机器人集群能量补给作业元行为数据和状态数据,构建基础知识库与过程算子集合;
12)机器人集群状态及能量补给规划方案的监测:监测机器人集群状态信息、监听能量补给规划方案;
13)上层时延LPN的自动构建:基于能量补给规划方案和基础知识库与过程算子集合,自动构建上层基于时延LPN的机器人集群能量补给智能调度方法;
所述上层时延LPN的自动构建包括以下步骤:
131)设上层时延LPN表示如下:
LPN={P, T, A, M, f I (t i ), f o (t i ), d(t i ), t(p i ), w(token i ), dt(t i )},
其中,P是有限库所集,T是基于能量补给规划方案所抽取的有限变迁集,设定T由普通变迁集TC、逻辑输入变迁集TI、逻辑输出变迁集TO和决策变迁集TD组成;
设定决策变迁只允许在指定时刻下引发变迁,在其它时间不发生变迁,所有决策变迁都为瞬时发生,将其作为决策变迁触发原则,
T=TC∪TI∪TO∪TD,
A为库所与变迁之间的连接弧,
A = (P×T)∪(T×P),
令牌标识M用向量形式表示,M中每个元素值为对应库所具有的令牌数;
f I (t i )为针对逻辑输入变迁t i 的逻辑输入条件表达式,对于∀t i ∊TI,t i 表示一个逻辑输入变迁,其变迁的引发受t i 所有输入库所集上的逻辑输入条件表达式f I (t i )的限制;
f o (t i )为针对逻辑输出变迁t i 的逻辑输出条件表达式,对于∀t i ∊TO,t i 表示一个逻辑输出变迁,其变迁t i 引发后的结果受t i 所有输出库所集上的逻辑输出条件表达式f o (t i )的限制;
d(t i )为变迁t i 执行的时延估计,设变迁t i 代表某一机器人前去进行能量补给作业,则其能量补给作业预计移动用时通过当前待补给的机器人到能量补给位置的距离计算所得,然后与补给机器人到能量补给位置的移动时间比较,取其最大值,然后加上能量补给准备时间pre(R i )和计划能量补给时间charge(R i ),其表达式如下:
w(token i )为在未到达决策变迁发生的时刻之前,令牌在该决策变迁输入库所停留的时间;
t(p i )为令牌到达某个库所p i 的时刻,其计算公式如下:
当令牌传递过程中不含决策变迁:
当令牌传递过程中含有k个决策变迁:
dt(t i )为决策变迁t i 引发的时刻,当其满足如下条件时:
决策变迁t i 即触发;
132)通过监听获取能量补给规划方案,触发机器人集群能量补给智能调度,将各机器人进行能量补给的时刻序列作为上层时延LPN的输入,利用所构建的基础知识库与过程算子集合,自动构建上层时延LPN并完成初始化:
1321)对上层时延LPN中的核心元素:变迁,进行变迁映射:
将解析能量补给规划方案所获取到的作业序列中的每一个作业单元作为变迁,直接通过单向映射的方式生成当前的变迁集合,并对应附加每个变迁的逻辑条件表达式;
1322)对上层时延LPN中的核心元素:库所和弧,分别进行库所关联和有向弧映射关联:
库所描述机器人集群能量补给智能调度任务的状态,通过“n输入库所-变迁-m输出库所”的扩展三元组关系进行关联映射生成库所集合,其中,n库所表示与其变迁相关联的n个输入库所,m库所表示与其变迁相关联的m个输出库所,通过有向弧建立能量补给状态与能量补给作业序列之间的联系;
1323)采用向量替换系统方法快速实现上层时延LPN的构建及初始化:
为每个变迁t建立一对U、V向量,U为输入向量,V为输出向量;
向量U在对应库所P 1的元素值由(P 1, t)输入弧的权值A 1表示,若P 1不是t的输入库所,则取零值;
向量V在对应库所P 2的元素值取决于(t, P 2)输出弧的权值A 2,若P 2不是t的输出库所,则取零值;
令牌标识M用向量形式表示,M中每个元素值为对应库所具有的令牌数,根据当前能量补给规划方案和系统的初始状态,确定上层时延LPN的初始状态,同时确定初始令牌标识M ini的值;
133)在构建及初始化上层时延LPN的基础上,进行上层时延LPN的变迁激发,实现上层时延LPN的更新:
判断变迁t在令牌标识M的条件下是否激发通过比较向量(M - U)的各分量元素值是否为非负整数得到;
若是,则变迁t允许激发,反之,则不能激发;
t激发后新的Petri网令牌标识为(M-U+V);
在初始令牌标识条件下,根据Petri网变迁激发规则开始激发变迁;
当变迁被激发后,令牌标识M ini会发生变化,新的令牌标识为(M ini-U+V),同时引发新的变迁激活,从而实现上层时延LPN的更新;
14)双层协同逻辑Petri网的构建:构建下层基于DPN的队形补位调度方法,基于上层时延LPN中变迁逻辑条件表达式激活下层DPN,建立双层协同逻辑Petri网;
15)机器人集群能量补给移动与补位调度协同处理:基于双层协同逻辑Petri网进行机器人集群能量补给智能调度,实现上层时延LPN与下层DPN协同作业,能量补给移动与补位调度并行执行。
2.根据权利要求1所述的基于双层协同逻辑Petri网的机器人集群能量补给智能调度方法,其特征在于,所述机器人集群行为状态数据库及过程算子集合的构建包括以下步骤:
21)构建基础知识库:
设计能量补给作业元行为的表示粒度与表示方法,形成机器人集群能量补给作业元行为数据,根据机器人集群作业的个体种类与个体作业特性,收集整理全部机器人集群能量补给作业元行为数据和其相关联的状态数据,设计基于“n库所-变迁-m库所”扩展三元组的知识表示形式,其中,n库所表示与其变迁相关联的n个输入库所,m库所表示与其变迁相关联的m个输出库所,然后分别将机器人集群能量补给作业元行为数据和其相关联的状态数据分别表示为变迁知识和库所知识,并对变迁知识和库所知识进行对应的知识关联,统一将能量补给作业数据以知识的形式进行存储,从而构建出基础知识库与知识图谱;
22)构建过程算子集合:
通过基本过程算子组合的方式建立相对应的知识组合模式,设定基本过程算子包括顺序算子-、循环算子@、与算子&&、或算子||、同步并行算子[]、同步并发算子=、同步阻塞通信算子$、同步非阻塞通信算子&,以及由上述基本过程算子构建的频繁有限组合算子,形成过程算子集合。
3.根据权利要求1所述的基于双层协同逻辑Petri网的机器人集群能量补给智能调度方法,其特征在于,所述机器人集群状态及能量补给规划方案的监测包括以下步骤:
31)监测机器人集群状态信息:
机器人集群能量补给规划系统对机器人集群在作业区域的作业状态进行监测,其包括对机器人集群编队队形状态、机器人集群内各机器人的能耗信息进行实时监控与数据获取,对机器人集群作业任务能耗、机器人属性的实时状态信息进行监测记录;
32)监听能量补给规划方案:
根据机器人集群能量补给规划系统对机器人集群作业状态各类监测数据的实时反馈,基于时空序列预测方法利用反馈数据进行能耗数据预测计算,然后利用任务规划与最优化方法提供能量补给规划方案,输出机器人集群中各机器人出发进行能量补给的时刻及进行能量补给的位置,而后通过监听能量补给规划方案对能量补给规划方案数据进行实时获取与解析;在获取能量补给规划方案的基础上,将各机器人进行能量补给的任务序列作为上层时延LPN的输入,触发机器人集群能量补给智能调度。
4.根据权利要求1所述的基于双层协同逻辑Petri网的机器人集群能量补给智能调度方法,其特征在于,所述双层协同逻辑Petri网的构建包括以下步骤:
41)设下层DPN表示如下:
DPN={P, Tb, Ab, f i (P i+1,j ,p, E, D, Plan )},
其中,编队中机器人个数为N,构建(N-1)层组合库所集合P,第i层的第j个库所P ij 的含义为补位调度第i步第j个机器人的状态,包括原位状态和移位状态两种;
变迁Tb定义为下层DPN的核心变迁集;
Ab是库所变迁之间的连接弧,表示系统的流关系,定义为从第i层到第i+1层方向的笛卡尔积连接,
Ab=P×Tb∪Tb×P
优先级计算函数f i 基于机器人的任务优先级(p)、电量(E)、距离当前空位的距离(D)、能量补给规划方案(Plan)来设计,构建变迁选择优先级计算函数f i (P i+1,j ,p, E, D, Plan),其表达式如下:
42)利用在上层时延LPN中的变迁逻辑条件表达式激活下层DPN,完成下层DPN的构建及初始化,触发补位调度:
421)调用上层时延LPN中的变迁,其如下:
基于决策变迁触发原则,根据监听到的能量补给规划方案所输出的各机器人进行能量补给的时刻序列,设定决策变迁t ds 的变迁触发时刻,当到达设定时刻时,决策变迁t ds 触发,从而下达机器人进行能量补给指令;
决策变迁t ds 的激发结果造成令牌移动,上层时延LPN进行更新,在此基础上,下一步变迁t cs 与t cm 满足变迁触发条件,从而进一步激活变迁t cs 和t cm ,由于设定变迁t cs 和变迁t cm 在上层时延LPN中的逻辑关系为并发关系,即机器人的补位调度与能量补给为并行执行,同时发生;
422)对上层时延LPN中的变迁t cs 进行节点层次化,进一步利用下层DPN对逻辑输出变迁t cs 进行替换,从而实现下层DPN的构建,形成双层协同逻辑Petri网;
上层时延LPN中的变迁t cs 为逻辑输出变迁,其变迁激发结果受t cs 所有输出库所集上的逻辑输出条件表达式f O (t cs )的限制;在变迁t cs 激活的同时,利用在上层时延LPN中的逻辑输出条件表达式f O (t cs )激活下层DPN,且变迁t cs 的激发结果所对应的下层DPN中库所的逻辑关系满足逻辑输出条件表达式f O (t cs ),即:f O (t cs ) = DPN;
423)在完成下层DPN构建的基础上,根据所获取的机器人集群状态信息,完成针对补位调度进程的下层DPN的初始化,从而激活补位调度;
43)针对下层DPN,基于其变迁规则实现下层DPN的更新:
调用下层DPN的变迁,其如下:
在下层DPN补位变迁t b 触发之前,基于变迁选择优先级计算函数f i (P i+1,j ,p, E, D, Plan)的计算结果选择最大值确定令牌移动方向,形成补位调度方案,调度机器人补位作业,直到无补位变迁可以激活或者设定的位置区域已经出现空位;其中,是否有补位变迁可以激活根据变迁选择优先级计算函数f i (P i+1,j ,p, E, D, Plan)的计算结果进行判断,如果该结果在补位调度阈值范围内,将依据其选取最大值关联的变迁进行激活,否则将不执行变迁t b 的激活,下层DPN更新停止,即结束补位调度;
44)将上层时延LPN与下层DPN相结合,形成双层协同逻辑Petri网。
5.根据权利要求4所述的基于双层协同逻辑Petri网的机器人集群能量补给智能调度方法,其特征在于,所述机器人集群能量补给移动与补位调度协同处理包括以下步骤:
51)等待决策变迁触发时刻,激活决策变迁t ds ,令牌移动的同时,上层时延LPN进行更新,并进一步触发补位调度变迁t cs 与能量补给变迁t cm ;
52)变迁t cs 触发的同时,对变迁t cs 进行节点层次化,触发结果使得上层时延LPN中的变迁逻辑条件表达式激活下层DPN,下层DPN在满足变迁t b 的触发条件基础上,激活t b 执行补位变迁;变迁t cs 和变迁t cm 其逻辑关系为并发关系,同时触发,使得上层时延LPN与下层DPN协同作业,机器人的补位变迁与能量补给变迁并行执行;
53)根据所监测的机器人集群作业状态信息,以及上层时延LPN和下层DPN中各自变迁执行的反馈信息,及时动态调整机器人集群能量补给智能调度过程,进行能量补给与补位调度协同作业。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211417396.0A CN115454614B (zh) | 2022-11-14 | 2022-11-14 | 一种机器人集群能量补给智能调度方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211417396.0A CN115454614B (zh) | 2022-11-14 | 2022-11-14 | 一种机器人集群能量补给智能调度方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115454614A CN115454614A (zh) | 2022-12-09 |
CN115454614B true CN115454614B (zh) | 2023-03-24 |
Family
ID=84295816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211417396.0A Active CN115454614B (zh) | 2022-11-14 | 2022-11-14 | 一种机器人集群能量补给智能调度方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115454614B (zh) |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3705672B2 (ja) * | 1997-03-25 | 2005-10-12 | 株式会社リコー | 自動組立装置及び自動組立方法 |
US8219364B2 (en) * | 2008-01-02 | 2012-07-10 | Agere Systems Inc. | Method to improve unfolding in Petri nets |
CN103019903B (zh) * | 2013-01-18 | 2014-11-26 | 哈尔滨工业大学 | 嵌入式设备能耗仿真评测系统 |
US20210229805A1 (en) * | 2019-04-01 | 2021-07-29 | Getman Anya L | Drone including a piezoelectric structure and/or a self-energizing capability |
US10001773B2 (en) * | 2015-09-20 | 2018-06-19 | Macau University Of Science And Technology | Optimal one-wafer scheduling of single-arm multi-cluster tools with tree-like topology |
US9957959B2 (en) * | 2015-09-20 | 2018-05-01 | Macau University Of Science And Technology | Linear programming-based approach to scheduling of crude oil operations in refinery for energy efficiency optimization |
CN105703369B (zh) * | 2016-02-04 | 2020-06-09 | 马瑞 | 一种多能耦合输配网最优能量流建模及求解方法 |
CN109108642B (zh) * | 2018-08-29 | 2020-06-26 | 南京理工大学 | 基于赋时Petri网的机器人小臂装配系统建模方法 |
JP2021111303A (ja) * | 2020-01-09 | 2021-08-02 | 秀明 鈴木 | ラベル付ペトリネットを用いた深層格意味の表現方法 |
CN111461464B (zh) * | 2020-05-06 | 2021-06-08 | 农业农村部南京农业机械化研究所 | 一种植保无人飞机集群作业任务分配方法和装置 |
CN113485339A (zh) * | 2021-07-12 | 2021-10-08 | 陕西科技大学 | 基于petri网的送餐机器人路径优化及任务分配方法 |
CN114252727A (zh) * | 2021-11-12 | 2022-03-29 | 国网浙江省电力有限公司杭州供电公司 | 一种基于人工智能技术的电网故障快速诊断方法 |
-
2022
- 2022-11-14 CN CN202211417396.0A patent/CN115454614B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN115454614A (zh) | 2022-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Çil et al. | Mathematical model and bee algorithms for mixed-model assembly line balancing problem with physical human–robot collaboration | |
Li et al. | A reinforcement learning based RMOEA/D for bi-objective fuzzy flexible job shop scheduling | |
Wang et al. | Application of reinforcement learning for agent-based production scheduling | |
CN111932027B (zh) | 一种融合边缘设施的云服务综合调度优化系统及方法 | |
US20220129302A1 (en) | Data processing system and method for heterogeneous architecture | |
Janardhanan et al. | Metaheuristic algorithms for balancing robotic assembly lines with sequence-dependent robot setup times | |
CN107168267B (zh) | 基于改进粒子群与启发式策略的生产排产方法及系统 | |
CN111191934B (zh) | 一种基于强化学习策略的多目标云工作流调度方法 | |
Zhao et al. | Dynamic jobshop scheduling algorithm based on deep Q network | |
CN108111335B (zh) | 一种调度和链接虚拟网络功能的方法及系统 | |
CN103034614B (zh) | 基于关键路径和任务复制的单任务多核调度方法 | |
US20220129408A1 (en) | Data actor and data processing method thereof | |
CN105974891B (zh) | 一种基于动态看板的模具生产过程自适应控制方法 | |
Johnson et al. | Multi-agent reinforcement learning for real-time dynamic production scheduling in a robot assembly cell | |
Inglés-Romero et al. | Dealing with run-time variability in service robotics: Towards a dsl for non-functional properties | |
Zhang et al. | Co-Optimizating Multi-Agent Placement with Task Assignment and Scheduling. | |
Wang et al. | A PSO-based multi-objective optimization approach to the integration of process planning and scheduling | |
CN109684088A (zh) | 云平台资源约束的遥感大数据快速处理任务调度方法 | |
Zhang et al. | A Q-learning-based hyper-heuristic evolutionary algorithm for the distributed flexible job-shop scheduling problem with crane transportation | |
CN108170523A (zh) | 一种移动云计算的随机任务序列调度方法 | |
CN115454614B (zh) | 一种机器人集群能量补给智能调度方法 | |
Gong et al. | Energy-efficient flexible job shop scheduling problem considering discrete operation sequence flexibility | |
Liu et al. | Scheduling optimization of task allocation in integrated manufacturing system based on task decomposition | |
Mhasawade et al. | A survey of hybrid metaheuristics to minimize makespan of job shop scheduling problem | |
Burggräf et al. | Multi-agent-based deep reinforcement learning for dynamic flexible job shop scheduling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |