CN112894811B - 基于群智能mas的分布式多机器人的智能控制方法及装置 - Google Patents

基于群智能mas的分布式多机器人的智能控制方法及装置 Download PDF

Info

Publication number
CN112894811B
CN112894811B CN202110078379.8A CN202110078379A CN112894811B CN 112894811 B CN112894811 B CN 112894811B CN 202110078379 A CN202110078379 A CN 202110078379A CN 112894811 B CN112894811 B CN 112894811B
Authority
CN
China
Prior art keywords
task
information
execution
robot
unsuccessful
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110078379.8A
Other languages
English (en)
Other versions
CN112894811A (zh
Inventor
段俊花
朱怡安
钟冬
姚烨
李联
张黎翔
史先琛
郭玉峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202110078379.8A priority Critical patent/CN112894811B/zh
Publication of CN112894811A publication Critical patent/CN112894811A/zh
Application granted granted Critical
Publication of CN112894811B publication Critical patent/CN112894811B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Fuzzy Systems (AREA)
  • Manufacturing & Machinery (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种基于群智能MAS的分布式多机器人的智能控制方法及装置,该方法包括:进入启动状态并进行信息获取;若获取到的信息为指示观察范围内有多个任务的位置信息的第一位置感知信息时,进入前进状态,并根据第一位置感知信息以及个体自组织任务选择方法选取适合执行的任务,且向适合执行的任务前进;判断是否到达适合执行的任务处;若已到达,且是第一个到达者时,进入领导者状态;若已到达,且不是第一个到达者时,进入参与者状态;执行适合执行的任务。本发明减了对单一模态的通信方式的依赖,还使机器人个体具有丰富的系统协作协调能力,自主决策能力强,执行任务的能力较强,提高了系统可靠性。

Description

基于群智能MAS的分布式多机器人的智能控制方法及装置
技术领域
本发明涉及集群机器人控制技术领域,具体涉及一种基于群智能MAS的分布式多机器人的智能控制方法及装置。
背景技术
随着人工智能、大数据、物联网和自动化技术等技术的崛起和快速发展,智能机器人的研究越来越受到人们的广泛关注。相对单机器人,多机器人系统具有更多优势,然而现代的多机器人系统面临着环境的动态不确定性、操作的不确定性以及恶劣环境中通信难以保障等问题,采用分布式自主控制是今后研究的主要方向。
当前应用系统对多机器人系统提出越来越高的能力需求,要求在分布式控制环境下减少对直接通信的依赖性;在人类不可达的特殊环境下,提高自主决策能力;对环境中存在不确定因素的情况下,具有一定的鲁棒性,具有较好的系统可靠性;在未知环境中长期作业具有学习能力,能不断提高执行任务的能力。多机器人系统越来越面临着环境动态不确定性、操作不确定性以及诸多突发事件,必须增强系统的协作能力,提高系统的鲁棒性和自适应性。
而现有的多机器人系统的分布式智能控制方法中,通常采用的是多智能体系统(Multi-agent System,MAS)控制方法和群智能(Swarm Intelligence,SI)控制方法。这两种控制方法均无法实现对分布式多机器人系统的上述要求,不能满足当今高水平机器人的研究发展和应用的需求。
需要注意的是,本部分旨在为权利要求书中陈述的本公开的实施方式提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。
发明内容
本发明实施例提供一种基于群智能MAS的分布式多机器人的智能控制方法及装置,以解决现有技术中多机器人系统的分布式智能控制方法存在的直接通信的依赖性较强、自主决策能力、执行任务能力和系统可靠性不高的问题。
第一方面,本发明实施例提供一种基于群智能MAS的分布式多机器人的智能控制方法,包括:
进入启动状态并进行信息获取;
若获取到的信息为指示观察范围内有多个任务的位置信息的第一位置感知信息时,进入前进状态,并根据所述第一位置感知信息以及个体自组织任务选择方法选取适合执行的任务,且向所述适合执行的任务前进;
判断是否到达所述适合执行的任务处;
若已到达,且是第一个到达者时,进入领导者状态;若已到达,且不是第一个到达者时,进入参与者状态;
执行所述适合执行的任务。
作为本发明第一方面的优选方式,在所述判断是否到达所述适合执行的任务处之后,还包括:
若未到达,则进行信息获取,并根据获取到的信息执行以下任意一个步骤:
若获取到的信息为第一位置感知信息且无通信信息时,保持前进状态,并根据所述第一位置感知信息以及个体自组织任务选择方法选取适合执行的任务,且向所述适合执行的任务前进,然后继续执行判断是否到达所述适合执行的任务处的步骤;
若获取到的信息为第一位置感知信息和中标信息时,保持前进状态,并确定所述中标信息指示的任务为适合执行的任务,且向所述适合执行的任务前进,然后继续执行判断是否到达所述适合执行的任务处的步骤;
若获取到的信息为第一位置感知信息和招标信息且无中标消息时,保持前进状态,并根据所述招标信息以及个体自组织任务选择方法选取适合执行的任务,若所述适合执行的任务为所述招标信息指示的任务则发送投标信息并向所述适合执行的任务前进,若所述适合执行的任务不为所述招标信息指示的任务则向所述适合执行的任务前进,然后继续执行判断是否到达所述适合执行的任务处的步骤。
作为本发明第一方面的优选方式,根据获取到的信息执行的步骤还包括:
若获取到的信息为指示观察范围内只有一个任务的位置信息的第二位置感知信息和所述第二位置感知信息指示的任务的不中标信息时,进入无目标状态,漫游并进行信息获取。
作为本发明第一方面的优选方式,在所述漫游并进行信息获取之后,还包括:
判断是否获取到第一位置感知信息或第二位置感知信息;
若是,进入前进状态,并根据所述第一位置感知信息或第二位置感知信息以及个体自组织任务选择方法选取适合执行的任务,且向所述适合执行的任务前进,然后继续执行判断是否到达所述适合执行的任务处的步骤;否则,判断是否获取到环境标志物信息;
若是,进入前进状态,并向所述环境标志物信息指示的环境标志物前进;否则,保持无目标状态,然后继续执行漫游并进行信息获取的步骤。
作为本发明第一方面的优选方式,在所述执行所述适合执行的任务之后,还包括:
判断所述适合执行的任务是否执行完毕;
若是,继续执行进入启动状态并进行信息获取的步骤;否则,保持领导者状态或参与者状态,继续执行所述适合执行的任务。
作为本发明第一方面的优选方式,所述个体自组织任务选择方法包括以下步骤:
将获取到的各任务分别划入成功任务集和未成功任务集;
计算所述未成功任务集中包括的各未成功任务当前的响应函数值,并将响应函数值最大的未成功任务确定为候选任务;
根据未到达所述候选任务处的其余各同伴机器人对所述候选任务的预测选择情况,计算所述候选任务的潜在性参与者数;
判断所述候选任务的潜在性参与者数是否小于所述候选任务当前所需机器人数;
若是,则确定所述候选任务为适合执行的任务;否则,将所述候选任务划入所述成功任务集中,并确定所述未成功任务集其余未成功任务中响应函数值最大的未成功任务为适合执行的任务。
作为本发明第一方面的优选方式,所述计算所述未成功任务集中包括的各未成功任务当前的响应函数值,包括:
根据下式计算所述未成功任务集中包括的各未成功任务当前的响应函数值:
Figure GDA0003797116780000041
Figure GDA0003797116780000042
其中,Tj为未成功任务tj当前的响应函数值,Rq为当前机器人r的位置,Rqj为未成功任务tj的位置,Rnj为未成功任务tj当前所需机器人数,Cnj为未成功任务tj的确定性参与者数,k1和k2为与多机器人系统相关的第一调节参数,α为防止分母为零的第二调节参数,
Figure GDA0003797116780000043
为x的分段函数,x为Rnj-Cnj
作为本发明第一方面的优选方式,所述根据未到达所述候选任务处的各同伴机器人对所述候选任务的预测选择情况,计算所述候选任务的潜在性参与者数,包括:
获取未到达所述候选任务处的各同伴机器人对获取到的各任务当前的任务响应值矩阵,所述任务响应值矩阵用于指示各所述同伴机器人对获取到的各任务的任务响应值;
根据各所述同伴机器人的历史信息,获取各所述同伴机器人到各所述任务的距离变化矩阵,所述距离变化矩阵用于指示各所述同伴机器人是否向各所述任务靠近;
根据所述任务响应值矩阵和所述距离变化矩阵,获取各所述同伴机器人的预估选择任务向量,所述预估选择任务向量用于指示各所述同伴机器人的预估选择任务;
根据所述任务响应值矩阵和各所述预估选择任务向量,获取各所述任务的预测选择矩阵;
根据所述预测选择矩阵,计算所述候选任务的潜在性参与者数。
第二方面,本发明实施例提供一种基于群智能MAS的分布式多机器人的智能控制装置,包括:
获取单元,用于获取进入启动状态并进行信息获取;
任务选择单元,用于若获取到的信息为指示观察范围内有多个任务的位置信息的第一位置感知信息时,进入前进状态,并根据所述第一位置感知信息以及个体自组织任务选择方法选取适合执行的任务,且向所述适合执行的任务前进;
判断单元,用于判断是否到达所述适合执行的任务处;
状态进入单元,用于若已到达所述适合执行的任务处,且是第一个到达者时,进入领导者状态;若已到达所述适合执行的任务处,且不是第一个到达者时,进入参与者状态;
执行单元,用于执行所述适合执行的任务。
第三方面,本发明实施例提供一种计算设备,包括处理器和存储器,其中所述存储器内存储有执行指令,所述处理器读取所述存储器内的执行指令用于执行如上述基于群智能MAS的分布式多机器人的智能控制方法中所述的步骤。
第四方面,本发明实施例提供一种计算机可读存储介质,包含计算机执行指令,所述计算机执行指令被用于执行如上述基于群智能MAS的分布式多机器人的智能控制方法中所述的步骤。
本发明实施例提供的基于群智能MAS的分布式多机器人的智能控制方法及装置,采用多元化信息交互方式,通过多种通道进行信息获取、分析与融合,根据每个机器人个体当前的状态以及在观察范围内获取到的信息来确定下一个要进入的状态,并根据获取到的多个信息采用个体自组织任务选择方法从中选取适合执行的任务。
本发明通过多种通道进行信息获取、分析与融合,减了对单一模态的通信方式的依赖。同时,按照相对简单的分工协调规则和个体之间多元化的交互能力进行分布式协作,使机器人个体具有丰富的系统协作协调能力。此外,机器人个体采用个体自组织任务选择方法选择适合执行的任务,自主决策能力强,同时保障了在某些个体失效的情况下,不影响其他个体选择任务,使系统具有一定的鲁棒性,提高了系统可靠性。机器人个体在执行任务过程中不断积累经验,改善自己的行为能力,使个体具有自适应进化的能力,执行任务的能力较强,能完成复杂度较高的任务。
本发明将群智能的通信、学习机制与MAS的通信、学习机制相结合,充分利用群智能的间接交互机制以及简单行为的强化机制,降低MAS中原有对通信和学习机制的要求。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于群智能MAS的分布式多机器人的智能控制方法的实现流程图;
图2为本发明实施例提供的一种基于群智能MAS的分布式多机器人的智能控制装置的结构示意图;
图3为本发明实施例提供的一种计算设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
基于现有技术中的分布式智能控制方法中存在的缺陷,本发明将MAS方法和群智能方法相结合,建立了一种混合智能控制方法。通过模拟社会性昆虫群体的活动规律,用具有智能程度相对较高的机器人个体,按照相对简单的分工协调规则和个体之间多元化的交互能力进行分布式协作,组成一个具有群智能特点的多机器人系统,用最经济有效的方法建立功能强大、自适应性和鲁棒性更好的分布式多机器人系统。
本发明中首先提出了群智能MAS的概念,即将具有群智能分布式自组织能力的多智能体系统定义为群智能MAS(Swarm Intelligence MAS,SIMAS),同时设计了群智能MAS结构。
群智能MAS结构是一个分布式控制结构,其主要由三大模块组成:(1)基于群智能的个体自组织任务选择模块,通过群智能方法进行分布式自组织任务选择,个体基于环境信息和自身选择机制选择适合执行的任务;(2)基于MAS的协作协调和系统监测模块,个体之间通过一定的交互方式,采用基于MAS方法进行任务协调,同时在协作协调的过程进行系统检测和维护;(3)信息交互模块,包括与环境的交互、与其他个体的交互,交互方式为可拥有多种交互方式的多元信息交互机制,如各种显式交互和隐式交互相结合的方式。
进一步地,群智能MAS的协作协调和系统检测功能通过个体之间的多元信息交互能力来保障。根据群智能和MAS信息交互方式的不同特点,群智能MAS采用多元信息交互机制。多元信息交互机制是指通过多种通道进行信息获取、分析与融合,减少对单一模态的通信方式的依赖。多元信息交互在系统可以拥有的通信方式的基础上,可以开展基于显式通信的直接交互,快速准确地交换信息,也可以采用如基于环境的间接交互,降低通信量,或其他的交互方式,具体结合方式根据系统的不同可以灵活设置。
在本发明实施例所述的分布式多机器人系统中,每台机器人均是一个拥有多种交互设备的计算机系统。优选地,其拥有位置感知传感器、通信传感器和环境标志物传感器这三种感知和交互方式。
其中,机器人个体用通信传感器进行同伴机器人之间的信息交互,属于机器人之间的直接交互,可以互相传达一些意图和请求。机器人个体用位置感知传感器获取其他同伴机器人和任务的信息,然后根据这些信息做出综合判断,选择适合执行的任务去执行,这种通过位置感知传感器进行的信息交互属于通过感知其他机器人行为变化或环境变化而调整自己行为的内在交互。另外,机器人还通过环境标志物传感器在环境中遗留信息,给其他同伴机器人遗留信息进行间接交互,属于通过环境与其他同伴机器人进行的外在交互。每种传感器都只有一定的感知范围,分布式多机器人系统通过多元交互机制可以获得更全面的信息。
参照图1所示,本发明实施例公开了一种基于群智能MAS的分布式多机器人的智能控制方法,该方法主要包括如下步骤:
101、进入启动状态并进行信息获取;
102、若获取到的信息为指示观察范围内有多个任务的位置信息的第一位置感知信息时,进入前进状态,并根据第一位置感知信息以及个体自组织任务选择方法选取适合执行的任务,且向适合执行的任务前进;
103、判断是否到达适合执行的任务处;
1041、若已到达适合执行的任务处,且是第一个到达者时,进入领导者状态;若已到达适合执行的任务处,且不是第一个到达者时,进入参与者状态;
105、执行适合执行的任务。
本实施例中,上述方法的执行主体可以为分布式多机器人系统中任意一台机器人。
需要说明的是,本实施例中提供的基于群智能MAS的分布式多机器人的智能控制方法可以用于任何领域的分布式多机器人系统的智能控制。
还需要说明的是,本实施例的分布式多机器人系统包括但不限于两台机器人。
本实施例中,针对分布式多机器人系统协同完成任务的机制进行建模M=(S,A,E,σ),M反映了机器人状态和行为转换的规则。
具体地,给定多机器人集合R={r1,r2,…,rm}与任务集T={t1,t2,…,tn},则机器人执行任务时的状态转换规则为四元组(S,A,E,σ),其中:
S={si|si是机器人状态,i=0,1,2,…,|S|},S为机器人状态有限集,|S|表示机器人状态数量,s0为初始状态;
A={ai|ai是机器人状态,i=0,1,2,…,|A|},A为机器人行为有限集;
E=Es∪Ec∪Ep∪Et为机器人综合感知事件集合,其中ES表示机器人位置感知信息的有限集,Es={esi|esi是机器人获取的位置感知信息,i=0,1,2,…,|Es|},其中es0表示没有观察到任何任务;Ec表示机器人通信信息的有限集,Ec={eci|eci是机器人获取的通信信息,i=0,1,2,…,|Ec|},其中ec0表示没有收到任何通信信息;Ep表示机器人环境标志物信息的有限集,Ep={epi|epi是机器人获取的环境标志物信息,i=0,1,2,…,|Ep|},其中ep0表示感知不到任何环境标志物信息;Et={eti|eti表示任务i是否完成的状态,eti=1表示任务i完成,eti=0表示任务i没有完成,i=0,1,2,…,|Et|}。
σ(s,E′)={s′,A′}:机器人状态和行为转换映射函数,表示机器人在当前状态s感知到事件E′后转换到状态s′,同时采取行动A′;s∈S,s′∈S,
Figure GDA0003797116780000101
A′表示机器人从当前状态转到下一个状态时执行的动作集。
机器人在任务执行过程的不同阶段定义为不同的状态,各个状态的具体定义如表1所示。
表1机器人状态定义表
编号 状态定义 状态涵义
s<sub>0</sub> 启动状态 机器人初始状态
s<sub>1</sub> 前进状态 有确定目标但未到达
s<sub>2</sub> 领导状态 第一个到达某任务处
s<sub>3</sub> 参与者状态 非第一个到达任务处
s<sub>4</sub> 无目标状态 找不到任务
机器人在任务执行过程的部分动作定义如表2所示。
表2机器人部分动作定义表
编号 动作含义
a<sub>1</sub> 静止不动
a<sub>2</sub> 朝目标前进
a<sub>3</sub> 漫游
a<sub>4</sub> 向招标领导者发出投标消息
a<sub>5</sub> 应用个体自组织任务选择方法选择任务
a<sub>6</sub> 根据个体自组织任务选择方法和招标信息选择任务
a<sub>7</sub> 任务完成
机器人的状态和行为转换映射函数σ(s,E′)={s′,A′}需要根据当前状态和机器人感知到的信息共同决定。
基于上述说明,下面将详细阐述本发明实施例所述的技术方案。
在步骤101中,分布式多机器人系统中的任意一台机器人在启动后就会进入启动状态,启动状态即为机器人的初始状态,该台机器人即为执行本实施例的基于群智能MAS的分布式多机器人的智能控制方法的机器人。
在进入启动状态后,机器人会在其观察范围内进行信息的获取。其中,获取的信息主要包括通过位置感知传感器获取的位置感知信息、通过通信传感器获取的通信信息和通过环境标志物传感器获取的环境标志物信息,位置感知信息包括第一位置感知信息和第二位置感知信息,通信信息包括中标信息、招标信息、不中标信息和投标信息。
若机器人在观察范围内未获取到位置感知信息,则进入无目标状态,执行漫游的动作。
在启动状态下,机器人的状态和行为转换映射函数具体为:
σ(s0,{es3})={s1,{a5,a2}},σ(s0,{es0})={s4,{a5,a2}}。
在步骤102中,在获取到信息之后,先对获取到的信息进行判断,然后根据机器人当前的状态和获取到的信息确定机器人下一个要进入的状态。
若获取到的信息为指示观察范围内有多个任务的位置信息的第一位置感知信息时,机器人会进入前进状态,并根据个体自组织任务选择方法从该第一位置感知信息中指示的观察范围内的多个任务中选取适合执行的任务,然后向该适合执行的任务前进。
进一步地,若获取到的信息中没有位置感知信息时,即该机器人的观察范围内不存在需要执行的任务,机器人会进入无目标状态,并执行漫游的动作,并在漫游过程中继续进行信息的获取,直到其获取到其他信息为止。
在步骤103中,在机器人从处于其观察范围内的任务中选取到适合执行的任务后,会向该适合执行的任务前进。
在该过程中,机器人每前进一步都需要判断是否已到达该适合执行任务处,直至到达该适合执行的任务处。在步骤1041中,若经过判断,机器人已到达该适合执行任务处,则进一步根据其到达的顺序,确定其进入的下一个状态是领导者状态还是参与者状态。
进一步地,若该机器人是第一个到达者,则确定该机器人为该适合执行的任务的领导者,从而进入领导者状态。当选择该任务作为适合执行的任务的机器人数量少于该任务执行使所需的机器人数量时,进入领导者状态的机器人具有向其他同伴机器人发出邀请其参与到执行该任务中的招标信息,其他同伴机器人还可以在收到招标信息时向进入领导者状态的机器人发出愿意参与执行任务的投标信息。同时,进入领导者状态的机器人还具有向其他同伴机器人发出不同意其参与执行该任务的不中标信息和同意其参与执行该任务的中标信息。
若该机器人不是第一个到达者时,确定该机器人仅为适合执行的任务的参与者,从而进入参与者状态,参与执行该任务即可。
在步骤105中,当经过上述步骤之后,机器人已经选取到适合执行的任务,并已到达该适合执行的任务处,则参与执行该适合执行的任务。
另外,在本申请提供的一种可选实施例中,在步骤105之后,还包括:
106、判断适合执行的任务是否执行完毕;
107、若是,继续执行进入启动状态并进行信息获取的步骤;否则,保持领导者状态或参与者状态,继续执行适合执行的任务。
在步骤106中,在机器人参与执行该适合执行的任务后,需要确定该适合执行的任务是否已经被执行完毕。
在步骤107中,若确定机器人已经执行完该适合执行的任务后,则机器人会重新进入启动状态,并继续进行信息获取,即继续执行步骤101。
若确定机器人未执行完该适合执行的任务,则持续保持领导者状态或参与者状态,并继续执行该适合执行的任务,即继续执行步骤105。
在上述步骤105~107的基础上,在领导者状态下,机器人的状态和行为转换映射函数具体为:
σ(s2,{eti=1})={s0},σ(s2,{eti=0})={s2,{a7}}。
而在参与者状态下,机器人的状态和行为转换映射函数具体为:
σ(s3,{eti=1})={s0},σ(s3,{eti=0})={s3,{a7}}。
进一步地,本发明实施例还提供了机器人未到达适合执行的任务处的工作流程。在本申请提供的一种可选实施例中,在步骤103之后,还包括以下步骤:
1042、若未到达适合执行的任务处,则进行信息获取,并根据获取到的信息执行以下任意一个步骤:
1042-1、若获取到的信息为第一位置感知信息且无通信信息时,保持前进状态,并根据第一位置感知信息以及个体自组织任务选择方法选取适合执行的任务,且向适合执行的任务前进,然后继续执行判断是否到达适合执行的任务处的步骤;
1042-2、若获取到的信息为第一位置感知信息和中标信息时,保持前进状态,并确定中标信息指示的任务为适合执行的任务,且向适合执行的任务前进,然后继续执行判断是否到达适合执行的任务处的步骤;
1042-3、若获取到的信息为第一位置感知信息和招标信息且无中标消息时,保持前进状态,并根据招标信息以及个体自组织任务选择方法选取适合执行的任务,若适合执行的任务为招标信息指示的任务则发送投标信息并向适合执行的任务前进,若适合执行的任务不为招标信息指示的任务则向适合执行的任务前进,然后继续执行判断是否到达适合执行的任务处的步骤。
在步骤1042中,若经过判断,机器人还未到达该适合执行任务处,则进一步根据获取到的信息来具体执行以上三个步骤1042-1~1042-3中的任意一个。
具体地,若获取到的信息为第一位置感知信息且无通信信息时,即机器人的观察范围内还存在多个需要执行的任务,当然观察到的多个任务中包括此前已经选取好的任务,此时保持前进状态,并根据个体自组织任务选择方法从该第一位置感知信息中指示的观察范围内的多个任务中重新选取适合执行的任务,然后向该适合执行的任务前进。
在向该任务前进的过程中,机器人每前进一步仍需要判断是否已到达该适合执行任务处,即继续执行步骤103,直至到达该适合执行的任务处。
若获取到的信息为第一位置感知信息和中标信息时,即机器人的观察范围内还存在多个需要执行的任务,同时还收到了其他任务处的处于领导者状态的机器人发出的中标信息,此时保持前进状态,并确定中标信息中指示的任务为适合执行的任务,然后向该适合执行的任务前进。
在向该任务前进的过程中,机器人每前进一步仍需要判断是否已到达该适合执行任务处,即继续执行步骤103,直至到达该适合执行的任务处。
若获取到的信息为第一位置感知信息和招标信息且无中标消息时,即机器人的观察范围内还存在多个需要执行的任务,同时还收到了其他任务处的处于领导者状态的机器人发出的招标信息,此时保持前进状态,并根据个体自组织任务选择方法从该第一位置感知信息中指示的观察范围内的多个任务以及招标信息指示的任务中重新选取适合执行的任务。若适合执行的任务为招标信息指示的任务,则向该任务处的处于领导者状态的机器人发送投标信息,并向该适合执行的任务前进;若适合执行的任务不为招标信息指示的任务,则向该适合执行的任务前进。
在向该任务前进的过程中,机器人每前进一步仍需要判断是否已到达该适合执行任务处,即继续执行步骤103,直至到达该适合执行的任务处。
在本申请提供的一种可选实施例中,上述步骤1042中根据获取到的信息执行的步骤还包括:
1042-4、若获取到的信息为指示观察范围内只有一个任务的位置信息的第二位置感知信息和第二位置感知信息指示的任务的不中标信息时,进入无目标状态,漫游并进行信息获取。
在步骤1042中,若经过判断,机器人还未到达该适合执行任务处,则进一步根据获取到的信息来具体执行的步骤还包括以上步骤1042-4。
具体地,若获取到的信息为指示观察范围内只有一个任务的位置信息的第二位置感知信息和第二位置感知信息指示的任务的不中标信息时,即机器人的观察范围内仅存在一个需要执行任务,且该任务处的处于领导者状态的机器人不同意其参与执行该任务,此时机器人没有任务可以执行,则进入无目标状态。机器人并执行漫游的动作,并在漫游过程中继续进行信息的获取,直到其获取到其他信息为止。
综上,在上述步骤102、103和1041及1042的基础上,在前进状态下,机器人的状态和行为转换映射函数具体为:
σ(s1,{es1})={s2,{a1}},σ(s1,{es2})={s3,{a1}};
σ(s1,{es3})={s1,{a5,a2}},σ(s1,{es3,ec1})={s1,{a2}};
σ(s1,{es3,ec2})={s1,{a6}},σ(s1,{esc1})={s1,{a4,a2}};
σ(s1,{esc2})={s1,{a2}},σ(s1,{es4,ec3,ep1})={s4,{a2}};
σ(s1,{es4,ec3})={s4,{a3}}。
在本申请提供的一种可选实施例中,在上述步骤1042-4中机器人漫游并进行信息获取之后,还包括以下步骤:
1042-4-1、判断是否获取到第一位置感知信息或第二位置感知信息;
1042-4-2、若是,进入前进状态,并根据第一位置感知信息或第二位置感知信息以及个体自组织任务选择方法选取适合执行的任务,且向适合执行的任务前进,然后继续执行判断是否到达适合执行的任务处的步骤;否则,判断是否获取到环境标志物信息;
1042-4-3、若是,进入前进状态,并向环境标志物信息指示的环境标志物前进;否则,保持无目标状态,然后继续执行漫游并进行信息获取的步骤。
在上述步骤中,机器人在漫游过程中继续进行信息的获取,直到其获取到其他信息为止。
在其漫游过程中,机器人每前进一步均需判断其是否获取到第一位置感知信息或第二位置感知信息,即判断其观察范围内是否存在需要执行的任务,其中获取到第一位置感知信息时,其观察范围内会存在多个需要执行的任务,而获取到第二位置感知信息时,其观察范围内存在一个需要执行的任务。
若判断到机器人获取到上述两种信息中的任意一种时,则进入前进转态,并根据个体自组织任务选择方法从该第一位置感知信息中指示的观察范围内的多个任务或者该第二位置感知信息中指示的观察范围内的一个任务中重新选取适合执行的任务,然后向该适合执行的任务前进。
在向该任务前进的过程中,机器人每前进一步仍需要判断是否已到达该适合执行任务处,即继续执行步骤103,直至到达该适合执行的任务处。
若判断到机器人未获取到上述两种信息中的任意一种时,则进一步判断其是否获取到环境标志物信息。
若判断到机器人获取到环境标志物信息时,则进入前进状态,并向该环境标志物信息指示的环境标志物前进;若判断到机器人未获取到环境标志物信息时,则保持无目标状态,然后继续执行步骤1042-4。
在上述步骤1042-4-1~1042-4-3的基础上,在无目标状态下,机器人的状态和行为转换映射函数具体为:
σ(s4,{es0,ep0})={s4,{a3}},σ(s4,{es0,ep1})={s1,{a2}},σ(s4,{es3})={s1,{a5}}。
进一步地,在上述实施例的基础上,本发明实施例还提供了上述步骤中所述的个体自组织任务选择方法的具体执行流程,该方法主要包括以下步骤:
S1、将获取到的各任务分别划入成功任务集和未成功任务集;
S2、计算未成功任务集中包括的各未成功任务当前的响应函数值,并将响应函数值最大的未成功任务确定为候选任务;
S3、根据未到达候选任务处的其余各同伴机器人对候选任务的预测选择情况,计算候选任务的潜在性参与者数;
S4、判断候选任务的潜在性参与者数是否小于候选任务当前所需机器人数;
S5、若是,则确定候选任务为适合执行的任务;否则,将候选任务划入成功任务集中,并确定未成功任务集其余未成功任务中响应函数值最大的未成功任务为适合执行的任务。
在上述方法中,步骤S1中,机器人先将当前获取到的任务根据其执行情况分别划入成功任务集和未成功任务集,这样成功任务集中会包含多个成功任务,而未成功任务集会包含多个未成功任务。成功任务集中的各成功任务已经执行完毕,因此当前机器人会根据任务的特点进行反应式行为选择判断,从未成功任务集中选择一个未成功任务去执行。
机器人从未成功任务集中选择要执行的任务时,主要考虑两个因素:一是任务的距离因素,当前机器人距离某一个任务越近,其选择该任务去执行的本能就越大;二是任务的紧迫程度,如果某一个任务需要多个机器人完成,现已有几个机器人参与,则所需机器人的数量就越小,那该任务需要被完成的紧迫性就越强,机器人去执行的意愿就越大。
因此,机器人在将各任务对应划分后,还需要进一步获取未成功任务集中包括的各未成功任务的位置信息以及各未成功任务的确定性参与者数。
步骤S2中,在机器人将各任务对应划分为成功任务集和未成功任务集,并获取到未成功任务集中包括的各未成功任务的位置信息以及各未成功任务的确定性参与者数后,可以进一步据此计算出各未成功任务的当前的响应函数值。其中,本实施例中,若机器人已到达某一个任务处,并参与任务的执行,则称该机器人为该任务的确定性参与者。
机器人个体首先会从本能的角度,选择响应函数值最大的未成功任务作为候选任务。
优选地,步骤S2中,根据下式计算未成功任务集中包括的各未成功任务当前的响应函数值:
Figure GDA0003797116780000181
Figure GDA0003797116780000182
其中,Tj为未成功任务tj当前的响应函数值,Rq为当前机器人r的位置,Rqj为未成功任务tj的位置,Rnj为未成功任务tj当前所需机器人数,Cnj为未成功任务tj的确定性参与者数,k1和k2为与多机器人系统相关的第一调节参数,α为防止分母为零的第二调节参数,
Figure GDA0003797116780000183
为x的分段函数,x为Rnj-Cnj
在该式中,综合考虑了机器人从未成功任务集中选择适合执行的任务的两个主要影响因素,该式是机器人与某一个未成功任务的距离的反比例函数,同时也是该未成功任务所需机器人的数量的反比例函数。那么,计算出的响应函数值越大,则说明该未成功任务与机器人的距离越近,同时执行的紧迫程度也要越高,应该优先去执行响应函数值最大的未成功任务。
本实施例中,k1通常设置为与边界长度相关的函数,如可以设置为:k1=border^2,其中border表示边界的长度;k2通常设置为完成任务所需的机器人总数;α通常设置为小于1的一个小数。
步骤S3中,上述选择过程,势必会存在过多机器人选择同一任务去执行的问题。上式中虽然考虑了已到达某一个未成功任务处的确定性参与者,但是无法检测其他正在向该未成功任务靠近的同伴机器人,仍然存在较多机器人向同一任务前进的问题。
因此,需要通过进一步提高机器人个体的智能,对其他同伴机器人进行预测评估,分析选择该未成功任务的潜在性参与者。其中,本实施例中,根据机器人的位置或运动趋势,预测该机器人可能要参与到任务的执行中,则称该机器人为该任务的潜在性参与者。
具体地,当同伴机器人到该任务的距离在不断缩短,且同伴机器人到该任务的距离小于本机器人到该任务的距离,则认为同伴机器人为该任务的潜在性参与者。
统计潜在性参与者数时,当同伴机器人距两个任务的距离都很近时,不能把该同伴机器人分别统计为两个任务的潜在性参与者,需要根据下述方法具体确定。
需要说明的是,本实施例中,若某一个机器人已经到达某任务处,则该机器人为确定性参与者,不列入考察对象,其不属于本本发明所述的同伴机器人。
优选地,步骤S3可按照如下步骤进行实施:
S3-1、获取未到达候选任务处的各同伴机器人对获取到的各任务当前的任务响应值矩阵,任务响应值矩阵用于指示各同伴机器人对获取到的各任务的任务响应值。
该步骤中,先获取未到达候选任务处的各同伴机器人对各任务当前的任务响应值选择概率,用任务响应值选择概率矩阵Total_T表示:
Figure GDA0003797116780000191
其中,Tij表示某一同伴机器人ci对某一个任务tj的任务响应值。
S3-2、根据各同伴机器人的历史信息,获取各同伴机器人到各任务的距离变化矩阵,距离变化矩阵用于指示各同伴机器人是否向各任务靠近。
该步骤中,根据各同伴机器人的历史信息,统计各同伴机器人到各任务的距离变化情况,用变量Dij表示。若某一同伴机器人在某一时刻到某一个任务的距离小于在上一时刻到该任务的距离,则表示该同伴机器人向该任务靠近,此时令Dij=1,否则令Dij=0。
用距离变化矩阵Total_D表示每个同伴机器人到获取到的每个任务的距离变化情况:
Figure GDA0003797116780000201
其中,Dij表示某一同伴机器人ci对某一个任务tj的距离变化情况。
S3-3、根据任务响应值矩阵和距离变化矩阵,获取各同伴机器人的预估选择任务向量,预估选择任务向量用于指示各同伴机器人的预估选择任务。
该步骤中,根据上述步骤得到的任务响应值矩阵和距离变化矩阵,从某一同伴机器人不断靠近的任务中,将任务响应值最大的任务作为该同伴机器人的预估选择任务:
Figure GDA0003797116780000202
同时,生成所有同伴机器人的预估选择任务向量:
Total_PT=[P_T1 P_T2…P_Tl]。
S3-4、根据任务响应值矩阵和各预估选择任务向量,获取各任务的预测选择矩阵。
该步骤中,根据上述步骤得到的任务响应值矩阵和各预估选择任务向量,统计各任务的被选择情况。令S_Tij表示某一个任务是否被某一同伴机器人选择,
Figure GDA0003797116780000203
表示被选择,
Figure GDA0003797116780000204
表示未被选择。当j=P_Ti时,
Figure GDA0003797116780000205
否则
Figure GDA0003797116780000206
则所有任务的预测选择情况可以用矩阵Total_S表示:
Figure GDA0003797116780000207
S3-5、根据预测选择矩阵,计算候选任务的潜在性参与者数。
该步骤中,根据上述得到的预测选择矩阵,统计候选任务的潜在性参与者数En,令k=Select(t),则:
Figure GDA0003797116780000211
其中,Enk表示本机器人选择的候选任务Select(t)的潜在参与者数。
步骤S4中,机器人对能发现的同伴机器人进行预测评估,分析选择候选任务的潜在性参与者数,如果潜在性参与者数大于候选任务当前所需机器人数,则说明有足够的同伴机器人在本机器人之前参与到候选任务中,此时当前机器人需要对自己的选择进行调节,进行第二次选择,避免发生冲突。
因此,需要判断候选任务的潜在性参与者数是否小于候选任务当前所需机器人数。
步骤S5中,若候选任务的潜在性参与者数小于候选任务当前所需机器人数时,说明没有潜在性冲突,维持原始选择即可,即确定该候选任务为适合执行的任务。
若候选任务的潜在性参与者数大于等于候选任务当前所需机器人数时,说明存在潜在性冲突,此时将该候选任务划入机器人的成功任务集中,并确定未成功任务集其余未成功任务中响应函数值最大的未成功任务为适合执行的任务。
在预测到冲突出现后,将候选任务从机器人观察范围获取到的未成功任务集中永久删除,添加到机器人的成功任务集中。机器人下次规划时将不会对该任务进行计算,而是选择其它任务,这种记忆机制保证了机器人不会重复选择相同任务,提高了选择效率。
上述个体自组织任务选择方法是一个实时规划过程,机器人每向前移动一步,都需要对环境进行重新观察,需要重新进行一次任务选择。这种实时选择方法利于随时检测环境的变化,故能较好适应动态不确定性环境,从而能够使机器人参与到更合适的任务中。
综上所述,本发明实施例提供的基于群智能MAS的分布式多机器人的智能控制方法,采用多元化信息交互方式,通过多种通道进行信息获取、分析与融合,根据每个机器人个体当前的状态以及在观察范围内获取到的信息来确定下一个要进入的状态,并根据获取到的多个信息采用个体自组织任务选择方法从中选取适合执行的任务。
本发明通过多种通道进行信息获取、分析与融合,减了对单一模态的通信方式的依赖。同时,按照相对简单的分工协调规则和个体之间多元化的交互能力进行分布式协作,使机器人个体具有丰富的系统协作协调能力。此外,机器人个体采用个体自组织任务选择方法选择适合执行的任务,自主决策能力强,同时保障了在某些个体失效的情况下,不影响其他个体选择任务,使系统具有一定的鲁棒性,提高了系统可靠性。机器人个体在执行任务过程中不断积累经验,改善自己的行为能力,使个体具有自适应进化的能力,执行任务的能力较强,能完成复杂度较高的任务。
需要说明的是,对于上述方法的实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机、计算机、服务器或者网络设备等)执行本申请上述实施例的方法。
参照图2所示,基于同一发明构思,本发明实施例提供一种基于群智能MAS的分布式多机器人的智能控制装置,该装置主要包括:
获取单元21,用于进入启动状态并进行信息获取;
任务选择单元22,用于若获取到的信息为指示观察范围内有多个任务的位置信息的第一位置感知信息时,进入前进状态,并根据第一位置感知信息以及个体自组织任务选择方法选取适合执行的任务,且向适合执行的任务前进;
判断单元23,用于判断是否到达适合执行的任务处;
状态进入单元24,用于若已到达适合执行的任务处,且是第一个到达者时,进入领导者状态;若已到达适合执行的任务处,且不是第一个到达者时,进入参与者状态;
执行单元25,用于执行适合执行的任务。
此处需要说明的是,上述获取单元21、任务选择单元22、判断单元23、状态进入单元24和执行单元对应于上述方法实施例中的步骤101至步骤105,五个单元与对应的步骤所实现的实例和应用场景相同,但不限于上述方法实施例所公开的内容。
在本申请提供的一种可选实施例中,状态进入单元24还用于:
若未到达,则进行信息获取,并根据获取到的信息执行以下任意一个步骤:
若获取到的信息为第一位置感知信息且无通信信息时,保持前进状态,并根据第一位置感知信息以及个体自组织任务选择方法选取适合执行的任务,且向适合执行的任务前进,然后继续执行判断是否到达适合执行的任务处的步骤;
若获取到的信息为第一位置感知信息和中标信息时,保持前进状态,并确定中标信息指示的任务为适合执行的任务,且向适合执行的任务前进,然后继续执行判断是否到达适合执行的任务处的步骤;
若获取到的信息为第一位置感知信息和招标信息且无中标消息时,保持前进状态,并根据招标信息以及个体自组织任务选择方法选取适合执行的任务,若适合执行的任务为招标信息指示的任务则发送投标信息并向适合执行的任务前进,若适合执行的任务不为招标信息指示的任务则向适合执行的任务前进,然后继续执行判断是否到达适合执行的任务处的步骤。
在本申请提供的一种可选实施例中,状态进入单元24还用于:
若获取到的信息为指示观察范围内只有一个任务的位置信息的第二位置感知信息和第二位置感知信息指示的任务的不中标信息时,进入无目标状态,漫游并进行信息获取。
在本申请提供的一种可选实施例中,状态进入单元24还用于:
判断是否获取到第一位置感知信息或第二位置感知信息;
若是,进入前进状态,并根据第一位置感知信息或第二位置感知信息以及个体自组织任务选择方法选取适合执行的任务,且向适合执行的任务前进,然后继续执行判断是否到达适合执行的任务处的步骤;否则,判断是否获取到环境标志物信息;
若是,进入前进状态,并向环境标志物信息指示的环境标志物前进;否则,保持无目标状态,然后继续执行漫游并进行信息获取的步骤。
在本申请提供的一种可选实施例中,还包括执行判断单元,用于:
判断适合执行的任务是否执行完毕;
若是,继续执行进入启动状态并进行信息获取的步骤;否则,保持领导者状态或参与者状态,继续执行适合执行的任务。
在本申请提供的一种可选实施例中,个体自组织任务选择方法包括以下步骤:
将获取到的各任务分别划入成功任务集和未成功任务集;
计算未成功任务集中包括的各未成功任务当前的响应函数值,并将响应函数值最大的未成功任务确定为候选任务;
根据未到达候选任务处的其余各同伴机器人对候选任务的预测选择情况,计算候选任务的潜在性参与者数;
判断候选任务的潜在性参与者数是否小于候选任务当前所需机器人数;
若是,则确定候选任务为适合执行的任务;否则,将候选任务划入成功任务集中,并确定未成功任务集其余未成功任务中响应函数值最大的未成功任务为适合执行的任务。
在本申请提供的一种可选实施例中,计算未成功任务集中包括的各未成功任务当前的响应函数值,包括:
根据下式计算未成功任务集中包括的各未成功任务当前的响应函数值:
Figure GDA0003797116780000251
Figure GDA0003797116780000252
其中,Tj为未成功任务tj当前的响应函数值,Rq为当前机器人r的位置,Rqj为未成功任务tj的位置,Rnj为未成功任务tj当前所需机器人数,Cnj为未成功任务tj的确定性参与者数,k1和k2为与多机器人系统相关的第一调节参数,α为防止分母为零的第二调节参数,
Figure GDA0003797116780000253
为x的分段函数,x为Rnj-Cnj
在本申请提供的一种可选实施例中,根据未到达候选任务处的各同伴机器人对候选任务的预测选择情况,计算候选任务的潜在性参与者数,包括:
获取未到达候选任务处的各同伴机器人对获取到的各任务当前的任务响应值矩阵,任务响应值矩阵用于指示各同伴机器人对获取到的各任务的任务响应值;
根据各同伴机器人的历史信息,获取各同伴机器人到各任务的距离变化矩阵,距离变化矩阵用于指示各同伴机器人是否向各任务靠近;
根据任务响应值矩阵和距离变化矩阵,获取各同伴机器人的预估选择任务向量,预估选择任务向量用于指示各同伴机器人的预估选择任务;
根据任务响应值矩阵和各预估选择任务向量,获取各任务的预测选择矩阵;
根据预测选择矩阵,计算候选任务的潜在性参与者数。
综上所述,本发明实施例提供的基于群智能MAS的分布式多机器人的智能控制装置,采用多元化信息交互方式,通过多种通道进行信息获取、分析与融合,根据每个机器人个体当前的状态以及在观察范围内获取到的信息来确定下一个要进入的状态,并根据获取到的多个信息采用个体自组织任务选择方法从中选取适合执行的任务。
本发明通过多种通道进行信息获取、分析与融合,减了对单一模态的通信方式的依赖。同时,按照相对简单的分工协调规则和个体之间多元化的交互能力进行分布式协作,使机器人个体具有丰富的系统协作协调能力。此外,机器人个体采用个体自组织任务选择方法选择适合执行的任务,自主决策能力强,同时保障了在某些个体失效的情况下,不影响其他个体选择任务,使系统具有一定的鲁棒性,提高了系统可靠性。机器人个体在执行任务过程中不断积累经验,改善自己的行为能力,使个体具有自适应进化的能力,执行任务的能力较强,能完成复杂度较高的任务。
需要说明的是,本发明实施例提供的基于群智能MAS的分布式多机器人的智能控制装置与前述实施例的基于群智能MAS的分布式多机器人的智能控制方法属于相同的技术构思,其具体实施过程可参照前述实施例中对方法步骤的说明,在此不再赘述。
应当理解,以上一种基于群智能MAS的分布式多机器人的智能控制装置包括的单元仅为根据该装置实现的功能进行的逻辑划分,实际应用中,可以进行上述单元的叠加或拆分。并且该实施例提供的一种基于群智能MAS的分布式多机器人的智能控制装置所实现的功能与上述实施例提供的一种基于群智能MAS的分布式多机器人的智能控制方法一一对应,对于该装置所实现的更为详细的处理流程,在上述方法实施例中已做详细描述,此处不再详细描述。
参照图3所示,基于同一发明构思,本发明实施例提供一种计算设备,该计算设备主要包括处理器31和存储器32,其中存储器32内存储有执行指令。该处理器31读取存储器32内的执行指令用于执行上述基于群智能MAS的分布式多机器人的智能控制方法任一个实施例中的步骤。或者,该处理器31读取存储器32内的执行指令用于实现上述基于群智能MAS的分布式多机器人的智能控制装置任一个实施例中各单元的功能。
图3为本发明实施例提供的计算设备的一种结构示意图,如图3所示,该计算设备包括处理器31、存储器32和收发器33;其中,处理器31、存储器32和收发器33通过总线34相互连接。
存储器32用于存储程序;具体地,程序可以包括程序代码,程序代码包括计算机操作指令。存储器32可以包括易失性存储器(volatile memory),例如随机存取存储器(random-access memory,简称RAM);存储器32也可以包括非易失性存储器(non-volatilememory),例如快闪存储器(flash memory),硬盘(hard disk drive,简称HDD)或固态硬盘(solid-state drive,简称SSD);存储器32还可以包括上述种类的存储器的组合。
存储器32存储了如下的元素,可执行模块或者数据结构,或者它们的子集,或者它们的扩展集:
操作指令:包括各种操作指令,用于实现各种操作。
操作系统:包括各种系统程序,用于实现各种基础业务以及处理基于硬件的任务。
总线34可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图3中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
处理器31可以是中央处理器(central processing unit,简称CPU),网络处理器(network processor,简称NP)或者CPU和NP的组合。还可以是硬件芯片。上述硬件芯片可以是专用集成电路(application-specific integrated circuit,简称ASIC),可编程逻辑器件(programmable logic device,简称PLD)或其组合。上述PLD可以是复杂可编程逻辑器件(complex programmable logic device,简称CPLD),现场可编程逻辑门阵列(fieldprogrammable gate array,简称FPGA),通用阵列逻辑(generic array logic,简称GAL)或其任意组合。
本发明实施例还提供一种计算机可读存储介质,包含计算机执行指令,计算机执行指令被用于执行上述基于群智能MAS的分布式多机器人的智能控制方法任一个实施例中的步骤。或者,计算机执行指令被用于执行上述基于群智能MAS的分布式多机器人的智能控制装置实施例中各单元的功能。
可选地,在本实施例中,上述存储介质可以位于计算机网络中计算机终端群中的任意一个计算机终端中,或者位于移动终端群中的任意一个移动终端中。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
以上仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于群智能MAS的分布式多机器人的智能控制方法,其特征在于,包括:
进入启动状态并进行信息获取;
若获取到的信息为指示观察范围内有多个任务的位置信息的第一位置感知信息时,进入前进状态,并根据所述第一位置感知信息以及个体自组织任务选择方法选取适合执行的任务,且向所述适合执行的任务前进;
判断是否到达所述适合执行的任务处;
若已到达,且是第一个到达者时,进入领导者状态;若已到达,且不是第一个到达者时,进入参与者状态;
执行所述适合执行的任务;
所述个体自组织任务选择方法包括以下步骤:
将获取到的各任务分别划入成功任务集和未成功任务集;
计算所述未成功任务集中包括的各未成功任务当前的响应函数值,并将响应函数值最大的未成功任务确定为候选任务;
根据未到达所述候选任务处的其余各同伴机器人对所述候选任务的预测选择情况,计算所述候选任务的潜在性参与者数;
判断所述候选任务的潜在性参与者数是否小于所述候选任务当前所需机器人数;
若是,则确定所述候选任务为适合执行的任务;否则,将所述候选任务划入所述成功任务集中,并确定所述未成功任务集其余未成功任务中响应函数值最大的未成功任务为适合执行的任务;
所述计算所述未成功任务集中包括的各未成功任务当前的响应函数值,包括:
根据下式计算所述未成功任务集中包括的各未成功任务当前的响应函数值:
Figure FDA0003797116770000021
Figure FDA0003797116770000022
其中,Tj为未成功任务tj当前的响应函数值,Rq为当前机器人r的位置,Rqj为未成功任务tj的位置,Rnj为未成功任务tj当前所需机器人数,Cnj为未成功任务tj的确定性参与者数,k1和k2为与多机器人系统相关的第一调节参数,α为防止分母为零的第二调节参数,
Figure FDA0003797116770000023
为x的分段函数,x为Rnj-Cnj
所述根据未到达所述候选任务处的各同伴机器人对所述候选任务的预测选择情况,计算所述候选任务的潜在性参与者数,包括:
获取未到达所述候选任务处的各同伴机器人对获取到的各任务当前的任务响应值矩阵,所述任务响应值矩阵用于指示各所述同伴机器人对获取到的各任务的任务响应值;
根据各所述同伴机器人的历史信息,获取各所述同伴机器人到各所述任务的距离变化矩阵,所述距离变化矩阵用于指示各所述同伴机器人是否向各所述任务靠近;
根据所述任务响应值矩阵和所述距离变化矩阵,获取各所述同伴机器人的预估选择任务向量,所述预估选择任务向量用于指示各所述同伴机器人的预估选择任务;
根据所述任务响应值矩阵和各所述预估选择任务向量,获取各所述任务的预测选择矩阵;
根据所述预测选择矩阵,计算所述候选任务的潜在性参与者数。
2.根据权利要求1所述的方法,其特征在于,在所述判断是否到达所述适合执行的任务处之后,还包括:
若未到达,则进行信息获取,并根据获取到的信息执行以下任意一个步骤:
若获取到的信息为第一位置感知信息且无通信信息时,保持前进状态,并根据所述第一位置感知信息以及个体自组织任务选择方法选取适合执行的任务,且向所述适合执行的任务前进,然后继续执行判断是否到达所述适合执行的任务处的步骤;
若获取到的信息为第一位置感知信息和中标信息时,保持前进状态,并确定所述中标信息指示的任务为适合执行的任务,且向所述适合执行的任务前进,然后继续执行判断是否到达所述适合执行的任务处的步骤;
若获取到的信息为第一位置感知信息和招标信息且无中标消息时,保持前进状态,并根据所述招标信息以及个体自组织任务选择方法选取适合执行的任务,若所述适合执行的任务为所述招标信息指示的任务则发送投标信息并向所述适合执行的任务前进,若所述适合执行的任务不为所述招标信息指示的任务则向所述适合执行的任务前进,然后继续执行判断是否到达所述适合执行的任务处的步骤。
3.根据权利要求2所述的方法,其特征在于,根据获取到的信息执行的步骤还包括:
若获取到的信息为指示观察范围内只有一个任务的位置信息的第二位置感知信息和所述第二位置感知信息指示的任务的不中标信息时,进入无目标状态,漫游并进行信息获取。
4.根据权利要求3所述的方法,其特征在于,在所述漫游并进行信息获取之后,还包括:
判断是否获取到第一位置感知信息或第二位置感知信息;
若是,进入前进状态,并根据所述第一位置感知信息或第二位置感知信息以及个体自组织任务选择方法选取适合执行的任务,且向所述适合执行的任务前进,然后继续执行判断是否到达所述适合执行的任务处的步骤;否则,判断是否获取到环境标志物信息;
若是,进入前进状态,并向所述环境标志物信息指示的环境标志物前进;否则,保持无目标状态,然后继续执行漫游并进行信息获取的步骤。
5.根据权利要求1所述的方法,其特征在于,在所述执行所述适合执行的任务之后,还包括:
判断所述适合执行的任务是否执行完毕;
若是,继续执行进入启动状态并进行信息获取的步骤;否则,保持领导者状态或参与者状态,继续执行所述适合执行的任务。
6.一种基于群智能MAS的分布式多机器人的智能控制装置,其特征在于,包括:
获取单元,用于进入启动状态并进行信息获取;
任务选择单元,用于若获取到的信息为指示观察范围内有多个任务的位置信息的第一位置感知信息时,进入前进状态,并根据所述第一位置感知信息以及个体自组织任务选择方法选取适合执行的任务,且向所述适合执行的任务前进;
判断单元,用于判断是否到达所述适合执行的任务处;
状态进入单元,用于若已到达所述适合执行的任务处,且是第一个到达者时,进入领导者状态;若已到达所述适合执行的任务处,且不是第一个到达者时,进入参与者状态;
执行单元,用于执行所述适合执行的任务;
所述个体自组织任务选择方法包括以下步骤:
将获取到的各任务分别划入成功任务集和未成功任务集;
计算所述未成功任务集中包括的各未成功任务当前的响应函数值,并将响应函数值最大的未成功任务确定为候选任务;
根据未到达所述候选任务处的其余各同伴机器人对所述候选任务的预测选择情况,计算所述候选任务的潜在性参与者数;
判断所述候选任务的潜在性参与者数是否小于所述候选任务当前所需机器人数;
若是,则确定所述候选任务为适合执行的任务;否则,将所述候选任务划入所述成功任务集中,并确定所述未成功任务集其余未成功任务中响应函数值最大的未成功任务为适合执行的任务;
所述计算所述未成功任务集中包括的各未成功任务当前的响应函数值,包括:
根据下式计算所述未成功任务集中包括的各未成功任务当前的响应函数值:
Figure FDA0003797116770000051
Figure FDA0003797116770000052
其中,Tj为未成功任务tj当前的响应函数值,Rq为当前机器人r的位置,Rqj为未成功任务tj的位置,Rnj为未成功任务tj当前所需机器人数,Cnj为未成功任务tj的确定性参与者数,k1和k2为与多机器人系统相关的第一调节参数,α为防止分母为零的第二调节参数,
Figure FDA0003797116770000053
为x的分段函数,x为Rnj-Cnj
所述根据未到达所述候选任务处的各同伴机器人对所述候选任务的预测选择情况,计算所述候选任务的潜在性参与者数,包括:
获取未到达所述候选任务处的各同伴机器人对获取到的各任务当前的任务响应值矩阵,所述任务响应值矩阵用于指示各所述同伴机器人对获取到的各任务的任务响应值;
根据各所述同伴机器人的历史信息,获取各所述同伴机器人到各所述任务的距离变化矩阵,所述距离变化矩阵用于指示各所述同伴机器人是否向各所述任务靠近;
根据所述任务响应值矩阵和所述距离变化矩阵,获取各所述同伴机器人的预估选择任务向量,所述预估选择任务向量用于指示各所述同伴机器人的预估选择任务;
根据所述任务响应值矩阵和各所述预估选择任务向量,获取各所述任务的预测选择矩阵;
根据所述预测选择矩阵,计算所述候选任务的潜在性参与者数。
7.一种计算设备,其特征在于,包括处理器和存储器,其中所述存储器内存储有执行指令,所述处理器读取所述存储器内的执行指令用于执行如权利要求1~5中任一项所述的基于群智能MAS的分布式多机器人的智能控制方法中的步骤。
CN202110078379.8A 2021-01-20 2021-01-20 基于群智能mas的分布式多机器人的智能控制方法及装置 Active CN112894811B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110078379.8A CN112894811B (zh) 2021-01-20 2021-01-20 基于群智能mas的分布式多机器人的智能控制方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110078379.8A CN112894811B (zh) 2021-01-20 2021-01-20 基于群智能mas的分布式多机器人的智能控制方法及装置

Publications (2)

Publication Number Publication Date
CN112894811A CN112894811A (zh) 2021-06-04
CN112894811B true CN112894811B (zh) 2022-09-20

Family

ID=76117352

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110078379.8A Active CN112894811B (zh) 2021-01-20 2021-01-20 基于群智能mas的分布式多机器人的智能控制方法及装置

Country Status (1)

Country Link
CN (1) CN112894811B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009040777A2 (en) * 2007-09-27 2009-04-02 Koninklijke Philips Electronics, N.V. Leader robot election in collaborative robot groups
KR20130052768A (ko) * 2011-11-14 2013-05-23 한국전자통신연구원 소형 로봇의 다중 운용 방법 및 그 운용 시스템
CN105203097A (zh) * 2015-10-14 2015-12-30 中国矿业大学 一种适用于灾后环境的多机器人多目标点救援路径规划方法
CN110601935A (zh) * 2019-09-20 2019-12-20 青岛海尔科技有限公司 智能家居操作系统中任务的处理方法、装置及云平台系统
CN111461488A (zh) * 2020-03-03 2020-07-28 北京理工大学 面向车间搬运问题的多机器人分布式协作任务分配方法
CN111805546A (zh) * 2020-07-20 2020-10-23 中国人民解放军国防科技大学 一种基于脑机接口的人-多机器人共享控制的方法及系统
CN111857161A (zh) * 2020-08-19 2020-10-30 湖南科技大学 未知复杂凸环境下群机器人多目标搜索方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10235642B2 (en) * 2017-08-11 2019-03-19 Tata Consultancy Services Limited Method and system for optimally allocating warehouse procurement tasks to distributed robotic agents
DE102018207539A1 (de) * 2018-05-15 2019-11-21 Robert Bosch Gmbh Verfahren zum Betreiben eines Roboters in einem Multiagentensystem, Roboter und Multiagentensystem

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009040777A2 (en) * 2007-09-27 2009-04-02 Koninklijke Philips Electronics, N.V. Leader robot election in collaborative robot groups
KR20130052768A (ko) * 2011-11-14 2013-05-23 한국전자통신연구원 소형 로봇의 다중 운용 방법 및 그 운용 시스템
CN105203097A (zh) * 2015-10-14 2015-12-30 中国矿业大学 一种适用于灾后环境的多机器人多目标点救援路径规划方法
CN110601935A (zh) * 2019-09-20 2019-12-20 青岛海尔科技有限公司 智能家居操作系统中任务的处理方法、装置及云平台系统
CN111461488A (zh) * 2020-03-03 2020-07-28 北京理工大学 面向车间搬运问题的多机器人分布式协作任务分配方法
CN111805546A (zh) * 2020-07-20 2020-10-23 中国人民解放军国防科技大学 一种基于脑机接口的人-多机器人共享控制的方法及系统
CN111857161A (zh) * 2020-08-19 2020-10-30 湖南科技大学 未知复杂凸环境下群机器人多目标搜索方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
多模态融合的多机器人任务分配算法研究;段俊花等;《西北工业大学学报》;20131215(第06期);第974-978页 *
群智能算法应用于MAS系统协作的探讨;秦海力等;《计算机仿真》;20080715(第07期);第141-144页 *

Also Published As

Publication number Publication date
CN112894811A (zh) 2021-06-04

Similar Documents

Publication Publication Date Title
US20230196117A1 (en) Training method for semi-supervised learning model, image processing method, and device
CN110686633B (zh) 一种滑坡位移预测方法、装置及电子设备
CN112990211A (zh) 一种神经网络的训练方法、图像处理方法以及装置
Liao et al. Place classification with a graph regularized deep neural network
US20210097441A1 (en) Artificial intelligence task matching method, apparatus, and program
CN113196303A (zh) 不适当神经网络输入检测和处理
CN113641993A (zh) 一种基于云计算的数据安防处理方法及数据安防服务器
CN112418341A (zh) 模型融合方法、预测方法、装置、设备及存储介质
Deac et al. Xlvin: executed latent value iteration nets
CN115729796A (zh) 基于人工智能的异常操作分析方法及大数据应用系统
CN111832707A (zh) 深度神经网络的解释方法、装置、终端及存储介质
CN109190757B (zh) 任务处理方法、装置、设备及计算机可读存储介质
CN112894811B (zh) 基于群智能mas的分布式多机器人的智能控制方法及装置
CN112633074B (zh) 行人信息的检测方法和装置、存储介质及电子设备
CN113065379B (zh) 融合图像质量的图像检测方法、装置、电子设备
US20230342626A1 (en) Model processing method and related apparatus
CN112700003A (zh) 网络结构搜索方法、装置、设备、存储介质及程序产品
KR102553041B1 (ko) 인공지능 모델 기반 사용자 및 인테리어 공급자 매칭 플랫폼 서비스 제공 방법, 장치 및 시스템
CN117475253A (zh) 一种模型训练方法、装置、电子设备及存储介质
Ahmadi et al. Human trajectory prediction using LSTM with Attention mechanism
CN116188789A (zh) 目标检测方法、检测装置及计算机可读存储介质
CN115730248A (zh) 一种机器账号检测方法、系统、设备及存储介质
CN112423224B (zh) 基于wifi特征数据的居住地类型识别方法、电子设备和介质
CN112862270B (zh) 分布式多机器人的个体任务选择方法、装置及系统
CN113836195A (zh) 一种基于用户画像的知识推荐方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant