CN113268893A - 基于连通保持约束的群体围捕方法及装置 - Google Patents

基于连通保持约束的群体围捕方法及装置 Download PDF

Info

Publication number
CN113268893A
CN113268893A CN202110811042.3A CN202110811042A CN113268893A CN 113268893 A CN113268893 A CN 113268893A CN 202110811042 A CN202110811042 A CN 202110811042A CN 113268893 A CN113268893 A CN 113268893A
Authority
CN
China
Prior art keywords
target
agents
task allocation
agent
individual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110811042.3A
Other languages
English (en)
Other versions
CN113268893B (zh
Inventor
丘腾海
王乐乐
蒲志强
刘振
易建强
常红星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN202110811042.3A priority Critical patent/CN113268893B/zh
Publication of CN113268893A publication Critical patent/CN113268893A/zh
Application granted granted Critical
Publication of CN113268893B publication Critical patent/CN113268893B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/04Constraint-based CAD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2119/00Details relating to the type or aim of the analysis or the optimisation
    • G06F2119/14Force analysis or force optimisation, e.g. static or dynamic forces

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Educational Administration (AREA)
  • General Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Development Economics (AREA)
  • Computer Hardware Design (AREA)
  • Operations Research (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供一种基于连通保持约束的群体围捕方法及装置,方法包括:基于虚拟力场模型计算搜索指令,并与其他智能体形成保持通信的漫游状态;执行搜索指令以对区域进行目标搜索,若发现目标,则根据目标计算个体收益,并在个体收益小于或等于预设阈值时,独立围捕使个体收益最大的目标;否则,通过群体分布式通信机制将目标信息传送至其他临近智能体,接收其他临近智能体返回的任务分配方案,根据任务分配方案,基于选择性交互方法和虚拟力场模型计算围捕指令,并执行围捕指令以对目标进行围捕。本发明在通信保持约束条件下,同时考虑群体间各智能体与探测目标的作用,建立群体分布式协商机制,以实现群体无冲突的任务分配,进而快速围捕目标。

Description

基于连通保持约束的群体围捕方法及装置
技术领域
本发明涉及任务分配技术领域,尤其涉及一种基于连通保持约束的群体围捕方法及装置。
背景技术
无人群体围捕是指无人车、无人机和机器人等无人群体系统通过相互协同,共同完成对单目标或多目标的围捕,相较于单体系统,无人群体系统具有更强的鲁棒性、扩展性和灵活性,能够更加快速完成大规模复杂任务。无人群体围捕可用于军事作战、城市反恐、安防警戒,其对于群体对抗、队形保持、协同搬运等具有很大影响,在军事和民用等领域具有重要的研究价值和意义深远。
实现无人群体围捕的挑战在于在考虑智能体探测范围和通信范围有限条件下如何分配目标,不但需要保障群体间的通信连通,还需要考虑群体如何在避碰的情况下围捕目标,另外还涉及群体间的协商问题,在遇到多个目标或者智能体自身能力不足的情况下,如何判断是否发出或者响应邻居智能体的支援请求,而且要求围捕算法响应时间短,否则群体尚未开始围捕,目标已经逃离等问题。
目前存在不少群体任务分配、任务规划等相关工作,然而现有算法存在一些明显不足,比如围捕场景考虑的条件较为简单且理想,一般默认群体中个体通信均为连通,局部邻居数量无法扩展,扩展性较弱,群体采用集中式规划,由一个Leader进行统一分配,算法复杂且响应时间较长,对于大规模群体的围捕适应性弱等等,不能满足实际应用的需要,群体系统围捕理论有待完善。
发明内容
本发明提供一种基于连通保持约束的群体围捕方法及装置,用以解决现有技术中无人群体系统协同响应时间较长且对于大规模群体的围捕适应性较弱的缺陷,实现快速完成对目标的围捕,确保目标围捕的准确性。
第一方面,本发明提供一种基于连通保持约束的群体围捕方法,包括:基于虚拟力场模型计算搜索指令,并与其他智能体形成保持通信的漫游状态;执行所述搜索指令以对区域进行目标搜索,若发现目标,则根据所述目标计算个体收益,并在所述个体收益小于或等于预设阈值时,独立围捕使所述个体收益最大的目标;否则,通过群体分布式通信机制将所述目标信息传送至其他临近智能体,接收所述其他临近智能体返回的任务分配方案,根据所述任务分配方案,基于选择性交互方法和所述虚拟力场模型计算围捕指令,并执行所述围捕指令以对所述目标进行围捕。
根据本发明提供的一种基于连通保持约束的群体围捕方法,所述通过群体分布式通信机制将所述目标信息传送至其他智能体,包括:基于信息传播能量,通过保持通信的其他智能体链路向所述其他智能体传播所述目标信息;所述信息传播能量表示为:E=(γ)k-1,其中,k表示为信息传播链路的跳数,γ表示为折扣因子,γ∈(0,1)。
根据本发明提供的一种基于连通保持约束的群体围捕方法,所述选择性交互方法,包括:基于所述虚拟力场模型,根据所述任务分配方案中各智能体间相互引斥力作用,选择性忽略任务分配方案以外的所有智能体引斥力作用,计算围捕指令。
根据本发明提供的一种基于连通保持约束的群体围捕方法,所述虚拟力场模型ui,表示为:
Figure 725885DEST_PATH_IMAGE001
Figure 665022DEST_PATH_IMAGE002
所述群体中各智能体的运动学模型表示为:
Figure 332764DEST_PATH_IMAGE003
其中,ui1表示群体中智能体i与其他智能体的交互作用项,ui2表示群体中智能体i与目标g的作用项,c1、c2表示权重系数,pi (t)、qi (t)表示智能体i的速度、位置信息,pg(t),qg (t)表示目标g的速度、位置信息,ψi (z)表示势函数,Vi (z)表示智能体i周围所有其他智能体的势函数之和,∇Vi (z)表示总势函数的导数,k1、k2表示势函数系数,z表示智能体i与其他智能体的距离,d表示为引斥力范围的度量值,为常量,并且3d≤Rc,Rc为智能体之间的通信半径;
所述个体收益Sij,表示为:
Figure 1643DEST_PATH_IMAGE004
其中,
Figure 978695DEST_PATH_IMAGE005
为角度优势函数,
Figure 201866DEST_PATH_IMAGE006
为距离优势函数,
Figure 407719DEST_PATH_IMAGE007
为任务驱动因子,该项与 捕获目标所获得收益有关,
Figure 399946DEST_PATH_IMAGE008
为加权系数,并且
Figure 49364DEST_PATH_IMAGE009
Figure 494252DEST_PATH_IMAGE010
分别表示为:
Figure 503797DEST_PATH_IMAGE011
Figure 616109DEST_PATH_IMAGE012
Figure 403805DEST_PATH_IMAGE013
其中,
Figure 601569DEST_PATH_IMAGE014
为优势角,
Figure 149225DEST_PATH_IMAGE015
为智能体
Figure 116044DEST_PATH_IMAGE016
与目标
Figure 844615DEST_PATH_IMAGE017
之间的距离,
Figure 529674DEST_PATH_IMAGE018
表示智能体的通信距离,
Figure 881021DEST_PATH_IMAGE019
表示信息传播链路的跳数,
Figure 702347DEST_PATH_IMAGE020
为折扣因子,
Figure 363004DEST_PATH_IMAGE021
为目标
Figure 269780DEST_PATH_IMAGE017
的预期收益值,
Figure 159239DEST_PATH_IMAGE022
为智能体接 收到追捕任务中最大的目标收益值。
根据本发明提供的一种基于连通保持约束的群体围捕方法,方法还包括:执行所述搜索指令以对区域进行目标搜索,若未发现目标,且其他临近智能体发现目标,则接收所述其他临近智能体发送的目标信息;根据接收的目标信息计算个体收益,并利用协商机制形成任务分配方案,以及将所述任务分配方案返回至所述其他临近智能体;根据所述任务分配方案,基于所述选择性交互方法和所述虚拟力场模型计算围捕指令,并执行所述围捕指令以对目标进行围捕。
根据本发明提供的一种基于连通保持约束的群体围捕方法,所述利用协商机制形成任务分配方案,包括:当接收的至少两个所述其他临近智能体发送的目标信息来源于同一目标时,则以整体收益为目标,形成使所述整体收益最大的智能体联盟以围捕相应目标的任务分配方案;其中,所述整体收益表示为形成的智能体联盟中所有智能体的个体收益之和;当接收的至少两个所述其他临近智能体发送的目标信息来源于至少两个目标时,则以自身个体收益为指标,形成使自身个体收益最大的目标的任务分配方案;当与至少一个其他智能体接收来源于同一其他临近智能体发送的至少两个目标信息时,则以所述整体收益为指标,形成使所述其他临近智能体个体收益最大的目标的任务分配方案。
所述根据接收的其他临近智能体发送的目标信息,在所述执行所述围捕指令以对所述目标进行围捕之后,还包括:基于参加围捕的所有智能体均匀分布于以围捕目标为中心、半径为Rd的圆上,则围捕成功;其中,Rd表示为围捕半径。
第二方面,本发明还提供一种基于连通保持约束的群体围捕装置,包括:计算模块,基于虚拟力场模型计算搜索指令,并与其他智能体形成保持通信的漫游状态;第一执行模块,执行所述搜索指令以对区域进行目标搜索,若发现目标,则根据所述目标计算个体收益,并在所述个体收益小于或等于预设阈值时,独立围捕使所述个体收益最大的目标;否则,通过群体分布式通信机制将所述目标信息传送至其他临近智能体,接收所述其他临近智能体返回的任务分配方案,根据所述任务分配方案,基于选择性交互方法和所述虚拟力场模型计算围捕指令,并执行所述围捕指令以对所述目标进行围捕。
第三方面,本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述所述基于连通保持约束的群体围捕方法的步骤。
第四方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述所述基于连通保持约束的群体围捕方法的步骤。
本发明提供的基于连通保持约束的群体围捕方法及装置,通过基于虚拟力模型,在通信保持约束条件下,同时考虑群体间各智能体与探测目标的作用,建立群体分布式协商机制,通过计算个体收益函数,判断联盟整体收益和个体收益的大小,实现群体无冲突的任务分配,并利用选择性交互方法,计算联盟各智能体的围捕指令,以实现快速完成对目标的围捕。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的基于连通保持约束的群体围捕方法的流程示意图之一;
图2是本发明提供的各智能体漫游状态时的仿真效果图;
图3是本发明提供的各智能体围捕过程中的仿真效果图;
图4是本发明提供的基于连通保持约束的群体围捕方法的代数连通变化曲线图;
图5是本发明提供的基于连通保持约束的群体围捕装置的结构示意图;
图6是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1示出了本发明一种基于连通保持约束的群体围捕方法的流程示意图,该方法,包括:
S11,基于虚拟力场模型计算搜索指令,并与其他智能体形成保持通信的漫游状态;
S12,执行搜索指令以对区域进行目标搜索,若发现目标,则根据目标计算个体收益,并基于个体收益小于或等于预设阈值,独立围捕使个体收益最大的目标;否则,通过群体分布式通信机制将目标信息传送至其他临近智能体,接收其他临近智能体返回的任务分配方案,根据任务分配方案,基于选择性交互方法和虚拟力场模型计算围捕指令,并执行围捕指令以对目标进行围捕。
需要说明的是,本发明提供的基于连通保持约束的群体围捕方法的执行主体可以为群体中的任一智能体。本说明书中的S0N不代表基于连通保持约束的群体围捕的先后顺序,下面结合图2-图4具体描述本发明的基于连通保持约束的群体围捕方法。
步骤S11,基于虚拟力场模型计算搜索指令,并与其他智能体形成保持通信的漫游状态。
本实施例中,虚拟力场模型ui,表示为:
Figure 100650DEST_PATH_IMAGE023
Figure 168094DEST_PATH_IMAGE002
群体中各智能体的运动学模型表示为:
Figure 562166DEST_PATH_IMAGE003
其中,ui1表示群体中智能体i与其他智能体的交互作用项,ui2表示群体中智能体i与目标g的作用项,c1、c2表示权重系数,pi (t)、qi (t)表示智能体i的速度、位置信息,pg(t),qg (t)表示目标g的速度、位置信息,ψi (z)表示势函数,Vi (z)表示智能体i周围所有其他智能体的势函数之和,∇Vi (z)表示总势函数的导数,k1、k2表示势函数系数,z表示智能体i与其他智能体的距离,d表示为引斥力范围的度量值,为常量,并且3d≤Rc,Rc为智能体之间的通信半径。
另外,在初始状态,群体中的各智能体未发现目标时,任一智能体受其他临近智能体的引斥力,为使群体中的各智能体形成连通保持的漫游状态,需要使该智能体与其他智能体之间的距离z∈(d,2d),ψi (z)=0,搜索指令为0,从而确保群体进入漫游状态。
步骤S12,执行搜索指令以对区域进行目标搜索,若发现目标,则根据目标计算个体收益,并基于个体收益小于或等于预设阈值,独立围捕使个体收益最大的目标;否则,通过群体分布式通信机制将目标信息传送至其他临近智能体,接收其他临近智能体返回的任务分配方案,根据任务分配方案,基于选择性交互方法和虚拟力场模型计算围捕指令,并执行围捕指令以对目标进行围捕。
本实施例中,执行搜索指令以对区域进行目标搜索,若发现目标,则:
首先,根据发现目标,计算个体收益,个体收益Sij,表示为:
Figure 255316DEST_PATH_IMAGE004
其中,
Figure 51233DEST_PATH_IMAGE005
为角度优势函数,
Figure 53693DEST_PATH_IMAGE006
为距离优势函数,
Figure 935062DEST_PATH_IMAGE007
为任务驱动因子,该项 与捕获目标所获得收益有关,
Figure 166323DEST_PATH_IMAGE008
为加权系数,并且
Figure 816747DEST_PATH_IMAGE009
Figure 488644DEST_PATH_IMAGE010
分别表示为:
Figure 857308DEST_PATH_IMAGE011
Figure 892260DEST_PATH_IMAGE012
Figure 397191DEST_PATH_IMAGE013
其中,
Figure 741453DEST_PATH_IMAGE014
为优势角,
Figure 394152DEST_PATH_IMAGE015
为智能体
Figure 170478DEST_PATH_IMAGE016
与目标
Figure 795494DEST_PATH_IMAGE017
之间的距离,
Figure 858128DEST_PATH_IMAGE018
表示智能体的通信距离,
Figure 686538DEST_PATH_IMAGE019
表示信息传播链路的跳数,
Figure 328872DEST_PATH_IMAGE020
为折扣因子,
Figure 11657DEST_PATH_IMAGE021
为目标
Figure 245192DEST_PATH_IMAGE017
的预期收益值,
Figure 59433DEST_PATH_IMAGE022
为智能体接 收到追捕任务中最大的目标收益值。
在一个可选实施例中,Rc=30,γ=0.5,假设存在三个目标,则相应目标属性,即个体收益S设置为S1=4,S2=3,S3=3,其中,S1表示为目标一的个体收益,S2表示为目标二的个体收益,S3表示为目标三的个体收益。应当注意,当发现的目标为多个时,需要分别针对各目标进行个体收益计算。
其次,判断个体收益是否不大于预设阈值,若是,则独立围捕使个体收益最大的目标。需要说明的是,当不大于预设阈值的个体收益为一个时,独立围捕相应目标;当不大于预设阈值的个体收益为至少两个时,独立围捕使个体收益最大的目标。
若个体收益大于预设阈值,则通过群体分布式通信机制将目标信息传送至其他临近智能体,接收其他临近智能体返回的任务分配方案。
具体而言,通过群体分布式通信机制将目标信息传送至其他临近智能体,包括:通过保持通信的其他临近智能体链路向其他临近智能体传播目标信息。更进一步地说,通过保持通信的其他临近智能体链路向其他临近智能体传播目标信息,包括:基于信息传播能量,将目标信息通过保持通信的其他临近智能体链路传播;信息传播能量表示为:E=(γ)k-1,其中,k表示为信息传播链路的跳数,γ表示为折扣因子,γ∈(0,1)。
需要说明的是,预设阈值可以为1,具体可根据实际设计需求设定,此处不作进一步限定;在将目标信息传播至其他临近智能体之后,其他临近智能体基于接收的目标信息,计算个体收益,并利用协商机制形成任务分配方案,以及将任务分配方案返回至控制中心,具体可参考下文方法实施例。另外,目标信息包括目标位置、威胁程度、目标收益和完成任务所需数量等。
最后,接收其他临近智能体返回的任务分配方案,并根据任务分配方案,基于选择性交互方法和虚拟力场模型计算围捕指令,并执行围捕指令以对目标进行围捕。
本实施例中,选择性交互方法,包括:基于虚拟力场模型,根据任务分配方案中各智能体间相互引斥力作用,选择性忽略任务分配方案以外的所有智能体引斥力作用,计算围捕指令。需要说明的是,计算的围捕指令为任务分配方案中该智能体围捕对应目标的指令。
在一个可选实施例中,该基于连通保持约束的群体围捕方法,还包括:
S13,执行搜索指令以对区域进行目标搜索,若未发现目标,且其他临近智能体发现目标,则接收其他临近智能体发送的目标信息;
S14,根据接收的目标信息计算个体收益,并利用协商机制形成任务分配方案,以及将任务分配方案返回至其他临近智能体;
S15,根据任务分配方案,基于选择性交互方法和虚拟力场模型计算围捕指令,并执行围捕指令以对目标进行围捕。
需要说明的是,本发明提供的基于连通保持约束的群体围捕方法的执行主体可以为群体中的任一智能体。本说明书中的S0N不代表基于连通保持约束的群体围捕的先后顺序,下面具体描述本发明的基于连通保持约束的群体围捕方法。
步骤S13,执行搜索指令以对区域进行目标搜索,若未发现目标,且其他临近智能体发现目标,则接收其他临近智能体发送的目标信息。
需要说明的是,由于其他智能体在对区域进行搜索时,仅会在发现目标的情形下向其临近智能体发送目标信息,因此,当该智能体执行搜索指令以对区域进行目标搜索时,若其未发现目标,则仅在其临近的其他智能体发现目标的情形下,接收相应其他临近智能体发送的目标信息。
S14,根据接收的目标信息计算个体收益,并利用协商机制形成任务分配方案,以及将任务分配方案返回至其他临近智能体。
本实施例中,根据接收的其他临近智能体发送的目标信息,计算个体收益,包括:根据接收的每个目标信息,分别计算其对应的个体收益。
利用协商机制形成任务分配方案,包括:当接收的至少两个其他临近智能体发送的目标信息来源于同一目标时,则以整体收益为目标,形成使整体收益最大的智能体联盟以围捕相应目标的任务分配方案;其中,整体收益表示为形成的智能体联盟中所有智能体的个体收益之和;当接收的至少两个其他临近智能体发送的目标信息来源于至少两个目标时,则以自身个体收益为指标,形成使自身个体收益最大的目标的任务分配方案;当与至少一个其他智能体接收来源于同一其他临近智能体发送的至少两个目标信息时,则以整体收益为指标,形成使其他临近智能体个体收益最大的目标的任务分配方案。
在一个可选实施例中,当该智能体接收至少两个其他临近智能体发送的目标信息来源于同一目标时,根据该目标信息对应的个体收益,选择至少部分其他临近智能体的个体收益组成整体收益,并使形成的任务分配方案中所有智能体的个体收益之和最大,即整体收益最大,任务分配方案中的所有智能体构成智能体联盟,智能体联盟中智能体的个数可以根据实际围捕需求设定,此处不作限定。
应当注意,在对目标进行围捕时,优先组成整体收益值最大的智能体联盟。整体收益与个体收益产生冲突时,整体收益优先级大于个体收益。
在一个可选实施例中,当接收的至少两个其他临近智能体发送的目标信息来源于至少两个目标时,则以该智能体的个体收益为指标,围捕使其自身个体收益最大的目标,并使形成的任务分配方案中的智能体联盟为该智能体以及发送该目标信息的其他临近智能体。比如,该智能体接收的目标信息为i个,其中i=1,2,…,n,该智能体对应该目标信息i的个体收益为Spi,则选择对应个体收益Spi最大的目标,并与发送该目标信息的其他临近智能体组成智能体联盟。
在一个可选实施例中,当与至少一个其他智能体接收来源于同一其他临近智能体发送的至少两个目标信息时,则形成的任务分配方案以其他临近智能体的个体收益最大为指标,选择对应目标,并基于该目标组成整体收益最大的智能体联盟,以围捕该目标。需要说明的是,智能体联盟包括发送目标信息的其他临近智能体,该智能体联盟该包括该智能体和至少一个其他智能体中的至少一个。
步骤S15,根据任务分配方案,基于选择性交互方法和虚拟力场模型计算围捕指令,并执行围捕指令以对目标进行围捕。
在一个可选实施例中,在任务分配方案中的所有围捕目标之后,控制中心,基于参加围捕任务的所有智能体均匀分布在以目标为中心,半径为Rd的圆上,判断围捕成功;其中,Rd表示为围捕半径。
在一个可选实施例中,Rd=5。
在一个可选实施例中,如图2和图3所示,为本发明一种连通保持约束下的群体围捕方法一种实施例的仿真效果图,其中圆点表示群体中的智能体,正方形表示目标。从图2和图3中可以看出,本实施例可以通过极少的步数实现群体对目标的围捕,并且能够保证群体间各智能体的连通关系;如图4所示,横轴表示方法执行的步数,纵轴表示代数连通度,随着步数的增加,代数连通度先增加,后减小,再逐步收敛至20,保证群体中各智能体基本连通。
在一个可选实施例中,在将相应围捕指令输出至相应智能体之后,还包括:基于参加围捕的所有智能体均匀分布于以围捕目标为中心、半径为Rd的圆上,则围捕成功;其中,Rd表示为围捕半径。
在一个可选实施例中,该基于连通保持约束的群体围捕方法,包括:
S21,基于各智能体的虚拟力场模型,计算对应智能体的搜索指令,并使群体中的所有智能体形成保持通信的漫游状态;
S22,群体执行搜索指令以对区域进行目标搜索,若某智能体发现目标,则根据目标计算个体收益,并在个体收益小于或等于预设阈值时,独立围捕使个体收益最大的目标;否则,通过群体分布式通信机制将所述目标信息传送至其他临近智能体;
S23,其他临近智能体接收目标信息,并根据目标信息计算个人收益,利用协商机制形成任务分配方案,以及将任务分配方案返回至发送目标信息的智能体;
S24,其他临近智能体以及接收任务分配方案的智能体,根据任务分配方案,基于选择性交互方法和虚拟力场模型计算围捕指令,并执行所述围捕指令以对目标进行围捕。
需要说明的是,在其他临近智能体接收目标信息,并根据目标信息计算个人收益之后,利用协商机制形成任务分配方案。具体而言,利用协商机制形成任务分配方案,包括:当接收的至少两个智能体发送的目标信息来源于同一目标时,则以整体收益为目标,形成使整体收益最大的智能体联盟以围捕相应目标的任务分配方案;其中,整体收益表示为形成的智能体联盟中所有智能体的个体收益之和;当接收的至少两个智能体发送的目标信息来源于至少两个目标时,则以自身个体收益为指标,形成使自身个体收益最大的目标的任务分配方案;当与至少一个其他智能体接收来源于同一智能体发送的至少两个目标信息时,则以整体收益为指标,形成使发送目标信息的智能体个体收益最大的目标的任务分配方案。
在一个可选实施例中,在任务分配方案中的智能体执行围捕指令以对目标进行围捕之后,还包括:基于参加围捕的所有智能体均匀分布于以围捕目标为中心、半径为Rd的圆上,则围捕成功;其中,Rd表示为围捕半径。
综上所述,本发明通过基于虚拟力模型,在通信保持约束条件下,同时考虑群体间各智能体与探测目标的作用,建立群体分布式协商机制,通过计算个体收益,判断联盟整体收益和个体收益的大小,实现群体无冲突的任务分配,并利用选择性交互方法,计算联盟各智能体的围捕指令,以实现快速完成对目标的围捕。
下面对本发明提供的基于连通保持约束的群体围捕装置进行描述,下文描述的基于连通保持约束的群体围捕装置与上文描述的基于连通保持约束的群体围捕方法可相互对应参照。
图5示出了本发明一种基于连通保持约束的群体围捕装置的结构示意图,该装置,包括:
计算模块51,基于虚拟力场模型计算搜索指令,并与其他智能体形成保持通信的漫游状态;
第一执行模块52,执行搜索指令以对区域进行目标搜索,若发现目标,则根据目标计算个体收益,并在个体收益小于或等于预设阈值时,独立围捕使个体收益最大的目标;否则,通过群体分布式通信机制将目标信息传送至其他临近智能体,接收其他临近智能体返回的任务分配方案,根据任务分配方案,基于选择性交互方法和虚拟力场模型计算围捕指令,并执行围捕指令以对目标进行围捕。
具体而言,计算模块51,包括:指令计算单元,基于虚拟力场模型计算搜索指令;状态调整单元,与其他智能体形成保持通信的漫游状态。
虚拟力场模型可参考前文方法实施例所述,此处不做赘述。需要说明的是,在与其他智能体保持通信的漫游状态时,状态调整单元需要将势函数调整为0。
若发现目标,则第一执行模块52,包括:第一执行单元,执行搜索指令以对区域进行目标搜索;第一计算单元,根据发现的目标计算个体收益;判断单元,判断个体收益是否不大于预设阈值,并基于个体收益小于或等于预设阈值,独立围捕使个体收益最大的目标,否则,通过群体分布式通信机制将目标信息传送至其他临近智能体;第一接收单元,接收其他临近智能体返回的任务分配方案或发送的目标信息;第二计算单元,根据任务分配方案,基于选择性交互方法和虚拟力场模型计算围捕指令;第二执行单元,执行围捕指令以对目标进行围捕。需要说明的是,第一执行单元和第二执行单元可以为同一执行单元。
若未发现目标,且该智能体的其他临近智能体发现目标,则该装置还包括第二执行模块,第二执行模块包括第二接收单元、任务分配单元和发送单元,其中:第二接收单元,接收其他临近智能体发出的目标信息;任务分配单元,根据第一计算单元计算得到的个体收益以及其他临近智能体的个体收益,利用协商机制形成任务分配方案;发送单元,将任务分配方案返回至其他临近智能体。
需要说明的是,在第二接收单元接收其他临近智能体发出的目标信息之后,第一计算单元,根据接收的目标信息计算个体收益;另外,在任务分配单元形成任务分配方案之后,第二计算单元,根据任务分配方案,基于选择性交互方法和虚拟力场模型计算围捕指令;第二执行单元,执行围捕指令以对目标进行围捕。
具体而言,利用协商机制形成任务分配方案,包括:当接收的至少两个其他临近智能体发送的目标信息来源于同一目标时,则以整体收益为目标,形成使整体收益最大的智能体联盟以围捕相应目标的任务分配方案;其中,整体收益表示为形成的智能体联盟中所有智能体的个体收益之和;当接收的至少两个其他临近智能体发送的目标信息来源于至少两个目标时,则以自身个体收益为指标,形成使自身个体收益最大的目标的任务分配方案;当与至少一个其他智能体接收来源于同一其他临近智能体发送的至少两个目标信息时,则以整体收益为指标,形成使其他临近智能体个体收益最大的目标的任务分配方案。
应当注意,在对目标进行围捕时,优先组成整体收益值最大的智能体联盟。整体收益与个体收益产生冲突时,整体收益优先级大于个体收益。
在一个可选实施例中,该基于连通保持约束的群体围捕装置,还包括:
群体模块,群体模块包含多个智能体,各智能体基于其内部的虚拟力场模型计算搜索指令,并与其他智能体形成保持通信的漫游状态;
若智能体发现目标,则根据目标计算个体收益,并判断个体收益是否不大于预设阈值,若是,则独立围捕使该智能体个体收益最大的目标;否则,根据个体收益通过群体分布式通信机制将目标信息传送至其他临近智能体;并接收其他临近智能体返回的任务分配方法,根据任务分配方案,基于选择性交互方法和虚拟力场模型计算围捕指令,并执行围捕指令以对目标进行围捕
若智能体未发现目标,且其他临近智能体发现目标,则接收其他临近智能体发送的目标信息;根据接收的目标信息计算个体收益,并利用协商机制形成任务分配方案,以及将任务分配方案返回至其他临近智能体;根据任务分配方案,基于选择性交互方法和虚拟力场模型计算围捕指令,并执行围捕指令以对目标进行围捕。
图6示例了一种电子设备的实体结构示意图,如图6所示,该电子设备可以包括:处理器(processor)61、通信接口(Communication Interface)62、存储器(memory)63和通信总线64,其中,处理器61,通信接口62,存储器63通过通信总线64完成相互间的通信。处理器61可以调用存储器63中的计算机程序,以执行基于连通保持约束的群体围捕方法的步骤,例如包括:
基于虚拟力场模型计算搜索指令,并与其他智能体形成保持通信的漫游状态;执行搜索指令以对区域进行目标搜索,若发现目标,则根据目标计算个体收益,并在个体收益小于或等于预设阈值时,独立围捕使个体收益最大的目标;否则,通过群体分布式通信机制将目标信息传送至其他临近智能体,接收其他临近智能体返回的任务分配方案,根据任务分配方案,基于选择性交互方法和虚拟力场模型计算围捕指令,并执行围捕指令以对目标进行围捕。
此外,上述的存储器63中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法所提供的基于连通保持约束的群体围捕方法的步骤,例如包括:
基于虚拟力场模型计算搜索指令,并与其他智能体形成保持通信的漫游状态;执行搜索指令以对区域进行目标搜索,若发现目标,则根据目标计算个体收益,并在个体收益小于或等于预设阈值时,独立围捕使个体收益最大的目标;否则,通过群体分布式通信机制将目标信息传送至其他临近智能体,接收其他临近智能体返回的任务分配方案,根据任务分配方案,基于选择性交互方法和虚拟力场模型计算围捕指令,并执行围捕指令以对目标进行围捕。
另一方面,本申请实施例还提供一种处理器可读存储介质,所述处理器可读存储介质存储有计算机程序,所述计算机程序用于使所述处理器执行上述各实施例提供的基于连通保持约束的群体围捕方法的步骤,例如包括:
基于虚拟力场模型计算搜索指令,并与其他智能体形成保持通信的漫游状态;执行搜索指令以对区域进行目标搜索,若发现目标,则根据目标计算个体收益,并在个体收益小于或等于预设阈值时,独立围捕使个体收益最大的目标;否则,通过群体分布式通信机制将目标信息传送至其他临近智能体,接收其他临近智能体返回的任务分配方案,根据任务分配方案,基于选择性交互方法和虚拟力场模型计算围捕指令,并执行围捕指令以对目标进行围捕。
所述处理器可读存储介质可以是处理器能够存取的任何可用介质或数据存储设备,包括但不限于磁性存储器(例如软盘、硬盘、磁带、磁光盘(MO)等)、光学存储器(例如CD、DVD、BD、HVD等)、以及半导体存储器(例如ROM、EPROM、EEPROM、非易失性存储器(NANDFLASH)、固态硬盘(SSD))等。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种基于连通保持约束的群体围捕方法,其特征在于,包括:
基于虚拟力场模型计算搜索指令,并与其他智能体形成保持通信的漫游状态;
执行所述搜索指令以对区域进行目标搜索,若发现目标,则根据所述目标计算个体收益,并在所述个体收益小于或等于预设阈值时,独立围捕使所述个体收益最大的目标;否则,通过群体分布式通信机制将所述目标信息传送至其他临近智能体,接收所述其他临近智能体返回的任务分配方案,根据所述任务分配方案,基于选择性交互方法和所述虚拟力场模型计算围捕指令,并执行所述围捕指令以对所述目标进行围捕。
2.根据权利要求1所述的基于连通保持约束的群体围捕方法,其特征在于,所述通过群体分布式通信机制将所述目标信息传送至其他智能体,包括:
基于信息传播能量,通过保持通信的其他智能体链路向所述其他智能体传播所述目标信息;
所述信息传播能量表示为:E=(γ)k-1,其中,k表示为信息传播链路的跳数,γ表示为折扣因子,γ∈(0,1)。
3.根据权利要求1所述的基于连通保持约束的群体围捕方法,其特征在于,所述选择性交互方法,包括:
基于所述虚拟力场模型,根据所述任务分配方案中各智能体间相互引斥力作用,选择性忽略任务分配方案以外的所有智能体引斥力作用,计算围捕指令。
4.根据权利要求1所述的基于连通保持约束的群体围捕方法,其特征在于,所述虚拟力场模型ui,表示为:
Figure 608241DEST_PATH_IMAGE001
Figure 207850DEST_PATH_IMAGE002
所述群体中各智能体的运动学模型表示为:
Figure 815549DEST_PATH_IMAGE003
其中,ui1表示群体中智能体i与其他智能体的交互作用项,ui2表示群体中智能体i与目标g的作用项,c1、c2表示权重系数,pi (t)、qi (t)表示智能体i的速度、位置信息,pg (t),qg(t)表示目标g的速度、位置信息,ψi (z)表示势函数,Vi (z)表示智能体i周围所有其他智能体的势函数之和,∇Vi (z)表示总势函数的导数,k1、k2表示势函数系数,z表示智能体i与其他智能体的距离,d表示为引斥力范围的度量值,为常量,并且3d≤Rc,Rc为智能体之间的通信半径;
所述个体收益Sij,表示为:
Figure 867818DEST_PATH_IMAGE004
其中,
Figure 337108DEST_PATH_IMAGE005
为角度优势函数,
Figure 791223DEST_PATH_IMAGE006
为距离优势函数,
Figure 569823DEST_PATH_IMAGE007
为任务驱动因子,该项与捕 获目标所获得收益有关,
Figure 109389DEST_PATH_IMAGE008
为加权系数,并且
Figure 880905DEST_PATH_IMAGE009
Figure 189526DEST_PATH_IMAGE010
分别表示为:
Figure 139028DEST_PATH_IMAGE011
Figure 900311DEST_PATH_IMAGE012
Figure 991631DEST_PATH_IMAGE013
其中,
Figure 154759DEST_PATH_IMAGE014
为优势角,
Figure 9582DEST_PATH_IMAGE015
为智能体
Figure 523740DEST_PATH_IMAGE016
与目标
Figure 637058DEST_PATH_IMAGE017
之间的距离,
Figure 654693DEST_PATH_IMAGE018
表示智能体的通信距离,
Figure 211576DEST_PATH_IMAGE019
表示 信息传播链路的跳数,
Figure 947451DEST_PATH_IMAGE020
为折扣因子,
Figure 100346DEST_PATH_IMAGE021
为目标
Figure 238066DEST_PATH_IMAGE017
的预期收益值,
Figure 965851DEST_PATH_IMAGE022
为智能体接收到 追捕任务中最大的目标收益值。
5.根据权利要求1所述的基于连通保持约束的群体围捕方法,其特征在于,方法还包括:
执行所述搜索指令以对区域进行目标搜索,若未发现目标,且其他临近智能体发现目标,则接收所述其他临近智能体发送的目标信息;
根据接收的目标信息计算个体收益,并利用协商机制形成任务分配方案,以及将所述任务分配方案返回至所述其他临近智能体;根据所述任务分配方案,基于所述选择性交互方法和所述虚拟力场模型计算围捕指令,并执行所述围捕指令以对目标进行围捕。
6.根据权利要求5所述的基于连通保持约束的群体围捕方法,其特征在于,所述利用协商机制形成任务分配方案,包括:
当接收的至少两个所述其他临近智能体发送的目标信息来源于同一目标时,则以整体收益为目标,形成使所述整体收益最大的智能体联盟以围捕相应目标的任务分配方案;其中,所述整体收益表示为形成的智能体联盟中所有智能体的个体收益之和;
当接收的至少两个所述其他临近智能体发送的目标信息来源于至少两个目标时,则以自身个体收益为指标,形成使自身个体收益最大的目标的任务分配方案;
当与至少一个其他智能体接收来源于同一其他临近智能体发送的至少两个目标信息时,则以所述整体收益为指标,形成使所述其他临近智能体个体收益最大的目标的任务分配方案。
7.根据权利要求1所述的基于连通保持约束的群体围捕方法,其特征在于,在所述执行所述围捕指令以对所述目标进行围捕之后,还包括:
基于参加围捕的所有智能体均匀分布于以围捕目标为中心、半径为Rd的圆上,则围捕成功;其中,Rd表示为围捕半径。
8.一种基于连通保持约束的群体围捕装置,其特征在于,包括:
计算模块,基于虚拟力场模型计算搜索指令,并与其他智能体形成保持通信的漫游状态;
第一执行模块,执行所述搜索指令以对区域进行目标搜索,若发现目标,则根据所述目标计算个体收益,并在所述个体收益小于或等于预设阈值时,独立围捕使所述个体收益最大的目标;否则,通过群体分布式通信机制将所述目标信息传送至其他临近智能体,接收所述其他临近智能体返回的任务分配方案,根据所述任务分配方案,基于选择性交互方法和所述虚拟力场模型计算围捕指令,并执行所述围捕指令以对所述目标进行围捕。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述基于连通保持约束的群体围捕方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述基于连通保持约束的群体围捕方法的步骤。
CN202110811042.3A 2021-07-19 2021-07-19 基于连通保持约束的群体围捕方法及装置 Active CN113268893B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110811042.3A CN113268893B (zh) 2021-07-19 2021-07-19 基于连通保持约束的群体围捕方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110811042.3A CN113268893B (zh) 2021-07-19 2021-07-19 基于连通保持约束的群体围捕方法及装置

Publications (2)

Publication Number Publication Date
CN113268893A true CN113268893A (zh) 2021-08-17
CN113268893B CN113268893B (zh) 2021-10-01

Family

ID=77236922

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110811042.3A Active CN113268893B (zh) 2021-07-19 2021-07-19 基于连通保持约束的群体围捕方法及装置

Country Status (1)

Country Link
CN (1) CN113268893B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114827138A (zh) * 2022-03-28 2022-07-29 中国电子科技集团公司第五十四研究所 一种基于全局信息的群体分布式协商方法

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080183806A1 (en) * 2002-03-07 2008-07-31 David Cancel Presentation of media segments
US20110188715A1 (en) * 2010-02-01 2011-08-04 Microsoft Corporation Automatic Identification of Image Features
CN104942807A (zh) * 2015-04-16 2015-09-30 上海大学 基于扩展式合作博弈的多机器人围捕目标方法
CN105182973A (zh) * 2015-09-08 2015-12-23 郑州大学 多机器人追捕者围捕单移动目标的自适应围捕装置与方法
CN108646550A (zh) * 2018-04-03 2018-10-12 江苏江荣智能科技有限公司 一种基于行为选择的多智能体编队方法
CN110480635A (zh) * 2019-08-09 2019-11-22 中国人民解放军国防科技大学 一种用于多机器人的控制方法及控制系统
CN110852448A (zh) * 2019-11-15 2020-02-28 中山大学 一种基于多智能体强化学习的合作型智能体的学习方法
CN111240332A (zh) * 2020-01-18 2020-06-05 湖南科技大学 一种复杂凸环境下群机器人协同作业的多目标围捕方法
CN111311049A (zh) * 2019-12-04 2020-06-19 南京理工大学 一种基于收益最大化的多智能体任务分配方法
CN111598473A (zh) * 2020-05-22 2020-08-28 中国人民解放军国防科技大学 面向复杂观测任务的多平台联合任务规划方法
CN111750866A (zh) * 2020-07-07 2020-10-09 吉林大学 基于区域虚拟力场的智能汽车横纵向耦合路径规划方法
CN112070383A (zh) * 2020-08-31 2020-12-11 北京理工大学 一种面向动态任务的多智能体分布式任务分配方法
CN112163278A (zh) * 2020-09-30 2021-01-01 中国人民解放军国防科技大学 一种多约束条件下的异构多飞机协同任务自动分解方法
CN112180724A (zh) * 2020-09-25 2021-01-05 中国人民解放军军事科学院国防科技创新研究院 一种在干扰条件下多智能体协同合作的训练方法及系统
CN112465148A (zh) * 2020-11-27 2021-03-09 中国科学院深圳先进技术研究院 一种多智能体系统的网络参数更新方法、装置及终端设备
CN112684700A (zh) * 2020-11-30 2021-04-20 汕头大学 一种群体机器人的多目标搜索与围捕控制方法及系统
CN112799385A (zh) * 2019-10-25 2021-05-14 中国科学院沈阳自动化研究所 一种基于引导域人工势场的智能体路径规划方法
CN112861442A (zh) * 2021-03-10 2021-05-28 中国人民解放军国防科技大学 基于深度强化学习的多机协同空战规划方法及系统

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080183806A1 (en) * 2002-03-07 2008-07-31 David Cancel Presentation of media segments
US20110188715A1 (en) * 2010-02-01 2011-08-04 Microsoft Corporation Automatic Identification of Image Features
CN104942807A (zh) * 2015-04-16 2015-09-30 上海大学 基于扩展式合作博弈的多机器人围捕目标方法
CN105182973A (zh) * 2015-09-08 2015-12-23 郑州大学 多机器人追捕者围捕单移动目标的自适应围捕装置与方法
CN108646550A (zh) * 2018-04-03 2018-10-12 江苏江荣智能科技有限公司 一种基于行为选择的多智能体编队方法
CN110480635A (zh) * 2019-08-09 2019-11-22 中国人民解放军国防科技大学 一种用于多机器人的控制方法及控制系统
CN112799385A (zh) * 2019-10-25 2021-05-14 中国科学院沈阳自动化研究所 一种基于引导域人工势场的智能体路径规划方法
CN110852448A (zh) * 2019-11-15 2020-02-28 中山大学 一种基于多智能体强化学习的合作型智能体的学习方法
CN111311049A (zh) * 2019-12-04 2020-06-19 南京理工大学 一种基于收益最大化的多智能体任务分配方法
CN111240332A (zh) * 2020-01-18 2020-06-05 湖南科技大学 一种复杂凸环境下群机器人协同作业的多目标围捕方法
CN111598473A (zh) * 2020-05-22 2020-08-28 中国人民解放军国防科技大学 面向复杂观测任务的多平台联合任务规划方法
CN111750866A (zh) * 2020-07-07 2020-10-09 吉林大学 基于区域虚拟力场的智能汽车横纵向耦合路径规划方法
CN112070383A (zh) * 2020-08-31 2020-12-11 北京理工大学 一种面向动态任务的多智能体分布式任务分配方法
CN112180724A (zh) * 2020-09-25 2021-01-05 中国人民解放军军事科学院国防科技创新研究院 一种在干扰条件下多智能体协同合作的训练方法及系统
CN112163278A (zh) * 2020-09-30 2021-01-01 中国人民解放军国防科技大学 一种多约束条件下的异构多飞机协同任务自动分解方法
CN112465148A (zh) * 2020-11-27 2021-03-09 中国科学院深圳先进技术研究院 一种多智能体系统的网络参数更新方法、装置及终端设备
CN112684700A (zh) * 2020-11-30 2021-04-20 汕头大学 一种群体机器人的多目标搜索与围捕控制方法及系统
CN112861442A (zh) * 2021-03-10 2021-05-28 中国人民解放军国防科技大学 基于深度强化学习的多机协同空战规划方法及系统

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
MOHAMMADREZA DANESHVARAMOLI 等: "Decentralized Communication-less Multi-Agent Task Assignment with Cooperative Monte-Carlo Tree Search", 《2020 6TH INTERNATIONAL CONFERENCE ON CONTROL, AUTOMATION AND ROBOTICS (ICCAR)》 *
孙雅兰: "多智能体系统中编队与避障关键技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
尹国强等: "改进人工势场法的机器人路径规划", 《制造业自动化》 *
熊举峰 等: "基于虚拟力的群机器人围捕算法", 《计算机工程与应用》 *
裴惠琴: "大规模机器人群体的协作控制研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
邢冬静: "无人机集群作战自主任务规划方法研究", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114827138A (zh) * 2022-03-28 2022-07-29 中国电子科技集团公司第五十四研究所 一种基于全局信息的群体分布式协商方法

Also Published As

Publication number Publication date
CN113268893B (zh) 2021-10-01

Similar Documents

Publication Publication Date Title
CN110595482B (zh) 一种带避障权重的路径规划方法、装置及电子设备
Asheralieva et al. Distributed dynamic resource management and pricing in the IoT systems with blockchain-as-a-service and UAV-enabled mobile edge computing
Li et al. An end-to-end load balancer based on deep learning for vehicular network traffic control
US8271158B2 (en) System for maintaining communication between teams of vehicles
Zhang et al. Deep reinforcement learning for social-aware edge computing and caching in urban informatics
Kang et al. Cooperative UAV resource allocation and task offloading in hierarchical aerial computing systems: A MAPPO based approach
CN113268893B (zh) 基于连通保持约束的群体围捕方法及装置
Alghamdi et al. Data quality-aware task offloading in mobile edge computing: An optimal stopping theory approach
CN112019297B (zh) 无人机定点诱骗方法、装置、电子设备与存储介质
CN115941790A (zh) 边缘协同内容缓存方法、装置、设备及存储介质
Mukherjee et al. ECoR: energy-aware collaborative routing for task offload in sustainable UAV swarms
Kim et al. San: Self-adaptive navigation for drone battery charging in wireless drone networks
CN110149588A (zh) 确定无人机基站的位置的方法、装置、设备及存储介质
He et al. A mechanism of topology optimization for underwater acoustic sensor networks based on autonomous underwater vehicles
CN113489787B (zh) 一种移动边缘计算的服务与数据协同迁移的方法和装置
Chipade et al. Aerial swarm defense by stringnet herding: Theory and experiments
CN113947948A (zh) 一种车辆通行控制方法和装置
Zou et al. ST-EUA: Spatio-temporal edge user allocation with task decomposition
CN112445617A (zh) 一种基于移动边缘计算的负载策略选择方法及系统
Venugopalan et al. Multi-UAV task allocation: A team-based approach
CN116382299A (zh) 路径规划方法、装置、电子设备及存储介质
Mylsamy et al. Fuzzy preference ranking organization method for enrichment evaluation‐based node cooperation technique for improving QoS in MANETs
Malandrino et al. Flexible parallel learning in edge scenarios: Communication, computational and energy cost
US11914709B2 (en) Hybrid machine learning and knowledge graph approach for estimating and mitigating the spread of malicious software
Zhang et al. UAV-assisted task offloading system using dung beetle optimization algorithm & deep reinforcement learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant