CN113146624B - 基于最大角聚集策略的多智能体控制方法 - Google Patents

基于最大角聚集策略的多智能体控制方法 Download PDF

Info

Publication number
CN113146624B
CN113146624B CN202110322150.4A CN202110322150A CN113146624B CN 113146624 B CN113146624 B CN 113146624B CN 202110322150 A CN202110322150 A CN 202110322150A CN 113146624 B CN113146624 B CN 113146624B
Authority
CN
China
Prior art keywords
agent
controlling
control
intelligent
agents
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110322150.4A
Other languages
English (en)
Other versions
CN113146624A (zh
Inventor
姚军
李佳
李涛
崔梓林
孙天昊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202110322150.4A priority Critical patent/CN113146624B/zh
Publication of CN113146624A publication Critical patent/CN113146624A/zh
Application granted granted Critical
Publication of CN113146624B publication Critical patent/CN113146624B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明公开了一种基于最大角聚集策略的多智能体控制方法,根据各简单智能体的位置和控制智能体的位置判断控制智能体的行为状态,包括以下步骤:当存在一简单智能体与群全局中心的距离大于预设的简单智能群体聚集程度f(N)时,触发控制智能体收集行为;控制智能体选择群子集内第一角度最大的简单智能体作为目标点去聚集;所述第一角度为控制智能体与全局中心的连线和控制智能体与简单智能体的连线的夹角度数;当所有简单智能体和群全局中心的距离都小于或等于简单智能群体聚集程度f(N)时,触发控制智能体驱赶行为;控制智能体移动,并控制着简单智能群体向目标点推进,当简单智能群体到达目标区域时,完成控制任务。

Description

基于最大角聚集策略的多智能体控制方法
技术领域
本发明涉及群体智能启发式算法领域,具体涉及一种基于最大角聚集策略的多智能体控制方法。
背景技术
由于在自然界中发现的群智能解决方法十分有效,因此仿生算法是近些年的研究热点,包括蚁群算法,鸟群算法和控制智能体算法等。受自然界的启发,群智能系统可以描述为系统中相对基本的个体之间的相互作用。群智能系统中的多智能体控制是一个复杂的问题,可以分为高层次的路径规划和低层次的单智能体动力学。多智能体控制是一种通过控制智能体(强智能体)控制一群简单智能群体(弱智能体)的控制方法。
多智能体控制的一个典型应用场景就是牧羊犬赶羊,这样的场景在现实生活中很常见。通常作为简单智能群体的种群的数量成百上千,而控制智能体的数量很少。控制智能体主要有两个行为:收集种群、驱赶种群到目标点。以驱赶为例,即使用一只或者多只控制智能体,将一群在空间中随机分布的简单智能体,驱赶到一个指定的目标点。控制智能体驱赶问题背后的原理,其实就是一种控制智能体对简单智能群体的控制。多智能体控制技术有很多应用场景,比如:使用机器人进行放牧、人群控制、对于泄露石油清理、保护飞机免受鸟类的袭击、救灾和救援行动、管理群居野生动物、保护微生物、军事上无人车辆在战场的控制。
现有的传统模型中,典型的有SPPL模型,该模型在执行收集行为时,简单选择种群最外面的简单智能体作为收集目标点,而没有考虑控制智能体的位置和简单智能群体的全局中心的位置。因此在某些情况下将会导致控制智能体来回移动,影响最后的驱赶效率。因此该模型如果用于实际的机器人控制等应用场景,可能由于算法效率低下的原因,导致达不到现实中的实时性要求。
发明内容
本发明的目的在于克服现有技术中所存在SPPL模型等现有技术效率低,不能满足多智能体控制的实时性要求的不足,提供一种基于最大角聚集策略的多智能体控制方法。
为了实现上述发明目的,本发明提供了以下技术方案:
一种基于最大角聚集策略的多智能体控制方法,根据各简单智能体的位置和控制智能体的位置判断控制智能体的行为状态,包括以下步骤:
当存在一简单智能体与简单智能群体的全局中心的距离大于预设的简单智能群体聚集程度f(N)时,触发控制智能体收集行为;控制智能体选择群子集内第一角度最大的简单智能体作为目标点去聚集;所述第一角度为控制智能体与全局中心的连线和控制智能体与简单智能体的连线的夹角度数;
当所有简单智能体和简单智能群体的全局中心的距离都小于或等于预设的简单智能群体聚集程度f(N)时,触发控制智能体驱赶行为;控制智能体移动,并控制着简单智能群体向目的地推进,当简单智能群体到达目标区域时,完成控制任务。
优选地,所述简单智能体的下一个位置根据简单智能体的当前位置和下一步要移动的方向和距离获得,简单智能体的下一个位置的位置向量A′i的计算方式如下所示:
Figure GDA0003513394300000031
其中,Ai表示简单智能体ai的位置向量;H′i为下一步要移动的方向,表示从当前位置移动到下一个位置的移动方向;δ为简单智能体的移动速度。
优选地,所述下一步要移动的方向根据外部排斥力
Figure GDA0003513394300000032
内部排斥力
Figure GDA0003513394300000033
局部中心吸引力Ci、惯性力Hi以及噪声∈i五个向量进行计算;上述5个向量归一化为单位向量后,线性加权组合得到下一步要移动的方向H′i,计算方式如下所示:
Figure GDA0003513394300000034
其中,h为惯性力的权重;c为局部中心吸引力的权重;ρa为内部排斥力的权重;ρs为外部排斥力的权重;e为噪声的权重。
优选地,所述外部排斥力
Figure GDA0003513394300000035
计算方式如下所示:
Figure GDA0003513394300000036
其中,S表示控制智能体的位置向量,Ai表示简单智能体ai的位置向量;
所述内部排斥力
Figure GDA0003513394300000037
的计算方式如下所示:
Figure GDA0003513394300000038
其中,Aj表示简单智能体ai的邻居aj的位置向量,k代表简单智能体ai的邻居个数;
所述局部中心吸引力Ci的计算方式如下所示:
Ci=LCMi-Ai
其中,LCMi为局部中心位置,表示距离简单智能体ai最近的k个邻居的中心位置。
优选地,所述控制智能体收集行为的执行方式采用未考虑目的地的收集行为方式MAM,此时所述群子集Ω是整个简单智能群体。
优选地,所述控制智能体收集行为的执行方式采用考虑目的地的收集行为方式DMAM;此时以控制智能体与全局中心的连线作为基准线;若目的地在基准线上,则群子集Ω是整个简单智能群体;若目的地在基准线的一侧,则群子集Ω是基准线另一侧的简单智能体的集合。
优选地,在收集行为时,所述控制智能体的控制方式如下所示:
Ω={ai|<(D-S)×(Γ-S),μ>·<(Ai-S)×(Γ-S),μ><0}μ=(0,0,1) (7)
Ω={ai|<(D-S)×(Γ-S),μ>·<(Ai-S)×(Γ-S),μ>>0}μ=(0,0,1) (8)
Figure GDA0003513394300000041
Figure GDA0003513394300000042
Figure GDA0003513394300000043
上述公式(7)表示目的地D在基准线左侧时,选择群子集Ω为基准线右边的简单智能体的集合;公式(8)表示目的地D在基准线右侧,选择群子集Ω为基准线左边的简单智能体的集合;公式(9)使用向量夹角公式求解群子集Ω中每个简单智能体的第一角度,以选择群子集Ω中第一角度最大的简单智能体
Figure GDA0003513394300000044
Γ为全局中心GCM的位置;公式(10)表示收集行为时,根据有第一角度最大的简单智能体的位置Amax选择控制智能体的下一个收集点Pc;其中ξc表示权重;公式(11)表示控制智能体以速度δs的速度向收集点移动,S′指控制智能体下一个位置。
优选地,驱赶行为时,控制智能体的控制方式如下所示:
Figure GDA0003513394300000051
Figure GDA0003513394300000052
公式(12)表示控制智能体将向驱赶点Pd移动,ξd表示权重;公式(13)表示以速度δs改变它的位置到控制智能体下一个位置S'。
优选地,简单智能群体聚集程度的计算公式如下所示:
Figure GDA0003513394300000053
其中,ra为简单智能体之间的交互距离,N为简单智能体的数量。
与现有技术相比,本发明的有益效果:基于最大角聚集策略执行收集行为,考虑了控制智能体的位置和简单智能群体的全局中心的位置,避免了简单选择种群最外面的简单智能体作为收集目标点时控制智能体来回移动,提高了将简单智能群体驱赶到指定的目的地的效率,以满足多智能体控制方法应用于实际的机器人控制时对实时性的要求。
附图说明:
图1为本发明示例性实施例1的多智能体的位置分布图;
图2为本发明示例性实施例1的控制智能体行为触发条件示意图;
图3为本发明示例性实施例1的基于最大角聚集策略执行收集行为的示意图;
图4为本发明示例性实施例1的DMAM收集行为方式下目的地在基准线左边的示意图;
图5为本发明示例性实施例1的DMAM收集行为方式下目的地在基准线右边的示意图;
图6为本发明示例性实施例2的参数ra选择效果图;
图7为本发明示例性实施例2的SPPL模型运行轨迹;
图8为本发明示例性实施例2的MAM模型运行轨迹;
图9为本发明示例性实施例2的DMAM模型运行轨迹;
图10为本发明示例性实施例2的SPPL模型和MAM模型在不同种群数量下时间步的变化示意图;
图11为本发明示例性实施例2的DMAM模型和MAM模型在不同种群数量下时间步的变化示意图。
具体实施方式
下面结合试验例及具体实施方式对本发明作进一步的详细描述。但不应将此理解为本发明上述主题的范围仅限于以下的实施例,凡基于本发明内容所实现的技术均属于本发明的范围。
实施例1
本实施例提供一种基于最大角聚集策略的多智能体控制方法,根据各简单智能体的位置和控制智能体的位置判断控制智能体的行为状态,包括以下步骤:
当存在一简单智能体与简单智能群体的全局中心的距离大于预设的简单智能群体聚集程度f(N)时,触发控制智能体收集行为;控制智能体选择群子集内第一角度最大的简单智能体作为目标点去聚集;所述第一角度为以控制智能体为顶点,控制智能体与全局中心的连线为始边,控制智能体与简单智能体的连线为终边的角的角度值;
当所有简单智能体和简单智能群体的全局中心的距离都小于或等于预设的简单智能群体聚集程度f(N)时,触发控制智能体驱赶行为,控制智能体移动,并控制着简单智能群体向目的地推进,当简单智能群体到达目标区域时,完成控制任务。
本实施例中,多智能体控制过程中,当控制智能体进行收集或驱赶行为时,简单智能体会做出被动反应。本申请基于最大角聚集策略执行收集行为,考虑了控制智能体的位置和简单智能群体的全局中心的位置,避免了简单选择种群最外面的简单智能体作为收集目标点时控制智能体来回移动,提高了将简单智能群体驱赶到指定的目的地的效率,以满足多智能体控制方法应用于实际的机器人控制时对实时性的要求。
本实施例中,控制智能体需要根据目的地和简单智能群体的状态(比如群体的分散程度),做出下一次的控制行为。在简单智能群体中,每个简单智能体之间、简单智能体与控制智能体之间都是有相互作用。这在自然界是非常常见的,群居动物靠近同伴并远离潜在危险。如图1所示,综合起来看,简单智能体下一个位置主要是由外部排斥力
Figure GDA0003513394300000071
内部排斥力
Figure GDA0003513394300000072
局部中心吸引力Ci、惯性力Hi以及噪声∈i等5个因素加权求和得到。我们使用向量S表示控制智能体的位置,向量Ai表示某个简单智能体的位置。
1.外部排斥力
简单智能体需要和控制智能体保持一定距离,因此当控制智能体的位置与简单智能体的位置二者之间的距离小于控制智能体的感知距离rs时,将会触发外部排斥力,使得简单智能体远离控制智能体;外部排斥力使用
Figure GDA0003513394300000073
表示,计算方式如下所示:
Figure GDA0003513394300000081
2.内部排斥力
简单智能体群体内部也有排斥力。当在交互距离ra的范围内,简单智能体的数量≥2时,有一个内部排斥力
Figure GDA0003513394300000082
将它们分散。Ai表示简单智能体ai的位置向量,Aj表示简单智能体ai的邻居aj的位置向量,k代表简单智能体ai的邻居个数;内部排斥力
Figure GDA0003513394300000083
的计算方式如下所示:
Figure GDA0003513394300000084
3.局部中心吸引力
距离简单智能体ai最近的k个邻居的中心位置记作局部中心位置,表示为LCMi。当简单智能体和控制智能体之间的距离大于rs,这时简单智能体将会有两种行为:不动或者随机移动。当小于这个值的时候简单智能体会远离控制智能体,会从当前位置移动到下一个位置。简单智能体ai在远离控制智能体的同时,局部中心也会对ai有一个吸引力,记作局部中心吸引力Ci,计算方式如下所示:
Ci=LCMi-Ai (3)。
4.惯性力
受惯性力Hi的影响,简单智能体在上一次的位置,将会影响其在下一次的位置。惯性力Hi用于表征简单智能体从上一次的位置移动到当前位置的移动方向。
5.噪声
噪声代表了简单智能体的随机行为,表示简单智能体可能向任意一个方向随机移动,使用∈i表示。
简单智能体的下一个位置根据简单智能体的当前位置和下一步要移动的方向和距离获得。具体的,Ai表示简单智能体ai的位置向量;A′i表示简单智能体ai下一个位置的位置向量;H′i为下一步要移动的方向;δ为简单智能体的移动速度,该值乘以H′i方向上的单位向量,就表示在这个方向上的移动距离;下一个位置的位置向量A′i的计算方式如下所示:
Figure GDA0003513394300000091
下一步要移动的方向根据外部排斥力、内部排斥力、局部中心吸引力、惯性力以及噪声等五个向量进行计算;上述5个向量归一化为单位向量后,线性加权组合得到下一步要移动的方向H′i,计算方式如下所示:
Figure GDA0003513394300000092
其中,h为惯性力的权重;c为局部中心吸引力的权重;ρa为内部排斥力的权重;ρs为外部排斥力的权重;e为噪声的权重;每个向量的权重通过模型的参数指定。
本实施例中,控制智能体的任务就是将简单智能体全部引导向目的地,因此其主要有两种行为:收集和驱赶。如图2所示,为了便于描述,定义如下符号:
简单智能群体聚集程度:f(N)
简单智能群体的全局中心GCM的位置:
Figure GDA0003513394300000093
局部中心位置LCMi
Figure GDA0003513394300000094
简单智能体的位置:Ai
控制智能体的位置:S
目的地:D
简单智能体与全局中心的距离:di=|Ai-Γ|
群子集:Ω
简单智能体的数量:N
控制智能体收集以及驱赶两种行为的触发条件如下所示:
Figure GDA0003513394300000101
如图2所示,比较简单智能体和全局中心GCN的距离最大值dfurthest与简单智能群体聚集程度f(N)的大小,判断当前行为状态。至少有一个简单智能体和全局中心GCM的距离大于f(N)时,就触发收集行为。即如图3所示,首先,根据控制智能体和简单智能体的坐标位置计算第一角度,所述第一角度以控制智能体为顶点,控制智能体与全局中心的连线为始边,控制智能体与简单智能体的连线为终边;根据简单智能体在空间中的坐标位置,选择群子集内第一角度最大的简单智能体作为目标点去聚集。重复执行上述操作,对分散的简单智能体进行收集,使边缘的简单智能体前往全局中心GCM位置,即边缘的简单智能体前往群密度较大的位置。当分散的群体在空间上达到了一定的聚合程度,即所有简单智能体和全局中心GCM的距离小于或等于f(N)时,我们称之为聚集完成。
具体的,本发明根据是否考虑目的地位置的方位,将收集行为的执行方式分为两种:一是未考虑目的地的收集行为方式MAM;二是考虑目的地的收集行为方式DMAM。
收集行为的执行方式采用未考虑目的地的收集行为方式MAM时:群子集Ω是整个简单智能群体。
如图4或图5所示,收集行为的执行方式采用考虑目的地的收集行为方式DMAM时:控制智能体与全局中心的连线作为基准线,若目的地在基准线上,则群子集Ω是整个简单智能群体;若目的地在基准线的一侧,则群子集Ω是基准线另一侧的简单智能体的集合。
一般情况下,我们希望收集时,收拢趋势能够朝向目的地,因此多采用考虑目的地的收集行为方式DMAM。将控制智能体与全局中心的连线作为基准线,如图4所示,如果目的地在基准线左边,则群子集Ω为基准线右边的简单智能体的集合,在基准线右边的子集中寻找第一角度最大的简单智能体作为目标点去聚集;如图5所示,如果目的地在基准线右边,则在基准线左边的子集中寻找第一角度最大的简单智能体作为目标点去聚集。即基于最大角距离的聚集策略执行收集行为,考虑了控制智能体的位置、全局中心的位置和目的地的位置,以提高控制效率。
具体的,控制智能体的控制方式如下所示:
Ω={ai|<(D-S)×(Γ-S),μ>·<(Ai-S)×(Γ-S),μ><0}μ=(0,0,1) (7)
Ω={ai|<(D-S)×(Γ-S),μ>·<(Ai-S)×(Γ-S),μ>>0}μ=(0,0,1) (8)
Figure GDA0003513394300000111
Figure GDA0003513394300000112
Figure GDA0003513394300000113
上述公式(7)表示目的地在基准线左侧时,选择群子集Ω为基准线右边的简单智能体的集合;公式(8)表示目的地在基准线右侧,选择群子集Ω为基准线左边的简单智能体的集合;公式(9)使用向量夹角公式求解群子集Ω中每个简单智能体的第一角度,以选择群子集Ω中第一角度最大的简单智能体
Figure GDA0003513394300000114
公式(10)表示收集行为时,根据有第一角度最大的简单智能体的位置Amax选择控制智能体的下一个收集点Pc;其中ξc表示权重,由模型参数指定,典型取值为ra;公式(11)表示控制智能体以速度δs的速度向收集点移动,S′指控制智能体下一个位置。如图2所示,当目标点在基准线左侧时,在基准线右侧找第一角度最大的简单智能体作为收集点,当以这个位置为收集点时,右侧的简单智能体向全局中心靠近,同时左侧的简单智能体移动幅度不如右侧大(右侧简单智能体距离控制智能体近);而实际上左侧简单智能体实际上比较靠近目的地,没有必要再向全局中心移动;也就是收集时,靠近目标的简单智能体没有必要向全局中心移动,群体聚集的方向可以偏向目标点,通过采用上述的最大角聚集策略以提高效率。
本实施例中,当所有简单智能体和GCM的距离都小于f(N)时,就触发驱赶行为。在驱赶状态下,考虑目的地和全局中心的相对位置。通常选择在沿着全局中心和目的地的连线上,在群体的后方选取控制智能体的下一个驱赶点(如图1的位置Pd),控制智能体向下一个驱赶点移动,控制着种群向目的地推进,最终当简单智能群体到达目标区域时,整个控制任务完成。
Figure GDA0003513394300000121
Figure GDA0003513394300000122
公式(12)表示控制智能体将向驱赶点Pd移动,ξd表示权重;公式(13)表示以速度δs改变它的位置到控制智能体下一个位置S'。其中ξdcs的典型取值分别为
Figure GDA0003513394300000123
ra,1.5δ,δ为简单智能体的移动速度。
实施例2
控制智能体的目标是控制简单智能群体向目的地移动,直到所有的简单的智能体都在目标区域位置。当简单智能群体太分散的时候,控制智能体就对群进行收集;当简单智能体全部都收集在一起时,控制智能体把种群向着目标点进行驱赶。其中如何收集和如何驱赶的策略是讨论的重点。本实施例将分别对比传统的SPPL模型与本发明提出的MAM与DMAM模型,以验证本发明的有效性。
所有的算例都在有12GB内存、2.9GHz因特尔CPU、64位windows操作系统上运行。模拟与数据分析采用Python3.7、标准图形化接口工具套件Tkinter。
基于最大角聚集策略的多智能体控制方法(MAM和DMAM)的仿真过程包括以下步骤:
1初始设置
整个模拟区域是一个大小为L×L的区域,整个区域处于完全封闭状态,左上角为坐标的原点。将会在该区域随机生成N个点,用来表示简单智能群体中的N个简单智能体。目标区域是整个区域右下角的l×l的矩形。在所有模拟开始的时候,控制智能体总是从目标区域开始工作。
相关参数设置如表1所示:
表1基于最大角聚集策略的多智能体控制方法实验的初始参数
Figure GDA0003513394300000131
2探索ra的最优取值
简单智能体之间的交互距离ra对于决定其他参数,比如衡量聚集程度的参数f(N),非常重要。因为在群内部没有排斥力的情况下,想要包含N个简单智能体的最小空间面积是
Figure GDA0003513394300000141
所以可以得到聚集程度的公式:
Figure GDA0003513394300000142
Figure GDA0003513394300000143
由于参数ra的重要性,使用传统的控制算法SPPL模型来估计最优参数,并把其应用到本发明的模型中来。我们测试了不同交互距离ra(6~20)在不同群体大小下的效果,以横轴表示ra大小,纵轴表示总的时间步数,结果如图6所示:
结论:当ra<6时,整个控制任务无法完成。随着交互距离ra由6增加到10,在不同种群大小下,完成任务的时间步数会明显的下降。当ra>10时,时间步下降的趋势变得不明显,甚至随着ra的增加呈现相反的变化趋势。因此实验中将选择10作为参数表中ra的取值。
3结果分析
实验运行了SPPL、MAM、DMAM模型来执行控制任务,每个模型具有相同的参数配置(如表1)、起始环境状态、相同动作规则作用于控制智能体和简单智能体的行为(除控制智能体的收集行为外)。SPPL、MAM、DMAM模型运行轨迹分别如图7、8、9所示:
从图中可以看出每个模型都成功地完成任务,并且在任务初始时,每个模型中的控制智能体都倾向于将空间中散乱分布的简单智能体聚集起来,直到种群到达一定的聚集程度;在这之后,控制智能体将会在聚集和驱赶两种状态之间切换,将种群赶向右下角的目的地。从SPPL模型的图中可以明显看出,该模型仅仅选择最远的简单智能体作为聚集的目标点,这会导致控制智能体进行来回的、无意义的移动。相反MAM和DMAM由于考虑了目的地和种群的相对位置,能够让控制智能体更加平滑、更加有规律地移动。
为了定量分析每种模型的效率,实验测试了完成任务所需要的的时间步、控制智能体的移动距离、全局中心的移动距离,三个指标均在种群数量N=50,70,125时的平均值,如下表2、3、4所示。使用最大角度的MAM模型能够有效提升完成控制任务的效率。在N≥70时使用引导性最大角度的DMAM模型能够进一步提升完成控制任务的效率,但是在N=50时,DMAM的效果甚至比SPPL模型的效果还差。通过比较表4全局中心移动距离,可知原因可能是DMAM模型在种群较小时,该模型总是选择控制智能体一侧的目标来聚集,而忽略了另一侧的简单智能体。
表2完成任务的平均时间步数
Figure GDA0003513394300000151
表3控制智能体完成任务需要移动的平均距离
Figure GDA0003513394300000152
表4全局中心完成任务需要移动的平均距离
Figure GDA0003513394300000153
为了进一步比较模型,实验对比了模型在不同种群数量下,时间步的变化。结果如下图10和11所示,横轴表示种群大小,纵轴表示完成任务的时间步。在大多数情况下,MAM都要优于SPPL模型(在时间效率上平均提升16%的效率),尤其是当简单智能体的数量超过45时,DMAM和MAM相比,仅仅只有0.11%的提升。
4结论
通过实验可以发现,本发明的DMAM和MAM模型相比于SPPL模型,能够有效提升控制智能体完成控制任务效率。
以上所述,仅为本发明具体实施方式的详细说明,而非对本发明的限制。相关技术领域的技术人员在不脱离本发明的原则和范围的情况下,做出的各种替换、变型以及改进均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于最大角聚集策略的多智能体控制方法,其特征在于,根据各简单智能体的位置和控制智能体的位置判断控制智能体的行为状态,包括以下步骤:
当存在一简单智能体与简单智能群体的全局中心的距离大于预设的简单智能群体聚集程度f(N)时,触发控制智能体收集行为;控制智能体选择群子集内第一角度最大的简单智能体作为目标点去聚集;所述第一角度为控制智能体与全局中心的连线和控制智能体与简单智能体的连线的夹角度数;
所述收集行为的执行方式未考虑目的地时,所述群子集是整个简单智能群体;
所述收集行为的执行方式考虑目的地时,以控制智能体与全局中心的连线作为基准线;若目的地在基准线上,则群子集是整个简单智能群体;若目的地在基准线的一侧,则群子集是基准线另一侧的简单智能体的集合;
根据目标点与全局中心设置收集点,聚集时,控制智能体向收集点移动;所述控制智能体的控制方式如下所示:
Figure FDA0003513394290000011
Figure FDA0003513394290000012
公式(10)表示收集行为时,根据有第一角度最大的简单智能体的位置Amax选择控制智能体的下一个收集点Pc;其中ξc表示权重;Γ为全局中心GCM的位置;公式(11)表示控制智能体以速度δs的速度向收集点移动,S′指控制智能体下一个位置;
当所有简单智能体和简单智能群体的全局中心的距离都小于或等于预设的简单智能群体聚集程度f(N)时,触发控制智能体驱赶行为;控制智能体移动,并控制着简单智能群体向目的地推进,当简单智能群体到达目标区域时,完成控制任务;
驱赶行为时,控制智能体的控制方式如下所示:
Figure FDA0003513394290000021
Figure FDA0003513394290000022
公式(12)表示控制智能体将向驱赶点Pd移动,ξd表示权重,D表示目的地;公式(13)表示以速度δs改变它的位置到控制智能体下一个位置S';
所述简单智能群体聚集程度的计算公式如下所示:
Figure FDA0003513394290000023
其中,ra为简单智能体之间的交互距离,N为简单智能体的数量。
2.根据权利要求1所述的基于最大角聚集策略的多智能体控制方法,其特征在于,所述简单智能体的下一个位置根据简单智能体的当前位置和下一步要移动的方向和距离获得,简单智能体的下一个位置的位置向量A′i的计算方式如下所示:
Figure FDA0003513394290000024
其中,Ai表示简单智能体ai的位置向量;H′i为下一步要移动的方向,表示从当前位置移动到下一个位置的移动方向;δ为简单智能体的移动速度。
3.根据权利要求2所述的基于最大角聚集策略的多智能体控制方法,其特征在于,所述下一步要移动的方向根据外部排斥力
Figure FDA0003513394290000025
内部排斥力
Figure FDA0003513394290000026
局部中心吸引力Ci、惯性力Hi以及噪声∈i五个向量进行计算;上述5个向量归一化为单位向量后,线性加权组合得到下一步要移动的方向H′i,计算方式如下所示:
Figure FDA0003513394290000027
其中,h为惯性力的权重;c为局部中心吸引力的权重;ρa为内部排斥力的权重;ρs为外部排斥力的权重;e为噪声的权重。
4.根据权利要求3所述的基于最大角聚集策略的多智能体控制方法,其特征在于,所述外部排斥力
Figure FDA0003513394290000031
计算方式如下所示:
Figure FDA0003513394290000032
其中,S表示控制智能体的位置向量,Ai表示简单智能体ai的位置向量;
所述内部排斥力
Figure FDA0003513394290000033
的计算方式如下所示:
Figure FDA0003513394290000034
其中,Aj表示简单智能体ai的邻居aj的位置向量,k代表简单智能体ai的邻居个数;
所述局部中心吸引力Ci的计算方式如下所示:
Ci=LCMi-Ai
其中,LCMi为局部中心位置,表示距离简单智能体ai最近的k个邻居的中心位置。
5.根据权利要求1所述的基于最大角聚集策略的多智能体控制方法,其特征在于,在收集行为时,所述控制智能体的控制方式如下所示:
Ω={ai|<(D-S)×(Γ-S),μ>·<(Ai-S)×(Γ-S),μ><0}μ=(0,0,1) (7)
Ω={ai|<(D-S)×(Γ-S),μ>·<(Ai-S)×(Γ-S),μ>>0}μ=(0,0,1) (8)
Figure FDA0003513394290000035
上述公式(7)表示目的地D在基准线左侧时,选择群子集Ω为基准线右边的简单智能体的集合;公式(8)表示目的地D在基准线右侧,选择群子集Ω为基准线左边的简单智能体的集合;公式(9)使用向量夹角公式求解群子集Ω中每个简单智能体的第一角度,以选择群子集Ω中第一角度最大的简单智能体
Figure FDA0003513394290000041
CN202110322150.4A 2021-03-25 2021-03-25 基于最大角聚集策略的多智能体控制方法 Active CN113146624B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110322150.4A CN113146624B (zh) 2021-03-25 2021-03-25 基于最大角聚集策略的多智能体控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110322150.4A CN113146624B (zh) 2021-03-25 2021-03-25 基于最大角聚集策略的多智能体控制方法

Publications (2)

Publication Number Publication Date
CN113146624A CN113146624A (zh) 2021-07-23
CN113146624B true CN113146624B (zh) 2022-04-29

Family

ID=76884945

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110322150.4A Active CN113146624B (zh) 2021-03-25 2021-03-25 基于最大角聚集策略的多智能体控制方法

Country Status (1)

Country Link
CN (1) CN113146624B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU4604393A (en) * 1989-12-11 1993-12-02 Caterpillar Inc. Integrated vehicle positioning and navigation system apparatus and method
CN101893711A (zh) * 2009-05-20 2010-11-24 中国科学院电子学研究所 基于智能体群体演化的海洋分布目标检测方法
CN108898612A (zh) * 2018-06-11 2018-11-27 淮阴工学院 基于多智能体深度增强学习的多目标跟踪方法
CN109933083A (zh) * 2017-12-15 2019-06-25 翔升(上海)电子技术有限公司 基于无人机的放牧方法、装置和系统
CN110084295A (zh) * 2019-04-19 2019-08-02 广东石油化工学院 一种多智能体系统分组包围控制方法及控制系统
CN110262523A (zh) * 2019-07-31 2019-09-20 华东交通大学 一种分布式群体机器人的自主避障蜂拥控制方法
CN110275527A (zh) * 2019-05-29 2019-09-24 南京航空航天大学 一种基于改进拟态物理法的多智能体系统运动控制方法
CN111604898A (zh) * 2020-04-29 2020-09-01 深圳优地科技有限公司 牲畜寻回方法、机器人、终端设备及存储介质
CN112083738A (zh) * 2020-09-24 2020-12-15 北京航空航天大学 一种受物理化学启发的多智能体集群控制方法
CN112179367A (zh) * 2020-09-25 2021-01-05 广东海洋大学 一种基于深度强化学习的智能体自主导航方法
CN112256056A (zh) * 2020-10-19 2021-01-22 中山大学 基于多智能体深度强化学习的无人机控制方法及系统
CN112264999A (zh) * 2020-10-28 2021-01-26 复旦大学 用于智能体连续空间行动规划的方法、装置及存储介质
CN112297012A (zh) * 2020-10-30 2021-02-02 上海交通大学 一种基于自适应模型的机器人强化学习方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9146561B2 (en) * 2013-12-03 2015-09-29 King Fahd University Of Petroleum And Minerals Robotic leader-follower navigation and fleet management control method
EP3740878A4 (en) * 2018-01-21 2021-10-13 Stats Llc METHOD OF DETECTING EVENTS IN SPORT USING A NEURAL FOLDING NETWORK
US11117255B2 (en) * 2018-03-14 2021-09-14 Fedex Corporate Services, Inc. Apparatus and systems of a modular autonomous cart apparatus assembly for transporting an item being shipped
KR102287460B1 (ko) * 2019-08-16 2021-08-10 엘지전자 주식회사 인공지능 무빙 에이전트

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU4604393A (en) * 1989-12-11 1993-12-02 Caterpillar Inc. Integrated vehicle positioning and navigation system apparatus and method
CN101893711A (zh) * 2009-05-20 2010-11-24 中国科学院电子学研究所 基于智能体群体演化的海洋分布目标检测方法
CN109933083A (zh) * 2017-12-15 2019-06-25 翔升(上海)电子技术有限公司 基于无人机的放牧方法、装置和系统
CN108898612A (zh) * 2018-06-11 2018-11-27 淮阴工学院 基于多智能体深度增强学习的多目标跟踪方法
CN110084295A (zh) * 2019-04-19 2019-08-02 广东石油化工学院 一种多智能体系统分组包围控制方法及控制系统
CN110275527A (zh) * 2019-05-29 2019-09-24 南京航空航天大学 一种基于改进拟态物理法的多智能体系统运动控制方法
CN110262523A (zh) * 2019-07-31 2019-09-20 华东交通大学 一种分布式群体机器人的自主避障蜂拥控制方法
CN111604898A (zh) * 2020-04-29 2020-09-01 深圳优地科技有限公司 牲畜寻回方法、机器人、终端设备及存储介质
CN112083738A (zh) * 2020-09-24 2020-12-15 北京航空航天大学 一种受物理化学启发的多智能体集群控制方法
CN112179367A (zh) * 2020-09-25 2021-01-05 广东海洋大学 一种基于深度强化学习的智能体自主导航方法
CN112256056A (zh) * 2020-10-19 2021-01-22 中山大学 基于多智能体深度强化学习的无人机控制方法及系统
CN112264999A (zh) * 2020-10-28 2021-01-26 复旦大学 用于智能体连续空间行动规划的方法、装置及存储介质
CN112297012A (zh) * 2020-10-30 2021-02-02 上海交通大学 一种基于自适应模型的机器人强化学习方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Dalila B. Megherbi ; Huthaifa Al-Omari.A distributed behavioral-based technique for multi-agent sensory & event-driven autonomous formation and navigation.《Cognitive Methods in Situation Awareness and Decision Support》.2012, *
Shepherding behaviors with multiple shepherds;J.-M. Lien, S. Rodriguez, J.-P. Malric, and N. M. Amato;《Robotics and Automation》;20060110;全文 *
基于Multi-Agent的分布式智能检测可视化系统的设计与实现;李佳;《中国优秀硕士学位论文全文数据库 (信息科技辑)》;20180315(第3期);全文 *
基于增强学习的Flocking集群协同控制算法研究;肖剑;《中国优秀硕士学位论文全文数据库 (信息科技辑)》;20200715(第7期);全文 *

Also Published As

Publication number Publication date
CN113146624A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
CN108801266B (zh) 一种多无人机对不确定环境搜索的航迹规划方法
Belousov et al. Catching heuristics are optimal control policies
Abiyev et al. Robot soccer control using behaviour trees and fuzzy logic
Meng et al. A distributed swarm intelligence based algorithm for a cooperative multi-robot construction task
Hamandi et al. Deepmotion: Learning to navigate like humans
Wang et al. Metrics for evaluating social conformity of crowd navigation algorithms
Thomaz et al. Mobile robot path planning using genetic algorithms
Aswani et al. Improving surveillance using cooperative target observation
CN115900433A (zh) 一种基于swot分析和行为树的多智能体无人对抗系统的决策方法
CN113146624B (zh) 基于最大角聚集策略的多智能体控制方法
Gupta et al. Intention-aware navigation in crowds with extended-space pomdp planning
Li et al. Coordinated multi-robot target hunting based on extended cooperative game
Mohamed et al. A graph-based approach for shepherding swarms with limited sensing range
Jung et al. Shaping couzin-like torus swarms through coordinated mediation
Yang et al. Game-theoretic utility tree for multi-robot cooperative pursuit strategy
WO2022126352A1 (zh) 机器人避障方法及装置、机器人及存储介质
CN113033756B (zh) 基于目标导向的聚集策略的多智能体控制方法
Tsunoda et al. Analysis of sheepdog-type navigation for a sheep model with dynamics
Rodriguez et al. Toward realistic pursuit-evasion using a roadmap-based approach
Farid et al. Effective UAV patrolling for swarm of intruders with heterogeneous behavior
Nguyen et al. Disturbances in influence of a shepherding agent is more impactful than sensorial noise during swarm guidance
Cai et al. Improving particle swarm optimization algorithm for distributed sensing and search
Jonschkowski et al. Learning task-specific state representations by maximizing slowness and predictability
Verma et al. Robot navigation and target capturing using nature-inspired approaches in a dynamic environment
Agrawal et al. A novel bio-inspired algorithm for hunting in multi robot scenario

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant