CN109839933A - 一种基于vdsom算法的多机器人任务分配方法 - Google Patents
一种基于vdsom算法的多机器人任务分配方法 Download PDFInfo
- Publication number
- CN109839933A CN109839933A CN201910126801.5A CN201910126801A CN109839933A CN 109839933 A CN109839933 A CN 109839933A CN 201910126801 A CN201910126801 A CN 201910126801A CN 109839933 A CN109839933 A CN 109839933A
- Authority
- CN
- China
- Prior art keywords
- robot
- neuron
- task
- winning
- neighborhood
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000002569 neuron Anatomy 0.000 claims abstract description 128
- 239000013598 vector Substances 0.000 claims abstract description 41
- 238000000034 method Methods 0.000 claims abstract description 34
- 210000002364 input neuron Anatomy 0.000 claims abstract description 8
- 238000013528 artificial neural network Methods 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 20
- 210000004205 output neuron Anatomy 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 7
- 230000004048 modification Effects 0.000 claims description 6
- 238000012986 modification Methods 0.000 claims description 6
- 230000002860 competitive effect Effects 0.000 claims description 3
- 230000004888 barrier function Effects 0.000 abstract description 3
- 241000282414 Homo sapiens Species 0.000 description 5
- 238000011160 research Methods 0.000 description 4
- 210000004027 cell Anatomy 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
- Feedback Control In General (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明属于多机器人任务分配领域,具体涉及一种基于VDSOM算法的多机器人任务分配方法。这种方法不仅有效地实现了多机器人的任务分配,同时也有效地避开了环境中的障碍物,从而使多机器人任务分配更具备实用性和高效性。发明主要包括:初始化神经网络,寻找某一输入神经元的获胜神经元(机器人),以确定该任务目标点是由那个机器人执行;设计一个邻域函数,用来确定在邻域范围内受获胜神经元影响的输入神经元;控制获胜神经元和其相邻神经元向目标的位置坐标移动,根据矢量方向方法,在成功避开环境中障碍物的前提下,向目标点移动一定距离。修改权值,以确定下一次的获胜神经元。
Description
技术领域
本发明属于多机器人任务分配领域,具体涉及一种基于VDSOM算法的多机器人任务分配方法。
背景技术
近年来,随着现代工业和制造技术的智能化发展进程,人类社会对机器人系统的需求也越来越高。尤其是在生产生活中,出现了越来越多的具备重复性、复杂性、危险性较高的挑战人类极限的工作,为了降低人类的劳动强度、调高工作效率,从20世纪至今科学家一直在研究如何使用机器人代替人类工作。但是,由于机器人的工作环境的复杂性不断地提高,需要机器人的领域也越来越多,单个机器人已经无法满足人类的需求,机器人的分析与设计变得愈加的困难。因此,采用多个机器人组成一个多机器人系统,通过协同工作完成复杂的任务,成为了机器人领域研究的重点课题之一。
从目前的研究成果可知,所有的机器人探索同一环境并不一定能够快速的实现环境中任务快速探索的目标。在不同的环境状态下,机器人如何根据环境的实际状态合理地、动态地产生不同的协作模式,能够大大的增加机器人的协作效率。多机器人协作完成任务探索,自组织任务分配不仅能够增加系统的灵活性和适应性,还能够大大的减少多机器人系统因为不合理的协作方式而产生的过多的总能耗,具有一定的研究价值。
任务分配体现了多机器人系统的智能性和合理性,是多机器人系统实现对未知环境任务探索的基础。分配机制是否合理直接影响多机器人系统中各个成员的自身发挥潜力,直接影响整个系统任务完成的效率。之前的多机器人任务分配方法主要集中在基拍卖、博弈论、遗传算法等,但随着机器人数量的增加,任务数量的增加,系统性能明显降低,容错性较差,不适用于动态的任务分配。
总结现有研究成果发现,目前多机器人系统任务分配存在以下几个问题需要解决:
(1)在二维的工作空间中不存在障碍物,因此多机器人的任务分配算法不具备实际效益;
(2)没有考虑机器人移动的方向角问题,在实际环境中原始的SOM算法直接使用机器人的当前位置与环境中目标位置的偏差来规划机器人的路径,这可能会出现横穿障碍物的情况,以至于机器人无法到达相对应的任务目标点,从而无法顺利完成任务分配。
发明内容
本发明针对机器人的移动方向角偏差问题与实际分配环境中存在障碍物的情况,提出了一种基于VDSOM算法的多机器人任务分配方法。
一种基于VDSOM算法的多机器人任务分配方法,该方法包括以下步骤:
步骤1:竞争获取获胜神经元,主要是竞争层神经元,即机器人,对输入层输入的任务目标点做竞争,确定出那个机器人来执行这个任务;
步骤2:计算邻域函数,用来确定获胜神经元的邻域神经元;
步骤3:路径规划,再一次迭代中,确定好某个任务目标点的获胜机器人及其邻居机器人后,邻域范围内的所有机器人按照路径规划算法,在避开障碍物的前提下,向目标点移动一定的距离;
步骤4:修改获胜者及其邻居权重,在每次迭代的过程中,修改邻域内所有神经元的权重值。
所述步骤1包括以下步骤:
步骤1.1:初始化数据,对竞争层即输出层的各神经元权重随机赋值,在输入层中输入任务目标点的坐标,并建立初始化优胜领域,之后给学习率和变化率赋初值,SOM网络形成;
步骤1.2:随机将一个输入神经元即任务目标点的坐标输入到神经网络的输入层;
步骤1.3:得到竞争层的权重值即机器人的位置坐标;
步骤1.4:从第k组输出神经元中选出的第m个神经元是获胜神经元;
步骤1.5:得到某一时刻某两个神经元之间的加权距离。
步骤1.1所述的任务目标点的坐标为:
Ti=(xi,yi)
步骤1.3所述的竞争层的权重值即机器人的位置坐标如下表示:
Wkm=(wkmx,wkmy),k=1,2,3,...,K;m=1,2,3,...,M
其中,Wkm是第k组输出神经元中第m个神经元的权向量,也就是第k个机器人在第m次迭代后的位置坐标。
步骤1.4所述的第m个神经元选择为:
其中U是在一次迭代中还没有成为赢家的一系列神经元。
所述步骤2包括以下步骤:
步骤2.1:确定获胜神经元和邻域神经元之间的影响,获胜神经元受到的影响力越大即强度越大,与获胜神经元相邻的神经元所受到的影响力就越低;
步骤2.2:判断获胜神经元周围的神经元的影响力,如果影响力已经降为零,则说明该神经元已不是获胜神经元的邻域神经元,即称为非邻域神经元;
步骤2.3:确定当邻域半径大于获胜神经元与某个神经元之间的距离时的邻域函数。
步骤2.3所述的邻域函数表示为下式:
f(E,h)=0
获胜神经元的邻域函数为:
在工作区域内,获胜神经元的邻域是一个圆形,其圆心的坐标是获胜神经元的位置坐标,随着更新迭代的过程,圆心一直在变化,直到该获胜神经元到达了与其相对应的任务目标点;其中,f(dc,h)∈[0,1],E代表邻域内获胜神经元m与邻域内其它神经元之间的距离,Em(t)代表获胜神经元m的优胜邻域,γ是邻域半径,H(t)=εt×H0,t是迭代次数,ε是决定计算时间的变化率,ε越大,计算时间越长,ε越大,机器人运动的总路径就越短,H0是一个常数。
所述步骤3包括以下步骤:
步骤3.1:假设Wk1=(wk1x,wk1y)为机器人当前所处的位置,获得机器人从当前位置到其对应的目标位置的矢量
步骤3.2:得到当前位置到下一个位置的移动方向角;
步骤3.3:由于假设机器人从当前位置出发,下一个位置由八个方向选择,将区间R=(-π,π]平分为8个区间;
步骤3.4:这八个动作形成了一组矢量集,用A(w)表示坐标w处可选择的矢量集;
步骤3.5:给每个方向角θ对应一个矢量标号,得到机器人方向选择规则;
步骤3.6:若根据以上步骤,机器人不能顺利达到目标,即机器人碰到障碍物,则修改方向角θ;
步骤3.7:设置方向角θ的修改规则;
步骤3.8:在运动方向确定后,估算出机器人的下一个位置坐标Gi。
步骤3.2所述的当前位置到下一个位置的移动方向角表示为下式:
步骤3.3所述的将区间R=(-π,π]平分为8个区间表示为:
步骤3.4所述的用A(w)表示坐标w处可选择的矢量集,矢量集选择规则为:
A(w)={1,2,3,4,5,6,7,8}
步骤3.5所述的给每个方向角对应一个矢量标号,即,与矢量1,2,3,4,5,6,7,8相对应的机器人的移动方向为E,NE,N,NW,W,SW,S和SE,机器人的方向选择规则为,首先判断步骤00302所得方向角θ属于步骤00303的那个区域角,其次通过步骤00304选择那个矢量标号,最后通过标号对应的方向确定下一步行驶方向;
步骤3.6所述的修改方向角θ,修改后的方向角θ表示为:
其中,β∈[-3,4]且β∈Z;
步骤3.7所述的设置θ的修改规则,规则为:
(1)若机器人的移动方向为矢量1,则β=0;
(2)若机器人遇到障碍物且其任务目标位于障碍物的左上方,则判断机器人当前位置到障碍物上方最高点的矢量角属于步骤00303中哪个区间。若属于R2则机器人移动方向为矢量2,即β=1,若属于R3则机器人移动方向为矢量3,β=2;
(3)其余障碍物方向同理(2),只需改变相对应的β即可;
步骤3.8所述的估算出机器人的下一个位置坐标Gi,假设两个横向单元间的距离为c,c为一常数,下一个位置坐标Gi表示为下式:
所述步骤4包括以下步骤:
步骤4.1:当机器人与目标点的加权距离小于等于一个固定的最小距离D0时,修改权重值为Wkm(t)=Ti;
步骤4.2:当机器人与目标点的加权距离大于最小距离D0时,修改权重值为Wkm(t)=Wkm(t-1)+ηe-f(Gi-Wkm(t-1))。
结合步骤4.1和步骤4.2,总结权值更新函数,为:
其中,D0是一个常数也是一个终止条件,若Dikm≤D0则认为输出神经元的权值(机器人)已经到达了其任务目标点,将该机器人的坐标置为其相对应的任务目标点的坐标,学习率η有一下规律,由以下公式给出:
t↑→η↓,f↑→η↓;如η(t,f)=η(t)e-f。
本发明的有益效果在于:
这种方法不仅有效地实现了多机器人的任务分配,同时也有效地避开了环境中的障碍物,从而使多机器人任务分配更具备实用性和高效性。本发明所提出的多机器人任务分配主要解决两类任务分配问题:其一,在任务环境中,每个机器人只执行一个任务,机器人数量与任务数量相等;其二,在任务环境中,机器人可以执行一系列任务,即机器人数量小于任务数量。发明主要包括:初始化神经网络,得到某一输入神经元的获胜神经元(机器人),以确定该任务目标点是由那个机器人执行;设计一个邻域函数,用来确定在邻域范围内受获胜神经元影响的输入神经元;控制获胜神经元和其相邻神经元向目标的位置坐标移动,根据矢量方向方法,在成功避开环境中障碍物的前提下,向目标点移动一定距离。修改权值,以确定下一次的获胜神经元。
附图说明
图1为基于VDSOM算法的多机器人任务分配方法总流程图。
图2为基于VDSOM算法的多机器人任务分配方法详细流程图。
图3为SOM神经网络图。
图4为机器人可选的八个区域和八个方向图。
图5为本方法中VD流程图。
具体实施方式
下面结合附图对本发明做进一步描述。
在多机器人系统中,经常会遇到多个机器人之间的协调与合作问题。无论从单个机器人角度出发还是从多个机器人角度出发,在完成所分配的任务前提下,消耗的能量最少,是多任务分配研究的主要问题。多机器人任务分配和路径规划是研究如何有效的分配任务目标,以便于移动机器人能够沿着较优的路径访问在有障碍物的工作区域内的所有目标。多机器人系统任务分配的目标是区域内的所有目标点都有机器人到达,且总代价尽可能小。对于单个机器人而言,其代价是从起始点到所经过的所有目标点的距离来衡量,而对于整个多机器人系统而言,总代价是所有单个机器人代价的总和。为了完成对工作区域中所有目标的访问,首先是考虑将任务目标分配给不同的移动机器人;其次,任务分配完成后,需要进行路径规划,由于工作区域内存在障碍物,因此每个机器人都必须具有避障的能力,能够成功避开区域内的障碍物;最后,移动机器人向目标运动的过程中,应避免发生位移跳变,进而保证每个移动机器人的路径规划都能实现。所有的任务即目标点都被机器人访问过后,任务分配完成。为了简化描述,将工作空间用二维平面表示。这里假设移动机器人的所有性能形同,即具备相同的导航、避障、位置识别功能,且所有机器人的能量储备相同,能量消耗速率也相同。因此,只需要研究如何动态的进行任务分配即可,即如何应用VDSOM进行多机器人任务分配,并使其总工作量最小。本发明的详细流程图如图2。
假设工作区域内随机分布K=(1,2,3,...,K)台机器人和M=(1,2,3,...,M)个任务,多机器人系统的SOM模型有两层神经元,如图3:1)输入层包含所有的任务目标点,共有M个,所有任务目标点的坐标依次排列以构成神经网络的输入数据集合;2)竞争层共包括KM个神经元,若工作区域用W表示,则这KM个神经元的表示为(W11,W12,...,W1M,WK1,WK2,...,WKM),代表着K台机器人的坐标和相对应的运动轨迹。由于共有M个任务目标点和K台机器人,故机器人将这M个任务的分配和路径规划的结果分成K组。输出神经元的初始权值是由机器人的初始位置坐标来初始化。任务分配完成后,M个任务目标点从KM个输出神经元中选出M个神经元,即共有M个获胜神经元,且这M个获胜神经元是由K台机器人组成。因此,K台机器人形成了K条路径,从起始位置出发,经过若干个目标,最终K台机器人访问的目标和为M个。
基于上述问题描述,为了实现本发明的目的,本发明采用如下步骤:
步骤001.竞争获取获胜神经元,主要是竞争层神经元(机器人)对输入层输入的任务目标点做竞争,用以确定出那个机器人来执行这个任务。
步骤002.计算邻域函数,用来确定获胜神经元的邻域神经元。
步骤003.路径规划,再一次迭代中,确定好某个任务目标点的获胜机器人及其邻居机器人后,邻域范围内的所有机器人按照路径规划算法,在避开障碍物的前提下,向目标点移动一定的距离。
步骤004.修改获胜者及其邻居权重,在每次迭代的过程中,修改邻域内所有神经元的权重值。
所述步骤001具体包括如下步骤:
步骤00101.初始化数据,对竞争层即输出层的各神经元权重随机赋值,在输入层中输入任务目标点的坐标,并建立初始化优胜领域,之后给学习率和变化率赋初值,SOM网络形成。
步骤00102.随机将一个输入神经元即任务目标点的坐标输入到神经网络的输入层。任务目标点的坐标为:
Ti=(xi,yi)
这样做的目的是将数据集以随机输入的顺序策略影响算法的鲁棒性,减少其对初始工作空间和数据集的依赖。
步骤00103.竞争层的权重值即机器人的位置坐标如下表示:
Wkm=(wkmx,wkmy),k=1,2,3,...,K;m=1,2,3,...,M
Wkm是第k组输出神经元中第m个神经元的权向量,也就是第k个机器人在第m次迭代后的位置坐标。
步骤00104.从第k组输出神经元中选出的第m个神经元是获胜神经元。第m个获胜神经元选择为:
其中U是在一次迭代中还没有成为赢家的一系列神经元。
步骤00105.某一时刻某两个神经元之间的加权距离如下表示:
其中,表示第i个目标点到第k组输出神经元中第m个神经元的欧几里得距离。L表示各个机器人之间的负载均衡,Si表示第i个移动机器人所移动的路径,表示平均的路径长度。
由于竞争获胜的神经元不仅仅是其与输入神经元的欧氏距离最小的神经元,还是在该时刻L最小的神经元,所以,其竞争过程需要由二者共同制约。当获胜神经元被选出后,下一步是设计邻域函数,进而确定下一次的获胜神经元。对于步骤002,具体包括以下步骤:
步骤00201.确定获胜神经元和邻域神经元之间的影响,获胜神经元受到的影响力越大即强度越大,与获胜神经元相邻的神经元所受到的影响力就越低。
步骤00202.判断获胜神经元周围的神经元的影响力,如果影响力已经降为零,则说明该神经元已不是获胜神经元的邻域神经元,即称为非邻域神经元。
步骤00203.确定当邻域半径大于获胜神经元与某个神经元之间的距离时的邻域函数,此时邻域函数为:
f(E,h)=E2/H2(t)
步骤00204.确定当邻域半径小于或等于获胜神经元与某个神经元之间的距离时的邻域函数,此时邻域函数为:
f(E,h)=0
将步骤00203和步骤00204结合可知,获胜神经元的邻域函数为:
在工作区域内,获胜神经元的邻域是一个圆形,其圆心的坐标是获胜神经元的位置坐标,随着更新迭代的过程,圆心一直在变化,直到该获胜神经元到达了与其相对应的任务目标点。影响力的大小决定了在某次迭代过程中邻域神经元权重调整的大小。其中,f(dc,h)∈[0,1],E代表邻域内获胜神经元m与邻域内其它神经元之间的距离,Em(t)代表获胜神经元m的优胜邻域,γ是邻域半径,H(t)=εt×H0,t是迭代次数,ε是决定计算时间的变化率,ε越大,计算时间越长,ε越大,机器人运动的总路径就越短,H0是一个常数。
为了克服传统的SOM算法的缺点,使移动机器人能够自动避开障碍物并且避免步长跳变的问题,这里引入一个矢量方向的概念对SOM的权值进行调节,提出了一种矢量方向自组织映射算法VDSOM。在未知环境下,自主机器人能通过它的传感器获得局部位置信息。机器人需要确定一个策略,以帮助在避开环境中障碍物的情况下到达任务目标点。对于步骤003,假设机器人从当前位置出发,可到达其相邻的八个位置中的一个位置,八个位置基于八个方向,方向包括东(E)、东南(NE)、南(N)、西南(NW)、西(W)、西北(SW)、北(S)和东北(SE),其具体表示如图4。在环境中,机器人的位置可以看成是一个统一的网格,通过这样一种表示方法,障碍物是机器人不能到达的单元,而剩余单元机器人均可访问。步骤003的详细流程图如图5,具体步骤为:
步骤00301.假设Wk1=(wk1x,wk1y)为机器人当前所处的位置,则机器人从当前位置到其对应的目标位置的矢量为
步骤00302.当前位置到下一个位置的移动方向角为:
步骤00303.由于假设机器人从当前位置出发,下一个位置可由八个方向选择,因此将区间R=(-π,π]平分为8个区间,分别为:
步骤00304.这八个动作形成了一组矢量集,用A(w)表示坐标w处可选择的矢量集,其矢量集选择规则为:
A(w)={1,2,3,4,5,6,7,8}
步骤00305.与矢量1,2,3,4,5,6,7,8相对应的机器人的移动方向为E,NE,N,NW,W,SW,S和SE,其表示如图4。在图4中每个方向角对应一个矢量标号,故机器人的方向选择规则为,首先判断步骤00302所得方向角θ属于步骤00303的那个区域角,其次通过步骤00304选择那个矢量标号,最后通过标号对应的方向确定下一步行驶方向。
步骤00306.如果根据以上步骤,机器人不能顺利到达目标,即机器人碰到障碍物,则修改θ为:
其中β∈[-3,4]且β∈Z
步骤00307.设置θ的修改规则,如下:
(1)若机器人的移动方向为矢量1,则β=0;
(2)若机器人遇到障碍物且其任务目标位于障碍物的左上方,则判断机器人当前位置到障碍物上方最高点的矢量角属于步骤00303中哪个区间。若属于R2则机器人移动方向为矢量2,即β=1,若属于R3则机器人移动方向为矢量3,β=2;
(3)其余障碍物方向同理(2),只需改变相对应的β即可。
步骤00308.在运动方向确定后,估算出机器人的下一个位置坐标Gi。假设两个横向单元间的距离为c(c为一常数),下一位置坐标Gi的公式为:
将工作区域离散化后,路径规划问题就演变成为规划机器人的下一个行驶位置,只有准确得到这个位置,才能使机器人自主规划出一条切实可行的无碰撞路径。
在以上步骤都确定后,下一步的任务是将获胜神经元与它邻域神经元向任务目标移动,其它神经元保持不动,在这个过程中,输入层中相对应的权重值会发生改变,对于步骤004,其详细的步骤为:
步骤00401.当机器人与目标点的加权距离小于等于一个固定的最小距离D0时,其权重值修改为:
Wkm(t)=Ti,Dikm≤D0
步骤00402.当机器人与目标点的加权距离大于最小距离D0时,其权重值修改为:
Wkm(t)=Wkm(t-1)+ηe-f(Gi-Wkm(t-1)),Dikm>D0
结合步骤00401与步骤00402,可总结出权值更新函数,为:
D0是一个常数也是一个终止条件,若Dikm≤D0则认为输出神经元的权值(机器人)已经到达了其任务目标点,将该机器人的坐标置为其相对应的任务目标点的坐标。学习率η一般有一下规律,由以下公式给出:
t↑→η↓,f↑→η↓;如η(t,f)=η(t)e-f。
Claims (9)
1.一种基于VDSOM算法的多机器人任务分配方法,其特征在于,该方法包括以下步骤:
步骤1:竞争获取获胜神经元,主要是竞争层神经元,即机器人,对输入层输入的任务目标点做竞争,确定出那个机器人来执行这个任务;
步骤2:计算邻域函数,用来确定获胜神经元的邻域神经元;
步骤3:路径规划,再一次迭代中,确定好某个任务目标点的获胜机器人及其邻居机器人后,邻域范围内的所有机器人按照路径规划方法,在避开障碍物的前提下,向目标点移动一段距离;
步骤4:修改获胜者及其邻居权重,在每次迭代的过程中,修改邻域内所有神经元的权重值。
2.根据权利要求1所述的一种基于VDSOM算法的多机器人任务分配方法,其特征在于,所述步骤1包括以下步骤:
步骤1.1:初始化数据,对竞争层即输出层的各神经元权重随机赋值,在输入层中输入任务目标点的坐标,并建立初始化优胜领域,之后给学习率和变化率赋初值,SOM网络形成;
步骤1.2:随机将一个输入神经元即任务目标点的坐标输入到神经网络的输入层;
步骤1.3:得到竞争层的权重值即机器人的位置坐标;
步骤1.4:从第k组输出神经元中选出的第m个神经元是获胜神经元;
步骤1.5:得到某一时刻某两个神经元之间的加权距离。
3.根据权利要求2所述的一种基于VDSOM算法的多机器人任务分配方法,其特征在于,步骤1.1所述的任务目标点的坐标为:
Ti=(xi,yi)
步骤1.3所述的竞争层的权重值即机器人的位置坐标表示为下式:
Wkm=(wkmx,wkmy),k=1,2,3,...,K;m=1,2,3,...,M
其中,Wkm是第k组输出神经元中第m个神经元的权向量,也就是第k个机器人在第m次迭代后的位置坐标;
步骤1.4所述的第m个神经元选择为:
其中,U是在一次迭代中还没有成为赢家的一系列神经元。
4.根据权利要求1所述的一种基于VDSOM算法的多机器人任务分配方法,其特征在于,所述步骤2包括以下步骤:
步骤2.1:确定获胜神经元和邻域神经元之间的影响,获胜神经元受到的影响力越大即强度越大,与获胜神经元相邻的神经元所受到的影响力就越低;
步骤2.2:判断获胜神经元周围的神经元的影响力,若影响力已经降为零,则说明该神经元已不是获胜神经元的邻域神经元,即称为非邻域神经元;
步骤2.3:确定当邻域半径大于获胜神经元与某个神经元之间的距离时的邻域函数。
5.根据权利要求4所述的一种基于VDSOM算法的多机器人任务分配方法,其特征在于,步骤2.3所述的邻域函数表示为下式:
f(E,h)=0
获胜神经元的邻域函数为:
在工作区域内,获胜神经元的邻域是一个圆形,其圆心的坐标是获胜神经元的位置坐标,随着更新迭代的过程,圆心一直在变化,直到该获胜神经元到达了与其对应的任务目标点;其中,f(dc,h)∈[0,1],E代表邻域内获胜神经元m与邻域内神经元之间的距离,Em(t)代表获胜神经元m的优胜邻域,γ是邻域半径,H(t)=εt×H0,t是迭代次数,ε是决定计算时间的变化率,ε越大,计算时间越长,机器人运动的总路径就越短,H0是一个常数。
6.根据权利要求1所述的一种基于VDSOM算法的多机器人任务分配方法,其特征在于,所述步骤3包括以下步骤:
步骤3.1:假设Wk1=(wk1x,wk1y)为机器人当前所处的位置,获得机器人从当前位置到其对应的目标位置的矢量
步骤3.2:得到当前位置到下一个位置的移动方向角;
步骤3.3:由于假设机器人从当前位置出发,下一个位置由八个方向选择,将区间R=(-π,π]平分为8个区间;
步骤3.4:这八个动作形成了一组矢量集,用A(w)表示坐标w处提供选择的矢量集;
步骤3.5:给每个方向角θ对应一个矢量标号,得到机器人方向选择规则;
步骤3.6:若根据以上步骤,机器人不能顺利达到目标,即机器人碰到障碍物,则修改方向角θ;
步骤3.7:设置方向角θ的修改规则;
步骤3.8:在运动方向确定后,估算出机器人的下一个位置坐标Gi。
7.根据权利要求6所述的一种基于VDSOM算法的多机器人任务分配方法,其特征在于,步骤3.2所述的当前位置到下一个位置的移动方向角表示为下式:
步骤3.3所述的将区间R=(-π,π]平分为8个区间表示为:
步骤3.4用A(w)表示坐标w处提供选择的矢量集,矢量集选择规则为:
A(w)={1,2,3,4,5,6,7,8}
步骤3.5所述的给每个方向角对应一个矢量标号,即,与矢量1,2,3,4,5,6,7,8对应的机器人的移动方向为E,NE,N,NW,W,SW,S和SE,机器人的方向选择规则为,首先判断步骤00302所得方向角θ属于步骤00303的那个区域角,其次通过步骤00304选择那个矢量标号,最后通过标号对应的方向确定下一步行驶方向;
步骤3.6所述的修改方向角θ,修改后的方向角θ表示为:
其中,β∈[-3,4]且β∈Z;
步骤3.7所述的设置θ的修改规则,规则为:
(1)若机器人的移动方向为矢量1,则β=0;
(2)若机器人遇到障碍物且其任务目标位于障碍物的左上方,则判断机器人当前位置到障碍物上方最高点的矢量角属于步骤00303中哪个区间,若属于R2则机器人移动方向为矢量2,即β=1,若属于R3则机器人移动方向为矢量3,β=2;
(3)其余障碍物方向同理(2),只需改变对应的β;
步骤3.8所述的估算出机器人的下一个位置坐标Gi,假设两个横向单元间的距离为c,c为一常数,下一个位置坐标Gi表示为下式:
8.根据权利要求1所述的一种基于VDSOM算法的多机器人任务分配方法,其特征在于,所述步骤4包括以下步骤:
步骤4.1:当机器人与目标点的加权距离小于等于一个固定的最小距离D0时,修改权重值为Wkm(t)=Ti;
步骤4.2:当机器人与目标点的加权距离大于最小距离D0时,修改权重值为Wkm(t)=Wkm(t-1)+ηe-f(Gi-Wkm(t-1))。
9.根据权利要求8所述的一种基于VDSOM算法的多机器人任务分配方法,其特征在于,结合步骤4.1和步骤4.2,总结权值更新函数,为:
其中,D0是一个常数也是一个终止条件,若Dikm≤D0则认为输出神经元的权值,即机器人,已经到达了其任务目标点,将该机器人的坐标置为其对应的任务目标点的坐标,学习率η有一下规律,由以下公式给出:
t↑→η↓,f↑→η↓;η(t,f)=η(t)e-f。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910126801.5A CN109839933B (zh) | 2019-02-20 | 2019-02-20 | 一种基于vdsom算法的多机器人任务分配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910126801.5A CN109839933B (zh) | 2019-02-20 | 2019-02-20 | 一种基于vdsom算法的多机器人任务分配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109839933A true CN109839933A (zh) | 2019-06-04 |
CN109839933B CN109839933B (zh) | 2022-04-29 |
Family
ID=66884790
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910126801.5A Expired - Fee Related CN109839933B (zh) | 2019-02-20 | 2019-02-20 | 一种基于vdsom算法的多机器人任务分配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109839933B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110470301A (zh) * | 2019-08-13 | 2019-11-19 | 上海交通大学 | 多动态任务目标点下的无人机路径规划方法 |
CN111432015A (zh) * | 2020-03-31 | 2020-07-17 | 中国人民解放军国防科技大学 | 一种面向动态噪声环境的全覆盖任务分配方法 |
CN111830916A (zh) * | 2020-07-02 | 2020-10-27 | 兰州大学 | 一种面向多目标追踪的群机器人分布式竞争协同方法 |
CN112327838A (zh) * | 2020-10-29 | 2021-02-05 | 哈尔滨工程大学 | 一种基于改进自映射算法的多无人水面艇多任务分配方法 |
CN113705858A (zh) * | 2021-08-02 | 2021-11-26 | 西安交通大学 | 多目标区域的最短路径规划方法、系统、设备及存储介质 |
WO2022241808A1 (zh) * | 2021-05-19 | 2022-11-24 | 广州中国科学院先进技术研究所 | 一种多机器人轨迹规划方法 |
CN116245257A (zh) * | 2023-05-06 | 2023-06-09 | 季华实验室 | 一种多机器人调度方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110231016A1 (en) * | 2010-03-17 | 2011-09-22 | Raytheon Company | Temporal tracking robot control system |
CN106979785A (zh) * | 2017-03-24 | 2017-07-25 | 北京大学深圳研究生院 | 一种面向多机器人系统的完全遍历路径规划方法 |
CN107272705A (zh) * | 2017-07-31 | 2017-10-20 | 中南大学 | 一种智能环境下机器人路径的多神经网络控制规划方法 |
CN108037758A (zh) * | 2017-11-30 | 2018-05-15 | 重庆邮电大学 | 一种基于改进afsa的移动机器人路径规划方法 |
-
2019
- 2019-02-20 CN CN201910126801.5A patent/CN109839933B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110231016A1 (en) * | 2010-03-17 | 2011-09-22 | Raytheon Company | Temporal tracking robot control system |
CN106979785A (zh) * | 2017-03-24 | 2017-07-25 | 北京大学深圳研究生院 | 一种面向多机器人系统的完全遍历路径规划方法 |
CN107272705A (zh) * | 2017-07-31 | 2017-10-20 | 中南大学 | 一种智能环境下机器人路径的多神经网络控制规划方法 |
CN108037758A (zh) * | 2017-11-30 | 2018-05-15 | 重庆邮电大学 | 一种基于改进afsa的移动机器人路径规划方法 |
Non-Patent Citations (1)
Title |
---|
朱大奇 等: "多个水下机器人动态任务分配和路径规划的信度自组织算法", 《控制理论与应用》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110470301A (zh) * | 2019-08-13 | 2019-11-19 | 上海交通大学 | 多动态任务目标点下的无人机路径规划方法 |
CN111432015A (zh) * | 2020-03-31 | 2020-07-17 | 中国人民解放军国防科技大学 | 一种面向动态噪声环境的全覆盖任务分配方法 |
CN111432015B (zh) * | 2020-03-31 | 2022-07-19 | 中国人民解放军国防科技大学 | 一种面向动态噪声环境的全覆盖任务分配方法 |
CN111830916A (zh) * | 2020-07-02 | 2020-10-27 | 兰州大学 | 一种面向多目标追踪的群机器人分布式竞争协同方法 |
CN112327838A (zh) * | 2020-10-29 | 2021-02-05 | 哈尔滨工程大学 | 一种基于改进自映射算法的多无人水面艇多任务分配方法 |
CN112327838B (zh) * | 2020-10-29 | 2023-03-31 | 哈尔滨工程大学 | 一种基于改进自映射算法的多无人水面艇多任务分配方法 |
WO2022241808A1 (zh) * | 2021-05-19 | 2022-11-24 | 广州中国科学院先进技术研究所 | 一种多机器人轨迹规划方法 |
CN113705858A (zh) * | 2021-08-02 | 2021-11-26 | 西安交通大学 | 多目标区域的最短路径规划方法、系统、设备及存储介质 |
CN113705858B (zh) * | 2021-08-02 | 2023-07-11 | 西安交通大学 | 多目标区域的最短路径规划方法、系统、设备及存储介质 |
CN116245257A (zh) * | 2023-05-06 | 2023-06-09 | 季华实验室 | 一种多机器人调度方法及装置 |
CN116245257B (zh) * | 2023-05-06 | 2023-09-12 | 季华实验室 | 一种多机器人调度方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109839933B (zh) | 2022-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109839933B (zh) | 一种基于vdsom算法的多机器人任务分配方法 | |
CN106875090B (zh) | 一种面向动态任务的多机器人分布式任务分配形成方法 | |
CN110321666B (zh) | 基于先验知识与dqn算法的多机器人路径规划方法 | |
CN106502250B (zh) | 三维空间内多机器人编队的路径规划算法 | |
Zhu et al. | Task assignment and path planning of a multi-AUV system based on a Glasius bio-inspired self-organising map algorithm | |
Liu et al. | An improved heuristic mechanism ant colony optimization algorithm for solving path planning | |
Chatterjee et al. | A Geese PSO tuned fuzzy supervisor for EKF based solutions of simultaneous localization and mapping (SLAM) problems in mobile robots | |
Al Dabooni et al. | Heuristic dynamic programming for mobile robot path planning based on Dyna approach | |
Venayagamoorthy et al. | Navigation of mobile sensors using PSO and embedded PSO in a fuzzy logic controller | |
Wang et al. | A fuzzy logic path planning algorithm based on geometric landmarks and kinetic constraints | |
Cao et al. | Dynamic task assignment for multi-AUV cooperative hunting | |
CN112099486A (zh) | 任意位置多机器人编队成形控制方法、系统、设备及应用 | |
Yin et al. | Multi-AGV task allocation with attention based on deep reinforcement learning | |
Huo et al. | A new approach to smooth path planning of Ackerman mobile robot based on improved ACO algorithm and B-spline curve | |
Liu et al. | Multiple UAV formations delivery task planning based on a distributed adaptive algorithm | |
Chen et al. | Deep reinforcement learning-based robot exploration for constructing map of unknown environment | |
Rottmann et al. | Adaptive autonomous control using online value iteration with gaussian processes | |
Wang et al. | A partitioning-based approach for robot path planning problems | |
CN113627646B (zh) | 一种基于神经网络的路径规划方法、装置、设备及介质 | |
Xin et al. | Formation tracking and transformation control of nonholonomic AUVs based on improved SOM method | |
Zhou et al. | The route planning for AMR based on combined ant colony and genetic algorithm | |
Yu et al. | A novel automated guided vehicle (AGV) remote path planning based on RLACA algorithm in 5G environment | |
Zhu et al. | Optimal Motion Planning for Heterogeneous Multi-USV Systems Using Hexagonal Grid-Based Neural Networks and Parallelogram Law Under Ocean Currents | |
Xu et al. | A binary gridding path-planning method for plant-protecting UAVs on irregular fields | |
Wu et al. | UAV Pathfinding in Dynamic Obstacle Avoidance with Multi-agent Reinforcement Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220429 |