CN115202392A - 基于视觉感知的群体适应性行为控制方法、装置和设备 - Google Patents

基于视觉感知的群体适应性行为控制方法、装置和设备 Download PDF

Info

Publication number
CN115202392A
CN115202392A CN202210808707.XA CN202210808707A CN115202392A CN 115202392 A CN115202392 A CN 115202392A CN 202210808707 A CN202210808707 A CN 202210808707A CN 115202392 A CN115202392 A CN 115202392A
Authority
CN
China
Prior art keywords
current individual
current
speed
individual
force
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210808707.XA
Other languages
English (en)
Inventor
肖延东
齐景涛
白亮
魏迎梅
张华喜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202210808707.XA priority Critical patent/CN115202392A/zh
Publication of CN115202392A publication Critical patent/CN115202392A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及图像视觉技术领域中一种基于视觉感知的群体适应性行为控制方法、装置和设备。该方法包括:获取群体中当前个体在当前位置的视域范围内其他个体和外界刺激的视觉图像信息;根据视觉图像信息,确定当前个体的视觉感知函数;根据由当前个体的速度和期望速度确定的当前个体的自推进力和由视觉感知函数确定的当前个体的位置力,确定当前个体的速度决策方程;根据当前个体的速度决策方程,确定当前个体当前时刻的速度信息;根据当前时刻的速度信息,对当前个体的运动状态进行更新。本方法从生物个体视觉感知出发,以视距信息为输入构建个体间的交互方式,实现面对不同外界刺激下的群体适应性行为,提高无人集群对于刺激的适应性行为及能力。

Description

基于视觉感知的群体适应性行为控制方法、装置和设备
技术领域
本申请涉及图像视觉技术领域,特别是涉及一种基于视觉感知的群体适应性行为控制方法、装置和设备。
背景技术
近年来,无人集群系统以其成本优势、鲁棒自愈、能力倍增等特点被广泛应用于军事和民用领域,尤其是在物联网领域。随着物联网技术的快速发展,无人集群系统已被用于信息采集、传输以及处理等方面,从而实现环境探索、中继通信以及灾害监测。毫无疑问,无人集群系统已然成为物联网技术中的关键节点。然而,伴随着无人集群系统在物联网中的流行性使用,其对无人集群系统要求也不断提高。面向不同的任务需求,无人集群系统需要有效应对复杂多变的外界刺激,以自适应不同的任务环境。
为满足无人集群对于不同外界刺激的自适应要求,生物群体行为的内在机制对于具备自适应能力的无人集群系统构建非常有借鉴意义。受Geisler等人关于高等动物视觉皮层中的视觉检测工作的启发,Pearce等人针对鸟群首次提出基于视觉感知的集群运动模型以对其密度进行控制。该类模型摒弃了原有个体间依赖通信的信息交换方式,个体仅通过视觉获取其邻域的相对信息并以此进行决策。Bastien等人以代表视野各方位是否遮挡的视觉感知函数作为输入设计了个体间的排斥和吸引交互,实现了6种集群运动模式并明确了各模式的参数区间。针对人群行为,Dachner等人通过虚拟现实技术研究发现个体会对不同方位邻居的视觉遮挡变化做出适应性反应,基于此以个体视野中邻居的相对方位变化和遮挡变化来控制个体速度和方向提出了人群运动模型。Berlinger等人受鱼群启发使用微型水下机器人,实现了群体对于目标的搜索并向目标聚集的任务序列以及涡旋运动模式。在其水下机器人系统中,每个机器人携带两个发光二极管,从而使得机器人可以根据摄像头获取到的二极管位置推导出邻居的相对方位和相对距离,从而作为集群模型的输入。此外,针对鱼群,Harpaz等人通过数据分析发现鱼类根据双目视觉遮挡差异决定左转或右转以靠近或远离邻居,且该种交互方式在幼鱼和成鱼间存在差异。
虽然现有方法可以有效地再现生物群体的各种集群运动模式并向无人集群进行迁移,但现有方法仍存在许多不足。一方面,已有的经典方法与生物实际感知方式相差较远,且在无人集群构建过程中需要建立在通信依赖的基础之上。另一方面,已有的基于视觉的集群方法,仅停留在简单的一致行进以及涡旋等运动模式的再现阶段,没有对无人集群任务场景进行深入探索以构建适应不同外界刺激下的群体适应性行为。
发明内容
基于此,有必要针对上述技术问题,提供一种基于视觉感知的群体适应性行为控制方法、装置和设备。
一种基于视觉感知的群体适应性行为控制方法,所述方法包括:
获取群体中当前个体在当前位置的视域范围内其他个体和外界刺激的视觉图像信息;所述视觉图像信息为个体参考坐标系下各相对方位下的视距;所述个体参考坐标系是以当前个体的速度为个体相对方位的0度方向,采用逆时针方向为相对方位正方向进行构建。
根据所述视觉图像信息,确定当前个体的视觉感知函数。
根据当前个体的速度和期望速度,确定当前个体的自推进力。
根据所述视觉感知函数,确定当前个体的位置力。
根据所述自推进力和所述位置力,确定当前个体的速度决策方程。
根据当前个体的速度决策方程,确定当前个体当前时刻的速度信息。
根据当前时刻的速度信息,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息。
在其中一个实施例中,所述视觉图像信息是当前个体根据逆时针方向为正方向,采用视觉感知方式以当前个体自身位置为中心以当前个体的速度为个体相对方位的0度方向获取360度范围内各相对方位的视距信息,当前个体对其他个体与外界刺激的各相对方位的视距信息进行区分;根据所述视觉图像信息,确定当前个体的视觉感知函数,包括:
将无穷远处的视距信息以及大于排斥力和吸引力区分阈值的外界刺激的视距信息删除,得到当前个体的视觉感知函数。
在其中一个实施例中,根据当前个体的速度和期望速度,确定当前个体的自推进力,包括:
根据当前个体的速度和期望速度,确定当前个体的自推进力为:
Figure BDA0003739516620000031
其中,Find为自推进力,γ为自驱动常数,vo为期望速度大小,vi(t)为当前个体i在当前时间t的速度大小。
在其中一个实施例中,所述当前个体的位置力包括当前个体受到视野范围内其他个体和外界刺激视距信息所产生的位置力;所述位置力分为排斥力和吸引力;根据所述视觉感知函数,确定当前个体的位置力,包括:
根据所述视觉感知函数,确定当前个体的位置力为:
Figure BDA0003739516620000032
其中,Fpos[Dii,t)]为当前个体i的位置力,Dii,t)为当前个体i在当前时间t获取到的视觉感知函数,d为排斥力和吸引力区分阈值,λ为吸引力与排斥力平衡参数,α和β分别用于控制当前个体的速度大小vi和速度方向ψi变化,φi为当前个体i的相对方位,通过设置c0sφi和sinφi为位置力的一个因子来分别考虑位置力对速度大小vi和速度方向ψi变化的影响。
当所述排斥力和吸引力区分阈值大于当前个体i在当前时间t相对方位φi处视觉感知函数的视距信息时,则该相对方位的视距信息对当前个体i所产生的位置力为排斥力;因在视觉感知函数获取过程中将大于排斥力和吸引力区分阈值的外界刺激的视距信息删除,从而使得外界刺激的视距信息对当前个体所产的位置力仅为排斥力。
当所述排斥力和吸引力区分阈值小于当前个体i在当前时间t相对方位φi处视觉感知函数的视距信息时,则该相对方位的视距信息对当前个体i所产生的位置力为吸引力。
在其中一个实施例中,根据所述自推进力和所述位置力,确定当前个体的速度决策方程,包括:
根据所述自推进力和所述位置力,确定当前个体的速度决策方程为:
Figure BDA0003739516620000041
其中,
Figure BDA0003739516620000042
为当前个体的速度变化,Find(vi)为当前个体i的自推进力,Fpos[Dii,t)]为当前个体i的位置力,Dii,t)为当前个体i在当前时间t获取到的视觉感知函数,φi为当前个体i的相对方位,vi(t)为当前个体i在当前时间t的速度。
在其中一个实施例中,根据当前个体的速度决策方程,确定当前个体当前时刻的速度信息,包括:
将当前个体的速度决策方程向速度平行方向和垂直方向进行投影,得到当前个体的速度大小决策方程和方向决策方程。
所述当前个体的速度大小决策方程为:
Figure BDA0003739516620000043
所述当前个体的方向决策方程为:
Figure BDA0003739516620000044
其中,
Figure BDA0003739516620000045
为平行于当前个体i在当前时间t的速度的单位向量,
Figure BDA0003739516620000046
垂直于当前个体i在当前时间t的速度的单位向量,vo为期望速度大小,vi(t)为当前个体i在当前时间t的速度大小,α和β分别为控制当前个体的速度大小vi和速度方向ψi的变化控制常数;φi为当前个体i的相对方位;Dii,t)为当前个体i在当前时间t获取到的视觉感知函数,vi(t)为当前个体i在当前时间t的速度,d为排斥力和吸引力区分阈值,λ为吸引力与排斥力平衡参数,ψi(t)为当前个体i在当前时间t的速度方向。
在其中一个实施例中,根据当前时刻的速度信息,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息,包括:
根据当前个体的速度大小变化值和速度方向变化值,确定当前个体的位置变化,得到当前个体的位置驱动方程;所述当前个体的位置驱动方程为:
Figure BDA0003739516620000051
Figure BDA0003739516620000052
其中,
Figure BDA0003739516620000053
当前个体i的位置变化。
一种基于视觉感知的群体适应性行为控制装置,所述装置包括:
视觉感知模块,用于获取群体中当前个体在当前位置的视域范围内其他个体和外界刺激的视觉图像信息;所述视觉图像信息为个体参考坐标系下各相对方位下的视距;所述个体参考坐标系是以当前个体的速度为个体相对方位的0度方向,采用逆时针方向为相对方位正方向进行构建。
视觉图像信息处理模块,用于根据所述视觉图像信息,确定当前个体的视觉感知函数。
决策模块,用于根据当前个体的速度和期望速度,确定当前个体的自推进力;根据所述视觉感知函数,确定当前个体的位置力;根据所述自推进力和所述位置力,确定当前个体的速度决策方程;根据当前个体的速度决策方程,确定当前个体当前时刻的速度信息。
驱动模块,用于根据所述速度信息,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息。
在其中一个实施例中,所述视觉图像信息是当前个体根据逆时针方向为正方向,采用视觉感知方式以当前个体自身位置为中心以当前个体的速度为个体相对方位的0度方向获取360度范围内各相对方位的视距信息,当前个体对其他个体与外界刺激的各相对方位的视距信息进行区分;视觉图像信息处理模块,还用于将无穷远处的视距信息以及大于排斥力和吸引力区分阈值的外界刺激的视距信息删除,得到当前个体的视觉感知函数。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一所述方法的步骤。
上述基于视觉感知的群体适应性行为控制方法、装置和设备,所述方法包括:获取群体中当前个体在当前位置的视域范围内其他个体和外界刺激的视觉图像信息;根据视觉图像信息,确定当前个体的视觉感知函数;根据当前个体的速度和期望速度,确定当前个体的自推进力;根据视觉感知函数,确定当前个体的位置力;根据自推进力和位置力,确定当前个体的速度决策方程;根据当前个体的速度决策方程,确定当前个体当前时刻的速度信息;根据当前时刻的速度信息,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息。本方法从生物个体的视觉感知出发,以视觉信息作为输入构建个体间的交互方式,实现面对不同外界刺激下的群体适应性行为,提高无人集群对于刺激的适应性行为及能力。
附图说明
图1为一个实施例中基于视觉感知的群体适应性行为控制方法的流程示意图;
图2为另一个实施例中个体参考坐标系示意图;
图3为另一个实施例中2维空间中N个不同个体;
图4为另一个实施例中当前个体对周围360度各相对方位对应的视距信息获取示意图;
图5为另一个实施例中个体信息获取高阶方式的视觉感知函数示意图;
图6为另一个实施例中个体信息获取低阶方式的视觉感知函数示意图;
图7为一个实施例中d=2时不同参数λ下不同相对距离对应的位置力大小示意图;
图8为另一个实施例中当前个体观察不同相对位置的单个邻居的视距信息所产生的排斥力作用下的速度方向和速度大小决策,其中(a)为排斥力对速度方向的作用,(b)为排斥力对速度大小的作用;
图9为另一个实施例中当前个体观察不同相对位置的单个邻居的视距信息所产生的吸引力作用下的速度方向决策;
图10为另一个实施例中当前个体观察不同相对位置的单个邻居的视距信息所产生的吸引力作用下的速度大小决策;
图11为一个实施例中基于视觉感知的群体适应性行为控制装置的结构框图;
图12为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,提供了一种基于视觉感知的群体适应性行为控制方法,该方法包括以下步骤:
步骤100:获取群体中当前个体在当前位置的视域范围内其他个体和外界刺激的视觉图像信息。
视觉图像信息为个体参考坐标系下各相对方位下的视距;个体参考坐标系是以当前个体的速度为个体相对方位的0度方向,采用逆时针方向为相对方位正方向进行构建。个体参考坐标系如图2所示。个体以自身速度方向为基准方向,获取各相对方位φi对应的距离信息。
其中,群体是无人集群系统,可以是由多个无人机组成的群体,也可以是多个任务机器人组成的群体,在此不做具体限制,以任务机器人群体为例,任务机器人包括当前任务机器人和当前任务机器人视野范围内的其他任务机器人;当前任务机器人根据获取到的其他任务机器人和外界刺激的视距信息进行适应性行为控制。任务机器人上可以设置摄像头,用来获取环境图像信息,摄像头可以在各个自由度上旋转,从而可以获取到周围的环境信息,另外,摄像头可以是多个,分别负责确定视域范围内视距信息,从而通过拼接得到360度的视域范围的视距信息,因此,存在多种获取视域范围内其他个体的视觉图像信息的方式,本实施例对视觉图像信息获取的步骤不做具体限制。
本实施例考虑2维空间中位于位置ri直径为BL的N个移动的圆形个体,当前个体速度矢量vi可分解为速度大小vi和速度方向ψi,如图3所示。图3中个体i的动力学用位置ri和速度vi进行描述,且其速度方向ψi为速度向量与横轴的夹角。
步骤102:根据视觉图像信息,确定当前个体的视觉感知函数。
具体的,视觉感知函数是时间t时当前个体i获取到各相对方位φi处其他个体和外界刺激的视距。该视距信息不包含无穷远处的视距信息以及大于排斥力和吸引力区分阈值的外界刺激的视距信息。
步骤104:根据当前个体的速度和期望速度,确定当前个体的自推进力。
步骤106:根据视觉感知函数,确定当前个体的位置力。
具体的,当前个体的位置力是指当前个体受到其视野范围内其他个体视距信息所产生的吸引力或排斥力、当前个体受到其视野范围内观察到的外界刺激视距信息所产生的排斥力。
设置排斥力和吸引力区分阈值,将各相对方位处视觉感知函数与排斥力和吸引力区分阈值进行比较,得到比较结果,根据当前个体视野范围内各相对方位视距以及比较结果,确定当前个体的受到该相对方位视距信息所产生位置力的类型。具体为:当某相对方位处视觉感知函数大于排斥力和吸引力区分阈值时,该方位视距信息对当前个体的位置力为的吸引力;当某相对方位处视觉感知函数小于排斥力和吸引力区分阈值时,该方位视距信息对当前个体的位置力为排斥力。
步骤108:根据自推进力和位置力,确定当前个体的速度决策方程。
步骤110:根据当前个体的速度决策方程,确定当前个体当前时刻的速度信息。
步骤112:根据当前时刻的速度信息,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息。
上述基于视觉感知的群体适应性行为控制方法中,所述方法包括:获取群体中当前个体在当前位置的视域范围内其他个体和外界刺激的视觉图像信息;根据视觉图像信息,确定当前个体的视觉感知函数;根据当前个体的速度和期望速度,确定当前个体的自推进力;根据视觉感知函数,确定当前个体的位置力;根据自推进力和位置力,确定当前个体的速度决策方程;根据当前个体的速度决策方程,确定当前个体的当前时刻的速度信息;根据当前时刻的速度信息,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息。本方法从生物个体的视觉感知出发,以视觉信息作为输入构建个体间的交互方式,实现面对不同外界刺激下的群体适应性行为,提高无人集群对于刺激的适应性行为及能力。
在其中一个实施例中,视觉图像信息是当前个体根据逆时针方向为正方向,采用视觉感知方式以当前个体自身位置为中心以当前个体的速度为个体相对方位的0度方向获取360度范围内各相对方位的视距信息,当前个体对其他个体与外界刺激的各相对方位的视距信息进行区分;步骤102包括:根据视觉图像信息,得到其他个体与外界刺激的视觉信息;将无穷远处的视距信息以及大于排斥力和吸引力区分阈值的外界刺激的视距信息删除,得到当前个体的视觉感知函数。
Figure BDA0003739516620000091
其中
Figure BDA0003739516620000092
Figure BDA0003739516620000093
分别为平行和垂直于vi的单位向量。
具体的,在个体参考坐标系下,当前个体根据逆时针方向为正方向(φi>0)采用视觉感知方式获取以自身为中心周围φi∈[-π,π]范围内各相对方位的相对距离,如图4所示,其中深灰色和浅灰色区域分别代表排斥区域和吸引区域。然后,在判断过程中,当前个体对信息进行筛查,剔除掉无穷远处的视距以及大于排斥力和吸引力区分阈值的外界刺激的视距信息,从而得到图5或图6所示的视觉感知函数Dii,t)。其中,图5表示生物的高阶观察方式,该方式中生物个体可以对个体进行区分;相对应的,图6为生物的低阶观察方式,该方式中生物个体不可以对个体进行区分。在本方法中,个体仅对不同类别物体进行区分,而不对同类的不同物体进行区分,即个体只对外界刺激和其他个体进行区分。
在其中一个实施例中,步骤104包括:根据当前个体的速度和期望速度,确定当前个体的自推进力为:
Figure BDA0003739516620000101
其中,Find为自推进力,γ为自驱动常数,vo为期望速度大小,vi(t)为当前个体i在当前时间t的速度。自驱动Find用线性函数表示。
在其中一个实施例中,当前个体的位置力包括当前个体受到视野范围内各相对方位视距信息所产生的位置力;位置力分为排斥力和吸引力;步骤106包括:根据视觉感知函数,确定当前个体的位置力为:
Figure BDA0003739516620000102
其中,Fpos[Dii,t)]为当前个体i的位置力,Dii,t)为当前个体i在当前时间t获取到的视觉感知函数,d为排斥力和吸引力区分阈值,λ为吸引力与排斥力平衡参数,α和β分别用于控制当前个体的速度大小vi和速度方向ψi变化;φi为当前个体i的相对方位,通过设置cosφi和sinφi为位置力的一个因子来分别考虑位置力对速度大小vi和速度方向ψi变化的影响。
当排斥力和吸引力区分阈值大于当前个体i在当前时间t相对方位φi处视觉感知函数的视距信息时,则该相对方位的视距信息对当前个体i所产生的位置力为排斥力;因在视觉感知函数获取过程中将大于排斥力和吸引力区分阈值的外界刺激的视距信息删除,从而使得外界刺激视距信息对当前个体所产的位置力为排斥力;当排斥力和吸引力区分阈值小于当前个体i在当前时间t相对方位φi处视觉感知函数的视距信息时,则该相对方位的视距信息对当前个体i所产生的位置力为吸引力。
具体的,位置力Fpos以当前时间t获取到的视觉感知函数Dii,t)为输入,通过设置Dii,t)-d项,区分个体对于不同距离信息的排斥力和吸引力。当Dii,t)<d时,个体对相对方位φi的信息产生排斥决策,对应图4中的深灰色区域;当Dii,t)>d时,个体对相对方位φi的信息产生吸引决策,对应图4中的浅灰色区域。如图7所示,通过设置Dii,t)项中的λ,平衡排斥力和吸引力。图7为在d=2时,不同参数λ下,不同相对距离对应的位置力大小,其中深灰色和浅灰色分别对应排斥力和吸引力。
此外,为了考虑当前个体的速度大小变化和方向变化,以各方位信息在
Figure BDA0003739516620000111
Figure BDA0003739516620000112
方向上的投影cosφi和sinφi作为位置力Fpos的一个因子。通过该位置力建模方式,个体观察不同方位不同距离的单个邻居,产生了如图8-图10所示的速度方向和速度大小决策,图8-图10表示对于单个邻居个体,当前个体所受排斥力和吸引力分别对速度方向和速度大小的影响,图8中(a)为排斥力对速度方向的作用,图8中(b)为排斥力对速度大小的作用;在排斥力作用下,面对左侧或右侧的邻居,当前个体右转或左转;面对前面或后面的邻居,当前个体减速或加速;与之相反,在吸引力作用下,当前个体得到相反的决策结果。
作为优选,设置排斥和吸引力的距离区分阈值d=2。当个体间距离(视觉感知函数)小于d时,因排斥力作用,应对位于左侧或右侧的邻居,当前个体i分别进行右转或左转决策;而应对位于前面或后面的邻居,当前个体i分别进行减速或加速决策。相反的,当个体间距离大于d时,因吸引力作用,当前个体i分别产生相反的决策。在当前个体进行决策时,其他个体所被观察到的信息会根据Dii,t)与d产生排斥力或吸引力;而在视觉感知函数中仅包含Dii,t)<d时的外界刺激信息,因此其只会产生排斥力。
在其中一个实施例中,步骤108包括:根据自推进力和位置力,确定当前个体的速度决策方程为:
Figure BDA0003739516620000113
其中,
Figure BDA0003739516620000114
为当前个体的速度变化,Find(vi)为当前个体i的自推进力,Fpos[Dii,t)]为当前个体i的位置力,Dii,t)为当前个体i在当前时间t获取到的视觉感知函数,φi为当前个体i的相对方位,vi(t)为当前个体i在当前时间t的速度。
在其中一个实施例中,步骤:根据当前个体的速度决策方程,确定当前个体当前时刻的速度信息,包括:将当前个体的速度决策方程向速度平行方向和垂直方向进行投影,得到当前个体的速度大小决策方程和速度方向决策方程。
当前个体的速度大小决策方程为:
Figure BDA0003739516620000121
当前个体的方向决策方程为:
Figure BDA0003739516620000122
其中,
Figure BDA0003739516620000123
为平行于当前个体i在当前时间t的速度的单位向量,
Figure BDA0003739516620000124
垂直于当前个体i在当前时间t的速度的单位向量,vo为期望速度大小,vi(t)为当前个体i在当前时间t的速度大小,α和β分别为控制当前个体的速度大小vi和速度方向ψi的变化控制常数;φi为当前个体i的相对方位;Dii,t)为当前个体i在当前时间t获取到的视觉感知函数,vi(t)为当前个体i在当前时间t的速度,d为排斥力和吸引力区分阈值,λ为吸引力与排斥力平衡参数,ψi(t)为当前个体i在当前时间t的速度方向。
具体的,在力学领域,物体的瞬时速度大小变化由切向力决定,而物体的瞬时方向变化由法向力决定。因此,将个体受力向速度平行方向和垂直方向进行投影,得到当前个体的速度大小决策方程和速度方向决策方程。
在其中一个实施例中,步骤110包括:根据当前时刻的速度信息,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息;根据当前个体的速度大小变化值和速度方向变化值,确定当前个体的位置变化,得到当前个体的位置驱动方程;当前个体的位置驱动方程为:
Figure BDA0003739516620000125
Figure BDA0003739516620000126
其中,
Figure BDA0003739516620000127
当前个体i的位置变化。
具体的,决策过程中,当前个体根据视觉感知函数对速度大小和速度方向进行决策。最后,当前个体在驱动过程中,以此速度进行位移。
在具体的仿真过程中,将当前个体的位置驱动方程、速度大小决策方程和速度方向决策方程离散化,得到个体速度与位置的关系式的离散表达式,根据个体速度信息与位置信息的关系式的离散表达式,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
个体速度与位置的关系式的离散表达式为:
Figure BDA0003739516620000131
其中,Δt为离散化时间间隔。
具体的,通过该模型方程设计构建的无人集群,个体通过视觉观察外界信息,对于外界刺激个体因排斥力作用受到干扰,而个体间会通过成对的排斥力或吸引力的作用引导群体自组织的适应外界环境,从而达到新的平衡状态。
本方法贴合生物的实际感知方式,对生物个体的视觉感知方式进行建模,并以视觉信息作为输入,构建模型实现群体对于外界刺激的适应性行为。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图11所示,提供了一种基于视觉感知的群体适应性行为控制装置,包括:视觉感知模块、视觉图像信息处理模块、决策模块和驱动模块,其中:
视觉感知模块,用于获取群体中当前个体在当前位置的视域范围内其他个体和外界刺激的视觉图像信息;视觉图像信息为个体参考坐标系下各相对方位下的视距;个体参考坐标系是以当前个体的速度为个体相对方位的0度方向,采用逆时针方向为相对方位正方向进行构建。
视觉图像信息处理模块,用于根据视觉图像信息,确定当前个体的视觉感知函数;
决策模块,用于根据当前个体的速度和期望速度,确定当前个体的自推进力;根据视觉感知函数,确定当前个体的位置力;根据自推进力和位置力,确定当前个体的速度决策方程;根据当前个体的速度决策方程,确定当前个体当前时刻的速度信息。
驱动模块,用于根据速度信息,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息。
在其中一个实施例中,视觉图像信息是当前个体根据逆时针方向为正方向,采用视觉感知方式以当前个体自身位置为中心以当前个体的速度为个体相对方位的0度方向获取360度范围内各相对方位的视距信息,当前个体对其他个体与外界刺激的各相对方位的视距信息进行区分;视觉图像信息处理模块,还用于将无穷远处的视距信息以及大于排斥力和吸引力区分阈值的外界刺激的视距信息删除,得到当前个体的视觉感知函数。
在其中一个实施例中,决策模块,还用于根据当前个体的速度和期望速度,确定当前个体的自推进力,当前个体的自推进力的表达式如式(2)所示。
在其中一个实施例中,当前个体的位置力包括当前个体受到视野范围内其他个体和外界刺激视距信息所产生的位置力;位置力分为排斥力和吸引力;决策模块,还用于根据视觉感知函数,确定当前个体的位置力,当前个体的位置力的表达式如式(3)所示。
当排斥力和吸引力区分阈值大于当前个体i在当前时间t相对方位φi处视觉感知函数的视距信息时,则该相对方位的视距信息对当前个体i所产生的位置力为排斥力;因在视觉感知函数获取过程中将大于排斥力和吸引力区分阈值的外界刺激的视距信息删除,从而使得外界刺激的视距信息对当前个体所产的位置力仅为排斥力;当排斥力和吸引力区分阈值小于当前个体i在当前时间t相对方位φi处视觉感知函数的视距信息时,则该相对方位的视距信息对当前个体i所产生的位置力为吸引力。
在其中一个实施例中,决策模块,还用于根据自推进力和位置力,确定当前个体的速度决策方程,当前个体的速度决策方程如式(4)所示。
在其中一个实施例中,决策模块,还用于将当前个体的速度决策方程向速度平行方向和垂直方向进行投影,得到当前个体的速度大小决策方程和方向决策方程。
当前个体的速度大小决策方程如式(5)所示。
当前个体的方向决策方程如式(6)所示。
在其中一个实施例中,决策模块,还用于根据当前个体的速度大小变化值和速度方向变化值,确定当前个体的位置变化,得到当前个体的位置驱动方程;当前个体的位置驱动方程如式(7)所示。
关于基于视觉感知的群体适应性行为控制装置的具体限定可以参见上文中对于基于视觉感知的群体适应性行为控制方法的限定,在此不再赘述。上述基于视觉感知的群体适应性行为控制装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图12所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于视觉感知的群体适应性行为控制方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图12中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现上述方法实施例中方法的步骤。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种基于视觉感知的群体适应性行为控制方法,其特征在于,所述方法包括:
获取群体中当前个体在当前位置的视域范围内其他个体和外界刺激的视觉图像信息;所述视觉图像信息为个体参考坐标系下各相对方位下的视距;所述个体参考坐标系是以当前个体的速度为个体相对方位的0度方向,采用逆时针方向为相对方位正方向进行构建;
根据所述视觉图像信息,确定当前个体的视觉感知函数;
根据当前个体的速度和期望速度,确定当前个体的自推进力;
根据所述视觉感知函数,确定当前个体的位置力;
根据所述自推进力和所述位置力,确定当前个体的速度决策方程;
根据当前个体的速度决策方程,确定当前个体当前时刻的速度信息;
根据当前时刻的速度信息,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息。
2.根据权利要求1所述的方法,其特征在于,所述视觉图像信息是当前个体根据逆时针方向为正方向,采用视觉感知方式以当前个体自身位置为中心以当前个体的速度为个体相对方位的0度方向获取360度范围内各相对方位的视距信息,当前个体对其他个体与外界刺激的各相对方位的视距信息进行区分;
根据所述视觉图像信息,确定当前个体的视觉感知函数,包括:
将无穷远处的视距信息以及大于排斥力和吸引力区分阈值的外界刺激的视距信息删除,得到当前个体的视觉感知函数。
3.根据权利要求1所述的方法,其特征在于,根据当前个体的速度和期望速度,确定当前个体的自推进力,包括:
根据当前个体的速度和期望速度,确定当前个体的自推进力为:
Figure FDA0003739516610000011
其中,Find为自推进力,γ为自驱动常数,vo为期望速度大小,vi(t)为当前个体i在当前时间t的速度大小。
4.根据权利要求1所述的方法,其特征在于,所述当前个体的位置力包括当前个体受到视野范围内其他个体和外界刺激视距信息所产生的位置力;所述位置力分为排斥力和吸引力;
根据所述视觉感知函数,确定当前个体的位置力,包括:
根据所述视觉感知函数,确定当前个体的位置力为:
Figure FDA0003739516610000021
其中,Fpos[Dii,t)]为当前个体i的位置力,Dii,t)为当前个体i在当前时间t获取到的视觉感知函数,d为排斥力和吸引力区分阈值,λ为吸引力与排斥力平衡参数,α和β分别用于控制当前个体的速度大小vi和速度方向ψi变化,φi为当前个体i的相对方位,通过设置cosφi和sinφi为位置力的一个因子来分别考虑位置力对速度大小vi和速度方向ψi变化的影响;
当所述排斥力和吸引力区分阈值大于当前个体i在当前时间t相对方位φi处视觉感知函数的视距信息时,则该相对方位的视距信息对当前个体i所产生的位置力为排斥力;因在视觉感知函数获取过程中将大于排斥力和吸引力区分阈值的外界刺激的视距信息删除,从而使得外界刺激的视距信息对当前个体所产的位置力仅为排斥力;
当所述排斥力和吸引力区分阈值小于当前个体i在当前时间t相对方位φi处视觉感知函数的视距信息时,则该相对方位的视距信息对当前个体i所产生的位置力为吸引力。
5.根据权利要求1所述的方法,其特征在于,根据所述自推进力和所述位置力,确定当前个体的速度决策方程,包括:
根据所述自推进力和所述位置力,确定当前个体的速度决策方程为:
Figure FDA0003739516610000022
其中,
Figure FDA0003739516610000023
为当前个体的速度变化,Find(vi)为当前个体i的自推进力,Fpos[Dii,t)]为当前个体i的位置力,Dii,t)为当前个体i在当前时间t获取到的视觉感知函数,φi为当前个体i的相对方位,vi(t)为当前个体i在当前时间t的速度。
6.根据权利要求5所述的方法,其特征在于,根据当前个体的速度决策方程,确定当前个体当前时刻的速度信息,包括:
将当前个体的速度决策方程向速度平行方向和垂直方向进行投影,得到当前个体的速度大小决策方程和方向决策方程;
所述当前个体的速度大小决策方程为:
Figure FDA0003739516610000031
所述当前个体的方向决策方程为:
Figure FDA0003739516610000032
其中,
Figure FDA0003739516610000033
为平行于当前个体i在当前时间t的速度的单位向量,
Figure FDA0003739516610000034
垂直于当前个体i在当前时间t的速度的单位向量,vo为期望速度大小,vi(t)为当前个体i在当前时间t的速度大小,α和β分别为控制当前个体的速度大小vi和速度方向ψi的变化控制常数;φi为当前个体i的相对方位;Dii,t)为当前个体i在当前时间t获取到的视觉感知函数,vi(t)为当前个体i在当前时间t的速度,d为排斥力和吸引力区分阈值,λ为吸引力与排斥力平衡参数,ψi(t)为当前个体i在当前时间t的速度方向。
7.根据权利要求6所述的方法,其特征在于,根据当前时刻的速度信息,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息,包括:
根据当前个体的速度大小变化值和速度方向变化值,确定当前个体的位置变化,得到当前个体的位置驱动方程;所述当前个体的位置驱动方程为:
Figure FDA0003739516610000035
Figure FDA0003739516610000036
其中,
Figure FDA0003739516610000037
当前个体i的位置变化。
8.一种基于视觉感知的群体适应性行为控制装置,其特征在于,所述装置包括:
视觉感知模块,用于获取群体中当前个体在当前位置的视域范围内其他个体和外界刺激的视觉图像信息;所述视觉图像信息为个体参考坐标系下各相对方位下的视距;所述个体参考坐标系是以当前个体的速度为个体相对方位的0度方向,采用逆时针方向为相对方位正方向进行构建;
视觉图像信息处理模块,用于根据所述视觉图像信息,确定当前个体的视觉感知函数;
决策模块,用于根据当前个体的速度和期望速度,确定当前个体的自推进力;根据所述视觉感知函数,确定当前个体的位置力;根据所述自推进力和所述位置力,确定当前个体的速度决策方程;根据当前个体的速度决策方程,确定当前个体当前时刻的速度信息;
驱动模块,用于根据所述速度信息,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息。
9.根据权利要求8所述的装置,其特征在于,所述视觉图像信息是当前个体根据逆时针方向为正方向,采用视觉感知方式以当前个体自身位置为中心以当前个体的速度为个体相对方位的0度方向获取360度范围内各相对方位的视距信息,当前个体对其他个体与外界刺激的各相对方位的视距信息进行区分;视觉图像信息处理模块,还用于将无穷远处的视距信息以及大于排斥力和吸引力区分阈值的外界刺激的视距信息删除,得到当前个体的视觉感知函数。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
CN202210808707.XA 2022-07-11 2022-07-11 基于视觉感知的群体适应性行为控制方法、装置和设备 Pending CN115202392A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210808707.XA CN115202392A (zh) 2022-07-11 2022-07-11 基于视觉感知的群体适应性行为控制方法、装置和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210808707.XA CN115202392A (zh) 2022-07-11 2022-07-11 基于视觉感知的群体适应性行为控制方法、装置和设备

Publications (1)

Publication Number Publication Date
CN115202392A true CN115202392A (zh) 2022-10-18

Family

ID=83579670

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210808707.XA Pending CN115202392A (zh) 2022-07-11 2022-07-11 基于视觉感知的群体适应性行为控制方法、装置和设备

Country Status (1)

Country Link
CN (1) CN115202392A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115576359A (zh) * 2022-12-08 2023-01-06 中国人民解放军国防科技大学 基于视觉感知的无人集群行为控制方法、装置和电子设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115576359A (zh) * 2022-12-08 2023-01-06 中国人民解放军国防科技大学 基于视觉感知的无人集群行为控制方法、装置和电子设备
CN115576359B (zh) * 2022-12-08 2023-03-07 中国人民解放军国防科技大学 基于视觉感知的无人集群行为控制方法、装置和电子设备

Similar Documents

Publication Publication Date Title
CN110363058B (zh) 使用单触发卷积神经网络的用于避障的三维对象定位
Xu et al. Densephysnet: Learning dense physical object representations via multi-step dynamic interactions
CN109298629B (zh) 在未绘制地图区域中引导移动平台的系统及方法
Khan et al. Cooperative robots to observe moving targets
Morsly et al. Particle swarm optimization inspired probability algorithm for optimal camera network placement
Hepp et al. Learn-to-score: Efficient 3d scene exploration by predicting view utility
AU2018368279A1 (en) Meta-learning for multi-task learning for neural networks
Koch et al. Multi-robot localization and mapping based on signed distance functions
CN111027442A (zh) 用于行人重识别的模型训练方法、识别方法、装置及介质
CN109255749B (zh) 自主和非自主平台中的地图构建优化
Huang et al. Multitarget visual tracking based effective surveillance with cooperation of multiple active cameras
CN115202392A (zh) 基于视觉感知的群体适应性行为控制方法、装置和设备
Rossi et al. A new challenge: Behavioural analysis of 6-DoF user when consuming immersive media
Zangeneh et al. A probabilistic framework for visual localization in ambiguous scenes
Meng et al. LIVS: Local interaction via virtual stigmergy coordination in distributed search and collective cleanup
Andrew et al. Deep learning for exploration and recovery of uncharted and dynamic targets from uav-like vision
CN113723164A (zh) 获取边缘差异信息的方法、装置、设备及存储介质
CN112527104A (zh) 确定参数确定方法、装置、设备及存储介质
US7983878B1 (en) Two-stage dynamic track grouping
CN111882577B (zh) 基于视场感知的群体避障与一致性行进方法和装置
CN110751869B (zh) 一种基于对抗鉴别式迁移法的拟态环境与战场态势策略转移技术
Hettiarachchi Distributed evolution for swarm robotics
LaViola Jr et al. Analyzing slam algorithm performance for tracking in augmented reality systems
Capi et al. A vision based robot navigation and human tracking for social robotics
CN115576359B (zh) 基于视觉感知的无人集群行为控制方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination