CN112001937A - 基于视场感知的群体追逐与逃逸方法和装置 - Google Patents

基于视场感知的群体追逐与逃逸方法和装置 Download PDF

Info

Publication number
CN112001937A
CN112001937A CN202010930975.XA CN202010930975A CN112001937A CN 112001937 A CN112001937 A CN 112001937A CN 202010930975 A CN202010930975 A CN 202010930975A CN 112001937 A CN112001937 A CN 112001937A
Authority
CN
China
Prior art keywords
individuals
item
current individual
individual
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010930975.XA
Other languages
English (en)
Other versions
CN112001937B (zh
Inventor
肖延东
齐景涛
白亮
老松杨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202010930975.XA priority Critical patent/CN112001937B/zh
Publication of CN112001937A publication Critical patent/CN112001937A/zh
Application granted granted Critical
Publication of CN112001937B publication Critical patent/CN112001937B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/80Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
    • Y02A40/81Aquaculture, e.g. of fish

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及一种基于视场感知的群体追逐与逃逸方法和装置。所述方法包括:获取种群中当前个体的环境图像信息;以当前个体为中心,根据环境图像信息设置距离感知区域;采用边缘检测方式确定距离感知区域中其他个体相对于当前个体的角度区间;根据同类个体间的速度信息,确定当前个体的自推进校准项;根据同类个体间的角度区间,确定当前个体的排斥项;根据不同类别个体间的角度区间,确定当前个体的逃逸项或追逐项;根据自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程;根据运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。采用本方法能够实现非常好的种群逃逸和追逐效果。

Description

基于视场感知的群体追逐与逃逸方法和装置
技术领域
本申请涉及图像视觉技术领域,特别是涉及一种基于视场感知的群体追逐与逃逸方法和装置。
背景技术
广泛存在于各种生物中的群体行为使得我们为之着迷,相关与群体行为研究涉及鱼群,鸟群,蝗虫群,细菌群落,微管群,组织细胞群,车流和人群。个体间相对简单的局部交互产生诸如此类协调有序的群体行为。通过这种方法,生物群体可以在各种情况下展现出单个体无法实现的各种智能特性(分布,自适应和鲁棒性)。明显的行为模式(例如聚集,避障,群体追捕和逃避)以具有凝聚力和高度连贯的群体被观察到。该领域的研究目的是从个体和群体层面上解释与上述模式相似的复杂行为,进一步将生物群体所展现的这些智能特性赋予人工集群系统。因此,作为交叉学科,群体行为建模和机制探索是一个充满挑战的重点领域。
在过去的几十年中,几种模型(例如,基于规则的模型,随机旋转模型和Boids模型)已经提出来研究群体行为。经典的群体行为模型往往基于3个简单的行为规则:分离(避免局部邻居拥挤),校准(朝向邻居的平均速度方向)和内聚(向邻居的平均位置移动),此类模型最初用来定量定性的分析鱼群和鸟群中观察到的群体行为。属于这种类型的模型的随机旋转模型和Boids模型分别由Aoki和Reynolds提出。作为Boids模型的特例,物理学家提出的Vicesk模型考虑了个体间的速度校准以探索最简单的群体行为产生条件。后来,由生物学家提出的Couzin模型在理论生物学中得到广泛应用,并扩展到群体机器人技术的协调控制中。
从现象学角度出发构建的上述模型近年来已基本成熟,在此类模型中个体根据获取到的邻居的位置和速度信息基于三个简单的行为规则进行交互,这种方法仅关注到了实际生物群体的决策和驱动机制,从而导致拓展大奥群体机器人技术的协调控制时效果不佳。
发明内容
基于此,有必要针对上述技术问题,提供一种能够解决问题的一种基于群体避障的一致性行进方法、装置和计算机设备。
一种基于群体避障的一致性行进方法,所述方法包括:
获取种群中当前个体的环境图像信息;所述种群中包括:追逐个体与逃逸个体;所述环境图像信息中包含种群中其他个体的位置信息与速度信息;
以当前个体为中心,根据所述环境图像信息设置距离感知区域;所述距离感知区域为预设半径的圆形区域;
采用边缘检测方式确定所述距离感知区域中其他个体相对于当前个体的角度区间;
根据同类个体间的速度信息,确定当前个体的自推进校准项;
根据同类个体间的所述角度区间,确定当前个体的排斥项;
根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,当前个体为逃逸个体时为逃逸项;
根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程;
根据所述运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
在其中一个实施例中,还包括:采用边缘检测方式确定所述距离感知区域中每个其他个体相对于当前个体的个体角度区间;
对所述个体角度区间去并集,得到所述距离感知区域中其他个体相对于当前个体的角度区间。
在其中一个实施例中,还包括:根据所述环境信息图像,确定当前个体的视野被遮挡的角度区间;将所述角度区间对应的值设置为1,将其他区间的值设置为0;根据角度区间和其他区间对应的值,得到当前个体的排斥感知函数和吸引感知函数。
在其中一个实施例中,还包括:根据同类个体间的速度信息,确定当前个体的自推进校准项为:
Figure BDA0002670229030000031
其中,val i(t)表示自推进校准项,j∈Sal i表示所述距离感知区域中的其他个体;vj(t)表示其他个体的速度。
在其中一个实施例中,还包括:根据同类个体间的所述角度区间,确定当前个体的排斥项:
Figure BDA0002670229030000032
其中,
Figure BDA0002670229030000033
表示排斥项,
Figure BDA0002670229030000034
表示同类个体间的所述角度区间左边界值,
Figure BDA0002670229030000035
表示同类个体间的所述角度区间右边界值,
Figure BDA0002670229030000036
表示同类个体间的所述角度区间数目。
在其中一个实施例中,还包括:根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项为:
Figure BDA0002670229030000037
Figure BDA0002670229030000038
其中,
Figure BDA0002670229030000039
表示追逐项或逃逸项,
Figure BDA00026702290300000310
表示不同类别个体间所述角度区间数目,
Figure BDA00026702290300000311
表示不同类别个体间所述角度区间左边界值,
Figure BDA00026702290300000312
表示不同类别个体间所述角度区间右边界值。
在其中一个实施例中,还包括:根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程为:
Figure BDA00026702290300000313
其中,φalrepCT=1,φal、φrep以及φCT表示所述自推进校准项、排斥项以及逃逸项或追逐项的系数,
Figure BDA0002670229030000041
表示t+Δt时刻的速度信息。
在其中一个实施例中,根据所述运动决策方程,确定个体速度信息与位置信息的关系式为:
ri(t+Δt)=ri(t)+vi(t+Δt)Δt
Figure BDA0002670229030000042
其中,vc表示个体速度信息中追逐个体的速度信息,vt表示个体速度信息中逃逸个体的速度信息;
根据个体速度信息与位置信息的关系式,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
一种基于群体避障的一致性行进装置,所述装置包括:
视场感知模块,用于获取种群中当前个体的环境图像信息;所述种群中包括:追逐个体与逃逸个体;所述环境图像信息中包含种群中其他个体的位置信息与速度信息;
距离检测模块,用于以当前个体为中心,根据所述环境图像信息设置距离感知区域;所述距离感知区域为预设半径的圆形区域;采用边缘检测方式确定所述距离感知区域中其他个体相对于当前个体的角度区间;
决策模块,用于根据同类个体间的速度信息,确定当前个体的自推进校准项;根据同类个体间的所述角度区间,确定当前个体的排斥项;根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,当前个体为逃逸个体时为逃逸项;
驱动模块,用于根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程;根据所述运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取种群中当前个体的环境图像信息;所述种群中包括:追逐个体与逃逸个体;所述环境图像信息中包含种群中其他个体的位置信息与速度信息;
以当前个体为中心,根据所述环境图像信息设置距离感知区域;所述距离感知区域为预设半径的圆形区域;
采用边缘检测方式确定所述距离感知区域中其他个体相对于当前个体的角度区间;
根据同类个体间的速度信息,确定当前个体的自推进校准项;
根据同类个体间的所述角度区间,确定当前个体的排斥项;
根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,当前个体为逃逸个体时为逃逸项;
根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程;
根据所述运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取种群中当前个体的环境图像信息;所述种群中包括:追逐个体与逃逸个体;所述环境图像信息中包含种群中其他个体的位置信息与速度信息;
以当前个体为中心,根据所述环境图像信息设置距离感知区域;所述距离感知区域为预设半径的圆形区域;
采用边缘检测方式确定所述距离感知区域中其他个体相对于当前个体的角度区间;
根据同类个体间的速度信息,确定当前个体的自推进校准项;
根据同类个体间的所述角度区间,确定当前个体的排斥项;
根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,当前个体为逃逸个体时为逃逸项;
根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程;
根据所述运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
上述基于视场感知的群体追逐与逃逸方法和装置,以种群中个体为出发点,获取种群中当前个体的环境图像信息,种群中包括:追逐个体与逃逸个体,不同个体其决策的状态不同,即逃逸个体决策时,侧重逃逸项,追逐个体决策时,侧重追逐项,环境图像信息中包含种群中其他个体的位置信息与速度信息,然后以当前个体为中心,通过设置的距离感知区域,确定其他个体与当前个体的距离,然后计算各个驱动项,最终确定决策方程,上述方案进行群体追逐时,即可以保证不同个体在追逐和逃逸时,效果更接近于生物种群,从而利于扩展到群体机器人技术的协调控制中。
附图说明
图1为一个实施例中基于视场感知的群体追逐与逃逸方法的示意性流程图;
图2为一个实施例中距离感知区域的示意图;
图3为一个实施例中基于视场感知的群体追逐与逃逸装置的结构图;
图4为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,提供了一种基于群体避障的一致性行进方法,包括以下步骤:
步骤102,获取种群中当前个体的环境图像信息。
种群中包括:追逐个体与逃逸个体,环境图像信息中包含种群中其他个体的位置信息与速度信息。
种群可以是多个无人机组成的种群,也可以是多个任务机器人组成的种群,在此不做具体限制,以无人机种群为例,无人机包括捕食无人机和逃逸无人机,捕食无人机对逃逸无人机进行捕获,在行进过程中也需要确保个体之间不发生碰撞。无人机上可以设置摄像头,用来获取环境图像信息,摄像头可以在各个自由度上旋转,从而可以获取到周围的环境信息,另外,摄像头可以是多个,分别负责确定视场内的环境图像,从而通过拼接得到360度的环境图像信息,因此,存在多种获取环境图像信息的方式,本实施例对环境图像信息获取的步骤不做具体限制。
具体在得到环境图像之后,可以对图像进行处理,确定出环境图像中的障碍物以及其他个体的位置信息和速度信息,并进行标记,得到环境图像信息。
步骤104,以当前个体为中心,根据环境图像信息设置距离感知区域。
距离感知区域为预设半径的圆形区域。
具体的,距离感知区域如图2所示,一般设置为圆形,考虑到与当前个体具体为r的范围内的其他个体影响到当前个体的运动决策,具体如图2所示。
步骤106,采用边缘检测方式确定所述距离感知区域中其他个体相对于当前个体的角度区间。
边缘检测方式检测当前个体到其他个体边缘所形成的角度,构建角度区间,由于距离感知区域中可能存在多个其他个体,因此还需要考虑角度区间之间的叠加,从而得到最终的角度区间。
当其他个体的大小确定时,当前个体与其他个体的距离越近,角度区间越大,以及,当其他个体叠加数量越多时,角度区间也越大,因此,通过角度区间,确定的个体之间的排斥、追逐与逃逸,效果非常好。
步骤108,根据同类个体间的速度信息,确定当前个体的自推进校准项,根据同类个体间的角度区间,确定当前个体的排斥项,根据不同类别个体间的角度区间,确定当前个体的逃逸项或追逐项。
当前个体为追逐个体时为追逐项,当前个体为逃逸个体时为逃逸项。
步骤110,根据自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程,根据运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
上述基于视场感知的群体避障与一致性行进方法中,以种群中个体为出发点,获取种群中当前个体的环境图像信息,种群中包括:追逐个体与逃逸个体,不同个体其决策的状态不同,即逃逸个体决策时,侧重逃逸项,追逐个体决策时,侧重追逐项,环境图像信息中包含种群中其他个体的位置信息与速度信息,然后以当前个体为中心,通过设置的距离感知区域,确定其他个体与当前个体的距离,然后计算各个驱动项,最终确定决策方程,上述方案进行群体追逐时,即可以保证不同个体在追逐和逃逸时,效果更接近于生物种群,从而利于扩展到群体机器人技术的协调控制中。
在其中一个实施例中,采用边缘检测方式确定距离感知区域中每个其他个体相对于当前个体的个体角度区间,对个体角度区间去并集,得到距离感知区域中其他个体相对于当前个体的角度区间。
具体的,考虑捕食者(或追逐者C)和猎物(或目标T)的两类生物。在仿真中,追逐者的数量Nc是恒定的,而目标数量Nt由于捕获事件而随时间减少。个体通过其在二维位置r和速度v向量来描述。我们考虑N=Nc+Nt(0)半径为BL的圆形个体,并在具有周期性边界条件的边长为L的正方形场景中进行仿真,该边长取决于密度ρ上,即
Figure BDA0002670229030000081
其中Nt(0)是初始目标数量。
个体i获取其他个体的速度和视觉信息。模型中考虑了个体的自推进,同类个体间的校准和排斥以及异类个体间的追逐(或逃逸)项。对于自推进和校准项,其获取自身周围r0范围内其他个体的速度信息,即
Figure BDA0002670229030000082
对于排斥和逃逸(或追逐)项,可以获得该范围内同类或异类个体的视觉信息。在高等动物的视觉皮层中边缘检测的进行已经被证明,因此视觉信息可以合理地表示为θi。因仿真过程中很难再现现实世界中生物的视觉感知,因此我们基于每个个体的位置信息计算其边缘检测为角度区间,然后考虑不同个体视觉信息的重叠以获得这些区间的并集,其并集后的区间边界用于近似边缘检测结果。
在其中一个实施例中,根据同类个体间的速度信息,确定当前个体的自推进校准项为:
Figure BDA0002670229030000091
其中,val i(t)表示自推进校准项,j∈Sal i表示所述距离感知区域中的其他个体;vj(t)表示其他个体的速度。
本实施例中,通过自推进校准项可以实现相同类型个体间的一致性特点。
在另一个实施例中,根据同类个体间的所述角度区间,确定当前个体的排斥项:
Figure BDA0002670229030000092
其中,
Figure BDA0002670229030000093
表示排斥项,
Figure BDA0002670229030000094
表示同类个体间的所述角度区间左边界值,
Figure BDA0002670229030000095
表示同类个体间的所述角度区间右边界值,
Figure BDA0002670229030000096
表示同类个体间的所述角度区间的数目。
具体的,获取的视觉信息为输入考虑了同类个体间交互以避免局部邻居间拥挤。
在其中一个实施例中,根据不同类别个体间的角度区间,确定当前个体的逃逸项或追逐项为:
Figure BDA0002670229030000097
Figure BDA0002670229030000098
其中,
Figure BDA0002670229030000099
表示追逐项或逃逸项,
Figure BDA00026702290300000910
表示不同类别个体间的所述角度区间的数目,
Figure BDA00026702290300000911
表示不同类别个体间所述角度区间左边界值,
Figure BDA00026702290300000912
表示不同类别个体间所述角度区间右边界值。
本实施例中,获取的视觉信息为输入考虑了异类个体间交互。方程中最后两项以角度区间中心单位向量的投影(
Figure BDA00026702290300000913
Figure BDA00026702290300000914
)来表征方向于速度的影响。个体间距离越近,角度区间角度越大,角度区间角度反映了个体间的距离。因此,对角度区间进行加权平均以表征距离的影响。
在其中一个实施例中,根据自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程为:
Figure BDA0002670229030000101
其中,φalrepCT=1,φal、φrep以及φCT表示所述自推进校准项、排斥项以及逃逸项或追逐项的系数,
Figure BDA0002670229030000102
表示t+Δt时刻的速度信息。
在其中一个实施例中,根据运动决策方程,确定个体速度信息与位置信息的关系式为:
ri(t+Δt)=ri(t)+vi(t+Δt)Δt
Figure BDA0002670229030000103
其中,vc表示个体速度信息中追逐个体的速度信息,vt表示个体速度信息中逃逸个体的速度信息;
根据个体速度信息与位置信息的关系式,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
其中,Δt为时间变化量,将时间t的上限设置为tmax
在其中一个实施例中,定义如下分别代表群体追捕和逃逸问题不同方面得指标。目标在仿真过程中会被消除,因此只考虑追逐者得如下指标。
对于群体逐步和逃逸问题,指标总捕获时间tend表示全部目标被捕获(Nt(t)=0),其对于衡量追逐者或目标得捕获快慢非常关键。在仿真过程中,无论是t=tend还是t=tmax,仿真都将被中止。
设置指标
Figure BDA0002670229030000104
以评估追逐者群体的一致性(朝同一方向移动:
Figure BDA0002670229030000105
Figure BDA0002670229030000106
越接近1,群体的一致性就越好。然而,对于群体追捕和逃逸问题,追逐着会追捕不同的目标,在这种情况下,其以子群进行运动。因此,有必要观察其子群数目
Figure BDA0002670229030000107
为了定义子群,我们定义了由节点(追逐者)和边。如果两个追逐者间距离小于r0,那么其间存在连边。这样
Figure BDA0002670229030000108
表示追逐者交互网络的联通子图个数。
为评估追逐者间的聚集性,我们提出了平均最近邻居间距离
Figure BDA0002670229030000109
如下
Figure BDA0002670229030000111
其中dij(t)为追逐者i和j之间的距离。
应该理解的是,虽然流程图1中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
如图3所示,在一个实施例中,提供了一种基于视场感知的群体追逐与逃逸装置,包括:
视场感知模块302,用于获取种群中当前个体的环境图像信息;所述种群中包括:追逐个体与逃逸个体;所述环境图像信息中包含种群中其他个体的位置信息与速度信息;
距离检测模块304,用于以当前个体为中心,根据所述环境图像信息设置距离感知区域;所述距离感知区域为预设半径的圆形区域;采用边缘检测方式确定所述距离感知区域中其他个体相对于当前个体的角度区间;
决策模块306,用于根据同类个体间的速度信息,确定当前个体的自推进校准项;根据同类个体间的所述角度区间,确定当前个体的排斥项;根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,当前个体为逃逸个体时为逃逸项;
驱动模块308,用于根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程;根据所述运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
在其中一个实施例中,距离检测模块304还用于采用边缘检测方式确定所述距离感知区域中每个其他个体相对于当前个体的个体角度区间;对所述个体角度区间去并集,得到所述距离感知区域中其他个体相对于当前个体的角度区间。
在其中一个实施例中,决策模块306还用于根据同类个体间的速度信息,确定当前个体的自推进校准项为:
Figure BDA0002670229030000121
其中,val i(t)表示自推进校准项,j∈Sal i表示所述距离感知区域中的其他个体;vj(t)表示其他个体的速度。
在其中一个实施例中,决策模块306还用于根据同类个体间的所述角度区间,确定当前个体的排斥项:
Figure BDA0002670229030000122
其中,
Figure BDA0002670229030000123
表示排斥项,
Figure BDA0002670229030000124
表示同类个体间的所述角度区间左边界值,
Figure BDA0002670229030000125
表示同类个体间的所述角度区间右边界值,
Figure BDA0002670229030000126
表示同类个体间的所述角度区间的数目。
在其中一个实施例中,决策模块306还用于根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项为:
Figure BDA0002670229030000127
Figure BDA0002670229030000128
其中,
Figure BDA0002670229030000129
表示追逐项或逃逸项,
Figure BDA00026702290300001210
表示不同类别个体间的所述角度区间的数目,
Figure BDA00026702290300001211
表示不同类别个体间所述角度区间左边界值,
Figure BDA00026702290300001212
表示不同类别个体间所述角度区间右边界值。
在其中一个实施例中,决策模块306还用于根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程为:
Figure BDA0002670229030000131
其中,φalrepCT=1,φal、φrep以及φCT表示所述自推进校准项、排斥项以及逃逸项或追逐项的系数,
Figure BDA0002670229030000132
表示t+Δt时刻的速度信息。
在其中一个实施例中,驱动模块308还用于根据所述运动决策方程,确定个体速度信息与位置信息的关系式为:
ri(t+Δt)=ri(t)+vi(t+Δt)Δt
Figure BDA0002670229030000133
其中,vc表示个体速度信息中追逐个体的速度信息,vt表示个体速度信息中逃逸个体的速度信息,根据个体速度信息与位置信息的关系式,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
关于基于视场感知的群体追逐与逃逸装置的具体限定可以参见上文中对于基于视场感知的群体追逐与逃逸方法的限定,在此不再赘述。上述基于视场感知的群体追逐与逃逸装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图4所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于视场感知的群体追逐与逃逸方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图4中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现上述实施例中方法的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种基于视场感知的群体追逐与逃逸方法,所述方法包括:
获取种群中当前个体的环境图像信息;所述种群中包括:追逐个体与逃逸个体;所述环境图像信息中包含种群中其他个体的位置信息与速度信息;
以当前个体为中心,根据所述环境图像信息设置距离感知区域;所述距离感知区域为预设半径的圆形区域;
采用边缘检测方式确定所述距离感知区域中其他个体相对于当前个体的角度区间;
根据同类个体间的速度信息,确定当前个体的自推进校准项;
根据同类个体间的所述角度区间,确定当前个体的排斥项;
根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,当前个体为逃逸个体时为逃逸项;
根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程;
根据所述运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
2.根据权利要求1所述的方法,其特征在于,所述采用边缘检测方式确定所述距离感知区域中其他个体相对于当前个体的角度区间,包括:
采用边缘检测方式确定所述距离感知区域中每个其他个体相对于当前个体的个体角度区间;
对所述个体角度区间去并集,得到所述距离感知区域中其他个体相对于当前个体的角度区间。
3.根据权利要求1所述的方法,其特征在于,根据同类个体间的速度信息,确定当前个体的自推进校准项,包括:
根据同类个体间的速度信息,确定当前个体的自推进校准项为:
Figure FDA0002670229020000011
其中,val i(t)表示自推进校准项,j∈Sal i表示所述距离感知区域中的其他个体;vj(t)表示其他个体的速度。
4.根据权利要求1所述的方法,其特征在于,根据同类个体间的速度信息,确定当前个体的自推进校准项,包括:
根据同类个体间的所述角度区间,确定当前个体的排斥项:
Figure FDA0002670229020000021
其中,
Figure FDA0002670229020000022
表示排斥项,
Figure FDA0002670229020000023
表示同类个体间的所述角度区间左边界值,
Figure FDA0002670229020000024
表示同类个体间的所述角度区间右边界值,
Figure FDA0002670229020000025
表示同类个体间的所述角度区间的数目。
5.根据权利要求1所述的方法,其特征在于,根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项,包括:
根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项为:
Figure FDA0002670229020000026
Figure FDA0002670229020000027
其中,
Figure FDA0002670229020000028
表示追逐项或逃逸项,
Figure FDA0002670229020000029
表示不同类别个体间的所述角度区间的数目,
Figure FDA00026702290200000210
表示不同类别个体间所述角度区间左边界值,
Figure FDA00026702290200000211
表示不同类别个体间所述角度区间右边界值。
6.根据权利要求1-5任一项所述的方法,其特征在于,根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程,包括:
根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程为:
Figure FDA0002670229020000031
其中,φalrepCT=1,φal、φrep以及φCT表示所述自推进校准项、排斥项以及逃逸项或追逐项的系数,
Figure FDA0002670229020000032
表示t+Δt时刻的速度信息。
7.根据权利要求6所述的方法,其特征在于,根据所述运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息,包括:
根据所述运动决策方程,确定个体速度信息与位置信息的关系式为:
ri(t+Δt)=ri(t)+vi(t+Δt)Δt
Figure FDA0002670229020000033
其中,vc表示个体速度信息中追逐个体的速度信息,vt表示个体速度信息中逃逸个体的速度信息;
根据个体速度信息与位置信息的关系式,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
8.一种基于视场感知的群体追逐与逃逸装置,其特征在于,所述装置包括:
视场感知模块,用于获取种群中当前个体的环境图像信息;所述种群中包括:追逐个体与逃逸个体;所述环境图像信息中包含种群中其他个体的位置信息与速度信息;
距离检测模块,用于以当前个体为中心,根据所述环境图像信息设置距离感知区域;所述距离感知区域为预设半径的圆形区域;采用边缘检测方式确定所述距离感知区域中其他个体相对于当前个体的角度区间;
决策模块,用于根据同类个体间的速度信息,确定当前个体的自推进校准项;根据同类个体间的所述角度区间,确定当前个体的排斥项;根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,当前个体为逃逸个体时为逃逸项;
驱动模块,用于根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程;根据所述运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN202010930975.XA 2020-09-07 2020-09-07 基于视场感知的群体追逐与逃逸方法和装置 Active CN112001937B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010930975.XA CN112001937B (zh) 2020-09-07 2020-09-07 基于视场感知的群体追逐与逃逸方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010930975.XA CN112001937B (zh) 2020-09-07 2020-09-07 基于视场感知的群体追逐与逃逸方法和装置

Publications (2)

Publication Number Publication Date
CN112001937A true CN112001937A (zh) 2020-11-27
CN112001937B CN112001937B (zh) 2023-05-23

Family

ID=73469841

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010930975.XA Active CN112001937B (zh) 2020-09-07 2020-09-07 基于视场感知的群体追逐与逃逸方法和装置

Country Status (1)

Country Link
CN (1) CN112001937B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112666984A (zh) * 2020-12-29 2021-04-16 北京电子工程总体研究所 一种飞行器追逃博弈方法及系统
CN113298847A (zh) * 2021-07-28 2021-08-24 中国人民解放军国防科技大学 基于视场感知的共识自主性追捕与逃逸方法和装置
CN115576359A (zh) * 2022-12-08 2023-01-06 中国人民解放军国防科技大学 基于视觉感知的无人集群行为控制方法、装置和电子设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104850009A (zh) * 2015-03-17 2015-08-19 北京航空航天大学 一种基于捕食逃逸鸽群优化的多无人飞行器编队协调控制方法
CN105182973B (zh) * 2015-09-08 2018-01-30 郑州大学 多机器人追捕者围捕单移动目标的自适应围捕方法
CN107704667B (zh) * 2017-09-20 2021-01-08 山东师范大学 模拟集群性的人群运动仿真方法、装置和系统
CN108961314B (zh) * 2018-06-29 2021-09-17 北京微播视界科技有限公司 运动图像生成方法、装置、电子设备及计算机可读存储介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112666984A (zh) * 2020-12-29 2021-04-16 北京电子工程总体研究所 一种飞行器追逃博弈方法及系统
CN112666984B (zh) * 2020-12-29 2022-11-22 北京电子工程总体研究所 一种多对一的智能协同追逃博弈方法及系统
CN113298847A (zh) * 2021-07-28 2021-08-24 中国人民解放军国防科技大学 基于视场感知的共识自主性追捕与逃逸方法和装置
CN113298847B (zh) * 2021-07-28 2021-10-26 中国人民解放军国防科技大学 基于视场感知的共识自主性追捕与逃逸方法和装置
CN115576359A (zh) * 2022-12-08 2023-01-06 中国人民解放军国防科技大学 基于视觉感知的无人集群行为控制方法、装置和电子设备
CN115576359B (zh) * 2022-12-08 2023-03-07 中国人民解放军国防科技大学 基于视觉感知的无人集群行为控制方法、装置和电子设备

Also Published As

Publication number Publication date
CN112001937B (zh) 2023-05-23

Similar Documents

Publication Publication Date Title
CN112001937A (zh) 基于视场感知的群体追逐与逃逸方法和装置
WO2020192469A1 (zh) 图像语义分割网络的训练方法、装置、设备及存储介质
Jayaraman et al. End-to-end policy learning for active visual categorization
Butail et al. Three-dimensional reconstruction of the fast-start swimming kinematics of densely schooling fish
CN111142557B (zh) 无人机路径规划方法、系统、计算机设备及可读存储介质
Abaid et al. Fish in a ring: spatio-temporal pattern formation in one-dimensional animal groups
Li et al. Turing learning: a metric-free approach to inferring behavior and its application to swarms
CN111008561B (zh) 一种牲畜的数量确定方法、终端及计算机存储介质
WO2019090901A1 (zh) 图像显示的选择方法、装置、智能终端及存储介质
DE102021102748A1 (de) 3d-posenschätzung des menschlichen körpers unter verwendung eines modells, das ausgehend von ungelabelten multi-view-daten trainiert wurde
Ren et al. Simulating flying insects using dynamics and data-driven noise modeling to generate diverse collective behaviors
CN110738650A (zh) 一种传染病感染识别方法、终端设备及存储介质
Brace et al. Using collision cones to assess biological deconfliction methods
Plebe et al. Occupancy grid mapping with cognitive plausibility for autonomous driving applications
Kamilaris et al. Training deep learning models via synthetic data: Application in unmanned aerial vehicles
Zakharov et al. Episodic memory for subjective-timescale models
Gabaldon et al. Computer-vision object tracking for monitoring bottlenose dolphin habitat use and kinematics
CN110390226B (zh) 人群事件识别方法、装置、电子设备及系统
CN110705564A (zh) 图像识别的方法和装置
Li et al. Abnormal crops image data acquisition strategy by exploiting edge intelligence and dynamic-static synergy in smart agriculture
Hansen et al. Soccer ball recognition and distance prediction using fuzzy Petri nets
Huang et al. Simulation of pedestrian evacuation with reinforcement learning based on a dynamic scanning algorithm
US20230386164A1 (en) Method for training an object recognition model in a computing device
CN111882577B (zh) 基于视场感知的群体避障与一致性行进方法和装置
Rosano et al. Image-based Navigation in Real-World Environments via Multiple Mid-level Representations: Fusion Models, Benchmark and Efficient Evaluation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant