CN112001937A - 基于视场感知的群体追逐与逃逸方法和装置 - Google Patents
基于视场感知的群体追逐与逃逸方法和装置 Download PDFInfo
- Publication number
- CN112001937A CN112001937A CN202010930975.XA CN202010930975A CN112001937A CN 112001937 A CN112001937 A CN 112001937A CN 202010930975 A CN202010930975 A CN 202010930975A CN 112001937 A CN112001937 A CN 112001937A
- Authority
- CN
- China
- Prior art keywords
- individuals
- item
- current individual
- individual
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000008447 perception Effects 0.000 title claims abstract description 27
- 230000033001 locomotion Effects 0.000 claims abstract description 44
- 238000003708 edge detection Methods 0.000 claims abstract description 18
- 230000007613 environmental effect Effects 0.000 claims abstract description 11
- 238000004590 computer program Methods 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 4
- 230000006399 behavior Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 6
- 238000004088 simulation Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 241000270298 Boidae Species 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 241000251468 Actinopterygii Species 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- SVYNLIRHKQCPNE-UHFFFAOYSA-N 3,4-dihydro-1h-isoquinolin-2-ium-2-ylidenemethanediamine;hydrogen sulfate Chemical group OS(O)(=O)=O.C1=CC=C2CN(C(=N)N)CCC2=C1 SVYNLIRHKQCPNE-UHFFFAOYSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 102000029749 Microtubule Human genes 0.000 description 1
- 108091022875 Microtubule Proteins 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000001580 bacterial effect Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 210000003701 histiocyte Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004688 microtubule Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 244000062645 predators Species 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/80—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
- Y02A40/81—Aquaculture, e.g. of fish
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种基于视场感知的群体追逐与逃逸方法和装置。所述方法包括:获取种群中当前个体的环境图像信息;以当前个体为中心,根据环境图像信息设置距离感知区域;采用边缘检测方式确定距离感知区域中其他个体相对于当前个体的角度区间;根据同类个体间的速度信息,确定当前个体的自推进校准项;根据同类个体间的角度区间,确定当前个体的排斥项;根据不同类别个体间的角度区间,确定当前个体的逃逸项或追逐项;根据自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程;根据运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。采用本方法能够实现非常好的种群逃逸和追逐效果。
Description
技术领域
本申请涉及图像视觉技术领域,特别是涉及一种基于视场感知的群体追逐与逃逸方法和装置。
背景技术
广泛存在于各种生物中的群体行为使得我们为之着迷,相关与群体行为研究涉及鱼群,鸟群,蝗虫群,细菌群落,微管群,组织细胞群,车流和人群。个体间相对简单的局部交互产生诸如此类协调有序的群体行为。通过这种方法,生物群体可以在各种情况下展现出单个体无法实现的各种智能特性(分布,自适应和鲁棒性)。明显的行为模式(例如聚集,避障,群体追捕和逃避)以具有凝聚力和高度连贯的群体被观察到。该领域的研究目的是从个体和群体层面上解释与上述模式相似的复杂行为,进一步将生物群体所展现的这些智能特性赋予人工集群系统。因此,作为交叉学科,群体行为建模和机制探索是一个充满挑战的重点领域。
在过去的几十年中,几种模型(例如,基于规则的模型,随机旋转模型和Boids模型)已经提出来研究群体行为。经典的群体行为模型往往基于3个简单的行为规则:分离(避免局部邻居拥挤),校准(朝向邻居的平均速度方向)和内聚(向邻居的平均位置移动),此类模型最初用来定量定性的分析鱼群和鸟群中观察到的群体行为。属于这种类型的模型的随机旋转模型和Boids模型分别由Aoki和Reynolds提出。作为Boids模型的特例,物理学家提出的Vicesk模型考虑了个体间的速度校准以探索最简单的群体行为产生条件。后来,由生物学家提出的Couzin模型在理论生物学中得到广泛应用,并扩展到群体机器人技术的协调控制中。
从现象学角度出发构建的上述模型近年来已基本成熟,在此类模型中个体根据获取到的邻居的位置和速度信息基于三个简单的行为规则进行交互,这种方法仅关注到了实际生物群体的决策和驱动机制,从而导致拓展大奥群体机器人技术的协调控制时效果不佳。
发明内容
基于此,有必要针对上述技术问题,提供一种能够解决问题的一种基于群体避障的一致性行进方法、装置和计算机设备。
一种基于群体避障的一致性行进方法,所述方法包括:
获取种群中当前个体的环境图像信息;所述种群中包括:追逐个体与逃逸个体;所述环境图像信息中包含种群中其他个体的位置信息与速度信息;
以当前个体为中心,根据所述环境图像信息设置距离感知区域;所述距离感知区域为预设半径的圆形区域;
采用边缘检测方式确定所述距离感知区域中其他个体相对于当前个体的角度区间;
根据同类个体间的速度信息,确定当前个体的自推进校准项;
根据同类个体间的所述角度区间,确定当前个体的排斥项;
根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,当前个体为逃逸个体时为逃逸项;
根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程;
根据所述运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
在其中一个实施例中,还包括:采用边缘检测方式确定所述距离感知区域中每个其他个体相对于当前个体的个体角度区间;
对所述个体角度区间去并集,得到所述距离感知区域中其他个体相对于当前个体的角度区间。
在其中一个实施例中,还包括:根据所述环境信息图像,确定当前个体的视野被遮挡的角度区间;将所述角度区间对应的值设置为1,将其他区间的值设置为0;根据角度区间和其他区间对应的值,得到当前个体的排斥感知函数和吸引感知函数。
在其中一个实施例中,还包括:根据同类个体间的速度信息,确定当前个体的自推进校准项为:
其中,val i(t)表示自推进校准项,j∈Sal i表示所述距离感知区域中的其他个体;vj(t)表示其他个体的速度。
在其中一个实施例中,还包括:根据同类个体间的所述角度区间,确定当前个体的排斥项:
在其中一个实施例中,还包括:根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项为:
在其中一个实施例中,还包括:根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程为:
在其中一个实施例中,根据所述运动决策方程,确定个体速度信息与位置信息的关系式为:
ri(t+Δt)=ri(t)+vi(t+Δt)Δt
其中,vc表示个体速度信息中追逐个体的速度信息,vt表示个体速度信息中逃逸个体的速度信息;
根据个体速度信息与位置信息的关系式,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
一种基于群体避障的一致性行进装置,所述装置包括:
视场感知模块,用于获取种群中当前个体的环境图像信息;所述种群中包括:追逐个体与逃逸个体;所述环境图像信息中包含种群中其他个体的位置信息与速度信息;
距离检测模块,用于以当前个体为中心,根据所述环境图像信息设置距离感知区域;所述距离感知区域为预设半径的圆形区域;采用边缘检测方式确定所述距离感知区域中其他个体相对于当前个体的角度区间;
决策模块,用于根据同类个体间的速度信息,确定当前个体的自推进校准项;根据同类个体间的所述角度区间,确定当前个体的排斥项;根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,当前个体为逃逸个体时为逃逸项;
驱动模块,用于根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程;根据所述运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取种群中当前个体的环境图像信息;所述种群中包括:追逐个体与逃逸个体;所述环境图像信息中包含种群中其他个体的位置信息与速度信息;
以当前个体为中心,根据所述环境图像信息设置距离感知区域;所述距离感知区域为预设半径的圆形区域;
采用边缘检测方式确定所述距离感知区域中其他个体相对于当前个体的角度区间;
根据同类个体间的速度信息,确定当前个体的自推进校准项;
根据同类个体间的所述角度区间,确定当前个体的排斥项;
根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,当前个体为逃逸个体时为逃逸项;
根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程;
根据所述运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取种群中当前个体的环境图像信息;所述种群中包括:追逐个体与逃逸个体;所述环境图像信息中包含种群中其他个体的位置信息与速度信息;
以当前个体为中心,根据所述环境图像信息设置距离感知区域;所述距离感知区域为预设半径的圆形区域;
采用边缘检测方式确定所述距离感知区域中其他个体相对于当前个体的角度区间;
根据同类个体间的速度信息,确定当前个体的自推进校准项;
根据同类个体间的所述角度区间,确定当前个体的排斥项;
根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,当前个体为逃逸个体时为逃逸项;
根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程;
根据所述运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
上述基于视场感知的群体追逐与逃逸方法和装置,以种群中个体为出发点,获取种群中当前个体的环境图像信息,种群中包括:追逐个体与逃逸个体,不同个体其决策的状态不同,即逃逸个体决策时,侧重逃逸项,追逐个体决策时,侧重追逐项,环境图像信息中包含种群中其他个体的位置信息与速度信息,然后以当前个体为中心,通过设置的距离感知区域,确定其他个体与当前个体的距离,然后计算各个驱动项,最终确定决策方程,上述方案进行群体追逐时,即可以保证不同个体在追逐和逃逸时,效果更接近于生物种群,从而利于扩展到群体机器人技术的协调控制中。
附图说明
图1为一个实施例中基于视场感知的群体追逐与逃逸方法的示意性流程图;
图2为一个实施例中距离感知区域的示意图;
图3为一个实施例中基于视场感知的群体追逐与逃逸装置的结构图;
图4为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,提供了一种基于群体避障的一致性行进方法,包括以下步骤:
步骤102,获取种群中当前个体的环境图像信息。
种群中包括:追逐个体与逃逸个体,环境图像信息中包含种群中其他个体的位置信息与速度信息。
种群可以是多个无人机组成的种群,也可以是多个任务机器人组成的种群,在此不做具体限制,以无人机种群为例,无人机包括捕食无人机和逃逸无人机,捕食无人机对逃逸无人机进行捕获,在行进过程中也需要确保个体之间不发生碰撞。无人机上可以设置摄像头,用来获取环境图像信息,摄像头可以在各个自由度上旋转,从而可以获取到周围的环境信息,另外,摄像头可以是多个,分别负责确定视场内的环境图像,从而通过拼接得到360度的环境图像信息,因此,存在多种获取环境图像信息的方式,本实施例对环境图像信息获取的步骤不做具体限制。
具体在得到环境图像之后,可以对图像进行处理,确定出环境图像中的障碍物以及其他个体的位置信息和速度信息,并进行标记,得到环境图像信息。
步骤104,以当前个体为中心,根据环境图像信息设置距离感知区域。
距离感知区域为预设半径的圆形区域。
具体的,距离感知区域如图2所示,一般设置为圆形,考虑到与当前个体具体为r的范围内的其他个体影响到当前个体的运动决策,具体如图2所示。
步骤106,采用边缘检测方式确定所述距离感知区域中其他个体相对于当前个体的角度区间。
边缘检测方式检测当前个体到其他个体边缘所形成的角度,构建角度区间,由于距离感知区域中可能存在多个其他个体,因此还需要考虑角度区间之间的叠加,从而得到最终的角度区间。
当其他个体的大小确定时,当前个体与其他个体的距离越近,角度区间越大,以及,当其他个体叠加数量越多时,角度区间也越大,因此,通过角度区间,确定的个体之间的排斥、追逐与逃逸,效果非常好。
步骤108,根据同类个体间的速度信息,确定当前个体的自推进校准项,根据同类个体间的角度区间,确定当前个体的排斥项,根据不同类别个体间的角度区间,确定当前个体的逃逸项或追逐项。
当前个体为追逐个体时为追逐项,当前个体为逃逸个体时为逃逸项。
步骤110,根据自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程,根据运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
上述基于视场感知的群体避障与一致性行进方法中,以种群中个体为出发点,获取种群中当前个体的环境图像信息,种群中包括:追逐个体与逃逸个体,不同个体其决策的状态不同,即逃逸个体决策时,侧重逃逸项,追逐个体决策时,侧重追逐项,环境图像信息中包含种群中其他个体的位置信息与速度信息,然后以当前个体为中心,通过设置的距离感知区域,确定其他个体与当前个体的距离,然后计算各个驱动项,最终确定决策方程,上述方案进行群体追逐时,即可以保证不同个体在追逐和逃逸时,效果更接近于生物种群,从而利于扩展到群体机器人技术的协调控制中。
在其中一个实施例中,采用边缘检测方式确定距离感知区域中每个其他个体相对于当前个体的个体角度区间,对个体角度区间去并集,得到距离感知区域中其他个体相对于当前个体的角度区间。
具体的,考虑捕食者(或追逐者C)和猎物(或目标T)的两类生物。在仿真中,追逐者的数量Nc是恒定的,而目标数量Nt由于捕获事件而随时间减少。个体通过其在二维位置r和速度v向量来描述。我们考虑N=Nc+Nt(0)半径为BL的圆形个体,并在具有周期性边界条件的边长为L的正方形场景中进行仿真,该边长取决于密度ρ上,即其中Nt(0)是初始目标数量。
个体i获取其他个体的速度和视觉信息。模型中考虑了个体的自推进,同类个体间的校准和排斥以及异类个体间的追逐(或逃逸)项。对于自推进和校准项,其获取自身周围r0范围内其他个体的速度信息,即对于排斥和逃逸(或追逐)项,可以获得该范围内同类或异类个体的视觉信息。在高等动物的视觉皮层中边缘检测的进行已经被证明,因此视觉信息可以合理地表示为θi。因仿真过程中很难再现现实世界中生物的视觉感知,因此我们基于每个个体的位置信息计算其边缘检测为角度区间,然后考虑不同个体视觉信息的重叠以获得这些区间的并集,其并集后的区间边界用于近似边缘检测结果。
在其中一个实施例中,根据同类个体间的速度信息,确定当前个体的自推进校准项为:
其中,val i(t)表示自推进校准项,j∈Sal i表示所述距离感知区域中的其他个体;vj(t)表示其他个体的速度。
本实施例中,通过自推进校准项可以实现相同类型个体间的一致性特点。
在另一个实施例中,根据同类个体间的所述角度区间,确定当前个体的排斥项:
具体的,获取的视觉信息为输入考虑了同类个体间交互以避免局部邻居间拥挤。
在其中一个实施例中,根据不同类别个体间的角度区间,确定当前个体的逃逸项或追逐项为:
本实施例中,获取的视觉信息为输入考虑了异类个体间交互。方程中最后两项以角度区间中心单位向量的投影(和)来表征方向于速度的影响。个体间距离越近,角度区间角度越大,角度区间角度反映了个体间的距离。因此,对角度区间进行加权平均以表征距离的影响。
在其中一个实施例中,根据自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程为:
在其中一个实施例中,根据运动决策方程,确定个体速度信息与位置信息的关系式为:
ri(t+Δt)=ri(t)+vi(t+Δt)Δt
其中,vc表示个体速度信息中追逐个体的速度信息,vt表示个体速度信息中逃逸个体的速度信息;
根据个体速度信息与位置信息的关系式,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
其中,Δt为时间变化量,将时间t的上限设置为tmax。
在其中一个实施例中,定义如下分别代表群体追捕和逃逸问题不同方面得指标。目标在仿真过程中会被消除,因此只考虑追逐者得如下指标。
对于群体逐步和逃逸问题,指标总捕获时间tend表示全部目标被捕获(Nt(t)=0),其对于衡量追逐者或目标得捕获快慢非常关键。在仿真过程中,无论是t=tend还是t=tmax,仿真都将被中止。
越接近1,群体的一致性就越好。然而,对于群体追捕和逃逸问题,追逐着会追捕不同的目标,在这种情况下,其以子群进行运动。因此,有必要观察其子群数目为了定义子群,我们定义了由节点(追逐者)和边。如果两个追逐者间距离小于r0,那么其间存在连边。这样表示追逐者交互网络的联通子图个数。
其中dij(t)为追逐者i和j之间的距离。
应该理解的是,虽然流程图1中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
如图3所示,在一个实施例中,提供了一种基于视场感知的群体追逐与逃逸装置,包括:
视场感知模块302,用于获取种群中当前个体的环境图像信息;所述种群中包括:追逐个体与逃逸个体;所述环境图像信息中包含种群中其他个体的位置信息与速度信息;
距离检测模块304,用于以当前个体为中心,根据所述环境图像信息设置距离感知区域;所述距离感知区域为预设半径的圆形区域;采用边缘检测方式确定所述距离感知区域中其他个体相对于当前个体的角度区间;
决策模块306,用于根据同类个体间的速度信息,确定当前个体的自推进校准项;根据同类个体间的所述角度区间,确定当前个体的排斥项;根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,当前个体为逃逸个体时为逃逸项;
驱动模块308,用于根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程;根据所述运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
在其中一个实施例中,距离检测模块304还用于采用边缘检测方式确定所述距离感知区域中每个其他个体相对于当前个体的个体角度区间;对所述个体角度区间去并集,得到所述距离感知区域中其他个体相对于当前个体的角度区间。
在其中一个实施例中,决策模块306还用于根据同类个体间的速度信息,确定当前个体的自推进校准项为:
其中,val i(t)表示自推进校准项,j∈Sal i表示所述距离感知区域中的其他个体;vj(t)表示其他个体的速度。
在其中一个实施例中,决策模块306还用于根据同类个体间的所述角度区间,确定当前个体的排斥项:
在其中一个实施例中,决策模块306还用于根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项为:
在其中一个实施例中,决策模块306还用于根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程为:
在其中一个实施例中,驱动模块308还用于根据所述运动决策方程,确定个体速度信息与位置信息的关系式为:
ri(t+Δt)=ri(t)+vi(t+Δt)Δt
其中,vc表示个体速度信息中追逐个体的速度信息,vt表示个体速度信息中逃逸个体的速度信息,根据个体速度信息与位置信息的关系式,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
关于基于视场感知的群体追逐与逃逸装置的具体限定可以参见上文中对于基于视场感知的群体追逐与逃逸方法的限定,在此不再赘述。上述基于视场感知的群体追逐与逃逸装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图4所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于视场感知的群体追逐与逃逸方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图4中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现上述实施例中方法的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种基于视场感知的群体追逐与逃逸方法,所述方法包括:
获取种群中当前个体的环境图像信息;所述种群中包括:追逐个体与逃逸个体;所述环境图像信息中包含种群中其他个体的位置信息与速度信息;
以当前个体为中心,根据所述环境图像信息设置距离感知区域;所述距离感知区域为预设半径的圆形区域;
采用边缘检测方式确定所述距离感知区域中其他个体相对于当前个体的角度区间;
根据同类个体间的速度信息,确定当前个体的自推进校准项;
根据同类个体间的所述角度区间,确定当前个体的排斥项;
根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,当前个体为逃逸个体时为逃逸项;
根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程;
根据所述运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
2.根据权利要求1所述的方法,其特征在于,所述采用边缘检测方式确定所述距离感知区域中其他个体相对于当前个体的角度区间,包括:
采用边缘检测方式确定所述距离感知区域中每个其他个体相对于当前个体的个体角度区间;
对所述个体角度区间去并集,得到所述距离感知区域中其他个体相对于当前个体的角度区间。
8.一种基于视场感知的群体追逐与逃逸装置,其特征在于,所述装置包括:
视场感知模块,用于获取种群中当前个体的环境图像信息;所述种群中包括:追逐个体与逃逸个体;所述环境图像信息中包含种群中其他个体的位置信息与速度信息;
距离检测模块,用于以当前个体为中心,根据所述环境图像信息设置距离感知区域;所述距离感知区域为预设半径的圆形区域;采用边缘检测方式确定所述距离感知区域中其他个体相对于当前个体的角度区间;
决策模块,用于根据同类个体间的速度信息,确定当前个体的自推进校准项;根据同类个体间的所述角度区间,确定当前个体的排斥项;根据不同类别个体间的所述角度区间,确定当前个体的逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,当前个体为逃逸个体时为逃逸项;
驱动模块,用于根据所述自推进校准项、排斥项以及逃逸项或追逐项确定当前个体的运动决策方程;根据所述运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010930975.XA CN112001937B (zh) | 2020-09-07 | 2020-09-07 | 基于视场感知的群体追逐与逃逸方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010930975.XA CN112001937B (zh) | 2020-09-07 | 2020-09-07 | 基于视场感知的群体追逐与逃逸方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112001937A true CN112001937A (zh) | 2020-11-27 |
CN112001937B CN112001937B (zh) | 2023-05-23 |
Family
ID=73469841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010930975.XA Active CN112001937B (zh) | 2020-09-07 | 2020-09-07 | 基于视场感知的群体追逐与逃逸方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112001937B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112666984A (zh) * | 2020-12-29 | 2021-04-16 | 北京电子工程总体研究所 | 一种飞行器追逃博弈方法及系统 |
CN113298847A (zh) * | 2021-07-28 | 2021-08-24 | 中国人民解放军国防科技大学 | 基于视场感知的共识自主性追捕与逃逸方法和装置 |
CN115576359A (zh) * | 2022-12-08 | 2023-01-06 | 中国人民解放军国防科技大学 | 基于视觉感知的无人集群行为控制方法、装置和电子设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104850009A (zh) * | 2015-03-17 | 2015-08-19 | 北京航空航天大学 | 一种基于捕食逃逸鸽群优化的多无人飞行器编队协调控制方法 |
CN105182973B (zh) * | 2015-09-08 | 2018-01-30 | 郑州大学 | 多机器人追捕者围捕单移动目标的自适应围捕方法 |
CN107704667B (zh) * | 2017-09-20 | 2021-01-08 | 山东师范大学 | 模拟集群性的人群运动仿真方法、装置和系统 |
CN108961314B (zh) * | 2018-06-29 | 2021-09-17 | 北京微播视界科技有限公司 | 运动图像生成方法、装置、电子设备及计算机可读存储介质 |
-
2020
- 2020-09-07 CN CN202010930975.XA patent/CN112001937B/zh active Active
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112666984A (zh) * | 2020-12-29 | 2021-04-16 | 北京电子工程总体研究所 | 一种飞行器追逃博弈方法及系统 |
CN112666984B (zh) * | 2020-12-29 | 2022-11-22 | 北京电子工程总体研究所 | 一种多对一的智能协同追逃博弈方法及系统 |
CN113298847A (zh) * | 2021-07-28 | 2021-08-24 | 中国人民解放军国防科技大学 | 基于视场感知的共识自主性追捕与逃逸方法和装置 |
CN113298847B (zh) * | 2021-07-28 | 2021-10-26 | 中国人民解放军国防科技大学 | 基于视场感知的共识自主性追捕与逃逸方法和装置 |
CN115576359A (zh) * | 2022-12-08 | 2023-01-06 | 中国人民解放军国防科技大学 | 基于视觉感知的无人集群行为控制方法、装置和电子设备 |
CN115576359B (zh) * | 2022-12-08 | 2023-03-07 | 中国人民解放军国防科技大学 | 基于视觉感知的无人集群行为控制方法、装置和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112001937B (zh) | 2023-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112001937A (zh) | 基于视场感知的群体追逐与逃逸方法和装置 | |
WO2020192469A1 (zh) | 图像语义分割网络的训练方法、装置、设备及存储介质 | |
Jayaraman et al. | End-to-end policy learning for active visual categorization | |
Butail et al. | Three-dimensional reconstruction of the fast-start swimming kinematics of densely schooling fish | |
CN111142557B (zh) | 无人机路径规划方法、系统、计算机设备及可读存储介质 | |
Abaid et al. | Fish in a ring: spatio-temporal pattern formation in one-dimensional animal groups | |
Li et al. | Turing learning: a metric-free approach to inferring behavior and its application to swarms | |
CN111008561B (zh) | 一种牲畜的数量确定方法、终端及计算机存储介质 | |
WO2019090901A1 (zh) | 图像显示的选择方法、装置、智能终端及存储介质 | |
DE102021102748A1 (de) | 3d-posenschätzung des menschlichen körpers unter verwendung eines modells, das ausgehend von ungelabelten multi-view-daten trainiert wurde | |
Ren et al. | Simulating flying insects using dynamics and data-driven noise modeling to generate diverse collective behaviors | |
CN110738650A (zh) | 一种传染病感染识别方法、终端设备及存储介质 | |
Brace et al. | Using collision cones to assess biological deconfliction methods | |
Plebe et al. | Occupancy grid mapping with cognitive plausibility for autonomous driving applications | |
Kamilaris et al. | Training deep learning models via synthetic data: Application in unmanned aerial vehicles | |
Zakharov et al. | Episodic memory for subjective-timescale models | |
Gabaldon et al. | Computer-vision object tracking for monitoring bottlenose dolphin habitat use and kinematics | |
CN110390226B (zh) | 人群事件识别方法、装置、电子设备及系统 | |
CN110705564A (zh) | 图像识别的方法和装置 | |
Li et al. | Abnormal crops image data acquisition strategy by exploiting edge intelligence and dynamic-static synergy in smart agriculture | |
Hansen et al. | Soccer ball recognition and distance prediction using fuzzy Petri nets | |
Huang et al. | Simulation of pedestrian evacuation with reinforcement learning based on a dynamic scanning algorithm | |
US20230386164A1 (en) | Method for training an object recognition model in a computing device | |
CN111882577B (zh) | 基于视场感知的群体避障与一致性行进方法和装置 | |
Rosano et al. | Image-based Navigation in Real-World Environments via Multiple Mid-level Representations: Fusion Models, Benchmark and Efficient Evaluation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |