CN114510068A - 一种基于信息融合的多无人机协同态势感知方法及系统 - Google Patents
一种基于信息融合的多无人机协同态势感知方法及系统 Download PDFInfo
- Publication number
- CN114510068A CN114510068A CN202210170253.8A CN202210170253A CN114510068A CN 114510068 A CN114510068 A CN 114510068A CN 202210170253 A CN202210170253 A CN 202210170253A CN 114510068 A CN114510068 A CN 114510068A
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- moment
- fusion
- aerial vehicle
- obtaining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 209
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000008447 perception Effects 0.000 title claims abstract description 22
- 230000000007 visual effect Effects 0.000 claims abstract description 90
- 230000004888 barrier function Effects 0.000 claims abstract description 44
- 238000005315 distribution function Methods 0.000 claims description 50
- 238000004364 calculation method Methods 0.000 claims description 47
- 238000006243 chemical reaction Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 7
- 238000001514 detection method Methods 0.000 description 38
- 238000005070 sampling Methods 0.000 description 27
- 230000015572 biosynthetic process Effects 0.000 description 22
- 238000005755 formation reaction Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 9
- 238000004088 simulation Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0808—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
- G05D1/0816—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft to ensure stability
- G05D1/0833—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft to ensure stability using limited authority control
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及一种基于信息融合的多无人机协同态势感知方法及系统,涉及无人机态势感知技术领域。所述方法包括获取零时刻和t时刻的参数值;根据零时刻的参数值确定零时刻多个大地坐标;根据零时刻无人机的姿态角、无人机在地面坐标系下的坐标和无人机的机体坐标系对应的大地坐标得到零时刻无人机与障碍物的视距和视角;根据零时刻各无人机与障碍物的视距、视角和t时刻的参数值采用D‑S证据理论得到t时刻的融合参数;根据t时刻的融合参数和t‑1时刻的融合参数得到t时刻最终的融合参数。本发明可提高态势的感知结果。
Description
技术领域
本发明涉及无人机态势感知技术领域,特别是涉及一种基于信息融合的多无人机协同态势感知方法及系统。
背景技术
信息融合又称为数据融合或多传感器信息融合,是指按照一定的融合规则,在空间或时间上,将多个传感器获取的数据和信息进行关联和综合,进而获得更加精准的位置和身份估计。在未来智能化战场中,态势感知和预测是掌握战场态势、把握作战主动性、赢得最终胜利的重要前提,具有重要的军事价值。上世纪80年代,随着军事信息化程度的提高,多源信息融合技术也随之产生。多源信息融合技术对于获取战场全局信息具有重要意义。随着信息指挥系统在军事上的应用越来越广,出现了许多依托于系统和平台进行信息融合的军事应用。
然而,现阶段对态势感知领域进行研究时一般假设无人机可探测范围内障碍物的物理信息均可由理想机载传感器进行获取,而较少考虑机载传感器的实际性能与特性;但是,由于不同机载传感器的工作原理与性能指标的差异会存在信息融合差、时间延迟、测量误差等问题,导致感知的态势不准确,对多无人机协同任务执行能力造成一定的影响,所以需要一种多无人机协同态势感知方法来提高态势的感知结果。
发明内容
本发明的目的是提供一种基于信息融合的多无人机协同态势感知方法及系统,可提高态势的感知结果。
为实现上述目的,本发明提供了如下方案:
一种基于信息融合的多无人机协同态势感知方法,包括:
获取零时刻和t时刻的参数值;所述参数值包括各无人机的姿态角、各所述无人机在地面坐标系下的坐标和障碍物在各所述无人机的机体坐标系下的坐标,所述姿态角包括俯仰角、滚转角和偏航角;
根据所述零时刻的参数值确定零时刻多个大地坐标,所述大地坐标为所述障碍物在地面坐标系下的坐标,一个大地坐标对应一个无人机的机体坐标系;
对于任意一个无人机,根据零时刻所述无人机的姿态角、所述无人机在地面坐标系下的坐标和所述无人机的机体坐标系对应的大地坐标得到零时刻所述无人机与所述障碍物的视距和视角;
根据零时刻各所述无人机与所述障碍物的视距、视角和所述t时刻的参数值采用D-S证据理论得到t时刻的融合参数,所述融合参数包括融合结果的置信度与所述障碍物的融合坐标;
根据t时刻的融合参数和t-1时刻的融合参数采用D-S证据理论得到t时刻最终的融合参数。
可选的,所述根据零时刻各所述无人机与所述障碍物的视距、视角和所述t时刻的参数值采用D-S证据理论得到t时刻的融合参数,具体包括:
根据零时刻所述无人机与所述障碍物的视距和视角得到t时刻所述无人机与所述障碍物的视距和视角;
根据t时刻各所述无人机与所述障碍物的视距、视角和参数值得到t时刻的融合参数。
可选的,所述根据t时刻各所述无人机与所述障碍物的视距、视角和参数值得到t时刻的融合参数,具体包括:
根据t时刻所述无人机与所述障碍物的视距、视角得到t时刻所述无人机探测所述障碍物的基本概率分配函数值;
根据t时刻各所述无人机探测所述障碍物的基本概率分配函数值和t时刻的参数值得到t时刻的融合参数。
可选的,所述根据t时刻各所述无人机探测所述障碍物的基本概率分配函数值和t时刻的参数值得到t时刻的融合参数,具体包括:
根据t时刻各所述无人机探测所述障碍物的基本概率分配函数值得到t时刻融合结果的置信度;
根据t时刻各所述无人机探测所述障碍物的基本概率分配函数值和t时刻的参数值得到t时刻所述障碍物的融合坐标。
可选的,所述根据t时刻各所述无人机探测所述障碍物的基本概率分配函数值和t时刻的参数值得到t时刻所述障碍物的融合坐标,具体包括:
根据t时刻的参数值得到确定t时刻多个大地坐标;
根据t时刻多个大地坐标和各所述无人机探测所述障碍物的基本概率分配函数值得到t时刻所述障碍物的融合坐标。
一种基于信息融合的多无人机协同态势感知系统,包括:
获取子系统,用于获取零时刻和t时刻的参数值;所述参数值包括各无人机的姿态角、各所述无人机在地面坐标系下的坐标和障碍物在各所述无人机的机体坐标系下的坐标,所述姿态角包括俯仰角、滚转角和偏航角;
坐标系转换子系统,用于根据所述零时刻的参数值确定零时刻多个大地坐标,所述大地坐标为所述障碍物在地面坐标系下的坐标,一个大地坐标对应一个无人机的机体坐标系;
视距视角计算子系统,用于对于任意一个无人机,根据零时刻所述无人机的姿态角、所述无人机在地面坐标系下的坐标和所述无人机的机体坐标系对应的大地坐标得到零时刻所述无人机与所述障碍物的视距和视角;
融合参数计算子系统,用于根据零时刻各所述无人机与所述障碍物的视距、视角和所述t时刻的参数值采用D-S证据理论得到t时刻的融合参数,所述融合参数包括融合结果的置信度与所述障碍物的融合坐标;
态势计算子系统,用于根据t时刻的融合参数和t-1时刻的融合参数采用D-S证据理论得到t时刻最终的融合参数。
可选的,所述融合参数计算子系统,具体包括:
视距视角计算模块,用于根据零时刻所述无人机与所述障碍物的视距和视角得到t时刻所述无人机与所述障碍物的视距和视角;
融合参数计算模块,用于根据t时刻各所述无人机与所述障碍物的视距、视角和参数值得到t时刻的融合参数。
可选的,所述融合参数计算模块,具体包括:
函数值计算子模块,用于根据t时刻所述无人机与所述障碍物的视距、视角得到t时刻所述无人机探测所述障碍物的基本概率分配函数值;
融合参数计算子模块,用于根据t时刻各所述无人机探测所述障碍物的基本概率分配函数值和t时刻的参数值得到t时刻的融合参数。
可选的,所述融合参数计算子模块,具体包括:
置信度计算单元,用于根据t时刻各所述无人机探测所述障碍物的基本概率分配函数值得到t时刻融合结果的置信度;
融合坐标计算单元,用于根据t时刻各所述无人机探测所述障碍物的基本概率分配函数值和t时刻的参数值得到t时刻所述障碍物的融合坐标。
可选的,所述融合坐标计算单元,具体包括:
坐标转换子单元,用于根据t时刻的参数值得到确定t时刻多个大地坐标;
融合坐标计算子单元,用于根据t时刻多个大地坐标和各所述无人机探测所述障碍物的基本概率分配函数值得到t时刻所述障碍物的融合坐标。
根据本发明提供的具体实施例,本发明公开了以下技术效果:本发明根据零时刻无人机的姿态角、无人机在地面坐标系下的坐标和障碍物在地面坐标系下的坐标得到零时刻无人机与障碍物的视距和视角;根据零时刻各无人机与障碍物的视距、视角和t时刻的参数值采用D-S证据理论得到t时刻的融合参数,所述融合参数包括融合结果的置信度与障碍物的融合坐标;根据t时刻的融合参数和t-1时刻的融合参数采用D-S证据理论得到t时刻最终的融合参数,结合无人机的位姿信息,通过坐标转换,将不同无人机检测到的障碍信息统一到地面坐标系下,运用D-S证据理论融合障碍信息,考虑传感器的不确定性提高态势的感知结果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于信息融合的多无人机协同态势感知方法流程图;
图2为本发明实施例提供的多无人机协同态势感知整体方案流程图;
图3为本发明实施例提供的多无人机机载传感器检测范围示意图;
图4为传感器的探知准确率和探知距离的关系图;
图5为传感器的探知准确率与视距视界关系示意图;
图6为本发明实施例提供的无人机及障碍分布图;
图7为本发明实施例提供的前八次信息融合结果示意图;
图8为常见多无人机编队队形示意图;
图9为本发明实施例提供的障碍区域划分示意图;
图10为本发明实施例提供的区域一的融合结果示意图;
图11为本发明实施例提供的区域二的融合结果示意图;
图12为本发明实施例提供的区域三的融合结果示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明实施例提供了一种基于信息融合的多无人机协同态势感知方法,包括:
步骤101:获取零时刻和t时刻的参数值。参数值包括各无人机的姿态角、各无人机在地面坐标系下的坐标和障碍物在各无人机的机体坐标系下的坐标,姿态角包括俯仰角、滚转角和偏航角。
步骤102:根据所述零时刻的参数值确定零时刻多个大地坐标。所述大地坐标为所述障碍物在地面坐标系下的坐标,一个大地坐标对应一个无人机的机体坐标系。障碍物在每个无人机的机体坐标系下的坐标都对应一个地面坐标系下的坐标。
步骤103:对于任意一个无人机,根据零时刻无人机的姿态角、无人机在地面坐标系下的坐标和无人机的机体坐标系对应的大地坐标得到零时刻无人机与障碍物的视距和视角。
步骤104:根据零时刻各所述无人机与所述障碍物的视距、视角和所述t时刻的参数值采用D-S证据理论得到t时刻的融合参数,所述融合参数包括融合结果的置信度与所述障碍物的融合坐标。
步骤105:根据t时刻的融合参数和t-1时刻的融合参数采用D-S证据理论得到t时刻最终的融合参数。
在实际应用中,步骤104具体包括:
根据零时刻无人机与障碍物的视距和视角得到t时刻无人机与障碍物的视距和视角。
根据t时刻各无人机与障碍物的视距、视角和参数值得到t时刻的融合参数。
在实际应用中,根据t时刻各无人机与障碍物的视距、视角和参数值得到t时刻的融合参数,具体包括:
根据t时刻无人机与障碍物的视距、视角得到t时刻无人机探测障碍物的基本概率分配函数值。
根据t时刻各无人机探测障碍物的基本概率分配函数值和t时刻的参数值得到t时刻的融合参数。
在实际应用中,根据t时刻各无人机探测障碍物的基本概率分配函数值和t时刻的参数值得到t时刻的融合参数,具体包括:
根据t时刻各无人机探测障碍物的基本概率分配函数值得到t时刻融合结果的置信度。
根据t时刻各无人机探测障碍物的基本概率分配函数值和t时刻的参数值得到t时刻障碍物的融合坐标。
在实际应用中,根据t时刻各无人机探测障碍物的基本概率分配函数值得到t时刻融合结果的置信度,具体为,根据公式
在实际应用中,根据t时刻各无人机探测障碍物的基本概率分配函数值和t时刻的参数值得到t时刻障碍物的融合坐标,具体包括:
根据t时刻的参数值得到确定t时刻多个大地坐标。
根据t时刻多个大地坐标和各无人机探测障碍物的基本概率分配函数值得到t时刻障碍物的融合坐标。
步骤105具体为:根据公式
计算t时刻最终的融合参数。
本发明实施例还提供了一种与上述方法对应的基于信息融合的多无人机协同态势感知系统,包括:
获取子系统,用于获取零时刻和t时刻的参数值。参数值包括各无人机的姿态角、各无人机在地面坐标系下的坐标和障碍物在各无人机的机体坐标系下的坐标,姿态角包括俯仰角、滚转角和偏航角。
坐标系转换子系统,用于根据零时刻的参数值确定零时刻多个大地坐标,大地坐标为障碍物在地面坐标系下的坐标,一个大地坐标对应一个无人机的机体坐标系。
视距视角计算子系统,用于对于任意一个无人机,根据零时刻无人机的姿态角、无人机在地面坐标系下的坐标和无人机的机体坐标系对应的大地坐标得到零时刻无人机与障碍物的视距和视角。
融合参数计算子系统,用于根据零时刻各所述无人机与所述障碍物的视距、视角和所述t时刻的参数值采用D-S证据理论得到t时刻的融合参数,所述融合参数包括融合结果的置信度与所述障碍物的融合坐标。
态势计算子系统,用于根据t时刻的融合参数和t-1时刻的融合参数采用D-S证据理论得到t时刻最终的融合参数。
作为一种可选的实施方式,融合参数计算子系统,具体包括:
视距视角计算模块,用于根据零时刻无人机与障碍物的视距和视角得到t时刻无人机与障碍物的视距和视角。
融合参数计算模块,用于根据t时刻各无人机与障碍物的视距、视角和参数值得到t时刻的融合参数。
作为一种可选的实施方式,融合参数计算模块,具体包括:
函数值计算子模块,用于根据t时刻无人机与障碍物的视距、视角得到t时刻无人机探测障碍物的基本概率分配函数值。
融合参数计算子模块,用于根据t时刻各无人机探测障碍物的基本概率分配函数值和t时刻的参数值得到t时刻的融合参数。
作为一种可选的实施方式,融合参数计算子模块,具体包括:
置信度计算单元,用于根据t时刻各无人机探测障碍物的基本概率分配函数值得到t时刻融合结果的置信度。
融合坐标计算单元,用于根据t时刻各无人机探测障碍物的基本概率分配函数值和t时刻的参数值得到t时刻障碍物的融合坐标。
作为一种可选的实施方式,融合坐标计算单元,具体包括:
坐标转换子单元,用于根据t时刻的参数值得到确定t时刻多个大地坐标。
融合坐标计算子单元,用于根据t时刻多个大地坐标和各无人机探测障碍物的基本概率分配函数值得到t时刻障碍物的融合坐标。
本发明实施例提供了一种更加具体的基于信息融合的多无人机协同态势感知方法,大体步骤为:对传感器不确定性进行建模,结合无人机的位姿信息,通过坐标转换,将不同无人机检测到的障碍信息统一到地面坐标系下,运用D-S证据理论融合障碍信息,并以数值仿真的方式对融合效果进行验证,相比于简单的传感器检测结果叠加,本发明提出的信息融合方案能对态势进行更为准确的感知。步骤如图2所示。无人机将障碍的位置信息及无人机的位姿信息传回到地面基站,地面基站通过坐标转换将障碍在无人机的机体坐标系的坐标转换到地面坐标系。地面基站提取本次检测下全部的关于障碍的位置信息和置信度,按照信息融合的规则进行融合,得到障碍物的位置信息和置信度,并将其作为本次检测的结果。然后按照信息融合的规则将本次信息融合的结果与上个采样周期信息融合的结果进行融合,融合之后的结果作为本次采样周期的最终结果。对所有检测到的障碍进行如上操作,实现全局态势感知。具体步骤如下:
步骤一,无人机和障碍位置与位姿建模
首先,分别定义无人机i(1≤i≤m)和障碍j(1≤j≤n),利用蒙特卡洛随机数生成法在给定三维空间中分别生成所有无人机和障碍的三维坐标,再给定各无人机的俯仰角θ,滚转角φ和偏航角ψ,以确定各无人机的初始姿态。在建模完成后,各无人机和障碍拥有的信息如下所示:
Uav={Pi G,δi}(i=1,…,m)
步骤二,坐标转换
由步骤一可知,地面基站在进行信息融合之前,需要将障碍的坐标从无人机的机体坐标系转换到地面坐标系下。无人机的机体坐标系可以通过坐标平移和坐标旋转转换到地面坐标系。无人机机体坐标首先通过坐标平移,使得无人机的机体坐标系的原点重合于地面坐标系的原点O,其转换矩阵为:式中,为无人机在地面坐标系X轴的投影长度,为无人机在地面坐标系Y轴的投影长度,为无人机在地面坐标系Z轴的投影长度。
平移后的障碍物坐标再通过旋转变换到地面坐标系,其转换矩阵为:
其中,ψi为第i个无人机的偏航角,θi为第i个无人机的俯仰角,φi为第i个无人机的滚转角。
步骤三,障碍物检测
由步骤一和步骤二,我们得到了无人机在地面坐标系下的坐标和姿态参数,以及障碍物在地面坐标系下的坐标。但机载传感器在实际工作时往往存在着一定检测范围,因此还必须模拟机载传感器检测障碍物过程,即只有障碍物在传感器检测范围内方能被检测到。以视觉传感器为例,其检测范围通常由视距上限Ls和视角上限θs决定,如图3所示:由前一步得到的无人机和障碍物位置和姿态信息,我们可通过公式计算出无人机与障碍物的实际视距L和视角θ并且公式也将作为步骤四中总探知准确率P的判据之一,式中,为障碍物在地面坐标系X轴的投影长度,为无人机在地面坐标系Y轴的投影长度。
步骤四,传感器不确定性建模
同样,我们以视觉传感器为例,由于视觉传感器的特性以及制造和装配存在误差,视觉传感器在检测障碍时会存在畸变,因此随着视界角的增大,传感器的识别准确率降低。同时,视距也会影响视觉传感器的识别率,即随着视距的增大,传感器的识别准确率降低。传感器的探知准确率与视距视界和探知距离的关系如图4和图5所示:
对于检测范围内的障碍物,传感器的探知准确率随视距视界呈特定关系,即随着视距或视界的增加,探知准确性随之降低。如图4和图5所示,探知准确性随视距L近似呈指数分布,随视界θ近似呈正态分布。本发明用指数函数P(L)描述探知准确性与视距的关系,其概率密度函数定义为f(L),用正态分布函数P(θ)描述探知准确性与视界的关系,其概率密度函数定义为f(θ)。则二者分别可以表示为:
其中,λ,σ,μ均为待估计参数值。
对于f(L)和f(θ),我们均采用极大似然估计进行参数估计,以求得待估参数值。通过求解二者的似然方程组,可得:
结合步骤三中给出的障碍物检测判据,我们定义总探知准确率P为:
考虑无人机的感知不确定度随视距和视界呈特定分布,结合障碍与无人机的相对位置及无人机速度信息,我们将总探知准确率作为步骤五:基于D-S证据理论的信息融合中的基本信度分配函数,并考虑无人机匀速运动情况,最终给出函数如下:
式中,t时刻无人机的视角θt和t时刻无人机的视距Lt计算公式如下:
Lt=L0-vt
其中,L0为零时刻无人机检测到障碍所在的视界大小;θ0为零时刻无人机检测到障碍所在的视距大小,v为无人机的运动速度。
步骤五,基于D-S证据理论进行信息融合:地面基站将障碍的坐标信息转换到地面坐标系之后,需要将同一障碍的信息进行信息融合,本发明使用的信息融合方法为D-S证据理论。该理论主要基于三要素进行信息融合:辨识框架,基本信度分配函数和融合规则。
而对于融合规则,我们则是采用D-S证据理论框架中的Dempster融合规则进行数据融合。
下面给出本文多无人机协同态势中的信息融合部分的具体步骤。若t时刻,无人机发现障碍,信息融合的步骤如下:
1)首先对t时刻所有覆盖此障碍的无人机进行信息融合。为表达清晰,这里以无人机1和无人机2对障碍进行信息融合的过程为例,信息融合表如表1所示。表中,m1(A1)表示无人机1探测障碍物1的基本概率分配函数,P1 G(A1)表示障碍物1在无人机1探测下,在地面坐标系下的坐标。
表1无人机1和无人机2信息融合表
首先根据D-S证据理论框架计算归一化常数k:
再进行基本概率分配函数和坐标的信息融合:
即得到了无人机1和2在时刻t对于障碍物1的基本概率分配函数和坐标信息融合结果。再将融合结果与剩余无人机依次融合,则可得到时刻t障碍物1在所有无人机下的整体信息融合结果。
2)将t时刻的融合结果与上一时刻的结果进行融合。为表达清晰,这里以时刻t1和时刻t2对障碍进行信息融合的过程为例,信息融合表如表2所示。表中,表示时刻t1全部无人机探测障碍物1的融合基本概率分配函数,表示时刻t1全部无人机探测障碍物1的融合坐标。
表2时刻t1和时刻t2信息融合表
同样,首先根据D-S证据理论框架计算归一化常数k:
再进行基本概率分配函数和坐标的信息融合:
即得到了时刻t2时全部无人机对于障碍物1的基本概率分配函数和坐标信息融合结果。再将融合结果与下一时刻结果融合,递推便可得到所有时刻下全部无人机对于障碍物1的整体信息融合结果,即本发明得到的最终结果。
对本发明设计的信息融合算法进行仿真验证,在一定区域内随机生成一系列障碍并模拟无人机检测过程。仿真参数如表3所示:
表3信息融合仿真参数设置
项目 | 参数 | 项目 | 参数 |
障碍区域 | 300m×200m×100m | 采样间隔 | 1s |
障碍数目n<sub>obs</sub> | 50个 | 视界感知不确定系数λ | 0.6 |
无人机数目n<sub>age</sub> | 5个 | 视距感知不确定系数μ | 300 |
无人机速度大小 | 20m/s | 传感器视距 | 0m~550m |
无人机速度方向 | x轴正向 | 传感器视界 | -45°~+45° |
1)定队形下的信息融合
在编队队形固定的情况下对障碍信息进行融合,无人机及障碍分布如图6所示:
将信息融合的结果投影到x-y平面,前八次采样周期的融合结果如图7所示,其中图7(a)为第一次采样的融合结果,图7(b)为第二次采样的融合结果,图7(c)为第三次采样的融合结果,图7(d)为第四次采样的融合结果,图7(e)为第五次采样的融合结果,图7(f)为第六次采样的融合结果,图7(g)为第七次采样的融合结果,图7(h)为第八次采样的融合结果。
图7中,圆圈代表置信度(就是融合后的m(A)即在[0,0.2]的障碍点,方形代表置信度在(0.2,0.4]的障碍点,星号代表置信度在(0.4,0.6]的障碍点,右三角代表置信度在(0.6,0.8]的障碍点,叉号代表置信度在(0.8,1.0]的障碍点。
从图7中也可看出,随着检测次数的增加,识别到的障碍数目增多,同一障碍的置信度增大。在x轴正向上,障碍越远离x=600,置信度越低;在轴正向上,障碍越远离y=100,置信度越低。结合无人机队形及传感器感知范围,可得出如下结论:对于同一障碍,随着融合的信息增多,对融合结果的不确定性减小,置信度增加;采样次数一定的情况下,障碍越远离编队中心,置信度越低。
2)不同队形下的信息融合
本发明针对5种常见的多无人机编队队形进行融合仿真,仿真设置如表3所示,编队队形如图8所示:
将障碍带划分为三个区域,如图9所示,实线部分为区域一,点划线部分为区域二,虚线部分为区域三。
仿真结果如图10、图11、图12所示:
分别对比五种常见队形下三个区域的检测误差和检测置信度。由图10可以看出:随着采样次数的增加,区域一的融合结果的误差越来越小如图10(a)所示,置信度越来越高如图10(b)所示;相比于其它队形,队形一的检测误差是最小的,且置信度是最高的。综合传感器检测范围和多无人机编队中心位置可知,在第1次采样时,传感器检测范围可以完全覆盖区域一,因此,区域一的融合结果的误差和置信度曲线在整个采样周期内都是平稳的。
由图11可以看出:在第6次采样之后,随着采样次数的增加,区域二的融合结果的误差越来越小如图11(a)所示,置信度越来越高如图11(b)所示;相比于其它队形,队形一的检测误差是最小的,且置信度是最高的。综合传感器检测范围和多无人机编队中心位置可知,在第6次采样时,传感器检测范围可以完全覆盖区域二,因此,区域二的融合结果的误差和置信度曲线在第6次采样后都是平稳的。
由图12可以看出:在第11次采样之后,随着采样次数的增加,区域三的融合结果的误差越来越小如图12(a)所示,置信度越来越高如图12(b)所示;相比于其它队形,队形一的检测误差是最小的,且置信度是最高的。综合传感器检测范围和多无人机编队中心位置可知,在第11次采样时,传感器检测范围可以完全覆盖区域三,因此,区域三的融合结果的误差和置信度曲线在第11次采样后都是平稳的。
由图10、图11、图12可以得出如下结论:
(1)随着采样次数的增加,单次采样误差减小,对融合结果的置信度增加;
(2)相同的情况下,队形一的置信度最高,单次采样误差最小,这是因为队形一的传感器覆盖范围比其他队形大。
综上所述,本发明提出的基于D-S证据理论的信息融合算法是稳定、有效的,可以应用于多无人机协同态势感知。
本发明的优点和积极效果在于:
(1)利用多无人机协同进行态势感知,基于信息融合技术进行多无人机协同态势感知,可以得到融合多个传感器获得的信息,从而扩大多无人机编队系统的感知范围,降低信息的不确定性,增强空间分辨率,提高多无人机编队工作的可靠性。
(2)利用基于D-S证据理论的方法进行多传感器信息融合,并以数值仿真的方式对融合效果进行验证,相比于简单的传感器检测结果叠加,能够得到更为准确的环境信息,从而实现对态势的有效准确感知。
(3)本发明涉及建立机载传感器不确定性模型以及基于信息融合的多无人机协同态势感知,主要特点为考虑传感器不确定性,并结合无人机的运动姿态,采用信息融合的方法得到更为准确的环境信息,从而实现对态势的准确感知。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于信息融合的多无人机协同态势感知方法,其特征在于,包括:
获取零时刻和t时刻的参数值;所述参数值包括各无人机的姿态角、各所述无人机在地面坐标系下的坐标和障碍物在各所述无人机的机体坐标系下的坐标,所述姿态角包括俯仰角、滚转角和偏航角;
根据所述零时刻的参数值确定零时刻多个大地坐标,所述大地坐标为所述障碍物在地面坐标系下的坐标,一个大地坐标对应一个无人机的机体坐标系;
对于任意一个无人机,根据零时刻所述无人机的姿态角、所述无人机在地面坐标系下的坐标和所述无人机的机体坐标系对应的大地坐标得到零时刻所述无人机与所述障碍物的视距和视角;
根据零时刻各所述无人机与所述障碍物的视距、视角和所述t时刻的参数值采用D-S证据理论得到t时刻的融合参数,所述融合参数包括融合结果的置信度与所述障碍物的融合坐标;
根据t时刻的融合参数和t-1时刻的融合参数采用D-S证据理论得到t时刻最终的融合参数。
2.根据权利要求1所述的一种基于信息融合的多无人机协同态势感知方法,其特征在于,所述根据零时刻各所述无人机与所述障碍物的视距、视角和所述t时刻的参数值采用D-S证据理论得到t时刻的融合参数,具体包括:
根据零时刻所述无人机与所述障碍物的视距和视角得到t时刻所述无人机与所述障碍物的视距和视角;
根据t时刻各所述无人机与所述障碍物的视距、视角和参数值得到t时刻的融合参数。
3.根据权利要求2所述的一种基于信息融合的多无人机协同态势感知方法,其特征在于,所述根据t时刻各所述无人机与所述障碍物的视距、视角和参数值得到t时刻的融合参数,具体包括:
根据t时刻所述无人机与所述障碍物的视距、视角得到t时刻所述无人机探测所述障碍物的基本概率分配函数值;
根据t时刻各所述无人机探测所述障碍物的基本概率分配函数值和t时刻的参数值得到t时刻的融合参数。
4.根据权利要求3所述的一种基于信息融合的多无人机协同态势感知方法,其特征在于,所述根据t时刻各所述无人机探测所述障碍物的基本概率分配函数值和t时刻的参数值得到t时刻的融合参数,具体包括:
根据t时刻各所述无人机探测所述障碍物的基本概率分配函数值得到t时刻融合结果的置信度;
根据t时刻各所述无人机探测所述障碍物的基本概率分配函数值和t时刻的参数值得到t时刻所述障碍物的融合坐标。
5.根据权利要求4所述的一种基于信息融合的多无人机协同态势感知方法,其特征在于,所述根据t时刻各所述无人机探测所述障碍物的基本概率分配函数值和t时刻的参数值得到t时刻所述障碍物的融合坐标,具体包括:
根据t时刻的参数值得到确定t时刻多个大地坐标;
根据t时刻多个大地坐标和各所述无人机探测所述障碍物的基本概率分配函数值得到t时刻所述障碍物的融合坐标。
6.一种基于信息融合的多无人机协同态势感知系统,其特征在于,包括:
获取子系统,用于获取零时刻和t时刻的参数值;所述参数值包括各无人机的姿态角、各所述无人机在地面坐标系下的坐标和障碍物在各所述无人机的机体坐标系下的坐标,所述姿态角包括俯仰角、滚转角和偏航角;
坐标系转换子系统,用于根据所述零时刻的参数值确定零时刻多个大地坐标,所述大地坐标为所述障碍物在地面坐标系下的坐标,一个大地坐标对应一个无人机的机体坐标系;
视距视角计算子系统,用于对于任意一个无人机,根据零时刻所述无人机的姿态角、所述无人机在地面坐标系下的坐标和所述无人机的机体坐标系对应的大地坐标得到零时刻所述无人机与所述障碍物的视距和视角;
融合参数计算子系统,用于根据零时刻各所述无人机与所述障碍物的视距、视角和所述t时刻的参数值采用D-S证据理论得到t时刻的融合参数,所述融合参数包括融合结果的置信度与所述障碍物的融合坐标;
态势计算子系统,用于根据t时刻的融合参数和t-1时刻的融合参数采用D-S证据理论得到t时刻最终的融合参数。
7.根据权利要求6所述的一种基于信息融合的多无人机协同态势感知系统,其特征在于,所述融合参数计算子系统,具体包括:
视距视角计算模块,用于根据零时刻所述无人机与所述障碍物的视距和视角得到t时刻所述无人机与所述障碍物的视距和视角;
融合参数计算模块,用于根据t时刻各所述无人机与所述障碍物的视距、视角和参数值得到t时刻的融合参数。
8.根据权利要求7所述的一种基于信息融合的多无人机协同态势感知系统,其特征在于,所述融合参数计算模块,具体包括:
函数值计算子模块,用于根据t时刻所述无人机与所述障碍物的视距、视角得到t时刻所述无人机探测所述障碍物的基本概率分配函数值;
融合参数计算子模块,用于根据t时刻各所述无人机探测所述障碍物的基本概率分配函数值和t时刻的参数值得到t时刻的融合参数。
9.根据权利要求8所述的一种基于信息融合的多无人机协同态势感知系统,其特征在于,所述融合参数计算子模块,具体包括:
置信度计算单元,用于根据t时刻各所述无人机探测所述障碍物的基本概率分配函数值得到t时刻融合结果的置信度;
融合坐标计算单元,用于根据t时刻各所述无人机探测所述障碍物的基本概率分配函数值和t时刻的参数值得到t时刻所述障碍物的融合坐标。
10.根据权利要求9所述的一种基于信息融合的多无人机协同态势感知系统,其特征在于,所述融合坐标计算单元,具体包括:
坐标转换子单元,用于根据t时刻的参数值得到确定t时刻多个大地坐标;
融合坐标计算子单元,用于根据t时刻多个大地坐标和各所述无人机探测所述障碍物的基本概率分配函数值得到t时刻所述障碍物的融合坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210170253.8A CN114510068A (zh) | 2022-02-24 | 2022-02-24 | 一种基于信息融合的多无人机协同态势感知方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210170253.8A CN114510068A (zh) | 2022-02-24 | 2022-02-24 | 一种基于信息融合的多无人机协同态势感知方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114510068A true CN114510068A (zh) | 2022-05-17 |
Family
ID=81554524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210170253.8A Pending CN114510068A (zh) | 2022-02-24 | 2022-02-24 | 一种基于信息融合的多无人机协同态势感知方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114510068A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115268481A (zh) * | 2022-07-06 | 2022-11-01 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种无人机对抗策略决策方法及其系统 |
CN116339220A (zh) * | 2023-05-30 | 2023-06-27 | 北京中兵天工防务技术有限公司 | 用于协同不同无人系统共同完成任务的方法、装置及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106200662A (zh) * | 2016-08-11 | 2016-12-07 | 国网四川省电力公司检修公司 | 一种无人机飞行控制系统 |
US20180032087A1 (en) * | 2016-07-27 | 2018-02-01 | Parrot Drones | Drone with an obstacle avoiding system |
CN108459612A (zh) * | 2017-02-21 | 2018-08-28 | 北京航空航天大学 | 基于人工势场法的无人机编队控制方法及装置 |
CN110502032A (zh) * | 2019-08-31 | 2019-11-26 | 华南理工大学 | 一种基于行为控制的无人机集群编队飞行方法 |
CN114067224A (zh) * | 2021-10-18 | 2022-02-18 | 南京航空航天大学 | 一种基于多传感器数据融合的无人机集群目标数量检测方法 |
-
2022
- 2022-02-24 CN CN202210170253.8A patent/CN114510068A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180032087A1 (en) * | 2016-07-27 | 2018-02-01 | Parrot Drones | Drone with an obstacle avoiding system |
CN106200662A (zh) * | 2016-08-11 | 2016-12-07 | 国网四川省电力公司检修公司 | 一种无人机飞行控制系统 |
CN108459612A (zh) * | 2017-02-21 | 2018-08-28 | 北京航空航天大学 | 基于人工势场法的无人机编队控制方法及装置 |
CN110502032A (zh) * | 2019-08-31 | 2019-11-26 | 华南理工大学 | 一种基于行为控制的无人机集群编队飞行方法 |
CN114067224A (zh) * | 2021-10-18 | 2022-02-18 | 南京航空航天大学 | 一种基于多传感器数据融合的无人机集群目标数量检测方法 |
Non-Patent Citations (1)
Title |
---|
戚茜;: "不确定环境下融合语义的无人机编队协同控制研究", 计算机应用与软件, no. 06, 12 June 2020 (2020-06-12) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115268481A (zh) * | 2022-07-06 | 2022-11-01 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种无人机对抗策略决策方法及其系统 |
CN115268481B (zh) * | 2022-07-06 | 2023-06-20 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种无人机对抗策略决策方法及其系统 |
CN116339220A (zh) * | 2023-05-30 | 2023-06-27 | 北京中兵天工防务技术有限公司 | 用于协同不同无人系统共同完成任务的方法、装置及系统 |
CN116339220B (zh) * | 2023-05-30 | 2023-08-01 | 北京中兵天工防务技术有限公司 | 用于协同不同无人系统共同完成任务的方法、装置及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230260151A1 (en) | Simultaneous Localization and Mapping Method, Device, System and Storage Medium | |
CN112083725B (zh) | 一种面向自动驾驶车辆的结构共用多传感器融合定位系统 | |
CN110609290B (zh) | 激光雷达匹配定位方法及装置 | |
CN114510068A (zh) | 一种基于信息融合的多无人机协同态势感知方法及系统 | |
CN1940591B (zh) | 使用传感器融合进行目标跟踪的系统和方法 | |
CN111272165A (zh) | 一种基于特征点标定的智能车定位方法 | |
CN110470333B (zh) | 传感器参数的标定方法及装置、存储介质和电子装置 | |
CN108759839B (zh) | 一种基于态势空间的无人飞行器路径规划方法 | |
CN106767785B (zh) | 一种双回路无人机的导航方法及装置 | |
JP5759161B2 (ja) | 物体認識装置、物体認識方法、学習装置、学習方法、プログラム、および情報処理システム | |
CN112639502A (zh) | 机器人位姿估计 | |
CN110501036A (zh) | 传感器参数的标定检查方法及装置 | |
JP6682508B2 (ja) | 位置特定およびマッピングの装置ならびに方法 | |
CN112837352A (zh) | 基于图像的数据处理方法、装置及设备、汽车、存储介质 | |
CN113137968B (zh) | 基于多传感器融合的重定位方法、重定位装置和电子设备 | |
CN112346104A (zh) | 一种无人机信息融合定位方法 | |
CN111862216B (zh) | 计算机设备定位方法、装置、计算机设备和存储介质 | |
CN113866747A (zh) | 一种多激光雷达的标定方法及装置 | |
CN112733971B (zh) | 扫描设备的位姿确定方法、装置、设备及存储介质 | |
CN113759928B (zh) | 用于复杂大尺度室内场景的移动机器人高精度定位方法 | |
CN111735443B (zh) | 一种基于赋值矩阵的密集目标航迹关联方法 | |
KR102130687B1 (ko) | 다중 센서 플랫폼 간 정보 융합을 위한 시스템 | |
CN101939666B (zh) | 利用传感器数据来对对象的运动进行计算机辅助计算的方法 | |
CN115457130A (zh) | 一种基于深度关键点回归的电动汽车充电口检测定位方法 | |
CN110749327B (zh) | 一种合作环境下的车辆导航方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |