CN110609571A - 一种基于多无人机的多运动目标分布式协同视觉定位方法 - Google Patents

一种基于多无人机的多运动目标分布式协同视觉定位方法 Download PDF

Info

Publication number
CN110609571A
CN110609571A CN201910720492.4A CN201910720492A CN110609571A CN 110609571 A CN110609571 A CN 110609571A CN 201910720492 A CN201910720492 A CN 201910720492A CN 110609571 A CN110609571 A CN 110609571A
Authority
CN
China
Prior art keywords
unmanned aerial
target
aerial vehicle
positioning
cost
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910720492.4A
Other languages
English (en)
Other versions
CN110609571B (zh
Inventor
何斌
李鑫
王志鹏
周艳敏
沈润杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN201910720492.4A priority Critical patent/CN110609571B/zh
Publication of CN110609571A publication Critical patent/CN110609571A/zh
Application granted granted Critical
Publication of CN110609571B publication Critical patent/CN110609571B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft

Abstract

一种基于多无人机的多运动目标分布式协同视觉定位方法,包括多台搭载有双目相机的无人机,每台无人机具有唯一编码;在无人机执行任务之前,在需要定位的目标贴上标志物;无人机飞行过程是识别并形成目标集合{B1…BM},在系统定位代价模型中加入定位精度代价,期望多无人机以最合理的定位目标配比和最优化的航程、时间、定位精度约束的同时,能够快速、高效、协同地完成多目标定位任务,提高系统的稳定性和可靠性。

Description

一种基于多无人机的多运动目标分布式协同视觉定位方法
技术领域
本发明涉及一种视觉定位方法。
背景技术
背景技术的内容只是为了帮助理解技术内容,并非现有技术。
随着科学技术的迅速发展,现在的建筑、工业等环境的基础设施建设已经摆脱了使用大量劳动力的时代,转而越来越依赖于自动化系统,因此建筑机器人等自动化装备应运而生。而在实际的工作中,常常存在多机器人协同工作的场景,因此为了实现多任务的联合调度,对多机器进行定位就显得尤为重要。但是由于工作环境复杂、外干扰等原因,难以在大空间下对多机器人进行高精度的无缝定位,特别是在机器人运动的情况下。无人机(Unmanned Aerial Vehicle,UAV)作为一种不载乘任何操作人员、利用空气动力学进行飞行的能够携带有效载荷的无人飞行平台,具有低成本、使用方便、零伤亡率和机动性强等特点,可以长时间、灵活的执行任务。而视觉定位则是利用视觉传感器获取物体图像,然后通过计算机处理进而获得物体位置信息的定位方式,具有定位精度高、不受电磁干扰的特点。通过在无人机上搭载视觉传感器对运动目标进行定位,可以满足高灵活性、高精度的定位要求,而要在大空间下进行多运动目标定位,则需要多无人机的协同。
“张正友标定”又称“张氏标定”,是指张正友教授于1998年提出的单平面棋盘格的摄像机标定方法。张氏标定法已经作为工具箱或封装好的函数被广泛应用。张氏标定的原文为“A Flexible New Technique forCamera Calibration”,为相机标定提供了很大便利,并且具有很高的精度。从此标定可以不需要特殊的标定物,只需要一张打印出来的棋盘格。
目前在多无人机协同多目标的分配方法中,构建了包含航程代价、时间代价和损失代价的飞行代价模型,然后采用启发式遗传算法,通过引入启发式信息,加速对飞行代价模型优化求解的效率。但是该方法并不是针对目标定位场景,没有考虑定位所需要的视场约束,同时在目标发生移动时存在目标分配误差。
申请人采用修改飞行代价模型,并在飞行代价模型中增加视场约束和运动补偿实现多无人机的多运动目标分布式协同视觉定位。
发明内容
本发明的目的在于提供一种修改飞行代价模型,并在飞行代价模型中增加视场约束和运动补偿实现多无人机的多运动目标分布式协同视觉定位。
本发明采用以下技术方案实现:
一种基于多无人机的多运动目标分布式协同视觉定位方法,包括多台搭载有双目相机的无人机,每台无人机具有唯一编码;在无人机执行任务之前,在需要定位的目标贴上标志物;其特征在于:执行任务时,使无人机起飞,标注出执行任务的无人机集合{A1…An},无人机飞行过程是识别并形成目标集合{B1…Bm},其中,n为执行任务的无人机数量,m表示被识别出来的目标数量;将无人机与目标输入分配模型,获得无人机-目标执行序列集合,无人机-目标执行序列集合由无人机与目标的执行关系组成,每一组无人机与目标的对应关系作为一个无人机-目标执行序列;对每条无人机-目标执行序列进行定位代价计算,定位代价模型为:
F(x)=w1e1dsum+w2e2tsum+w3e3βsum
其中,w1对应航程代价的权重因子、w2对应总飞行时间代价的权重因子、w3对应定位精度代价的权重因子,dsum为航程代价,tsum为时间代价,βsum为总定位精度代价,e1、e2、e3分别为对应的比例缩放因子,寻找最小定位代价的无人机-目标执行序列作为最优执行序列。
优选的,分配模型为
当n=m时,有
当n<m时,有
当n>m时,有
其中,u代表第u架无人机,i代表第i个目标,n代表一共n架无人机,m代表一共m个目标,x(u,i)是决策变量。
优选的,根据分配模型得到无人机和目标相对应的执行序列的方法为
1)对于无人机集合{A1…An}和目标集合{B1…Bm},列举所有出无人机集合到目标集合的映射关系组成集合{(A1,B1),(A1,B2),…,(An,Bm)},其中A为无人机元素,B为目标元素;
2)当n=m时,挑选使得无人机集合中元素与目标集合元素一一对应的映射作为一组,并且该组中包含所有无人机集合元素及目标集合元素,该组为一个执行序列;
当n<m时,挑选使得无人机集合中同一个元素与目标集合中多个元素对应的映射作为一组,并且该组中包含所有无人机集合元素及目标集合元素,该组为一个执行序列。
当n>m时,挑选使得目标集合中同一个元素与无人机集合中多个元素对应的映射作为一组,并且该组中包含所有无人机集合元素及目标集合元素,该组为一个执行序列;
优选的,定位代价模型为
F(x)=w1e1dsum+w2e2tsum+w3e3βsum
其中dsum为航程代价,d(u,i)表示第u架无人机对第i个目标定位时的航线长度;
tsum为时间代价,t(u,i)表示执行对应目标定位时的时间,满足其中,v(u)为无人机飞行速度;
βsum为总定位精度代价,
其中L(u,i)(u,i)分别表示执行对应目标定位时,目标与视觉传感器的距离和其离视场中心轴线的空间夹角,取弧度,其中p1和p2为对应的缩放因子;
w1、w2、w3分别对应航程代价、总飞行时间代价和定位精度代价的权重因子,满足w1+w2+w3=1,e1、e2、e3分别为对应的比例缩放因子。
定位代价模型在现有的飞行代价模型上进行了改进,原有飞行代价包含航程代价,时间代价和损失代价,由于原有飞行代价模型并非针对定位场景,我们这里删去了损失代价,并且假定当目标与双目视觉传感器的距离L(u,i)位于视觉传感器所能识别的区域内(Lth1,Lth2)且目标与双目视觉传感器的视场中心轴线的空间夹角β(u,i)小于等于某一阈值α时,该目标可以被正确定位,因此加上了包含目标与双目视觉传感器的距离L(u,i)和目标与双目视觉传感器的视场中心轴线的空间夹角β(u,i)的总定位精度代价βsum;dsum、tsum、βsum的符号均为正,与定位代价正相关。
优选的,寻找最小定位代价的无人机-目标执行序列作为最优执行序列的方法为:
1)计算所有执行序列的定位代价集合Fn,计算最优的定位代价Fx,并输出Fx对应的执行序列,根据执行序列中无人机和目标的对应关系为每个无人机分配目标;
2)所有无人机起飞,每个无人机按照自身与目标的对应关系,使用双目视觉传感器测量与目标间的距离,由近至远的测量目标和无人机间的距离;
3)使用张正友标定法计算目标在世界坐标系下的三维信息;
4)对目标进行卡尔曼预测,预测目标下一步的三维信息;
5)计算当前目标三维信息下,当前所有执行序列下的定位代价集合Fn1,以及预测目标三维信息下,当前所有执行序列下的定位代价集合Fn2
6)计算Fn1集合中的最优定位代价FX1,并输出执行序列CX1,计算Fn2集合中的最优定位代价Fx2,并输出执行序列CX2
7)当|Fx2-Fx1|<δ时,CX1为最优执行序列,回到步骤1),计算下一个目标点的三维信息和预测三维信息,否则,在预测目标三维信息下,重新计算当前所有执行序列下的定位代价集合Fnx
8)计算Fn集合中的最优定位代价Fxx,并输出Fxx对应的执行序列为最优执行序列,回到步骤1),继续计算当前目标点的FX1和Fx2,直到满足|Fx2-Fx1|<δ回到步骤1),计算下一个目标点的三维信息和预测三维信息。
优选的,计算所有执行序列的定位代价集合Fn的方法为:
1)对于一个执行序列中的映射元素,将无人机到目标的映射所对应的航线长度d(u,i)、飞行时间t(u,i)、空间夹角β(u,i)、目标与视觉传感器的距离L(u,i)带入计算得到dsum、tsum和βsum
2)将dsum、tsum和βsum,带入定位代价模型得到当前执行序列的定位代价;
3)计算所有执行序列的定位代价,组成集合Fn
优选的,计算最优的定位代价Fx,并输出Fx对应的执行序列为最优执行序列的方法为:
1)对于Fn集合中的所有满足d(u,i)≤Du,L(u,i)满足Lth1>L(u,i)>Lth2,β(u,i)≤α的元素,使用差分进化计算方法计算Fn集合中的最优定位代价FX,其中Du为第u架无人机单次最大航程约束,Lth1、Lth2和α根据双目视觉传感器的内部参数提供,目标与视觉传感器的距离L(u,i)
2)输出FX对应的执行序列CX
本发明的有益效果是:
1、在系统定位代价模型中加入定位精度代价,期望多无人机以最合理的定位目标配比和最优化的航程、时间、定位精度约束的同时,能够快速、高效、协同地完成多目标定位任务,提高系统的稳定性和可靠性。
2、采用无迹卡尔曼滤波对目标运动轨迹进行预测,可以对最优分配序列和定位结果进行补偿。
附图说明
图1为本发明的系统模块化示意图。
图2为本发明的多目标分配模块二维示意图。
图3为本发明的系统流程图示意图。
具体实施方式
一种基于多无人机的多运动目标分布式协同视觉定位方法,包括多台搭载有双目相机的无人机,每台无人机具有唯一编码;在无人机执行任务之前,在需要定位的目标贴上标志物;其特征在于:执行任务时,使无人机起飞,标注出执行任务的无人机集合{A1…An},无人机飞行过程是识别并形成目标集合{B1…Bm},其中,n为执行任务的无人机数量,m表示被识别出来的目标数量;将无人机与目标输入分配模型,获得无人机-目标执行序列集合,无人机-目标执行序列集合由无人机与目标的执行关系组成,每一组无人机与目标的对应关系作为一个无人机-目标执行序列;对每条无人机-目标执行序列进行定位代价计算,定位代价模型为:
F(x)=w1e1dsum+w2e2tsum+w3e3βsum
其中,w1对应航程代价的权重因子、w2对应总飞行时间代价的权重因子、w3对应定位精度代价的权重因子,dsum为航程代价,tsum为时间代价,βsum为总定位精度代价,e1、e2、e3分别为对应的比例缩放因子,寻找最小定位代价的无人机-目标执行序列作为最优执行序列。
作为优选的实施方案,分配模型为
当n=m时,有
当n>m时,有
当n<m时,有
其中,u,i分别代表第u架无人机和第i个目标,x(u,i)是决策变量。
作为优选的实施方案,根据分配模型得到无人机和目标相对应的执行序列的方法为
1)对于无人机集合{A1…An}和目标集合{B1…Bm},列举所有出无人机集合到目标集合的映射关系组成集合{(A1,B1),(A1,B2),…,(An,Bm)},其中A为无人机元素,B为目标元素;
2)当n=m时,挑选使得无人机集合中元素与目标集合元素一一对应的映射作为一组,并且该组中包含所有无人机集合元素及目标集合元素,该组为一个执行序列;
当n<m时,挑选使得无人机集合中同一个元素与目标集合中多个元素对应的映射作为一组,并且该组中包含所有无人机集合元素及目标集合元素,该组为一个执行序列;
当n>m时,挑选使得目标集合中同一个元素与无人机集合中多个元素对应的映射作为一组,并且该组中包含所有无人机集合元素及目标集合元素,该组为一个执行序列。
作为优选的实施方案,定位代价模型为
F(x)=w1e1dsum+w2e2tsum+w3e3βsum
其中dsum为航程代价,d(u,i)表示第u架无人机对第i个目标定位时的航线长度;
tsum为时间代价,t(u,i)表示执行对应目标定位时的时间,满足其中,v(u)为无人机飞行速度;
βsum为总定位精度代价,
其中L(u,i)(u,i)分别表示执行对应目标定位时,目标与视觉传感器的距离和其离视场中心轴线的空间夹角,取弧度,其中p1和p2为对应的缩放因子;
w1、w2、w3分别对应航程代价、总飞行时间代价和定位精度代价的权重因子,满足w1+w2+w3=1,e1、e2、e3分别为对应的比例缩放因子。
定位代价模型在现有的飞行代价模型上进行了改进,原有飞行代价包含航程代价,时间代价和损失代价,由于原有飞行代价模型并非针对定位场景,我们这里删去了损失代价,并且假定当目标与双目视觉传感器的距离L(u,i)位于视觉传感器所能识别的区域内(Lth1,Lth2)且目标与双目视觉传感器的视场中心轴线的空间夹角β(u,i)小于等于某一阈值α时,该目标可以被正确定位,因此加上了包含目标与双目视觉传感器的距离L(u,i)和目标与双目视觉传感器的视场中心轴线的空间夹角β(u,i)的总定位精度代价βsum;dsum、tsum、βsum的符号均为正,与定位代价正相关。
作为优选的实施方案,寻找最小定位代价的无人机-目标执行序列作为最优执行序列的方法为:
1)计算所有执行序列的定位代价集合Fn,计算最优的定位代价Fx,并输出Fx对应的执行序列,根据执行序列中无人机和目标的对应关系为每个无人机分配目标;
2)所有无人机起飞,每个无人机按照自身与目标的对应关系,使用双目视觉传感器测量与目标间的距离,由近至远的测量目标和无人机间的距离;
3)使用张正友标定法计算目标在世界坐标系下的三维信息;
4)对目标进行卡尔曼预测,预测目标下一步的三维信息;
5)计算当前目标三维信息下,当前所有执行序列下的定位代价集合Fn1,以及预测目标三维信息下,当前所有执行序列下的定位代价集合Fn2
6)计算Fn1集合中的最优定位代价FX1,并输出执行序列CX1,计算Fn2集合中的最优定位代价Fx2,并输出执行序列CX2
7)当|Fx2-Fx1|<δ时,CX1为最优执行序列,回到步骤1),计算下一个目标点的三维信息和预测三维信息,否则,在预测目标三维信息下,重新计算当前所有执行序列下的定位代价集合Fnx
8)计算Fn集合中的最优定位代价Fxx,并输出Fxx对应的执行序列为最优执行序列,回到步骤1),继续计算当前目标点的FX1和Fx2,直到满足|Fx2-Fx1|<δ回到步骤1),计算下一个目标点的三维信息和预测三维信息。
作为优选的实施方案,计算所有执行序列的定位代价集合Fn的方法为:
1)对于一个执行序列中的映射元素,将无人机到目标的映射所对应的航线长度d(u,i)、飞行时间t(u,i)、空间夹角β(u,i)、目标与视觉传感器的距离L(u,i)带入计算得到dsum、tsum和βsum
2)将dsum、tsum和βsum,带入定位代价模型得到当前执行序列的定位代价;
3)计算所有执行序列的定位代价,组成集合Fn
作为优选的实施方案,计算最优的定位代价Fx,并输出Fx对应的执行序列为最优执行序列的方法为:
1)对于Fn集合中的所有满足d(u,i)≤Du,L(u,i)满足Lth1>L(u,i)>Lth2,β(u,i)≤α的元素,使用差分进化计算方法计算Fn集合中的最优定位代价FX,其中Du为第u架无人机单次最大航程约束,Lth1、Lth2和α根据双目视觉传感器的内部参数提供,目标与视觉传感器的距离L(u,i)
2)输出FX对应的执行序列CX

Claims (7)

1.一种基于多无人机的多运动目标分布式协同视觉定位方法,包括多台搭载有双目相机的无人机,每台无人机具有唯一编码;在无人机执行任务之前,在需要定位的目标贴上标志物;其特征在于:执行任务时,使无人机起飞,标注出执行任务的无人机集合{A1…An},无人机飞行过程是识别并形成目标集合{B1…Bm},其中,n为执行任务的无人机数量,m表示被识别出来的目标数量;将无人机与目标输入分配模型,获得无人机-目标执行序列集合,无人机-目标执行序列集合由无人机与目标的执行关系组成,每一组无人机与目标的对应关系作为一个无人机-目标执行序列;对每条无人机-目标执行序列进行定位代价计算,定位代价模型为:
F(x)=w1e1dsum+w2e2tsum+w3e3βsum
其中,w1对应航程代价的权重因子、w2对应总飞行时间代价的权重因子、w3对应定位精度代价的权重因子,dsum为航程代价,tsum为时间代价,βsum为总定位精度代价,e1、e2、e3分别为对应的比例缩放因子,寻找最小定位代价的无人机-目标执行序列作为最优执行序列。
2.如权利要求1所述的一种基于多无人机的多运动目标分布式协同视觉定位方法,其特征在于:分配模型为:
当n=m时,有
当n>m时,有
当n<m时,有
其中,u代表第u架无人机,i代表第i个目标,n代表一共n架无人机,m代表一共m个目标,x(u,i)是决策变量。
3.如权利要求1和2所述的一种基于多无人机的多运动目标分布式协同视觉定位方法,其特征在于:根据分配模型得到无人机和目标相对应的执行序列的方法为:
1)对于无人机集合{A1…An}和目标集合{B1…Bm},列举所有出无人机集合到目标集合的映射关系组成集合{(A1,B1),(A1,B2),…,(An,Bm)},其中A为无人机元素,B为目标元素;
2)当n=m时,挑选使得无人机集合中元素与目标集合元素一一对应的映射作为一组,并且该组中包含所有无人机集合元素及目标集合元素,该组为一个执行序列;
当n<m时,挑选使得无人机集合中同一个元素与目标集合中多个元素对应的映射作为一组,并且该组中包含所有无人机集合元素及目标集合元素,该组为一个执行序列;
当n>m时,挑选使得目标集合中同一个元素与无人机集合中多个元素对应的映射作为一组,并且该组中包含所有无人机集合元素及目标集合元素,该组为一个执行序列。
4.如权利要求1所述的一种基于多无人机的多运动目标分布式协同视觉定位方法,其特征在于:定位代价模型为:
F(x)=w1e1dsum+w2e2tsum+w3e3βsum
其中dsum为航程代价,d(u,i)表示第u架无人机对第i个目标定位时的航线长度,x(u,i)是决策变量;
tsum为时间代价,t(u,i)表示执行对应目标定位时的时间,满足其中,v(u)为无人机飞行速度;
βsum为总定位精度代价,
其中L(u,i)表示执行对应目标定位时,目标与视觉传感器的距离,β(u,i)表示其离视场中心轴线的空间夹角,取弧度,其中p1和p2为对应的缩放因子;
w1对应航程代价的权重因子、w2对应总飞行时间代价的权重因子,w3对应定位精度代价的权重因子,满足w1+w2+w3=1,e1、e2、e3分别为对应的比例缩放因子。
5.如权利要求1所述的一种基于多无人机的多运动目标分布式协同视觉定位方法,其特征在于:寻找最小定位代价的无人机-目标执行序列作为最优执行序列的方法为:
1)计算所有执行序列的定位代价集合Fn,计算最优的定位代价Fx,并输出Fx对应的执行序列,根据执行序列中无人机和目标的对应关系为每个无人机分配目标;
2)所有无人机起飞,每个无人机按照自身与目标的对应关系,使用双目视觉传感器测量与目标间的距离,由近至远的测量目标和无人机间的距离;
3)使用张正友标定法计算目标在世界坐标系下的三维信息;
4)对目标进行卡尔曼预测,预测目标下一步的三维信息;
5)计算当前目标三维信息下,当前所有执行序列下的定位代价集合Fn1,以及预测目标三维信息下,当前所有执行序列下的定位代价集合Fn2
6)计算Fn1集合中的最优定位代价FX1,并输出对应执行序列CX1,计算Fn2集合中的最优定位代价Fx2,并输出对应执行序列CX2
7)当|Fx2-Fx1|<δ时,CX1仍为最优执行序列,回到步骤1),计算下一个目标点的三维信息和预测三维信息,否则,在预测目标三维信息下,重新计算当前所有执行序列下的定位代价集合Fnx
8)计算Fn集合中的最优定位代价Fxx,并输出Fxx对应的执行序列为最优执行序列,回到步骤1),继续计算当前目标点的FX1和Fx2,直到满足|Fx2-Fx1|<δ回到步骤1),计算下一个目标点的三维信息和预测三维信息。
6.如权利要求5所述的一种基于多无人机的多运动目标分布式协同视觉定位方法,其特征在于:计算所有执行序列的定位代价集合Fn的方法为:
1)对于一个执行序列中的映射元素,将无人机到目标的映射所对应的航线长度d(u,i)、飞行时间t(u,i)、空间夹角β(u,i)、目标与视觉传感器的距离L(u,i)带入计算得到dsum、tsum和βsum
2)将dsum、tsum和βsum,带入定位代价模型得到当前执行序列的定位代价;
3)计算所有执行序列的定位代价,组成集合Fn
7.如权利要求5所述的一种基于多无人机的多运动目标分布式协同视觉定位方法,其特征在于:计算最优的定位代价Fx,并输出Fx对应的执行序列为最优执行序列的方法为:
1)对于Fn集合中的所有满足d(u,i)≤Du,L(u,i)满足Lth1>L(u,i)>Lth2,β(u,i)≤α的元素,使用差分进化计算方法计算Fn集合中的最优定位代价FX,其中Du为第u架无人机单次最大航程约束,Lth1、Lth2和α根据双目视觉传感器的内部参数提供,目标与视觉传感器的距离L(u,i)
2)输出FX对应的执行序列CX
CN201910720492.4A 2019-08-06 2019-08-06 一种基于多无人机的多运动目标分布式协同视觉定位方法 Active CN110609571B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910720492.4A CN110609571B (zh) 2019-08-06 2019-08-06 一种基于多无人机的多运动目标分布式协同视觉定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910720492.4A CN110609571B (zh) 2019-08-06 2019-08-06 一种基于多无人机的多运动目标分布式协同视觉定位方法

Publications (2)

Publication Number Publication Date
CN110609571A true CN110609571A (zh) 2019-12-24
CN110609571B CN110609571B (zh) 2022-01-07

Family

ID=68890319

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910720492.4A Active CN110609571B (zh) 2019-08-06 2019-08-06 一种基于多无人机的多运动目标分布式协同视觉定位方法

Country Status (1)

Country Link
CN (1) CN110609571B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111474953A (zh) * 2020-03-30 2020-07-31 清华大学 多动态视角协同的空中目标识别方法及系统
CN113899356A (zh) * 2021-09-17 2022-01-07 武汉大学 一种非接触式移动测量系统及方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007080584A2 (en) * 2006-01-11 2007-07-19 Carmel-Haifa University Economic Corp. Ltd. Uav decision and control system
CN103149939A (zh) * 2013-02-26 2013-06-12 北京航空航天大学 一种基于视觉的无人机动态目标跟踪与定位方法
CN103246289A (zh) * 2013-05-07 2013-08-14 西北工业大学 带通信约束的多无人机协同搜索中的目标分配方法
CN105068550A (zh) * 2015-08-21 2015-11-18 燕山大学 一种基于拍卖模式的水下机器人多目标选择策略
CN105352509A (zh) * 2015-10-27 2016-02-24 武汉大学 地理信息时空约束下的无人机运动目标跟踪与定位方法
CN106529674A (zh) * 2016-11-03 2017-03-22 中国人民解放军信息工程大学 多无人机协同多目标分配方法
CN107678446A (zh) * 2017-10-30 2018-02-09 西北工业大学 一种针对大规模目标群的无人机协同目标分配方法
CN108613676A (zh) * 2018-03-27 2018-10-02 中国民用航空飞行学院 一种无人机和有人机协同机制下的多机多目标应急搜救航迹规划方法
CN108873894A (zh) * 2018-06-11 2018-11-23 上海大学 一种基于多无人艇的目标跟踪协同控制系统和方法
CN110069074A (zh) * 2019-04-17 2019-07-30 南京航空航天大学 一种基于多目标三点定位的无人机协同航迹规划方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007080584A2 (en) * 2006-01-11 2007-07-19 Carmel-Haifa University Economic Corp. Ltd. Uav decision and control system
CN103149939A (zh) * 2013-02-26 2013-06-12 北京航空航天大学 一种基于视觉的无人机动态目标跟踪与定位方法
CN103246289A (zh) * 2013-05-07 2013-08-14 西北工业大学 带通信约束的多无人机协同搜索中的目标分配方法
CN105068550A (zh) * 2015-08-21 2015-11-18 燕山大学 一种基于拍卖模式的水下机器人多目标选择策略
CN105352509A (zh) * 2015-10-27 2016-02-24 武汉大学 地理信息时空约束下的无人机运动目标跟踪与定位方法
CN106529674A (zh) * 2016-11-03 2017-03-22 中国人民解放军信息工程大学 多无人机协同多目标分配方法
CN107678446A (zh) * 2017-10-30 2018-02-09 西北工业大学 一种针对大规模目标群的无人机协同目标分配方法
CN108613676A (zh) * 2018-03-27 2018-10-02 中国民用航空飞行学院 一种无人机和有人机协同机制下的多机多目标应急搜救航迹规划方法
CN108873894A (zh) * 2018-06-11 2018-11-23 上海大学 一种基于多无人艇的目标跟踪协同控制系统和方法
CN110069074A (zh) * 2019-04-17 2019-07-30 南京航空航天大学 一种基于多目标三点定位的无人机协同航迹规划方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ADAMEY E ETC.: "A decentralized approach for multi-UAV multitarget tracking and surveilance", 《PROCEEDINGS OF SPIE-THE INTERNATIONAL SOCIETY FOR OPTICAL ENGINEERING》 *
王林: "多无人机协同目标跟踪问题建模与优化技术研究", 《中国博士学位论文全文数据库》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111474953A (zh) * 2020-03-30 2020-07-31 清华大学 多动态视角协同的空中目标识别方法及系统
CN111474953B (zh) * 2020-03-30 2021-09-17 清华大学 多动态视角协同的空中目标识别方法及系统
CN113899356A (zh) * 2021-09-17 2022-01-07 武汉大学 一种非接触式移动测量系统及方法
CN113899356B (zh) * 2021-09-17 2023-08-18 武汉大学 一种非接触式移动测量系统及方法

Also Published As

Publication number Publication date
CN110609571B (zh) 2022-01-07

Similar Documents

Publication Publication Date Title
Li et al. Neural-dynamic optimization-based model predictive control for tracking and formation of nonholonomic multirobot systems
CN109211251B (zh) 一种基于激光和二维码融合的即时定位与地图构建方法
Zhang et al. A recursive receding horizon planning for unmanned vehicles
Deng et al. Indoor multi-camera-based testbed for 3-D tracking and control of UAVs
Luetteke et al. Implementation of the hungarian method for object tracking on a camera monitored transportation system
CN110609571B (zh) 一种基于多无人机的多运动目标分布式协同视觉定位方法
WO2018182524A1 (en) Real time robust localization via visual inertial odometry
CN111260751B (zh) 基于多传感器移动机器人的建图方法
WO2022241944A1 (zh) 一种海空协同水下目标追踪的路径规划系统及方法
CN106896824A (zh) 一种基于目标函数的多auv编队控制方法
CN108645408B (zh) 一种基于导航信息的无人机自主回收目标预测方法
Wang et al. Vision-based tracking control of underactuated water surface robots without direct position measurement
EP4088884A1 (en) Method of acquiring sensor data on a construction site, construction robot system, computer program product, and training method
CN108896053A (zh) 一种行星着陆光学导航最优路标选取方法
CN111857114A (zh) 一种机器人编队移动方法、系统、设备和存储介质
CN111273701B (zh) 一种云台视觉控制系统以及控制方法
CN112504261A (zh) 一种基于视觉锚点的无人机降落位姿滤波估计方法及系统
CN110967017A (zh) 一种用于双移动机器人刚体协作搬运的协同定位方法
Tippetts et al. FPGA implementation of a feature detection and tracking algorithm for real-time applications
CN108731683B (zh) 一种基于导航信息的无人机自主回收目标预测方法
Zhou et al. Autonomous wireless sensor deployment with unmanned aerial vehicles for structural health monitoring applications
CN113984045B (zh) 水下机器人移动式对接目标运动状态估计方法及系统
CN113689501B (zh) 一种基于收敛点的双机协同目标机定位跟踪控制方法
CN113310484B (zh) 一种移动机器人定位方法和系统
Biswas et al. Goal-aware Navigation of Quadrotor UAV for Infrastructure Inspection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant