CN116185049A - 基于视觉引导的无人直升机自主着舰方法 - Google Patents
基于视觉引导的无人直升机自主着舰方法 Download PDFInfo
- Publication number
- CN116185049A CN116185049A CN202310184894.3A CN202310184894A CN116185049A CN 116185049 A CN116185049 A CN 116185049A CN 202310184894 A CN202310184894 A CN 202310184894A CN 116185049 A CN116185049 A CN 116185049A
- Authority
- CN
- China
- Prior art keywords
- landing
- target
- unmanned helicopter
- image
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 48
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000005516 engineering process Methods 0.000 claims abstract description 19
- 239000013598 vector Substances 0.000 claims abstract description 19
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000033001 locomotion Effects 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 5
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 238000000605 extraction Methods 0.000 abstract description 11
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 abstract description 4
- 238000004088 simulation Methods 0.000 description 17
- 238000004422 calculation algorithm Methods 0.000 description 13
- 238000001514 detection method Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000002187 spin decoupling employing ultra-broadband-inversion sequences generated via simulated annealing Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/04—Control of altitude or depth
- G05D1/06—Rate of change of altitude or depth
- G05D1/0607—Rate of change of altitude or depth specially adapted for aircraft
- G05D1/0653—Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing
- G05D1/0676—Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing specially adapted for landing
- G05D1/0684—Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing specially adapted for landing on a moving platform, e.g. aircraft carrier
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Navigation (AREA)
Abstract
本发明公开了一种基于视觉引导的无人直升机自主着舰方法,无人直升机采用差分GPS引导模式飞向舰船,当无人直升机进入舰船预设距离,切换为基于视觉引导的着舰模式;开启视觉摄像机搜索着陆目标标识,获取着陆目标标识的图像序列;提取着陆目标标识的特征图案,获得特征点和特征向量;与库中目标图像的特征点进行匹配,识别着陆目标后切换至目标识别跟踪模式;在目标识别跟踪模式下,无人直升机持续获取飞行稳定参数,实现着舰。本发明解决了现有技术控制方法设计飞行控制律周期长、工作量大且控制精度不高等问题,基于SURF与FLANN方法融合的特征点和特征向量的提取识别匹配技术,实现无人机视觉导航自主着舰。
Description
技术领域
本发明涉及无人机导航、图像识别领域,尤其涉及一种基于视觉引导的无人直升机自主着舰方法。
背景技术
无人直升机自主着舰的过程是一个极其重要且极易出现安全事故的阶段,着舰引导技术是影响无人直升机自主着舰发展的关键技术之一。近年来,国内外学者研究了分米波仪表着陆引导技术、差分GPS引导技术、计算机视觉引导技术和精密进场雷达引导这四种着舰技术。基于视觉着舰技术具有精度高、安全可靠性好且成本低廉,因此,基于视觉引导无人直升机视觉着舰控制技术的研究具有极高的价值和广阔的军事应用前景。
现有的无人机视觉导航技术包括视觉图像预处理,目标提取、目标跟踪、数据融合等过程。图像的预处理,它包括图像的去噪、灰度化、二值化等;目标提取可采用特征角点提取、边提取、不变矩、Hough变换、贪婪算法等,目标跟踪可以分析特征进行状态估计,并与其他传感器融合,用到的方法有卡尔曼滤波、粒子滤波器和人工神经网络等。
导航过程中图像特征提取与识别是该技术的核心,传统的特征角点提取方法包括Harris,SUSAN和phase congruence三种角点检测算法。Harris算法准确度仅次于phasecongruence,但实时性占优;phase congruence算法可检测多目标,准确度最高,但它需要对噪声进行估计,计算量大,实时性差;SUSAN算法能够保证实时性要求,但是准确度差,此三种算法大都适用于类似地面作业的设备中,例如扫地机器人。
实际应用中,由于无人机的动力、载重、装配空间等物理条件的限制以及飞行速度更快,使得算法处理需要更少的延时。而且,无人机稀疏的室外飞行环境使得适用于地面机器人的算法不适用于无人机。
发明内容
发明目的:针对以上问题,本发明提出一种基于视觉引导的无人直升机自主着舰方法,基于SURF与FLANN方法融合的特征点和特征向量的提取识别匹配技术,实现无人机视觉导航自主着舰。
技术方案:为实现本发明的目的,本发明所采用的技术方案是:一种基于视觉引导的无人直升机自主着舰方法,包括步骤:
(1)无人直升机采用差分GPS引导模式飞向舰船,当无人直升机进入舰船预设距离,切换为基于视觉引导的着舰模式;
(2)开启视觉摄像机搜索着陆目标标识,获取着陆目标标识的图像序列;
(3)机载视觉控制器对获取的着陆目标标识的图像序列进行处理,提取着陆目标标识的特征图案,获得特征点和特征向量;与库中目标图像的特征点进行匹配,识别着陆目标后切换至目标识别跟踪模式;
(4)在目标识别跟踪模式下,无人直升机持续获取飞行稳定参数,飞行稳定参数包括海况、船体实时运动参数、位姿参数;根据位姿参数保持相对于舰船悬停;
(5)根据船体实时运动参数,判断舰船是否处于息静期,当舰船在某一时刻运动处于息静期时,实现着舰。
进一步地,所述步骤3具体包括:
(3.1)对获取着陆目标标识的图像序列,采用中值滤波法消除图像噪声;
(3.2)采用二值阈值化分割技术进行预处理,分割出待处理的目标图像区域;
(3.3)对待处理的目标图像区域,采用SURF法分别提取着陆目标和场景的特征点,生成特征向量;
(3.4)与库中目标图像的特征点进行匹配,基于FLANN法匹配两幅图像中的特征点,计算匹配特征点对的匹配距离;
(3.5)根据阈值剔除匹配距离过大的匹配特征点,得到最优特征点,完成着陆目标识别。
进一步地,所述步骤3.3中,具体步骤:目标图像含有四个与背景灰度差异显著的特征点(A,B,C,D),利用矩形区域的积分图像公式计算:
S=I∑(A)-I∑(B)-I∑(D)+I∑(C)
式中,IΣ(X)表示X点像素及目标图像包含X点在内的矩形区域所有像素点之和;I(i,j)表示目标图像(i,j)点的灰度值;S表示矩形区域灰度值;IΣ(A),IΣ(B),IΣ(C),IΣ(D)分别为四个特征点的积分图像值;
带入下式构建Hessian矩阵,获得包含四个特征点ABCD区域内的矩形区域新的特征向量f(i,j):
其中,H为任一像素点(x,y)的Hessian矩阵,det(H)为对应Hessian矩阵的特征值;f(x,y)为目标图像针对X,Y坐标函数。
进一步地,所述步骤3.4中,具体步骤:
计算上一步骤获得的特征向量f(i,j)与库中目标图像h(i,j)的匹配距离C(u,v):
其中,式(8)用于边界图像点的匹配,式(9)用于一般图像点的匹配,式(10)用于模糊区域图像点的匹配。
进一步地,所述步骤4中,无人机分阶段下降高度,每个阶段下降至一定高度后,悬停并更新飞行稳定参数。
进一步地,所述步骤4中,位姿参数为无人直升机相对于船体的位姿参数,获得无人直升机的位姿参数后,调整无人直升机当前位置保持相对于船体悬停。
有益效果:本发明针对现有技术控制方法设计的飞行控制律周期长、工作量大且控制精度不高等缺点,提出基于SURF与FLANN方法融合的特征点识别匹配技术,提高了识别效率又满足实际应用精度,完全满足无人机视觉导航自主着舰的应用场景。仿真验证结果表明:该识别技术针对各种场景下的着陆目标都能较好地识别到完整目标,提高了识别效率又满足实际应用精度,完全满足无人机视觉导航自主着舰的应用场景。
附图说明
图1是本发明实施例的流程图;
图2是实施例中S400的子流程图;
图3是无人直升机相对位姿信息估计示意图;
图4是利用视觉引导的自主着舰方法着舰方位角仿真结果;
图5是利用视觉引导的自主着舰方法着舰速度和角速度仿真结果;
图6是3D仿真实验的下滑轨迹图。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步的说明。
如图1所示,本发明所述的基于视觉引导的无人直升机自主着舰方法,包括步骤:
S100:无人直升机返航采用差分GPS引导其飞向舰船;
S200:无人直升机进入舰船预设距离,切换为基于图像算法引导的视觉着舰模式;
无人直升机通过差分GPS引导,进入预设距离后开启视觉着舰模式进行着陆目标的搜索,预设距离为50米。
S300:开启视觉摄像机搜索着陆目标标识,获取着陆目标标识的图像序列;
S400:机载视觉控制器对获取的着陆目标标识的图像序列进行处理,提取着陆目标标识的特征图案,获得特征点和特征向量,然后与库中目标图像的特征点进行匹配,识别着陆目标后切换至目标识别跟踪模式;
S500:在目标识别跟踪模式下,无人直升机相对于舰船悬停,持续获取飞行稳定参数,飞行稳定参数包括海况、船体实时运动参数、位姿参数;判断舰船是否处于息静期,当舰船在某一时刻运动处于息静期时,迅速着舰,同时触发鱼叉锁紧装置,以便固定好无人直升机,保证无人直升机安全着舰。
进一步地,无人机分阶段下降高度,每个阶段下降至一定高度后,悬停并更新飞行稳定参数,判断是否继续下降;飞行稳定参数包括海况、船体实时运动参数、位姿参数。
步骤S400中,在视觉着舰模式下,首先采集的图像采用中值滤波来消除图像噪声,采用二值阈值化分割技术进行预处理分割出待处理的目标图像区域;其次,对待处理的目标区域图像采用SURF检测方法分别提取着陆目标和场景的SURF特征点,生成二者的特征向量;再次,利用基于FLANN方法匹配两幅图像中的特征点,得到特征点对并计算匹配特征点对的匹配距离;最后,根据阈值剔除“匹配距离”过大的匹配特征点,得到最优特征点对,最终完成着陆目标基于图像匹配的特征点识别。
其中,步骤S400的库,是指在舰船甲板降落平台上设置的着陆目标标志,其为一个特有的标志图像,将这个标准图像纳入库图像中,无人直升机在空中拍摄并将识别到的图像与库中的标准图像进行对比识别。
本实施例的着陆目标标识的特征图案包括一个大矩形框,在大矩形框内的四个角分别设有四个大小不一的小矩形框。
如图2所示,步骤S400进一步包括步骤:
S410:对获取着陆目标标识的图像序列,采用中值滤波法消除图像噪声:
式(1)中,A为当前工作窗口,fmed为以(i,j)为中心的工作窗口A中的灰度中值,f(i,j)表示像素点(i,j)输出的灰度值。
S420:采用二值阈值化分割出待识别的目标图像区域:
式(2)中,f(x,y)为原始图像灰度值;g(x,y)为分割后二值化图像,T为分割阈值,
T=V+η(P-V),0<η<1 (3)
其中,V为原始图像灰度值,P为原始图像峰值灰度,η为0~1的经验值;η取值过小则噪声大,取值过大则抗干扰性好,但会对目标形状识别带来影响,一般取经验值为0.7最为合适。
完成预处理的工作后,依据目标图像和场景的差异性特征提取特征角点,特征角点提取的前提条件是目标和场景的差异性特征且要求这种特征具备在目标运动过程中保持不变或变化较小的特点。
S430:对目标图像区域采用SURF法提取特征角点和特征向量:
利用目标特征点来表示目标图像的局部特征,采用SURF检测方法分别提取目标和场景的SURF特征点(A,B,C,D),生成二者对应的特征向量。
假设目标图像中的任意一个像素点X=(x,y),因此可将X点像素及目标图像包含原点在内的矩形区域所有像素点之和作为积分图像IΣ(X)。
目标图像含有四个与背景灰度差异显著的特征点(A,B,C,D),利用矩形区域的积分图像公式计算:
S=IΣ(A)-IΣ(B)-IΣ(D)+IΣ(C) (5)
式中,IΣ(X)表示X点像素及目标图像包含X点在内的矩形区域所有像素点之和;I(i,j)表示目标图像(i,j)点的灰度值;S表示矩形区域灰度值;IΣ(A),IΣ(B),IΣ(C),IΣ(D)分别为四个特征点的积分图像值。
然后带入下式构建Hessian矩阵,获得包含四个特征点ABCD区域内的矩形区域新的特征向量f(i,j)。
其中:H为任一像素点(x,y)的Hessian矩阵,det(H)为对应Hessian矩阵的特征值;f(x,y)为目标图像针对X,Y坐标函数。
Hessian矩阵是由函数和偏导数构成,联立上述公式可确定多个特征点和特征向量,选择特征点提取的原则应根据目标识别及跟踪的需要,选取的特征量应具有相对稳定性和可分性,可以减少特征数的提取来提高目标识别的有效率。
S440:基于FLANN法进行特征点匹配:
计算上一步骤获得的特征向量f(i,j)与库中目标图像h(i,j)的匹配距离C(u,v):
式(8)用于边界图像点的匹配,式(9)用于一般图像点的匹配,式(10)用于模糊区域图像点的匹配,其中,f是一个待处理的图像,h是一个要匹配的模式,公式描述f在(u,v)处与h之间的匹配程度;然后根据设定的阈值剔除匹配距离C过大的匹配特征点,得到最优匹配特征点qi。
步骤S500中,目标识别跟踪模式下,对无人机相对位姿信息进行估算。位姿参数r为无人机相对于船体的位姿,包括欧拉角、角速度。无人机获得相对于船体的位姿参数后,带入到飞行轨迹控制算法中,及时调整无人机当前的姿态。
如图3所示,采用线性转换计算方法求解位姿信息。具体包括:
建立摄像机小孔成像方程,如式(11)所示:
λixi=[R,T]qi (11)
其中,qi为步骤S440获得的最优匹配特征点,[R,T]为相对位姿R和最优匹配特征点到相机的垂直高度T的矩阵向量;λi为成像系数,xi为图像平面SE(3)对应的特征点的值。
建立核线限制方程,如式(12)所示:
其中,xi为成像平面对应的特征点的值。
建立平面限制方程,如式(13)所示:
联立公式(11)、(12)、(13),获得公式(14)如下所示:
其中,r1,r2为图像相对于船体的不同时间里的两个姿态,qi为最优匹配特征点。
着陆目标识别中,当检测到超过四个特征点时,rank(G)=8,假定[r1 T r2 T TT]T∈R9,获得公式(15)如下所示:
[r1 r2 0]∈R3×3 (15)
将结果投影到图像平面SE(3)可得到相对于船体的姿态矩阵R。
一般来说,无人机直升的位姿参数包括相对于船体的位姿参数、以及相对于地面的位姿参数,本发明的位姿参数指的是相对于船体的位姿参数,该参数主要通过视觉摄像机和图像算法获取。而相对于地面的位姿参数可通过板载IMU获得。
本实施例基于地平线及舰船目标识别仿真实验在MATLAB平台中进行仿真验证。将彩色舰船目标图像通过RGB方法转化为灰度图像,并通过中值滤波去除噪声。经采用Canny算子边缘检测得到舰船轮廓图像,然后采用RANSAC算法计算地平线,得到地平线轮廓图像,并通过连通区域分割识别舰船等目标。
基于上述的目标识别方法,整个着舰过程中无人直升机相对于着陆目标的方位角、速度和角速度仿真结果分别如图4和图5所示。
从图4可以看出,无人直升机在计算机视觉的引导下自主着舰的过程中俯仰角θ和偏航角ψ变化范围很小,不超过5°。说明无人直升机依据视觉引导保持着较小角度着舰并保持平稳姿态。
由图5可以看出,无人直升机在视觉着舰模式下,其X方向速度逐渐减小直至为零,Y和Z方向速度变化量较小。其俯仰角速度、滚转角速度和偏航角速度基本稳定在基准运动附近。
基于前述仿真条件,在Flightgear仿真平台上模拟无人直升机飞行仿真环境。采用符号控制方法设计的飞行控制律的基础上,构建无人直升机着舰飞行控制量输出仿真界面。采用于图像匹配的特征特征点识别技术构建2D图像处理窗口界面。将二者所得的数据进行融合进行无人直升机视觉着舰3D视景仿真。
开始运行3D视景仿真时,无人直升机基于GPS搜索模式自主飞向舰船着陆目标附近。当发现着陆目标后,控制器会切换到视觉着舰模式。这一期间的某一时刻丢失着陆目标后,无人直升机直接返回到搜索着陆目标模式直至无人直升机着舰。最后基于位姿信息引导着舰仿真结果绘制3D着舰仿真轨迹,如6所示,无人直升机3D下滑整个过程的轨迹是平稳和光滑的,中间有短暂的转换;无人直升机视觉着舰是分阶段、分模式下滑着舰的,前期采用GPS/INS导航引导无人直升机降落,在高度接近4~6m时切换到视觉着舰模式,并根据视觉系统识别跟踪舰船着陆目标获得位姿信息反馈给视觉控制器平稳着陆到舰船上,图6中的圆圈代表舰上着陆目标。
在Flightgear仿真平台经多次飞行仿真测试得到无人直升机着舰误差结果如表1所示:
表1
由表1表明,无人直升机视觉引导着舰平均位置误差达到为±7cm,着舰角度误差为5°。本发明基于图像匹配的特征点识别技术,提出了基于SURF方法的特征点提取和基于FLANN特征点匹配对着陆目标进行识别的技术方案,有效提高了识别效率和识别精度。
Claims (6)
1.一种基于视觉引导的无人直升机自主着舰方法,其特征在于,包括以下步骤:
(1)无人直升机采用差分GPS引导模式飞向舰船,当无人直升机进入舰船预设距离,切换为基于视觉引导的着舰模式;
(2)开启视觉摄像机搜索着陆目标标识,获取着陆目标标识的图像序列;
(3)机载视觉控制器对获取的着陆目标标识的图像序列进行处理,提取着陆目标标识的特征图案,获得特征点和特征向量;与库中目标图像的特征点进行匹配,识别着陆目标后切换至目标识别跟踪模式;
(4)在目标识别跟踪模式下,无人直升机持续获取飞行稳定参数,飞行稳定参数包括海况、船体实时运动参数、位姿参数;根据位姿参数保持相对于舰船悬停;
(5)根据船体实时运动参数,判断舰船是否处于息静期,当舰船在某一时刻运动处于息静期时,实现着舰。
2.根据权利要求1所述的基于视觉引导的无人直升机自主着舰方法,其特征在于,所述步骤3具体包括:
(3.1)对获取着陆目标标识的图像序列,采用中值滤波法消除图像噪声;
(3.2)采用二值阈值化分割技术进行预处理,分割出待处理的目标图像区域;
(3.3)对待处理的目标图像区域,采用SURF法分别提取着陆目标和场景的特征点,生成特征向量;
(3.4)与库中目标图像的特征点进行匹配,基于FLANN法匹配两幅图像中的特征点,计算匹配特征点对的匹配距离;
(3.5)根据阈值剔除匹配距离过大的匹配特征点,得到最优特征点,完成着陆目标识别。
3.根据权利要求3所述的基于视觉引导的无人直升机自主着舰方法,其特征在于,所述步骤3.3中,具体步骤:
目标图像含有四个与背景灰度差异显著的特征点(A,B,C,D),利用矩形区域的积分图像公式计算:
S=I∑(A)-I∑(B)-I∑(D)+I∑(C)
式中,IΣ(X)表示X点像素及目标图像包含X点在内的矩形区域所有像素点之和;I(i,j)表示目标图像h(i,j)点的灰度值;S表示矩形区域灰度值;IΣ(A),IΣ(B),IΣ(C),IΣ(D)分别为四个特征点的积分图像值;
带入下式构建Hessian矩阵,获得包含四个特征点ABCD区域内的矩形区域新的特征向量f(i,j):
其中,H为任一像素点(x,y)的Hessian矩阵,det(H)为对应Hessian矩阵的特征值;f(x,y)为目标图像针对X,Y坐标函数。
5.根据权利要求1所述的基于视觉引导的无人直升机自主着舰方法,其特征在于,所述步骤4中,无人机分阶段下降高度,每个阶段下降至一定高度后,悬停并更新飞行稳定参数。
6.根据权利要求1所述的基于视觉引导的无人直升机自主着舰方法,其特征在于,所述步骤4中,位姿参数为无人直升机相对于船体的位姿参数,获得无人直升机的位姿参数后,调整无人直升机当前位置保持相对于船体悬停。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310184894.3A CN116185049A (zh) | 2023-03-01 | 2023-03-01 | 基于视觉引导的无人直升机自主着舰方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310184894.3A CN116185049A (zh) | 2023-03-01 | 2023-03-01 | 基于视觉引导的无人直升机自主着舰方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116185049A true CN116185049A (zh) | 2023-05-30 |
Family
ID=86440204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310184894.3A Pending CN116185049A (zh) | 2023-03-01 | 2023-03-01 | 基于视觉引导的无人直升机自主着舰方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116185049A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116627154A (zh) * | 2023-06-09 | 2023-08-22 | 上海大学 | 基于位姿预测和轨迹优化的无人机引导降落方法及无人机 |
-
2023
- 2023-03-01 CN CN202310184894.3A patent/CN116185049A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116627154A (zh) * | 2023-06-09 | 2023-08-22 | 上海大学 | 基于位姿预测和轨迹优化的无人机引导降落方法及无人机 |
CN116627154B (zh) * | 2023-06-09 | 2024-04-30 | 上海大学 | 基于位姿预测和轨迹优化的无人机引导降落方法及无人机 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111968128B (zh) | 一种基于图像标记的无人机视觉姿态和位置解算方法 | |
Muhovič et al. | Obstacle tracking for unmanned surface vessels using 3-D point cloud | |
Martínez et al. | On-board and ground visual pose estimation techniques for UAV control | |
Sanchez-Lopez et al. | Toward visual autonomous ship board landing of a VTOL UAV | |
CN108446634B (zh) | 基于视频分析和定位信息结合的航空器持续跟踪方法 | |
CN103149939A (zh) | 一种基于视觉的无人机动态目标跟踪与定位方法 | |
CN111598952B (zh) | 一种多尺度合作靶标设计与在线检测识别方法及系统 | |
CN105786016A (zh) | 无人机以及rgbd图像的处理方法 | |
Fan et al. | Vision algorithms for fixed-wing unmanned aerial vehicle landing system | |
Vetrella et al. | RGB-D camera-based quadrotor navigation in GPS-denied and low light environments using known 3D markers | |
CN115327568B (zh) | 基于PointNet网络的无人机集群实时目标识别方法、系统和地图构建方法 | |
CN116185049A (zh) | 基于视觉引导的无人直升机自主着舰方法 | |
Chiu et al. | Vision-only automatic flight control for small UAVs | |
CN116578035A (zh) | 基于数字孪生技术的旋翼无人机自主降落控制系统 | |
Wu et al. | Autonomous UAV landing system based on visual navigation | |
Yuan et al. | High Speed Safe Autonomous Landing Marker Tracking of Fixed Wing Drone Based on Deep Learning | |
Lee et al. | Intelligent Vision-based Autonomous Ship Landing of VTOL UAVs | |
CN114815871A (zh) | 一种基于视觉的垂直起降无人机动平台自主降落方法 | |
Badrloo et al. | A novel region-based expansion rate obstacle detection method for MAVs using a fisheye camera | |
Lee | Machine learning vision and nonlinear control approach for autonomous ship landing of vertical flight aircraft | |
CN113792593A (zh) | 一种基于深度融合的水下近距离目标识别跟踪方法及系统 | |
CN116866719B (zh) | 一种基于图像识别的高清视频内容智能分析处理方法 | |
Fucen et al. | The object recognition and adaptive threshold selection in the vision system for landing an unmanned aerial vehicle | |
Chen et al. | Overview of landmarks for autonomous, vision-based landing of unmanned helicopters | |
CN115755575A (zh) | 一种基于ros的双云台无人机自主降落方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |