CN113657256B - 一种无人艇载无人机海空协同视觉跟踪与自主回收方法 - Google Patents
一种无人艇载无人机海空协同视觉跟踪与自主回收方法 Download PDFInfo
- Publication number
- CN113657256B CN113657256B CN202110936703.5A CN202110936703A CN113657256B CN 113657256 B CN113657256 B CN 113657256B CN 202110936703 A CN202110936703 A CN 202110936703A CN 113657256 B CN113657256 B CN 113657256B
- Authority
- CN
- China
- Prior art keywords
- aerial vehicle
- unmanned aerial
- identification code
- unmanned
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K17/00—Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
- G06K17/0022—Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisious for transferring data to distant stations, e.g. from a sensing device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Mathematical Optimization (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种无人艇载无人机海空协同视觉跟踪与自主回收方法,包括:无人机采用摄像头利用深度学习的目标检测算法对无人艇进行搜索;采用机载摄像头对无人艇上设置的标识码进行识别;当机艇之间高度小于设定值h1,则启用艇载摄像头对无人机底端设置的标识码进行识别并获取无人机相对于艇载摄像头的相对位置信息ΔX、ΔY和高度H,将机载摄像头和艇载摄像头获取的相对位置信息进行数据融合,从而输出无人机调整飞行位姿的控制信息;基于无人机相对于无人艇的相对位置信息调整无人机的姿态使无人机跟随无人艇运动,缩小无人机相对于降落平台的二维平面上的误差,根据无人机相对于标识码的垂直距离,给定相应的下降速度控制无人机降落到标识码的正中心。
Description
技术领域
本发明涉及无人控制技术与应用技术领域,尤其涉及无人艇载无人机基于视觉导航的目标跟踪和自主回收方法。
背景技术
无人艇具有体积小,成本低,无人员伤亡等优点,在海洋探测、海洋主权维护和执行搜救等领域应用广泛。但是在其移动速度相对较慢、特殊海域的不可达性限制了无人艇的任务范围。而无人机同样具有成本低、无人员伤亡、功能多样的特点,并且无人机还具有机动灵活这一特点,能够有效的弥补无人艇的缺陷。通过在无人艇上携载无人机,来扩大无人机的飞行距离和执行任务的范围,在无人机上搭载摄像头将视角移到空中可以为无人艇提供空中视角和远程侦察,可以对视野中的目标物进行识别和跟踪。由于无人机的续航时间短,无人艇上搭载有无人艇续航的电源设备,在无人机任务完成后或续航能力不足时,能够自主降落到无人艇的特定区域内。目前的目标跟踪算法对于长时间跟踪都有不同方面的缺点,且在跟踪目标快速运动时易出现目标偏移等问题,需要提出一种能够长时间对目标准确的跟踪算法;无人艇和大型的舰船不同,其尺寸小,所以供无人机起降的区域的大小和位置较小,对无人机自主导航降落的精度要求较高。另外,在无人机着艇过程中,对合作目标识别的快速性和准确性是核心问题,海面的反光影响、无人艇上面安装有天线以及一系列感知设备,容易对合作目标造成一定的遮挡。海空协同与地空协同不同,即使无人艇停止航行,由于海面的影响,无人艇也不会静止不动,使无人机返航难度增大。无人机在降落过程中难度很大,极易发生事故,能否准确跟踪和自主降落成功与否就决定了空海协同工作成败的关键。
目前,国内外针对这个部分的研究还很少,大多是降落到静止的标志物上,并且不考虑目标的遮挡和海面反光造成的标识码识别失败问题。常用的引导无人机降落的辅助系统有:全球定位系统(GPS)、惯性导航系统和视觉导航系统。但在移动导航中,移动GPS接收机定位精度受卫星信号状况和外界环境的影响只能到米级;惯性导航的误差会随着时间的累积越来越大,甚至发散。二者均无法满足无人机降落到无人艇上的精度要求。视觉导航通过识别设计好的标识码,可以把定位精度降低到厘米级,可是在无人机降落过程中由于海面反光和遮挡易造成标识码定位失败;在近艇端,仍会出现无人机视野内标识丢失、位姿解算不准确的问题,最终导致无人机降落失败。
发明内容
根据现有技术存在的问题,本发明公开了一种无人艇载无人机海空协同视觉跟踪与自主回收方法,具体包括如下步骤:
跟踪阶段:无人机采用摄像头利用深度学习的目标检测算法对无人艇进行搜索,当在帧图像中识别到无人艇后,将无人艇所在图像中的位置初始化K-CFTLD目标跟踪算法,利用K-CFTLD目标跟踪算法获得目标在图像中的位置信息,从而对无人艇进行动态跟踪;
下降阶段:当收到降落指令时,无人机下降到指定高度,采用机载摄像头对无人艇上设置的标识码进行识别,通过改进的标识码检测算法检测图片从而识别标识码,并获取无人机相对于艇端标识码的相对位置信息Δx、Δy和高度h,通过相对位置信息给定下降速度,使无人机不断靠近无人艇的降落平台;
当机艇之间高度小于设定值h1,则启用艇载摄像头对无人机底端设置的标识码进行识别并获取无人机相对于艇载摄像头的相对位置信息ΔX、ΔY和高度H,将机载摄像头和艇载摄像头获取的相对位置信息进行数据融合,将高度h和高度H分配权重,对相对位置信息Δx、Δy、ΔX、ΔY进行判断决策获得无人机靠近无人艇阶段的视觉定位信息,从而输出无人机调整飞行位姿的控制信息;
基于无人机相对于无人艇的相对位置信息调整无人机的姿态使无人机跟随无人艇运动,缩小无人机相对于降落平台的二维平面上的误差,根据无人机相对于标识码的垂直距离,给定相应的下降速度控制无人机降落到标识码的正中心。
进一步的,在跟踪阶段,采用K-CFTLD目标跟踪算法获得目标在图像中的位置时:
对无人艇进行动态跟踪过程中,K-CFTLD目标跟踪算法对无人艇视觉跟踪时,具有跟踪框包围无人艇,并根据无人艇在帧图像中所占的比例和位置,不断调整跟踪框的大小和位置,根据跟踪框在图像中的位置,计算跟踪框正中心与帧图像正中心的相对位置偏差Δx、Δy,以得到的偏差Δx、Δy为控制命令控制无人机在水平方向上的移动,实现对无人艇动态跟踪;
在K-CFTLD目标跟踪算法中设置跟踪自校正环节,当跟踪结果的置信度低于设定阈值时,重启深度学习的目标检测算法进行目标检测,再次初始化K-CFTLD目标跟踪算法进行无人艇的动态跟踪。
进一步的,在下降阶段,当机载摄像头识别到艇端标识码,将标识码所在图像中的位置信息初始化K-CFTLD目标跟踪算法,当能识别到标识码时,根据无人机相对于艇端标识码的相对位置信息进行降落控制,当海面出现反光或标识码被部分遮挡时,采用K-CFTLD目标跟踪算法对标识码进行跟踪控制。
进一步的,通过改进的标识码检测算法检测图片从而识别标识码具体采用如下方式:
当检测到标识码时框选出标识码所在的矩形边框,将检测到的标识码的位置作为初始位置,初始化K-CFTLD目标跟踪算法进行视觉追踪,通过对标识码的识别进行角点检测,确认标识码的四个正方形顶点,求出标识码的正中心点和帧图像中心点在二维平面内的偏差Δx和Δy,以标识码的四个顶点作为特征点,将标识码平面转换到相机成像平面,在已知标识码的尺寸和标识码特征点的位置关系的前提下,根据PnP算法计算出相机外参矩阵旋转矩阵R和平移矩阵T,当得到旋转矩阵和平移向量后,经过坐标变换得到摄像机在世界坐标系中的三维坐标。
由于采用了上述技术方案,本发明提供的一种无人艇载无人机海空协同视觉跟踪与自主回收方法,该方法利用目标检测和目标跟踪相结合的方式,并根据目标检测模块设置目标跟踪自矫正模块,能够有效的解决目标跟踪算法长时间跟踪不准确的缺陷,提高系统的鲁棒性;本方法用标识码是ArUco码,ArUco是进行相机姿态估计的开源库,具有比其他库更快的运算速度。ArUco码采用内部编码的方式,可以通过内部ID确定标识码方向,减少误判,标识码识别后的边框信息可以直接运用到视觉定位的位姿解算中。本发明艇端摄像头的设计,为视觉导航的无人机提供一个位置信息,并且避免无人机降落过程中随着高度降低导致标识物图像超出相机视野范围,解决无人机降落至超低空时定位不准的问题,提高自主降落的准确性和鲁棒性。
另外本方法采用ArUco码定位算法和以TLD算法为框架改进的尺度自适应KCF跟踪算法相结合的自主降落算法,能够有效解决在降落过程中,机载摄像头视野中ArUco码定位算法失效所导致的降落失败的问题,提高降落的成功率。
另外本方法能够不依赖GPS,利用俯视和仰视两个视角对无人机进行视觉导航,实现在无人艇运动状态下,无人机的自主跟随和降落。现有研究中,针对无人机降落至运动的无人艇上的研究很少,本发明为这方面提供了一种方法,弥补了这方面研究的不足。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1(a)为本发明无人艇降落平台上标识码示意图;
图1(b)为无人机底端标识码图案示意图;
图2为本发明无人机自主降落系统示意图;
图3为改进的TLD+KCF辅助定位算法;
图4(a)为本发明机载摄像头坐标系统示意图;
图4(b)为本发明机载摄像头坐标系统示意图;
图5为本发明降落方案流程图;
图6为本发明装置的硬件连接示意图。
具体实施方式
为使本发明的技术方案和优点更加清楚,下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚完整的描述:
本发明公开的方法通过利用深度学习的目标检测方法与改进后的K-CFTLD目标跟踪算法相结合的方式,对无人艇进行动态跟踪,并利用校正模块来防止出现运动无人艇的错误跟踪;设计海空协同的视觉导航方式,通过在无人机和无人艇上均搭载摄像头,由视觉识别标识码并搭配抗遮挡目标跟踪算法,旨在弥补传统的基于视觉导航无人机降落系统的不足。
如图1所示,首先设计了以二进制编码为基础的标识码,基于增强现实库ArUco算法的视觉定位方法,标识具体设计如下:标识码是由五个纯黑方块和四个ArUco码组成的九宫格样式,五个纯黑方块分布在码的四个顶点及中心位置,其余四个ArUco码置于剩下的四个底色为白色的空位中且大小一致,边长为纯黑方块的2/3。ArUco码是由6*6个方格组成,且外圈方格均为黑方块,中间被包围的是ID不同的二维码。标识码中四个ArUco码分布为由上至下,从左到右的ID依次为:1、2、3、7。方形标识码能够迅速算出其中心坐标,从而得到相对位姿解算结果。四个方向的ArUco码既提高了标识码的识别率,也能根据其ID确定方向。在无人机跟随降落的过程中,既可识别整个标识码,也可识别单个ArUco码,以视野内出现的ID最小的码进行位姿估计。
在位于中心位置的黑方块处,安装作为艇端辅助视觉定位的向上视角的摄像头,降落平台摄像头将对无人机上的单个ArUco码进行识别,识别结果在无人机近艇端降落阶段生效。
如图2所示的一种无人艇载无人机海空协同视觉跟踪与自主回收方法,具体包括如下步骤:
步骤S1:所述的方法中,无人机执行完任务后,飞到无人艇位置附近,无人机在上空调用摄像头利用深度学习的目标检测算法对无人艇进行搜索,一旦识别到无人艇,初始化改进的K-CFTLD目标跟踪算法对无人艇动态跟踪。
具体的,所述的无人机的设定是四旋翼无人机,无人机通过图像处理模块检测无人艇,获取无人艇所在图像中的位置,将无人艇所在位置初始化改进的目标跟踪算法,改进的目标跟踪算法框图如图3所示,实现对无人艇的视觉跟踪,根据跟踪框在图像中的位置,计算相对偏差,以得到的偏差为控制命令控制无人机对无人艇动态跟踪。为防止跟踪出现偏差,设置了跟踪自校正环节,当跟踪模块的置信度低于设定的阈值,重启YOLOv5检测目标,再次初始化改进的目标跟踪算法,达到稳定跟踪的效果。
步骤S2:在收到降落命令后,无人机下降到指定高度后使用机载摄像头对无人艇上设计的合作标识码进识别检测,当标识码出现在摄像头视野中,通过改进的标识码检测算法以20ms一帧的速率检测图片,能够快速的识别检测到标识码。
具体的,无人艇上的降落标识码如图1中的(a)所示,安装在无人艇的降落平台上。为了获取图像准确,先对机载摄像头标定,获得相机的内参矩阵K。对获取的帧图片进行图像灰度处理,减少运算量,使用自适应阈值法寻找灰度图中的轮廓,对得到的轮廓进行多边形逼近,得到四边形的轮廓,经过透视变换得到多变形的正视图,利用大津算法对得到的四边形阈值处理,得到内部二进制的编码信息,与预先定义的字典相匹配,得到有效的合作标识码。
步骤S3:通过机载摄像头识别标识码,将检测到的标识码的第一帧位置初始化K-CFTLD目标跟踪算法。利用标识码信息解算出无人机的位置信息和姿态信息。经过坐标系转换,计算出无人艇上的标识码相对无人机的位置。计算无人机与无人艇的位置偏差和K-CFTLD目标跟踪算法中图像正中心和标识码正中心的偏差Δx、Δy,采用扩展卡尔曼滤波预测降落平台的移动特性。
具体的,一旦检测到目标标识码,框选出标识码所在的矩形边框,将检测到的标识码的位置作为初始位置给到本文所融合的K-CFTLD目标跟踪算法进行视觉的追踪,通过特征点进行相机位姿解算。通过角点检测确认标识码的四个正方形顶点,可以求出标识码的正中心点和帧图像中心点在二维平面内的偏差Δx、Δy;以此四个顶点作为特征点,将标识码平面转换到相机成像平面,计算出相机外参矩阵,旋转矩阵R和平移矩阵T。
进一步的,解算位姿信息需要进行坐标系转换。经推导,转换公式如下:
其中,(u,v)为像素坐标,(XW,YW,ZW)为世界坐标,ZC为无人机相对降落平台的高度,等式右边第一个矩阵是相机内参,第二个矩阵是相机外参。
若标识码在海面反光的情况下或者被部分遮挡,此时标识码无法提供无人机和标识码的相对位置信息,当标识码定位算法失效后,采用K-CFTLD目标跟踪算法提供二维平面内的图像正中心和标识码正中心的偏差Δx、Δy。K-CFTLD目标跟踪算法在追踪标识码的过程中,会在标识码周围产生一个矩形框,随着无人机不断靠近,矩形框的大小不断改变,根据矩形框的中心点与图像的中心点的位置偏差来实时反馈无人飞行器与无人水面艇的相对位置。对于目标定位均为一帧一帧的处理,得到的位置数据为离散数据,为了满足实时性的要求,采用扩展的卡尔曼滤波预测无人艇的位置和速度,并将预测得到的相对位置信息作为控制量控制无人机。
步骤S4:艇端摄像头的识别结果有效后,计算出无人机相对降落平台的位置,经过如图4所示的坐标系统一,得到降落平台相对无人机位置。计算无人艇与无人机的位置偏差ΔX、ΔY。将两个摄像头的识别结果进行融合,获得无人机在近艇端降落阶段的位置信息和姿态信息。
具体的,两个摄像头同时有效时,位置偏差需要进行融合再用作输入,融合后的为和/>由于观测角度的改变,需要将两个摄像头获得的位置偏差统一坐标系,具体做法如图4。
步骤S5:根据步骤S3和S4得到的位置信息,不断调整无人机的姿态使无人机跟随无人艇运动,不断缩小无人机相对于降落平台的二维平面上的误差,降落过程中根据无人机相对于标识码的垂直距离,给定相应的下降速度,使无人机顺利降落到标识码的正中心。
具体的,无人机跟踪控制中,根据标识码在视觉传感器中所得到的位置信息来控制无人飞行器的移动,为了实现稳定的跟踪效果,在控制器的选择上采用了基于扩张观测器的积分反步控制算法。在远艇阶段,采用机载摄像头提供定位信息,在近艇阶段由融合的机载和艇载摄像头的定位信息,经过控制器后输出飞行器的期望速度控制输入量,控制器得出的速度控制量同步给无人机,得出无人飞行器输出的实际速度。根据无人机相对于标识码的垂直高度,切换无人机垂直方向上的下降速度,使无人机安全的降落到标识码上。
综上所述:
基于视觉的目标区域识别检测,初始化K-CFTLD目标跟踪算法,对帧图像进行处理,快速确定无人艇位置,解算所需信息,对无人艇动态跟踪;
在降落阶段,通过对无人机的姿态估计,通过已经标定过的摄像头计算出无人机实时的姿态,得到旋转、平移矩阵和相对高度;
视觉融合定位,远离艇降落依赖机载摄像头定位,近艇降落除依赖机载摄像头定位,艇端摄像头辅助定位,视觉融合导航;
无人机的动态降落,以无人机和无人艇相对距离和相对高度为降落标志,使用基于扩张观测器的积分反步控制算法调整无人机位姿,分阶段动态降落。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
Claims (3)
1.一种无人艇载无人机海空协同视觉跟踪与自主回收方法,其特征在于包括:
跟踪阶段:无人机采用摄像头利用深度学习的目标检测算法对无人艇进行搜索,当在帧图像中识别到无人艇后,将无人艇所在图像中的位置初始化K-CFTLD目标跟踪算法,利用K-CFTLD目标跟踪算法获得目标在图像中的位置信息,从而对无人艇进行动态跟踪;
下降阶段:当收到降落指令时,无人机下降到指定高度,采用机载摄像头对无人艇上设置的标识码进行识别,通过改进的标识码检测算法检测图片从而识别标识码,并获取无人机相对于艇端标识码的相对位置信息Δx、Δy和高度h,通过相对位置信息给定下降速度,使无人机不断靠近无人艇的降落平台;
当机艇之间高度小于设定值h1,则启用艇载摄像头对无人机底端设置的标识码进行识别并获取无人机相对于艇载摄像头的相对位置信息ΔX、ΔY和高度H,将机载摄像头和艇载摄像头获取的相对位置信息进行数据融合,将高度h和高度H分配权重,对相对位置信息Δx、Δy、ΔX、ΔY进行判断决策获得无人机靠近无人艇阶段的视觉定位信息,从而输出无人机调整飞行位姿的控制信息;
基于无人机相对于无人艇的相对位置信息调整无人机的姿态使无人机跟随无人艇运动,缩小无人机相对于降落平台的二维平面上的误差,根据无人机相对于标识码的垂直距离,给定相应的下降速度控制无人机降落到标识码的正中心;
通过改进的标识码检测算法检测图片从而识别标识码具体采用如下方式:
当检测到标识码时框选出标识码所在的矩形边框,将检测到的标识码的位置作为初始位置,初始化K-CFTLD目标跟踪算法进行视觉追踪,通过对标识码的识别进行角点检测,确认标识码的四个正方形顶点,求出标识码的正中心点和帧图像中心点在二维平面内的偏差Δx和Δy,以标识码的四个顶点作为特征点,将标识码平面转换到相机成像平面,在已知标识码的尺寸和标识码特征点的位置关系的前提下,根据PnP算法计算出相机外参矩阵旋转矩阵R和平移矩阵T,当得到旋转矩阵和平移向量后,经过坐标变换得到摄像机在世界坐标系中的三维坐标。
2.根据权利要求1所述的方法,其特征在于:在跟踪阶段,采用K-CFTLD目标跟踪算法获得目标在图像中的位置时:
对无人艇进行动态跟踪过程中,K-CFTLD目标跟踪算法对无人艇视觉跟踪时,具有跟踪框包围无人艇,并根据无人艇在帧图像中所占的比例和位置,不断调整跟踪框的大小和位置,根据跟踪框在图像中的位置,计算跟踪框正中心与帧图像正中心的相对位置偏差Δx、Δy,以得到的偏差Δx、Δy为控制命令控制无人机在水平方向上的移动,实现对无人艇动态跟踪;
在K-CFTLD目标跟踪算法中设置跟踪自校正环节,当跟踪结果的置信度低于设定阈值时,重启深度学习的目标检测算法进行目标检测,再次初始化K-CFTLD目标跟踪算法进行无人艇的动态跟踪。
3.根据权利要求1所述的方法,其特征在于:在下降阶段,当机载摄像头识别到艇端标识码,将标识码所在图像中的位置信息初始化K-CFTLD目标跟踪算法,当能识别到标识码时,根据无人机相对于艇端标识码的相对位置信息进行降落控制,当海面出现反光或标识码被部分遮挡时,采用K-CFTLD目标跟踪算法对标识码进行跟踪控制。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110936703.5A CN113657256B (zh) | 2021-08-16 | 2021-08-16 | 一种无人艇载无人机海空协同视觉跟踪与自主回收方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110936703.5A CN113657256B (zh) | 2021-08-16 | 2021-08-16 | 一种无人艇载无人机海空协同视觉跟踪与自主回收方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113657256A CN113657256A (zh) | 2021-11-16 |
CN113657256B true CN113657256B (zh) | 2023-09-26 |
Family
ID=78479250
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110936703.5A Active CN113657256B (zh) | 2021-08-16 | 2021-08-16 | 一种无人艇载无人机海空协同视觉跟踪与自主回收方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113657256B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114115318B (zh) * | 2021-12-01 | 2023-03-17 | 山东八五信息技术有限公司 | 一种无人机降落到移动车辆顶部的视觉方法 |
CN114326765B (zh) * | 2021-12-01 | 2024-02-09 | 爱笛无人机技术(南京)有限责任公司 | 一种用于无人机视觉着陆的地标跟踪控制系统及方法 |
CN114326766A (zh) * | 2021-12-03 | 2022-04-12 | 深圳先进技术研究院 | 一种车机协同自主跟踪与降落方法 |
CN114332454A (zh) * | 2021-12-29 | 2022-04-12 | 湖南华诺星空电子技术有限公司 | 一种基于图像的船舶抓拍方法和系统 |
CN116382328B (zh) * | 2023-03-09 | 2024-04-12 | 南通大学 | 一种基于水空多个机器人协同的坝体智能检测方法 |
CN116578035A (zh) * | 2023-07-14 | 2023-08-11 | 南京理工大学 | 基于数字孪生技术的旋翼无人机自主降落控制系统 |
CN117151140B (zh) * | 2023-10-27 | 2024-02-06 | 安徽容知日新科技股份有限公司 | 目标物标识码的识别方法、装置及计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106647814A (zh) * | 2016-12-01 | 2017-05-10 | 华中科技大学 | 一种基于二维码地标识别的无人机视觉辅助定位与飞控系统及方法 |
CN108227751A (zh) * | 2018-01-29 | 2018-06-29 | 广州亿航智能技术有限公司 | 一种无人机的降落方法及系统 |
CN110610134A (zh) * | 2019-08-13 | 2019-12-24 | 上海大学 | 一种无人艇自主对接方法 |
CN112486207A (zh) * | 2020-12-10 | 2021-03-12 | 山东力聚机器人科技股份有限公司 | 一种基于视觉识别的无人机自主降落方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109947128B (zh) * | 2019-03-13 | 2020-05-15 | 歌尔股份有限公司 | 无人机控制方法、无人机控制装置、无人机及系统 |
-
2021
- 2021-08-16 CN CN202110936703.5A patent/CN113657256B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106647814A (zh) * | 2016-12-01 | 2017-05-10 | 华中科技大学 | 一种基于二维码地标识别的无人机视觉辅助定位与飞控系统及方法 |
CN108227751A (zh) * | 2018-01-29 | 2018-06-29 | 广州亿航智能技术有限公司 | 一种无人机的降落方法及系统 |
CN110610134A (zh) * | 2019-08-13 | 2019-12-24 | 上海大学 | 一种无人艇自主对接方法 |
CN112486207A (zh) * | 2020-12-10 | 2021-03-12 | 山东力聚机器人科技股份有限公司 | 一种基于视觉识别的无人机自主降落方法 |
Non-Patent Citations (1)
Title |
---|
时空上下文融合的无人艇海面目标跟踪;彭艳;陈加宏;李小毛;罗均;谢少荣;刘畅;蒲华燕;;中国科学:技术科学(第12期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113657256A (zh) | 2021-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113657256B (zh) | 一种无人艇载无人机海空协同视觉跟踪与自主回收方法 | |
Carreras et al. | Vision-based localization of an underwater robot in a structured environment | |
CN111968128B (zh) | 一种基于图像标记的无人机视觉姿态和位置解算方法 | |
CN110825101B (zh) | 一种基于深度卷积神经网络的无人机自主降落方法 | |
CN111598952B (zh) | 一种多尺度合作靶标设计与在线检测识别方法及系统 | |
CN105759829A (zh) | 基于激光雷达的微型无人机操控方法及系统 | |
CN111426320B (zh) | 一种基于图像匹配/惯导/里程计的车辆自主导航方法 | |
CN103697855B (zh) | 一种基于海天线检测的船体水平姿态测量方法 | |
WO2020099016A1 (en) | System and method for measuring the distance to an object in water | |
US20220172464A1 (en) | Water non-water segmentation systems and methods | |
US20220392211A1 (en) | Water non-water segmentation systems and methods | |
CN109612333B (zh) | 一种面向可重复使用火箭垂直回收的视觉辅助导引系统 | |
CN111273679A (zh) | 一种视觉引导的小型固定翼无人机撞网回收纵向制导方法 | |
WO2021178603A1 (en) | Water non-water segmentation systems and methods | |
Yu | Development of real-time acoustic image recognition system using by autonomous marine vehicle | |
CN113110514A (zh) | 一种基于大数据的无人船航行避障系统及方法 | |
Lee | Machine learning vision and nonlinear control approach for autonomous ship landing of vertical flight aircraft | |
Eitner et al. | Development of a navigation solution for an image aided automatic landing system | |
Del Pizzo et al. | Reliable vessel attitude estimation by wide angle camera | |
CN109459046B (zh) | 悬浮式水下自主航行器的定位和导航方法 | |
CN114326765B (zh) | 一种用于无人机视觉着陆的地标跟踪控制系统及方法 | |
CN115792912A (zh) | 一种弱观测条件下基于视觉与毫米波雷达融合的水面无人艇环境感知方法及系统 | |
CN114445572A (zh) | 一种基于DeeplabV3+的陌生海域中障碍物即时定位与地图构建方法 | |
Xu et al. | Research on Navigation and Positioning Technology for Autonomous Recovery of Unmanned Surface Vehicles | |
Xu et al. | Uav autonomous landing algorithm based on machine vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |