CN111709994B - 一种自主无人机视觉探测与引导系统及方法 - Google Patents

一种自主无人机视觉探测与引导系统及方法 Download PDF

Info

Publication number
CN111709994B
CN111709994B CN202010306306.5A CN202010306306A CN111709994B CN 111709994 B CN111709994 B CN 111709994B CN 202010306306 A CN202010306306 A CN 202010306306A CN 111709994 B CN111709994 B CN 111709994B
Authority
CN
China
Prior art keywords
target
area
image
outline
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010306306.5A
Other languages
English (en)
Other versions
CN111709994A (zh
Inventor
夏青元
陆建峰
蔡洋洋
傅苏中
王育之
张传一
张雨辰
杨恩平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202010306306.5A priority Critical patent/CN111709994B/zh
Publication of CN111709994A publication Critical patent/CN111709994A/zh
Application granted granted Critical
Publication of CN111709994B publication Critical patent/CN111709994B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种自主无人机视觉探测与引导系统及方法,系统包括机载端和地面端,机载端包含视觉信息采集模块、图像处理模块以及图传发射端,视觉信息采集模块获取到的图像在经图像处理模块处理后将位置信息发送到飞行控制系统里,同时通过图传发射端发送监测信息到地面端;地面端包含监测屏幕以及与之相连的图传接收端。本发明可实现对多个相同的目标进行定位,同时提供待处理目标的优先级,便于无人机的飞行与控制;本发明还兼顾自主降落,可在无人机自主降落阶段提供视觉辅助,保证了无人机全程的自主飞行能力。

Description

一种自主无人机视觉探测与引导系统及方法
技术领域
本发明属于定位导航领域,具体涉及一种自主无人机视觉探测与引导系统及方法。
背景技术
无人机体积小,结构简单,便于维护,方便运输并且起降要求很低,可以方便的运用在许多场景中。现在无人机的实际运用已经非常广泛,在电力巡检等工业界以及有相关应用,而目前,无人机在快递等日常生活相关方面也已经开始布局发展。由此带来的是无人机智能化、自主化要求的提升,开始更多的要求无人机能自主完成起飞、执行任务和降落。而视觉模块是无人机实现智能化所不能忽略的模块,在无人机的目标检测、视觉引导、自主着陆等各个领域都已经有了广泛研究和应用。
现有的无人机自主定位与引导方法主要依赖于GPS卫星定位以及惯导定位,然而这两种方式并不能实现动态的实时引导,同时这两者均存在一定的误差。而视觉则可以实现动态的引导,同时还能辅助GPS定位等,以弥补精度的不足。
发明内容
本发明的目的在于提供一种自主无人机视觉探测与引导系统及方法,可识别多个相同目标并且提供优先处理目标方位,同时,该系统还可以辅助自主着陆。
实现本发明目的的技术解决方案为:一种自主无人机视觉探测与引导系统,包含机载端与地面端,所述机载端包含视觉信息采集模块、图像处理模块以及图传发射端,所述视觉信息采集模块包含相机和三轴云台,相机安装在三轴云台上;视觉信息采集模块获取到的图像经图像处理模块处理后将位置信息发送到飞行控制系统,同时通过图传发射端发送监测信息到地面端;所述地面端包含图片接收端和带有监测界面的显示单元。
一种基于自主无人机视觉探测与引导系统的实现方法,初始化相机和监测界面,联通通信链路,执行目标识别引导时循环执行以下步骤:
(1)通过使用棋盘格标定相机获得的相机内参数对每一帧要处理的图像进行校正去除畸变;
(2)将校正后的原始图像进行中值滤波;
(3)将去噪后的图像从BGR格式转换为HSV格式;
(4)设待识别的目标特征为A色矩形,对图像进行固定阈值二值化,从中提取出A颜色区域;设待识别的目标特征为A色矩形;
(5)对二值化后的图像做开闭运算,去除噪点后寻找最外层轮廓,对寻找到的所有轮廓进行面积大小判断,符合面积阈值大小条件的轮廓作为可能目标;
(6)对所有可能是目标的轮廓进行面积比和长宽比的判定以及轮廓质量评估,均符合阈值的轮廓认定为目标的轮廓,计算出此轮廓外接矩形中心与视界中心的偏差,作为此轮廓的位置信息;
(7)对目标轮廓进行置信度的计算,进行排序后将信息打包发送给飞行控制系统;
(8)若未找到目标轮廓,则发送的数据,标志位为未找到数据,其余目标信息位置0。
与现有技术相比,本发明的显著优点为:(1)本发明结构简单,便于无人机安装,能有效在不占用过多无人机动力载荷情况下,完成自主飞行任务;(2)本发明具有地面端,可以实时监测目标检测与引导结果,据有较好的可视化效果;(3)本发明运用三轴云台保证相机光轴始终垂直于目标所在平面,使得无人机不需要去关注相机在无人机做非直线匀速动作时,所带来的相机倾角变化导致程序识别以及定位的误差;(4)本发明参与无人机自主化全程,在目标检测,目标引导,自主各方面均发挥重大作用;(5)本发明识别算法更改一点条件即可识别不同的矩形或者圆形目标,可适应不同的降落靶标以及任务目标,同时应对不同目标要求也会有对应的阈值设定以减少误识别情况;(6)本发明给出的引导坐标是相对于视界中心的相对像素坐标,根据事先测出的距离-像素对应关系,飞控即可非常简单的得出目标的位置信息;(7)本发明方法相对独立,可以方便的在不同的平台、不同的硬件结构上运行,包括地面端处理都可以适用,可移植性较高。
附图说明
图1为本发明自主无人机视觉探测与定位系统结构图。
图2为本发明目标识别算法流程图。
图3为本发明静态单一和多个目标地面理想测试图。
图4为本发明静态多个目标地面理想测试图。
图5为常见的降落区域地标设计图。
图6为本发明实际降落辅助时对地标的识别效果图。
具体实施方式
本发明提供一种自主无人机视觉探测与引导系统,包含机载端与地面端,所述机载端包含视觉信息采集模块、图像处理模块以及图传发射端,视觉信息采集模块获取到的图像在经过图像处理模块计算后将位置信息发送到飞行控制系统,同时通过图传发射端发送监测信息到地面端;所述地面端包含监测屏幕以及与之相连的图传接收端。
所述视觉信息采集模块包含相机与三轴云台,所述相机安装在三轴云台上,由云台保持相机光轴始终垂直于目标所在平面,即水平面或者竖直面。
本发明还提供一种基于所述自主无人机视觉探测与引导系统的实现方法,初始化相机和监测界面,联通通信链路后,在执行目标识别引导时循环执行以下步骤:
(1)通过使用棋盘格标定相机获得的此相机内参数对每一帧要处理的图像进行校正去除畸变;
(2)将校正后的原始图像进行中值滤波以去除噪声;
(3)将去噪后的图像从BGR格式转换为HSV格式;
(4)设待识别的目标特征为A色矩形,对图像进行固定阈值二值化,从中提取出A颜色区域;设待识别的目标特征为A色矩形;
(5)对二值化后的图像做开闭运算,去除噪点后寻找最外层轮廓,对寻找到的所有轮廓进行面积大小判断,符合面积阈值大小条件的轮廓作为可能目标;
(6)对所有可能是目标的轮廓进行面积比和长宽比的判定以及轮廓质量评估,均符合阈值的轮廓认定为目标的轮廓,计算出此轮廓外接矩形中心与视界中心的偏差,作为此轮廓的位置信息;
(7)对目标轮廓进行置信度的计算,进行排序后将信息打包发送给飞行控制系统;
(8)若未找到目标轮廓,则发送的数据,标志位为未找到数据,其余目标信息位置0;进行下一帧的判定。
进一步的,步骤6)所述面积比为轮廓区域面积contourAera与轮廓外接矩形rectArea的像素面积比,大于阈值thresholdArea则认为是面积有效轮廓:
Figure GDA0002640834940000041
所述长宽比为外接矩形的长W与宽H的比值乘上已知要识别的目标长w与宽h比的倒数,在1的左右阈值thresholdEdge范围内:
Figure GDA0002640834940000042
进一步的,步骤6)所述轮廓质量评估是对轮廓的每一个点P(x,y)进行判断,计算其与轮廓中心点center(cx,cy)的距离distance在外接矩形偏转角度angle下分解的X与Y,分别与对应外接矩形的长W与宽H的差值中较小的:
Figure GDA0002640834940000043
Figure GDA0002640834940000044
Figure GDA0002640834940000045
若distance大于阈值,则认为当前点为越界点,若轮廓越界点数大于设定的阈值,则认为此轮廓质量差,不将其作为目标轮廓。
进一步的,步骤8)所述置信度为将每个识别出的目标轮廓的越界率直接乘上100作为置信度,对以上置信度进行快速排序后按顺序存入发送数据结构体。
进一步的,本发明可在无人机自主降落阶段进行辅助降落,具体做法与任务目标识别大体相同,只在确定是否为降落区域的判断上有些许不同,同时当前常见降落标志主要为圆形和正方形内有H字样的地标,因此根据不同形状做了对应处理;降落任务通过任务标志位来选择进入计算,在降落任务模式下,具体实现方法与上述执行目标识别引导时步骤相比,有所修改部分如下:
若降落区域为正方形则方法相同,只是步骤6)中的长宽比改为1:1,若降落区域主要为圆形,则步骤6)为:对每一个可能的区域进行外接矩形长宽比、轮廓面积与外接矩形面积比以及轮廓面积与轮廓凸包面积比的判定,均符合要求的作为降落区域,计算外接矩形中心与窗口中心的偏移量并保存;
进一步的,监测信息为Qt框架下的UI界面,将其全屏后,将屏幕投送到地面端,省去图传信号转换为图像等步骤;UI界面主要包括以连续图像展示的识别结果窗口,另有数据显示槽显示发送数据结构体中的定位信息、状态、数据包大小、检验和等。
下面结合附图和实施例对本发明的技术方案做进一步的描述。
实施例
本发明的自主无人机视觉探测与引导系统主要完成起飞后的目标识别与引导以及辅助自主降落,由机载端和地面端组成,如图1所示。机载端包括图像处理模块、三轴云台、相机和无线图传天空端。三轴云台保证相机光轴垂直于目标所在的水平面或者竖直面。相机采集到图像信息后经图像处理识别后,将位置信息发送给飞控系统,识别效果通过图传在地面端实时监测。
地面端包括无线图传地面端和与之相连的监测屏幕。机载处理器上将含有图像识别效果以及数据信息的UI界面全屏显示,无线图传相当于将屏幕扩展到地面,则地面只需要很少的操作以及硬件即可获得实时的信息。
相机采用Basler相机,广角镜头可以获得足够的信息,同时基本为线性的镜头也减少了相机校正后图像信息的丢失。三轴云台与飞控连接,可调整相机光轴朝向。
机载处理器与飞控通过串口通信,飞控只会发送当前是目标引导任务还是辅助降落,而发送给飞控的数据结构始终是一样的,通过不同的标志位来明确当前数据对应的任务。从串口得到飞控数据则采用多线程异步获取,以不干扰主要的识别算法的进行。
如图2,自主无人机视觉探测与定位系统的定位方法步骤如下:
(1)无人机上电自检时,将机载处理设备打开,机载程序开机自启动。相机用保存的内参数进行校正去畸变。
(2)将图像进行一次中值滤波计算以去除噪声,之后将图像从RGB转换到HSV色彩空间,因为HSV中色调、饱和度、明度分离,能很方便的进行颜色区域的相关操作。
(3)设待识别的目标与周围环境具有明显的形状以及颜色差异,设其为蓝色矩形,则对图像在HSV色彩空间下进行固定阈值的二值化,提取出每一帧图像信息中的蓝色区域。
(4)二值化后的图像进行形态学开闭运算去除干扰后,寻找最外围轮廓,对每一个轮廓都进行面积阈值判断,筛选出可能的目标轮廓,这里根据飞行高度以及目标在视野中所占像素大小,设置一个最大最小面积区间,在这两个阈值之间的认为符合条件。
(5)对所有可能的目标轮廓进行轮廓面积与外接矩形面积比以及外接矩形长宽比的筛选,再进行轮廓质量评估,均符合阈值设定的即认为是目标的轮廓和色彩区域。首先进行的面积比和长宽比中面积比为轮廓区域面积contourAera与轮廓外接矩形rectArea的像素面积比,大于阈值thresholdArea则认为是面积有效轮廓:
Figure GDA0002640834940000061
所述面积阈值thresholdArea为0.7;
所述长宽比为外接矩形的长W与宽H的比值乘上已知要识别的目标长w与宽h比的倒数,在1的左右阈值thresholdEdge范围内:
Figure GDA0002640834940000062
范围阈值thresholdEdge为0.15;
(6)均符合要求后进行轮廓质量评估,对轮廓的每一个点P(x,y)进行判断,计算其与轮廓中心点center(cx,cy)的距离distance在外接矩形偏转角度angle下分解的X与Y,分别与对应外接矩形的长W与宽H的差值中较小的值:
Figure GDA0002640834940000063
Figure GDA0002640834940000064
Figure GDA0002640834940000065
若distance大于距离阈值,则认为当前点为越界点,所述距离阈值此处为20;若轮廓越界点数大于设定的大小阈值thresholdOut,则认为此轮廓质量差,不将其作为目标轮廓,所述大小阈值此处为轮廓点数量rectsize的90%,即thresholdOut=0.9×rectsize。
(7)以上均符合阈值判断后即可以对此轮廓进行偏差计算:轮廓中心点为center(x,y),视界窗口大小为(Weight,Height)设偏差结果为p(px,py),
则:
px=x-Weight/2
py=y-Height/2
计算完毕后,根据相机坐标系与无人机坐标系的关系将相关信息存入结构体。
一个目标场景中可能会有多个相同目标,即可能会找到多个符合要求的蓝色矩形区域,则对所有轮廓求置信度,排序后打包发送给飞控进行计算,此处打包目标结构体数为5个,若识别到的目标不足5个,则未识别到的设为0。
针对本发明的方法,为了验证其有效性,分别进行了地面静态以及机载运行的测试。
首先本发明对一个和多个相同目标的地面静态理想条件测试,用打印出来的蓝色矩形模拟实际情况下能看到的目标外观,通过手持相机在正上方来回移动模拟无人机在天空中搜索的过程,如图3所示:单个目标可以识别出来,并且用黑色方框框起来,实际在此情况下,此目标即为引导的目标对象;而在多个目标的情况下,如图4所示,用黑色方框框出来的即为优先级最高的矩形目标,白色框为识别出的等待无人机处理的矩形目标。
为了验证整个系统的有效性,以及与飞机平台和飞控整体的有效性,通过在自行设计组装的无人机平台上,搭载此系统。在室外真实条件下经过多次的测试,实际的目标设定为1m*0.5m*0.25m的蓝色矩形箱,测试结果表明,本系统在不同光照条件下对于目标均能实现识别并对优先级最高的一个进行引导。同时根据地面监测端以及飞控系统的反应以及最后对目标进行抓取的结果,说明本发明具有较好的实时性和鲁棒性,具有较好的有效性。
在收到串口任务标志表示为降落后,便不再判断任务标志,每一帧图像都将进行降落算法流程的计算,目前常见的无人机降落标志都为圆形或者正方形色块,内有一个细圆环,内有H字样,如图5,因此本发明在实际测试中,发现目标识别算法中更改一点判定方法就可以直接进行降落:
若为正方形的降落区域,则上述目标识别算法中步骤5)长宽比设置为1:1即可。
若为圆形降落区域,则上述目标识别算法步骤5)改为:对每一个可能的区域进行外接矩形长宽比、轮廓面积与外接矩形面积比以及轮廓面积与轮廓凸包面积比的判定,均符合要求的作为降落区域,计算外接矩形中心与窗口中心的偏移量并保存;降落时对于地标的识别效果如图6。求取凸包以及外界轮廓等均是现有成熟的图像处理基本算法。
以上所述仅是本发明的一种实际实施方式,在此基础上做出的一些更改和变形也应视为在本发明的保护范围之内。

Claims (5)

1.一种自主无人机视觉探测与引导方法,其特征在于,该方法基于自主无人机视觉探测与引导系统实现,系统包含机载端与地面端,所述机载端包含视觉信息采集模块、图像处理模块以及图传发射端,所述视觉信息采集模块包含相机和三轴云台,相机安装在三轴云台上;视觉信息采集模块获取到的图像经图像处理模块处理后将位置信息发送到飞行控制系统,同时通过图传发射端发送监测信息到地面端;所述地面端包含图片接收端和带有监测界面的显示单元;
初始化相机和监测界面,联通通信链路,执行目标识别引导时循环执行以下步骤:
(1)通过使用棋盘格标定相机获得的相机内参数对每一帧要处理的图像进行校正去除畸变;
(2)将校正后的原始图像进行中值滤波;
(3)将去噪后的图像从BGR格式转换为HSV格式;
(4)设待识别的目标特征为A色矩形,对图像进行固定阈值二值化,从中提取出A颜色区域;设待识别的目标特征为A色矩形;
(5)对二值化后的图像做开闭运算,去除噪点后寻找最外层轮廓,对寻找到的所有轮廓进行面积大小判断,符合面积阈值大小条件的轮廓作为可能目标;
(6)对所有可能是目标的轮廓进行面积比和长宽比的判定以及轮廓质量评估,均符合阈值的轮廓认定为目标的轮廓,计算出此轮廓外接矩形中心与视界中心的偏差,作为此轮廓的位置信息;
所述轮廓质量评估是对轮廓的每一个点P(x,y)进行判断,计算其与轮廓中心点center(cx,cy)的距离distance在外接矩形偏转角度angle下分解的X与Y,分别与对应外接矩形的长W与宽H的差值中较小的:
Figure FDA0003829104520000011
Figure FDA0003829104520000012
Figure FDA0003829104520000013
若distance大于设定的距离阈值,则认为当前点为越界点,若轮廓越界点数大于设定的阈值,则认为此轮廓质量差,不将其作为目标轮廓;
(7)对目标轮廓进行置信度的计算,进行排序后将信息打包发送给飞行控制系统;
(8)若未找到目标轮廓,则发送的数据,标志位为未找到数据,其余目标信息位置0。
2.根据权利要求1所述的方法,其特征在于,所述三轴云台保持相机光轴始终垂直于目标所在平面,即水平面或者竖直面。
3.根据权利要求1所述的方法,其特征在于,所述面积比为轮廓区域面积contourAera与轮廓外接矩形rectArea的像素面积比,大于阈值thresholdArea则认为是面积有效轮廓:
Figure FDA0003829104520000021
所述长宽比为外接矩形的长W与宽H的比值乘上已知要识别的目标长w与宽h比的倒数,在1的左右阈值thresholdEdge范围内满足:
Figure FDA0003829104520000022
4.根据权利要求1所述的方法,其特征在于,所述置信度为将每个识别出的目标轮廓的越界率直接乘上100作为置信度,对以上置信度进行快速排序后按顺序存入发送数据结构体。
5.根据权利要求1所述的方法,其特征在于,在降落任务模式下,若降落区域为正方形,则将步骤( 6)中的长宽比设为1:1;若降落区域为圆形,对每一个可能的区域进行外接矩形长宽比、轮廓面积与外接矩形面积比以及轮廓面积与轮廓凸包面积比的判定,均符合要求的作为降落区域,计算外接矩形中心与窗口中心的偏移量并保存。
CN202010306306.5A 2020-04-17 2020-04-17 一种自主无人机视觉探测与引导系统及方法 Active CN111709994B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010306306.5A CN111709994B (zh) 2020-04-17 2020-04-17 一种自主无人机视觉探测与引导系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010306306.5A CN111709994B (zh) 2020-04-17 2020-04-17 一种自主无人机视觉探测与引导系统及方法

Publications (2)

Publication Number Publication Date
CN111709994A CN111709994A (zh) 2020-09-25
CN111709994B true CN111709994B (zh) 2022-12-20

Family

ID=72536672

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010306306.5A Active CN111709994B (zh) 2020-04-17 2020-04-17 一种自主无人机视觉探测与引导系统及方法

Country Status (1)

Country Link
CN (1) CN111709994B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112686070B (zh) * 2020-11-27 2023-04-07 浙江工业大学 一种基于改进二维码的agv定位及导航方法
CN113268071A (zh) * 2021-01-28 2021-08-17 北京理工大学 一种基于多传感器融合的无人机寻迹方法及系统
CN112925333B (zh) * 2021-01-29 2022-04-15 涵涡智航科技(玉溪)有限公司 一种高精度飞行器引导降落系统及方法
CN116187592A (zh) * 2023-04-27 2023-05-30 中联金冠信息技术(北京)有限公司 一种基于数据识别的无人机探测系统及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106060479A (zh) * 2016-07-13 2016-10-26 三峡大学 一种基于超视距视频技术的智能放牧监控系统
CN106289186A (zh) * 2016-09-21 2017-01-04 南京航空航天大学 旋翼无人机机载视觉探测与多目标定位系统及实现方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106060479A (zh) * 2016-07-13 2016-10-26 三峡大学 一种基于超视距视频技术的智能放牧监控系统
CN106289186A (zh) * 2016-09-21 2017-01-04 南京航空航天大学 旋翼无人机机载视觉探测与多目标定位系统及实现方法

Also Published As

Publication number Publication date
CN111709994A (zh) 2020-09-25

Similar Documents

Publication Publication Date Title
CN111709994B (zh) 一种自主无人机视觉探测与引导系统及方法
CN105930819B (zh) 基于单目视觉和gps组合导航系统的实时城区交通灯识别系统
CN110825101B (zh) 一种基于深度卷积神经网络的无人机自主降落方法
KR101261409B1 (ko) 영상 내 노면표시 인식시스템
Thurrowgood et al. A vision based system for attitude estimation of UAVs
CN109492525B (zh) 一种测量基站天线工程参数的方法
CN112666963A (zh) 基于四轴无人机的公路路面裂缝检测系统及其检测方法
CN110866483A (zh) 一种动静结合的机场跑道异物视觉检测与定位方法
CN113486697B (zh) 基于空基多模态图像融合的森林烟火监测方法
CN107221006A (zh) 一种基于无人机成像平台的通信单管塔倾斜检测方法
CN114964275A (zh) 地空协同地图构建方法、装置、设备及存储介质
CN114815871A (zh) 一种基于视觉的垂直起降无人机动平台自主降落方法
CN113066050A (zh) 一种基于视觉的空投货台航向姿态解算方法
CN116797757A (zh) 一种基于实景三维的城市建筑群数据采集方法
CN114689030A (zh) 一种基于机载视觉的无人机辅助定位方法及系统
CN118226866A (zh) 一种基于单目视觉的无人机精准降落方法
CN116894936B (zh) 基于无人机视觉的海上目标识别定位方法及系统
CN111192229B (zh) 一种机载多模态视频画面增强显示方法及系统
Majidi et al. Real time aerial natural image interpretation for autonomous ranger drone navigation
CN113253619B (zh) 一种船舶数据信息的处理方法及装置
KR101199959B1 (ko) 영상 내 교통표지판 인식 시스템
CN112327891A (zh) 无人机自主降落系统及方法
CN114092522A (zh) 一种机场飞机起降智能捕获跟踪方法
Funk et al. A passive cloud detection system for uav: System functions and validation
CN112286230A (zh) 无人机视觉图像算法、避障步骤及其信息融合处理系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Xia Qingyuan

Inventor after: Lu Jianfeng

Inventor after: Cai Yangyang

Inventor after: Fu Suzhong

Inventor after: Wang Yuzhi

Inventor after: Zhang Chuanyi

Inventor after: Zhang Yuchen

Inventor after: Yang Enping

Inventor before: Cai Yangyang

Inventor before: Xia Qingyuan

Inventor before: Fu Suzhong

Inventor before: Wang Yuzhi

Inventor before: Zhang Chuanyi

Inventor before: Zhang Yuchen

Inventor before: Lu Jianfeng

Inventor before: Yang Enping

GR01 Patent grant
GR01 Patent grant