CN117649619B - 无人机视觉导航定位回收方法、系统、装置及可读存储介质 - Google Patents

无人机视觉导航定位回收方法、系统、装置及可读存储介质 Download PDF

Info

Publication number
CN117649619B
CN117649619B CN202410109531.8A CN202410109531A CN117649619B CN 117649619 B CN117649619 B CN 117649619B CN 202410109531 A CN202410109531 A CN 202410109531A CN 117649619 B CN117649619 B CN 117649619B
Authority
CN
China
Prior art keywords
image
aerial vehicle
unmanned aerial
depth
navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410109531.8A
Other languages
English (en)
Other versions
CN117649619A (zh
Inventor
艾轶博
刘晓溪
张卫冬
范欢欢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology Beijing USTB
Original Assignee
University of Science and Technology Beijing USTB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology Beijing USTB filed Critical University of Science and Technology Beijing USTB
Priority to CN202410109531.8A priority Critical patent/CN117649619B/zh
Publication of CN117649619A publication Critical patent/CN117649619A/zh
Application granted granted Critical
Publication of CN117649619B publication Critical patent/CN117649619B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Navigation (AREA)

Abstract

本发明提供了一种无人机视觉导航定位回收方法、系统、装置及可读存储介质,包括S1,进行图像采集:实时获取无人机采集到的图像信息;S2,进行图像处理:部署YoloV7模型,实时检测和跟踪图像信息中的Aruco标记;S3,进行深度估计:集成Midas模型,处理图像信息并估计图像中每个像素点的深度值,生成深度图;S4,进行位姿估计:通过图像处理和深度估计的输出结果,利用PnP算法进行位姿估计;S5,进行导航回收:通过位姿估计的输出结果,获取无人机姿态并进行导航定位回收,本发明在GNSS信号拒止环境下,依靠视觉标记检测和单目深度估计相结合的方法进行无人机导航与定位。

Description

无人机视觉导航定位回收方法、系统、装置及可读存储介质
技术领域
本发明涉及无人机导航技术领域,尤其涉及一种无人机视觉导航定位回收方法、系统、装置及可读存储介质。
背景技术
在无人机导航领域,全球导航卫星系统(GNSS)为无人机提供了精确的定位与导航能力,是现代无人机系统不可或缺的组成部分。然而,在某些环境中,如城市峡谷、密集森林覆盖区域或由于故意干扰和屏蔽导致的信号拒止条件下,GNSS信号可能变得非常弱或完全丢失,这限制了无人机的操作能力。
现有技术尝试通过各种方法来解决无GNSS信号环境下的无人机导航问题,例如,借助惯性测量单元(IMU)和视觉同时定位与映射(SLAM)技术。然而,这些技术各有不足。IMU在长时间使用后可能累积误差,导致导航不准确,而SLAM技术在特征贫乏的环境中表现不佳,并且对计算资源要求较高。
因此,有必要研究一种无人机视觉导航定位回收方法、系统、装置及可读存储介质来应对现有技术的不足,以解决或减轻上述一个或多个问题。
发明内容
有鉴于此,本发明提供了一种无人机视觉导航定位回收方法、系统、装置及可读存储介质,在GNSS信号拒止环境下,依靠视觉标记检测和单目深度估计相结合的方法进行无人机导航与定位。
一方面,本发明提供一种无人机视觉导航定位回收方法,用于在无GNSS信号条件下对无人机进行导航定位回收,所述导航定位回收方法包括以下步骤:
S1,进行图像采集:实时获取无人机采集到的图像信息;
S2,进行图像处理:部署YoloV7模型,实时检测和跟踪图像信息中的Aruco标记;
S3,进行深度估计:集成Midas模型,处理图像信息并估计图像中每个像素点的深度值,生成深度图;
S4,进行位姿估计:通过图像处理和深度估计的输出结果,利用PnP算法进行位姿估计;
S5,进行导航回收:通过位姿估计的输出结果,获取无人机姿态并进行导航定位回收。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述S2具体包括:
S21:创建包含三种尺寸的Aruco标记的定制数据集;
S22:对无人机采集到的图像信息中的含有Aruco码的图像信息进行标注;
S23:通过定制数据集对YoloV7模型进行深度训练,获取强化YoloV7模型;
S24:通过强化YoloV7模型对含有Aruco码的图像信息进行实时检测和跟踪Aruco标记。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述S21中三种尺寸分别包括:两个大靶标、十二个中靶标和三十二个小靶标,其中大靶标尺寸为5X5,中靶标为6X6,小靶标为12X12,每个大靶标、中靶标和小靶标均配有单独的ID编号。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述三种尺寸的靶标中,每种尺寸的每个靶标均为嵌套模式,每个靶标均配置有相应的飞行高度和视角。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述S3具体包括:
S31:通过Midas模型分析图像信息并估计每个像素点的深度值,生成深度图;
S32:利用深度图和彩色图像进行函数合成,输出RGBD图像;
S33:通过可视化工具RGBD图像进行展示。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述S4具体包括:
S41:通过棋盘格相机标定法获取摄像机参数;
S42:对实时获取的图像信息进行预处理;
S43:通过强化YoloV7模型处理预处理后的图像,实时检测图像中的Aruco标记并识别其ID;
S44:通过Midas模型从单张RGB图像中估计出每个像素点的深度信息,生成深度图,与Aruco标记检测结果结合;
S45:通过YoloV7识别出的Aruco标记角点、Midas估计的深度信息和摄像机参数进行2D-3D匹配。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述2D-3D匹配通过旋转矩阵与欧拉角转换实现。
如上所述的方面和任一可能的实现方式,进一步提供一种无人机视觉导航定位回收系统,所述导航定位回收系统包括:
图像采集单元,用于实时获取无人机采集到的图像信息;
图像处理单元,用于部署YoloV7模型,实时检测和跟踪图像信息中的Aruco标记;
深度估计单元,用于集成Midas模型,处理图像信息并估计图像中每个像素点的深度值,生成深度图;
位姿估计单元,用于通过图像处理和深度估计的输出结果,利用PnP算法进行位姿估计;
导航回收单元,用于通过位姿估计的输出结果,获取无人机姿态并进行导航定位回收。
如上所述的方面和任一可能的实现方式,进一步提供一种无人机视觉导航定位回收装置,所述导航定位回收装置搭载于无人机上,所述视觉导航定位回收装置包括存储器、处理器,通信总线以及存储在所述存储器上的导航定位回收程序,所述通信总线用于实现处理器和存储器间的通信连接,所述无人机上设有高清摄像机,所述高清摄像机同时连接处理器和存储器,所述处理器用于执行所述导航定位回收程序,以实现所述的导航定位回收方法的步骤。
如上所述的方面和任一可能的实现方式,进一步提供一种可读存储介质,所述计算机可读存储介质上存储有导航定位回收程序,所述导航定位回收程序被处理器执行时实现所述的导航定位回收方法的步骤。
与现有技术相比,本发明可以获得包括以下技术效果:
1):本发明利用先进的图像处理技术YoloV7来检测视觉标记Aruco,以及使用Midas单目深度估计模型来获取环境的深度信息,可以在无GNSS信号的环境下,通过融合图像识别数据和深度信息,利用PnP算法进行精确的姿态估计,从而实现无人机的定位和回收;
2):本发明的方法不仅解决了在强拒止条件下无人机导航的挑战,而且在无需高成本硬件的情况下,能够提供一种经济有效的解决方案,这对于提高无人机在复杂环境中的自主性和可靠性具有重要意义,并且对于保障无人机在军事和民用领域的广泛应用有着深远的影响;
3):本发明利用PnP算法解决了现有技术在姿态估计方面的不准确性,特别是在无GNSS信号的条件下,提高了无人机自主定位和回收的准确度和可靠性;
4):本发明利用Midas单目深度估计模型,克服了传统深度感知方法依赖于高成本多传感器系统的限制,实现成本效益高且精度较好的三维环境感知;
5):本发明结合YoloV7图像处理技术和Aruco标记的方法,解决了传统视觉导航系统在标记检测上的不稳定性,尤其是在动态环境中对标记的快速识别和追踪问题。
当然,实施本发明的任一产品并不一定需要同时达到以上所述的所有技术效果。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明一个实施例提供的导航定位回收方法的流程图;
图2是本发明一个实施例提供的Aruco码检测结果图;
图3是本发明一个实施例提供的单目深度估计结果图;
图4是本发明一个实施例提供的PnP姿态估计结果图;
图5是本发明一个实施例提供的与Monodepth2模型深度制图对比效果图;
图6是本发明一个实施例提供的每一帧姿态估计的时间计算结果图。
具体实施方式
为了更好的理解本发明的技术方案,下面结合附图对本发明实施例进行详细描述。
应当明确,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
本发明提供一种无人机视觉导航定位回收方法,用于在无GNSS信号条件下对无人机进行导航定位回收,所述导航定位回收方法包括以下步骤:
S1,进行图像采集:实时获取无人机采集到的图像信息;
S2,进行图像处理:部署YoloV7模型,实时检测和跟踪图像信息中的Aruco标记;
S3,进行深度估计:集成Midas模型,处理图像信息并估计图像中每个像素点的深度值,生成深度图;
S4,进行位姿估计:通过图像处理和深度估计的输出结果,利用PnP算法进行位姿估计;
S5,进行导航回收:通过位姿估计的输出结果,获取无人机姿态并进行导航定位回收。
所述S2具体包括:
S21:创建包含三种尺寸的Aruco标记的定制数据集;
S22:对无人机采集到的图像信息中的含有Aruco码的图像信息进行标注;
S23:通过定制数据集对YoloV7模型进行深度训练,获取强化YoloV7模型;
S24:通过强化YoloV7模型对含有Aruco码的图像信息进行实时检测和跟踪Aruco标记。
所述S21中三种尺寸分别包括:两个大靶标、十二个中靶标和三十二个小靶标,其中大靶标尺寸为5X5,中靶标为6X6,小靶标为12X12,每个大靶标、中靶标和小靶标均配有单独的ID编号。
所述三种尺寸的靶标中,每种尺寸的每个靶标均为嵌套模式,每个靶标均配置有相应的飞行高度和视角。
所述S3具体包括:
S31:通过Midas模型分析图像信息并估计每个像素点的深度值,生成深度图;
S32:利用深度图和彩色图像进行函数合成,输出RGBD图像;
S33:通过可视化工具RGBD图像进行展示。
所述S4具体包括:
S41:通过棋盘格相机标定法获取摄像机参数;
S42:对实时获取的图像信息进行预处理;
S43:通过强化YoloV7模型处理预处理后的图像,实时检测图像中的Aruco标记并识别其ID;
S44:通过Midas模型从单张RGB图像中估计出每个像素点的深度信息,生成深度图,与Aruco标记检测结果结合;
S45:通过YoloV7识别出的Aruco标记角点、Midas估计的深度信息和摄像机参数进行2D-3D匹配。
所述2D-3D匹配通过旋转矩阵与欧拉角转换实现。
本发明还提供一种无人机视觉导航定位回收系统,所述导航定位回收系统包括:
图像采集单元,用于实时获取无人机采集到的图像信息;
图像处理单元,用于部署YoloV7模型,实时检测和跟踪图像信息中的Aruco标记;
深度估计单元,用于集成Midas模型,处理图像信息并估计图像中每个像素点的深度值,生成深度图;
位姿估计单元,用于通过图像处理和深度估计的输出结果,利用PnP算法进行位姿估计;
导航回收单元,用于通过位姿估计的输出结果,获取无人机姿态并进行导航定位回收。
本发明还提供一种无人机视觉导航定位回收装置,所述导航定位回收装置搭载于无人机上,所述视觉导航定位回收装置包括存储器、处理器,通信总线以及存储在所述存储器上的导航定位回收程序,所述通信总线用于实现处理器和存储器间的通信连接,所述无人机上设有高清摄像机,所述高清摄像机同时连接处理器和存储器,所述处理器用于执行所述导航定位回收程序,以实现所述的导航定位回收方法的步骤。
本发明还提供一种可读存储介质,所述计算机可读存储介质上存储有导航定位回收程序,所述导航定位回收程序被处理器执行时实现所述的导航定位回收方法的步骤。
实施例1:
本发明的结构与设备组成:
无人机平台:配备高清摄像头和计算单元,捕获图像并执行图像处理算法。
图像处理单元:部署YoloV7模型,用于实时检测和跟踪图像中的Aruco标记。
深度估计单元:集成Midas模型,处理摄像头捕获的图像,估计图像中每个像素点的深度值,生成深度图。
姿态估计单元:整合图像处理单元和深度估计单元的输出,利用PnP算法进行位姿估计。
本发明上述组件通过特定的数据流和逻辑流程相互连接,以确保在GNSS信号丧失的情况下无人机的有效定位和导航。
如图1所示,本发明在实施时具体步骤如下:
1、Aruco标记识别检测
1)、Aruco标记
步骤:创建包含三种尺寸的Aruco标记的定制数据集。大靶标(5x5)有两个,中靶标(6x6)有十二个,小靶标(12x12)有三十二个,每个靶标均具有独特的ID编号。
参数值:数据集中的靶标设计为嵌套模式,以适应不同飞行高度和视角,确保无人机能在各个阶段进行准确识别。
2)、YoloV7模型训练
步骤:对无人机拍摄含有Aruco码视频进行截图,挑选其中清晰的帧进行标注,共标注500张图片,其中包含2000+Aruco码,使用该数据集对YoloV7模型进行了深度训练,强化模型对不同尺寸Aruco标记的识别能力。
参数值:批量大小设定为64以适应我们的系统配置,同时保证了在每次迭代中有足够的样本量来促进模型的有效学习。迭代次数设置为200,以确保能够带来稳定的学习效果,而不会导致过拟合。
3)、模型性能评估
步骤:在多种光照和背景变化的条件下对模型进行了广泛的性能评估。
参数值:模型的识别精度和召回率均达到了90%以上,证明其在不同环境下的可靠性和稳定性。
2、单目深度估计
1)、深度估计的技术实施步骤
①图像捕获:无人机摄像头捕获当前环境的彩色图像,随后传输至计算单元。
②深度估计:Midas模型在计算单元中运行,分析彩色图像并估计每个像素点的深度值,生成深度图。
③RGBD图像创建:利用深度图和彩色图像,通过Open3D库中的o3d.geometry.RGBDImage.create_from_color_and_depth函数合成RGBD图像。
④可视化:使用matplotlib等可视化工具,对合成的RGBD图像进行展示,以便于分析和调整。
2)参数值及其可行性范围
深度估计的误差控制在图像分辨率的±10%以内,这一误差范围是基于实验数据和模型性能测试确定的。在此范围内,误差足够小,能够满足无人机导航和定位的精度要求。
3、无人机位姿估计与控制
1)、PnP姿态估计步骤:
①摄像机参数获取:首先,通过棋盘格相机标定法获取摄像机的内参和畸变系数。这些参数是位姿估计算法精确执行的基础,它们决定了图像数据如何映射到三维空间。
②旋转矩阵与欧拉角转换:使用函数isRotationMatrix检查旋转矩阵的有效性,rotationMatrixToEulerAngles和eulerAnglesToRotationMatrix则用于在旋转矩阵与欧拉角之间进行转换。这些转换确保无人机控制系统能够理解和利用来自图像的方向信息。
③视频处理:实时读取无人机摄像头捕获的视频流,并对每一帧图像进行预处理。预处理包括转换为灰度图像,应用高斯模糊以减少噪声,以及使用Canny算法进行边缘检测。
④YoloV7检测Aruco码:运用预训练的YoloV7深度学习模型处理预处理后的图像,实时检测图像中的Aruco标记并识别其ID,为位姿估计提供必要的标记信息。
⑤单目深度估计:采用Midas模型从单张RGB图像中估计出每个像素点的深度信息,生成深度图,与Aruco标记检测结果结合,为后续位姿估计提供数据基础。
⑥2D-3D匹配:利用cv2.solvePnPRansac函数,结合YoloV7识别出的Aruco标记角点、Midas估计的深度信息和摄像机参数,计算摄像机相对于Aruco标记的旋转和平移矩阵。solvePnPRansac是一个高级函数,结合了Perspective-n-Point(PnP)问题解算和随机抽样一致性(RANSAC)算法,以提高位姿估计的准确性和鲁棒性。
2)、参数值及其可行性范围:
位姿估计的时延被严格控制在20ms以内,确保了无人机控制系统可以快速响应,从而进行实时的飞行调整。
本发明的原理部分如下:
本发明工作原理是通过结合硬件的图像捕获能力与软件的图像处理与深度估计算法,实现对无人机在GPS信号受限或拒止环境下的精准定位和导航。
1、 Aruco标记识别检测
无人机搭载的高清摄像头首先捕获环境图像。硬件的主要作用是提供高分辨率的图像输入,为软件分析提供数据基础。YoloV7算法随后在计算单元中被用于这些图像的实时处理,识别图像中的Aruco标记。这一步骤的核心是使用深度学习技术实现的模式识别,它能够即使在光照变化或部分遮挡的情况下也准确地检测标记。
YoloV7是一种基于深度学习的对象检测算法,它通过卷积神经网络(CNN)实现特征提取。在检测Aruco码时,YoloV7算法首先将输入图像分割成一个个小格子,每个格子预测多个边界框和其对应的置信度分数,这些分数表示边界框中包含对象的概率以及该对象的类别概率。对于Aruco码检测,网络已被训练来识别不同尺寸和形状的Aruco码及其ID。一旦检测到Aruco码,算法将进一步解码ID并准确标记其在图像中的位置。
2、单目深度估计
Midas单目深度估计原理
在本发明中,Midas深度估计模型采用端对端深度学习策略,它能够从单一的RGB图像中推断出每个像素点的深度值。该模型基于强大的卷积神经网络结构,该结构经过预训练能够识别并解析图像的多种特征,包括纹理、边缘、颜色等,并将这些复杂的视觉信息转化为深度数据。
此网络经过大规模且多样化的数据集训练,其中涵盖了各种已知深度信息的图像,确保了模型在面对未曾见过的场景时也能准确预测深度。Midas模型不仅结合了多个数据集以提升其泛化能力,还引入了一种新型的损失函数来处理不同数据集之间的尺度和基线差异,保证了预测的一致性和准确性。
核心技术在于它的多数据集训练能力,鲁棒的训练目标,以及对于零次跨数据集迁移的适应性。模型的训练目标经过优化,以便在多目标学习环境中提供最佳性能。同时,预训练的编码器和适用于各种数据集的新损失函数,共同作用于模型,以稳定地推断出未知环境中的深度信息,进一步强化了该系统在实际应用中的可行性与可靠性。
3、姿态估计与多源异构信息融合
PnP算法是本技术方案的最后一步,它结合了Aruco标记检测和深度信息来估计无人机的姿态。此算法精确计算无人机相对于地面标记的位置和方向,为飞行控制系统提供数据,以实现精确的定位和回收。
PnP算法原理:
Perspective-n-Point (PnP) 是一个几何算法,用于解决在已知对象的几个三维点和它们在图像中的二维投影的情况下确定摄像机的姿态(旋转和平移)。PnP问题可以用以下公式表示:
其中,(u,v)是图像中的二维点,(X,Y,Z)是对应的三维点,s是尺度因子,K是摄像机的内部矩阵,R和 t分别是摄像机的旋转矩阵和平移向量。该算法通过最小化重投影误差,即图像中观察到的点与通过摄像机模型投影的三维点之间的距离,来估计摄像机的姿态。
通过以上技术原理的实施,本发明的无人机视觉导航系统能够在缺乏GNSS信号的情况下,独立地进行空间定位和导航。这一系统的设计不仅考虑了算法的准确性和效率,而且通过硬件与软件的紧密结合,实现了对复杂环境的快速响应和适应性。
如图3所示,深度制图测试表明,使用本技术方案,深度估计误差可保持在10%以内,这一数据由对公开图像数据集的广泛评估得出。
在导航回收测试中,经优化的YoloV7模型展现了对不同尺寸Aruco码的高识别准确度,且无漏检发生。
如图4所示,姿态估计测试显示,在强拒止条件下,典型飞行回收的姿态估计时延低于20ms,强调了算法的实时性。
相较于传统单目深度估计方法,Midas模型在多数据集上显示了更低的预测偏差,证明了其更高的精度和泛化能力。
如图2所示,在Aruco码的检测效率上,YoloV7模型较其他检测算法具有更快的处理速度和更高的准确率。
本发明测试步骤及结果如下:
一、深度制图测试步骤
1.数据准备:选择公开的带有真实深度数据的图像数据集进行评估。
2.模型应用:用Midas模型预测单目图像的深度信息。
3.比较分析:对比应用在不同数据集模型预测的偏差;并与其他的单目深度估计模型预测效果进行对比。
对比结果如表1所示。
表1
与Monodepth2模型深度制图进行对比,效果如图5所示。
二、导航回收测试
测试步骤
1.数据采集:在多种环境下捕获包含Aruco码的图像,并完成标注。
2.模型训练与优化:利用采集的数据训练YoloV7模型,并进行多轮优化。
3.模型验证:使用测试数据集验证模型的准确度和识别率。
4.环境准备:拍摄不同环境下无人机飞行数据。
5..姿态估计:采用基于Aruco码的PnP算法进行无人机姿态估计。
对每一帧姿态估计的时间进行计算,结果如图6所示。
综上所述,本技术方案通过先进的图像处理技术与深度学习模型的融合应用,为无人机提供了一种在极端条件下依旧可靠的导航与定位方法,这在提高无人机操作性能和安全性方面具有重要意义。
本发明针对在强拒止条件下,即在全球导航卫星系统(GNSS)信号不可用的环境中,利用图像处理和深度估计算法,确保无人机的视觉导航定位与精确回收。方案的核心在于利用Aruco标记作为视觉参考点,通过不同阶段的视觉处理实现无人机的回收定位与姿态调整。
以上对本申请实施例所提供的一种无人机视觉导航定位回收方法、系统、装置及可读存储介质,进行了详细介绍。以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
如在说明书及权利要求书当中使用了某些词汇来指称特定组件。本领域技术人员应可理解,硬件制造商可能会用不同名词来称呼同一个组件。本说明书及权利要求书并不以名称的差异来作为区分组件的方式,而是以组件在功能上的差异来作为区分的准则。如在通篇说明书及权利要求书当中所提及的“包含”、“包括”为一开放式用语,故应解释成“包含/包括但不限定于”。“大致”是指在可接收的误差范围内,本领域技术人员能够在一定误差范围内解决所述技术问题,基本达到所述技术效果。说明书后续描述为实施本申请的较佳实施方式,然所述描述乃以说明本申请的一般原则为目的,并非用以限定本申请的范围。本申请的保护范围当视所附权利要求书所界定者为准。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的商品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种商品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的商品或者系统中还存在另外的相同要素。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
上述说明示出并描述了本申请的若干优选实施例,但如前所述,应当理解本申请并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述申请构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本申请的精神和范围,则都应在本申请所附权利要求书的保护范围内。

Claims (5)

1.一种无人机视觉导航定位回收方法,用于在无GNSS信号条件下对无人机进行导航定位回收,其特征在于,所述导航定位回收方法包括以下步骤:
S1,进行图像采集:实时获取无人机采集到的图像信息;
S2,进行图像处理:部署YoloV7模型,实时检测和跟踪图像信息中的Aruco标记;
S3,进行深度估计:集成Midas模型,处理图像信息并估计图像中每个像素点的深度值,生成深度图;
S4,进行位姿估计:通过图像处理和深度估计的输出结果,利用PnP算法进行位姿估计;
S5,进行导航回收:通过位姿估计的输出结果,获取无人机姿态并进行导航定位回收;
所述S2具体包括:
S21:创建包含三种尺寸的Aruco标记的定制数据集;
S22:对无人机采集到的图像信息中的含有Aruco码的图像信息进行标注;
S23:通过定制数据集对YoloV7模型进行深度训练,获取强化YoloV7模型;
S24:通过强化YoloV7模型对含有Aruco码的图像信息进行实时检测和跟踪Aruco标记;
所述S21中三种尺寸分别包括:两个大靶标、十二个中靶标和三十二个小靶标,其中大靶标尺寸为5X5,中靶标为6X6,小靶标为12X12,每个大靶标、中靶标和小靶标均配有单独的ID编号;
所述三种尺寸的靶标中,每种尺寸的每个靶标均为嵌套模式,每个靶标均配置有相应的飞行高度和视角;
所述S3具体包括:
S31:通过Midas模型分析图像信息并估计每个像素点的深度值,生成深度图;
S32:利用深度图和彩色图像进行函数合成,输出RGBD图像;
S33:通过可视化工具RGBD图像进行展示;
所述S4具体包括:
S41:通过棋盘格相机标定法获取摄像机参数;
S42:对实时获取的图像信息进行预处理;
S43:通过强化YoloV7模型处理预处理后的图像,实时检测图像中的Aruco标记并识别其ID;
S44:通过Midas模型从单张RGB图像中估计出每个像素点的深度信息,生成深度图,与Aruco标记检测结果结合;
S45:通过YoloV7识别出的Aruco标记角点、Midas估计的深度信息和摄像机参数进行2D-3D匹配;
其中,PnP算法结合Aruco标记检测和深度信息来估计无人机的姿态,此算法精确计算无人机相对于地面标记的位置和方向,为飞行控制系统提供数据,以实现精确的定位和回收;
PnP算法原理如下:
Perspective-n-Point (PnP) 是一个几何算法,用于解决在已知对象的几个三维点及其在图像中的二维投影的情况下确定摄像机的姿态,包括旋转和平移,PnP问题可以用以下公式表示:
=K/>
其中,(u,v)是图像中的二维点,(X,Y,Z)是对应的三维点,s是尺度因子,K是摄像机的内部矩阵,R和 t分别是摄像机的旋转矩阵和平移向量,该算法通过最小化重投影误差,即图像中观察到的点与通过摄像机模型投影的三维点之间的距离,来估计摄像机的姿态。
2.根据权利要求1所述的导航定位回收方法,其特征在于,所述2D-3D匹配通过旋转矩阵与欧拉角转换实现。
3.一种无人机视觉导航定位回收系统,通过上述权利要求1-2之一所述导航定位回收方法实现无人机的导航定位回收方法,其特征在于,所述导航定位回收系统包括:
图像采集单元,用于实时获取无人机采集到的图像信息;
图像处理单元,用于部署YoloV7模型,实时检测和跟踪图像信息中的Aruco标记;
深度估计单元,用于集成Midas模型,处理图像信息并估计图像中每个像素点的深度值,生成深度图;
位姿估计单元,用于通过图像处理和深度估计的输出结果,利用PnP算法进行位姿估计;
导航回收单元,用于通过位姿估计的输出结果,获取无人机姿态并进行导航定位回收。
4.一种无人机视觉导航定位回收装置,所述导航定位回收装置搭载于无人机上,其特征在于,所述视觉导航定位回收装置包括存储器、处理器,通信总线以及存储在所述存储器上的导航定位回收程序,所述通信总线用于实现处理器和存储器间的通信连接,所述无人机上设有高清摄像机,所述高清摄像机同时连接处理器和存储器,所述处理器用于执行所述导航定位回收程序,以实现如权利要求1至2中任一项所述的导航定位回收方法的步骤。
5.一种可读存储介质,其特征在于,所述可读存储介质上存储有导航定位回收程序,所述导航定位回收程序被处理器执行时实现如权利要求1-2中任一项所述的导航定位回收方法的步骤。
CN202410109531.8A 2024-01-26 2024-01-26 无人机视觉导航定位回收方法、系统、装置及可读存储介质 Active CN117649619B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410109531.8A CN117649619B (zh) 2024-01-26 2024-01-26 无人机视觉导航定位回收方法、系统、装置及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410109531.8A CN117649619B (zh) 2024-01-26 2024-01-26 无人机视觉导航定位回收方法、系统、装置及可读存储介质

Publications (2)

Publication Number Publication Date
CN117649619A CN117649619A (zh) 2024-03-05
CN117649619B true CN117649619B (zh) 2024-04-19

Family

ID=90043591

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410109531.8A Active CN117649619B (zh) 2024-01-26 2024-01-26 无人机视觉导航定位回收方法、系统、装置及可读存储介质

Country Status (1)

Country Link
CN (1) CN117649619B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109341694A (zh) * 2018-11-12 2019-02-15 哈尔滨理工大学 一种移动探测机器人的自主定位导航方法
CN117115260A (zh) * 2023-09-28 2023-11-24 中山大学 基于yolo的类圆柱目标位姿估计方法、装置和设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109341694A (zh) * 2018-11-12 2019-02-15 哈尔滨理工大学 一种移动探测机器人的自主定位导航方法
CN117115260A (zh) * 2023-09-28 2023-11-24 中山大学 基于yolo的类圆柱目标位姿估计方法、装置和设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Calibrating Panoramic Depth Estimation for Practical Localization and Mapping;Junho Kim等;2023 IEEE/CVF International Conference on Computer Vision (ICCV);20240115;第2-4节 *
Multimodal perception for obstacle detection for flying boats - Unmanned Surface Vehicle (USV);Ronan Douguet等;OCEANS 2023 - Limerick;20230912;第II-VI *

Also Published As

Publication number Publication date
CN117649619A (zh) 2024-03-05

Similar Documents

Publication Publication Date Title
CN110411441B (zh) 用于多模态映射和定位的系统和方法
EP2917754B1 (en) Image processing method, particularly used in a vision-based localization of a device
Panahandeh et al. Vision-aided inertial navigation based on ground plane feature detection
CN108051002A (zh) 基于惯性测量辅助视觉的运输车空间定位方法及系统
CN107167826B (zh) 一种自动驾驶中基于可变网格的图像特征检测的车辆纵向定位系统及方法
JP6782903B2 (ja) 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
CN109300143B (zh) 运动向量场的确定方法、装置、设备、存储介质和车辆
Fiala et al. Visual odometry using 3-dimensional video input
CN109631911B (zh) 一种基于深度学习目标识别算法的卫星姿态转动信息确定方法
CN113568435B (zh) 一种基于无人机自主飞行态势感知趋势的分析方法与系统
JP6479296B2 (ja) 位置姿勢推定装置および位置姿勢推定方法
Yan et al. Joint camera intrinsic and lidar-camera extrinsic calibration
CN113743385A (zh) 一种无人船水面目标检测方法、装置及无人船
CN108544494A (zh) 一种基于惯性和视觉特征的定位装置、方法及机器人
CN114692720A (zh) 基于鸟瞰图的图像分类方法、装置、设备及存储介质
KR20230003803A (ko) 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법
JP6410231B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
Zingoni et al. Real-time 3D reconstruction from images taken from an UAV
CN117523461B (zh) 一种基于机载单目相机的运动目标跟踪与定位方法
Wang et al. 3D-LIDAR based branch estimation and intersection location for autonomous vehicles
CN113971697A (zh) 一种空地协同车辆定位定向方法
CN114556449A (zh) 障碍物检测及重识别方法、装置、可移动平台及存储介质
CN117649619B (zh) 无人机视觉导航定位回收方法、系统、装置及可读存储介质
JP2017182564A (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP6593995B2 (ja) 空港監視装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant