CN116524031A - 一种基于yolov8的大范围月球车定位建图方法 - Google Patents
一种基于yolov8的大范围月球车定位建图方法 Download PDFInfo
- Publication number
- CN116524031A CN116524031A CN202310802421.5A CN202310802421A CN116524031A CN 116524031 A CN116524031 A CN 116524031A CN 202310802421 A CN202310802421 A CN 202310802421A CN 116524031 A CN116524031 A CN 116524031A
- Authority
- CN
- China
- Prior art keywords
- image
- layer
- merle
- matching
- binocular
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 241001061260 Emmelichthys struhsakeri Species 0.000 title claims abstract description 34
- 238000013507 mapping Methods 0.000 title claims abstract description 19
- 238000001514 detection method Methods 0.000 claims abstract description 50
- 239000004575 stone Substances 0.000 claims abstract description 19
- 238000007781 pre-processing Methods 0.000 claims abstract description 12
- 238000005457 optimization Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 7
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 abstract description 7
- 238000005259 measurement Methods 0.000 abstract description 3
- 239000011159 matrix material Substances 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 241001061257 Emmelichthyidae Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003707 image sharpening Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于YOLOV8的大范围月球车定位建图方法,包括陨石坑地标数据库、双目图像预处理层、目标检测层、双目目标匹配层、距离探测与相对位姿估计层、陨石坑匹配层和月球车位姿优化层;本发明属空间距离自动测量和计算机视觉技术领域,具体为一种基于YOLOV8的大范围月球车定位建图方法;本发明的优点为:采用双目视觉测距与改进YOLOV8目标检测相结合的方式,可以快速计算陨石坑或石块的深度信息,由于将图像特征匹配替换为目标匹配,从而避免了激光点云或深度图像点云计算量大和检测时间长的问题,利用空间连接匹配方法可以快速对月球车进行全局定位。
Description
技术领域
本发明属空间距离自动测量技术领域,具体为一种基于YOLOV8的大范围月球车定位建图方法。
背景技术
月球车的主要任务包括资源勘探、资源开发、设施建设和设施维护,月球车需要在以基地为中心10公里范围内进行准确导航,月球车还需要在南极-艾托肯盆地(月球最大撞击坑)内穿越数千公里,月球车需要提供机载、自主、全局定位信息以支持上述任务,而月球车至今没有机载的全局定位能力,仅能提供相对定位信息,通过整合轮式里程计、视觉里程计和惯性测量的组合来跟踪相对于开始的位置,也就是相对定位。
同步定位与建图(Simultaneous Localization and Mapping,简称SLAM)问题可以描述为:机器人在未知环境中从一个未知位置开始移动,在移动过程中根据位置和地图进行自身定位,同时在自身定位的基础上建造增量式地图,实现机器人的自主定位和导航。
由于月球表面分布着大大小小的陨石坑,因此有学者提出利用陨石坑对月球车进行全局定位,将陨石坑作为地标,月球车自动探测其附近的陨石坑,并将其与由轨道图像创建的地标数据库中已知的陨石坑进行匹配,主要的步骤包括陨石坑的检测、陨石坑的匹配和月球车位姿估计三个步骤;其中,陨石坑的检测手段主要是利用激光雷达的点云数据进行陨石坑检测、利用立体相机采集的点云数据进行陨石坑检测和利用单目相机进行陨石坑检测;使用激光雷达和立体相机的方式存在耗电速度快和计算资源开销大的缺点,而使用单目相机的方式是无法直接得到距离信息,从而不能直接估计陨石坑的远近。
发明内容
(一)要解决的技术问题
为解决现有技术的上述问题,本发明提供一种基于YOLOV8的大范围月球车定位建图方法,可以有效解决:
(1)改善传统基于激光点云或深度图像点云进行陨石坑检测时具有计算量大、检测消耗时间长的缺点;
(2)改善传统基于激光点云或深度图像点云进行陨石坑匹配也具有匹配时间长,容易出现误匹配的缺点;
(3)克服使用单目相机的方式是无法直接得到距离信息,从而不能直接估计陨石坑的远近的问题,因此本方法采用双目相机进行陨石坑的检测。
(二)技术方案
为了解决上述问题,本发明采用的一种技术方案为:一种基于YOLOV8的大范围月球车定位建图方法,包括陨石坑地标数据库、双目图像预处理层、目标检测层、双目目标匹配层、距离探测与相对位姿估计层、陨石坑匹配层和月球车位姿优化层;所述陨石坑地标数据库的创建方式是从轨道图像中创建一个陨石坑地标数据库,这个数据库将包含每个陨石坑的位置、椭圆长轴和椭圆短轴;所述双目图像预处理层的处理步骤包括:
S1、高斯滤波,用于平滑图像并过滤噪声;
S2、图像增强,使双目图像更加清晰;
S3、图像锐化,使图像的边缘和细节更加清晰。
进一步地,所述目标检测层使用YOLOV8进行目标检测,具体步骤为:
S1、对YOLOV8模型进行改进,由于传统目标检测的结果是以矩形框的形式进行显示,包括目标中心的坐标及目标的宽和高,但是由于陨石坑的形状都是圆形或椭圆形,因此需要重新设计显示形式,具体为陨石坑中心坐标(以像素为单位)、椭圆长轴、椭圆短轴和椭圆长轴方向,其中椭圆长轴方向范围为0度到180度;原YOLOV8模型中,最多可以对80种物体进行分类,而在本发明中,仅设陨石坑和石块两种类别,因此当原YOLOV8模型的头部的每个单元格负责预测三个候选框时,总的通道数为(5+1+2)×3 = 24,而在原YOLOV8模型中,总的通道数为(4+1+80)×3 = 255,模型参数大大减少;
S2、设经过双目图像预处理层处理后的双目图像P1的宽度为W,高度为H,使用经过S0改进后的YOLOV8模型对双目图像P1进行目标检测,得到检测后目标检测图像P2,以目标检测图像P2的左上角为原点,建立坐标系,以水平向右为x轴正方向、以竖直向下为y轴正方向。
进一步地,所述双目目标匹配层的操作步骤如下:
对目标检测图像P2进行图像匹配,由于P2为双目图像(包括左图和右图),并且P2中检测出的陨石坑和石块的数目不会太多,因此可使用暴力搜索的方式对左图和右图进行目标匹配,此处目标匹配与图像特征匹配有所不同,参与目标匹配的每个元素是P2中的一个目标检测结果的部分量组成的向量,包括椭圆长轴(或石块长轴)、椭圆短轴(或石块短轴)和椭圆长轴方向(或石块长轴方向)和类别(使用0和1表示二分类结果);使用欧氏距离判断每个元素之间的相似性,从而进行目标匹配。
作为优选地,所述距离探测与相对位姿估计层的处理方式如下:
S1、根据S2中的匹配结果和双目测距原理,计算出所有石块和陨石坑距离相机(或月球车的距离),进一步计算各自的空间坐标Pi=[Xi,Yi,Zi]T;
S2、使用BA算法求解相机(或月球车)相对位姿,求解方法如下:
使用李代数ξ表示相机的位姿R、t;R表示旋转矩阵,t表示平移向量;假设某一陨石坑的中心点坐标(石块中心点坐标)为Pi=[Xi,Yi,Zi]T,其投影的像素坐标为ui=[ui,vi]T;则有如下关系:
上式中包含了一次齐次坐标到非齐次坐标的变换,si为尺度因子,K为相机内参矩阵,李代数的形式为:
上式中,表示与平移相关的三维向量,/>是与旋转相关的李代数so(3),也是三维向量,符号“/>”可以将李代数ξ变换为矩阵形式,具体为:
上式中,表示将/>扩展为反对称矩阵,exp(/>)是/>的矩阵指数函数,具体计算表达式为:
上式中,为旋转轴,/>为绕旋转轴/>转过的旋转角度;进而有:
由于相机位姿是未知的,并且存在观测噪声,因此上式不能严格成立,因此定义误差:
上式表示,某一陨石坑的中心点坐标Pi经过估计的位姿R、t投影得到的像素与观测到的像素ui之间的误差;对于某一次观测,假设共检测出N个元素(正确匹配的对数),那么每个元素均存在一个误差,那么总误差E为:
调整相机位姿R、t,也就是调整李代数可使总误差E达到最小值,此时得到的位姿即是月球车在行驶过程中双目相机在相邻两帧的位姿变化,计算公式为:
上式中,为求解的相邻两帧之间的相对位姿。
作为优选地,所述陨石坑匹配层将目标检测图像P2的左图与陨石坑地标数据库进行匹配,匹配方法使用空间连接的方法,最终得到全局的定位信息。
进一步地,所述月球车位姿优化层对全局路径进行优化,由于距离探测与相对位姿估计层只估计局部位姿,累计误差会逐渐增大,所以引入月球车位姿优化层,以不同时刻的局部位姿和地图为输入信息,经过月球车位姿优化层处理后,最后得到全局一致的位姿和地图;当沿着一定轨迹行驶时,相机在任意时刻的位姿用李代数ξi表示,路标点Pj的三维坐标用pj表示,观测数据zi,j代表像素平面坐标,那么由光束法平差算法定义的累计误差可以表示为:
上式中,h(ξi,pj)代表估计值;
由此可以定义在所有时刻的关于误差的目标函数:
使用图优化算法最小化上式的目标函数即可得到全局的优化路径。
(三)有益效果
本发明提供一种基于YOLOV8的大范围月球车定位建图方法,可有效解决:
(1)本发明采用双目视觉测距与YOLOV8目标检测相结合,可以快速计算陨石坑(石块)的深度信息,由于将图像特征匹配替换为目标匹配,从而避免了激光点云或深度图像点云计算量大和检测时间长的问题。
(2)利用了空间连接匹配方法可以快速对月球车进行全局定位。
附图说明
图1为本发明提出的一种基于YOLOV8的大范围月球车定位建图方法的流程图;
图2为本发明提出的双目图像预处理层的流程图;
图3为双目图像经过目标检测层处理后的结果示意图;
图4为双目目标匹配层的处理结果示意图。
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
具体实施方式
下面将结合本方案实施例中的附图,对本方案实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本方案一部分实施例,而不是全部的实施例;基于本方案中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本方案保护的范围。
一种基于YOLOV8的大范围月球车定位建图方法,包括陨石坑地标数据库、双目图像预处理层、目标检测层、双目目标匹配层、距离探测与相对位姿估计层、陨石坑匹配层和月球车位姿优化层;所述陨石坑地标数据库的创建方式是从轨道图像中创建一个陨石坑地标数据库,这个数据库将包含每个陨石坑的位置、椭圆长轴和椭圆短轴;所述双目图像预处理层的处理步骤包括:
S1、高斯滤波,用于平滑图像并过滤噪声;
S2、图像增强,使双目图像更加清晰;
S3、图像锐化,使图像的边缘和细节更加清晰。
进一步地,所述目标检测层使用YOLOV8进行目标检测,具体步骤为:
S1、对YOLOV8模型进行改进,由于传统目标检测的结果是以矩形框的形式进行显示,包括目标中心的坐标及目标的宽和高,但是由于陨石坑的形状都是圆形或椭圆形,因此需要重新设计显示形式,具体为陨石坑中心坐标(以像素为单位)、椭圆长轴、椭圆短轴和椭圆长轴方向,其中椭圆长轴方向范围为0度到180度;原YOLOV8模型中,最多可以对80种物体进行分类,而在本发明中,仅设陨石坑和石块两种类别,因此当原YOLOV8模型的头部的每个单元格负责预测三个候选框时,总的通道数为(5+1+2)×3 = 24,而在原YOLOV8模型中,总的通道数为(4+1+80)×3 = 255,模型参数大大减少;
S2、设经过双目图像预处理层处理后的双目图像P1的宽度为W,高度为H,使用经过S0改进后的YOLOV8模型对双目图像P1进行目标检测,得到检测后目标检测图像P2,以目标检测图像P2的左上角为原点,建立坐标系,以水平向右为x轴正方向、以竖直向下为y轴正方向。
进一步地,所述双目目标匹配层的操作步骤如下:
对目标检测图像P2进行图像匹配,由于P2为双目图像(包括左图和右图),并且P2中检测出的陨石坑和石块的数目不会太多,因此可使用暴力搜索的方式对左图和右图进行目标匹配,此处目标匹配与图像特征匹配有所不同,参与目标匹配的每个元素是P2中的一个目标检测结果的部分量组成的向量,包括椭圆长轴(或石块长轴)、椭圆短轴(或石块短轴)和椭圆长轴方向(或石块长轴方向)和类别(使用0和1表示二分类结果);使用欧氏距离判断每个元素之间的相似性,从而进行目标匹配。
作为优选地,所述距离探测与相对位姿估计层的处理方式如下:
S1、根据S2中的匹配结果和双目测距原理,计算出所有石块和陨石坑距离相机(或月球车的距离),进一步计算各自的空间坐标Pi=[Xi,Yi,Zi]T;
S2、使用BA算法求解相机(或月球车)相对位姿,求解方法如下:
使用李代数ξ表示相机的位姿R、t;R表示旋转矩阵,t表示平移向量;假设某一陨石坑的中心点坐标(石块中心点坐标)为Pi=[Xi,Yi,Zi]T,其投影的像素坐标为ui=[ui,vi]T;则有如下关系:
上式中包含了一次齐次坐标到非齐次坐标的变换,si为尺度因子,K为相机内参矩阵,李代数的形式为:
上式中,表示与平移相关的三维向量,/>是与旋转相关的李代数so(3),也是三维向量,符号“/>”可以将李代数ξ变换为矩阵形式,具体为:
上式中,表示将/>扩展为反对称矩阵,exp(/>)是/>的矩阵指数函数,具体计算表达式为:
上式中,为旋转轴,/>为绕旋转轴/>转过的旋转角度;进而有:
由于相机位姿是未知的,并且存在观测噪声,因此上式不能严格成立,因此定义误差:
上式表示,某一陨石坑的中心点坐标Pi经过估计的位姿R、t投影得到的像素与观测到的像素ui之间的误差;对于某一次观测,假设共检测出N个元素(正确匹配的对数),那么每个元素均存在一个误差,那么总误差E为:
调整相机位姿R、t,也就是调整李代数可使总误差E达到最小值,此时得到的位姿即是月球车在行驶过程中双目相机在相邻两帧的位姿变化,计算公式为:
上式中,为求解的相邻两帧之间的相对位姿。
作为优选地,所述陨石坑匹配层将目标检测图像P2的左图与陨石坑地标数据库进行匹配,匹配方法使用空间连接的方法,最终得到全局的定位信息。
进一步地,所述月球车位姿优化层对全局路径进行优化,由于距离探测与相对位姿估计层只估计局部位姿,累计误差会逐渐增大,所以引入月球车位姿优化层,以不同时刻的局部位姿和地图为输入信息,经过月球车位姿优化层处理后,最后得到全局一致的位姿和地图;当沿着一定轨迹行驶时,相机在任意时刻的位姿用李代数ξi表示,路标点Pj的三维坐标用pj表示,观测数据zi,j代表像素平面坐标,那么由光束法平差算法定义的累计误差可以表示为:
上式中,h(ξi,pj)代表估计值;
由此可以定义在所有时刻的关于误差的目标函数:
使用图优化算法最小化上式的目标函数即可得到全局的优化路径。
实施例一:
一种基于 YOLOV8 的大范围月球车定位建图方法的处理步骤如下:
S1、从轨道图像中创建一个陨石坑地标数据库,这个数据库将包含每个陨石坑的位置、椭圆长轴和椭圆短轴;
S2、对月球车拍摄的双目图像进行高斯滤波、图像增强和图像锐化等预处理操作,使双目图像更加清晰;
S3、使用改进后的 YOLOV8 模型对双目图像进行目标检测,得到检测后目标检测图像,其中每个检测结果包括陨石坑中心坐标、椭圆长轴、椭圆短轴和椭圆长轴方向;
S4、使用暴力搜索的方式对左图和右图进行目标匹配,使用欧氏距离判断每个元素之间的相似性,从而进行目标匹配;
S5、使用双目视差原理计算每个匹配目标的距离,并根据相机内外参数估计每个匹配目标相对于月球车的位姿;
S6、使用陨石坑地标数据库中的信息与匹配目标进行陨石坑匹配,找出与月球车所在区域最接近的陨石坑地标,从而实现月球车的全局定位;
S7、使用图优化对月球车位姿进行优化,更新月球车位姿并更新地图。
以上便是本发明具体的工作流程,下次使用时重复此步骤即可。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
以上对本发明及其实施方式进行了描述,这种描述没有限制性,附图中所示的也只是本发明的实施方式之一,实际的结构并不局限于此。总而言之如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不经创造性的设计出与该技术方案相似的结构方式及实施例,均应属于本发明的保护范围。
Claims (6)
1.一种基于YOLOV8的大范围月球车定位建图方法,包括陨石坑地标数据库、双目图像预处理层、目标检测层、双目目标匹配层、距离探测与相对位姿估计层、陨石坑匹配层和月球车位姿优化层;所述目标检测层使用YOLOV8进行目标检测,具体步骤为:
S1、对YOLOV8模型进行改进,将陨石坑中心坐标、椭圆长轴、椭圆短轴和椭圆长轴方向,其中椭圆长轴方向范围为0度到180度;仅设陨石坑和石块两种类别,因此当原YOLOV8模型的头部的每个单元格负责预测三个候选框时,总的通道数为(5+1+2)×3 = 24;
S2、设经过双目图像预处理层处理后的双目图像P1的宽度为W,高度为H,使用经过S0改进后的YOLOV8模型对双目图像P1进行目标检测,得到检测后目标检测图像P2,以目标检测图像P2的左上角为原点,建立坐标系,以水平向右为x轴正方向、以竖直向下为y轴正方向。
2.根据权利要求1所述的一种基于YOLOV8的大范围月球车定位建图方法,其特征在于:所述双目目标匹配层的操作步骤如下:
对目标检测图像P2进行图像匹配,使用暴力搜索的方式对左图和右图进行目标匹配,参与目标匹配的每个元素是P2中的一个目标检测结果的部分量组成的向量,包括椭圆长轴或石块长轴、椭圆短轴或石块短轴和椭圆长轴方向或石块长轴方向和类别;使用欧氏距离判断每个元素之间的相似性,从而进行目标匹配。
3.根据权利要求1所述的一种基于YOLOV8的大范围月球车定位建图方法,其特征在于:所述距离探测与相对位姿估计层的处理方式如下:
S1、根据S2中的匹配结果和双目测距原理,计算出所有石块和陨石坑距离相机或月球车的距离,进一步计算各自的空间坐标Pi=[Xi,Yi,Zi]T;
S2、使用BA算法求解相机或月球车相对位姿。
4.根据权利要求1所述的一种基于YOLOV8的大范围月球车定位建图方法,其特征在于:所述陨石坑地标数据库的创建方式是从轨道图像中创建一个陨石坑地标数据库,这个数据库将包含每个陨石坑的位置、椭圆长轴和椭圆短轴;所述双目图像预处理层的处理步骤包括:
S1、高斯滤波,用于平滑图像并过滤噪声;
S2、图像增强,使双目图像更加清晰;
S3、图像锐化,使图像的边缘和细节更加清晰。
5.根据权利要求1所述的一种基于YOLOV8的大范围月球车定位建图方法,其特征在于:所述陨石坑匹配层将目标检测图像P2的左图与陨石坑地标数据库进行匹配,匹配方法使用空间连接的方法,最终得到全局的定位信息。
6.根据权利要求1所述的一种基于YOLOV8的大范围月球车定位建图方法,其特征在于:所述月球车位姿优化层对全局路径进行优化,引入月球车位姿优化层,以不同时刻的局部位姿和地图为输入信息,经过月球车位姿优化层处理后,最后得到全局一致的位姿和地图;当沿着一定轨迹行驶时,相机在任意时刻的位姿用李代数ξi表示,路标点Pj的三维坐标用pj表示,观测数据zi,j代表像素平面坐标,那么由光束法平差算法定义的累计误差可以表示为:
上式中,h(ξi,pj)代表估计值;
由此可以定义在所有时刻的关于误差的目标函数:
使用图优化算法最小化上式的目标函数即可得到全局的优化路径。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310802421.5A CN116524031B (zh) | 2023-07-03 | 2023-07-03 | 一种基于yolov8的大范围月球车定位建图方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310802421.5A CN116524031B (zh) | 2023-07-03 | 2023-07-03 | 一种基于yolov8的大范围月球车定位建图方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116524031A true CN116524031A (zh) | 2023-08-01 |
CN116524031B CN116524031B (zh) | 2023-09-22 |
Family
ID=87390675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310802421.5A Active CN116524031B (zh) | 2023-07-03 | 2023-07-03 | 一种基于yolov8的大范围月球车定位建图方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116524031B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108871349A (zh) * | 2018-07-13 | 2018-11-23 | 北京理工大学 | 一种深空探测器光学导航位姿加权确定方法 |
CN111652896A (zh) * | 2020-05-29 | 2020-09-11 | 北京理工大学 | 惯导辅助陨石坑由粗到精检测方法 |
WO2022074643A1 (en) * | 2020-10-08 | 2022-04-14 | Edgy Bees Ltd. | Improving geo-registration using machine-learning based object identification |
CN115471749A (zh) * | 2022-09-06 | 2022-12-13 | 北京控制工程研究所 | 地外探测无监督学习的多视角多尺度目标识别方法及系统 |
CN115661622A (zh) * | 2022-09-27 | 2023-01-31 | 北京航空航天大学 | 一种基于图像增强和改进YOLOv5的陨石坑检测方法 |
CN115909025A (zh) * | 2022-09-30 | 2023-04-04 | 北京空间飞行器总体设计部 | 一种小天体表面采样点地形视觉自主检测识别方法 |
-
2023
- 2023-07-03 CN CN202310802421.5A patent/CN116524031B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108871349A (zh) * | 2018-07-13 | 2018-11-23 | 北京理工大学 | 一种深空探测器光学导航位姿加权确定方法 |
CN111652896A (zh) * | 2020-05-29 | 2020-09-11 | 北京理工大学 | 惯导辅助陨石坑由粗到精检测方法 |
WO2022074643A1 (en) * | 2020-10-08 | 2022-04-14 | Edgy Bees Ltd. | Improving geo-registration using machine-learning based object identification |
CN115471749A (zh) * | 2022-09-06 | 2022-12-13 | 北京控制工程研究所 | 地外探测无监督学习的多视角多尺度目标识别方法及系统 |
CN115661622A (zh) * | 2022-09-27 | 2023-01-31 | 北京航空航天大学 | 一种基于图像增强和改进YOLOv5的陨石坑检测方法 |
CN115909025A (zh) * | 2022-09-30 | 2023-04-04 | 北京空间飞行器总体设计部 | 一种小天体表面采样点地形视觉自主检测识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116524031B (zh) | 2023-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113781582B (zh) | 基于激光雷达和惯导联合标定的同步定位与地图创建方法 | |
Alonso et al. | Accurate global localization using visual odometry and digital maps on urban environments | |
Song et al. | A Kalman filter-integrated optical flow method for velocity sensing of mobile robots | |
EP2660777B1 (en) | Image registration of multimodal data using 3D geoarcs | |
CN110361027A (zh) | 基于单线激光雷达与双目相机数据融合的机器人路径规划方法 | |
CN107677274B (zh) | 基于双目视觉的无人机自主着陆导航信息实时解算方法 | |
CN109596121B (zh) | 一种机动站自动目标检测与空间定位方法 | |
CN109871739B (zh) | 基于yolo-sioctl的机动站自动目标检测与空间定位方法 | |
CN104281148A (zh) | 基于双目立体视觉的移动机器人自主导航方法 | |
CN111652896A (zh) | 惯导辅助陨石坑由粗到精检测方法 | |
WO2017130397A1 (ja) | 位置推定装置、位置推定方法および位置推定プログラム | |
Dawood et al. | Harris, SIFT and SURF features comparison for vehicle localization based on virtual 3D model and camera | |
CN108122255A (zh) | 一种基于梯形与圆形组合地标的无人机位姿估计方法 | |
CN111721279A (zh) | 一种适用于输电巡检工作的末端路径导航方法 | |
US11514588B1 (en) | Object localization for mapping applications using geometric computer vision techniques | |
Gao et al. | MGG: Monocular global geolocation for outdoor long-range targets | |
EP3479064A1 (en) | Lane level accuracy using vision of roadway lights and particle filter | |
CN114792338A (zh) | 基于先验三维激光雷达点云地图的视觉融合定位方法 | |
CN116524031B (zh) | 一种基于yolov8的大范围月球车定位建图方法 | |
CN112731503A (zh) | 一种基于前端紧耦合的位姿估计方法及系统 | |
WO2020118623A1 (en) | Method and system for generating an environment model for positioning | |
CN109815966A (zh) | 一种基于改进sift算法的移动机器人视觉里程计实现方法 | |
CN111462321B (zh) | 点云地图处理方法、处理装置、电子装置和车辆 | |
Xiong et al. | Computing depth maps from descent images | |
Kawasaki et al. | Motion estimation for non-overlapping cameras by improvement of feature points matching based on urban 3D structure |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |