CN116442248A - 一种基于目标检测的机器人视觉定位模块及方法 - Google Patents

一种基于目标检测的机器人视觉定位模块及方法 Download PDF

Info

Publication number
CN116442248A
CN116442248A CN202310721409.1A CN202310721409A CN116442248A CN 116442248 A CN116442248 A CN 116442248A CN 202310721409 A CN202310721409 A CN 202310721409A CN 116442248 A CN116442248 A CN 116442248A
Authority
CN
China
Prior art keywords
imu
robot
time
points
method based
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310721409.1A
Other languages
English (en)
Inventor
栾东丽
赵之喜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jining Technician College
Shandong Engineering Vocational and Technical University
Original Assignee
Jining Technician College
Shandong Engineering Vocational and Technical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jining Technician College, Shandong Engineering Vocational and Technical University filed Critical Jining Technician College
Priority to CN202310721409.1A priority Critical patent/CN116442248A/zh
Publication of CN116442248A publication Critical patent/CN116442248A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于目标检测的机器人视觉定位模块及方法,属于机器人领域,所述的机器人视觉定位方法包括步骤1、利用视觉与IMU松耦合检测出两个连续立体帧中包含的动态特征点,并计算IMU在两帧之间的预积分;步骤2、对IMU与视觉信息紧耦合;步骤3、进行滑动窗口优化与边缘化。本发明减少优化计算量,采用滑动窗口和边缘化方法对机器人位姿、速度等状态量进行优化更新,从而得到估计的机器人定位信息。算法相比于纯视觉算法对移动机器人的定位估计误差有一定的降低,可满足机器人的定位精度需求。

Description

一种基于目标检测的机器人视觉定位模块及方法
技术领域
本发明属于机器人领域,更具体的说涉及一种基于目标检测的机器人视觉定位模块及方法。
背景技术
机器人是自动执行工作的机器装置。它既可以接受人类指挥,又可以运行预先编排的程序,也可以根据以人工智能技术制定的原则纲领行动。它的任务是协助或取代人类工作的工作,例如生产业、建筑业,或是危险的工作。现有的室内定位方法装置大多过于复杂,机器人搭载起来过于笨重而庞大,成本和造价也颇高,机器人移动主要是通过一些定位元件辅助才能进行移动,同时还有设置在机器人上的多个感应探头以及避障器件配合进行移动,然而随着科技的发展普通的定位元件难以满足机器人的高精度移动。
然而,现有的基于目标检测的机器人视觉定位方法,均是采用单一的视觉定位,在单一的视觉定位过程中,由于机器人在移动过程中会一直存在误差,导致机器人摄像头在对目标进行视觉检测时,会由于机器人移动造成的累计误差,从而对会对机器人的视觉定位参数误差。机器人自身的当前位置判断主要是基于自身的IMU惯性导航单元测量的数据进行判断。如果能将惯性导航单元内的测量数据与视觉定位的数据结合起来,进行机器人的定位。将可以消除机器人移动过程中产生的误差。
发明内容
本发明减少优化计算量,采用滑动窗口和边缘化方法对机器人位姿、速度等状态量进行优化更新,从而得到估计的机器人定位信息。算法相比于纯视觉算法对移动机器人的定位估计误差有一定的下降,可满足机器人的定位精度需求。
为了实现上述目的,本发明是采用以下技术方案实现的:所述的机器人视觉定位方法包括
步骤1、利用视觉与IMU松耦合检测出两个连续立体帧中包含的动态特征点,并计算IMU在两帧之间的预积分;
步骤2、动态点筛选
步骤3、对IMU与视觉信息紧耦合;
步骤4、对步骤2采用滑动窗口法进行优化和边缘化。
进一步地,所述的步骤1包括以下步骤:
S101、对图像的特征点进行提取与跟踪;
S102、对IMU进行预积分;
S103、根据上述计算得到的数据对重力方向、陀螺仪的角速度偏置、时间同步误差等进行初始化。
进一步地,所述的S101采用Shi-Tomas角点进行图像特征信息的提取,并使用LK光流法来追踪左右目图像帧以及前后两图像帧提取出的特征点,实现图像在时间和空间上的特征匹配。
进一步地,所述的S102,为了得到两帧图像之间的位姿,减少后端的计算量,IMU需要先进行预积分处理,得到相邻IMU数据之间的位姿,IMU预积分更新公式为:
为t时刻的加速度;
为i时刻到j时刻的平均角速度;
为/>时刻到/>时刻的时间间隔;
为重力加速度;
为/>时刻到/>时刻IMU的旋转四元数;
为/>时刻到/>时刻的IMU角度预积分;
为/>时刻到/>时刻的IMU速度预积分;
为/>时刻到/>时刻的IMU位移预积分。
进一步地,所述的S103初始化采用IMU和视觉的松耦合方法,其中视觉利用特征点匹配与PnP算法求解滑动窗口内所有图像帧的位姿以及对应的所有3D路标点,然后与IMU预积分得到的值进行对齐,求解出陀螺仪偏置、重力方向以及每一帧所对应的速度。
进一步地,所述的步骤2动态点筛选,连续三帧该点均被判定为动态,且该点的世界坐标系的运动速度未产生较大改变,再将其打上动态特征点标签,直到后面某连续两帧图像判定其为静态,再将其标签改为静态特征点。
进一步地,所述的步骤3、对IMU与视觉信息紧耦合;步骤如下:
S301、定义机器人定位求解中的需要优化变量;
S302、构建优化残差方程。
进一步地,步骤4采用滑动窗口的方法对计算进行简化,通过对以前的数据进行边缘化将信息保存成先验信息,其滑动窗口的删除对象分为对当前帧图像信息和滑动窗口最老一帧图像信息;
当视觉信息积累数量超过滑动窗口的窗口数时,会调用边缘化过程,将拍摄时间最老的图像帧上的特征点与对应的相机位姿删除,并将这些信息转换为先验约束,以继续参加状态量的优化。
再一方面,一种基于目标检测的机器人视觉定位模块,所述的模块包括RGB-D摄像模块、IMU惯性测量单元、图像识别及主控模块;
所述的RGB-D摄像模块与IMU惯性测量单元与图像识别及主控模块连接。
本发明有益效果:
本发明将机器人视觉定位与机器人自身所携带的惯性导航单元检测到的惯性导航数据进行结合定位。通过紧耦合的方法,减少优化计算量,并且采用滑动窗口和边缘化方法对机器人位姿、速度等状态量进行优化更新,从而得到估计的机器人定位信息。算法相比于纯视觉算法对移动机器人的定位估计误差有一定的下降,可满足机器人的定位精度需求,提高了机器人的目标视觉定位能力。
附图说明
图1为本发明流程图;
图2为本发明紧耦合算法框架图;
图3为滑动窗口法的残差约束因子图;
图4为IMU和视觉测量协方差对系统的选择影响。
具体实施方式
为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的典型实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容更加透彻全面。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
所述的机器人视觉定位方法包括
步骤1、利用视觉与IMU松耦合检测出两个连续立体帧中包含的动态特征点,并计算IMU在两帧之间的预积分;
所述的步骤1包括以下步骤:
S101、对图像的特征点进行提取与跟踪;
使用双目相机作为视觉传感器,其相比于单目相机优势在于可以计算得到尺度信息,图像上任一点深度信息也可以通过左右目同一时刻拍摄的两幅图像得到的视差直接获得,并且双目得到的视觉约束更多,尤其是在动态对象较多导致特征不足的场景中。
所述的S101采用Shi-Tomas角点进行图像特征信息的提取,并使用LK光流法来追踪左右目图像帧以及前后两图像帧提取出的特征点,实现图像在时间和空间上的特征匹配。为了尽可能排除特征点错误跟踪点过多的问题,算法采用了反向光流进行外点滤除,右目光流跟踪失败的左目特征点会被删除。这样可保证每个被提取出的特征点都可根据双目基线进行深度恢复。
S102、对IMU进行预积分;
所述的S102,为了得到两帧图像之间的位姿,减少后端的计算量,IMU需要先进行预积分处理,得到相邻IMU数据之间的位姿,IMU预积分更新公式为:
为t时刻的加速度;
为i时刻到j时刻的平均角速度;
为/>时刻到/>时刻的时间间隔;
为重力加速度;
为/>时刻到/>时刻IMU的旋转四元数;
为/>时刻到/>时刻的IMU角度预积分;
为/>时刻到/>时刻的IMU速度预积分;
为/>时刻到/>时刻的IMU位移预积分。
最后可得IMU预积分更新式为:
其中、为IMU加速度计在/>时刻的高斯白噪声;
为IMU陀螺仪在/>时刻的高斯白噪声。
S103、根据上述计算得到的数据对重力方向、陀螺仪的角速度偏置、时间同步误差等进行初始化。
所述的S103初始化采用IMU和视觉的松耦合方法,其中视觉利用特征点匹配与PnP算法求解滑动窗口内所有图像帧的位姿以及对应的所有3D路标点,然后与IMU预积分得到的值进行对齐,求解出陀螺仪偏置、重力方向以及每一帧所对应的速度。
首先是视觉求解滑窗位姿和路标点。寻找与当前帧共视点数较多的滑窗内的关键帧作为参考帧,然后通过求基础矩阵来计算当前帧到参考帧的位姿变换,接着对于参考帧与当前帧中的某一帧进行PnP求解该帧的位姿,并三角化。然后重复上述过程,直到滑动窗口内所有的路标点和位姿都被求解出来。最后调用BA优化滑动窗口内所有的位姿。
同样IMU预积分可以通过式(4)到式(8)求出滑窗内图像帧对应的位姿与速度信息。则可根据以下目标函数求得陀螺仪的偏置。
其中,约为/>,其中/>为预积分真值,/>为相对旋转量对/>的一阶雅可比求导。
求解出陀螺仪偏置后,需要再对IMU预积分的值重新计算。接着需要对第一帧的图像相机坐标系下(世界坐标系)的重力向量,以及滑动窗口中所有图像帧对应的相机速度bnv进行初始化,其优化变量为:
可将上述优化变量的相关残差定义为IMU预积分得到的平移、速度增量与预测值的误差,其中各变量:
其中,为/>到/>时刻间IMU测量数据的积分;
X需求解的状态量,即速度、重力向量、陀螺仪偏置;
为/>时刻相机的速度;
将第一帧相机所在位置设为世界坐标系/>,重力在该坐标系上的表示;
将上式改成的形式,如下:
由于重力常量在小规模位移是模值固定的,所以重力的三个未知量可以变为两个,从而写成
其中,重力沿球半径方向的分量;
重力沿球面切线方向的分量;
将式(13)代入式(12)即可得到与/>时刻对应的相机速度与重力向量在世界坐标系的方向。
步骤2、动态点筛选
所述的步骤2动态点筛选,由于每帧图像存在噪声影响,静态特征点与动态特征点存在某一时刻的误判,而物体的运动或者静止状态在时间上是连续的。所以算法对运动进行平滑处理,避免产生较大误差。即如果连续三帧该点均被判定为动态,且该点的世界坐标系的运动速度未产生较大改变,再将其打上动态特征点标签,直到后面某连续两帧图像判定其为静态,再将其标签改为静态特征点。
步骤3、对IMU与视觉信息紧耦合;
所述的步骤3、对IMU与视觉信息紧耦合;步骤如下:
S301、定义机器人定位求解中的需要优化变量;
对图像和IMU的紧耦合本质上是相关原始数据的残差方程关于状态量的线性优化求解,定义机器人定位求解中的需要优化变量为
S302、构建优化残差方程。
其中,表示第n帧时刻机器人的状态
表示第k个特征点的逆深度;
表示第k帧在世界坐标系下机器人的位移;
表示第k帧在世界坐标系下机器人的速度;
表示第k帧在世界坐标系下机器人的速度旋转四元数
表示第k帧IMU的加速度随机游走偏差;
表示第k帧IMU的角速度随机游走偏差;
表示相机到IMU坐标系转换的旋转四元数/>与平移/>
IMU的残差为:
其中,为t时刻的加速度;
为i时刻到j时刻的平均角速度;
为/>时刻到/>时刻的时间间隔;
为重力加速度;
为/>时刻到/>时刻IMU的旋转四元数;
为/>时刻到/>时刻的IMU角度预积分;
为/>时刻到/>时刻的IMU速度预积分;
为/>时刻到/>时刻的IMU位移预积分。
式(15)中的符号表示四元数的乘法。
将各残差约束与优化变量转换成为因子图可表示为图3,可以看到历史数据通过先验约束与位姿状态量相连接,视觉重投影误差约束与路标点逆深度和机器人位姿相关联,IMU的预积分约束与机器人位姿和速度、加速度计和陀螺仪偏置的状态量相连。
其中残差计算通过乘以协方差矩阵来表征IMU和图像传感器信号的不确定性,这种使用马氏距离度量的方法可以通过对测量数据添加权重的方式来使状态量得到更准确的更新。因为IMU和图像都存在噪声,尤其是IMU随着预测的增加观测的不确定度会加大很多,此时根据视觉观测一起进行优化可以将系统的总协方差减小。但短时IMU数据不确定度小,此时状态更新应更偏向于根据IMU数据来进行更新。如图4视觉噪声大时,通过马氏距离度量残差的算法会偏向于依赖IMU,而IMU噪声大时,融合后结果更偏向于相信视觉图
像得到的数据。
步骤4、对步骤2采用滑动窗口法进行优化和边缘化。
步骤4采用滑动窗口的方法对计算进行简化,通过对以前的数据进行边缘化将信息保存成先验信息,其滑动窗口的删除对象分为对当前帧图像信息和滑动窗口最老一帧图像信息;
当视觉信息积累数量超过滑动窗口的窗口数时,会调用边缘化过程,将拍摄时间最老的图像帧上的特征点与对应的相机位姿删除,并将这些信息转换为先验约束,以继续参加状态量的优化。
边缘化的过程数学形式就是舒尔补,其主要是对下面的增量方程进行数学处理。
(16)
式中H表示残差方程关于状态量x的海色矩阵,∆x即为要求的状态量增量。
将上式用矩阵方法表示如下。
上式中、/>表示希望边缘化的部分与希望保留的部分。对应于算法后端优化,希望边缘化的部分就是需要删除的图像帧对应的相机位姿与对应的路标点,这一部分的删除利用如下的舒尔补进行消元。
通过式(4-8)的行列变换,就将的求解单独分列出来,从而将其与/>的求解分离开,在概率上相当于将联合概率分布转换成条件概率分布,所以上式也是一个概率边缘化的过程,而右边系数矩阵的部分就是要保留的变量/>的先验信息。
当视觉信息积累数量超过滑动窗口的窗口数时,会调用边缘化过程,将拍摄时间最老的图像帧上的特征点与对应的相机位姿删除,并将这些信息转换为先验约束,以继续参加状态量的优化,同时减少计算和内存资源消耗。
实施例二;基于实施例1构建一种基于目标检测的机器人视觉定位模块,所述的模块包括RGB-D摄像模块、IMU惯性测量单元、图像识别及主控模块;所述的RGB-D摄像模块与IMU惯性测量单元与图像识别及主控模块连接。
为验证本发明视觉与IMU紧耦合算法对移动机器人的定位准确性,实验控制静态环境下的移动机器人运动,记录机器人运动过程中ZED2相机拍摄的图片和对应的IMU数据,并对比本发明紧耦合算法和纯视觉算法的定位精度。
为得到紧耦合算法的定位精确度,验证本发明算法的有效性,令机器人做直线与旋转运动,利用本发明算法估算的轨迹与纯视觉算法得到的轨迹进行误差评价。
移动机器人搭载ZED2双目相机在房间内采取直线和旋转运动并采集图像和IMU数据,其运动的范围为在顶视相机的可视范围,面积约为3.6m×2.2m。机器人的运动总距离大约是25m。
发明机器人视觉与IMU融合定位准确性,评价视觉定位方法最好方法就是将估计的位姿和真实位姿进行对比,衡量它们之间的偏差程度。对于本发明的机器人,由于其具有平面运动自由度,所以其位姿满足二维变换矩阵李群,可以将其表示为,相机的真实位置和姿态为/>,则可定义绝对轨迹误差ATE。
考虑i时刻到i+Δt时刻的运动,相对轨迹误差定义为Δt时刻内相机相对位姿与真实轨迹相对位姿的误差,适合用来度量视觉里程计的漂移误差,对每个位姿李代数的均方根误差,这种误差可以刻画估计轨迹的旋转和平移误差,适合定位估计结果的评估,可以衡量在一段位移后的定位算法累计估计结果准确度,其形式如下(19)所示:
指标具体为绝对轨迹的均方根误差、中位数、最大值、平均数。
利用式(19)算出本节算法与纯视觉算法的绝对轨迹误差ATE如表1所示:
表1某一时刻部分特征点对应运动矢量大小
由表1可知本发明紧耦合算法相比于纯视觉算法对移动机器人的定位估计各项误差指标都小,在平均误差指标中误差下降约14%,估计的结果更精确。且机器人运动250cm,轨迹发生的平均漂移仅9.8cm,可以满足机器人的定位精度需求。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(ReadOnlyMemory,ROM)或随机存储记忆体(RandomABBessMemory,RAM)等。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。

Claims (9)

1.一种基于目标检测的机器人视觉定位方法,其特征在于:所述的基于目标检测的机器人视觉定位方法包括以下步骤:
步骤1、利用视觉与IMU松耦合检测出两个连续立体帧中包含的动态特征点,并计算IMU在两帧之间的预积分;
步骤2、动态点筛选;
步骤3、对IMU与视觉信息紧耦合;
步骤4、对步骤2采用滑动窗口法进行优化和边缘化。
2.根据权利要求1所述的一种基于目标检测的机器人视觉定位方法,其特征在于:所述的步骤1包括以下步骤:
S101、对图像的特征点进行提取与跟踪;
S102、对IMU进行预积分;
S103、根据上述计算得到的数据对重力方向、陀螺仪的角速度偏置、时间同步误差等进行初始化。
3.根据权利要求2所述的一种基于目标检测的机器人视觉定位方法,其特征在于:所述的S101采用Shi-Tomas角点进行图像特征信息的提取,并使用LK光流法来追踪左右目图像帧以及前后两图像帧提取出的特征点,实现图像在时间和空间上的特征匹配。
4.根据权利要求2所述的一种基于目标检测的机器人视觉定位方法,其特征在于:所述的S102,为了得到两帧图像之间的位姿,减少后端的计算量,IMU需要先进行预积分处理,得到相邻IMU数据之间的位姿,IMU预积分更新公式为:
为t时刻的加速度;
为i时刻到j时刻的平均角速度;
为/>时刻到/>时刻的时间间隔;
为重力加速度;
为/>时刻到/>时刻IMU的旋转四元数;
为/>时刻到/>时刻的IMU角度预积分;
为/>时刻到/>时刻的IMU速度预积分;
为/>时刻到/>时刻的IMU位移预积分。
5.根据权利要求2所述的一种基于目标检测的机器人视觉定位方法,其特征在于:所述的S103初始化采用IMU和视觉的松耦合方法,其中视觉利用特征点匹配与PnP算法求解滑动窗口内所有图像帧的位姿以及对应的所有3D路标点,然后与IMU预积分得到的值进行对齐,求解出陀螺仪偏置、重力方向以及每一帧所对应的速度。
6.根据权利要求1所述的一种基于目标检测的机器人视觉定位方法,其特征在于:所述的步骤2动态点筛选,连续三帧该点均被判定为动态,且该点的世界坐标系的运动速度未产生较大改变,再将其打上动态特征点标签,直到后面某连续两帧图像判定其为静态,再将其标签改为静态特征点。
7.根据权利要求1所述的一种基于目标检测的机器人视觉定位方法,其特征在于:所述的步骤3、对IMU与视觉信息紧耦合步骤如下:
S301、定义机器人定位求解中的需要优化变量;
S302、构建优化残差方程。
8.根据权利要求1所述的一种基于目标检测的机器人视觉定位方法,其特征在于:步骤4采用滑动窗口的方法对计算进行简化,通过对以前的数据进行边缘化将信息保存成先验信息,其滑动窗口的删除对象分为对当前帧图像信息和滑动窗口最老一帧图像信息;
当视觉信息积累数量超过滑动窗口的窗口数时,会调用边缘化过程,将拍摄时间最老的图像帧上的特征点与对应的相机位姿删除,并将这些信息转换为先验约束,以继续参加状态量的优化。
9.一种基于目标检测的机器人视觉定位模块,所述的模块适用于如权利要求1-8中任一项所述的方法,其特征在于:所述的模块包括RGB-D摄像模块、IMU惯性测量单元、图像识别及主控模块;
所述的RGB-D摄像模块与IMU惯性测量单元与图像识别及主控模块连接。
CN202310721409.1A 2023-06-19 2023-06-19 一种基于目标检测的机器人视觉定位模块及方法 Pending CN116442248A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310721409.1A CN116442248A (zh) 2023-06-19 2023-06-19 一种基于目标检测的机器人视觉定位模块及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310721409.1A CN116442248A (zh) 2023-06-19 2023-06-19 一种基于目标检测的机器人视觉定位模块及方法

Publications (1)

Publication Number Publication Date
CN116442248A true CN116442248A (zh) 2023-07-18

Family

ID=87130634

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310721409.1A Pending CN116442248A (zh) 2023-06-19 2023-06-19 一种基于目标检测的机器人视觉定位模块及方法

Country Status (1)

Country Link
CN (1) CN116442248A (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111595334A (zh) * 2020-04-30 2020-08-28 东南大学 基于视觉点线特征与imu紧耦合的室内自主定位方法
CN112344923A (zh) * 2021-01-11 2021-02-09 浙江欣奕华智能科技有限公司 一种机器人的定位方法及其定位装置
CN112734765A (zh) * 2020-12-03 2021-04-30 华南理工大学 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质
CN113066129A (zh) * 2021-04-12 2021-07-02 北京理工大学 基于动态环境下的目标检测的视觉定位与建图系统
WO2021180128A1 (zh) * 2020-03-11 2021-09-16 华南理工大学 一种基于rgbd传感器和imu传感器的定位方法
CN114199259A (zh) * 2022-02-21 2022-03-18 南京航空航天大学 一种基于运动状态与环境感知的多源融合导航定位方法
CN115218906A (zh) * 2022-07-19 2022-10-21 浙江农林大学 面向室内slam的视觉惯性融合定位方法及系统
CN115406447A (zh) * 2022-10-31 2022-11-29 南京理工大学 拒止环境下基于视觉惯性的四旋翼无人机自主定位方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021180128A1 (zh) * 2020-03-11 2021-09-16 华南理工大学 一种基于rgbd传感器和imu传感器的定位方法
CN111595334A (zh) * 2020-04-30 2020-08-28 东南大学 基于视觉点线特征与imu紧耦合的室内自主定位方法
CN112734765A (zh) * 2020-12-03 2021-04-30 华南理工大学 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质
CN112344923A (zh) * 2021-01-11 2021-02-09 浙江欣奕华智能科技有限公司 一种机器人的定位方法及其定位装置
CN113066129A (zh) * 2021-04-12 2021-07-02 北京理工大学 基于动态环境下的目标检测的视觉定位与建图系统
CN114199259A (zh) * 2022-02-21 2022-03-18 南京航空航天大学 一种基于运动状态与环境感知的多源融合导航定位方法
CN115218906A (zh) * 2022-07-19 2022-10-21 浙江农林大学 面向室内slam的视觉惯性融合定位方法及系统
CN115406447A (zh) * 2022-10-31 2022-11-29 南京理工大学 拒止环境下基于视觉惯性的四旋翼无人机自主定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李韶淼: "双目视觉机器人动态环境下定位方法研究", 《哈尔滨工业大学硕士学位论文》, no. 3, pages 22 - 39 *

Similar Documents

Publication Publication Date Title
CN109307508B (zh) 一种基于多关键帧的全景惯导slam方法
CN111024066B (zh) 一种无人机视觉-惯性融合室内定位方法
CN109029433B (zh) 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法
CN109520497B (zh) 基于视觉和imu的无人机自主定位方法
CN112634451B (zh) 一种融合多传感器的室外大场景三维建图方法
CN112197770B (zh) 一种机器人的定位方法及其定位装置
Olson et al. Stereo ego-motion improvements for robust rover navigation
US9071829B2 (en) Method and system for fusing data arising from image sensors and from motion or position sensors
CN113781582B (zh) 基于激光雷达和惯导联合标定的同步定位与地图创建方法
CN107909614B (zh) 一种gps失效环境下巡检机器人定位方法
CN110044354A (zh) 一种双目视觉室内定位与建图方法及装置
CN111811506A (zh) 视觉/惯性里程计组合导航方法、电子设备及存储介质
CN110726406A (zh) 一种改进的非线性优化单目惯导slam的方法
CN112649016A (zh) 一种基于点线初始化的视觉惯性里程计方法
CN112815939B (zh) 移动机器人的位姿估计方法及计算机可读存储介质
CN111161337B (zh) 一种动态环境下的陪护机器人同步定位与构图方法
CN110533719B (zh) 基于环境视觉特征点识别技术的增强现实定位方法及装置
CN110207693B (zh) 一种鲁棒立体视觉惯性预积分slam方法
CN115371665B (zh) 一种基于深度相机和惯性融合的移动机器人定位方法
CN115272596A (zh) 一种面向单调无纹理大场景的多传感器融合slam方法
CN114529576A (zh) 一种基于滑动窗口优化的rgbd和imu混合跟踪注册方法
Liu et al. Bidirectional trajectory computation for odometer-aided visual-inertial SLAM
CN114485640A (zh) 基于点线特征的单目视觉惯性同步定位与建图方法及系统
CN112945233B (zh) 一种全局无漂移的自主机器人同时定位与地图构建方法
Xian et al. Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination