CN113872693B - 基于关键帧选取的可见光定位与深度相机的紧耦合方法 - Google Patents
基于关键帧选取的可见光定位与深度相机的紧耦合方法 Download PDFInfo
- Publication number
- CN113872693B CN113872693B CN202111149229.8A CN202111149229A CN113872693B CN 113872693 B CN113872693 B CN 113872693B CN 202111149229 A CN202111149229 A CN 202111149229A CN 113872693 B CN113872693 B CN 113872693B
- Authority
- CN
- China
- Prior art keywords
- key frame
- information
- pose
- depth camera
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B10/00—Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
- H04B10/11—Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
- H04B10/114—Indoor or close-range type systems
- H04B10/116—Visible light communication
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了基于关键帧选取的可见光定位与深度相机的紧耦合方法,其步骤包括:S1:调制LED灯光;S2:捕获LED灯光信息以及解算出t时刻的位姿信息;S3:将接收到t时刻的工业相机位姿信息进行坐标变换处理最后转换成深度相机Pose类型数据信息,而后通过数据类型将Pose类型数据信息转换成所需的转换矩阵Tcw1,ORBSLAM运行估算出深度相机的转换矩阵Tcw;S4:将由可见光定位得出的转换矩阵Tcw1与ORBSLAM运行估算出的转换矩阵Tcw进行比较从而参与关键帧的选取。本发明解决了选取的关键帧质量不佳的问题,提高ORBSLAM关键帧的质量,改善局部地图精度,从而提高ORBSLAM的建图水平。
Description
技术领域
本发明涉及机器人视觉以及可见光通讯技术领域,具体为基于关键帧选取的可见光定位与深度相机的紧耦合方法。
背景技术
可见光通信技术(简称VLC)是指利用可见光波段的光作为信息载体,不采用光纤等有线的传播介质,而在空气中直接通过光来进行信息传递的通信方式。可见光通信技术以其精度高,可移植性强,成本低等优势得到了广泛的应用。可见光定位技术(简称VLP)基于可见光通信的基础之上,可见光定位是通过LED的调制使其通过不同频率进行闪烁,由于人眼并不能分辨其频率的差别,所以对于日常显示并没有任何影响。通过终端工业相机的接收对VLP信息进行处理,通过图像处理技术对捕获到的图像信息进行处理,从而解析出终端工业相机的位置以及位姿信息。
相比于传统的射频通信的室内定位技术,可见光定位技术基于可见光通信技术具有安全性高,可靠性强,成本低,精度高等优势,在室内大型超市,机场,停车场等环境中,可见光定位技术都有巨大的发挥空间,能够与全球定位系统(GPS)进行互补使用;在一些已知信息少,环境状况复杂的条件下,例如地下隧道以及地铁等环境也能够很好的适用。可见光定位技术可移植性强,对于一些有受限条件的环境下,只需要将需要的照明设备进行频率的调制,则可以在公共照明设备上增加数据传输功能,随时随地为室内用户提供相关服务。
SLAM(simultaneous localization and mapping)技术的发展推动了智能机器人,无人驾驶,AR等人工智能技术的发展,相比于通过二维的图片来进行感知,三维视觉才是我们人类感知世界的正确方式。ORBSLAM是一种基于ORB特征的三维定位与地图构建方法(SLAM),该算法由Raul Mur-Artal,J.M.M.Montiel和Juan D.Tardos于2015年发表在IEEETransactions on Robotics。ORBSLAM一开始基于monocular camera,后来扩展到Stereo和RGB-D sensor上,ORBSLAM基于PTAM架构,增加了地图初始化和闭环检测的功能,优化了关键帧选取和地图构建的方法,在处理速度、追踪效果和地图精度上都取得了不错的效果。
虽然这种基于ORB特征的三维定位与地图构建算法有着许多其他建图方法无可比拟的优点,但依然存在着一些技术难题约束着ORBSLAM建图技术的发展以及建图精度的提高。其中当选取关键帧质量不佳就是其中的问题之一。目前大多数对于ORBSLAM算法的研究都基于关键帧质量足够好的前提之下的,这就导致ORBSLAM优化算法精度的提高受到了一定的限制。当ORBSLAM选取的关键帧质量不佳时时深度相机的位姿信息以及地图点信息不能进行很好的优化,从而影响建图以及定位的精度。
针对上述问题,本发明公开基于关键帧选取的可见光定位与深度相机的紧耦合方法,具有检验当前帧下深度相机的位姿数据优化效果、判断关键帧质量的好坏、能够提高关键帧选取的质量,提高建图以及定位的精度的紧耦合方法。
发明内容
本发明的目的在于提供基于关键帧选取的可见光定位与深度相机的紧耦合方法,以解决上述背景技术中提出的技术问题。为实现上述目的,本发明提供如下技术方案基于关键帧选取的可见光定位与深度相机的紧耦合方法,其特征在于,包括以下步骤:
步骤S1:调制LED灯光;
步骤S2:工业相机捕获调制后的LED灯光信息以及解算出t时刻相应的位姿信息nav_msgs::Odometry;
步骤S3:将接收到t时刻的工业相机位姿信息进行坐标变换处理最后转换成深度相机Pose类型数据信息,而后通过数据类型转换将Pose类型数据信息转换成所需的转换矩阵Tcw1,ORBSLAM运行估算出深度相机的转换矩阵Tcw;
步骤S4:将由可见光定位得出的转换矩阵Tcw1与ORBSLAM运行估算出的转换矩阵Tcw进行比较从而参与关键帧的选取,提高了ORBSLAM关键帧的质量。
优选的,所述S3步骤中,深度相机的位姿信息以及转移矩阵计算方法包括:
步骤S31:接收到t时刻的深度相机位姿信息nav_msgs::Odometry,从该数据类型中提取出Header以及Pose信息,所述Pose信息包含工业相机在世界坐标系下的绝对坐标三维信息以及工业相机的四元数信息,通过对nav_msgs::Odometry数据的提取构造出符合优化要求的位姿信息;
步骤S32:通过实际测量出工业相机以及深度相机的相对位置信息,将上述步骤S31提取出的工业相机Pose信息通过已知的相对位置信息转换成深度相机的Pose信息;
步骤S33:构造4x4转换矩阵,从提取出Pose信息中的四元数信息,将四元数转换为3x3旋转矩阵;从Pose信息中提取出三维点信息,将三维点信息转换成平移向量放入到转换矩阵中,从而使转换矩阵能够加入到关键帧的选取。
优选的,所述步骤S4中,关键帧的选取包括:
步骤S41:判断是否满足关键帧不插入的条件,若满足则不进行关键帧的插入;
步骤S42:若线程允许进行关键帧的插入,则对关键帧质量进行进一步的判断,来决策是否需要进行关键帧的插入,若关键帧质量满足要求,则进行关键帧的插入以及权重计算。
优选的,所述关键帧不插入的条件为:
步骤S411:判断当前是否处于纯VO模式,当处于定位模式下不插入关键帧;
步骤S412:判断当前局部地图是否可用,当局部地图处于全局闭环情况下,不插入关键帧;
步骤S413:查看最近一次重定位帧的ID,如果距离上一次重定位比较近,并且关键帧数目超出最大限制,不插入关键帧。
优选的,所述步骤S4中,关键帧质量判断的条件为:
步骤S421:判断当前帧内地图点数量和匹配当前帧与上一关键帧重叠度,帧内地图点的数量不能过少,而且与上一关键帧信息重叠度不能过大;
步骤S422:判断t时刻当前帧的深度相机位姿数据与t时刻可见光定位得出的深度相机位姿数据进行比较,当两者得出的位姿相近时才能够进行关键帧的插入;
步骤S423:判断距离上次插入关键帧的间隔以及局部建图中关键帧的数量,若距离上次关键帧的插入超过Max帧或者距离上次关键帧插入大于Min帧且局部建图处于空闲状态则能够进行关键帧的插入,若局部建图关键帧队列中关键帧的数量少于三个则能够进行关键帧的插入。
优选的,所述位姿数据的误差判断条件为:
步骤S4221:从ORBSLAM估算出的当前帧的转移矩阵Tcw与可见光定位所得出的转移矩阵Tcw1中提取出对应的旋转矩阵Rcw与Rcw1;
步骤S4222:将旋转矩阵Rcw与Rcw1相乘,并且求出相乘结果的矩阵的迹,最后通过数学运算算出两个旋转矩阵旋转的角度之差;
步骤S4223:从转移矩阵Tcw和Tcw1中提取出位移矢量t和t1进行相减;
步骤S4224:将计算得出的旋转矩阵角度之差与设定的误差阈值进行比较,将计算得出的位移矢量差值与设定的误差阈值进行比较,当旋转角度或平移矢量误差大于阈值时不进行关键帧的插入。
与现有技术相比,本发明的有益效果是:
在原本的ORBSLAM2关键帧选取框架下增加了一种关键帧选取的约束条件,该方法理论可靠,实践可行,具有检验当前帧下深度相机的位姿数据优化效果、判断关键帧质量的好坏。可见光定位的加入使关键帧的选取增加位姿匹配的约束项,能够提高关键帧选取的质量,从而提升建图以及定位的精度。
附图说明
下面将结合附图对本发明作进一步说明,附图中:
图1为本发明的流程示意图;
图2为本发明中ORBSLAM2的算法流程框图;
图3为接收的话题数据结构类型;
图4为本发明中优化数据的数据类型结构;
图5为本发明中关键帧选取的基本框架。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明实施例的目的,用途以及优点更加清楚,下面将结合本发明中的附图,对本发明中的方案进行更详尽的叙述。
请参阅图1至图4,本发明公布了基于关键帧选取的可见光定位与深度相机的紧耦合方法,该方法包括:
步骤S1:调制LED灯光,调制LED灯光通过给予LED不同频率的PWM波从而按照不同的频率闪烁,不同的闪烁频率对应不同的调制信号,对于不同的调制信号分配一个ID信息,对应LED灯体的位置信息。
步骤S2:捕获调制后的LED灯光信息以及解算出t时刻相应的位姿信息nav_msgs::Odometry。
本发明中对于LED灯光的捕捉采用的是CMOS镜头,对于不用频率的调制信息CMOS镜头能够很好的进行捕捉,CMOS镜头水平安装在一个捕获装置上,安装好的CMOS镜头应能保证能够观察到不少于两个的LED灯体。
步骤S3:将接收到t时刻的工业相机位姿信息进行坐标变换处理最后转换成深度相机Pose类型数据信息,而后通过数据类型转换将Pose类型数据信息转换成所需的转换矩阵Tcw1,ORBSLAM运行估算出深度相机的转换矩阵Tcw。
步骤S31:接收到t时刻的深度相机位姿信息nav_msgs::Odometry,从该数据类型中提取出Header以及Pose信息,所述Pose信息包含工业相机在世界坐标系下的绝对坐标三维信息以及工业相机的四元数信息,通过对nav_msgs::Odometry数据的提取构造出符合优化要求的位姿信息。
如图3图4所示可见光定位结果数据结构为nav_msgs::Odometry,而ORBSLAM框架下匹配的数据结构为geometry_msgs/PoseStamped,需要从可见光定位提供的数据结构中提取出std_msgs/Header和geometry_msgs/Pose pose与ORBSLAM2所需的数据类型进行匹配。
步骤S32:通过实际测量出工业相机以及深度相机的相对位置信息,将上述步骤S31提取出的工业相机Pose信息通过已知的相对位置信息转换成深度相机的Pose信息。
步骤S33:构造4x4转换矩阵,从提取出Pose信息中的四元数信息,将四元数转换为3x3旋转矩阵;从Pose信息中提取出三维点信息,将三维点信息转换成平移向量放入到转换矩阵中,从而使转换矩阵能够加入到关键帧的选取。
把话题接收到的四元数来表示深度相机的姿态,然后将四元数转化为旋转矩阵,将旋转矩阵和平移向量赋值到4x4转换矩阵中,则转移矩阵即可成为关键帧选取的约束条件。
步骤S4:将由可见光定位得出的转换矩阵Tcw1与ORBSLAM运行估算出的转换矩阵Tcw进行比较从而参与关键帧的选取,提高了ORBSLAM关键帧的质量;
步骤S41:判断是否满足不插入关键帧的条件,若满足则不进行关键帧的插入;
步骤S411:判断当前是否处于纯VO模式(定位模式),当处于定位模式下不插入关键帧;
步骤S412:判断当前局部地图是否可用,当局部地图处于全局闭环情况下,不插入关键帧;
步骤S413:查看最近一次重定位帧的ID,如果距离上一次重定位比较近,并且关键帧数目超出最大限制,不插入关键帧;
步骤S42:若线程允许进行关键帧的插入,则对关键帧质量进行进一步的判断,来决策是否需要进行关键帧的插入,若关键帧质量满足要求,则进行关键帧的插入以及权重计算。
步骤S421:判断当前帧内地图点数量和匹配当前帧与上一关键帧重叠度,帧内地图点的数量不能过少,而且与上一关键帧信息重叠度不能过大;
步骤S422:判断t时刻当前帧的深度相机位姿数据与t时刻可见光定位得出的深度相机位姿数据进行比较,当两者得出的位姿相近时才能够进行关键帧的插入;
步骤S4221:从ORBSLAM估算出的当前帧的转移矩阵Tcw与可见光定位所得出的转移矩阵Tcw1中提取出对应的旋转矩阵Rcw与Rcw1;
R3x3是一个3x3的旋转矩阵,t3x1是3x1的位移矢量。
步骤S4222:将旋转矩阵Rcw与Rcw1相乘,并且求出相乘结果的矩阵的迹,最后通过数学运算算出两个旋转矩阵旋转的角度之差;
从论文Benchmarking 6DOF Outdoor Visual Localization in ChangingConditions中公式可得出旋转矩阵与旋转角度之间的关系:
由于旋转矩阵的特殊性,旋转矩阵是一个正交矩阵,旋转矩阵的逆等于旋转矩阵的转置;
旋转矩阵角度之差可以表示为:
步骤S4223:从转移矩阵Tcw和Tcw1中提取出位移矢量t和t1进行相减;通过两个位移矢量的相减能够得出所计算出来的三维位置的差值。
步骤S4224:将计算得出的旋转矩阵角度之差与设定的误差阈值进行比较,将计算得出的位移矢量差值与设定的误差阈值进行比较,当旋转角度或平移矢量误差大于阈值时不进行关键帧的插入。
步骤S423:判断距离上次插入关键帧的间隔以及局部建图中关键帧的数量,若距离上次关键帧的插入超过Max帧或者距离上次关键帧插入大于Min帧且局部建图处于空闲状态则能够进行关键帧的插入,若局部建图关键帧队列中关键帧的数量少于三个则能够进行关键帧的插入。
如图5所示关键帧选取基本框架,当满足不进行关键帧的插入三个条件中的一个时,不进行关键帧的插入;当可以进行关键帧的插入并且满足关键帧质量三个判定标准时才能进行关键帧的插入。
综上所述,本发明提出基于关键帧选取的可见光定位与深度相机的紧耦合方法,可以提高关键帧选取的质量水平,从而能够完成更加精确的建图。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (6)
1.基于关键帧选取的可见光定位与深度相机的紧耦合方法,其特征在于,包括以下步骤:
步骤S1:调制LED灯光;
步骤S2:工业相机捕获调制后的LED灯光信息以及解算出t时刻相应的位姿信息nav_msgs::Odometry;
步骤S3:将接收到t时刻的工业相机位姿信息进行坐标变换处理最后转换成深度相机Pose类型数据信息,而后通过数据类型转换将Pose类型数据信息转换成所需的转换矩阵Tcw1,ORBSLAM运行估算出深度相机的转换矩阵Tcw;
步骤S4:将由可见光定位得出的转换矩阵Tcw1与ORBSLAM运行估算出的转换矩阵Tcw进行比较从而参与关键帧的选取,提高了ORBSLAM关键帧的质量。
2.根据权利要求1所述的基于关键帧选取的可见光定位与深度相机的紧耦合方法,其特征在于,所述S3步骤中,深度相机的位姿信息以及转移矩阵计算方法包括:
步骤S31:接收到t时刻的深度相机位姿信息nav_msgs::Odometry,从该数据类型中提取出Header以及Pose信息,所述Pose信息包含工业相机在世界坐标系下的绝对坐标三维信息以及工业相机的四元数信息,通过对nav_msgs::Odometry数据的提取构造出符合优化要求的位姿信息;
步骤S32:通过实际测量出工业相机以及深度相机的相对位置信息,将上述步骤S31提取出的工业相机Pose信息通过已知的相对位置信息转换成深度相机的Pose信息;
步骤S33:构造4x4转换矩阵,从提取出Pose信息中的四元数信息,将四元数转换为3x3旋转矩阵;从Pose信息中提取出三维点信息,将三维点信息转换成平移向量放入到转换矩阵中,从而使转换矩阵能够加入到关键帧的选取。
3.根据权利要求1所述的基于关键帧选取的可见光定位与深度相机的紧耦合方法,其特征在于,所述步骤S4中,关键帧的选取包括:
步骤S41:判断是否满足关键帧不插入的条件,若满足则不进行关键帧的插入;
步骤S42:若线程允许进行关键帧的插入,则对关键帧质量进行进一步的判断,来决策是否需要进行关键帧的插入,若关键帧质量满足要求,则进行关键帧的插入以及权重计算。
4.根据权利要求3所述的基于关键帧选取的可见光定位与深度相机的紧耦合方法,其特征在于,所述步骤S4中,关键帧不插入的条件为:
步骤S411:判断当前是否处于纯VO模式,当处于定位模式下不插入关键帧;
步骤S412:判断当前局部地图是否可用,当局部地图处于全局闭环情况下,不插入关键帧;
步骤S413:查看最近一次重定位帧的ID,如果距离上一次重定位比较近,并且关键帧数目超出最大限制,不插入关键帧。
5.根据权利要求3所述的基于关键帧选取的可见光定位与深度相机的紧耦合方法,其特征在于,所述步骤S4中,关键帧质量判断的条件为:
步骤S421:判断当前帧内地图点数量和匹配当前帧与上一关键帧重叠度,帧内地图点的数量不能过少,而且与上一关键帧信息重叠度不能过大;
步骤S422:判断t时刻当前帧的深度相机位姿数据与t时刻可见光定位得出的深度相机位姿数据进行比较,当两者得出的位姿相近时才能够进行关键帧的插入;
步骤S423:判断距离上次插入关键帧的间隔以及局部建图中关键帧的数量,若距离上次关键帧的插入超过Max帧或者距离上次关键帧插入大于Min帧且局部建图处于空闲状态则能够进行关键帧的插入,若局部建图关键帧队列中关键帧的数量少于三个则能够进行关键帧的插入。
6.根据权利要求5所述的基于关键帧选取的可见光定位与深度相机的紧耦合方法,其特征在于,所述位姿数据的误差判断条件为:
步骤S4221:从ORBSLAM估算出的当前帧的转移矩阵Tcw与可见光定位所得出的转移矩阵Tcw1中提取出对应的旋转矩阵Rcw与Rcw1;
步骤S4222:将旋转矩阵Rcw与Rcw1相乘,并且求出相乘结果的矩阵的迹,最后通过数学运算算出两个旋转矩阵旋转的角度之差;
步骤S4223:从转移矩阵Tcw和Tcw1中提取出位移矢量t和t1进行相减;
步骤S4224:将计算得出的旋转矩阵角度之差与设定的误差阈值进行比较,将计算得出的位移矢量差值与设定的误差阈值进行比较,当旋转角度或平移矢量误差大于阈值时不进行关键帧的插入。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111149229.8A CN113872693B (zh) | 2021-09-29 | 2021-09-29 | 基于关键帧选取的可见光定位与深度相机的紧耦合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111149229.8A CN113872693B (zh) | 2021-09-29 | 2021-09-29 | 基于关键帧选取的可见光定位与深度相机的紧耦合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113872693A CN113872693A (zh) | 2021-12-31 |
CN113872693B true CN113872693B (zh) | 2022-08-23 |
Family
ID=78992495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111149229.8A Active CN113872693B (zh) | 2021-09-29 | 2021-09-29 | 基于关键帧选取的可见光定位与深度相机的紧耦合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113872693B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117291984B (zh) * | 2023-11-22 | 2024-02-09 | 武汉理工大学 | 一种基于位姿约束的多帧描述符匹配重定位方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019169540A1 (zh) * | 2018-03-06 | 2019-09-12 | 斯坦德机器人(深圳)有限公司 | 紧耦合视觉slam的方法、终端及计算机可读存储介质 |
CN110360999A (zh) * | 2018-03-26 | 2019-10-22 | 京东方科技集团股份有限公司 | 室内定位方法、室内定位系统和计算机可读介质 |
CN110458863A (zh) * | 2019-06-25 | 2019-11-15 | 广东工业大学 | 一种基于rgbd与编码器融合的动态slam系统 |
CN110501017A (zh) * | 2019-08-12 | 2019-11-26 | 华南理工大学 | 一种基于orb_slam2的移动机器人导航地图生成方法 |
CN111707281A (zh) * | 2020-06-30 | 2020-09-25 | 华东理工大学 | 一种基于光度信息和orb特征的slam系统 |
CN113269094A (zh) * | 2021-05-26 | 2021-08-17 | 中国科学院自动化研究所 | 基于特征提取算法和关键帧的激光slam系统及方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109579847B (zh) * | 2018-12-13 | 2022-08-16 | 歌尔股份有限公司 | 同步定位与地图构建中关键帧提取方法、装置和智能设备 |
-
2021
- 2021-09-29 CN CN202111149229.8A patent/CN113872693B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019169540A1 (zh) * | 2018-03-06 | 2019-09-12 | 斯坦德机器人(深圳)有限公司 | 紧耦合视觉slam的方法、终端及计算机可读存储介质 |
CN110360999A (zh) * | 2018-03-26 | 2019-10-22 | 京东方科技集团股份有限公司 | 室内定位方法、室内定位系统和计算机可读介质 |
CN110458863A (zh) * | 2019-06-25 | 2019-11-15 | 广东工业大学 | 一种基于rgbd与编码器融合的动态slam系统 |
CN110501017A (zh) * | 2019-08-12 | 2019-11-26 | 华南理工大学 | 一种基于orb_slam2的移动机器人导航地图生成方法 |
CN111707281A (zh) * | 2020-06-30 | 2020-09-25 | 华东理工大学 | 一种基于光度信息和orb特征的slam系统 |
CN113269094A (zh) * | 2021-05-26 | 2021-08-17 | 中国科学院自动化研究所 | 基于特征提取算法和关键帧的激光slam系统及方法 |
Non-Patent Citations (1)
Title |
---|
基于约束关系的石化装置三维重建方法研究;王春等;《安全、健康和环境》;20180215(第02期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113872693A (zh) | 2021-12-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110349250B (zh) | 一种基于rgbd相机的室内动态场景的三维重建方法 | |
CN108168539B (zh) | 一种基于计算机视觉的盲人导航方法、装置及系统 | |
CN110097553B (zh) | 基于即时定位建图与三维语义分割的语义建图系统 | |
CN110246147A (zh) | 视觉惯性里程计方法、视觉惯性里程计装置及移动设备 | |
US7825948B2 (en) | 3D video conferencing | |
CN107545302B (zh) | 一种人眼左右眼图像联合的视线方向计算方法 | |
CN103886107B (zh) | 基于天花板图像信息的机器人定位与地图构建系统 | |
CN110849367A (zh) | 基于融合uwb的视觉slam的室内定位与导航的方法 | |
CN103868460A (zh) | 基于视差优化算法的双目立体视觉自动测量方法 | |
CN111583386B (zh) | 基于标签传播算法的多视角人体姿态重建方法 | |
CN106056624A (zh) | 无人机高清图像小目标检测与跟踪系统及其检测跟踪方法 | |
CN113872693B (zh) | 基于关键帧选取的可见光定位与深度相机的紧耦合方法 | |
CN112365604A (zh) | 基于语义分割和slam的ar设备景深信息应用方法 | |
CN104680522A (zh) | 基于智能手机前后摄像头同时工作的视觉定位方法 | |
CN104680528A (zh) | 一种基于双目立体视觉的排爆机器人空间定位方法 | |
CN107204015B (zh) | 基于色彩图像和红外图像融合的即时定位与建图系统 | |
CN114022798A (zh) | 一种基于数字孪生技术的变电站巡检机器人避障方法 | |
CN111582036B (zh) | 可穿戴设备下基于形状和姿态的跨视角人物识别方法 | |
CN105654493A (zh) | 一种改进的光学仿射不变双目立体匹配代价与视差优化方法 | |
CN111161334A (zh) | 一种基于深度学习的语义地图构建方法 | |
CN108460794A (zh) | 一种双目立体红外显著目标检测方法及系统 | |
WO2023280082A1 (zh) | 一种手柄inside-out视觉6自由度定位方法及系统 | |
WO2022068193A1 (zh) | 可穿戴设备、智能引导方法及装置、引导系统、存储介质 | |
CN115526983A (zh) | 一种三维重建方法及相关设备 | |
CN113610001A (zh) | 基于深度相机和imu组合的室内移动终端定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |