CN113592947A - 一种半直接法的视觉里程计实现方法 - Google Patents
一种半直接法的视觉里程计实现方法 Download PDFInfo
- Publication number
- CN113592947A CN113592947A CN202110872808.9A CN202110872808A CN113592947A CN 113592947 A CN113592947 A CN 113592947A CN 202110872808 A CN202110872808 A CN 202110872808A CN 113592947 A CN113592947 A CN 113592947A
- Authority
- CN
- China
- Prior art keywords
- image
- points
- dynamic
- pixel
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 78
- 230000000007 visual effect Effects 0.000 title claims abstract description 20
- 230000003068 static effect Effects 0.000 claims description 17
- 238000005457 optimization Methods 0.000 claims description 8
- 238000012216 screening Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 abstract description 6
- 230000000694 effects Effects 0.000 abstract description 4
- 230000002411 adverse Effects 0.000 abstract description 2
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 2
- FPIGOBKNDYAZTP-UHFFFAOYSA-N 1,2-epoxy-3-(4-nitrophenoxy)propane Chemical compound C1=CC([N+](=O)[O-])=CC=C1OCC1OC1 FPIGOBKNDYAZTP-UHFFFAOYSA-N 0.000 description 1
- 241000271566 Aves Species 0.000 description 1
- 241000283690 Bos taurus Species 0.000 description 1
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000283086 Equidae Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241001494479 Pecora Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种半直接法的视觉里程计实现方法,属于视觉空间定位技术领域。本发明针对动态场景,为了利用大部分有用的图像信息并减轻最小化光度误差的非凸性效应,采用高梯度点和ORB角点相结合的混合点提取方法,利用最小化重投影误差得到的位姿作为初始值来最小化光度误差,得到最终的相机姿态。此外,利用语义信息从点选择和光度误差生成的过程中有效消除动态特征,从而在动态场景下实现鲁棒和准确的位姿估计。本方法能够有效的降低动态物体对视觉里程计系统定位精度和鲁棒性的不利影响,在动态场景下保留了直接法的鲁棒性的同时,又提高了相机姿态估计的精确性。
Description
技术领域
本发明涉及一种视觉里程计的实现方法,特别涉及一种动态场景下具有鲁棒和准确的姿态估计的半直接法视觉里程计实现方法,属于视觉空间定位技术领域。
背景技术
同时定位与地图构建(Simultaneous Localization and Mapping,SLAM),指移动传感器设备在未知环境中定位自身位置,同时对环境进行三维地图的构建。
其中,视觉里程计作为SLAM系统的重要组成部分,主要用来处理输入图像,利用输入图像的信息,得到传感器的真实位姿与周围环境的局部地图。然而,视觉里程计通常在静态场景的假设下估计相机姿态,例如,间接法以ORB-SLAM2(R.Mur-Artal and J.D.Tards,“Orb-slam2:An open-source slam system for monocular,stereo,and rgb-dcameras,”IEEE Transactions on Robotics,vol.33,no.5,pp.1255–1262,2017.)为代表,通过建立特征点之间的对应关系,然后最小化重投影误差来估计相机姿态;直接法以DSO(J.Engel,V.Koltun,and D.Cremers,“Direct sparse odometry,”IEEE Transactions onPattern Analysis and Machine Intelligence,vol.40,no.3,pp.611–625,2018.)为代表,通过最小化光度误差来联合估计特征对应和相机姿态。
然而,这些方法在动态场景中的性能通常很差,因为像行人或正在行驶的汽车这样的移动物体容易产生对应的异常值,大大降低了视觉里程计系统的定位精度和鲁棒性。
对于动态场景下鲁棒和准确的视觉里程计这一具有较高应用价值的问题,国内外的研究人员已做了大量的研究工作。近些年,通过将传统的间接法与深度学习技术相结合,专门针对动态场景开发了一些视觉里程计方法。例如DynaSLAM(B.Bescos,J.M.Fcil,J.Civera,and J.Neira,“Dynaslam:Tracking,mapping,and inpainting in dynamicscenes,”IEEE Robotics and Automation Letters,vol.3,no.4,pp.4076–4083,2018.),通过利用神经网络推断的语义信息,可以有效地检测和消除场景的动态区域。然而,在一些纹理较弱的场景中,直接丢弃动态区域中的特征,会导致后续优化过程的特征不足,进而降低姿态估计的鲁棒性。如图1(a)所示,像DynaSLAM这样的间接法容易出现跟踪失败。此外,一些方法将直接法与背景分离或运动去除相结合,以消除移动物体的特征,例如M-DVO(Y.Sun,M.Liu,and Q.Meng,“Improving rgb-d slam in dynamic environments:Amotion removal approach,”Robotics and Autonomous Systems,vol.89,pp.110–122,2017),沿着图像梯度的方向,这些直接方法会通过最小化光度误差以获得最终的相机位姿,这是一种非凸优化的过程。然而,由于动态物体存在的区域和噪声会破坏图像梯度,因此,这些方法估计的相机初始位姿无法通过优化光度误差达到一个最佳值。如图1(b),投影到框内的重投影点无法到达最准确的位置。因此,在动态场景中,直接法通常比上述间接法具有较低的定位精度。
发明内容
本发明的目的是针对动态场景,为了利用大部分有用的图像信息并减轻最小化光度误差的非凸性效应,提出一种用于动态场景的半直接法的视觉里程计实现方法,使其能够有效的降低动态物体对视觉里程计系统定位精度和鲁棒性的不利影响,在动态场景下保留了直接法的鲁棒性的同时,又提高了相机姿态估计的精确性。
本发明的创新点在于:采用高梯度点和ORB角点相结合的混合点提取方法,利用最小化重投影误差得到的位姿作为初始值来最小化光度误差,得到最终的相机姿态。此外,利用语义信息从点选择和光度误差生成的过程中有效消除动态特征,从而在动态场景下实现鲁棒和准确的位姿估计。
本发明采用的技术方案如下。
一种半直接法的视觉里程计实现方法,包括以下步骤:
步骤1:获取场景的RGB图像。
步骤2:根据RGB图像,提取图像的高梯度像素点和ORB角点。
具体地,包括以下步骤:
首先,根据RGB图像生成灰度图像。
然后,根据灰度图生成对应的图像金字塔。
之后,基于灰度图像金字塔计算每个像素点的像素梯度,提取高梯度的像素点。
最后,从提取出的高梯度像素点中检测出周围邻域像素值超过设定阈值的点,作为ORB角点。其中,检测方法可以采用基于Shi-Tomasi的方法(J.Shi and Tomasi,“Goodfeatures to track,”in Proceedings of the IEEE Conference on Computer Visionand Pattern Recognition,1994,pp.593–600.)。
步骤3:根据步骤2生成的灰度图像,获取图像的语义信息。
具体地,获取图像的语义掩膜mask,掩膜静态区域的像素值为1,动态区域的像素值为0:
优先地,可以通过图像实例分割领域技术Mask-RCNN(K.He,G.Gkioxari,P.Dollr,and R.Girshick,“Mask r-cnn,”IEEE Transactions on Pattern Analysis and MachineIntelligence,vol.42,no.2,pp.386–397,2020.)完成获取。
步骤4:通过语义掩膜mask上的静态区域和动态区域的划分,筛选提取的点。
具体地,首先根据输入图像的图像金字塔生成相同的语义掩膜金字塔,用于筛选点。然后根据语义掩膜金字塔删去位于掩膜动态区域的动态点,留下位于掩膜静态区域的静态点,参与后续优化。
步骤5:通过语义掩膜上的静态和动态区域的划分,筛选构建的光度误差。
光度误差Ei,j,k定义如下:
其中,Npk是像素pk的邻域像素,ai、aj、bi、bj是仿射光变换参数,ti、tj是曝光时间,Ii、Ij分别代表一副图像,wp是一个加权因子;γ表示范数,通常直接用差值的绝对值;e表示自然对数;p'是像素p在图像Ij上的投影点,如果p'位于语义掩膜mask的动态区域,则将这样的光度误差筛选掉。
步骤6:选择新一帧的ORB角点与上一帧的ORB角点匹配,得到对应的匹配关系。
步骤7:基于最小化重投影误差计算,得到相机的初始位姿:
其中,Tn是新帧的初始相机位姿;m表示匹配成功的角点对数;ORB角点pi对应的匹配点的齐次坐标为pi'=[ui,vi,1],其中ui、vi分别表示x轴和y轴的坐标值;pi,n是pi在新帧上的重投影点,n表示新的一帧;ORB角点pi对应的三维空间的点的齐次坐标为Pi=[Xi,Yi,Zi,1],其中Xi、Yi、Zi分别表示x、y、z轴的坐标值;si表示比例因子;K为相机参数;(·)1:3指的是取这个向量的前三个值。
步骤8:基于最小化光度误差进行滑动窗口优化,得到最终的相机位姿:
其中,En,o,k是光度误差;To是上一帧的位姿;Tn是新帧的初始位姿;Tf为最终的新的帧的位姿;pk表示第k个点。
步骤9:根据步骤8得到的相机位姿,进行定位和建图。
有益效果
本发明方法,对比现有技术,具有以下优点:
1.基于传统的间接法与神经网络相结合的方法通过利用神经网络推断的语义信息,可以有效地检测和消除场景的动态区域。然而,在一些纹理较弱的场景中,直接丢弃动态区域中的特征会导致后续优化过程的特征不足,进而降低姿态估计的鲁棒性。
而本发明克服了这一问题,在提取点的过程中,采用了一种混合的点提取方法,通过提取高梯度的点和ORB角点来利用大部分有用的图像信息,来增强动态场景下的视觉里程计的鲁棒性。
2.基于传统的直接法与背景分离或运动去除相结合的方法,会在提取点的过程中有效的消除位于移动物体区域的点,然后沿着图像梯度的方向最小化光度误差以获得最终的相机位姿。然而,由于会存在投影到动态区域的光度误差,这些方法的优化无法沿着图像梯度达到一个最佳的值。
而本发明不仅在提取点的过程中有效的消除位于移动物体区域的点,而且在优化光度误差的过程中还会根据语义掩膜信息消除投影到动态区域的光度误差,这样从点提取和误差生成两个方面高效消除动态物体的影响,使最终的优化结果更为精准。
3.基于传统的直接法与背景分离或运动去除相结合的方法,仅利用先前多帧的位姿来猜测新帧的初始位姿,然后沿着图像梯度的方向最小化光度误差以获得最终的相机位姿。由于运动物体的区域和噪声会破坏图像梯度和最小化光度误差的非凸性的影响,这些方法估计的相机初始位姿不能达到最佳值。因此,它们在动态场景中的定位精度比针对动态场景设计的间接法低。而基于传统的间接法与神经网络相结合的方法只进行少数ORB角点的重投影误差的优化,没有利用大量非角像素的信息,因此,它们在动态场景中的鲁棒性比直接法低。
而本发明提出了一种双误差优化策略,它利用最小化重投影误差获得的位姿作为初始值来最小化光度误差,既减少了最小化光度误差的非凸性的影响又有对大量非角像素的利用,从而在动态场景下保留了直接法的鲁棒性的同时又提高了相机姿态估计的精确性。
附图说明
图1是本发明与现存的一些方法的重要中间结果对比图。其中,(a)左图显示了DynaSLAM挑选的角点,右图显示了本方法挑选的ORB角点和高梯度点。(b)线表示M-DVO中由静态点及其重投影点产生的光度误差。
图2中,(a)为直接法系统之一的DSO的提取点的结果,(b)为本方法的提取的点的结果。
图3是使用语义掩膜过滤动态点示意图。
图4是使用语义掩膜筛选光度误差示意图。
图5是本发明方法的总体流程图。
具体实施方式
下面结合附图和实施例对本发明的实施方式做详细说明。
实施例
一种半直接法的视觉里程计实现方法,包括以下步骤:
步骤1:获取场景的RGB图像。
步骤2:根据所述RGB图像提取图像的高梯度点和ORB角点。
首先,根据步骤1的输入生成灰度图;
然后,基于灰度图生成对应的图像金字塔;
之后,基于灰度图像金字塔针对每个图像块计算区域自适应阈值,并选择梯度最大且超过梯度阈值的点作为候选点
最后,根据需要的点的数量,提取2000个高梯度的像素点;
采用基于Shi-Tomasi方法,在提取出的高梯度点中检测出周围邻域像素值超过设定阈值的点作为ORB角点。
本领域技术人员还可以采用其它计算方法获取其他类型的角点。如图2(b)所示,展示了本发明的点提取结果。
步骤3:根据灰度图像,获取图像的语义信息。
根据人类的先验经验,本发明分割出真实场景中可能是动态的或可移动的对象(例如,人,自行车,汽车,摩托车,飞机,公共汽车,火车,卡车,船,鸟,猫,狗,马,绵羊,牛)。对于大多数场景,可能出现的动态对象都包含在上面的列表中。如果出现了其他的运动物体,可以对基础的神经网络在进行训练。
优选地,可以使用图像实例分割领域的最新技术Mask-RCNN获取图像的语义掩膜mask,掩膜静态区域的像素值为1,动态区域的像素值为0。此外,本领域技术人员也可以使用其他先进的方法获取语义掩膜。
步骤4:通过语义掩膜上的静态和动态区域的划分筛选提取的点。
本实施例中,直接删去位于掩膜动态区域的动态点,留下位于掩膜静态区域的静态点,如图3所示。
也可以选择一种点的邻域选择的方法,如果点的邻域像素块多数位于掩膜动态区域,就将其删掉。
步骤5:通过语义掩膜上的静态和动态区域的划分筛选构建的光度误差。
本实施例给出一种实现方法。光度误差定义如下:
此处,Npk是像素pk的邻域像素,而ai,aj和bi,bj是仿射光变换参数,ti,tj是曝光时间,Ii,Ij代表一副图像,wp是一个加权因子,γ表示一种范数一般直接用差值的绝对值,e表示自然对数,p'是像素p在图像Ij上的投影点,如果p'位于掩膜mask的动态区域那么这样的光度误差就会被筛选掉,如图4所示。
本领域技术人员也可以采用不同的光度误差计算公式实现。
步骤6:选择新的一帧的ORB角点与上一帧的ORB角点匹配得到对应的匹配关系:
本实施例中,选择滑动窗口中深度值的变化范围小于1的角点进行Brute-Force匹配。
步骤7:最小化重投影误差计算得到相机的初始位姿。
本实施例中,采用以下方法实现:
其中,Tn是新帧的初始相机位姿;ORB角点pi对应的匹配点的齐次坐标是pi'=[ui,vi,1],ui,vi分别表示x轴和y轴的坐标值;pi,n是pi在新帧上的重投影点;ORB角点pi对应的三维空间的点的齐次坐标为Pi=[Xi,Yi,Zi,1],Xi,Yi,Zi分别表示x,y,z轴的坐标值;si表示比例因子;K为相机参数;(·)1:3指的是取这个向量的前三个值。
这是一种Bundle Adjustment的方式去最小化重投影误差获得相机的初始位姿。本领域技术人员也可以采用一些其他方法比如:EPNP,DLS等方法去求解这个PNP问题。
步骤8:最小化光度误差进行滑动窗口优化,得到最终的相机位姿:
其中,En,o,k是光度误差;To是上一帧的位姿;Tn是新帧的初始位姿;Tf就是最终的新的帧的位姿;pk表示第k个点。
这是一种接连优化两种误差的方法。也可以将两种误差以不同的权重在同一个迭代过程中共同优化。
步骤9:使用步骤8得到的相机位姿进行定位和建图。
在实施例中引入细节的目的不是限制权利要求书的范围,而是帮助理解本发明所述方法。在不脱离本发明及其所附权利要求的精神和范围内,对最佳实施例步骤的各种修改、变化或替换都是可能的。因此,本发明不应局限于最佳实施例及附图所公开的内容。
Claims (3)
1.一种半直接法的视觉里程计实现方法,其特征在于,包括以下步骤:
步骤1:获取场景的RGB图像;
步骤2:根据RGB图像,提取图像的高梯度像素点和ORB角点,包括以下步骤:
首先,根据RGB图像生成灰度图像;
然后,根据灰度图像生成对应的图像金字塔;
之后,基于灰度图像金字塔计算每个像素点的像素梯度,提取高梯度的像素点;
最后,从提取出的高梯度像素点中检测出周围邻域像素值超过设定阈值的点,作为ORB角点;
步骤3:根据步骤2生成的灰度图像,获取图像的语义信息;
具体地,获取图像的语义掩膜mask,掩膜静态区域的像素值为1,动态区域的像素值为0:
步骤4:通过语义掩膜mask上的静态区域和动态区域的划分,筛选提取的点:
首先,根据输入图像的图像金字塔生成相同的语义掩膜金字塔,用于筛选点;
然后,根据语义掩膜金字塔删去位于掩膜动态区域的动态点,留下位于掩膜静态区域的静态点,参与后续优化;
步骤5:通过语义掩膜上的静态和动态区域的划分,筛选构建的光度误差;
步骤6:选择新一帧的ORB角点与上一帧的ORB角点匹配,得到对应的匹配关系;
步骤7:基于最小化重投影误差计算,得到相机的初始位姿:
其中,Tn是新帧的初始相机位姿;m表示匹配成功的角点对数;ORB角点pi对应的匹配点的齐次坐标为p′i=[ui,vi,1],其中ui、vi分别表示x轴和y轴的坐标值;pi,n是pi在新帧上的重投影点,n表示新的一帧;ORB角点pi对应的三维空间的点的齐次坐标为Pi=[Xi,Yi,Zi,1],其中Xi、Yi、Zi分别表示x、y、z轴的坐标值;si表示比例因子;K为相机参数;(·)1:3指的是取这个向量的前三个值;
步骤8:基于最小化光度误差进行滑动窗口优化,得到最终的相机位姿:
其中,En,o,k是光度误差;To是上一帧的位姿;Tn是新帧的初始相机位姿;Tf为最终的新的帧的位姿;pk表示第k个点;
步骤9:根据步骤8得到的相机位姿,进行定位和建图。
2.如权利要求1所述的一种半直接法的视觉里程计实现方法,其特征在于,步骤2中,基于Shi-Tomasi方法,从提取出的高梯度点中检测出周围邻域像素值超过设定阈值的点作为ORB角点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110872808.9A CN113592947B (zh) | 2021-07-30 | 2021-07-30 | 一种半直接法的视觉里程计实现方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110872808.9A CN113592947B (zh) | 2021-07-30 | 2021-07-30 | 一种半直接法的视觉里程计实现方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113592947A true CN113592947A (zh) | 2021-11-02 |
CN113592947B CN113592947B (zh) | 2024-03-12 |
Family
ID=78252769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110872808.9A Active CN113592947B (zh) | 2021-07-30 | 2021-07-30 | 一种半直接法的视觉里程计实现方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113592947B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117523010A (zh) * | 2024-01-05 | 2024-02-06 | 深圳市欧冶半导体有限公司 | 车辆的相机位姿确定方法、装置、计算机设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108986037A (zh) * | 2018-05-25 | 2018-12-11 | 重庆大学 | 基于半直接法的单目视觉里程计定位方法及定位系统 |
CN111210463A (zh) * | 2020-01-15 | 2020-05-29 | 上海交通大学 | 基于特征点辅助匹配的虚拟宽视角视觉里程计方法及系统 |
CN111340881A (zh) * | 2020-02-18 | 2020-06-26 | 东南大学 | 一种动态场景下基于语义分割的直接法视觉定位方法 |
-
2021
- 2021-07-30 CN CN202110872808.9A patent/CN113592947B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108986037A (zh) * | 2018-05-25 | 2018-12-11 | 重庆大学 | 基于半直接法的单目视觉里程计定位方法及定位系统 |
CN111210463A (zh) * | 2020-01-15 | 2020-05-29 | 上海交通大学 | 基于特征点辅助匹配的虚拟宽视角视觉里程计方法及系统 |
CN111340881A (zh) * | 2020-02-18 | 2020-06-26 | 东南大学 | 一种动态场景下基于语义分割的直接法视觉定位方法 |
Non-Patent Citations (1)
Title |
---|
谷晓琳;杨敏;张燚;刘科;: "一种基于半直接视觉里程计的RGB-D SLAM算法", 机器人, vol. 42, no. 01, pages 39 - 48 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117523010A (zh) * | 2024-01-05 | 2024-02-06 | 深圳市欧冶半导体有限公司 | 车辆的相机位姿确定方法、装置、计算机设备和存储介质 |
CN117523010B (zh) * | 2024-01-05 | 2024-04-09 | 深圳市欧冶半导体有限公司 | 车辆的相机位姿确定方法、装置、计算机设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113592947B (zh) | 2024-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kaneko et al. | Mask-SLAM: Robust feature-based monocular SLAM by masking using semantic segmentation | |
CN110599522B (zh) | 一种视频序列中动态目标检测剔除方法 | |
US20230085384A1 (en) | Characterizing and improving of image processing | |
CN110223382B (zh) | 基于深度学习的单帧图像自由视点三维模型重建方法 | |
CN109708658B (zh) | 一种基于卷积神经网络的视觉里程计方法 | |
CN111179233B (zh) | 基于激光切割二维零部件的自适应纠偏方法 | |
CN112001859A (zh) | 一种人脸图像的修复方法及系统 | |
CN111797688A (zh) | 一种基于光流和语义分割的视觉slam方法 | |
CN110415280B (zh) | 多任务cnn模型下的遥感影像与建筑物矢量配准方法及系统 | |
CN113888461A (zh) | 基于深度学习的小五金件缺陷检测方法、系统及设备 | |
CN114677323A (zh) | 一种室内动态场景下基于目标检测的语义视觉slam定位方法 | |
CN111581313A (zh) | 一种基于实例分割的语义slam鲁棒性改进方法 | |
CN115830018B (zh) | 基于深度学习与双目视觉的碳素块检测方法及系统 | |
CN113592947B (zh) | 一种半直接法的视觉里程计实现方法 | |
Zhu et al. | Fusing panoptic segmentation and geometry information for robust visual slam in dynamic environments | |
Min et al. | COEB-SLAM: A Robust VSLAM in Dynamic Environments Combined Object Detection, Epipolar Geometry Constraint, and Blur Filtering | |
CN113421210A (zh) | 一种基于双目立体视觉的表面点云重建方法 | |
CN111160362B (zh) | 一种fast特征均匀化提取与帧间特征误匹配去除方法 | |
CN112902981A (zh) | 机器人导航方法和装置 | |
CN117315547A (zh) | 一种解决动态物体大占比的视觉slam方法 | |
KR101766823B1 (ko) | 불규칙한 조도 변화에 강건한 영상 기반 주행거리 측정 시스템 및 방법 | |
CN113837243B (zh) | 基于边缘信息的rgb-d相机动态视觉里程计方法 | |
EP4174770B1 (en) | Monocular-vision-based detection of moving objects | |
CN116079713A (zh) | 一种钻锚机器人多钻臂协同控制方法、系统、设备及介质 | |
CN112950787B (zh) | 一种基于图像序列的目标物体三维点云生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |