CN117315547A - 一种解决动态物体大占比的视觉slam方法 - Google Patents

一种解决动态物体大占比的视觉slam方法 Download PDF

Info

Publication number
CN117315547A
CN117315547A CN202311347737.6A CN202311347737A CN117315547A CN 117315547 A CN117315547 A CN 117315547A CN 202311347737 A CN202311347737 A CN 202311347737A CN 117315547 A CN117315547 A CN 117315547A
Authority
CN
China
Prior art keywords
points
dynamic
image
characteristic points
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311347737.6A
Other languages
English (en)
Inventor
栾添添
胥静
班喜程
孙明晓
吕重阳
王楠
吕奉坤
尹昭然
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN202311347737.6A priority Critical patent/CN117315547A/zh
Publication of CN117315547A publication Critical patent/CN117315547A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Computational Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Health & Medical Sciences (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Algebra (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种解决动态物体大占比的视觉SLAM方法,旨在解决动态物体在图像中占比大时,SLAM算法的定位精度低和实时性差的问题,具体包括:首先输入连续图像帧到改进的轻量化目标检测网络(SG‑YOLOv5s)中,提取图像中动态物体语义信息,获得动态物体自适应锚框,同时提取ORB特征点,然后基于几何约束法剔除锚框内的动态特征点,利用PROSAC算法剔除锚框外的动态特征点,最后利用静态特征点进行位姿估计和建图。本发明准确有效的剔除了动态区域内的动态特征点,保留了静态特征点,减少了动态区域外的误匹配点,降低了动态环境对SLAM系统的影响,提高了系统的实时性,同时提升了系统的位姿估计和建图精度。

Description

一种解决动态物体大占比的视觉SLAM方法
技术领域
本发明属计算机视觉领域,尤其涉及一种解决动态物体大占比的视觉SLAM方法。
背景技术
近年来,视觉SLAM系统的研究发展迅速,视觉SLAM主要分为两类:特征点法和直接法。其中ORB-SLAM2是基于特征点法具有代表的方法,LSD-SLAM是基于直接法中的优秀算法。基于特征点和直接法的视觉SLAM算法在静态环境的假设下有定位精度高、鲁棒性好的特点,但在动态场景下,由于动态物体的特征点不稳定,视觉SLAM的位姿估计和建图精度下降,因此很难应用于动态物体占比大的场景中。针对以上问题,现有的动态视觉SLAM算法主要通过剔除动态特征点来提高系统的鲁棒性和相机位姿估计精度,现有方法能在一定程度上降低动态物体对系统性能的影响,但在动态物体占比大的情况下,仍存在位姿估计精度低和实时性差的问题。
论文《动态场景下融合YOLOv5s的视觉SLAM算法研究》中使用目标检测算法、光流法和几何约束方法相结合来剔除场景中的动态特征点,但论文中方法仅用于室内,而且此方法将检测到的动态目标特征点全部剔除,在动态物体占比较大时,保留的特征点过少,同样会导致SLAM精度下降的问题。
论文《面向复杂动态交通环境的视觉SLAM算法》中改进后的目标检测网络主要是对检测精度进行提升,网络内需要计算的参数数量仍然很大,在实时性问题上效果不佳,而且论文中仅对检测到的动态目标所在的运动区域进行了动静区分,没有考虑到目标检测误检或者漏检的情况。
论文《基于改进YOLOv5s的动态视觉SLAM算法》将目标检测和ORB-SLAM3相结合来解决动态环境下SLAM精度下降问题,但论文中方法仅适用于检测室内动态物体,没有考虑到室外环境下动态物体占比大的情况,并且论文中也没有考虑到目标检测算法误检、漏检的情况,对于检测到的动态物体区域外的特征点没有区分和剔除。
本发明结合了目标检测算法,对骨干网络、颈部网络和损失函数进行了改进,参数数量和模型规模显著降低,在保证检测精度的同时,有效提高了算法的运行速度。本发明考虑到了动态物体占比大情况,对检测到的动态目标区域内的特征点进行动静区分,剔除了动态区域内的动态特征点,尽可能多的保留了静态特征点,本发明还考虑到了目标检测算法出现错检、漏检的情况,对动态目标区域外的动态特征点和误匹配点进行了检测和剔除。本发明尽可能多的保留了静态特征点,提高了系统实时性的同时提升了系统的位姿估计准确度和建图精度。
发明内容
针对现有技术存在的在动态物体占比大的情况下精度不高,实际应用时实时性不好的问题,本发明提出了一种解决动态物体大占比的视觉SLAM方法,利用改进轻量化目标检测网络SG-YOLOv5s获得动态物体的语义信息和自适应锚框,去除锚框中的动态特征点,同时用PROSAC算法剔除锚框外的误匹配点和动态特征点,仅利用静态特征点进行同步定位与建图,有效提高了SLAM在动态环境下的精度和实时性。
为达到以上目的,本发明采用如下具体技术方案予以解决:
S1:获取输入的图像帧序列;
S2:对输入图像帧进行ORB特征点提取;
S3:改进轻量化目标检测网络YOLOv5s,在YOLOv5s的基准网络中,采用ShuffleNetV2网络的基本单元,记为S-1,代替原YOLOv5s中的CBS模块,采用ShuffleNetV2网络的下采样单元,记为S-2,代替原YOLOv5s中的CSP1_X模块,从而重新构建基准网络,在颈部网络中,用Ghost模块和GhostBottleneck模块替换原有的CBS模块,采用S-1模块替换CSP2_X模块,并且将定位损失函数CIoU替换成SIoU,改进后的轻量化目标检测网络记为SG-YOLOv5s,将图像输入到SG-YOLOv5s中进行动态物体检测,获得潜在运动物体语义信息和自适应锚框;
S4:基于S3获得的运动物体语义信息和运动物体锚框,将落在运动物体锚框内的特征点判定为潜在动态特征点,利用几何约束法将锚框内的特征点区分为静态特征点和动态特征点,剔除动态特征点,具体步骤如下:
S41:使用Lucas-Kanada光流法对特征点进行跟踪,LK光流法把图像看成了关于位置与时间的函数,基于像素在运动过程中的灰度值恒定的假设,可以得到:
I(x+dx,y+dy,t+dt)=I(x,y,t) (1)
式中,I(x,y,t)为t时刻坐标为(x,y)的特征点的灰度值,I(x+dx,y+dy,t+dt)为t+dt时刻的后续帧中特征点的灰度值,对式(1)进行泰勒展开得:
式中,ε为高阶无穷小项,基于相邻两帧之间运动为小运动的假设,ε可以忽略不计,经过整理得:
式中,为像素在x轴的运动速度,记为u,/>为像素在y轴上的运动速度,记为v,为图像在点(x,y)处x方向的梯度,记为Ix,/>为图像在点(x,y)处y方向的梯度,记为Iy为图像灰度对时间的变化量,记为It,将式(3)整理为矩阵形式得:
基于相邻像素具有相似的假设,可以通过计算出u和v,进而得到像素点在后续帧中的位置;
S42:获得相邻帧中的匹配特征点后,利用匹配特征点计算基础矩阵F;
S43:利用基础矩阵和特征点坐标可得到极线L,设p1,p2为一对匹配的特征点,齐次坐标为:
极线L的表达式如下式:
p2到极线L的距离d可表示为:
当距离d大于预定阈值时,判断p2为动态特征点;
S5:利用PROSAC算法判断并剔除检测到的动态物体锚框外的误匹配点和动态特征点,具体步骤如下:
S51:计算图像中两匹配特征点的最小欧氏距离dmin、距离比值λ和匹配度因子γ,距离比值λ的表达式如下:
式中,d1min为图像中某特征点与相邻图像中其他特征点的最小距离,λ和dmin越小,特征匹配的正确率越高,采用匹配度因子γ对匹配点进行质量评估,γ的表达式如下:
γ越大,匹配点的质量越高,选取高质量点对,对其降序排列,计算其单应性矩阵H;
S52:由S51得到的高质量点对的单应性矩阵H,得出相邻图像中其他特征点的投影点,计算投影点与匹配点的误差,若误差小于阈值,归为内点,否则归为外点;
S53:若内点数量小于内点数量阈值时,增加迭代次数,重复S51和S52,若内点数量达到阈值,则退出迭代;
S54:采用达到迭代阈值的内点重新计算单应性矩阵,得到模型估计的内点集合和单应性矩阵H;
S6:利用静态特征点进行位姿估计或重定位,进行局部地图跟踪,确定关键帧,传输给局部建图线程;
S7:接收S6传输的关键帧,完成关键帧的插入,利用关键帧的共视关系生成新的地图点,搜索融合相邻关键帧的地图点,然后用局部光束平差法进行局部地图优化,筛选插入的关键帧并剔除多余关键帧,最后将处理后的关键帧发送给闭环检测线程;
S8:接收S7处理后的关键帧,先进行闭环检测流程,利用词袋寻找并验证闭环候选关键帧,计算当前位姿的Sim(3)相似变换,然后进行闭环矫正流程,通过之前计算的Sim(3)变换,进行位姿和地图点传播和矫正,最后对所有的地图点和关键帧位姿进行全局BA优化。
本发明具有如下有益效果:
1.本发明利用改进轻量化目标检测网络SG-YOLOv5s检测动态目标,对检测到的动态目标区域内的特征点进行动静区分,利用几何约束法剔除了动态区域内的动态特征点,利用PROSAC算法剔除动态区域外的误匹配点和动态特征点,尽可能多的保留了静态特征点,有效解决了动态物体占比大时SLAM系统位姿估计和建图精度下降的问题;
2.本发明改进轻量化目标检测网络,使网络计算的参数量和网络模型规模均显著降低,利用改进的轻量化目标检测网络SG-YOLOv5s检测动态目标,在保证检测效果的同时提升了检测效率,有效提高了动态物体占比大时SLAM系统的实时性;
3.与传统动态SLAM算法比较,相比于ORB-SLAM2算法,本发明的绝对轨迹误差减少了95%以上,与DS-SLAM算法相比,本发明的绝对轨迹误差减少了35.66%,本发明的平均运行时间降低了44.7%。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为SLAM系统的整体流程框图;
图2为SG-YOLOv5s网络结构图;
图3为GhostBottleneck结构图;
图4为目标检测效果图;
图5为ORB-SLAM2运行效果图;
图6为本发明的SLAM系统运行效果图。
具体实施方式
为使本发明的上述目的、特征和优点更加明显易懂,一种解决动态物体大占比的视觉SLAM方法,包括以下步骤:
S1:获取输入的图像帧序列;
S2:对输入图像帧进行ORB特征点提取;
S3:改进轻量化目标检测网络YOLOv5s,在YOLOv5s的基准网络中,采用ShuffleNetV2网络的基本单元,记为S-1,代替原YOLOv5s中的CBS模块,采用ShuffleNetV2网络的下采样单元,记为S-2,代替原YOLOv5s中的CSP1_X模块,从而重新构建基准网络,在颈部网络中,用Ghost模块和GhostBottleneck模块替换原有的CBS模块,GhostBottleneck模块结构如图3所示,采用S-1模块替换CSP2_X模块,并且将定位损失函数CIoU替换成SIoU,改进后的轻量化目标检测网络记为SG-YOLOv5s,网络结构如图2所示,将图像输入到SG-YOLOv5s中进行动态物体检测,获得潜在运动物体语义信息和自适应锚框;
S4:基于S3获得的运动物体语义信息和运动物体锚框,将落在运动物体锚框内的特征点判定为潜在动态特征点,利用几何约束法将锚框内的特征点区分为静态特征点和动态特征点,剔除动态特征点,具体步骤如下:
S41:使用Lucas-Kanada光流法对特征点进行跟踪,LK光流法把图像看成了关于位置与时间的函数,基于像素在运动过程中的灰度值恒定的假设,可以得到:
I(x+dx,y+dy,t+dt)=I(x,y,t) (1)
式中,I(x,y,t)为t时刻坐标为(x,y)的特征点的灰度值,I(x+dx,y+dy,t+dt)为t+dt时刻的后续帧中特征点的灰度值,对式(1)进行泰勒展开得:
式中,ε为高阶无穷小项,基于相邻两帧之间运动为小运动的假设,ε可以忽略不计,经过整理得:
式中,为像素在x轴的运动速度,记为u,/>为像素在y轴上的运动速度,记为v,为图像在点(x,y)处x方向的梯度,记为Ix,/>为图像在点(x,y)处y方向的梯度,记为Iy为图像灰度对时间的变化量,记为It,将式(3)整理为矩阵形式得:
基于相邻像素具有相似的假设,可以通过计算出u和v,进而得到像素点在后续帧中的位置;
S42:获得相邻帧中的匹配特征点后,利用匹配特征点计算基础矩阵F;
S43:利用基础矩阵和特征点坐标可得到极线L,设p1,p2为一对匹配的特征点,齐次坐标为:
极线L的表达式如下式:
p2到极线L的距离d可表示为:
若距离d大于预定阈值时,则将特征点p2判断为动态特征点;
S5:利用PROSAC算法判断并剔除检测到的动态物体锚框外的误匹配点和动态特征点,具体步骤如下:
S51:计算图像中两匹配特征点的最小欧氏距离dmin、距离比值λ和匹配度因子γ,距离比值λ的表达式如下:
式中,d1min为图像中某特征点与相邻图像中其他特征点的最小距离,λ和dmin越小,特征匹配的正确率越高,采用匹配度因子γ对匹配点进行质量评估,γ的表达式如下:
γ越大,匹配点的质量越高,选取高质量点对,对其降序排列,计算其单应性矩阵H;
S52:由S51得到的高质量点对的单应性矩阵H,得出相邻图像中其他特征点的投影点,计算投影点与匹配点的误差,若误差小于阈值,归为内点,否则归为外点;
S53:若内点数量小于内点数量阈值时,增加迭代次数,重复S51和S52,若内点数量达到阈值,则退出迭代;
S54:采用达到迭代阈值的内点重新计算单应性矩阵,得到模型估计的内点集合和单应性矩阵H;
S6:利用静态特征点进行位姿估计或重定位,进行局部地图跟踪,确定关键帧,传输给局部建图线程;
S7:接收S6传输的关键帧,完成关键帧的插入,利用关键帧的共视关系生成新的地图点,搜索融合相邻关键帧的地图点,然后用局部光束平差法进行局部地图优化,筛选插入的关键帧并剔除多余关键帧,最后将处理后的关键帧发送给闭环检测线程;
S8:接收S7处理后的关键帧,先进行闭环检测流程,利用词袋寻找并验证闭环候选关键帧,计算当前位姿的Sim(3)相似变换,然后进行闭环矫正流程,通过之前计算的Sim(3)变换,进行位姿和地图点传播和矫正,最后对所有的地图点和关键帧位姿进行全局BA优化。
如图4所示,改进的轻量化目标检测网络SG-YOLOv5s在KITTI数据集中能够准确识别动态目标。如图5所示,在动态物体占比大时,ORB-SLAM2算法没有完全剔除动态物体上的动态特征点,动态区域外的误匹配点较多。如图6所示,动态物体占比大时,本发明能有效剔除动态特征点,准确保留动态区域内的静态特征点,极大地减少了动态区域外的误匹配特征点数量,验证了本发明的有效性。在动态物体占比大的场景中,ORB-SLAM2绝对轨迹误差的均方根误差为0.3512,DS-SLAM的绝对轨迹误差的均方根误差为0.0258,本发明绝对轨迹误差的均方根误差为0.0166,相比于ORB-SLAM2算法,本发明的绝对轨迹误差减少了95%以上,相比于DS-SLAM算法,本发明的绝对轨迹误差减少了约35.66%。DS-SLAM算法的平均运行时间为73.44ms,本发明平均运行时间为40.61ms,本发明的平均运行时间降低了约44.7%。本发明在实验设备(CPU为Intel Core i5-12500H,显卡为Nvidia GeForceRTX3050Ti)上能够实时运行。以上所述具体实施方案,对本发明的发明目的、技术方案和有益效果进行了进一步说明,以上实施例仅用于说明本发明的技术方案,而非对本发明创造保护范围的限制,本领域的普通技术人员应当理解,凡在本发明的技术方案进行修改、等同替换,均包含在本发明的保护范围内。

Claims (1)

1.一种解决动态物体大占比的视觉SLAM方法,其特征在于,包括以下步骤:
S1:获取输入的图像帧序列;
S2:提取输入图像帧的ORB特征点;
S3:改进轻量化目标检测网络YOLOv5s,引入ShuffleNetV2网络基本单元和Ghost卷积模块来改进骨干网络和颈部网络,并且将定位损失函数CIoU替换成SIoU,改进后的轻量化目标检测网络记为SG-YOLOv5s,将图像输入到SG-YOLOv5s中检测运动物体,获得潜在运动物体语义信息和自适应锚框;
S4:基于S3获得的运动物体语义信息和运动物体锚框,将落在运动物体锚框内的特征点判定为潜在动态特征点,利用几何约束法将锚框内的特征点区分为静态特征点和动态特征点,剔除动态特征点,具体步骤如下:
S41:使用Lucas-Kanada光流法对特征点进行跟踪,LK光流法把图像看成了关于位置与时间的函数,基于像素在运动过程中的灰度值恒定的假设,可以得到:
I(x+dx,y+dy,t+dt)=I(x,y,t) (1)
式中,I(x,y,t)为t时刻坐标为(x,y)的特征点的灰度值,I(x+dx,y+dy,t+dt)为t+dt时刻的后续帧中特征点的灰度值,对式(1)进行泰勒展开得:
式中,ε为高阶无穷小项,基于相邻两帧之间运动为小运动的假设,ε可以忽略不计,经过整理得:
式中,为像素在x轴的运动速度,记为u,/>为像素在y轴上的运动速度,记为v,/>为图像在点(x,y)处x方向的梯度,记为Ix,/>为图像在点(x,y)处y方向的梯度,记为Iy,/>为图像灰度对时间的变化量,记为It,将式(3)整理为矩阵形式得:
基于相邻像素具有相似的假设,可以通过计算出u和v,进而得到像素点在后续帧中的位置;
S42:获得相邻帧中的匹配特征点后,利用匹配特征点计算基础矩阵F;
S43:利用基础矩阵和特征点坐标可得到极线L,设p1,p2为一对匹配的特征点,齐次坐标为:
极线L的表达式如下式:
p2到极线L的距离d可表示为:
当距离d大于预定阈值时,判断p2为动态特征点;
S5:利用PROSAC算法判断并剔除检测到的动态物体锚框外的误匹配点和动态特征点,具体步骤如下:
S51:计算图像中两匹配特征点的最小欧氏距离dmin、距离比值λ和匹配度因子γ,距离比值λ的表达式如下:
式中,d1min为图像中某特征点与相邻图像中其他特征点的最小距离,λ和dmin越小,特征匹配的正确率越高,采用匹配度因子γ对匹配点进行质量评估,γ的表达式如下:
γ越大,匹配点的质量越高,选取高质量点对,对其降序排列,计算其单应性矩阵H;
S52:由S51得到的高质量点对的单应性矩阵H,得出相邻图像中其他特征点的投影点,计算投影点与匹配点的误差,若误差小于阈值,归为内点,否则归为外点;
S53:若内点数量小于内点数量阈值时,增加迭代次数,重复S51和S52,若内点数量达到阈值,则退出迭代;
S54:采用达到迭代阈值的内点重新计算单应性矩阵,得到模型估计的内点集合和单应性矩阵H;
S6:利用静态特征点进行位姿估计或重定位,进行局部地图跟踪,确定关键帧,传输给局部建图线程;
S7:接收S6传输的关键帧,完成关键帧的插入,利用关键帧的共视关系生成新的地图点,搜索融合相邻关键帧的地图点,然后用局部光束平差法进行局部地图优化,筛选插入的关键帧并剔除多余关键帧,最后将处理后的关键帧发送给闭环检测线程;
S8:接收S7处理后的关键帧,先进行闭环检测流程,利用词袋寻找并验证闭环候选关键帧,计算当前位姿的Sim(3)相似变换,然后进行闭环矫正流程,通过之前计算的Sim(3)变换,进行位姿和地图点传播和矫正,最后对所有的地图点和关键帧位姿进行全局BA优化。
CN202311347737.6A 2023-10-18 2023-10-18 一种解决动态物体大占比的视觉slam方法 Pending CN117315547A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311347737.6A CN117315547A (zh) 2023-10-18 2023-10-18 一种解决动态物体大占比的视觉slam方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311347737.6A CN117315547A (zh) 2023-10-18 2023-10-18 一种解决动态物体大占比的视觉slam方法

Publications (1)

Publication Number Publication Date
CN117315547A true CN117315547A (zh) 2023-12-29

Family

ID=89246184

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311347737.6A Pending CN117315547A (zh) 2023-10-18 2023-10-18 一种解决动态物体大占比的视觉slam方法

Country Status (1)

Country Link
CN (1) CN117315547A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117553808A (zh) * 2024-01-12 2024-02-13 中国民用航空飞行学院 基于深度学习的机器人定位导航方法、装置、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114565675A (zh) * 2022-03-03 2022-05-31 南京工业大学 一种在视觉slam前端去除动态特征点的方法
CN114677323A (zh) * 2021-12-31 2022-06-28 北京工业大学 一种室内动态场景下基于目标检测的语义视觉slam定位方法
CN116310799A (zh) * 2023-02-14 2023-06-23 重庆理工大学 语义信息与几何约束相结合的动态特征点剔除方法
CN116485885A (zh) * 2022-08-29 2023-07-25 江苏师范大学 基于深度学习去除视觉slam前端动态特征点的方法
CN116740539A (zh) * 2023-07-19 2023-09-12 浙江师范大学 基于轻量化目标检测网络的视觉slam方法及系统
CN116758148A (zh) * 2023-05-08 2023-09-15 苏州科技大学 动态环境下的slam方法和系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114677323A (zh) * 2021-12-31 2022-06-28 北京工业大学 一种室内动态场景下基于目标检测的语义视觉slam定位方法
CN114565675A (zh) * 2022-03-03 2022-05-31 南京工业大学 一种在视觉slam前端去除动态特征点的方法
CN116485885A (zh) * 2022-08-29 2023-07-25 江苏师范大学 基于深度学习去除视觉slam前端动态特征点的方法
CN116310799A (zh) * 2023-02-14 2023-06-23 重庆理工大学 语义信息与几何约束相结合的动态特征点剔除方法
CN116758148A (zh) * 2023-05-08 2023-09-15 苏州科技大学 动态环境下的slam方法和系统
CN116740539A (zh) * 2023-07-19 2023-09-12 浙江师范大学 基于轻量化目标检测网络的视觉slam方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
徐子锋 等: "基于ORB+PROSAC误匹配剔除算法的视觉SLAM研究", 《软件工程》, vol. 22, no. 5, 31 May 2019 (2019-05-31), pages 3 *
徐正军 等: "一种基于改进YOLOv5s-Ghost网络的交通标志识别方法", 《光电子•激光》, vol. 34, no. 1, 31 January 2023 (2023-01-31), pages 2 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117553808A (zh) * 2024-01-12 2024-02-13 中国民用航空飞行学院 基于深度学习的机器人定位导航方法、装置、设备及介质
CN117553808B (zh) * 2024-01-12 2024-04-16 中国民用航空飞行学院 基于深度学习的机器人定位导航方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
CN109919974B (zh) 基于r-fcn框架多候选关联的在线多目标跟踪方法
CN103325112B (zh) 动态场景中运动目标快速检测方法
CN112669349B (zh) 一种客流统计方法、电子设备及存储介质
CN111160291B (zh) 基于深度信息与cnn的人眼检测方法
WO2021031954A1 (zh) 对象数量确定方法、装置、存储介质与电子设备
CN109711256B (zh) 一种低空复杂背景无人机目标检测方法
CN105374049B (zh) 一种基于稀疏光流法的多角点跟踪方法及装置
CN111797688A (zh) 一种基于光流和语义分割的视觉slam方法
CN115131420A (zh) 基于关键帧优化的视觉slam方法及装置
CN112287906B (zh) 一种基于深度特征融合的模板匹配跟踪方法及系统
CN113608663B (zh) 一种基于深度学习和k-曲率法的指尖跟踪方法
CN117315547A (zh) 一种解决动态物体大占比的视觉slam方法
CN112861870B (zh) 指针式仪表图像矫正方法、系统及存储介质
CN112017212B (zh) 人脸关键点跟踪模型的训练、跟踪方法及系统
CN101320477B (zh) 一种人体跟踪方法及其设备
CN111914627A (zh) 一种车辆识别与追踪方法及装置
CN114719873A (zh) 一种低成本精细地图自动生成方法、装置及可读介质
CN112801021B (zh) 基于多级语义信息的车道线检测方法及系统
CN113989604A (zh) 基于端到端深度学习的轮胎dot信息识别方法
US20220366570A1 (en) Object tracking device and object tracking method
CN112183287A (zh) 一种移动机器人在复杂背景下的人数统计方法
CN111127355A (zh) 一种对缺损光流图进行精细补全的方法及其应用
CN115439771A (zh) 一种改进dsst的红外激光光斑跟踪方法
CN112329671B (zh) 一种基于深度学习的行人奔跑行为检测方法及相关组件
CN114764820A (zh) 一种基于对比度的红外弱小目标检测、跟踪方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination