CN113111973A - 一种基于深度相机的动态场景处理方法及装置 - Google Patents
一种基于深度相机的动态场景处理方法及装置 Download PDFInfo
- Publication number
- CN113111973A CN113111973A CN202110504858.1A CN202110504858A CN113111973A CN 113111973 A CN113111973 A CN 113111973A CN 202110504858 A CN202110504858 A CN 202110504858A CN 113111973 A CN113111973 A CN 113111973A
- Authority
- CN
- China
- Prior art keywords
- points
- dynamic
- determining
- point
- clustering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 13
- 230000003068 static effect Effects 0.000 claims abstract description 38
- 238000000034 method Methods 0.000 claims abstract description 26
- 238000012545 processing Methods 0.000 claims abstract description 23
- 238000013507 mapping Methods 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 230000015654 memory Effects 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241000288673 Chiroptera Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 101000664407 Neisseria meningitidis serogroup B (strain MC58) Surface lipoprotein assembly modifier 2 Proteins 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度相机的动态场景处理方法及装置,包括:获取目标图像;对目标图像的每一帧图像进行特征点提取,获得若干特征点以及与每一特征点所对应的描述子;对特征点进行聚类,获得若干节点;获取关键帧与当前帧同一个节点中的所有特征点,并计算特征点对应的描述子的第一距离,依据第一距离确定内点和外点;计算当前帧所有内点的第二距离,并基于第二距离确定动态点和静态点,第二距离表征几何距离的一阶近似值;对目标图像进行聚类,确定每个聚类区域中静态点和动态点的比例;基于比例,确定动态的聚类区域;剔除动态的聚类区域对应的动态点。本发明可以有效剔除场景中的动态内容,提高系统鲁棒性和精度。
Description
技术领域
本发明涉及计算机视觉图像处理技术领域,特别是涉及一种基于深度相机的动态场景处理方法及装置。
背景技术
同时定位与地图构建(SLAM,Simultaneous LocalizationAnd Mapping)是指移动机器人在未知环境中通过传感器建立环境模型并确定自身位置。SLAM技术可应用于许多领域,如自动驾驶、增强和虚拟现实、移动机器人和无人机导航。但是,由于现实世界中的场景往往是比较复杂的,例如,场景中有运动的行人、车辆、动物等动态物体,这种情况下会导致视觉SLAM跟踪精度降低甚至失败。
目前,虽然可以通过剔除动态场景中的动态点来提高SLAM跟踪精度,但是采用传统几何方法对静态点和动态点的判别,误判较多,而采用深度学习的方案计算量太大,均无法实现对动态场景的较好处理,降低了系统的鲁棒性和精度。
发明内容
针对于上述问题,本发明提供一种基于深度相机的动态场景处理方法及装置,实现了提升系统鲁棒性和精度。
为了实现上述目的,本发明提供了如下技术方案:
一种基于深度相机的动态场景处理方法,包括:
获取目标图像,所述目标图像为同时定位与地图构建系统输入的图像;
对所述目标图像的每一帧图像进行特征点提取,获得若干特征点以及与每一特征点所对应的描述子;
对所述特征点进行聚类,获得若干节点,所述节点对应若干特征点;
获取关键帧与当前帧同一个节点中的所有特征点,并计算所述特征点对应的描述子的第一距离,依据所述第一距离确定内点和外点;
计算当前帧所有内点的第二距离,并基于所述第二距离确定动态点和静态点,所述第二距离表征几何距离的一阶近似值;
对所述目标图像进行聚类,确定每个聚类区域中静态点和动态点的比例;
基于所述比例,确定动态的聚类区域;
剔除所述动态的聚类区域对应的动态点。
可选地,所述方法还包括:
利用剔除动态点后的静态点进行位姿优化处理,获得位姿数据。
可选地,所述获取目标图像,包括:
获取同时定位与地图构建系统输入的彩色图像;
将所述彩色图像转换为灰度图,并将转换为的灰度图确定为目标图像。
可选地,所述对所述特征点进行聚类,获得若干节点,包括:
基于每一特征点对应的描述子,构建词袋模型,所述描述子为二进制编码的,对特征点的特征进行描述的信息;
利用所述词袋模型对所述特征点进行聚类,获得若干节点。
可选地,所述依据所述第一距离确定内点和外点,包括:
对所述特征点进行遍历,若所述第一距离大于第一阈值,将当前帧的特征点的内点特征值加一;
当遍历结束后,将内点特征值大于第二阈值的特征点确定为内点;
将当前帧中没有匹配上的特征点为无效点,并将除内点和无效点之外的特征点确定为外点。
一种基于深度相机的动态场景处理装置,包括:
图像获取单元,用于获取目标图像,所述目标图像为同时定位与地图构建系统输入的图像;
提取单元,用于对所述目标图像的每一帧图像进行特征点提取,获得若干特征点以及与每一特征点所对应的描述子;
聚类单元,用于对所述特征点进行聚类,获得若干节点,所述节点对应若干特征点;
第一确定单元,用于获取关键帧与当前帧同一个节点中的所有特征点,并计算所述特征点对应的描述子的第一距离,依据所述第一距离确定内点和外点;
计算单元,用于计算当前帧所有内点的第二距离,并基于所述第二距离确定动态点和静态点,所述第二距离表征几何距离的一阶近似值;
第二确定单元,用于对所述目标图像进行聚类,确定每个聚类区域中静态点和动态点的比例;
第三确定单元,用于基于所述比例,确定动态的聚类区域;
剔除单元,用于剔除所述动态的聚类区域对应的动态点。
可选地,所述装置还包括:
位姿处理单元,用于利用剔除动态点后的静态点进行位姿优化处理,获得位姿数据。
可选地,所述图像获取单元包括:
第一获取子单元,用于获取同时定位与地图构建系统输入的彩色图像;
转换子单元,用于将所述彩色图像转换为灰度图,并将转换为的灰度图确定为目标图像。
可选地,所述聚类单元包括:
构建子单元,用于基于每一特征点对应的描述子,构建词袋模型,所述描述子为二进制编码的,对特征点的特征进行描述的信息;
聚类子单元,用于利用所述词袋模型对所述特征点进行聚类,获得若干节点。
可选地,所述第一确定单元包括:
遍历子单元,用于对所述特征点进行遍历,若所述第一距离大于第一阈值,将当前帧的特征点的内点特征值加一;
第一确定子单元,用于当遍历结束后,将内点特征值大于第二阈值的特征点确定为内点;
第二确定子单元,用于将当前帧中没有匹配上的特征点为无效点,并将除内点和无效点之外的特征点确定为外点。
相较于现有技术,本发明提供了一种基于深度相机的动态场景处理方法及装置,包括:获取目标图像,目标图像为同时定位与地图构建系统输入的图像;对目标图像的每一帧图像进行特征点提取,获得若干特征点以及与每一特征点所对应的描述子;对特征点进行聚类,获得若干节点,节点对应若干特征点;获取关键帧与当前帧同一个节点中的所有特征点,并计算特征点对应的描述子的第一距离,依据第一距离确定内点和外点;计算当前帧所有内点的第二距离,并基于第二距离确定动态点和静态点,第二距离表征几何距离的一阶近似值;对目标图像进行聚类,确定每个聚类区域中静态点和动态点的比例;基于比例,确定动态的聚类区域;剔除动态的聚类区域对应的动态点。本发明可以有效剔除场景中的动态内容,提高系统鲁棒性和精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种基于深度相机的动态场景处理方法的流程示意图;
图2为本发明实施例提供的一种基于深度相机的动态场景处理装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”和“第二”等是用于区别不同的对象,而不是用于描述特定的顺序。此外术语“包括”和“具有”以及他们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有设定于已列出的步骤或单元,而是可包括没有列出的步骤或单元。
在本发明实施例中提供了一种基于深度相机的动态场景处理方法,基于RGB-D相机(深度相机)的彩色图和深度图,根据特征点的匹配情况剔除动态点,包括:基于前面多个关键帧与当前帧做特征点匹配,得到动态场景中内点和外点的统计。基于深度图的动态场景特征点聚类,可以区分出静态的背景和运动的物体。利用该方法可以在实际的场景中可以剔除动态点,改善跟踪定位和建图的精度,给用户更好的体验。
参见图1,本发明实施例提供的一种基于深度相机的动态场景处理方法,可以包括以下步骤:
S101、获取目标图像。
所述目标图像为同时定位与地图构建(SLAM)系统输入的图像,为了便于处理,可以将彩色图像转换为灰度图。即获取同时定位与地图构建系统输入的彩色图像;将所述彩色图像转换为灰度图,并将转换为的灰度图确定为目标图像。
将SLAM输入的彩色图像转换为灰度图,可以按照以下方式转换:
RGB(彩色)转换Gray(灰度):0.299*R+0.587*G+0.114*B–>Y。
S102、对所述目标图像的每一帧图像进行特征点提取,获得若干特征点以及与每一特征点所对应的描述子。
在本发明实施例中可以采用ORB(Oriented FAST and Rotated BRIEF)算法进行特征点的提取,其中,ORB是一种快速特征点提取和描述的算法。ORB特征检测具有尺度和旋转不变性,对于噪声及其透视变换也具有不变性,并且其运行时间远远优于SIFT和SURF,可应用于实时性特征检测,可以直接使用ORB SLAM2中的ExtractORB()来提取图像的特征点。
BRIEF是对已检测到的特征点进行描述,它是一种二进制编码的描述子,放弃了利用区域灰度直方图描述特征点的传统方法,大大的加快了特征描述符建立的速度,同时也极大的降低了特征匹配的时间。BRIEF算法提取得到的特征点描述符是一个二进制的字符串,可以使用ORB SLAM2中的computerOrbDescriptor()计算。
S103、对所述特征点进行聚类,获得若干节点。
所述节点对应若干特征点,在该过程中可以根据特征点的特性进行聚类,将特征点特性相匹配的聚类为一个节点。在本发明实施例可以基于每一特征点对应的描述子,构建词袋模型,所述描述子为二进制编码的,对特征点的特征进行描述的信息;利用所述词袋模型对所述特征点进行聚类,获得若干节点。
具体的,词袋就像一个个袋子,每个袋子里装置同样的词,这构成了一种文本的表示方式,在计算机视觉领域,图像通常以特征点及其特征描述来表达。如果把特征描述看做单词,那么就能构建出相应的词袋模型。
例如,可以采用DBoW2算法实现,DBoW2是一种高效的回环检测算法,DBow2算法的全称为Bags of binary words for fast place recognition in image sequence,使用的特征检测算法为Fast,描述子为BRIEF描述子,是一种离线方法。DBoW2通过图像中大量提取的特征,利用K-Means方法聚类出n个单词。这n个单词是利用K叉树,通过多次聚类得到的。具体如下图。在每一层依次用K-means算法聚类成K类。最后形成的叶子node就是单词。
DBoW2通过transform()可以计算出图像的FeatureVector,表示这个图像特征点位于哪些node(节点)上,以及这个node上对应此图像哪些特征点(索引)。
S104、获取关键帧与当前帧同一个节点中的所有特征点,并计算所述特征点对应的描述子的第一距离,依据所述第一距离确定内点和外点。
在该步骤是关键帧匹配,以判别静态点和动态点。SLAM系统输入的是时间连续的图像,相邻帧之间的变化并不大,为了检测动态的物体,可以用当前帧和前面3个关键帧做匹配。同时为了加速匹配,可以用当前帧的词袋模型与前面关键帧进行匹配。具体的,可以对所述特征点进行遍历,若所述第一距离大于第一阈值,将当前帧的特征点的内点特征值加一;当遍历结束后,将内点特征值大于第二阈值的特征点确定为内点;将当前帧中没有匹配上的特征点为无效点,并将除内点和无效点之外的特征点确定为外点。
以遍历前面的3个关键帧为例,遍历关键帧在DBoW2中的node(节点),然后遍历node中的所有特征点,取当前帧与关键帧同一个node中的所有特征点,计算描述子距离(可以称为第一距离)Dist,若Dist大于阈值MAX_DIST(如第一阈值),则当前帧的特征点的内点特征值(如inlier_flag)加一;遍历结束后,当前帧中没有匹配上的特征点为无效点,inlier_flag>=2的特征点为内点,否则为外点。
S105、计算当前帧所有内点的第二距离,并基于所述第二距离确定动态点和静态点。
其中,所述第二距离表征几何距离的一阶近似值,在本发明实施例中基于基础矩阵的约束来初步区分静态点和动态点。基础矩阵描述了图像点与对应在另一帧中对应的极线之间的关系。
两帧中一对匹配点对记为x,x’,则基础矩阵F的约束为:
x*F*x’=0
第二距离即Sampson距离是集合距离的一阶近似,描述了图像点与它在另一帧图像中对应的极线之间的距离,可以提高算法的鲁棒性。计算如下:
计算出当前帧所有内点的第二距离的均值,以d_avg表示。
若某个内点的第二距离与均值的差值大于预设阈值,则初步判定该点为动态点,否则为静态点,其中预设阈值为用户设置的阈值。
S106、对所述目标图像进行聚类,确定每个聚类区域中静态点和动态点的比例。
S107、基于所述比例,确定动态的聚类区域。
S108、剔除所述动态的聚类区域对应的动态点。
深度图可以得到每个像素点的距离,而对于场景中的动态物体,可以通过深度图来区分背景和动态物体。
假设彩色图像(RGB图像)和深度图像(Depth图像)已经做了配准,因为像素点与深度图之间具有一对一的对应关系。通常采用16位无符号整数来记录深度图的信息,也就是位于0~65535的值。换算成米的话,最大可以表示65米。为了便于显示,将深度值除以1000。
具体的,可以选择K=9个初始中心点,使用k-means聚类算法对深度图聚类,得到每个像素的所属类别,并创建一张新的灰度图保存聚类后的结果lable[x][y];计算每个聚类中的动态比例,即动态点数量与动态点和静态点的之和的比值,该比值为动态点的百分比。即:
dynamic_percent=dynamic_points/(dynamic_points+static_points)
其中,dynamic_percent为动态点的百分比,dynamic_points为动态点的数量,static_points为静态点的数量。
如果dynamic_percent大于阈值DYNA_PER,则标记这个聚类中的所有特征点为动态点。
可以将这些动态点进行剔除,然后得到稳定的静态点。
在本发明实施例中还包括:
利用剔除动态点后的静态点进行位姿优化处理,获得位姿数据。
即使用所有的静态点做位姿优化,静态点即为动态场景中的静态特征点。
在本发明实施例中,优化的目标函数为:
其中,ej为相机观测到的第j个3d路标点的重投影误差,ξ为相机的位姿,Pj为相机观测到的第j个3d路标点,zj为Pj在相机平面对应的2D点的坐标,h()是观测函数。
本发明实施例提供了一种基于深度相机的动态场景处理方法,包括:获取目标图像,目标图像为同时定位与地图构建系统输入的图像;对目标图像的每一帧图像进行特征点提取,获得若干特征点以及与每一特征点所对应的描述子;对特征点进行聚类,获得若干节点,节点对应若干特征点;获取关键帧与当前帧同一个节点中的所有特征点,并计算特征点对应的描述子的第一距离,依据第一距离确定内点和外点;计算当前帧所有内点的第二距离,并基于第二距离确定动态点和静态点,第二距离表征几何距离的一阶近似值;对目标图像进行聚类,确定每个聚类区域中静态点和动态点的比例;基于比例,确定动态的聚类区域;剔除动态的聚类区域对应的动态点。可以有效剔除场景中的动态内容,提高系统鲁棒性和精度。
参见图2,本发明实施例还提供了一种基于深度相机的动态场景处理装置,包括:
图像获取单元10,用于获取目标图像,所述目标图像为同时定位与地图构建系统输入的图像;
提取单元20,用于对所述目标图像的每一帧图像进行特征点提取,获得若干特征点以及与每一特征点所对应的描述子;
聚类单元30,用于对所述特征点进行聚类,获得若干节点,所述节点对应若干特征点;
第一确定单元40,用于获取关键帧与当前帧同一个节点中的所有特征点,并计算所述特征点对应的描述子的第一距离,依据所述第一距离确定内点和外点;
计算单元50,用于计算当前帧所有内点的第二距离,并基于所述第二距离确定动态点和静态点,所述第二距离表征几何距离的一阶近似值;
第二确定单元60,用于对所述目标图像进行聚类,确定每个聚类区域中静态点和动态点的比例;
第三确定单元70,用于基于所述比例,确定动态的聚类区域;
剔除单元80,用于剔除所述动态的聚类区域对应的动态点。
可选地,所述装置还包括:
位姿处理单元,用于利用剔除动态点后的静态点进行位姿优化处理,获得位姿数据。
可选地,所述图像获取单元包括:
第一获取子单元,用于获取同时定位与地图构建系统输入的彩色图像;
转换子单元,用于将所述彩色图像转换为灰度图,并将转换为的灰度图确定为目标图像。
可选地,所述聚类单元包括:
构建子单元,用于基于每一特征点对应的描述子,构建词袋模型,所述描述子为二进制编码的,对特征点的特征进行描述的信息;
聚类子单元,用于利用所述词袋模型对所述特征点进行聚类,获得若干节点。
可选地,所述第一确定单元包括:
遍历子单元,用于对所述特征点进行遍历,若所述第一距离大于第一阈值,将当前帧的特征点的内点特征值加一;
第一确定子单元,用于当遍历结束后,将内点特征值大于第二阈值的特征点确定为内点;
第二确定子单元,用于将当前帧中没有匹配上的特征点为无效点,并将除内点和无效点之外的特征点确定为外点。
本发明实施例提供了一种基于深度相机的动态场景处理装置,获取目标图像,目标图像为同时定位与地图构建系统输入的图像;对目标图像的每一帧图像进行特征点提取,获得若干特征点以及与每一特征点所对应的描述子;对特征点进行聚类,获得若干节点,节点对应若干特征点;获取关键帧与当前帧同一个节点中的所有特征点,并计算特征点对应的描述子的第一距离,依据第一距离确定内点和外点;计算当前帧所有内点的第二距离,并基于第二距离确定动态点和静态点,第二距离表征几何距离的一阶近似值;对目标图像进行聚类,确定每个聚类区域中静态点和动态点的比例;基于比例,确定动态的聚类区域;剔除动态的聚类区域对应的动态点。可以有效剔除场景中的动态内容,提高系统鲁棒性和精度。
基于前述实施例,本申请的实施例提供一种计算机可读存储介质,计算机可读存储介质存储有一个或者多个程序,该一个或者多个程序可被一个或者多个处理器执行,以实现如上任一项的基于深度相机的动态场景处理方法的步骤。
本发明实施例还提供了一种电子设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现的基于深度相机的动态场景处理方法的步骤。
需要说明的是,上述处理器或CPU可以为特定用途集成电路(ApplicationSpecific Integrated Circuit,ASIC)、数字信号处理器(Digital Signal Processor,DSP)、数字信号处理装置(Digital Signal Processing Device,DSPD)、可编程逻辑装置(Programmable Logic Device,PLD)、现场可编程门阵列(Field Programmable GateArray,FPGA)、中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器中的至少一种。可以理解地,实现上述处理器功能的电子器件还可以为其它,本申请实施例不作具体限定。
需要说明的是,上述计算机存储介质/存储器可以是只读存储器(Read OnlyMemory,ROM)、可编程只读存储器(Programmable Read-Only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,EPROM)、电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性随机存取存储器(Ferromagnetic Random Access Memory,FRAM)、快闪存储器(Flash Memory)、磁表面存储器、光盘、或只读光盘(Compact Disc Read-Only Memory,CD-ROM)等存储器;也可以是包括上述存储器之一或任意组合的各种终端,如移动电话、计算机、平板设备、个人数字助理等。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本申请各实施例中的各功能单元可以全部集成在一个处理模块中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本申请所提供的几个方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。
本申请所提供的几个产品实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的产品实施例。
本申请所提供的几个方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种基于深度相机的动态场景处理方法,其特征在于,包括:
获取目标图像,所述目标图像为同时定位与地图构建系统输入的图像;
对所述目标图像的每一帧图像进行特征点提取,获得若干特征点以及与每一特征点所对应的描述子;
对所述特征点进行聚类,获得若干节点,所述节点对应若干特征点;
获取关键帧与当前帧同一个节点中的所有特征点,并计算所述特征点对应的描述子的第一距离,依据所述第一距离确定内点和外点;
计算当前帧所有内点的第二距离,并基于所述第二距离确定动态点和静态点,所述第二距离表征几何距离的一阶近似值;
对所述目标图像进行聚类,确定每个聚类区域中静态点和动态点的比例;
基于所述比例,确定动态的聚类区域;
剔除所述动态的聚类区域对应的动态点。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
利用剔除动态点后的静态点进行位姿优化处理,获得位姿数据。
3.根据权利要求1所述的方法,其特征在于,所述获取目标图像,包括:
获取同时定位与地图构建系统输入的彩色图像;
将所述彩色图像转换为灰度图,并将转换为的灰度图确定为目标图像。
4.根据权利要求1所述的方法,其特征在于,所述对所述特征点进行聚类,获得若干节点,包括:
基于每一特征点对应的描述子,构建词袋模型,所述描述子为二进制编码的,对特征点的特征进行描述的信息;
利用所述词袋模型对所述特征点进行聚类,获得若干节点。
5.根据权利要求1所述的方法,其特征在于,所述依据所述第一距离确定内点和外点,包括:
对所述特征点进行遍历,若所述第一距离大于第一阈值,将当前帧的特征点的内点特征值加一;
当遍历结束后,将内点特征值大于第二阈值的特征点确定为内点;
将当前帧中没有匹配上的特征点为无效点,并将除内点和无效点之外的特征点确定为外点。
6.一种基于深度相机的动态场景处理装置,其特征在于,包括:
图像获取单元,用于获取目标图像,所述目标图像为同时定位与地图构建系统输入的图像;
提取单元,用于对所述目标图像的每一帧图像进行特征点提取,获得若干特征点以及与每一特征点所对应的描述子;
聚类单元,用于对所述特征点进行聚类,获得若干节点,所述节点对应若干特征点;
第一确定单元,用于获取关键帧与当前帧同一个节点中的所有特征点,并计算所述特征点对应的描述子的第一距离,依据所述第一距离确定内点和外点;
计算单元,用于计算当前帧所有内点的第二距离,并基于所述第二距离确定动态点和静态点,所述第二距离表征几何距离的一阶近似值;
第二确定单元,用于对所述目标图像进行聚类,确定每个聚类区域中静态点和动态点的比例;
第三确定单元,用于基于所述比例,确定动态的聚类区域;
剔除单元,用于剔除所述动态的聚类区域对应的动态点。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括:
位姿处理单元,用于利用剔除动态点后的静态点进行位姿优化处理,获得位姿数据。
8.根据权利要求6所述的装置,其特征在于,所述图像获取单元包括:
第一获取子单元,用于获取同时定位与地图构建系统输入的彩色图像;
转换子单元,用于将所述彩色图像转换为灰度图,并将转换为的灰度图确定为目标图像。
9.根据权利要求6所述的装置,其特征在于,所述聚类单元包括:
构建子单元,用于基于每一特征点对应的描述子,构建词袋模型,所述描述子为二进制编码的,对特征点的特征进行描述的信息;
聚类子单元,用于利用所述词袋模型对所述特征点进行聚类,获得若干节点。
10.根据权利要求6所述的装置,其特征在于,所述第一确定单元包括:
遍历子单元,用于对所述特征点进行遍历,若所述第一距离大于第一阈值,将当前帧的特征点的内点特征值加一;
第一确定子单元,用于当遍历结束后,将内点特征值大于第二阈值的特征点确定为内点;
第二确定子单元,用于将当前帧中没有匹配上的特征点为无效点,并将除内点和无效点之外的特征点确定为外点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110504858.1A CN113111973A (zh) | 2021-05-10 | 2021-05-10 | 一种基于深度相机的动态场景处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110504858.1A CN113111973A (zh) | 2021-05-10 | 2021-05-10 | 一种基于深度相机的动态场景处理方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113111973A true CN113111973A (zh) | 2021-07-13 |
Family
ID=76721558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110504858.1A Pending CN113111973A (zh) | 2021-05-10 | 2021-05-10 | 一种基于深度相机的动态场景处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113111973A (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140327676A1 (en) * | 2008-07-23 | 2014-11-06 | Disney Enterprises, Inc. | View Point Representation for 3-D Scenes |
CN110084272A (zh) * | 2019-03-26 | 2019-08-02 | 哈尔滨工业大学(深圳) | 一种聚类地图创建方法及基于聚类地图和位置描述子匹配的重定位方法 |
CN110412635A (zh) * | 2019-07-22 | 2019-11-05 | 武汉大学 | 一种环境信标支持下的gnss/sins/视觉紧组合方法 |
CN110555901A (zh) * | 2019-09-05 | 2019-12-10 | 亮风台(上海)信息科技有限公司 | 动静态场景的定位和建图方法、装置、设备和存储介质 |
CN110660095A (zh) * | 2019-09-27 | 2020-01-07 | 中国科学院自动化研究所 | 动态环境下的视觉slam初始化方法、系统、装置 |
CN111160107A (zh) * | 2019-12-05 | 2020-05-15 | 东南大学 | 一种基于特征匹配的动态区域检测方法 |
CN111337941A (zh) * | 2020-03-18 | 2020-06-26 | 中国科学技术大学 | 一种基于稀疏激光雷达数据的动态障碍物追踪方法 |
CN111914832A (zh) * | 2020-06-03 | 2020-11-10 | 华南理工大学 | 一种rgb-d相机在动态场景下的slam方法 |
CN111931752A (zh) * | 2020-10-13 | 2020-11-13 | 中航金城无人系统有限公司 | 一种基于事件相机的动态目标检测方法 |
CN112132893A (zh) * | 2020-08-31 | 2020-12-25 | 同济人工智能研究院(苏州)有限公司 | 一种适用于室内动态环境的视觉slam方法 |
WO2021083242A1 (zh) * | 2019-10-31 | 2021-05-06 | Oppo广东移动通信有限公司 | 地图构建方法、定位方法及系统、无线通信终端、计算机可读介质 |
-
2021
- 2021-05-10 CN CN202110504858.1A patent/CN113111973A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140327676A1 (en) * | 2008-07-23 | 2014-11-06 | Disney Enterprises, Inc. | View Point Representation for 3-D Scenes |
CN110084272A (zh) * | 2019-03-26 | 2019-08-02 | 哈尔滨工业大学(深圳) | 一种聚类地图创建方法及基于聚类地图和位置描述子匹配的重定位方法 |
CN110412635A (zh) * | 2019-07-22 | 2019-11-05 | 武汉大学 | 一种环境信标支持下的gnss/sins/视觉紧组合方法 |
CN110555901A (zh) * | 2019-09-05 | 2019-12-10 | 亮风台(上海)信息科技有限公司 | 动静态场景的定位和建图方法、装置、设备和存储介质 |
CN110660095A (zh) * | 2019-09-27 | 2020-01-07 | 中国科学院自动化研究所 | 动态环境下的视觉slam初始化方法、系统、装置 |
WO2021083242A1 (zh) * | 2019-10-31 | 2021-05-06 | Oppo广东移动通信有限公司 | 地图构建方法、定位方法及系统、无线通信终端、计算机可读介质 |
CN111160107A (zh) * | 2019-12-05 | 2020-05-15 | 东南大学 | 一种基于特征匹配的动态区域检测方法 |
CN111337941A (zh) * | 2020-03-18 | 2020-06-26 | 中国科学技术大学 | 一种基于稀疏激光雷达数据的动态障碍物追踪方法 |
CN111914832A (zh) * | 2020-06-03 | 2020-11-10 | 华南理工大学 | 一种rgb-d相机在动态场景下的slam方法 |
CN112132893A (zh) * | 2020-08-31 | 2020-12-25 | 同济人工智能研究院(苏州)有限公司 | 一种适用于室内动态环境的视觉slam方法 |
CN111931752A (zh) * | 2020-10-13 | 2020-11-13 | 中航金城无人系统有限公司 | 一种基于事件相机的动态目标检测方法 |
Non-Patent Citations (4)
Title |
---|
CANBEN YIN等: "Removing Dynamic 3D Objects from Point Clouds of a Moving RGB-D Camera", 《PROCEEDING OF THE 2015 IEEE INTERNATIONAL CONFERENCE ON INFORMATION AND AUTOMATION》, pages 1600 - 1606 * |
祁旭翔: "基于深度学习的视觉SLAM语义地图构建", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 1, pages 140 - 178 * |
谢鹏发等: "搜救机器人视觉SLAM回环检测方法研究", 《医疗卫生设备》, vol. 41, no. 12, pages 1 - 6 * |
邢广鑫: "面向动态场景的视觉SLAM研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 4, pages 138 - 694 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563442B (zh) | 基于激光雷达的点云和相机图像数据融合的slam方法及系统 | |
CN113362382B (zh) | 三维重建方法和三维重建装置 | |
CN110458805B (zh) | 一种平面检测方法、计算设备以及电路系统 | |
CN109584302B (zh) | 相机位姿优化方法、装置、电子设备和计算机可读介质 | |
EP3635629A1 (en) | Fine-grained image recognition | |
CN110363817B (zh) | 目标位姿估计方法、电子设备和介质 | |
CN111191582B (zh) | 三维目标检测方法、检测装置、终端设备及计算机可读存储介质 | |
CN110926478B (zh) | 一种ar导航路线纠偏方法、系统及计算机可读存储介质 | |
CN113592015B (zh) | 定位以及训练特征匹配网络的方法和装置 | |
CN114419599A (zh) | 障碍物识别方法、装置及电子设备 | |
CN114677435A (zh) | 一种点云全景融合要素提取方法和系统 | |
CN112907569A (zh) | 头部图像区域的分割方法、装置、电子设备和存储介质 | |
CN114972947B (zh) | 一种基于模糊语义建模的深度场景文本检测方法和装置 | |
CN115147599A (zh) | 一种面向遮挡和截断场景的多几何特征学习的物体六自由度位姿估计方法 | |
CN115661522A (zh) | 一种基于视觉语义矢量的车辆导引方法、系统、设备和介质 | |
CN111373393B (zh) | 图像检索方法和装置以及图像库的生成方法和装置 | |
CN113793370A (zh) | 三维点云配准方法、装置、电子设备及可读介质 | |
Nadeem et al. | Direct image to point cloud descriptors matching for 6-dof camera localization in dense 3d point clouds | |
WO2022247126A1 (zh) | 视觉定位方法、装置、设备、介质及程序 | |
CN112528918A (zh) | 道路元素识别方法、地图标注方法及装置、车辆 | |
CN113570535B (zh) | 视觉定位方法及相关装置、设备 | |
CN113570667B (zh) | 视觉惯导补偿方法、装置及存储介质 | |
CN113111973A (zh) | 一种基于深度相机的动态场景处理方法及装置 | |
CN115656991A (zh) | 车辆外参标定方法、装置、设备以及存储介质 | |
CN114998743A (zh) | 一种视觉地图点的构建方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20240913 |
|
AD01 | Patent right deemed abandoned |