CN111105495A - 一种融合视觉语义信息的激光雷达建图方法及系统 - Google Patents
一种融合视觉语义信息的激光雷达建图方法及系统 Download PDFInfo
- Publication number
- CN111105495A CN111105495A CN201911177868.8A CN201911177868A CN111105495A CN 111105495 A CN111105495 A CN 111105495A CN 201911177868 A CN201911177868 A CN 201911177868A CN 111105495 A CN111105495 A CN 111105495A
- Authority
- CN
- China
- Prior art keywords
- laser
- laser scanning
- cluster
- label
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000000007 visual effect Effects 0.000 title claims abstract description 25
- 238000013507 mapping Methods 0.000 title claims abstract description 23
- 238000001514 detection method Methods 0.000 claims abstract description 44
- 230000003068 static effect Effects 0.000 claims abstract description 13
- 238000012216 screening Methods 0.000 claims abstract description 7
- 239000002245 particle Substances 0.000 claims description 42
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 8
- 230000004927 fusion Effects 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000012952 Resampling Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
Abstract
本发明公开了一种融合视觉语义信息的激光雷达建图方法及系统,其中,方法包括:通过激光雷达和相机分别获取环境的激光扫描点和图像;对所述激光扫描点进行聚类,得到激光簇;对所述图像进行识别,得到物体在图像中的目标检测框;将所述激光簇与所述物体在图像中的目标检测框进行融合,得到语义激光数据;根据所述语义激光数据筛选出静态物体对应的激光扫描点,基于静态物体对应的激光扫描点构建地图。本发明通过将图像信息与激光雷达扫描数据进行融合,通过去除动态物体对应的激光扫描点从而减少动态物体给激光雷达建图造成的影响,提高地图的准确度,从而使机器人能够根据构建的地图进行导航和定位。
Description
技术领域
本发明涉及激光雷达建图领域,特别涉及一种融合视觉语义信息的激光雷达建图方法及系统。
背景技术
在激光雷达建图的过程中,由于环境中存在的人、车等动态物体会被激光雷达扫描到地图中,因此,这样构建出来的地图准确度不高,使机器人不能准确在地图中进行导航定位,且通常情况下,通过视觉信息融合激光雷达来进行去除动态物体的过程中,所采用的算法计算量较大,很难达到实时性要求。
发明内容
本发明的目的在于克服现有技术中所存在的上述不足,提供一种融合视觉语义信息的激光雷达建图方法及系统。
为了实现上述发明目的,本发明提供了以下技术方案:
一种融合视觉语义信息的激光雷达建图方法,包括以下步骤:
步骤1:通过激光雷达和相机分别获取环境的激光扫描点和图像;
步骤2:对所述激光扫描点进行聚类,得到激光簇;对所述图像进行识别,得到物体在图像中的目标检测框;
步骤3:将所述激光簇与所述物体在图像中的目标检测框进行融合,得到语义激光数据;
步骤4:根据所述语义激光数据筛选出静态物体对应的激光扫描点,基于所述静态物体对应的激光扫描点构建地图。
优选的,所述步骤2中,对所述激光扫描点进行聚类,得到激光簇,包括:
步骤201:基于所述激光扫描点的深度值,计算相邻两个所述激光扫描点之间的深度差值;
步骤202:计算相邻两个所述深度差值之间的差,得到相邻深度差值的差;
步骤203:基于聚类参数对所述深度差值、所述深度差值的差分别进行比较,得到所述激光扫描点的聚类标签;根据所述激光扫描点的所述聚类标签得到激光簇。
优选的,根据所述激光扫描点的所述聚类标签得到激光簇,包括:将所述激光扫描点的聚类标签与所述激光扫描点的角度值、深度值相结合,得到所述激光簇。
优选的,所述步骤2中,利用目标检测算法建立物体检测模型对所述图像进行识别。
优选的,所述步骤3包括:
步骤301:将所述激光簇投影到相机平面;
步骤302:对所述激光簇的中心点标记聚类标签;
步骤303:对所述目标检测框中的所述激光扫描点标记物体标签;
步骤304:通过所述激光扫描点的所述物体标签判断所述激光簇的物体标签;
步骤305:计算所述激光簇对应的各个所述物体标签的概率;
步骤306:对每个所述激光扫描点标记对应的所述物体标签和所述物体标签的概率,得到语义激光数据。
优选的,所述语义激光数据包括所述激光扫描点的角度数据、深度数据、聚类数据、物体标签数据和物体标签概率数据。
优选的,所述步骤4中,采用粒子滤波算法构建地图。
本发明还公开了一种融合视觉语义信息的激光雷达建图系统,包括至少一个处理器,以及与所述至少一个处理器通信连接的存储器;所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的一种融合视觉语义信息的激光雷达建图方法。
本发明还公开了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被执行时,实现上述的一种融合视觉语义信息的激光雷达建图方法。
与现有技术相比,本发明的有益效果:
本发明通过将图像信息与激光雷达扫描数据进行融合,能够识别出动态物体对应的激光扫描点,在激光建图过程中去除动态物体的影响,提高了地图的准确度,从而使机器人能够根据构建的地图准确进行导航和定位,在融合过程中,本发明采用的激光扫描点聚类算法简单,减少了激光扫描点处理过程的计算量,提高实时性。
附图说明:
图1是本发明实施例1所述的一种融合视觉语义信息的激光雷达建图方法的框图。
图2是本发明实施例2所述的一种融合视觉语义信息的激光雷达建图系统的结构示意图。
图中标记:310-电子设备,311-处理器,312-存储器,313-输入输出接口,314-电源。
具体实施方式
下面结合试验例及具体实施方式对本发明作进一步的详细描述。但不应将此理解为本发明上述主题的范围仅限于以下的实施例,凡基于本发明内容所实现的技术均属于本发明的范围。
实施例1
如图1所示,一种融合视觉语义信息的激光雷达建图方法,包括以下步骤:
步骤1:通过激光雷达和相机分别获取环境的激光扫描点和图像;
本实施例中,在机器人上同时搭载激光雷达与相机,利用激光雷达扫描周围环境获取周围环境的激光扫描点,利用相机收集周围环境信息获取周围环境的图像。
步骤2:对所述激光扫描点进行聚类,得到激光簇;对所述图像进行识别,得到物体在图像中的目标检测框;
在通常情况下,落在同一个物体上得到的激光扫描点的索引总是相邻的,而且其距离变化总是平滑的。基于这个条件,本实施例提出一种聚类假设:
第i个激光扫描点Xi总是与第i-1个激光扫描点Xi-1或者第i+1个激光扫描点Xi+1为同一类,否则Xi单独为一个类;同一类激光扫描点的深度d的大小总是相似的,或者d的大小变化总是平滑的。
基于上述假设,本实施例对所述激光扫描点进行聚类,得到激光簇,包括:
步骤201:基于所述激光扫描点的深度值,计算相邻两个激光扫描点之间的深度差值;
在实验环境下,对于所述激光扫描点Xi,其中i∈[0,n],计算相邻激光扫描点之间的深度差值:
αi=di+1-di,i∈[0,n-1]
其中,n为激光扫描点的个数,di为第i激光扫描点的深度值,αi为第i与i+1激光扫描点的深度差值。
步骤202:计算相邻两个所述深度差值之间的差,得到相邻深度差值的差;
在实验环境下,基于所述步骤201得到的深度差值,计算相邻深度差值的差:
βi=αi+1-αi,i∈[0,n-2]
其中,βi为相邻深度差值的差,i∈[0,n-2]。
步骤203:基于聚类参数对所述深度差值、所述深度差值的差分别进行比较,得到所述激光扫描点的聚类标签;根据所述激光扫描点的所述聚类标签得到激光簇。
所述聚类参数表示相邻激光扫描点的最大变化程度,使用不同激光雷达传感器时,需要根据传感器的精度和实际实验获得;
则c=c+1,li=c,否则li=c;
将激光扫描点的聚类标签与激光扫描点的角度值、深度值相结合,得到激光簇,激光簇L可以表示为:
L={(θ1,d1,l1),(θ2,d2,l2),...,(θn,dn,ln)}。
本实施例中,利用目标检测算法建立物体检测模型对所述图像进行识别。
具体的,采用SSD(single shot multibox detector)目标检测算法,在速度上,SSD比YOLO还要快,在检测精度上,SSD可以和Faster R-CNN相媲美,SSD的核心是在特征图上采用卷积核来预测一系列default bounding boxes(默认矩形框)的类别分数、偏移量,为了提高检测准确率,在不同尺度的特征图上进行预测,此外,还得到具有不同aspectratio(纵横比)的结果,这些改进设计,实现了end-to-end(端到端)训练,并且,即使图像的分辨率比较低,也能保证检测的精度,在不同的数据集,如:PASCAL VOC、MS COCO、ILSVRC,对该方法的检测速度、检测精度进行了测试,并且与其他的方法进行了对比,效果良好。
利用SSD目标检测算法建立物体检测模型,包括:
建立数据集和标注图片,在实验环境中获得大量的物体图片,对物体图片进行标注,包括物体名称和ID号(即物体标签),标注完毕后生成训练集图片文件夹和测试集图片文件夹;配置深度学习框架caffe(Convolutional Architecture for Fast FeatureEmbedding);利用训练集图片文件夹和测试集图片文件夹训练并检验SSD网络,得到物体检测模型。在对物体图片进行标注的过程中,每一种类的物体都有固定的物体标签,假定物体是动态物体,比如对于人,标注的物体标签为1,比如对于狗,标注的物体标签为2,假定物体是静态物体,比如对于道路,标注的物体标签为3,比如对于房屋,标注的物体标签为4。
利用物体检测模型对相机获取的图像进行目标检测,得到物体在图像中的目标检测框,从而得到物体标签信息{k1,k2,…,km},标签概率{p1,p2,…,pm},位置信息{(x1,y1),(x2,y2),…,(xm,ym)},以及大小信息{(h1,w1),(h2,w2),…,(hm,wm)},其中,位置信息表示第i个物体的检测框中心点在图像中的像素位置,大小信息表示第i个物体的检测框在图像中的高和宽,m为通过目标检测获得的物体个数。
步骤3:将所述激光簇与所述物体在图像中的目标检测框进行融合,得到语义激光数据;
基于所述步骤2,利用公式:
计算得到相机坐标系下第i个物体的方向信息,包括水平夹角γi和垂直夹角μi,其中,(Ox,Oy)为图像中心点坐标,W和H为图像宽度和长度,Vx是相机水平方向有效视角大小,Vy是垂直方向有效视角大小。
得到的γi和μi为物体检测框中心点在相机坐标系下的方向角度信息,物体检测框中心点可认为是物体在图像平面上投影的中心点,而激光雷达扫描点已经包含物体方向角度和深度信息,通过聚类将同一物体上激光扫描点聚为一类,得到多类激光簇,每一类激光簇都有一个中心,即激光簇中心处的激光扫描点坐标,包括一个深度和一个角度,激光簇的中心点同样可认为是物体中心点。因此,可通过两个中心处将所述激光簇与所述物体在图像中的目标检测框进行融合,主要分为以下几步:
步骤301:将所述激光簇投影到相机平面;
本实施例中,由于相机平面和激光平面不同,为了使两个数据融合,需要将激光数据投影到相机平面,因此本实施例将激光簇投影到相机平面。
步骤302:对所述激光簇的中心点标记聚类标签;
选取相机视觉范围内的激光簇并计算它们的中心点,结合它们的聚类标签得到{(l1,o1),(l2,o2),…,(ln,on)},其中,oi为极坐标表示的激光簇中心点坐标,li为激光扫描点的聚类标签。
步骤303:对所述目标检测框中的所述激光扫描点标记物体标签;
给目标检测框中的激光扫描点标记对应的物体标签,当检测框重叠时,则一个激光扫描点对应多个物体标签。
步骤304:通过所述激光扫描点的所述物体标签判断所述激光簇的物体标签;
若第j个激光簇中对应物体标签为kj的激光扫描点数njk>aNj时,将标注该激光簇为kj,其中,a为取值范围为0到1,需要根据实际实验需求设定,Nj为第j个激光簇中激光扫描点的总数。当a设置过小,激光簇的拥有多个物体标签的概率较高,相当于一个激光簇可能对应多个物体标签;当a的设置过大时,激光簇没有对应物体标签的概率将大大增加。
步骤305:计算所述激光簇对应的各个所述物体标签的概率;
对目标检测结果中的每个物体标签,找到有对应物体标签的激光簇,其对应激光簇可能有多个。利用下式计算激光簇对应各个物体标签的概率:
其中,pij表示第j个激光簇属于目标检测结果中第i个物体的概率,pi是指目标检测结果中第i物体标签的概率,w1与w2为根据试验调整的阈值,vi和υj分别为检测框i中心点和激光簇j中心点在相机坐标系下y=0平面上的方向角度,wi为检测框i宽度,主要指检测框i中心点与激光簇j中心点角度关系对最终概率的影响,两个中心点角度相差越大,这个值越小;d为激光簇j中心点离相机坐标系原点距离,D为激光雷达的最大有效测量距离,主要指距离对最终概率的影响,其中,离激光雷达越近,这个值越大,这个标签对应的概率也越大。
步骤306:对每个所述激光扫描点标记对应的所述物体标签和所述物体标签的概率,得到语义激光数据。
对于每个激光簇j,将对应的物体标签和物体标签的概率赋予激光簇内每个激光扫描点,对应每个激光扫描点,可以得到角度数据,深度数据,聚类数据,物体标签数据和物体标签概率数据,即为所述语义激光数据:
M={(θ1,d1,l1,S1),(θ2,d2,l2,S2),…,(θn,dn,ln,Sn)}
其中Si={(kj,pij)},kj为物体标签,pij为物体标签的概率,完成了物体目标检测框与激光簇的融合。
步骤4:根据所述语义激光数据筛选出静态物体对应的激光扫描点,基于所述静态物体对应的激光扫描点构建地图。
本实施例中,在建立物体检测模型时已经对各个种类的物体进行标注物体标签,通过物体检测模型对图像中的物体进行识别后得到物体标签的信息,在所述步骤3中进行数据融合后,每个激光扫描点被赋予物体标签和物体标签的概率,根据物体标签和物体标签的概率能够将动态物体对应的激光扫描点查找出来。具体的,物体标签的概率的阈值根据实际实验的情况而定,实验环境中设定物体标签的概率的阈值为0.3,当激光扫描点被赋予的物体标签是1,且物体标签1的概率大于或者等于0.3,那就将该物体认定为人,由于人是动态物体,就将该激光扫描点去除,当激光扫描点被赋予的物体标签是3,且物体标签3的概率大于或者等于0.3,那就将该物体认定为道路,由于道路是静态物体,就将该激光扫描点保留,从而筛选出静态物体对应的激光扫描点,基于静态物体对应的激光扫描点构建地图,减少了动态物体因活动而给激光雷达建图造成的影响。
本实施中,基于静态物体对应的激光扫描点采用粒子滤波算法构建地图,粒子滤波的核心思想是通过从后验概率(观测方程)中抽取的随机状态粒子来表达其分布,是一种循序重要性采样法。简单来说,粒子滤波法是指通过寻找一组在状态空间传播的随机样本对概率密度函数进行近似,以样本均值代替积分运算(状态方程),从而获得状态最小方差分布的过程。这里的样本即指粒子,当样本数量N→∝时可以逼近任何形式的概率分布。虽然在粒子滤波算法中,其概率分布仅仅是真实分布的一种近似,但由于粒子滤波是非参数化的,它解决了非线性滤波问题中随机量必须满足高斯分布的缺陷,能表达相较于高斯分布模型而言更为广泛的分布,也对变量参数的非线性特性有更强的建模能力。粒子滤波能够比较精确地表达基于观测量和控制量的后验概率分布,可以用于解决SLAM(simultaneous localization and mapping,同步定位与建图)问题。
采用粒子滤波算法构建地图具体包括:
初始化阶段:规定粒子数量,将粒子平均的分布在规划区域,规划区域需要人为或者通过特征算法计算得出,比如人脸追踪,初始化阶段需要人为标出图片中人脸范围或者使用人脸识别算法识别出人脸区域。对于SLAM来说,规划区域一般为用来进行定位的地图,在初始化时,将需要设置的特定数量粒子均匀的撒满整张地图。
转移阶段:这个阶段所做的任务就是对每个粒子根据状态转移方程进行状态估计,每个粒子将会产生一个与之相对应的预测粒子。这一步同卡尔曼滤波方法相同,只是卡尔曼是对一个状态进行状态估计,粒子滤波是对大量样本(每个粒子即是一个样本)进行状态估计。
决策阶段:决策阶段也称校正阶段。在这一阶段中,算法需要对预测粒子进行评价,越接近于真实状态的粒子,其权重越大,反之,与真实值相差较大的粒子,其权重越小。此步骤是为重采样做准备。在SLAM中权重计算方式有很多,比如机器人行走过程中,激光雷达或者深度摄像头会返回周围位置信息,如果这些信息与期望值相差较大,亦或者在运动中某些粒子本应该没有碰到障碍或者边界,然而在运算中却到达甚至穿过了障碍点或边界,那么这种粒子就是坏点粒子,这样的粒子权重也就比较低一些。
重采样阶段:根据粒子权重对粒子进行筛选,筛选过程中,既要大量保留权重大的粒子,又要有一小部分权重小的粒子;权重小的粒子有些会被淘汰,为了保证粒子总数不变,一般会在权值较高的粒子附近加入一些新的粒子。
滤波:将重采样后的粒子带入状态转移方程得到新的预测粒子,然后将它们继续进行上述转移、决策、重采样过程,经过这种循环迭代,最终绝大部分粒子会聚集在与真实值最接近的区域内,从而得到机器人准确的位置,实现定位。
地图生成:每个粒子都携带一个路径地图,整个过程下来,我们选取最优的粒子,即可获得规划区域的栅格地图。
实施例2
如图2所示,一种融合视觉语义信息的激光雷达建图系统,即电子设备310(例如具备程序执行功能的计算机服务器),其包括至少一个处理器311,电源314,以及与所述至少一个处理器311通信连接的存储器312和输入输出接口313;所述存储器312存储有可被所述至少一个处理器311执行的指令,所述指令被所述至少一个处理器311执行,以使所述至少一个处理器311能够执行前述实施例1所公开的方法;所述输入输出接口313可以包括显示器、键盘、鼠标、以及USB接口,用于输入输出数据;电源314用于为电子设备310提供电能。
本领域技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(Read Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的介质。
当本发明上述集成的单元以软件功能单元的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、磁碟或者光盘等各种可以存储程序代码的介质。
以上实施例仅用以说明本发明而并非限制本发明所描述的技术方案,尽管本说明书参照上述的各个实施例对本发明已进行了详细的说明,但本发明不局限于上述具体实施方式,因此任何对本发明进行修改或等同替换;而一切不脱离发明的精神和范围的技术方案及其改进,其均应涵盖在本发明的权利要求范围当中。
Claims (9)
1.一种融合视觉语义信息的激光雷达建图方法,其特征在于,包括以下步骤:
步骤1:通过激光雷达和相机分别获取环境的激光扫描点和图像;
步骤2:对所述激光扫描点进行聚类,得到激光簇;对所述图像进行识别,得到物体在图像中的目标检测框;
步骤3:将所述激光簇与所述物体在图像中的目标检测框进行融合,得到语义激光数据;
步骤4:根据所述语义激光数据筛选出静态物体对应的激光扫描点,基于所述静态物体对应的激光扫描点构建地图。
2.根据权利要求1所述的一种融合视觉语义信息的激光雷达建图方法,其特征在于,所述步骤2中,对所述激光扫描点进行聚类,得到激光簇,包括:
步骤201:基于所述激光扫描点的深度值,计算相邻两个所述激光扫描点之间的深度差值;
步骤202:计算相邻两个所述深度差值之间的差,得到相邻深度差值的差;
步骤203:基于聚类参数对所述深度差值、所述深度差值的差分别进行比较,得到所述激光扫描点的聚类标签;根据所述激光扫描点的所述聚类标签得到激光簇。
3.根据权利要求2所述的一种融合视觉语义信息的激光雷达建图方法,其特征在于,根据所述激光扫描点的所述聚类标签得到激光簇,包括:将所述激光扫描点的所述聚类标签与所述激光扫描点的角度值、深度值相结合,得到所述激光簇。
4.根据权利要求1所述的一种融合视觉语义信息的激光雷达建图方法,其特征在于,所述步骤2中,利用目标检测算法建立物体检测模型对所述图像进行识别。
5.根据权利要求1所述的一种融合视觉语义信息的激光雷达建图方法,其特征在于,所述步骤3包括:
步骤301:将所述激光簇投影到相机平面;
步骤302:对所述激光簇的中心点标记聚类标签;
步骤303:对所述目标检测框中的所述激光扫描点标记物体标签;
步骤304:通过所述激光扫描点的所述物体标签判断所述激光簇的物体标签;
步骤305:计算所述激光簇对应的各个所述物体标签的概率;
步骤306:对每个所述激光扫描点标记对应的所述物体标签和所述物体标签的概率,得到语义激光数据。
6.根据权利要求5所述的一种融合视觉语义信息的激光雷达建图方法,其特征在于,所述语义激光数据包括所述激光扫描点的角度数据、深度数据、聚类标签数据、物体标签数据和物体标签概率数据。
7.根据权利要求1所述的一种融合视觉语义信息的激光雷达建图方法,其特征在于,所述步骤4中,采用粒子滤波算法构建地图。
8.一种融合视觉语义信息的激光雷达建图系统,其特征在于,包括至少一个处理器,以及与所述至少一个处理器通信连接的存储器;所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至7中任一项所述的一种融合视觉语义信息的激光雷达建图方法。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被执行时,实现权利要求1-7之一所述的一种融合视觉语义信息的激光雷达建图方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911177868.8A CN111105495A (zh) | 2019-11-26 | 2019-11-26 | 一种融合视觉语义信息的激光雷达建图方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911177868.8A CN111105495A (zh) | 2019-11-26 | 2019-11-26 | 一种融合视觉语义信息的激光雷达建图方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111105495A true CN111105495A (zh) | 2020-05-05 |
Family
ID=70421860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911177868.8A Pending CN111105495A (zh) | 2019-11-26 | 2019-11-26 | 一种融合视觉语义信息的激光雷达建图方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111105495A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111337947A (zh) * | 2020-05-18 | 2020-06-26 | 深圳市智绘科技有限公司 | 即时建图与定位方法、装置、系统及存储介质 |
CN111652174A (zh) * | 2020-06-10 | 2020-09-11 | 北京云迹科技有限公司 | 一种基于激光数据的语义化标定方法及装置 |
CN111947647A (zh) * | 2020-08-26 | 2020-11-17 | 四川阿泰因机器人智能装备有限公司 | 一种视觉与激光雷达融合的机器人精准定位方法 |
CN112859873A (zh) * | 2021-01-25 | 2021-05-28 | 山东亚历山大智能科技有限公司 | 一种基于语义激光的移动机器人多级避障系统及方法 |
CN113052903A (zh) * | 2021-03-17 | 2021-06-29 | 浙江大学 | 一种用于移动机器人的视觉与雷达融合定位方法 |
CN113358112A (zh) * | 2021-06-03 | 2021-09-07 | 北京超星未来科技有限公司 | 一种地图构建方法及一种激光惯性里程计 |
CN113821040A (zh) * | 2021-09-28 | 2021-12-21 | 中通服创立信息科技有限责任公司 | 一种深度视觉相机与激光雷达融合导航的机器人 |
CN114397638A (zh) * | 2022-01-22 | 2022-04-26 | 深圳市神州云海智能科技有限公司 | 一种激光雷达数据中动态数据的过滤方法及系统 |
CN116740662A (zh) * | 2023-08-15 | 2023-09-12 | 贵州中南锦天科技有限责任公司 | 一种基于激光雷达的车轴识别方法及系统 |
CN117148378A (zh) * | 2023-08-30 | 2023-12-01 | 上海频准激光科技有限公司 | 一种基于激光器的光学成像系统 |
WO2024066980A1 (zh) * | 2022-09-26 | 2024-04-04 | 华为云计算技术有限公司 | 一种重定位方法以及装置 |
CN117148378B (zh) * | 2023-08-30 | 2024-05-10 | 上海频准激光科技有限公司 | 一种基于激光器的光学成像系统 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020071038A1 (en) * | 2000-12-07 | 2002-06-13 | Joe Mihelcic | Method and system for complete 3D object and area digitizing |
CN107063264A (zh) * | 2017-04-13 | 2017-08-18 | 杭州申昊科技股份有限公司 | 一种适用于大规模变电站环境的机器人地图创建方法 |
CN108427431A (zh) * | 2018-04-24 | 2018-08-21 | 东莞理工学院 | 一种基于激光扫描地图构建系统的四轴飞行器及其方法 |
WO2018205119A1 (zh) * | 2017-05-09 | 2018-11-15 | 深圳市速腾聚创科技有限公司 | 基于激光雷达扫描的路沿检测方法和系统 |
CN108897836A (zh) * | 2018-06-25 | 2018-11-27 | 广州视源电子科技股份有限公司 | 一种机器人基于语义进行地图构建的方法和装置 |
CN108921925A (zh) * | 2018-06-27 | 2018-11-30 | 广州视源电子科技股份有限公司 | 基于激光雷达和视觉融合的语义点云生成方法和装置 |
CN108920584A (zh) * | 2018-06-25 | 2018-11-30 | 广州视源电子科技股份有限公司 | 一种语义栅格地图生成方法及其装置 |
CN109959911A (zh) * | 2019-03-25 | 2019-07-02 | 清华大学 | 基于激光雷达的多目标自主定位方法及装置 |
CN110007670A (zh) * | 2019-02-14 | 2019-07-12 | 四川阿泰因机器人智能装备有限公司 | 移动机器人定位建图方法 |
US20190287254A1 (en) * | 2018-03-16 | 2019-09-19 | Honda Motor Co., Ltd. | Lidar noise removal using image pixel clusterings |
CN110333720A (zh) * | 2019-07-10 | 2019-10-15 | 国网四川省电力公司电力科学研究院 | 一种基于粒子滤波的slam优化方法 |
WO2019197722A1 (en) * | 2018-04-11 | 2019-10-17 | Nokia Technologies Oy | An apparatus, a method and a computer program for volumetric video |
-
2019
- 2019-11-26 CN CN201911177868.8A patent/CN111105495A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020071038A1 (en) * | 2000-12-07 | 2002-06-13 | Joe Mihelcic | Method and system for complete 3D object and area digitizing |
CN107063264A (zh) * | 2017-04-13 | 2017-08-18 | 杭州申昊科技股份有限公司 | 一种适用于大规模变电站环境的机器人地图创建方法 |
WO2018205119A1 (zh) * | 2017-05-09 | 2018-11-15 | 深圳市速腾聚创科技有限公司 | 基于激光雷达扫描的路沿检测方法和系统 |
US20190287254A1 (en) * | 2018-03-16 | 2019-09-19 | Honda Motor Co., Ltd. | Lidar noise removal using image pixel clusterings |
WO2019197722A1 (en) * | 2018-04-11 | 2019-10-17 | Nokia Technologies Oy | An apparatus, a method and a computer program for volumetric video |
CN108427431A (zh) * | 2018-04-24 | 2018-08-21 | 东莞理工学院 | 一种基于激光扫描地图构建系统的四轴飞行器及其方法 |
CN108897836A (zh) * | 2018-06-25 | 2018-11-27 | 广州视源电子科技股份有限公司 | 一种机器人基于语义进行地图构建的方法和装置 |
CN108920584A (zh) * | 2018-06-25 | 2018-11-30 | 广州视源电子科技股份有限公司 | 一种语义栅格地图生成方法及其装置 |
CN108921925A (zh) * | 2018-06-27 | 2018-11-30 | 广州视源电子科技股份有限公司 | 基于激光雷达和视觉融合的语义点云生成方法和装置 |
CN110007670A (zh) * | 2019-02-14 | 2019-07-12 | 四川阿泰因机器人智能装备有限公司 | 移动机器人定位建图方法 |
CN109959911A (zh) * | 2019-03-25 | 2019-07-02 | 清华大学 | 基于激光雷达的多目标自主定位方法及装置 |
CN110333720A (zh) * | 2019-07-10 | 2019-10-15 | 国网四川省电力公司电力科学研究院 | 一种基于粒子滤波的slam优化方法 |
Non-Patent Citations (2)
Title |
---|
曹军: "动态场景下融合视觉语义的激光SLAM感知方法研究", 《中国优秀硕士学位论文全文数据库》, pages 1 - 58 * |
韩轾: "基于ROS的室内移动服务机器人定位与导航系统的研究与开发", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111337947B (zh) * | 2020-05-18 | 2020-09-22 | 深圳市智绘科技有限公司 | 即时建图与定位方法、装置、系统及存储介质 |
CN111337947A (zh) * | 2020-05-18 | 2020-06-26 | 深圳市智绘科技有限公司 | 即时建图与定位方法、装置、系统及存储介质 |
CN111652174B (zh) * | 2020-06-10 | 2024-01-23 | 北京云迹科技股份有限公司 | 一种基于激光数据的语义化标定方法及装置 |
CN111652174A (zh) * | 2020-06-10 | 2020-09-11 | 北京云迹科技有限公司 | 一种基于激光数据的语义化标定方法及装置 |
CN111947647A (zh) * | 2020-08-26 | 2020-11-17 | 四川阿泰因机器人智能装备有限公司 | 一种视觉与激光雷达融合的机器人精准定位方法 |
CN111947647B (zh) * | 2020-08-26 | 2024-05-17 | 四川阿泰因机器人智能装备有限公司 | 一种视觉与激光雷达融合的机器人精准定位方法 |
CN112859873A (zh) * | 2021-01-25 | 2021-05-28 | 山东亚历山大智能科技有限公司 | 一种基于语义激光的移动机器人多级避障系统及方法 |
AU2021266203B2 (en) * | 2021-01-25 | 2023-01-19 | Shandong Alesmart Intelligent Technology Co., Ltd. | Semantic laser-based multilevel obstacle avoidance system and method for mobile robot |
CN113052903A (zh) * | 2021-03-17 | 2021-06-29 | 浙江大学 | 一种用于移动机器人的视觉与雷达融合定位方法 |
CN113052903B (zh) * | 2021-03-17 | 2023-03-10 | 浙江大学 | 一种用于移动机器人的视觉与雷达融合定位方法 |
CN113358112A (zh) * | 2021-06-03 | 2021-09-07 | 北京超星未来科技有限公司 | 一种地图构建方法及一种激光惯性里程计 |
CN113821040A (zh) * | 2021-09-28 | 2021-12-21 | 中通服创立信息科技有限责任公司 | 一种深度视觉相机与激光雷达融合导航的机器人 |
CN114397638A (zh) * | 2022-01-22 | 2022-04-26 | 深圳市神州云海智能科技有限公司 | 一种激光雷达数据中动态数据的过滤方法及系统 |
WO2024066980A1 (zh) * | 2022-09-26 | 2024-04-04 | 华为云计算技术有限公司 | 一种重定位方法以及装置 |
CN116740662B (zh) * | 2023-08-15 | 2023-11-21 | 贵州中南锦天科技有限责任公司 | 一种基于激光雷达的车轴识别方法及系统 |
CN116740662A (zh) * | 2023-08-15 | 2023-09-12 | 贵州中南锦天科技有限责任公司 | 一种基于激光雷达的车轴识别方法及系统 |
CN117148378A (zh) * | 2023-08-30 | 2023-12-01 | 上海频准激光科技有限公司 | 一种基于激光器的光学成像系统 |
CN117148378B (zh) * | 2023-08-30 | 2024-05-10 | 上海频准激光科技有限公司 | 一种基于激光器的光学成像系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111105495A (zh) | 一种融合视觉语义信息的激光雷达建图方法及系统 | |
CN111563442B (zh) | 基于激光雷达的点云和相机图像数据融合的slam方法及系统 | |
JP6866441B2 (ja) | 3次元シーンマップの生成方法、生成装置、機器および記憶媒体 | |
US11514644B2 (en) | Automated roof surface measurement from combined aerial LiDAR data and imagery | |
CN111402336B (zh) | 基于语义slam的动态环境相机位姿估计及语义地图构建方法 | |
CN109785337B (zh) | 一种基于实例分割算法的栏内哺乳动物清点方法 | |
CN109460267B (zh) | 移动机器人离线地图保存与实时重定位方法 | |
CN112785643A (zh) | 一种基于机器人平台的室内墙角二维语义地图构建方法 | |
CN112347550A (zh) | 耦合式室内三维语义建图及建模方法 | |
CN113435282B (zh) | 基于深度学习的无人机影像麦穗识别方法 | |
Guo et al. | Evaluation-oriented façade defects detection using rule-based deep learning method | |
CN110046677B (zh) | 数据预处理方法、地图构建方法、回环检测方法及系统 | |
CN107808524A (zh) | 一种基于无人机的道路交叉口车辆检测方法 | |
CN115810133B (zh) | 基于图像处理和点云处理的焊接控制方法及相关设备 | |
CN113916130A (zh) | 一种基于最小二乘法的建筑物位置测量方法 | |
CN115496792A (zh) | 基于人在环优化的点云语义slam的方法、系统及装置 | |
CN111709988A (zh) | 一种物体的特征信息的确定方法、装置、电子设备及存储介质 | |
Pal et al. | Activity-level construction progress monitoring through semantic segmentation of 3D-informed orthographic images | |
Skinner et al. | The probabilistic object detection challenge | |
CN112381873A (zh) | 一种数据标注方法及装置 | |
Tallavajhula | Lidar Simulation for Robotic Application Development: Modeling and Evaluation. | |
Lu | Construction of the 3D reconstruction system of building construction scene based on deep learning | |
Dierenbach et al. | Next-Best-View method based on consecutive evaluation of topological relations | |
CN113835428A (zh) | 一种用于餐厅的机器人路径规划方法 | |
JP6991958B2 (ja) | オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |