CN108597009B - 一种基于方向角信息进行三维目标检测的方法 - Google Patents
一种基于方向角信息进行三维目标检测的方法 Download PDFInfo
- Publication number
- CN108597009B CN108597009B CN201810314274.6A CN201810314274A CN108597009B CN 108597009 B CN108597009 B CN 108597009B CN 201810314274 A CN201810314274 A CN 201810314274A CN 108597009 B CN108597009 B CN 108597009B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- direction angle
- coordinate system
- point
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于方向角信息进行三维目标检测的方法,其包括以下步骤:通过Depth‑RCNN对RGB‑D相机采集到的彩色图像和深度图像进行特征融合并经过支持向量机分类,得到2.5维检测框和对应的二维分割实例图;在得到的二维分割实例图上选取p1、p2、p3三个点,并根据限制条件进行优化;通过二维到三维的点云重建计算所提取的三个点在三维坐标系中的坐标确定初始化三维框的方向角;根据融合后的特征对初始化三维框进行回归。本发明通过深度信息与方向角信息的融合利用,在保证三维框的中心和长宽高的准确率同时提高了方向角估计的准确率,为提高三维目标的检测精度奠定了基础。
Description
技术领域
本发明是涉及一种基于方向角信息进行三维目标检测的方法,属于计算机视觉与图像处理技术领域。
背景技术
目标检测是指利用图像处理、模式识别、人工智能等技术,通过提取场景目标的不同特征信息,对相应目标进行检测,它是计算机视觉和图像处理的一个重要分支。传统的目标检测方法的研究大多仅基于RGB相机获取的二维光学图像,而现实世界是一个三维世界,当涉及到机器人导航、机器人避障、自动驾驶等应用场景时,二维检测由于缺少深度信息,无法提供目标在三维场景下的位置、大小、方向的原因而受到限制。因此,结合深度信息进行三维目标的检测显得十分重要。
现有的三维检测分为基于2.5维信息和3维信息的两类检测方法,其中2.5维的方法是通过卷积网络分别提取颜色信息和深度信息特征或将深度信息编码为彩色信息的额外通道,然后建立模型将二维信息的结果转换到三维空间,如:Amodal3Det[1]算法,根据先验几何信息对三维框进行中心点和长宽高的初始化,并通过从卷积神经网络中提取的颜色信息和深度信息回归初始化三维框,由于该方法缺少对三维信息的数据利用,以致基于2.5维信息的检测方法均将方向角信息直接初始化为0,而从实验结果分析,在三维框的中心点和长宽高较为准确的情况下,误差较大的方向角信息将影响检测的准确率。另外,现有的基于3维信息的检测方法则注重于直接对三维信息的利用,如:Song[2]等在传统2维滑动窗的基础上提出一种新的3维滑动窗,以用于对点云空间中的目标特征进行手工提取,并输入支持向量机中进行分类,由于深度信息的噪声和稀疏性问题,导致该类方法的检测精度不高,以致局限了其在高精度领域(如:机器人导航、机器人避障、自动驾驶)的应用。
发明内容
针对现有技术存在的上述问题,本发明的目的是提供一种基于方向角信息进行三维目标检测的方法,以解决基于2.5维信息进行三维目标检测的方法中所存在的方向角信息未得到充分利用的问题,为提高三维目标的检测精度奠定基础。
为实现上述目的,本发明采用的技术方案如下:
一种基于方向角信息进行三维目标检测的方法,包括以下步骤:
S1:通过Depth-RCNN对RGB-D相机采集到的彩色图像和深度图像进行特征融合并经过支持向量机分类,得到2.5维检测框和对应的二维分割实例图;
S2:在得到的二维分割实例图上选取p1、p2、p3三个点,并根据排除不确定点、增加计算信息、修正误判点3个限制条件对p1、p2、p3三个点的信息进行优化;
S3:通过二维到三维的点云重建计算所提取的三个点在三维坐标系中的坐标,根据三个点的坐标确定方向角θ,并将该方向角θ作为初始化三维框的方向角;
S4:将彩色图像和深度图像分别通过VGG-16计算特征图,再通过二维候选框和上下文信息候选框从ROI pooling层中提取特征进行通道融合,并根据融合后的特征对初始化三维框进行回归。
进一步说,步骤S1中得到2.5维检测框的步骤是:先对RGB-D相机采集到的彩色图像和深度图像进行边缘检测,再通过MCG算法利用边缘检测的信息生成2.5维检测框。
进一步说,步骤S2选取的p1、p2、p3三个点分别为二维分割实例图中的:c最小中r最大的点、r最大中c最小的点、c最大中r最大的点,其中的r、c分别代表二维分割实例图中像素点的行值或列值。
进一步说,排除不确定点是针对目标在图片中显示不全的情况所设置的条件,即:通过对p1、p2、p3三个点的行、列值进行判断,若找到的三个点中存在两个点的行值与图片的横向尺寸值相同,或列值与图片的纵向尺寸值相同,则将方向角度初始化为0,不做方向角估计,以避免误差较大的方向角估计影响检测精度。
进一步说,增加计算信息是指对长边也进行方向角计算,并根据长边与短边垂直的关系,对长边计算的方向角进行转换后与短边计算的方向角进行均值计算,以提高深度信息的利用率,保证算法的鲁棒性;所述的长边和短边是根据p1点到p2点、p2点到p3点在三维空间中的距离长短进行的定义,且短边相对Z轴的方向角定义为所求的方向角θ。
进一步说,修正误判点是针对步骤S2提取的p1、p2、p3三个点没能准确代表目标与接触面的方向角情况所设置的优化条件,对理想情况而言,在长边和短边线段向行值更大的方向中不存在目标物体的像素点,而对特殊形状的目标在长边和短边线段向行值更大的方向中存在目标物体的像素点。
进一步说,将二维坐标系下的p1、p2、p3点转换到三维坐标系下的P1、P2、P3点的具体步骤如下:
a)将图像坐标系下的p(x,y)分别对应到相机坐标系下的P(XC,YC,ZC),即:
其中:(Ox,Oy)、f分别为相机内参的中心点和焦距;
b)将点云方向与重力方向对齐,即:定义一个不对Y轴做任何旋转计算且通过相机坐标系与旋转矩阵计算得到的坐标系为旋转坐标系,这个过程中物体不发生形变,仅做了旋转运动,即:
Rtilt=RX·RZ
其中:Rtilt代表旋转坐标系和相机坐标系之间的转换矩阵,RX和RZ分别代表X轴和Z轴的旋转矩阵;至此,得到旋转坐标系下的P1、P2、P3点。
进一步说,步骤S4所述的初始化三维框表示为[XC,YC,ZC,l,w,h,θ],其中:[XC,YC,ZC]是相机坐标系下三维框的中心点,[l,w,h]是倾斜坐标系下三维框的长宽高,这六个向量均由训练数据中目标的标签均值所确定,θ为步骤S3中所求的初始化方向角。
与现有技术相比,本发明具有如下有益效果:
本发明提供的一种基于方向角信息进行三维目标检测的方法,可解决基于2.5维信息进行三维目标检测的方法中所存在的方向角信息未得到充分利用的问题,通过深度信息与方向角信息的融合利用,在保证三维框的中心和长宽高的准确率同时提高了方向角估计的准确率,为提高三维目标的检测精度奠定了基础。
附图说明
图1为本发明实施例提供的方向角信息提取过程示意图。
具体实施方式
以下结合附图和实施例对本发明的技术方案做进一步详细描述。
实施例
本实施例提供的一种基于方向角信息进行三维目标检测的方法,包括以下步骤:
S1:通过Depth-RCNN对RGB-D相机采集到的彩色图像和深度图像进行特征融合并经过支持向量机分类,得到2.5维检测框和对应的二维分割实例图;
S2:在得到的二维分割实例图上选取p1、p2、p3三个点,并根据排除不确定点、增加计算信息、修正误判点3个限制条件对p1、p2、p3三个点的信息进行优化;
S3:通过二维到三维的点云重建计算所提取的三个点在三维坐标系中的坐标,根据三个点的坐标确定方向角θ,并将该方向角θ作为初始化三维框的方向角;
S4:将彩色图像和深度图像分别通过VGG-16计算特征图,再通过二维候选框和上下文信息候选框从ROI pooling层中提取特征进行通道融合,并根据融合后的特征对初始化三维框进行回归。
步骤S1中得到2.5维检测框的步骤是:先对RGB-D相机采集到的彩色图像和深度图像进行边缘检测,再通过MCG算法利用边缘检测的信息生成2.5维检测框。
步骤S2选取的p1、p2、p3三个点分别为二维分割实例图中的:c最小中r最大的点、r最大中c最小的点、c最大中r最大的点,其中的r、c分别代表二维分割实例图中像素点的行值或列值。
步骤S2中所述的排除不确定点是针对目标在图片中显示不全的情况所设置的条件,即:通过对p1、p2、p3三个点的行、列值进行判断,若找到的三个点中存在两个点的行值与图片的横向尺寸值相同,或列值与图片的纵向尺寸值相同,则将方向角度初始化为0,不做方向角估计,以避免误差较大的方向角估计影响检测精度。
步骤S2中所述的增加计算信息是指对长边也进行方向角计算,并根据长边与短边垂直的关系,对长边计算的方向角进行转换后与短边计算的方向角进行均值计算,以提高深度信息的利用率,保证算法的鲁棒性;所述的长边和短边是根据p1点到p2点、p2点到p3点在三维空间中的距离长短进行的定义,且短边相对Z轴的方向角定义为所求的方向角θ。
修正误判点是针对步骤S2提取的p1、p2、p3三个点没能准确代表目标与接触面的方向角情况所设置的优化条件,对理想情况而言,在长边和短边线段向行值更大的方向中不存在目标物体的像素点,而对特殊形状的目标在长边和短边线段向行值更大的方向中存在目标物体的像素点;以步骤S2提取的p2、p3点为例,若Cthreshold范围中行值最大的像素点pmax存在条件:
C2<Cthreshold<C3
其中:C2和C3分别代表p2点和p3点的列值;并分别对p2和pmax、p2和p3做正切计算得到θ1和θ2,若θ1小于θ2,则说明pmax点在线段向行值更大的方向中,即将pmax点作为p3点。
进一步说,将二维坐标系下的p1、p2、p3点转换到三维坐标系下的P1、P2、P3点的具体步骤如下:
a)将图像坐标系下的p(x,y)分别对应到相机坐标系下的P(XC,YC,ZC),即:
其中:(Ox,Oy)、f分别为相机内参的中心点和焦距;
b)将点云方向与重力方向对齐,即:定义一个不对Y轴做任何旋转计算且通过相机坐标系与旋转矩阵计算得到的坐标系为旋转坐标系,这个过程中物体不发生形变,仅做了旋转运动,即:
Rtilt=RX·RZ
其中:Rtilt代表旋转坐标系和相机坐标系之间的转换矩阵,RX和RZ分别代表X轴和Z轴的旋转矩阵;至此,得到旋转坐标系下的P1、P2、P3点。
进一步说,步骤S4所述的初始化三维框表示为[XC,YC,ZC,l,w,h,θ],其中:[XC,YC,ZC]是相机坐标系下三维框的中心点,[l,w,h]是倾斜坐标系下三维框的长宽高,这六个向量均由训练数据中目标的标签均值所确定,θ为步骤S3中所求的初始化方向角。
最后有必要在此指出的是:以上所述仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。
Claims (8)
1.一种基于方向角信息进行三维目标检测的方法,其特征在于,包括以下步骤:
S1:通过Depth-RCNN对RGB-D相机采集到的彩色图像和深度图像进行特征融合并经过支持向量机分类,得到2.5维检测框和对应的二维分割实例图;
S2:在得到的二维分割实例图上选取p1、p2、p3三个点,并根据排除不确定点、增加计算信息、修正误判点3个限制条件对p1、p2、p3三个点的信息进行优化;
S3:通过二维到三维的点云重建计算所提取的三个点在三维坐标系中的坐标,根据三个点的坐标确定方向角θ,并将该方向角θ作为初始化三维框的方向角;
S4:将彩色图像和深度图像分别通过VGG-16计算特征图,再通过二维候选框和上下文信息候选框从ROI pooling层中提取特征进行通道融合,并根据融合后的特征对初始化三维框进行回归。
2.根据权利要求1所述的方法,其特征在于,步骤S1中得到2.5维检测框的步骤是:先对RGB-D相机采集到的彩色图像和深度图像进行边缘检测,再通过MCG算法利用边缘检测的信息生成2.5维检测框。
3.根据权利要求1所述的方法,其特征在于,步骤S2选取的p1、p2、p3三个点分别为二维分割实例图中的:c最小中r最大的点、r最大中c最小的点、c最大中r最大的点,其中的r、c分别代表二维分割实例图中像素点的行值和列值。
4.根据权利要求1所述的方法,其特征在于:步骤S2中所述的排除不确定点是针对目标在图片中显示不全的情况所设置的条件,即:通过对p1、p2、p3三个点的行、列值进行判断,若找到的三个点中存在两个点的行值与图片的横向尺寸值相同,或列值与图片的纵向尺寸值相同,则将方向角度初始化为0,不做方向角估计。
5.根据权利要求1所述的方法,其特征在于:步骤S2中所述的增加计算信息是指对长边也进行方向角计算,并根据长边与短边垂直的关系,对长边计算的方向角进行转换后与短边计算的方向角进行均值计算;所述的长边和短边是根据p1点到p2点、p2点到p3点在三维空间中的距离长短进行的定义,且短边相对Z轴的方向角定义为所求的方向角θ。
6.根据权利要求1所述的方法,其特征在于:步骤S2中所述的修正误判点是针对步骤S2提取的p1、p2、p3三个点没能准确代表目标与接触面的方向角情况所设置的优化条件。
7.根据权利要求1所述的方法,其特征在于,将二维坐标系下的p1、p2、p3点转换到三维坐标系下的P1、P2、P3点的具体步骤如下:
a)将图像坐标系下的p(x,y)分别对应到相机坐标系下的P(XC,YC,ZC),即:
其中:(Ox,Oy)、f分别为相机内参的中心点和焦距;
b)将点云方向与重力方向对齐,即:定义一个不对Y轴做任何旋转计算且通过相机坐标系与旋转矩阵计算得到的坐标系为旋转坐标系,这个过程中物体不发生形变,仅做了旋转运动,即:
Rtilt=RX·RZ
其中:Rtilt代表旋转坐标系和相机坐标系之间的转换矩阵,RX和RZ分别代表X轴和Z轴的旋转矩阵;至此,得到旋转坐标系下的P1、P2、P3点。
8.根据权利要求1所述的方法,其特征在于:步骤S4所述的初始化三维框表示为[XC,YC,ZC,l,w,h,θ],其中:[XC,YC,ZC]是相机坐标系下三维框的中心点,[l,w,h]是倾斜坐标系下三维框的长宽高,这六个向量均由训练数据中目标的标签均值所确定,θ为步骤S3中所求的初始化方向角。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810314274.6A CN108597009B (zh) | 2018-04-10 | 2018-04-10 | 一种基于方向角信息进行三维目标检测的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810314274.6A CN108597009B (zh) | 2018-04-10 | 2018-04-10 | 一种基于方向角信息进行三维目标检测的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108597009A CN108597009A (zh) | 2018-09-28 |
CN108597009B true CN108597009B (zh) | 2022-03-25 |
Family
ID=63621445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810314274.6A Active CN108597009B (zh) | 2018-04-10 | 2018-04-10 | 一种基于方向角信息进行三维目标检测的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108597009B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109598268B (zh) * | 2018-11-23 | 2021-08-17 | 安徽大学 | 一种基于单流深度网络的rgb-d显著目标检测方法 |
CN109785298B (zh) * | 2018-12-25 | 2021-03-05 | 中国科学院计算技术研究所 | 一种多角度物体检测方法和系统 |
CN110110722A (zh) * | 2019-04-30 | 2019-08-09 | 广州华工邦元信息技术有限公司 | 一种基于深度学习模型识别结果的区域检测修正方法 |
CN110490917A (zh) * | 2019-08-12 | 2019-11-22 | 北京影谱科技股份有限公司 | 三维重建方法及装置 |
CN110706288A (zh) * | 2019-10-10 | 2020-01-17 | 上海眼控科技股份有限公司 | 目标检测的方法、装置、设备及可读存储介质 |
CN111179269B (zh) * | 2019-11-11 | 2023-07-11 | 浙江工业大学 | 一种基于多视图和三维卷积融合策略的pet图像分割方法 |
CN112419385B (zh) * | 2021-01-25 | 2021-04-09 | 国汽智控(北京)科技有限公司 | 一种3d深度信息估计方法、装置及计算机设备 |
CN112926395A (zh) * | 2021-01-27 | 2021-06-08 | 上海商汤临港智能科技有限公司 | 目标检测方法、装置、计算机设备及存储介质 |
CN113984037B (zh) * | 2021-09-30 | 2023-09-12 | 电子科技大学长三角研究院(湖州) | 一种基于任意方向目标候选框的语义地图构建方法 |
CN115829898B (zh) * | 2023-02-24 | 2023-06-02 | 北京百度网讯科技有限公司 | 数据处理方法、装置、电子设备、介质以及自动驾驶车辆 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102194235A (zh) * | 2010-03-16 | 2011-09-21 | 北京中星微电子有限公司 | 基于梯度方向角的运动检测系统及方法 |
US8149268B1 (en) * | 2010-11-05 | 2012-04-03 | The United States Of America As Represented By The Secretary Of The Army | System and method for determining three-dimensional information from two-dimensional images |
CN104951808A (zh) * | 2015-07-10 | 2015-09-30 | 电子科技大学 | 一种用于机器人交互对象检测的3d视线方向估计方法 |
CN105136064A (zh) * | 2015-09-13 | 2015-12-09 | 维希艾信息科技(无锡)有限公司 | 一种运动目标三维尺寸检测系统及其方法 |
CN106530328A (zh) * | 2016-11-04 | 2017-03-22 | 深圳维周机器人科技有限公司 | 一种基于视频图像对运动目标检测和平滑跟随的方法 |
CN107845134A (zh) * | 2017-11-10 | 2018-03-27 | 浙江大学 | 一种基于彩色深度相机的单个物体的三维重建方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9996936B2 (en) * | 2016-05-20 | 2018-06-12 | Qualcomm Incorporated | Predictor-corrector based pose detection |
-
2018
- 2018-04-10 CN CN201810314274.6A patent/CN108597009B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102194235A (zh) * | 2010-03-16 | 2011-09-21 | 北京中星微电子有限公司 | 基于梯度方向角的运动检测系统及方法 |
US8149268B1 (en) * | 2010-11-05 | 2012-04-03 | The United States Of America As Represented By The Secretary Of The Army | System and method for determining three-dimensional information from two-dimensional images |
CN104951808A (zh) * | 2015-07-10 | 2015-09-30 | 电子科技大学 | 一种用于机器人交互对象检测的3d视线方向估计方法 |
CN105136064A (zh) * | 2015-09-13 | 2015-12-09 | 维希艾信息科技(无锡)有限公司 | 一种运动目标三维尺寸检测系统及其方法 |
CN106530328A (zh) * | 2016-11-04 | 2017-03-22 | 深圳维周机器人科技有限公司 | 一种基于视频图像对运动目标检测和平滑跟随的方法 |
CN107845134A (zh) * | 2017-11-10 | 2018-03-27 | 浙江大学 | 一种基于彩色深度相机的单个物体的三维重建方法 |
Non-Patent Citations (2)
Title |
---|
"Extending generalized hough transform to detect 3D objects in laser range data";K Khoshelham;《ISPRS Workshop on Laser Scanning 2007 and SilviLaser 2007》;20070914;page205-210 * |
"多运动目标检测跟踪与定位算法研究";沈彤;《中国优秀硕士学位论文全文数据库(电子期刊)多运动目标检测跟踪与定位算法研究》;20170315;I138-4078 * |
Also Published As
Publication number | Publication date |
---|---|
CN108597009A (zh) | 2018-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108597009B (zh) | 一种基于方向角信息进行三维目标检测的方法 | |
CN110569704B (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
CN111311679B (zh) | 一种基于深度相机的自由漂浮目标位姿估计方法 | |
CN111721259B (zh) | 基于双目视觉的水下机器人回收定位方法 | |
CN108470356B (zh) | 一种基于双目视觉的目标对象快速测距方法 | |
CN107862735B (zh) | 一种基于结构信息的rgbd三维场景重建方法 | |
EP2887315B1 (en) | Camera calibration device, method for implementing calibration, program and camera for movable body | |
CN112037159B (zh) | 一种跨相机道路空间融合及车辆目标检测跟踪方法及系统 | |
CN112801074B (zh) | 一种基于交通摄像头的深度图估计方法 | |
CN111784655B (zh) | 一种水下机器人回收定位方法 | |
CN113393524B (zh) | 一种结合深度学习和轮廓点云重建的目标位姿估计方法 | |
CN104636724B (zh) | 一种基于目标一致性的车载相机快速行人车辆检测方法 | |
CN110021029B (zh) | 一种适用于rgbd-slam的实时动态配准方法及存储介质 | |
CN109917359B (zh) | 基于车载单目视觉的鲁棒车辆距离估计方法 | |
CN116468786B (zh) | 一种面向动态环境的基于点线联合的语义slam方法 | |
CN113884002A (zh) | 基于二三维信息融合的受电弓滑板上表面检测系统及方法 | |
CN107944350B (zh) | 一种基于外观和几何信息融合的单目视觉道路识别方法 | |
CN112257721A (zh) | 一种基于Fast ICP的图像目标区域匹配方法 | |
CN113487631A (zh) | 基于lego-loam的可调式大角度探测感知及控制方法 | |
CN116883590A (zh) | 一种三维人脸点云优化方法、介质及系统 | |
CN113221739B (zh) | 基于单目视觉的车距测量方法 | |
CN117541537B (zh) | 基于全景点云融合技术的时空差异检测方法及其系统 | |
CN117611525A (zh) | 一种受电弓滑板磨耗视觉检测方法和系统 | |
CN113409242A (zh) | 一种轨交弓网点云智能监测方法 | |
CN113743265B (zh) | 一种基于深度相机的自动驾驶可行驶区域检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |