CN111461048B - 基于视觉的停车场可行驶区域检测与局部地图构建方法 - Google Patents
基于视觉的停车场可行驶区域检测与局部地图构建方法 Download PDFInfo
- Publication number
- CN111461048B CN111461048B CN202010282798.9A CN202010282798A CN111461048B CN 111461048 B CN111461048 B CN 111461048B CN 202010282798 A CN202010282798 A CN 202010282798A CN 111461048 B CN111461048 B CN 111461048B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- boundary
- image
- area
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 31
- 238000010276 construction Methods 0.000 title claims abstract description 18
- 238000013507 mapping Methods 0.000 claims abstract description 22
- 230000000007 visual effect Effects 0.000 claims abstract description 19
- 230000011218 segmentation Effects 0.000 claims abstract description 8
- 238000002372 labelling Methods 0.000 claims abstract description 5
- 238000012549 training Methods 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 13
- 238000005070 sampling Methods 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 2
- 238000004806 packaging method and process Methods 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了基于视觉的停车场可行驶区域检测与局部地图构建方法,包括以下步骤:S1.采集停车场图像数据集;S2.像素级标注图像数据集的可行使区域;S3.使用语义分割网络对数据集进行训练,得到最佳模型参数;S4.输入一段新的视频流,得到可行驶区域的检测结果;S5.把检测结果反投影到地面,得到可行使边界点云;S6.把可行使边界点云B模拟成激光数据;S7.结合里程计和带有滑动窗口的gmapping算法构建局部栅格地图。本发明由神经网络训练出可行驶区域边界,并把边界模拟成激光点云,使用滑窗gmapping算法构建栅格地图,实现了地面平整的情况下,仅依靠单目相机对栅格地图的构建。
Description
技术领域
本发明涉及机器人建图领域,更具体地,涉及基于视觉的停车场可行驶区域检测与局部地图构建方法。
背景技术
随着科学技术的日新月异,智能出行越来越成为人们的生活方式,传统的汽车不具有智能的特点,需要人工完成超车,变道,避障等操作,不仅仅对驾驶员本身的技能要求较高,也极大降低了出行效率和乘坐的舒适感。最新的智能汽车如Tesla Model 3可完成自主变道,远程召唤,自动泊车等操作,Audi A8作为一款L3级别的智能汽车可实现复杂路段自主超车与拥堵路段自主行驶等功能,这些厂商的智能汽车虽然实现了部分自动驾驶的功能,但都依靠了昂贵的传感器,如三维激光雷达等(大疆推出最新自动驾驶激光雷达技术[J].中国安防,2020(Z1):71.)。为了应对室内停车场的场景,使用简单便捷的传感器实现停车场局部栅格地图的构建,在局部栅格地图的基础上,便能够实现局部路径规划与避障,进而实现自主泊车等功能。
地下停车场环境有其特殊性,光照稳定,不会对视觉传感器的正常工作造成影响;小范围内地面起伏不大,这使得纯视觉建立局部栅格地图成为了可能;地下停车场GPS信号弱,无法进行准确定位;大部分智能汽车都使用了三位激光雷达作为传感器进行静态物体检测和定位建图,超声波或者毫米波传感器对动态物体进行检测,视觉传感器对道路进行识别。由于三维激光雷达太过昂贵,短时间内制作成本无法降低,因此极大限制了智能汽车的普及。随着神经网络研究的突飞猛进,特别是GoogleNet(Szegedy C,Liu W,Jia Y,etal.Going Deeper with Convolutions[J].2014.)的提出,使得可行使区域的检测也越来越准确和稳定(基于图像语义分割的车辆可行驶区域识别方法研究[D].华南理工大学,2019.),这使得在可行驶区域的基础上建立栅格地图成为了可能,虽然这种局部栅格地图的精度无法与三维激光雷达的结果相媲美,但仍可实现局部建图和局部路径规划,为使用纯视觉建立栅格地图提供了一种思路。
发明内容
本发明的目的是在节省成本且保证可靠的前提下,提供了一种基于视觉的停车场可行驶区域检测与局部地图构建方法。使用视觉传感器实时采集图像数据,并接入可行驶区域检测网络进行可行驶区域识别,并把识别的结果反投影成视觉点云,进而转换成激光点云,使用滑窗gmapping算法进行局部栅格地图的构建。
本发明至少通过如下技术方案之一实现。
基于视觉的停车场可行驶区域检测与局部地图构建方法,包括以下步骤:
S1.采集地下停车场图像数据集;通过搭载在车身的视觉传感器不断采集地下停车场场景数据,形成图像数据集,设每一张图像分别率均为w*h,w是图像宽度,h是图像高度;
S2.像素级标注图像数据集的可行使区域;
S3.使用语义分割网络对带有标注的图像数据集进行训练,得到最佳模型参数;
S4.车辆采集一段新的视频流,输入训练好的网络模型,得到可行使区域的检测结果,并以像素坐标集合的形式保存可行使区域边界P,在边界P上选取横坐标每隔n个像素单位的像素坐标保存成新的边界Q;
S5.将新的边界Q反投影到地面,得到可行使边界点云B;
S6.把可行使边界点云B模拟成激光数据;
S7.结合里程计和滑窗gmapping(sliding-window grid mapping)算法构建局部栅格地图。里程计信息在短时间内数据准确,可以提供较精确的位姿信息,滑窗gmapping算法包含一个滑动窗口,丢弃满足超出一定时空阈值的地图数据,并实时更新地图,从而得到局部栅格地图。
进一步地,所述数据集场景包括车辆静止、车辆匀速运动、车辆跟随前车、行人经过和不明动态物体闯入的情况,数据集大小为100K张。
进一步地,可行驶区域采用一个封闭的凸多边形包络,凸多边形边界标注方式如下:
图像坐标系中,边界直线每个像素的x坐标只有一个y坐标与其对应,外加边界直线垂直x轴的情况;凸多边形边界从图像左下角开始沿顺时针标注,终点也为图像左下角点,从而形成一个封闭的凸多边形,凸多边形所包围的区域即为可行使区域,该区域内包含车辆能够行驶过的物体和区域,不包含车辆无法跨越的障碍物。
进一步地,步骤S3中所述语义分割网络包括编码网络和解码网络,编码网络包括5层编码模块,解码网络包括4层解码模块,每个编码模块的输出与特征图尺寸相对应的解码模块的输出相连接,每层解码模块都共享对应编码模块学习的图像特征。
进一步地,所述编码网络采用图像分类网络GoogleLeNet作为整体架构;最后一个编码模块的输出使用卷积转置模块(Transposed Convolution)进行上采样完成解码,解码的最终结果即为与原输入图像相同尺寸的特征图。
进一步地,所述解码模块采用转置卷积方式进行上采样,解码模块包括两个1×1卷积层和一个3×3的转置卷积层,卷积转置层的上采样系数为2,特征图每经过一个解码模块,图像扩大一倍。
进一步地,步骤S4所述的检测结果是一个凸多边形区域,在凸多边形边界上选取横坐标每隔n个像素单位保存像素坐标,保存的像素坐标个数为w/n。
进一步地,步骤S5所述的反投影过程如下
设车载相机距离水平地面高度为H,相机水平安装,相机内参矩阵为K,可行使区域边界Pi(xi,yi)与地面对应点Bi(Xi,Yi,Zi),其中,i=1,2,…w/n,投影关系为:
其中,si为第i个像素点的深度深度,fx,fy,u0,v0是相机内参,已知Xi=H,有:
进一步地,步骤S6先把可行使边界点云B转换成pcl(Point Cloud Librar,pcl)格式的点云即pcl点云,然后将pcl点云转换成ros(Robot Operating System,ros)格式的视觉点云,再将ros视觉点云转换成模拟激光点云,并将模拟激光点云数据封装成话题(topic)对外发布;
所述把可行使边界点云B模拟成激光数据的过程如下:
假设相机水平FOV(Field Of Vision)为fov,则激光雷达测量范围为[θmin,θmax],其中:
激光雷达角度增量:
扫描频率设置为50Hz~100Hz;
所述模拟激光点云range的计算方式为:
其中,ρi是相机光心到模拟激光点云边界Bi的距离,ρmin为最小检测距离,fhov为相机的垂直视场角,ρmax为最大检测距离,由实际路面情况决定;
由于距离相机越远,地面水平这一条件越难以满足,测量误差越大,因此,最远距离设置为100m~200m。
进一步地,步骤S7中所述的滑窗gmapping(sliding-window grid mapping)算法是在原有的gmapping算法上删除对原有里程计位姿校正过程,并增大地图更新频率,调整概率栅格置信度以适应动态物体场景,同时在原有的gmapping算法上增加地图滑动窗口,保持地图尺寸不变,丢弃时间大于tth=3分钟,距离大于sth=300m的激光数据帧对地图的贡献。
与现有技术相比,本发明技术方案的有益效果是:
1.仅使用纯视觉的方式实现了地下停车场可行驶区域检测和局部栅格地图的构建,减少了对高成本传感器的依赖。
2.局部栅格地图可用于地下停车场的局部路径规划和避障,提高了智能驾驶的效率和舒适性。
附图说明
图1为本实施例的流程图;
图2为本实施例的凸多边形标注示意图;
图3为本实施例可行驶区域检测网络结构图;
图4为本实施例解码模块示意图;
图5为本实施例反投影过程示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本发明的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。下面结合附图和实施例对本发明的技术方案做进一步的说明。
如图1所示,基于视觉的停车场可行驶区域检测与局部地图构建方法,包括以下步骤:
S1.采集地下停车场图像数据集;通过搭载在车身的视觉传感器不断采集地下停车场场景数据,形成图像数据集,设每一张图像分别率均为w*h,w是图像宽度,h是图像高度;
数据集场景包括车辆静止、车辆匀速运动、车辆跟随前车、行人经过和不明动态物体闯入等情况,数据集大小为100K张;
S2.像素级标注图像数据集的可行使区域;
可行驶区域采用一个封闭的凸多边形包络,凸多边形边界标注方式如下,图像坐标系中,边界直线每个像素的x坐标只有一个y坐标与其对应,外加边界直线垂直x轴的情况,如图2所示;凸多边形边界从图像左下角开始沿顺时针标注,终点也为图像左下角点,从而形成一个封闭的凸多边形,凸多边形所包围的区域即为可行使区域,该区域内包含车辆能够行驶过的物体和区域,不包含车辆无法跨越的障碍物。
S3.使用语义分割网络对带有标注的图像数据集进行训练,得到最佳模型参数;
如图3所示,语义分割网络由编码网络和解码网络组成,编码网络含有5层编码模块,解码网络含有4层解码模块,每个编码模块的输出与特征图尺寸相对应的解码模块的输出相连接,每层解码模块都共享对应编码模块学习的图像特征。
编码网络采用图像分类网络GoogleLeNet作为整体架构;最后一个编码模块的输出使用卷积转置模块(Transposed Convolution)进行上采样完成解码,解码的最终结果即为与原输入图像相同尺寸的特征图。
如图4所示,解码网络采用转置卷积(Transposed Convolution)方式进行上采样,解码网络包括两个1×1卷积层和一个3×3的转置卷积层;卷积转置层的上采样系数为2,特征图每经过一个解码模块,图像扩大一倍。
S4.车辆采集一段新的视频流,输入训练好的网络模型,得到可行使区域的检测结果,并以像素坐标集合的形式保存可行使区域边界P,在边界P上选取横坐标每隔n个像素单位的像素坐标保存成新的边界Q;
S5.将新的边界Q反投影到地面,得到可行使边界点云B;
反投影过程如下:
如图5所示,X、Y、Z代表相机坐标,设车载相机距离水平地面高度为H,相机水平安装,相机内参矩阵为K,可行使区域边界Pi(xi,yi)与地面对应点Bi(Xi,Yi,Zi),其中,i=1,2,…w/n。投影关系为:
其中,si为第i个像素点的深度深度,fx,fy,u0,v0是相机内参,已知Xi=H,有:
S6.把可行使边界点云B模拟成激光数据;本方法先把可行使边界点云B转换成pcl(Point Cloud Librar,pcl)格式的点云(以下简称pcl点云),然后将pcl点云转换成ros(Robot Operating System,ros)格式的视觉点云,再将ros视觉点云转换成模拟激光点云,并将模拟激光点云数据封装成话题(topic)对外发布;
视觉点云转换成模拟激光点云的过程如下:
假设相机FOV(Field Of Vision)为fov(rad),则激光雷达测量范围为[θmin,θmax],其中:
激光雷达角度增量:
扫描频率设置为100Hz。
模拟激光点云range的计算方式为:
其中,ρi是相机光心到模拟激光点云边界Bi的距离,ρmin为最小检测距离,fhov为相机的垂直视场角,ρmax为最大检测距离,由实际路面情况决定。
由于距离相机越远,地面水平这一条件越难以满足,测量误差越大,因此,最远距离设置为100m~200m。
S7.结合里程计和滑窗gmapping(sliding-window grid mapping)算法构建局部栅格地图。里程计信息在短时间内数据准确,可以提供较精确的位姿信息,滑窗gmapping算法在原有的给mapping算法基础上删除对原有里程计位姿校正过程,并增大地图更新频率,调整概率栅格置信度以适应动态物体场景,同时在原有的gmapping算法上增加地图滑动窗口,保持地图尺寸不变,丢弃时间大于3分钟,距离大于300m的激光数据帧对地图的贡献。
Claims (8)
1.基于视觉的停车场可行驶区域检测与局部地图构建方法,其特征在于,包括以下步骤:
S1.采集地下停车场图像数据集;通过搭载在车身的视觉传感器不断采集地下停车场场景数据,形成图像数据集,设每一张图像分别率均为w*h,w是图像宽度,h是图像高度;
S2.像素级标注图像数据集的可行使区域;
S3.使用语义分割网络对带有标注的图像数据集进行训练,得到最佳模型参数;
S4.车辆采集一段新的视频流,输入训练好的网络模型,得到可行使区域的检测结果,并以像素坐标集合的形式保存可行使区域边界P,在边界P上选取横坐标每隔n个像素单位的像素坐标保存成新的边界Q;
S5.将新的边界Q反投影到地面,得到可行使边界点云B;所述的反投影过程如下
设车载相机距离水平地面高度为H,相机水平安装,相机内参矩阵为K,可行使区域边界Pi(xi,yi)与地面对应点Bi(Xi,Yi,Zi),其中,i=1,2,…w/n,投影关系为:
其中,si为第i个像素点的深度,fx,fy,u0,v0是相机内参,已知Xi=H,有:
S6.把可行使边界点云B模拟成激光数据:先把可行使边界点云B转换成pcl(PointCloud Librar,pcl)格式的点云即pcl点云,然后将pcl点云转换成ros(Robot OperatingSystem,ros)格式的视觉点云,再将ros视觉点云转换成模拟激光点云,并将模拟激光点云数据封装成话题(topic)对外发布;
所述把可行使边界点云B模拟成激光数据的过程如下:
假设相机水平FOV(Field Of Vision)为fov,则激光雷达测量范围为[θmin,θmax],其中:
激光雷达角度增量:
扫描频率设置为50Hz~100Hz;
所述模拟激光点云range的计算方式为:
其中,ρi是相机光心到模拟激光点云边界Bi的距离,ρmin为最小检测距离,fhov为相机的垂直视场角,ρmax为最大检测距离,由实际路面情况决定;
由于距离相机越远,地面水平这一条件越难以满足,测量误差越大,因此,最远距离设置为100m~200m;
S7.结合里程计和滑窗gmapping(sliding-window grid mapping)算法构建局部栅格地图。
2.根据权利要求1所述的基于视觉的停车场可行驶区域检测与局部地图构建方法,其特征在于,所述数据集场景包括车辆静止、车辆匀速运动、车辆跟随前车、行人经过和不明动态物体闯入的情况,数据集大小为100K张。
3.根据权利要求1所述的基于视觉的停车场可行驶区域检测与局部地图构建方法,其特征在于,可行驶区域采用一个封闭的凸多边形包络,凸多边形边界标注方式如下:
图像坐标系中,边界直线每个像素的x坐标只有一个y坐标与其对应,外加边界直线垂直x轴的情况;凸多边形边界从图像左下角开始沿顺时针标注,终点也为图像左下角点,从而形成一个封闭的凸多边形,凸多边形所包围的区域即为可行使区域,该区域内包含车辆能够行驶过的物体和区域,不包含车辆无法跨越的障碍物。
4.根据权利要求1所述的基于视觉的停车场可行驶区域检测与局部地图构建方法,其特征在于,步骤S3中所述语义分割网络包括编码网络和解码网络,编码网络包括5层编码模块,解码网络包括4层解码模块,每个编码模块的输出与特征图尺寸相对应的解码模块的输出相连接,每层解码模块都共享对应编码模块学习的图像特征。
5.根据权利要求4所述的基于视觉的停车场可行驶区域检测与局部地图构建方法,其特征在于,所述编码网络采用图像分类网络GoogleLeNet作为整体架构;最后一个编码模块的输出使用卷积转置模块(Transposed Convolution)进行上采样完成解码,解码的最终结果即为与原输入图像相同尺寸的特征图。
6.根据权利要求4所述的基于视觉的停车场可行驶区域检测与局部地图构建方法,其特征在于,所述解码模块采用转置卷积方式进行上采样,解码模块包括两个1×1卷积层和一个3×3的转置卷积层,卷积转置层的上采样系数为2,特征图每经过一个解码模块,图像扩大一倍。
7.根据权利要求1所述的基于视觉的停车场可行驶区域检测与局部地图构建方法,其特征在于,步骤S4所述的检测结果是一个凸多边形区域,在凸多边形边界上选取横坐标每隔n个像素单位保存像素坐标,保存的像素坐标个数为w/n。
8.根据权利要求1所述的基于视觉的停车场可行驶区域检测与局部地图构建方法,其特征在于,步骤S7中所述的滑窗gmapping(sliding-window grid mapping)算法是在原有的gmapping算法上删除对原有里程计位姿校正过程,并增大地图更新频率,调整概率栅格置信度以适应动态物体场景,同时在原有的gmapping算法上增加地图滑动窗口,保持地图尺寸不变,丢弃时间大于tth=3分钟,距离大于sth=300m的激光数据帧对地图的贡献。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010282798.9A CN111461048B (zh) | 2020-04-12 | 2020-04-12 | 基于视觉的停车场可行驶区域检测与局部地图构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010282798.9A CN111461048B (zh) | 2020-04-12 | 2020-04-12 | 基于视觉的停车场可行驶区域检测与局部地图构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111461048A CN111461048A (zh) | 2020-07-28 |
CN111461048B true CN111461048B (zh) | 2023-04-25 |
Family
ID=71681019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010282798.9A Active CN111461048B (zh) | 2020-04-12 | 2020-04-12 | 基于视觉的停车场可行驶区域检测与局部地图构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111461048B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112927539B (zh) * | 2021-01-20 | 2022-07-08 | 恒大新能源汽车投资控股集团有限公司 | 用于自动泊车的建图方法及装置 |
CN112800925B (zh) * | 2021-01-22 | 2023-07-18 | 华南理工大学 | 一种基于深度学习的轮式机器人避障路径规划方法 |
CN113012457B (zh) * | 2021-02-18 | 2022-06-07 | 湖南国科微电子股份有限公司 | 一种地下车库的导航停车方法、装置、设备及介质 |
CN112991744B (zh) * | 2021-04-28 | 2021-08-13 | 北京科技大学 | 一种适用于长距离城市道路的自动驾驶决策方法及系统 |
CN114155258A (zh) * | 2021-12-01 | 2022-03-08 | 苏州思卡信息系统有限公司 | 一种公路施工围封区域的检测方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103389103A (zh) * | 2013-07-03 | 2013-11-13 | 北京理工大学 | 一种基于数据挖掘的地理环境特征地图构建与导航方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11481972B2 (en) * | 2018-01-17 | 2022-10-25 | United States Of America As Represented By The Secretary Of Agriculture | Method of performing dendrometry and forest mapping |
-
2020
- 2020-04-12 CN CN202010282798.9A patent/CN111461048B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103389103A (zh) * | 2013-07-03 | 2013-11-13 | 北京理工大学 | 一种基于数据挖掘的地理环境特征地图构建与导航方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111461048A (zh) | 2020-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111461048B (zh) | 基于视觉的停车场可行驶区域检测与局部地图构建方法 | |
CN109945858B (zh) | 用于低速泊车驾驶场景的多传感融合定位方法 | |
US10582137B1 (en) | Multi-sensor data capture synchronizaiton | |
Han et al. | Research on road environmental sense method of intelligent vehicle based on tracking check | |
US12101572B2 (en) | Image scan line timestamping | |
US11010907B1 (en) | Bounding box selection | |
CN108647646B (zh) | 基于低线束雷达的低矮障碍物的优化检测方法及装置 | |
CN108802785B (zh) | 基于高精度矢量地图和单目视觉传感器的车辆自定位方法 | |
EP3651064B1 (en) | Deep learning for object detection using pillars | |
CN115032651A (zh) | 一种基于激光雷达与机器视觉融合的目标检测方法 | |
CN105711597A (zh) | 前方局部行驶环境感知系统及方法 | |
CN112930554A (zh) | 用于确定车辆环境的语义网格的电子设备、系统和方法 | |
CN107031623A (zh) | 一种基于车载盲区相机的道路预警方法 | |
CN110263607B (zh) | 一种用于无人驾驶的道路级全局环境地图生成方法 | |
US12026894B2 (en) | System for predicting near future location of object | |
US11657719B2 (en) | System for sparsely representing and storing geographic and map data | |
CN112753212B (zh) | 将时间数据添加到图像帧扫描线的系统、方法及可读介质 | |
CN114325634A (zh) | 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法 | |
CN116879870B (zh) | 一种适用于低线束3d激光雷达的动态障碍物去除方法 | |
CN110865394A (zh) | 一种基于激光雷达数据的目标分类系统及其数据处理方法 | |
US11397439B1 (en) | System for tuning parameters of a thermal sensor to improve object detection | |
US20240125899A1 (en) | Semantic segmentation of aggregated sensor data | |
CN114581748B (zh) | 基于机器学习的多智能体感知融合系统及其实现方法 | |
CN116524454A (zh) | 物体追踪装置、物体追踪方法及存储介质 | |
US11392134B1 (en) | System for tuning parameters of a thermal sensor based on a region of interest |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |