CN106529417A - 一种视觉激光数据融合的道路检测方法 - Google Patents
一种视觉激光数据融合的道路检测方法 Download PDFInfo
- Publication number
- CN106529417A CN106529417A CN201610906482.6A CN201610906482A CN106529417A CN 106529417 A CN106529417 A CN 106529417A CN 201610906482 A CN201610906482 A CN 201610906482A CN 106529417 A CN106529417 A CN 106529417A
- Authority
- CN
- China
- Prior art keywords
- laser
- feature
- road
- data
- characteristic vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种视觉激光数据融合的道路检测方法,其特征在于,包括以下步骤:S1:通过摄像头采集图像数据,采用超像素分割将图像划分;S2:利用Adaboost原理对摄像头采集到的图像数据提取特征向量;S3:采用基于在线学习的方法检测道路区域;S4:使用形态学方法对检测结果进行优化;S5:利用激光与视觉数据的融合,将视觉当中检测结果映射到激光数据中,对检测结果进行校正;S6:在激光数据中构建三维的道路区域,并拟合出三维道路边界。本发明可随环境变化而自更新的分类器能够很好地适应天气、季节、光线等因素的改变,保证了算法的鲁棒性;采用激光与视觉融合技术,实现了道路检测结果与无人驾驶车导航的无缝集成。
Description
技术领域
本发明具体涉及一种视觉激光数据融合的道路检测方法。
背景技术
作为如今科技发展的一个热点领域,智能技术已经惠及人类的方方面面。机器人技术作为智能技术的杰出代表,更是在经历了五十多年后的发展之后,逐渐成熟并走向商业化。
无人驾驶车一种典型的移动机器人,而道路检测作为无人驾驶车领域的一个研究热点,在过去十年里产生了很多相关成果。尽管有诸多方案的提出,基于模型和基于特征的方法,有监督和无监督的方法,但是有两个关键问题比较核心也颇具挑战性。
(1)非结构化环境存在道路种类较多,特征不稳定,容易因为光线、天气、季节等因素出现较大变化的特点,所以面向非结构化环境的无人驾驶车要具备适应环境变化的能力。
(2)道路检测最常用的传感器是摄像机,因而检测的结果通常是图像中的道路区域,但是图像本身不具备三维特征,所以仅仅只有图像中的区域,结果很难应用于无人驾驶车的实际导航需求中,也有使用激光传感器作为检测手段的算法,检测结果可以直接用于导航和路径规高划,但是激光数据的特征相对较少,因而检测精度和适应性的提高难度较大。
发明内容
本发明要解决的技术问题是提供一种视觉激光数据融合的道路检测方法。
一种视觉激光数据融合的道路检测方法,包括以下步骤:
S1:通过摄像头采集图像数据,采用超像素分割将图像划分为200个特征均匀的子图像;
S2:利用Adaboost原理对摄像头采集到的图像数据提取特征向量;
S3:采用基于在线学习的方法检测道路区域;
S4:使用形态学方法对检测结果进行优化;
S5:利用激光与视觉数据的融合,将视觉与激光坐标系统进行联合标定,从而将视觉当中检测结果映射到激光数据中,再利用激光数据的特征对检测结果进行校正;
S6:在激光数据中构建三维的道路区域,对属于道路区域的激光点,首先找出每条扫描线的两个端点的坐标,将这些端点按照现实中的空间位置关系分为左右两组,然后分别对每一组采用随机采样一致性(RANSAC)算法进行拟合,拟合出三维道路边界。
进一步的,所述超像素分割方法包括以下步骤:
S1-1:指定超像素数目,将图像均匀划分成S*S大小的方块并指定相应的聚类中心,该聚类中心为ck=[1k,ak,bk,xk,yk]T;
S1-2:在超像素中心的3×3领域内计算梯度值最小的像素点,将其作为新的超像素中心,对每一个像素点i,设定l(i)=-1,d(i)=∞;
S1-3:对每一个聚类中心ck,在其2S×2S领域内计算每个像素点与ck的距离,设为D,如果D<d(i),则d(i)=D,l(i)=k,计算新的聚类中心并计算剩余误差E;
S1-4:重复S1-3,直到E小于设定的阈值,结束。
进一步的,利用Adaboost原理对摄像头采集到的图像数据提取特征向量的方法如下:
S2-1:确定候选特征集合如下表所示:
S2-2:针对选取的训练图片提取所有候选的特征,并加入代表其类别的标签信息,构成样本集合{(x1,y1),(x2,y2),…,(x,yn)},其中的xi代表由候选特征构成的特征向量,yi∈{0,1,2,3,4}为标签,代表该样本的类别,n是总的样本数,将最终的特征集合F初始化为φ,初始化样本的权值为wi=1/n,这样就构成来了完整的训练集{(x1,y1,w1),(x2,y2,w2),…,(x,yn,wn)},将候选特征集合C初始化为所有五类特征;
S2-3:从候选特征中依次选择每一类与F中的特征共同构成选用的特征,利用Adaboost训练生成一个分类器并进行验证,得到对应的剩余误差εj,比较各个剩余误差的大小,并把对应误差最小的特征加入到F中,同时从C中删除这个特征;
S2-4:更新样本的权重为其中的ei,如果样本分类正确则为0,分类错误则为1;归一化权重,
S2-5:重复S2-3和S2-4直到所有的候选特征都加入到F,结束算法。
进一步的,所述基于在线学习的道路检测方法如下:
S3-1:选择支持向量机(SVM)算法作为分类算法;
S3-2:每一类样本选择20张从互联网获取的图片,分辨率为200*100,训练分类器;
S3-3:分类器在线更新,从拍摄到的图像当中截取部分图像构成新样本,截取区域为中下方大小为160*80像素的区域;建立一个类别,只保存获取的新样本,新样本构成的类当中最多存放20张图片;当图片更新了10张时开始新的分类器训练;
S3-4:分类器数据精简,具体步骤如下:
(1)设最终的特征向量集合为F,初始化F为φ,初始化计数器C=0;
(2)针对一类图片,依次取出其中的图片,按照不同的尺寸进行子图像划分并计算特征向量,第一个特征向量直接压入到F中,从第二个特征向量开始,利用如下公式:
来计算特征向量V与F中第C个到目前为止F中最后一个特征向量之间的距离,如果满足D≥T,则将V压入到F当中;
(3)更新C=Sizeof(F),重复(2)直到所有的类别都提取完毕,结束;
S3-5:利用训练生成的分类器进行分类,分类后的结果,将道路区染成白色,其它区染成黑色,就成了二值图。
进一步的,利用激光数据的特征对检测结果进行校正方法如下:
S5-1:将映射到激光数据里的道路区域定义为候选道路区域,将候选道路区域划分为30cm*30cm的子区域,对于任意子区域Si(i∈{1,2,...,n}),假设这一区域共包含m个激光点,利用以下公式计算子区域的高程:
其中是子区域的高程,而Ej是每个激光点的高度值;
S5-2:利用以下判定条件判断此区域是否为道路区域:
其中Hmax和Hmin为给定的道路区域高程的上下界;
S5-3:将Si中的三维激光点定义为{Xi}={(xi,yi,zi)},(i∈{0,1,2,...,n}),这些点的对称正定协方差矩阵定义为:
λ0,λ1,λ2是矩阵的特征值,其中λ0≥λ1≥λ2,而是对应的特征向量,其中的即是子区域的法向量,将此法向量与垂直向上的方向间的夹角定义为α,可以得到:
其中Amax和Amin为给定的道路区域法向量与竖直向上方向夹角的上下界;当且仅当和都为1时,Si被最终确定为属于道路区域。
本发明的有益效果是:
(1)本发明在道路检测算法中利用固定样本实时采集到图片生成新的样本,在不间断分类运算的同时实现了分类器的实时在线更新,随环境变化而自更新的分类器能够很好地适应天气、季节、光线等因素的改变,保证了算法的鲁棒性;
(2)本发明采用激光与视觉融合技术,实现了从激光数据到视觉检测结果的实时映射,并利用激光数据的几何信息界定三维激光点云中的道路区域,采用随机采样一致性原理拟合出三维道路边界,实现了道路检测结果与无人驾驶车导航的无缝集成。
具体实施方式
以下具体实施例对本发明作进一步阐述,但不作为对本发明的限定。
一种视觉激光数据融合的道路检测方法,包括以下步骤:
S1:通过摄像头采集图像数据,采用超像素分割将图像划分为200个特征均匀的子图像;超像素分割方法包括以下步骤:
S1-1:指定超像素数目,将图像均匀划分成S*S大小的方块并指定相应的聚类中心,该聚类中心为ck=[1k,ak,bk,xk,yk]T;
S1-2:在超像素中心的3×3领域内计算梯度值最小的像素点,将其作为新的超像素中心,对每一个像素点i,设定l(i)=-1,d(i)=∞;
S1-3:对每一个聚类中心ck,在其2S×2S领域内计算每个像素点与ck的距离,设为D,如果D<d(i),则d(i)=D,l(i)=k,计算新的聚类中心并计算剩余误差E;
S1-4:重复S1-3,直到E小于设定的阈值,结束。
S2:利用Adaboost原理对摄像头采集到的图像数据提取特征向量,方法如下:
S2-1:确定候选特征集合如下表所示:
S2-2:针对选取的训练图片提取所有候选的特征,并加入代表其类别的标签信息,构成样本集合{(x1,y1),(x2,y2),…,(x,yn)},其中的xi代表由候选特征构成的特征向量,yi∈{0,1,2,3,4}为标签,代表该样本的类别,n是总的样本数,将最终的特征集合F初始化为φ,初始化样本的权值为wi=1/n,这样就构成来了完整的训练集{(x1,y1,w1),(x2,y2,w2),…,(x,yn,wn)},将候选特征集合C初始化为所有五类特征;
S2-3:从候选特征中依次选择每一类与F中的特征共同构成选用的特征,利用Adaboost训练生成一个分类器并进行验证,得到对应的剩余误差εj,比较各个剩余误差的大小,并把对应误差最小的特征加入到F中,同时从C中删除这个特征;
S2-4:更新样本的权重为其中的ei,如果样本分类正确则为0,分类错误则为1;归一化权重,
S2-5:重复S2-3和S2-4直到所有的候选特征都加入到F,结束算法。
S3:采用基于在线学习的方法检测道路区域,方法如下:
S3-1:选择支持向量机(SVM)算法作为分类算法;
S3-2:每一类样本选择20张从互联网获取的图片,分辨率为200*100,训练分类器;
S3-3:分类器在线更新,从拍摄到的图像当中截取部分图像构成新样本,截取区域为中下方大小为160*80像素的区域;建立一个类别,只保存获取的新样本,新样本构成的类当中最多存放20张图片;当图片更新了10张时开始新的分类器训练;
S3-4:分类器数据精简,具体步骤如下:
(1)设最终的特征向量集合为F,初始化F为φ,初始化计数器C=0;
(2)针对一类图片,依次取出其中的图片,按照不同的尺寸进行子图像划分并计算特征向量,第一个特征向量直接压入到F中,从第二个特征向量开始,利用如下公式:
来计算特征向量V与F中第C个到目前为止F中最后一个特征向量之间的距离,如果满足D≥T,则将V压入到F当中;
(3)更新C=Sizeof(F),重复(2)直到所有的类别都提取完毕,结束;
S3-5:利用训练生成的分类器进行分类,分类后的结果,将道路区染成白色,其它区染成黑色,就成了二值图。
S4:使用形态学方法对检测结果进行优化;
S5:利用激光与视觉数据的融合,将视觉与激光坐标系统进行联合标定,从而将视觉当中检测结果映射到激光数据中,再利用激光数据的特征对检测结果进行校正,校正方法如下:
S5-1:将映射到激光数据里的道路区域定义为候选道路区域,将候选道路区域划分为30cm*30cm的子区域,对于任意子区域Si(i∈{1,2,...,n}),假设这一区域共包含m个激光点,利用以下公式计算子区域的高程:
其中是子区域的高程,而Ej是每个激光点的高度值;
S5-2:利用以下判定条件判断此区域是否为道路区域:
其中Hmax和Hmin为给定的道路区域高程的上下界;
S5-3:将Si中的三维激光点定义为{Xi}={(xi,yi,zi)},(i∈{0,1,2,...,n}),这些点的对称正定协方差矩阵定义为:
λ0,λ1,λ2是矩阵的特征值,其中λ0≥λ1≥λ2,而是对应的特征向量,其中的即是子区域的法向量,将此法向量与垂直向上的方向间的夹角定义为α,可以得到:
其中Amax和Amin为给定的道路区域法向量与竖直向上方向夹角的上下界;当且仅当和都为1时,Si被最终确定为属于道路区域。
S6:在激光数据中构建三维的道路区域,对属于道路区域的激光点,首先找出每条扫描线的两个端点的坐标,将这些端点按照现实中的空间位置关系分为左右两组,然后分别对每一组采用随机采样一致性(RANSAC)算法进行拟合,拟合出三维道路边界。
Claims (5)
1.一种视觉激光数据融合的道路检测方法,其特征在于,包括以下步骤:
S1:通过摄像头采集图像数据,采用超像素分割将图像划分为200个特征均匀的子图像;
S2:利用Adaboost原理对摄像头采集到的图像数据提取特征向量;
S3:采用基于在线学习的方法检测道路区域;
S4:使用形态学方法对检测结果进行优化;
S5:利用激光与视觉数据的融合,将视觉与激光坐标系统进行联合标定,从而将视觉当中检测结果映射到激光数据中,再利用激光数据的特征对检测结果进行校正;
S6:在激光数据中构建三维的道路区域,对属于道路区域的激光点,首先找出每条扫描线的两个端点的坐标,将这些端点按照现实中的空间位置关系分为左右两组,然后分别对每一组采用随机采样一致性(RANSAC)算法进行拟合,拟合出三维道路边界。
2.根据权利要求1所述的道路检测方法,其特征在于,所述超像素分割方法包括以下步骤:
S1-1:指定超像素数目,将图像均匀划分成S*S大小的方块并指定相应的聚类中心,该聚类中心为ck=[1k,ak,bk,xk,yk]T;
S1-2:在超像素中心的3×3领域内计算梯度值最小的像素点,将其作为新的超像素中心,对每一个像素点i,设定l(i)=-1,d(i)=∞;
S1-3:对每一个聚类中心ck,在其2S×2S领域内计算每个像素点与ck的距离,设为D,如果D<d(i),则d(i)=D,l(i)=k,计算新的聚类中心并计算剩余误差E;
S1-4:重复S1-3,直到E小于设定的阈值,结束。
3.根据权利要求1所述的道路检测方法,其特征在于,利用Adaboost原理对摄像头采集到的图像数据提取特征向量的方法如下:
S2-1:确定候选特征集合如下表所示:
S2-2:针对选取的训练图片提取所有候选的特征,并加入代表其类别的标签信息,构成样本集合{(x1,y1),(x2,y2),…,(x,yn)},其中的xi代表由候选特征构成的特征向量,yi∈{0,1,2,3,4}为标签,代表该样本的类别,n是总的样本数,将最终的特征集合F初始化为φ,初始化样本的权值为wi=1/n,这样就构成来了完整的训练集{(x1,y1,w1),(x2,y2,w2),…,(x,yn,wn)},将候选特征集合C初始化为所有五类特征;
S2-3:从候选特征中依次选择每一类与F中的特征共同构成选用的特征,利用Adaboost训练生成一个分类器并进行验证,得到对应的剩余误差εj,比较各个剩余误差的大小,并把对应误差最小的特征加入到F中,同时从C中删除这个特征;
S2-4:更新样本的权重为其中的ei,如果样本分类正确则为0,分类错误则为1;归一化权重,
S2-5:重复S2-3和S2-4直到所有的候选特征都加入到F,结束算法。
4.根据权利要求1所述的道路检测方法,其特征在于,所述基于在线学习的道路检测方法如下:
S3-1:选择支持向量机(SVM)算法作为分类算法;
S3-2:每一类样本选择20张从互联网获取的图片,分辨率为200*100,训练分类器;
S3-3:分类器在线更新,从拍摄到的图像当中截取部分图像构成新样本,截取区域为中下方大小为160*80像素的区域;建立一个类别,只保存获取的新样本,新样本构成的类当中最多存放20张图片;当图片更新了10张时开始新的分类器训练;
S3-4:分类器数据精简,具体步骤如下:
(1)设最终的特征向量集合为F,初始化F为φ,初始化计数器C=0;
(2)针对一类图片,依次取出其中的图片,按照不同的尺寸进行子图像划分并计算特征向量,第一个特征向量直接压入到F中,从第二个特征向量开始,利用如下公式:
来计算特征向量V与F中第C个到目前为止F中最后一个特征向量之间的距离,如果满足D≥T,则将V压入到F当中;
(3)更新C=Sizeof(F),重复(2)直到所有的类别都提取完毕,结束;
S3-5:利用训练生成的分类器进行分类,分类后的结果,将道路区染成白色,其它区染成黑色,就成了二值图。
5.根据权利要求1所述的道路检测方法,其特征在于,利用激光数据的特征对检测结果进行校正方法如下:
S5-1:将映射到激光数据里的道路区域定义为候选道路区域,将候选道路区域划分为30cm*30cm的子区域,对于任意子区域Si(i∈{1,2,...,n}),假设这一区域共包含m个激光点,利用以下公式计算子区域的高程:
其中是子区域的高程,而Ej是每个激光点的高度值;
S5-2:利用以下判定条件判断此区域是否为道路区域:
其中Hmax和Hmin为给定的道路区域高程的上下界;
S5-3:将Si中的三维激光点定义为{Xi}={(xi,yi,zi)},(i∈{0,1,2,...,n}),这些点的对称正定协方差矩阵定义为:
λ0,λ1,λ2是矩阵的特征值,其中λ0≥λ1≥λ2,而是对应的特征向量,其中的即是子区域的法向量,将此法向量与垂直向上的方向间的夹角定义为α,可以得到:
其中Amax和Amin为给定的道路区域法向量与竖直向上方向夹角的上下界;当且仅当和都为1时,Si被最终确定为属于道路区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610906482.6A CN106529417A (zh) | 2016-10-17 | 2016-10-17 | 一种视觉激光数据融合的道路检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610906482.6A CN106529417A (zh) | 2016-10-17 | 2016-10-17 | 一种视觉激光数据融合的道路检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106529417A true CN106529417A (zh) | 2017-03-22 |
Family
ID=58332172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610906482.6A Withdrawn CN106529417A (zh) | 2016-10-17 | 2016-10-17 | 一种视觉激光数据融合的道路检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106529417A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107167811A (zh) * | 2017-04-26 | 2017-09-15 | 西安交通大学 | 基于单目视觉与激光雷达融合的道路可行驶区域检测方法 |
CN107356933A (zh) * | 2017-06-23 | 2017-11-17 | 南京理工大学 | 一种基于四线激光雷达的非结构化道路检测方法 |
CN107767383A (zh) * | 2017-11-01 | 2018-03-06 | 太原理工大学 | 一种基于超像素的道路图像分割方法 |
CN108509918A (zh) * | 2018-04-03 | 2018-09-07 | 中国人民解放军国防科技大学 | 融合激光点云与图像的目标检测与跟踪方法 |
CN108710367A (zh) * | 2018-05-23 | 2018-10-26 | 广州视源电子科技股份有限公司 | 激光数据识别方法、装置、机器人及存储介质 |
CN109635641A (zh) * | 2018-11-01 | 2019-04-16 | 百度在线网络技术(北京)有限公司 | 道路边界线的确定方法、装置、设备和存储介质 |
CN111104849A (zh) * | 2018-10-29 | 2020-05-05 | 安波福技术有限公司 | 运载工具的导航期间的、地图中的环境特征的自动注释 |
CN112396051A (zh) * | 2019-08-15 | 2021-02-23 | 纳恩博(北京)科技有限公司 | 可通行区域的确定方法及装置、存储介质、电子装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102737236A (zh) * | 2012-07-06 | 2012-10-17 | 北京大学 | 一种基于多模态传感器数据自动获取车辆训练样本方法 |
US20130307981A1 (en) * | 2012-05-15 | 2013-11-21 | Electronics And Telecommunications Research Institute | Apparatus and method for processing data of heterogeneous sensors in integrated manner to classify objects on road and detect locations of objects |
CN104376595A (zh) * | 2014-11-28 | 2015-02-25 | 史文中 | 一种基于机载LiDAR和GIS协同的三维道路生成方法 |
-
2016
- 2016-10-17 CN CN201610906482.6A patent/CN106529417A/zh not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130307981A1 (en) * | 2012-05-15 | 2013-11-21 | Electronics And Telecommunications Research Institute | Apparatus and method for processing data of heterogeneous sensors in integrated manner to classify objects on road and detect locations of objects |
CN102737236A (zh) * | 2012-07-06 | 2012-10-17 | 北京大学 | 一种基于多模态传感器数据自动获取车辆训练样本方法 |
CN104376595A (zh) * | 2014-11-28 | 2015-02-25 | 史文中 | 一种基于机载LiDAR和GIS协同的三维道路生成方法 |
Non-Patent Citations (1)
Title |
---|
徐文浩: "基于视觉激光数据融合的非结构化道路检测", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107167811A (zh) * | 2017-04-26 | 2017-09-15 | 西安交通大学 | 基于单目视觉与激光雷达融合的道路可行驶区域检测方法 |
CN107167811B (zh) * | 2017-04-26 | 2019-05-03 | 西安交通大学 | 基于单目视觉与激光雷达融合的道路可行驶区域检测方法 |
CN107356933B (zh) * | 2017-06-23 | 2020-09-18 | 南京理工大学 | 一种基于四线激光雷达的非结构化道路检测方法 |
CN107356933A (zh) * | 2017-06-23 | 2017-11-17 | 南京理工大学 | 一种基于四线激光雷达的非结构化道路检测方法 |
CN107767383A (zh) * | 2017-11-01 | 2018-03-06 | 太原理工大学 | 一种基于超像素的道路图像分割方法 |
CN107767383B (zh) * | 2017-11-01 | 2021-05-11 | 太原理工大学 | 一种基于超像素的道路图像分割方法 |
CN108509918A (zh) * | 2018-04-03 | 2018-09-07 | 中国人民解放军国防科技大学 | 融合激光点云与图像的目标检测与跟踪方法 |
CN108509918B (zh) * | 2018-04-03 | 2021-01-08 | 中国人民解放军国防科技大学 | 融合激光点云与图像的目标检测与跟踪方法 |
CN108710367A (zh) * | 2018-05-23 | 2018-10-26 | 广州视源电子科技股份有限公司 | 激光数据识别方法、装置、机器人及存储介质 |
CN108710367B (zh) * | 2018-05-23 | 2022-02-11 | 广州视源电子科技股份有限公司 | 激光数据识别方法、装置、机器人及存储介质 |
CN111104849A (zh) * | 2018-10-29 | 2020-05-05 | 安波福技术有限公司 | 运载工具的导航期间的、地图中的环境特征的自动注释 |
CN111104849B (zh) * | 2018-10-29 | 2022-05-31 | 动态Ad有限责任公司 | 运载工具的导航期间的、地图中的环境特征的自动注释 |
US11774261B2 (en) | 2018-10-29 | 2023-10-03 | Motional Ad Llc | Automatic annotation of environmental features in a map during navigation of a vehicle |
CN109635641A (zh) * | 2018-11-01 | 2019-04-16 | 百度在线网络技术(北京)有限公司 | 道路边界线的确定方法、装置、设备和存储介质 |
CN112396051A (zh) * | 2019-08-15 | 2021-02-23 | 纳恩博(北京)科技有限公司 | 可通行区域的确定方法及装置、存储介质、电子装置 |
CN112396051B (zh) * | 2019-08-15 | 2024-05-03 | 纳恩博(北京)科技有限公司 | 可通行区域的确定方法及装置、存储介质、电子装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106529417A (zh) | 一种视觉激光数据融合的道路检测方法 | |
CN111091105B (zh) | 基于新的边框回归损失函数的遥感图像目标检测方法 | |
CN110175576B (zh) | 一种结合激光点云数据的行驶车辆视觉检测方法 | |
CN106709568B (zh) | 基于深层卷积网络的rgb-d图像的物体检测和语义分割方法 | |
CN107167811B (zh) | 基于单目视觉与激光雷达融合的道路可行驶区域检测方法 | |
Rateke et al. | Road surface classification with images captured from low-cost camera-road traversing knowledge (rtk) dataset | |
CN111738165B (zh) | 一种从高分辨率无人机可见光遥感影像中提取单株植物冠层的方法 | |
CN107292234B (zh) | 一种基于信息边缘和多模态特征的室内场景布局估计方法 | |
CN106920243A (zh) | 改进的全卷积神经网络的陶瓷材质件序列图像分割方法 | |
CN108038846A (zh) | 基于多层卷积神经网络的输电线路设备图像缺陷检测方法及系统 | |
CN104850865B (zh) | 一种多特征迁移学习的实时压缩跟踪方法 | |
CN109785298B (zh) | 一种多角度物体检测方法和系统 | |
CN109118479A (zh) | 基于胶囊网络的绝缘子缺陷识别定位装置及方法 | |
CN103324936B (zh) | 一种基于多传感器融合的车辆下边界检测方法 | |
CN106504233A (zh) | 基于Faster R‑CNN的无人机巡检图像电力小部件识别方法及系统 | |
CN105354565A (zh) | 基于全卷积网络人脸五官定位与判别的方法及系统 | |
CN106780546B (zh) | 基于卷积神经网络的运动模糊编码点的身份识别方法 | |
CN109101981B (zh) | 一种街景场景下基于全局图像条纹码的回环检测方法 | |
CN107066916A (zh) | 基于反卷积神经网络的场景语义分割方法 | |
CN107507170A (zh) | 一种基于多尺度图像信息融合的机场跑道裂缝检测方法 | |
CN106023257A (zh) | 一种基于旋翼无人机平台的目标跟踪方法 | |
CN104573685A (zh) | 一种基于线性结构提取的自然场景文本检测方法 | |
CN106408030A (zh) | 基于中层语义属性和卷积神经网络的sar图像分类方法 | |
CN102073846A (zh) | 基于航拍图像的交通信息获取方法 | |
CN105574545B (zh) | 街道环境图像多视角语义切割方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20170322 |