CN108830131B - 基于深度学习的交通目标检测与测距方法 - Google Patents

基于深度学习的交通目标检测与测距方法 Download PDF

Info

Publication number
CN108830131B
CN108830131B CN201810314076.XA CN201810314076A CN108830131B CN 108830131 B CN108830131 B CN 108830131B CN 201810314076 A CN201810314076 A CN 201810314076A CN 108830131 B CN108830131 B CN 108830131B
Authority
CN
China
Prior art keywords
image
loss
traffic
target
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810314076.XA
Other languages
English (en)
Other versions
CN108830131A (zh
Inventor
晁涌耀
梁艳菊
常嘉义
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kunshan Microelectronics Technology Research Institute
Original Assignee
Kunshan Microelectronics Technology Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kunshan Microelectronics Technology Research Institute filed Critical Kunshan Microelectronics Technology Research Institute
Priority to CN201810314076.XA priority Critical patent/CN108830131B/zh
Publication of CN108830131A publication Critical patent/CN108830131A/zh
Application granted granted Critical
Publication of CN108830131B publication Critical patent/CN108830131B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Abstract

本发明公开了基于深度学习的交通目标检测与测距方法,包括:算法模型训练步骤,选择车辆附近的图像区域样本,对图像增加样本,对增加的样本改变像素使其成为具有相等强度的图像,最后进行深度学习训练得到模型;算法模型预测步骤,基于训练得到的模型,选择车辆附近的图像区域样本,对图像区域样本对比度归一化,再进行深度卷积神经网络预测,输出图像数据。本发明使用深度学习方法将目标的识别与测距统一在单一的网络模型下,完成对交通目标的检测与测距,使系统达到了性能和效率的平衡,速度方面极佳,完全满足实时性要求。

Description

基于深度学习的交通目标检测与测距方法
技术领域
本发明属于汽车辅助驾驶自动驾驶领域,特别涉及基于深度学习的交通目标检测与测距方法。
背景技术
随着汽车产业的迅速增长,交通剧烈拥堵和交通事故大幅增加,改善交通安全已成为一个亟待解决的社会问题。为了改善交通安全,辅助驾驶的概念应运而生。安全预警系统、正向碰撞警告系统、自适应巡航控制系统、车道偏离预警系统等辅助驾驶系统逐渐应用于汽车驾驶中。在这些辅助驾驶系统中,最核心的部分是对交通目标的实时检测与测距。目标检测与测距是图像处理和计算机视觉的一个重要分支,它融合了图像处理、模式识别、人工智能、自动控制等许多领域的前沿技术。
目前,针对辅助驾驶系统,已经有一些车辆测距方法运用目标检测与测距等相关前沿技术。CN104899554A的发明专利使用机器学习方法进行车辆的检测,在检测到车辆后利用车辆处于同一平面的假设进行距离估计。CN107390205A的发明专利使用空间几何与图片坐标的映射关系进行估计,利用汽车在同一平面内的假设进行距离估计。
然而,当前绝大多数的辅助驾驶系统中的识别算法与测距算法相互独立,识别种类仅限于车辆,只是将识别结果用于测距或将测距结果用于识别,中间过程中的特征不能相互融合。CN104899554A以及CN107390205A发明专利涉及的车辆测距方法,一方面仅能对车辆距离进行预测,使得目标种类单一,而针对于交通场景,对人、自行车、电动车和公交车的识别都是十分重要的。另一方面,它的方法是由两个系统串行组成的,测距的结果十分依赖于第一步的准确性,误差存在累积效应。
实际应用场景中,需要新的车辆测距方法来针对交通场景中的多种目标进行识别,如针对小型汽车、厢式货车、公交车、摩托车、(电动)自行车、行人等。同时,也需要新的车辆测距方法更准确的进行实时交通目标识别与测距。
发明内容
本发明的目的是通过以下技术方案实现的。
基于深度学习的交通目标检测与测距方法,包括:
算法模型训练步骤,选择车辆附近的图像区域样本,对图像增加样本,对增加的样本改变像素使其成为具有相等强度的图像,最后进行深度学习训练得到模型;
算法模型预测步骤,基于训练得到的模型,选择车辆附近的图像区域样本,对图像区域样本对比度归一化,再进行深度卷积神经网络预测,输出图像数据。
可选地,算法模型训练步骤具体包括如下步骤:
根据当前车速进行兴趣区域设置,选择图像区域样本;
对图像区域样本增强,通过图像的几何变换,使用一种或多种组合进行样本增强变换来增加输入数据的量;
对比度归一化,通过从每个图像中减去整个图片的平均强度,然后重新缩放使得图像像素上的标准差等于预设常数;
进行深度卷积神经网络训练,确定网络模型与损失函数,采集交通场景下的图片,进行深度学习的网络训练,最终得到深度卷积神经网络模型。
可选地,算法模型预测步骤具体包括如下步骤:
根据当前车速进行兴趣区域设置,选择图像区域样本;
对比度归一化,通过从每个图像中减去其平均值,然后重新缩放使得图像像素上的标准差等于预设常数;
深度卷积神经网络预测,对比度归一化后的图像输入到训练好的深度卷积神经网络模型中,输出图像数据。
可选地,兴趣区域设置的方式如下:在车速小于20km/h时,兴趣区域设置为车前及距离车辆两侧二十米内;在车速大于60km/h时,兴趣区域设置为车辆前方两百米。
可选地,对比度归一化,为近似的全局对比度归一化,输出图像X′:
Figure BDA0001623255550000021
其中,X∈Rr*c*З表示图像的三维张量,
Figure BDA0001623255550000022
表示整个图片的三维张量平均强度,i为第i行,j为第j列,k为颜色标号,i、j、k均为整数,λ为平衡标准差的正则化参数,ε为防止数值上溢的数值,r为行数,c为列数。
可选地,方法进一步包括:对深度卷积神经网络进行不均匀的网格划分,每个网格预测落入当前网格的物体类别的可能性、坐标、距离。
可选地,损失函数包括定位损失、类别损失、置信度损失、距离误差四个要素,四个要素加权累加构成损失函数。
可选地,定位损失为在预测目标的位置上带来的误差,表达式为:
Figure BDA0001623255550000031
其中,LossLoc为定位损失误差,I为第i个格子是否包含第j个物体的中心,若包含则为I=0,若不包含则I=1,x为横坐标,y为纵坐标,w为宽度,h为高度;
类别损失为在预测目标的类别时带来的误差,表达式为:
Figure BDA0001623255550000032
其中,p(c)为类别向量;
置信度损失为在预测是不是有物体时带来的误差,表达式为:
Figure BDA0001623255550000033
其中,p(obj)为存在目标的概率;
距离误差为在预测目标的距离时带来的误差,表达式为:
Figure BDA0001623255550000034
其中,
Figure BDA0001623255550000035
为真实距离,nDIS为预测距离。
可选地,图像数据包括图片中的交通目标的类别、坐标、位置、置信度。
本发明使用深度学习方法将目标的识别与测距统一在单一的网络模型下,完成对交通目标的检测与测距。系统达到了性能和效率的平衡,速度方面极佳,完全满足实时性要求。基于回归的预测方法,在每个网格仅负责检测是否有物体中心落入,这样大幅减少计算量。端到端的系统,不需要进行系统之间的分步执行与参数传递,不存在误差累积效应且方便进行训练调优。
附图说明
通过阅读下文具体实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出具体实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
附图1示出了根据本发明实施方式的算法模型训练流程图;
附图2示出了根据本发明实施方式的算法模型预测流程图;
附图3示出了根据本发明实施方式的ROI设置窗口示意图;
附图4示出了根据本发明实施方式的卷积神经网络模型图;
附图5示出了根据本发明实施方式的待检测的原始场景图;
附图6示出了根据本发明实施方式的预测检测后的输出结果图;
附图7示出了根据本发明实施方式的交通场景网格图;
附图8示出了根据本发明实施方式的交通场景定位图;
附图9示出了根据本发明实施方式的交通场景类别图;
附图10示出了根据本发明实施方式的交通场景置信度图;
附图11示出了根据本发明实施方式的交通场景距离图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施方式。虽然附图中显示了本公开的示例性实施方式,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
根据本发明的实施方式,提出基于深度学习的交通目标检测与测距方法。如图1所示,首先根据数据进行兴趣区域ROI(region of interest)设置,选择图像区域样本。再进行图像区域样本增强,通过图像的几何变换,使用一种或多种组合进行样本增强变换来增加输入数据的量。接着进行对比度归一化,通过从每个图像中减去整个图片的平均强度,然后重新缩放使得图像像素上的标准差等于预设常数。进行深度卷积神经网络训练,在将网络模型与损失函数确定下之后,采集大量的交通场景下的图片,进行深度学习的网络训练,如果不满足终止条件,则继续进行深度卷积神经网络训练;如果满足终止条件,得到深度卷积神经网络的最终模型。整个模型训练过程仅需一次,训练好的模型用于算法模型预测。
在深度学习中,为了避免出现过拟合,需要进行样本增强,增加数据量的同时增强对旋转、缩放的适应性,不同的任务背景下,我们可以通过图像的几何变换,使用一种或多种组合进行样本增强变换来增加输入数据的量。使用了以下三种样本增强方式:
1.进行-7°—7°范围内的随机旋转或以5%机率翻转。
2.长宽随机乘以0.8—1.25内的随机数,进行随机缩放。
3.水平竖直方向在±10像素范围内的随机平移。
将RGB空间转为HSV空间,对S与V值进行0.25—4之间的指数运算,进行对比度及光照的变换。
如图2所示,首先根据数据进行兴趣区域ROI(region of interest)设置,选择图像区域样本。对比度归一化,通过从每个图像中减去其平均值,然后重新缩放使得图像像素上的标准差等于预设常数,使得在图像识别任务中,不同对比度的图片不改变相同物体的种类。深度卷积神经网络预测,对比度归一化后的图像输入到训练好的深度卷积网络模型中,即可输出图像数据,图像数据包括交通目标的类别、坐标、位置、置信度。
交通场景具有高速的特点,在不同速度下,关注的区域是不同的,兴趣区域设置的方式如下:在车速小于20km/h时,兴趣区域设置为车前及距离车辆两侧二十米内;在车速大于60km/h时,兴趣区域设置为车辆前方两百米。对于较远处的车辆,识别难度较大,但将其放大后将容易识别,本发明提出了一种根据当前车速进行兴趣区域ROI(region ofinterest)设置的方法。
如图3所示,汽车在不同的速度下,窗口的长宽会发生改变,窗口的长宽根据速度变为原始窗口的λν倍,ν代表当前行驶速度,具体形式为:
λv=1-log(1+θv)
Figure BDA0001623255550000061
其中,θ为放缩参数,area为面积,areathresh为可检测到的最小目标面积阈值,areai为第i个物体在原图的面积大小,I为在原窗口内由于窗口缩小而导致的消失在窗口中的目标。
图像的识别任务中,通过从每个图像中减去其平均值,然后重新缩放使得图像像素上的标准差等于预设常数。不同对比度的图片并不会改变物体的种类,即同样内容的一张图片,具有不同的对比度,其结果应该是一样的,在简化模型的角度来说,是需要将对比度进行归一化的。
对比度即整幅图片中的亮度波动情况,用一个三维张量表示图像X∈Rr*c*З,其中Xi,j,1代表第i行第j列的在红色上的分量,Xi,j,2代表第i行第j列的在绿色上的分量,Xi,j,3代表第i行第j列的在蓝色上的分量,那么对比度可以量化为:
Figure BDA0001623255550000062
Figure BDA0001623255550000063
为整个图片的平均值,表示为:
Figure BDA0001623255550000064
全局对比度归一化通过将每幅图片的像素均值归为0,再将其像素进行缩放使其标准差变为定值C,通常为1。这种方法对零对比度的图像却无法实现,因为找不到合适的缩放因子。但由于低对比度图像几乎不具有信息价值,此时仅需加入一个正则化参数λ来平衡标准差,再一个较小的值ε来防止数值上溢,就可以进行近似的全局对比度归一化:
Figure BDA0001623255550000065
其中,X∈Rr*c*З表示图像的三维张量,
Figure BDA0001623255550000066
表示整个图片的三维张量平均强度,i为第i行,j为第j列,k为颜色标号,i、j、k均为整数,λ为平衡标准差的正则化参数,ε为防止数值上溢的数值,r为行数,c为列数。
进行深度卷积神经网络训练,在将网络模型与损失函数确定下之后,采集大量的交通场景下的图片,进行深度学习的网络训练,最终得到深度卷积神经网络模型。如图4所示,首先将数据导入,在卷基层进行多次卷积,同一层的神经元可以共享卷积核,那么对于高位数据的处理将会变得非常简单。使用卷积核后图片的尺寸变小,方便后续计算,并且我们不需要手动去选取特征,只用设计好卷积核的尺寸。通过上一层的卷积核操作后,图像进入池化层。池化层的主要目的是通过降采样的方式,在不影响图像质量的情况下,压缩图片,减少参数,减少图像的空间大小。如此循环,先后交叉进行5层卷积核操作,5层池化层操作。再进行5层卷积核操作,进入输出层。输出图像的类别、坐标、距离、置信度。确定损失函数。
经过上述算法模型训练和算法模型预测步骤后,如图5所示,为待检测的原始场景。图6为预测检测后的输出结果(车辆及其位置)。
以图7为例,针对交通场景特点,进行了不均匀的网格划分。每个网格预测落入当前网格的物体类别的可能性、坐标、距离,共C种物体,所以其最终的输出是一个尺寸为S×K×(B×6+C)的张量。其中,S为横线数,K为纵线数,B为所做预测的数量。
损失函数分为四个方面:定位损失、类别损失、置信度损失、距离误差,四个方面加权累加构成损失函数。
如图8所示,左边为真实坐标(x,y,w,h),右边为预测坐标(x′,y′,w′,h′)。定位损失为在预测目标的位置上带来的误差,表达式为:
Figure BDA0001623255550000071
LossLoc为定位损失误差,I为第i个格子是否包含第j个物体的中心,若包含则为I=0,若不包含则I=1,x为左上角点的横坐标,y为左上角点的纵坐标,w为宽度,h为高度。
如图9所示,左边为真实类别(C=小汽车),右边为预测类别(C′=货车)。类别损失为在预测目标的类别时带来的误差,表达式为:
Figure BDA0001623255550000081
p(c)为类别向量。
如图10所示,左边为真实概率p(object)=1,右边为预测置信度p′(object)=1,置信度损失为在预测是不是有物体时带来的误差,表达式为:
Figure BDA0001623255550000082
p(obj)为存在目标的概率。
如图11所示,左边为真实距离dis=9.08m,右边为预测距离dis′=8.99m,距离误差为在预测目标的距离时带来的误差,表达式为:
Figure BDA0001623255550000083
Figure BDA0001623255550000084
为真实距离,nDIS为预测距离。
本发明使用深度学习方法将目标的识别与测距统一在单一的网络模型下,完成对交通目标的检测与测距。系统达到了性能和效率的平衡,速度方面极佳,完全满足实时性要求。基于回归的预测方法,在每个网格仅负责检测是否有物体中心落入,这样大幅减少计算量。端到端的系统,不需要进行系统之间的分步执行与参数传递,不存在误差累积效应且方便进行训练调优。
以上,仅为本发明示例性的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (6)

1.基于深度学习的交通目标检测与测距方法,其特征在于,包括:
算法模型训练步骤,选择车辆附近的图像区域样本,对图像增加样本,对增加的样本改变像素使其成为具有相等强度的图像,最后进行深度学习训练得到模型;
所述算法模型训练步骤具体包括如下步骤:
根据当前车速进行兴趣区域设置,选择图像区域样本;
对所述图像区域样本增强,通过图像的几何变换,使用一种或多种组合进行样本增强变换来增加输入数据的量;
对比度归一化,通过从每个图像中减去整个图片的平均强度,然后重新缩放使得图像像素上的标准差等于预设常数;
进行深度卷积神经网络训练,确定网络模型与损失函数,采集交通场景下的图片,进行深度学习的网络训练,最终得到深度卷积神经网络模型;
所述损失函数包括定位损失、类别损失、置信度损失、距离误差四个要素,所述四个要素加权累加构成所述损失函数;
所述的定位损失为在预测目标的位置上带来的误差,表达式为:
Figure FDA0002830360550000011
其中,LossLoc为定位损失误差,I为第i个格子是否包含第j个物体的中心,若包含则为I=0,若不包含则I=1,x为横坐标,y为纵坐标,w为宽度,h为高度;
所述的类别损失为在预测目标的类别时带来的误差,表达式为:
Figure FDA0002830360550000012
其中,p(c)为类别向量;
所述的置信度损失为在预测是不是有物体时带来的误差,表达式为:
Figure FDA0002830360550000013
其中,p(obj)为存在目标的概率;
所述的距离误差为在预测目标的距离时带来的误差,表达式为:
Figure FDA0002830360550000021
其中,
Figure FDA0002830360550000022
为真实距离,nDis为预测距离;
算法模型预测步骤,基于所述训练得到的模型,选择车辆附近的图像区域样本,对所述图像区域样本对比度归一化,再进行深度卷积神经网络预测,输出图像数据。
2.如权利要求1所述的交通目标检测与测距方法,其特征在于,所述算法模型预测步骤具体包括如下步骤:
根据当前车速进行兴趣区域设置,选择图像区域样本;
对比度归一化,通过从每个图像中减去其平均值,然后重新缩放使得图像像素上的标准差等于预设常数;
深度卷积神经网络预测,对比度归一化后的图像输入到训练好的深度卷积神经网络模型中,输出图像数据。
3.如权利要求1所述的交通目标检测与测距方法,其特征在于,所述的兴趣区域设置的方式如下:在车速小于20km/h时,所述兴趣区域设置为车前及距离车辆两侧二十米内;在车速大于60km/h时,所述兴趣区域设置为车辆前方两百米。
4.如权利要求1所述的交通目标检测与测距方法,其特征在于,所述的对比度归一化,为近似的全局对比度归一化,输出图像X′:
Figure FDA0002830360550000023
其中,X∈Rr*c*З表示图像的三维张量,
Figure FDA0002830360550000024
表示整个图片的三维张量平均强度,i为第i行,j为第j列,k为颜色标号,i、j、k均为整数,λ为平衡标准差的正则化参数,ε为防止数值上溢的数值,r为行数,c为列数。
5.如权利要求1所述的交通目标检测与测距方法,其特征在于,所述方法进一步包括:对所述深度卷积神经网络进行不均匀的网格划分,每个网格预测落入当前网格的物体类别的可能性、坐标、距离。
6.如权利要求1所述的交通目标检测与测距方法,其特征在于,所述图像数据包括图片中的交通目标的类别、坐标、位置、置信度。
CN201810314076.XA 2018-04-10 2018-04-10 基于深度学习的交通目标检测与测距方法 Active CN108830131B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810314076.XA CN108830131B (zh) 2018-04-10 2018-04-10 基于深度学习的交通目标检测与测距方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810314076.XA CN108830131B (zh) 2018-04-10 2018-04-10 基于深度学习的交通目标检测与测距方法

Publications (2)

Publication Number Publication Date
CN108830131A CN108830131A (zh) 2018-11-16
CN108830131B true CN108830131B (zh) 2021-05-04

Family

ID=64155332

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810314076.XA Active CN108830131B (zh) 2018-04-10 2018-04-10 基于深度学习的交通目标检测与测距方法

Country Status (1)

Country Link
CN (1) CN108830131B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109886338A (zh) * 2019-02-25 2019-06-14 苏州清研精准汽车科技有限公司 一种智能汽车测试图像标注方法、装置、系统及存储介质
CN109902629A (zh) * 2019-03-01 2019-06-18 成都康乔电子有限责任公司 一种复杂交通场景下的实时车辆目标检测模型
CN111738036B (zh) * 2019-03-25 2023-09-29 北京四维图新科技股份有限公司 图像处理方法、装置、设备及存储介质
CN110398226A (zh) * 2019-05-21 2019-11-01 重庆邮电大学 一种用于先进辅助驾驶系统的单目视觉测距方法
CN110796103A (zh) * 2019-11-01 2020-02-14 邵阳学院 基于Faster-RCNN的目标及其距离检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103148837A (zh) * 2012-11-16 2013-06-12 Tcl集团股份有限公司 一种车距测量方法、装置及汽车
WO2015084154A1 (en) * 2013-12-04 2015-06-11 Mimos Berhad A system and method for locating a mobile device
CN106952303A (zh) * 2017-03-09 2017-07-14 北京旷视科技有限公司 车距检测方法、装置和系统
CN107316058A (zh) * 2017-06-15 2017-11-03 国家新闻出版广电总局广播科学研究院 通过提高目标分类和定位准确度改善目标检测性能的方法
CN107657237A (zh) * 2017-09-28 2018-02-02 东南大学 基于深度学习的汽车碰撞检测方法及系统
CN107703937A (zh) * 2017-09-22 2018-02-16 南京轻力舟智能科技有限公司 基于卷积神经网络的自动导航小车系统及其冲突规避方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6567832B2 (ja) * 2015-01-29 2019-08-28 日本電産株式会社 レーダシステム、レーダ信号処理装置、車両走行制御装置および方法、ならびにコンピュータプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103148837A (zh) * 2012-11-16 2013-06-12 Tcl集团股份有限公司 一种车距测量方法、装置及汽车
WO2015084154A1 (en) * 2013-12-04 2015-06-11 Mimos Berhad A system and method for locating a mobile device
CN106952303A (zh) * 2017-03-09 2017-07-14 北京旷视科技有限公司 车距检测方法、装置和系统
CN107316058A (zh) * 2017-06-15 2017-11-03 国家新闻出版广电总局广播科学研究院 通过提高目标分类和定位准确度改善目标检测性能的方法
CN107703937A (zh) * 2017-09-22 2018-02-16 南京轻力舟智能科技有限公司 基于卷积神经网络的自动导航小车系统及其冲突规避方法
CN107657237A (zh) * 2017-09-28 2018-02-02 东南大学 基于深度学习的汽车碰撞检测方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Amplitude-Modulated Laser Radar for Range and Speed Measurement in Car Applications;Xuesong Mao等;《IEEE Transactions on Intelligent Transportation Systems》;20110818;第13卷(第1期);第408-413页 *
Augmented Reality Meets Computer Vision : Efficient Data Generation for Urban Driving Scenes;Hassan Abu Alhaija等;《arXiv》;20170807;第1-12页 *
基于BP神经网络的纵向避撞安全辅助算法;章军辉等;《西安交通大学学报》;20170731;第51卷(第7期);第140-147页 *
基于深度学习的工业分拣机器人快速视觉识别与定位算法;伍锡如等;《论文与报告》;20161231;第38卷(第6期);第710-718页 *

Also Published As

Publication number Publication date
CN108830131A (zh) 2018-11-16

Similar Documents

Publication Publication Date Title
CN108830131B (zh) 基于深度学习的交通目标检测与测距方法
CN110942000B (zh) 一种基于深度学习的无人驾驶车辆目标检测方法
US10474908B2 (en) Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation
Rezaei et al. Robust vehicle detection and distance estimation under challenging lighting conditions
CN107274445B (zh) 一种图像深度估计方法和系统
CN107972662A (zh) 一种基于深度学习的车辆前向碰撞预警方法
CN111667512B (zh) 基于改进卡尔曼滤波的多目标车辆轨迹预测方法
CN112287860B (zh) 物体识别模型的训练方法及装置、物体识别方法及系统
Souani et al. Efficient algorithm for automatic road sign recognition and its hardware implementation
KR20200022001A (ko) 희귀 인스턴스 분류기들
Rezaei et al. Vehicle detection based on multi-feature clues and Dempster-Shafer fusion theory
US10878259B2 (en) Vehicle detecting method, nighttime vehicle detecting method based on dynamic light intensity and system thereof
CN111292366B (zh) 一种基于深度学习和边缘计算的视觉行车测距算法
CN116188999B (zh) 一种基于可见光和红外图像数据融合的小目标检测方法
CN106407951A (zh) 一种基于单目视觉的夜间前方车辆检测方法
CN107220632B (zh) 一种基于法向特征的路面图像分割方法
Doman et al. Estimation of traffic sign visibility toward smart driver assistance
Annamalai et al. An optimized computer vision and image processing algorithm for unmarked road edge detection
Liu et al. Real-time traffic light recognition based on smartphone platforms
JP2002133421A (ja) 移動物体認識方法及び装置
Bisht et al. Integration of hough transform and inter-frame clustering for road lane detection and tracking
Ying et al. An illumination-robust approach for feature-based road detection
CN108268866B (zh) 一种车辆检测方法和系统
Saravanarajan et al. Improving semantic segmentation under hazy weather for autonomous vehicles using explainable artificial intelligence and adaptive dehazing approach
CN112052768A (zh) 基于无人机的城市违章停车检测方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 215347 no.707, complex building, Kunshan Industrial Technology Research Institute, no.1699, Zuchongzhi South Road, Kunshan, Suzhou, Jiangsu Province

Applicant after: Kunshan Microelectronics Technology Research Institute

Address before: 215347 7th floor, IIR complex, 1699 Weicheng South Road, Kunshan City, Suzhou City, Jiangsu Province

Applicant before: KUNSHAN BRANCH, INSTITUTE OF MICROELECTRONICS OF CHINESE ACADEMY OF SCIENCES

GR01 Patent grant
GR01 Patent grant