CN108877267B - 一种基于车载单目相机的交叉路口检测方法 - Google Patents

一种基于车载单目相机的交叉路口检测方法 Download PDF

Info

Publication number
CN108877267B
CN108877267B CN201810883499.3A CN201810883499A CN108877267B CN 108877267 B CN108877267 B CN 108877267B CN 201810883499 A CN201810883499 A CN 201810883499A CN 108877267 B CN108877267 B CN 108877267B
Authority
CN
China
Prior art keywords
intersection
vehicle
network
layer
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810883499.3A
Other languages
English (en)
Other versions
CN108877267A (zh
Inventor
颜伏伍
王科未
邹斌
唐陆奇
李文博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Technology WUT
Original Assignee
Wuhan University of Technology WUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Technology WUT filed Critical Wuhan University of Technology WUT
Priority to CN201810883499.3A priority Critical patent/CN108877267B/zh
Publication of CN108877267A publication Critical patent/CN108877267A/zh
Application granted granted Critical
Publication of CN108877267B publication Critical patent/CN108877267B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Atmospheric Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于车载单目相机的交叉路口检测方法。本发明通过车载单目相机采集前方道路彩色图像并存储,通过位置传感器同步采集车辆在行驶过程中的地球大地坐标系位置信息,并转换为高斯平面坐标系下的坐标得到位置样本集,根据位置样本集构建路网拓扑图,根据路网拓扑图对原始图像样本集中的车辆前方道路图像样本进行标注;通过特征编码子网络、路口类型分类子网络和距离估计子网络构建深度神经网络;筛选样本集的图像样本作为深度神经网络输入,通过设计路口类型分类子任务的损失函数以及距离估计子任务的损失函数构建综合损失函数,综合损失函数通过最小批随机梯度下降的算法训练深度神经网络,得到训练后深度神经网络。

Description

一种基于车载单目相机的交叉路口检测方法
技术领域
本发明涉及智能汽车辅助驾驶或自动驾驶系统的路口检测方法,尤其涉及一种基于车载单目相机的交叉路口检测方法。
背景技术
智能驾驶汽车是未来汽车的重要发展方向,研究人员力图从安全、可靠、便利及高效等方面取得突破,减少事故风险,弥补人工驾驶的不足,并解放驾驶员,使其能促进汽车产业,交通安全,国防科技的发展。其涵盖了自动控制、计算机、电子信息、地理信息、人工智能等多门学科,利用相机、激光雷达、毫米波雷达、超声波雷达、GPS/INS组合导航等传感器,感知车辆周围环境,并根据感知系统得到的道路场景信息、车辆位置和状态信息和障碍物信息,构建局部地图,规划局部路径,并实时控制车辆的转向和速度,从而使得车辆能够安全、可靠地在道路上行驶,是当今世界前沿研究方向。随着计算机技术和人工智能的发展,智能无人驾驶汽车在军事、交通、工业生产、物流仓储、日常生活等方面展现出巨大的应用前景。
智能汽车自动驾驶技术主要包括环境感知、智能决策和运动控制等三个方面。环境感知作为其中重要一环,旨在为无人驾驶汽车提供周围环境信息,并对环境进行语义理解,为规划层提供有效的道路环境元素数据,是其他系统的数据基础。在结构化简单场景下,其功能主要为车道线跟随和避障,在复杂驾驶场景下对驾驶场景的抽象理解是必须的。路口作为道路场景中最为复杂,也相对危险的部分,无人驾驶汽车需要有提前预判路口位置的能力。对路口和非路口的区分,以及对路口类型的分辨是应对路口场景的前提。
发明内容
为了解决智能汽车自动驾驶系统或驾驶辅助系统中交叉路口检测问题,本发明提供了一种基于车载单目相机的交叉路口检测方法。本方法采用深度神经网络进行路口的分类和距离估计,通过对训练数据进行自动标注,可以获取充分的训练数据以训练算法自动获取泛化的特征用于路口类型分类和距离估计。相比于人工设计特征,深度神经网络通过大量数据自动提取的特征更加高效,能大大提高路口检测的鲁棒性和精度。
本发明的技术方案为一种基于车载单目相机的交叉路口检测方法,包括以下步骤:
步骤1:在试验车辆上安装前向单目相机和位置传感器,在典型驾驶场景里驾驶车辆通过相机采集前方道路RGB彩色图像即前方道路图像样本,并存储得到原始图像样本集,通过位置传感器同步采集车辆在行驶过程中的地球大地坐标系位置信息,将地球大地坐标系转换为高斯平面坐标系下的坐标得到位置样本集,根据位置样本集构建路网拓扑图,根据路网拓扑图对原始图像样本集中的车辆前方道路图像样本进行标注;
步骤2:通过特征编码子网络、路口类型分类子网络和距离估计子网络构建深度神经网络;
步骤3:筛选样本集的图像样本作为深度神经网络输入,通过设计路口类型分类子任务的损失函数以及距离估计子任务的损失函数构建综合损失函数,综合损失函数通过最小批随机梯度下降的算法训练深度神经网络,得到训练后深度神经网络;
作为优选,步骤1中所述彩色图像为img,所述原始图像样本集为SI={img};
步骤1中所述地球大地坐标系位置信息Ve(B,L,H,θ)主要包括经度B、纬度L、海拔H和航向角θ,转换到高斯平面坐标系位置信息Vi(x,y,θ),所述位置样本集为SV={Vi},高斯平面坐标系位置信息x坐标为:
Figure GDA0002624502320000021
高斯平面坐标系位置信息y坐标为:
Figure GDA0002624502320000022
其中,X为赤道至纬度为B的平行圈的子午线弧长,N为卯酉圈曲率半径,l 为投影点经度L与该点所处经度带轴子午线经度L0差,即l=L-L0,e为第一偏心率,e'为第二偏心率,t=tanB为纬度B的正切值,μ=e'cosB,赤道至纬度为B的平行圈的子午线弧长X的计算为:
X=a(1-e2)(A0B+A2sin2B+A4sin4B+A6sin6B+A8sin8B)
其中,a为地球长半轴,参数A0,A2,A4,A6和A8的计算为:
Figure GDA0002624502320000031
Figure GDA0002624502320000032
Figure GDA0002624502320000033
Figure GDA0002624502320000034
Figure GDA0002624502320000035
N计算公式见式:
Figure GDA0002624502320000036
其中η为世界大地坐标系的椭球扁率;
其中L0计算:
L0=6n-3
参数
Figure GDA0002624502320000037
通过位置样本集SV构建该驾驶区域的路网拓补图G(V,E),其中V(x,y)表示路网拓补图中的关键路点,E表示与之可通行的相邻路点的连线,相邻关键路点之间的距离应不小于Dt路点
对于一个待标注样本图像img∈SI,记s(img,clabel,dlabel)为其标注样本,其中clabel∈{0,1,2,3,4}为路口类型标签真值,dlabel∈[0.0,Dt路点]为距路口距离大小真值;
通过SI到SV的映射将图像img获取其位置信息Vi,并将其映射到路网拓补图 G(V,E)中,找到车辆行进方向上的上一个路点Vn-1和下一个路点Vn,计算当前位置Vi与下一个路点Vn的距离D(Vi,Vn):
Figure GDA0002624502320000038
若车辆距离下一个路点的距离D(Vi,Vn)大于阈值Dt路点,则车辆行驶在非路口,相应的图像应该标注为类别0,即样本s(img,0,Dt路点);
否则,计算与路点Vn关联的边的个数,记为deg(Vn),若deg(Vn)=2,则车辆行驶在非路口,相应的图像标注类别为0,即样本s(img,0,Dt路点);
若deg(Vn)=4,则车辆前方为十字路口,相应的图像应标注为类别4,车辆距路口的距离为D(Vi,Vn),即样本s(img,4,D(Vi,Vn));
若deg(Vn)=3,则车辆前方为T型路口,记V'n(x',y')和V”n(x”,y”)分别为与 Vn(x,y)连接的另外两个路点,分别计算
Figure GDA0002624502320000041
Figure GDA0002624502320000042
的夹角:
φ’=atan2(y’,x’)-atan2(y,x)
φ”=atan2(y”,x”)-atan2(y,x)
记为φ'和φ”;
若φ'和φ”中,任意一个夹角范围在(-π/6,π/6),另一夹角范围在(π/4,3π/ 4),则车辆处在第一类T型路口,相应的图像标注类别为1,车辆距路口的距离为D(Vi,Vn),即样本s(img,1,D(Vi,Vn));
若φ'和φ”中,任意一个夹角范围在(-π/6,π/6),另一夹角范围在(-3π/ 4,-π/4),则车辆处在第二类T型路口,相应的图像标注类别为2,车辆距路口的距离为D(Vi,Vn),即样本s(img,2,D(Vi,Vn));
若φ'和φ”中,任意一个夹角范围在(π/4,3π/4),另一夹角范围在(-3π/ 4,-π/4),则车辆处在第三类T型路口,相应的图像标注类别为3,车辆距路口的距离为D(Vi,Vn),即样本s(img,3,D(Vi,Vn));
对所有图像img∈SI进行上述处理,得到样本集S={s(img,clabel,dlabel)}。
作为优选,步骤2中所述特征编码子网络由一组卷积层组成,用于提取有效的特征图进行分类和距离估计,第一层卷积层的输入为样本图像img的归一化矩阵,其后的每一层的输入为上一层输出的多通道特征图,卷积层共有L层,最后一层输出的多通道特征图aL即为编码特征,卷积层的计算公式如下:
Figure GDA0002624502320000043
其中,
Figure GDA0002624502320000044
表示第l层第j个输出特征图所对应的多个输入特征图的索引集合,
Figure GDA0002624502320000051
表示第l层第j的编码特征,符号*表示卷积操作,
Figure GDA0002624502320000052
表示卷积核,所有Mj中的输入特征都公用一个偏置项
Figure GDA0002624502320000053
σ(·)为relu激活函数,其公式为:
Figure GDA0002624502320000054
所编码的多通道特征图aL分别经一个卷积核大小为1x1的卷积层处理得到两个新的编码特征图,并变换成特征向量为
Figure GDA0002624502320000055
Figure GDA0002624502320000056
分别传递给路口类型分类子网络和距离估计子网络;
步骤2中所述路口类型分类子网络由一组全连接层和一个Softmax层组成,第一层全连接层的输入为特征向量
Figure GDA0002624502320000057
其后每一层的的输入为上一层输出的特征向量,所述一组全连接层共有H层,最后一层包含5个神经元,最终输出的特征向量记作pH,其包含5个元素,记为
Figure GDA0002624502320000058
pH经Softmax层处理得到类别判断向量
Figure GDA0002624502320000059
其5个元素值分别属于对应类别的概率,且分属5个类别的概率和为1,全连接层计算公式如下:
Figure GDA00026245023200000510
其中,
Figure GDA00026245023200000511
为当前层特征向量,
Figure GDA00026245023200000512
为上一层特征向量,
Figure GDA00026245023200000513
为权重,
Figure GDA00026245023200000514
为偏置项。
Softmax层计算如下:
Figure GDA00026245023200000515
其中,n=5,表示共有5类,结果中每个值表示属于该类的概率,且分属5 个类别的概率和为1;
步骤2中所述距离估计子网络由一组全连接层组成,第一层得输入为特征向量
Figure GDA00026245023200000516
其后每一层的输入为上一层输出得特征向量,所述一组全连接层共有N 层,每一层的神经元个数逐渐减少,最后一层的输出个数为1,也即距离估计值,记为pd
作为优选,步骤3中所述筛选样本集S={s(img,clabel,dlabel)}的图像样本使非路口和路口类型样本的比例为1:3;
步骤3中所述路口类型分类子任务的损失函数为:
lossclass(ps,qs,Θ)=∑c∈Cqs(c)logps(c)
其中,ps为类别预测向量,qs为训练样本类别标签向量真值,Θ为网络权重参数,C为类别的集合,qs通过将训练样本分类标签clabel转换为向量表示得到,类别0至类别4应分别转换为[1,0,0,0,0]、[0,1,0,0,0]、[0,0,1,0,0]、[0,0,0,1,0] 和[0,0,0,0,1];
步骤3中所述距离估计子任务的损失函数为:
Figure GDA0002624502320000061
其中,pd为距离估计值;qd为距离真值,由训练样本的距路口距离大小真值dlabel归一化得到,qd=dlabel/Dt路点;Θ为网络权重参数;
Figure GDA0002624502320000062
为控制量,如果训练样本中clabel=0为非路口,其值取0,否则为1;
步骤3中所述综合损失函数为:
L(ps,qs,pd,qd,Θ)=lossclass(ps,qs,Θ)+λ·lossdist(pd,qd,Θ)
其中,ps为类别预测向量,qs为训练样本类别标签向量真值,pd为距离估计值; qd为距离真值;Θ为网络权重参数;λ为加权值;
步骤3中所述训练深度神经网络为:
采用最小批随机梯度下降的算法训练深度神经网络,每次迭代随机选择m 个样本计算损失函数值,并取其平均值作为反向传播误差用于更新权重,当在验证集上的准确率不再提高时终止网络训练,获得最优的网络权重参数。
Figure GDA0002624502320000063
Θ←Θ-η*g
其中,m为小批量样本数目;Θ为网络权重参数;η为学习速率。
本发明的有益效果是:本发明提出了一种采用自动标注数据训练深度神经网络自动提取特征进行路口类型识别和距离估计的方法。深度神经网络能从大量样本中自动学习到路口类型分类和距离估计的特征,比手工设计的特征更加稳健和泛化,能大大提高路口检测的效果。并且提出了自动标注数据样本的方法,比人工标注的方法更加高效,能获取足量的样本用于深度神经网络的训练,也有助于提高路口检测的效果。在应用阶段,所提出的算法只需要输入车辆当前位置前方图像信息即可得出路口类型及距离,能满足实时应用要求。
附图说明
图1:本发明定义的路口类型及其标签编号;
图2:本发明路口检测方法的流程示意图;
图3:本发明构建深度神经网络路口检测算法的流程示意图;
图4:本发明自动标注图像样本的流程示意图;
图5:本发明单帧图像标注的流程示意图;
图6:本发明由采集到的数据所构建的拓补地图可视化效果图;
图7:本发明所设计的用于路口检测的深度神经网络架构示意图;
图8:本发明的方法流程图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施示例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
下面结合图1至图8介绍本发明的实施方式,具体包括以下步骤:
步骤1:在试验车辆上安装前向单目相机和位置传感器,在典型驾驶场景里驾驶车辆通过相机采集前方道路RGB彩色图像即前方道路图像样本,并存储得到原始图像样本集,通过位置传感器同步采集车辆在行驶过程中的地球大地坐标系位置信息,将地球大地坐标系转换为高斯平面坐标系下的坐标得到位置样本集,根据位置样本集构建路网拓扑图,根据路网拓扑图对原始图像样本集中的车辆前方道路图像样本进行标注;
步骤1中所述彩色图像为img,所述原始图像样本集为SI={img};
步骤1中所述地球大地坐标系位置信息Ve(B,L,H,θ)主要包括经度B、纬度L、海拔H和航向角θ,转换到高斯平面坐标系位置信息Vi(x,y,θ),所述位置样本集为SV={Vi},高斯平面坐标系位置信息x坐标为:
Figure GDA0002624502320000071
高斯平面坐标系位置信息y坐标为:
Figure GDA0002624502320000081
其中,X为赤道至纬度为B的平行圈的子午线弧长,N为卯酉圈曲率半径,l 为投影点经度L与该点所处经度带轴子午线经度L0差,即l=L-L0,e= 0.08181919为第一偏心率,e'=0.082094438为第二偏心率,t=tanB为纬度B 的正切值,μ=e'cosB,赤道至纬度为B的平行圈的子午线弧长X的计算为:
X=a(1-e2)(A0B+A2sin2B+A4sin4B+A6sin6B+A8sin8B)
其中,a=6387137m为地球长半轴,参数A0,A2,A4,A6和A8的计算为:
Figure GDA0002624502320000082
Figure GDA0002624502320000083
Figure GDA0002624502320000084
Figure GDA0002624502320000085
Figure GDA0002624502320000086
N计算公式见式:
Figure GDA0002624502320000087
其中η为世界大地坐标系的椭球扁率,取值为0.0033528;
其中L0计算:
L0=6n-3
参数
Figure GDA0002624502320000088
通过位置样本集SV构建该驾驶区域的路网拓补图G(V,E),其中V(x,y)表示路网拓补图中的关键路点,E表示与之可通行的相邻路点的连线,相邻关键路点之间的距离应不小于Dt路点=20m。
对于一个待标注样本图像img∈SI,记s(img,clabel,dlabel)为其标注样本,其中clabel∈{0,1,2,3,4}为路口类型标签真值,dlabel∈[0.0,Dt路点]为距路口距离大小真值。
通过SI到SV的映射将图像img获取其位置信息Vi,并将其映射到路网拓补图 G(V,E)中,找到车辆行进方向上的上一个路点Vn-1和下一个路点Vn,计算当前位置Vi与下一个路点Vn的距离D(Vi,Vn):
Figure GDA0002624502320000091
若车辆距离下一个路点的距离D(Vi,Vn)大于阈值Dt路点,则车辆行驶在非路口,相应的图像应该标注为类别0,即样本s(img,0,Dt路点);
否则,计算与路点Vn关联的边的个数,记为deg(Vn),若deg(Vn)=2,则车辆行驶在非路口,相应的图像标注类别为0,即样本s(img,0,Dt路点);
若deg(Vn)=4,则车辆前方为十字路口,相应的图像应标注为类别4,车辆距路口的距离为D(Vi,Vn),即样本s(img,4,D(Vi,Vn));
若deg(Vn)=3,则车辆前方为T型路口,记V'n(x',y')和V”n(x”,y”)分别为与 Vn(x,y)连接的另外两个路点,分别计算
Figure GDA0002624502320000092
Figure GDA0002624502320000093
的夹角:
φ’=atan2(y’,x’)-atan2(y,x)
φ”=atan2(y”,x”)-atan2(y,x)
记为φ'和φ”;
若φ'和φ”中,任意一个夹角范围在(-π/6,π/6),另一夹角范围在(π/4,3π/ 4),则车辆处在第一类T型路口,相应的图像标注类别为1,车辆距路口的距离为D(Vi,Vn),即样本s(img,1,D(Vi,Vn));
若φ'和φ”中,任意一个夹角范围在(-π/6,π/6),另一夹角范围在(-3π/ 4,-π/4),则车辆处在第二类T型路口,相应的图像标注类别为2,车辆距路口的距离为D(Vi,Vn),即样本s(img,2,D(Vi,Vn));
若φ'和φ”中,任意一个夹角范围在(π/4,3π/4),另一夹角范围在(-3π/ 4,-π/4),则车辆处在第三类T型路口,相应的图像标注类别为3,车辆距路口的距离为D(Vi,Vn),即样本s(img,3,D(Vi,Vn));
对所有图像img∈SI进行上述处理,得到样本集S={s(img,clabel,dlabel)}。
步骤2:通过特征编码子网络、路口类型分类子网络和距离估计子网络构建深度神经网络;
步骤2中所述特征编码子网络由一组卷积层组成,用于提取有效的特征图进行分类和距离估计,第一层卷积层的输入为样本图像img的归一化矩阵,其后的每一层的输入为上一层输出的多通道特征图,卷积层共有L层,最后一层输出的多通道特征图aL即为编码特征,卷积层的计算公式如下:
Figure GDA0002624502320000101
其中,
Figure GDA0002624502320000102
表示第l层第j个输出特征图所对应的多个输入特征图的索引集合,
Figure GDA0002624502320000103
表示第l层第j的编码特征,符号*表示卷积操作,
Figure GDA0002624502320000104
表示卷积核,卷积核大小均为3×3,所有Mj中的输入特征都公用一个偏置项
Figure GDA0002624502320000105
σ(·)为relu激活函数,其公式为:
Figure GDA0002624502320000106
所编码的多通道特征图aL分别经一个卷积核大小为1x1的卷积层处理得到两个新的编码特征图,并变换成特征向量为
Figure GDA0002624502320000107
Figure GDA0002624502320000108
分别传递给路口类型分类子网络和距离估计子网络;
步骤2中所述路口类型分类子网络由一组全连接层和一个Softmax层组成,第一层全连接层的输入为特征向量
Figure GDA0002624502320000109
其后每一层的的输入为上一层输出的特征向量,所述一组全连接层共有H层,最后一层包含5个神经元,最终输出的特征向量记作pH,其包含5个元素,记为
Figure GDA00026245023200001010
pH经Softmax层处理得到类别判断向量
Figure GDA00026245023200001011
其5个元素值分别对应属于该类的概率,且分属5个类别得概率和为1,全连接层计算公式如下:
Figure GDA00026245023200001012
其中,
Figure GDA00026245023200001013
为当前层特征向量,
Figure GDA00026245023200001014
为上一层特征向量,
Figure GDA00026245023200001015
为权重,
Figure GDA00026245023200001016
为偏置项。
Softmax层计算如下:
Figure GDA0002624502320000111
其中,n=5,表示共有5类,结果中每个值表示属于该类的概率,且分属5 个类别的概率和为1;
步骤2中所述距离估计子网络由一组全连接层组成,第一层的输入为特征向量
Figure GDA0002624502320000112
其后每一层的输入为上一层输出得特征向量,所述一组全连接层共有N 层,每一层的神经元个数逐渐减少,最后一层的输出个数为1,也即距离估计值,记为pd
步骤3:筛选样本集的图像样本作为深度神经网络输入,通过设计路口类型分类子任务的损失函数以及距离估计子任务的损失函数构建综合损失函数,综合损失函数通过最小批随机梯度下降的算法训练深度神经网络,得到训练后深度神经网络;
步骤3中所述筛选样本集S={s(img,clabel,dlabel)}的图像样本使非路口和路口类型样本的比例约为1:3;
步骤3中所述路口类型分类子任务的损失函数为:
lossclass(ps,qs,Θ)=∑c∈Cqs(c)logps(c)
其中,ps为类别预测向量,qs为训练样本类别标签向量真值,Θ为网络权重参数,C为类别的集合,qs通过将训练样本分类标签clabel转换为向量表示得到,类别0至类别4应分别转换为[1,0,0,0,0]、[0,1,0,0,0]、[0,0,1,0,0]、[0,0,0,1,0] 和[0,0,0,0,1];
步骤3中所述距离估计子任务的损失函数为:
Figure GDA0002624502320000113
其中,pd为距离估计值;qd为距离真值,由训练样本的距路口距离大小真值 dlabel归一化得到,qd=dlabel/Dthr;Θ为网络权重参数;
Figure GDA0002624502320000114
为控制量,如果训练样本中clabel=0为非路口,其值取0,否则为1;
步骤3中所述综合损失函数为:
L(ps,qs,pd,qd,Θ)=lossclass(ps,qs,Θ)+λ·lossdist(pd,qd,Θ)
其中,ps为类别预测向量,qs为训练样本类别标签向量真值,pd为距离估计值;qd为距离真值;Θ为网络权重参数;λ=0.3为加权值;
步骤3中所述训练深度神经网络为:
采用最小批随机梯度下降的算法训练深度神经网络,每次迭代随机选择m 个样本计算损失函数值,并取其平均值作为反向传播误差用于更新权重,当在验证集上的准确率不再提高时终止网络训练,获得最优的网络权重参数。
Figure GDA0002624502320000121
Θ←Θ-∈g
其中,m为小批量样本数目,可取4,8,16,32等;Θ为网络权重参数;∈=0.0001 为学习速率。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (1)

1.一种基于车载单目相机的交叉路口检测方法,其特征在于,包括以下步骤:
步骤1:在试验车辆上安装前向单目相机和位置传感器,在典型驾驶场景里驾驶车辆通过相机采集前方道路RGB彩色图像即前方道路图像样本,并存储得到原始图像样本集,通过位置传感器同步采集车辆在行驶过程中的地球大地坐标系位置信息,将地球大地坐标系转换为高斯平面坐标系下的坐标得到位置样本集,根据位置样本集构建路网拓扑图,根据路网拓扑图对原始图像样本集中的车辆前方道路图像样本进行标注;
步骤2:通过特征编码子网络、路口类型分类子网络和距离估计子网络构建深度神经网络;
步骤3:筛选样本集的图像样本作为深度神经网络输入,通过设计路口类型分类子任务的损失函数以及距离估计子任务的损失函数构建综合损失函数,综合损失函数通过最小批随机梯度下降的算法训练深度神经网络,得到训练后深度神经网络;
步骤1中所述彩色图像为img,所述原始图像样本集为SI={img};
步骤1中所述地球大地坐标系位置信息Ve(B,L,H,θ)主要包括经度B、纬度L、海拔H和航向角θ,转换到高斯平面坐标系位置信息Vi(x,y,θ),所述位置样本集为SV={Vi},高斯平面坐标系位置信息x坐标为:
Figure FDA0002676695070000011
高斯平面坐标系位置信息y坐标为:
Figure FDA0002676695070000012
其中,X为赤道至纬度为B的平行圈的子午线弧长,N为卯酉圈曲率半径,l为投影点经度L与该点所处经度带轴子午线经度L0差,即l=L-L0,e为第一偏心率,e′为第二偏心率,t=tan B为纬度B的正切值,μ=e′cos B,赤道至纬度为B的平行圈的子午线弧长X的计算为:
X=a(1-e2)(AOB+A2 sin 2B+A4 sin 4B+A6 sin 6B+A8 sin 8B)
其中,a为地球长半轴,参数A0,A2,A4,A6和A8的计算为:
Figure FDA0002676695070000021
Figure FDA0002676695070000022
Figure FDA0002676695070000023
Figure FDA0002676695070000024
Figure FDA0002676695070000025
N计算公式见式:
Figure FDA0002676695070000026
其中η为世界大地坐标系的椭球扁率;
其中L0计算:
L0=6n-3
参数
Figure FDA0002676695070000027
通过位置样本集SV构建该驾驶区域的路网拓补图G(V,E),其中V(x,y)表示路网拓补图中的关键路点,E表示与之可通行的相邻路点的连线,相邻关键路点之间的距离应不小于Dthr
对于一个待标注样本图像img∈SI,记s(img,clabel,dlabel)为其标注样本,其中clabel∈{0,1,2,3,4}为路口类型标签真值,dlabel∈[0.O,Dthr]为距路口距离大小真值;
通过SI到SV的映射将图像img获取其位置信息Vi,并将其映射到路网拓补图G(V,E)中,找到车辆行进方向上的上一个路点Vn-1和下一个路点Vn,计算当前位置Vi与下一个路点Vn的距离D(Vi,Vn):
Figure FDA0002676695070000028
若车辆距离下一个路点的距离D(Vi,Vn)大于阈值Dthr,则车辆行驶在非路口,相应的图像应该标注为类别0,即样本s(img,O,Dthr);
否则,计算与路点Vn关联的边的个数,记为deg(Vn),若deg(Vn)=2,则车辆行驶在非路口,相应的图像标注类别为0,即样本s(img,0,Dthr);
若deg(Vn)=4,则车辆前方为十字路口,相应的图像应标注为类别4,车辆距路口的距离为D(Vi,Vn),即样本s(img,4,D(Vi,Vn));
若deg(Vn)=3,则车辆前方为T型路口,记V′n(x′,y′)和V″n(x″,y″)分别为与Vn(x,y)连接的另外两个路点,分别计算
Figure FDA0002676695070000031
Figure FDA0002676695070000032
的夹角:
φ′=atan2(y′,x′)-atan2(y,x)
φ″=atan2(y″,x″)-atan2(y,x)
记为φ′和φ″;
若φ′和φ″中,任意一个夹角范围在(-π/6,π/6),另一夹角范围在(π/4,3π/4),则车辆处在第一类T型路口,相应的图像标注类别为1,车辆距路口的距离为D(Vi,Vn),即样本s(img,1,D(Vi,Vn));
若φ′和φ″中,任意一个夹角范围在(-π/6,π/6),另一夹角范围在(-3π/4,-π/4),则车辆处在第二类T型路口,相应的图像标注类别为2,车辆距路口的距离为D(Vi,Vn),即样本s(img,2,D(Vi,Vn));
若φ′和φ″中,任意一个夹角范围在(π/4,3π/4),另一夹角范围在(-3π/4,-π/4),则车辆处在第三类T型路口,相应的图像标注类别为3,车辆距路口的距离为D(Vi,Vn),即样本s(img,3,D(Vi,Vn));
对所有图像img∈SI进行上述处理,得到样本集S={s(img,clabel,dlabel)};
步骤2中所述特征编码子网络由一组卷积层组成,用于提取有效的特征图进行分类和距离估计,第一层卷积层的输入为样本图像img的归一化矩阵,其后的每一层的输入为上一层输出的多通道特征图,卷积层共有L层,最后一层输出的多通道特征图aL即为编码特征,卷积层的计算公式如下:
Figure FDA0002676695070000033
其中,
Figure FDA0002676695070000034
表示第l层第j个输出特征图所对应的多个输入特征图的索引集合,
Figure FDA0002676695070000041
表示第l层第j的编码特征,符号*表示卷积操作,
Figure FDA0002676695070000042
表示卷积核,所有Mj中的输入特征都公用一个偏置项
Figure FDA0002676695070000043
σ(·)为relu激活函数,其公式为:
Figure FDA0002676695070000044
所编码的多通道特征图aL分别经一个卷积核大小为1x1的卷积层处理得到两个新的编码特征图,并变换成特征向量为
Figure FDA0002676695070000045
Figure FDA0002676695070000046
分别传递给路口类型分类子网络和距离估计子网络;
步骤2中所述路口类型分类子网络由一组全连接层和一个Softmax层组成,第一层全连接层的输入为特征向量
Figure FDA0002676695070000047
其后每一层的的输入为上一层输出的特征向量,所述一组全连接层共有H层,最后一层包含5个神经元,最终输出的特征向量记作pH,其包含5个元素,记为
Figure FDA0002676695070000048
pH经Softmax层处理得到类别判断向量
Figure FDA0002676695070000049
其5个元素值分别属于对应类别的概率,且分属5个类别的概率和为1,全连接层计算公式如下:
Figure FDA00026766950700000410
其中,
Figure FDA00026766950700000411
为当前层特征向量,
Figure FDA00026766950700000412
为上一层特征向量,
Figure FDA00026766950700000413
为权重,
Figure FDA00026766950700000414
为偏置项;
Softmax层计算如下:
Figure FDA00026766950700000415
其中,n=5,表示共有5类,结果中每个值表示属于该类的概率,且分属5个类别的概率和为1;
步骤2中所述距离估计子网络由一组全连接层组成,第一层得输入为特征向量
Figure FDA00026766950700000416
其后每一层的输入为上一层输出得特征向量,所述一组全连接层共有N层,每一层的神经元个数逐渐减少,最后一层的输出个数为1,也即距离估计值,记为pd
步骤3中所述筛选样本集S={s(img,clabel,dlabel)}的图像样本使非路口和路口类型样本的比例为1∶3;
步骤3中所述路口类型分类子任务的损失函数为:
lossclass(ps,qs,Θ)=∑c∈Cqs(c)log ps(c)
其中,ps为类别预测向量,qs为训练样本类别标签向量真值,Θ为网络权重参数,C为类别的集合,qs通过将训练样本分类标签clabel转换为向量表示得到,类别0至类别4应分别转换为[1,0,0,0,0]、[0,1,0,0,0]、[0,0,1,0,0]、[0,0,0,1,0]和[0,0,0,0,1];
步骤3中所述距离估计子任务的损失函数为:
Figure FDA0002676695070000051
其中,pd为距离估计值;qd为距离真值,由训练样本的距路口距离大小真值dlabel归一化得到,qd=dlabel/Dthr;Θ为网络权重参数;
Figure FDA0002676695070000052
为控制量,如果训练样本中clabel=0为非路口,其值取0,否则为1;
步骤3中所述综合损失函数为:
L(ps,qs,pd,qd,Θ)=lossclass(ps,qs,Θ)+λ·lossdist(pd,qd,Θ)
其中,ps为类别预测向量,qs为训练样本类别标签向量真值,pd为距离估计值;qd为距离真值;Θ为网络权重参数;λ为加权值;
步骤3中所述训练深度神经网络为:
采用最小批随机梯度下降的算法训练深度神经网络,每次迭代随机选择m个样本计算损失函数值,并取其平均值作为反向传播误差用于更新权重,当在验证集上的准确率不再提高时终止网络训练,获得最优的网络权重参数;
Figure FDA0002676695070000053
Θ←Θ-η*g
其中,m为小批量样本数目;Θ为网络权重参数;η为学习速率。
CN201810883499.3A 2018-08-06 2018-08-06 一种基于车载单目相机的交叉路口检测方法 Active CN108877267B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810883499.3A CN108877267B (zh) 2018-08-06 2018-08-06 一种基于车载单目相机的交叉路口检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810883499.3A CN108877267B (zh) 2018-08-06 2018-08-06 一种基于车载单目相机的交叉路口检测方法

Publications (2)

Publication Number Publication Date
CN108877267A CN108877267A (zh) 2018-11-23
CN108877267B true CN108877267B (zh) 2020-11-03

Family

ID=64307931

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810883499.3A Active CN108877267B (zh) 2018-08-06 2018-08-06 一种基于车载单目相机的交叉路口检测方法

Country Status (1)

Country Link
CN (1) CN108877267B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112307236A (zh) * 2019-07-24 2021-02-02 阿里巴巴集团控股有限公司 一种数据标注方法及其装置
CN110728170B (zh) * 2019-08-08 2023-08-18 北京联合大学 一种基于路口信息的混合模型交通信号检测方法及系统
CN110688958A (zh) * 2019-09-28 2020-01-14 中国测绘科学研究院 基于GoogLeNet神经网络的交叉路口识别方法
WO2021071422A1 (en) * 2019-10-10 2021-04-15 Grabtaxi Holdings Pte. Ltd. Method, data processing apparatus and computer program product for determining road intersections
CN112784639A (zh) * 2019-11-07 2021-05-11 北京市商汤科技开发有限公司 路口检测、神经网络训练及智能行驶方法、装置和设备
CN111026127B (zh) * 2019-12-27 2021-09-28 南京大学 基于部分可观测迁移强化学习的自动驾驶决策方法及系统
CN111814963B (zh) * 2020-07-17 2024-05-07 中国科学院微电子研究所 一种基于深度神经网络模型参数调制的图像识别方法
CN112150804B (zh) * 2020-08-31 2021-10-19 中国地质大学(武汉) 一种基于MaskRCNN算法的城市多类型交叉口识别方法
CN112329615B (zh) * 2020-11-04 2022-04-15 中国海洋大学 一种用于水下视觉目标自主抓取的环境态势评估方法
CN112434643A (zh) * 2020-12-06 2021-03-02 零八一电子集团有限公司 低慢小目标的分类识别方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104240260B (zh) * 2014-10-09 2017-01-18 武汉大学 一种基于叉路识别的道路智能提取方法
US10115039B2 (en) * 2016-03-10 2018-10-30 Siemens Healthcare Gmbh Method and system for machine learning based classification of vascular branches
CN105788274B (zh) * 2016-05-18 2018-03-27 武汉大学 基于时空轨迹大数据的城市交叉口车道级结构提取方法
CN106408015A (zh) * 2016-09-13 2017-02-15 电子科技大学成都研究院 基于卷积神经网络的岔路口识别及深度估计方法
CN107480679B (zh) * 2017-04-20 2021-08-17 北京工业大学 基于卷积神经网络的分类和连通区域分析的路网提取方法
CN108319895B (zh) * 2017-12-29 2021-09-17 百度在线网络技术(北京)有限公司 用于识别电子地图中的路口的方法和装置
CN108256464B (zh) * 2018-01-12 2020-08-11 适普远景遥感信息技术(北京)有限公司 基于深度学习的高分辨率遥感影像城市道路提取方法

Also Published As

Publication number Publication date
CN108877267A (zh) 2018-11-23

Similar Documents

Publication Publication Date Title
CN108877267B (zh) 一种基于车载单目相机的交叉路口检测方法
Ni et al. An improved deep network-based scene classification method for self-driving cars
US11175145B2 (en) System and method for precision localization and mapping
WO2021249071A1 (zh) 一种车道线的检测方法及相关设备
Muhammad et al. Vision-based semantic segmentation in scene understanding for autonomous driving: Recent achievements, challenges, and outlooks
CN109739926B (zh) 一种基于卷积神经网络的移动对象目的地预测方法
CN108062569B (zh) 一种基于红外和雷达的无人车驾驶决策方法
CN111169468B (zh) 一种自动泊车的系统及方法
KR102539942B1 (ko) 궤적 계획 모델을 훈련하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램
Kim et al. Vision-based real-time obstacle segmentation algorithm for autonomous surface vehicle
CN113095152B (zh) 一种基于回归的车道线检测方法及系统
Habibi et al. Context-aware pedestrian motion prediction in urban intersections
US11270425B2 (en) Coordinate estimation on n-spheres with spherical regression
Nigam et al. A review of different components of the intelligent traffic management system (itms)
CN114120270A (zh) 一种基于注意力和采样学习的点云目标检测方法
Li et al. Multi-modal neural feature fusion for automatic driving through perception-aware path planning
CN106650814A (zh) 一种基于车载单目视觉室外道路自适应分类器生成方法
Khalil et al. Advanced Learning Technologies for Intelligent Transportation Systems: Prospects and Challenges
Ansari et al. Angle-based feature learning in GNN for 3D object detection using point cloud
Priya et al. Vehicle Detection in Autonomous Vehicles Using Computer Vision Check for updates
Ranjbar et al. Scene novelty prediction from unsupervised discriminative feature learning
Pavlove et al. Efficient Deep Learning Methods for Automated Visibility Estimation at Airports
Vellaidurai et al. A novel OYOLOV5 model for vehicle detection and classification in adverse weather conditions
Wu et al. Research on obstacle avoidance optimization and path planning of autonomous vehicles based on attention mechanism combined with multimodal information decision-making thoughts of robots
US20220155096A1 (en) Processing sparse top-down input representations of an environment using neural networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant