CN111787481B - 一种基于5g的路车协调高精度感知方法 - Google Patents
一种基于5g的路车协调高精度感知方法 Download PDFInfo
- Publication number
- CN111787481B CN111787481B CN202010554720.8A CN202010554720A CN111787481B CN 111787481 B CN111787481 B CN 111787481B CN 202010554720 A CN202010554720 A CN 202010554720A CN 111787481 B CN111787481 B CN 111787481B
- Authority
- CN
- China
- Prior art keywords
- information
- vehicle
- target vehicle
- road
- millimeter wave
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000008447 perception Effects 0.000 claims abstract 3
- 238000001514 detection method Methods 0.000 claims description 54
- 230000004927 fusion Effects 0.000 claims description 44
- 238000005259 measurement Methods 0.000 claims description 35
- 230000000007 visual effect Effects 0.000 claims description 30
- 239000011159 matrix material Substances 0.000 claims description 28
- 238000004891 communication Methods 0.000 claims description 15
- 230000001133 acceleration Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 7
- 238000012216 screening Methods 0.000 claims description 7
- 238000012935 Averaging Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 230000006399 behavior Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000007499 fusion processing Methods 0.000 claims description 3
- 238000003709 image segmentation Methods 0.000 claims description 3
- 238000003064 k means clustering Methods 0.000 claims description 3
- 238000002156 mixing Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 230000001629 suppression Effects 0.000 claims description 3
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008846 dynamic interplay Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
-
- B60W2420/408—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/20—Static objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/801—Lateral distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/802—Longitudinal distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle for navigation systems
Abstract
本发明公开了一种基于5G的路车协调高精度感知方法,通过路侧设备实现对此路上的目标车辆横向、纵向测距;获取车辆的GPS定位信息,将目标车辆的位置经坐标转换成GPS定位信息输出,从而实现车辆的精确定位。通过本发明的技术方案,解决了卫星易被城市道路中高楼林立遮挡的问题,满足自动驾驶功能需求;突破了单车感知的局限,获取更全面的运行环境信息。
Description
技术领域
本发明属于智能交通车路协同技术领域,尤其涉及一种基于5G的路车协调高精度感知方法。
背景技术
交通系统是一个复杂的系统,若只依靠智能驾驶车辆解决交通拥堵问题,减少交通事故的发生,其可靠性并不高。车辆的感知系统一般由毫米波雷达及视觉传感器组成,由于视觉传感器的弊端和车辆运动造成的误差,当目标物体受遮挡或距离过远像素过低时均会对目标识别造成困难;当车辆上下坡时,毫米波雷达对目标的测距和速度测量会出现较大偏差。而路侧传感器可以稳定、全方面地的进行环境感知,突破了车辆传感器的局限。
目前V2X无线通信技术采用的是短程通信技术,其通信距离较短,存在较大延迟。而5G网络具有超低延时特性以及高可靠性。因此采用5G网络技术对车路信息进行动态交互,对提高车路时空交通信息融合的实时性有巨大的帮助。
现在人们普遍使用GPS定位技术实现车辆的定位,但是在卫星覆盖率低的地区或具有高楼遮挡的城市路段,其车辆的真实位置与测量位置存在较大偏差,不能满足车辆精确定位的需求。除此,还可以采用无线定位,但是无线定位的弊端是通讯的无线信号容易受到其他无线信号,天气等的干扰,造成测距不准确。
发明内容
为了解决上述已有技术存在的不足,本发明提出一种基于5G的路车协调高精度感知方法,通过路侧的感知传感器实现对此路上的目标车辆横向、纵向测距;根据路侧固定的融合设备的GPS定位信息,将目标车辆的位置经坐标转换成GPS定位信息输出,从而实现车辆的精确定位,本发明的具体技术方案如下:
一种基于5G的路车协调高精度感知方法,其特征在于,在每隔100-200米道路的高度5米以上的路侧设施上安装路侧设备,所述路侧设备包括视觉传感器、毫米波雷达和5G通讯设备,所述视觉传感器和所述毫米波雷达组成路侧融合设备,在智能驾驶车辆上安装毫米波雷达和5G通讯设备,所述感知方法包括以下步骤:
S1:针对路侧设备,对视觉传感器进行视觉传感器内、外参标定,将视觉传感器坐标系转换到图像坐标系;再进行视觉传感器单目测距标定,最后进行毫米波雷达与视觉传感器的联合标定,采用高精度GPS设备对路侧设备进行位置标定;
S2:目标识别;
S2-1:步骤S1的视觉传感器采集车辆数据集,标注样本,将图像数据进行格式转换;
S2-2:对步骤S2-1得到的数据集,基于caffe框架使用VGG16网络与SSD算法训练,得到的SSD模型;
S2-3:利用步骤S2-2得到的SSD模型进行目标检测,将检测结果进行预处理;
S2-4:利用NMS非极大抑制算法筛选步骤S2-3的SSD模型检测出目标车辆的预测框,按照置信度降序排序,选出置信度最高的预测框作为检测框,最后输出目标的类别及检测框的四个顶点坐标;
S3:视觉测距;
步骤S2目标识别后得到目标车辆的检测框,根据检测框的左上角坐标及右下角坐标计算车辆中心坐标,综合视觉传感器几何投影关系与单目测距标定对车辆进行距离测算,得出目标车辆的横向距离、纵向距离并储存到数据缓存区,输出目标车辆的类别、检测框在图像中的位置、视觉测量的目标车辆的横向距离、视觉测量的目标车辆的纵向距离和车辆所在车道信息;
S4:读取路侧设备的毫米波雷达信息,过滤、筛选探测到的目标车辆,采用K-means聚类算法对目标车辆信息进行聚类;
S5:将路侧设备的毫米波雷达探测到目标车辆信息与视觉传感器检测到的目标车辆信息变换到同一时空基准;
S5-1:多线程同步处理,一条线程负责路侧设备的毫米波雷达数据的处理,另一条线程获取视频帧及图像处理;
S5-2:根据步骤S1毫米波雷达和视觉传感器联合标定后得到的旋转矩阵及平移矩阵,将路侧设备的毫米波雷达探测到的目标车辆的点投影到像素坐标系上;
S6:采用图像分割划分出有效目标车辆的行驶区域即只保留车道区域作为感兴趣区域;
S7:对步骤S6获得的感兴趣区域的目标车辆进行视觉传感器目标和路侧设备的毫米波雷达目标的匹配,采用融合算法进行数据关联,具体方法为:
S7-1:设定视觉传感器检测到的检测框为匹配范围,判断路侧设备的毫米波雷达探测目标车辆的点是否落入检测框内;在检测框内,则进行第一次的目标粗匹配,将检测框内的探测点认为是粗匹配成功的目标车辆点,并将探测信息存到序列L1中作为候选雷达信息,未匹配成功的毫米波雷达信息存在另一序列L2中;
S7-2:对L1中候选雷达信息进行关联强度计算并进行第二次匹配,根据候选雷达信息中m个目标车辆的横、纵向距离信息记为样本向量a1-am,与视觉测距下n个目标车辆距离信息记为向量b1-bn,路侧设备的毫米波雷达检测的距离矩阵A为视觉传感器测距检测的距离矩阵B为将两个距离矩阵的距离差平方矩阵记为C,
S7-3:利用匈牙利匹配算法求出最小的距离差平方的匹配结果视为路侧设备的毫米波雷达与视觉传感器的关联匹配输出;将最优匹配结果的路侧设备的毫米波雷达的测速信息和测加速度信息、视觉传感器输出的车辆类别信息、车辆所属车道、车辆ID信息存入到序列L3中输出;
S7-4:将L2中未匹配成功的视觉距离信息与粗匹配未成功的路侧设备的毫米波雷达距离信息做匹配,成功则输入序列L3中,未成功则继续在下帧图像中进行匹配;匹配成功则将这帧雷达数据和上一帧视觉传感器识别的数据做融合并输出融合结果;
S8:对关联后的信息进行同目标信息融合处理;
S8-1:获取目标车辆在以前方距离最近的路侧融合设备的中心为原点所建的空间直角坐标系下的坐标为(xm,ym,zm),经坐标变换,转换为站点坐标系中的站点坐标(Em,Nm,Um)再经坐标逆变换为GPS大地坐标信息(Lm,Bm,Nm);
S8-2:获取路侧设备的毫米波雷达测量的速度及加速度信息、视觉传感器检测的车辆类型、毫米波雷达获取的目标车辆ID信息;
S8-3:将步骤S8-1和步骤S8-2获取的车辆信息按照车道进行ID分类并将同一ID的信息进行缓存,记录不同ID号的车辆的轨迹,根据车辆的加速度对行驶状态预测,判断是否有超车或车辆汇入行为;
S9:目标车辆在行驶过程中,向路侧设备发送信息请求,5G通讯模块根据目标车辆的ID号,寻找目标车辆同车道纵向距离150m内以及临车道纵向距离100m内的车辆信息,找到后,路侧设备不断向目标车辆发送自身的GPS位置信息,车道信息,同车道纵向距离150m内、临车道纵向距离100m内的车辆信息以及行驶状态信息;此时,目标车辆根据自身的毫米波雷达感知设备,得知前方车辆的行驶信息,目标车辆将结合路侧设备的返回信息和自身毫米波雷达检测信息综合考虑做出相应行驶反应。
进一步地,所述路侧设施为路龙门架或路灯。
进一步地,所述步骤S3输出目标车辆的类别包括小轿车、双座型小车、有蓬卡车、罐式车或客车。
进一步地,所述步骤S4对毫米波雷达信息的预处理包括滤波和去噪。
进一步地,所述步骤S8-1的目标车辆GPS位置信息的方法为:
S81:将第一处路侧设备的GPS信号(L0,B0,H0)作为站点坐标系的原点,其中,L0为大地经度、B0为大地纬度、H0为大地高,接下来将接收到的其余路侧设备的GPS信息(L,B,H)转换成地心直角坐标(X,Y,Z),
其中,L为路侧设备的大地经度、B为路侧设备的大地纬度、H为路侧设备的大地高度,X为路侧设备的地心直角坐标系X轴的数值、Y为路侧设备的地心直角坐标系Y轴的数值、Z为路侧设备的地心直角坐标系Z轴的数值,N为卯酉圈曲率半径,a、b、e分别为大地坐标系对应的地球椭圆长半轴、短半轴、第一偏心率,e2=(a2-b2)/a2、a=6378137m、b=6356.7523142km、e2=0.0066943799013;
S82:将地心直角坐标(X,Y,Z)转换成站点坐标(E,N,U),其中E为正东方向,N为正北方向,U为正天方向,
S83:已知目标车辆前方的路侧融合设备的站点坐标系为(E1,N1,U1),测量路侧融合设备与以第一处路侧融合设备建立的站点坐标系的坐标轴绕E轴旋转的旋转角γ,绕N轴旋转的旋转角θ,绕U轴旋转的旋转角p,得旋转矩阵:
其中,Rγ为绕E轴旋转的旋转矩阵,Rθ为绕N轴旋转的旋转矩阵,Rp为绕U轴旋转的旋转矩阵;
S84:以路侧融合设备的投影点为原点建立平面直角坐标系,垂直于此路侧融合设备平面的方向设为Y轴,且路侧融合设备探测的前方为Y轴正方向,与Y轴垂直的方向为X轴,按照右手定则,确定X轴正方向;
获取路侧融合设备的对目标车辆的测距信息,得到路侧设备的毫米波雷达测距值d1=(x1,y1),x1为毫米波雷达探测的X轴数值,y1为毫米波雷达探测的Y轴数值;单目测距的测距值d2=(x2,y2),x2为视觉传感器测算后获得的X轴数值,y2为视觉传感器测算后的Y轴数值,加权平均得出目标车辆相对路侧设备的横向距离值和纵向距离值dm=(xm,ym),其中,xm为加权平均后得到的X轴数值,ym为加权平均后得到的Y轴数值,其中w1和w2分别为x1和x2的权重,w3和w4分别为x3和x4的权重;
S85:路侧设备的高度已知为h=-zm,则目标车辆在以路侧设备中心为原点所建的空间直角坐标系下的坐标为(xm,ym,zm),目标车辆的站点坐标为(Em,Nm,Um),最后将(Em,Nm,Um)经坐标逆变换为GPS大地坐标信息(Lm,Bm,Nm)。
本发明的有益效果在于:
1.本文提出了路车协调方法,建立了路车融合感知系统,将路侧的视觉传感器与毫米波雷达的测距效果相融合,利用路侧设备获取车辆的精确GPS信息,提高了车辆间相对位置的定位精度,解决了卫星易被城市道路中高楼林立遮挡的问题,满足自动驾驶功能需求。
2.本发明的方法保障了海量数据的通讯、高清视频的传输与识别检测,可以实现数据通信量大,传输实时的要求。
3.本发明采用了路车融合的方案,主要利用路车感知设备获取车辆周围及轨迹上的环境信息,同时结合车辆自身感知信息,扩大车辆实际环境感知能力,突破了单车感知的局限,获取更全面的运行环境信息。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,通过参考附图会更加清楚的理解本发明的特征和优点,附图是示意性的而不应理解为对本发明进行任何限制,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,可以根据这些附图获得其他的附图。其中:
图1是本发明的路侧目标成像模型侧面图;
图2是本发明的高精度感知融合算法流程图;
图3是本发明的目标车辆定位流程图;
图4是基于5G路车协调示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
本发明提出一种基于5G的路车协调高精度感知方法,通过车路协同的方式,实现车辆的精确定位及获取车辆周围及轨迹上的环境信息。具有准确率高,定位精确的优点。
如图1-4所示,一种基于5G的路车协调高精度感知方法,在每隔100-200米道路的高度5米以上的路侧设施上安装路侧设备,路侧设备包括视觉传感器、毫米波雷达和5G通讯设备,视觉传感器和毫米波雷达组成路侧融合设备,在智能驾驶车辆上安装毫米波雷达和5G通讯设备,感知方法包括以下步骤:
S1:针对路侧设备,对视觉传感器进行视觉传感器内、外参标定,将视觉传感器坐标系转换到图像坐标系;再进行视觉传感器单目测距标定,最后进行毫米波雷达与视觉传感器的联合标定,采用高精度GPS设备对路侧设备进行位置标定;
S2:目标识别;
S2-1:步骤S1的视觉传感器采集车辆数据集,标注样本,将图像数据进行格式转换;
S2-2:对步骤S2-1得到的数据集,基于caffe框架使用VGG16网络与SSD(SingleShot MultiBox Detector)算法训练,得到的SSD模型;
S2-3:利用步骤S2-2得到的SSD模型进行目标检测,将检测结果进行预处理;
S2-4:利用NMS非极大抑制算法筛选步骤S2-3的SSD模型检测出目标车辆的预测框,按照置信度降序排序,选出置信度最高的预测框作为检测框,最后输出目标的类别及检测框的四个顶点坐标;
S3:视觉测距;
步骤S2目标识别后得到目标车辆的检测框,根据检测框的左上角坐标及右下角坐标计算车辆中心坐标,综合视觉传感器几何投影关系与单目测距标定对车辆进行距离测算,得出目标车辆的横向距离、纵向距离并储存到数据缓存区,输出目标车辆的类别、检测框在图像中的位置、视觉测量的目标车辆的横向距离、视觉测量的目标车辆的纵向距离和车辆所在车道信息;
如图1所示:dc为像面,O0为像面中点,AH为摄像机安装高度;光轴HO为CD的中垂线,且与地面交与点O;Px为目标P点在X轴方向的投影;Py为目标P点在Y轴方向的投影,对应像面上的py′;θ1为视觉传感器俯仰角;AB为视觉传感器视野最近点与视觉传感器在地面投影位置的距离,f为视觉传感器有效焦距,APy则为所求的路侧投影点与前车的距离。通过公式:θ1=θ2+α1计算视觉传感器的俯仰角θ1,并求出俯仰角的平均值。
S4:读取路侧设备的毫米波雷达信息,过滤、筛选探测到的目标车辆,采用K-means聚类算法对目标车辆信息进行聚类以消除同一个目标车辆上有多个毫米波雷达点的情况,通过计算不同雷达点间的距离来判断距离关系,相近的放到同一个类别中使同一个ID;再对毫米波雷达点进行过滤、筛选选取在感兴趣区域的雷达目标,消除无效信号如建筑物及灌木丛等及不存在的空目标。
S5:将路侧设备的毫米波雷达探测到目标车辆信息与视觉传感器检测到的目标车辆信息变换到同一时空基准;
S5-1:多线程同步处理,一条线程负责路侧设备的毫米波雷达数据的处理,另一条线程获取视频帧及图像处理;
S5-2:根据步骤S1毫米波雷达和视觉传感器联合标定后得到的旋转矩阵及平移矩阵,将路侧设备的毫米波雷达探测到的目标车辆的点投影到像素坐标系上;
S6:采用图像分割划分出有效目标车辆的行驶区域即只保留车道区域作为感兴趣区域;
通过采用灭点和道路边沿的提取,进行结构化道路的感兴趣区域划分。标准的马路道路边缘存在平行直线,平行直线在图像中的交点在灭点附近,通过提取多对平行直线(道路边缘线、车道线)的交点,求取这些交点的中心位置,近似的估计灭点。求出灭点后,可以使用灭点约束提取的道路边缘线,去除一些干扰的边缘直线,快速的提取一个三角形的路面目标车辆可行驶区域(去除对向车道的行驶区域)设定为感兴趣区域,在此区域中进行目标预测框和雷达点的筛选。
S7:对步骤S6获得的感兴趣区域的目标车辆进行视觉传感器目标和路侧设备的毫米波雷达目标的匹配,采用融合算法进行数据关联,具体方法为:
S7-1:设定视觉传感器检测到的检测框为匹配范围,判断路侧设备的毫米波雷达探测目标车辆的点是否落入检测框内;在检测框内,则进行第一次的目标粗匹配,将检测框内的探测点认为是粗匹配成功的目标车辆点,并将探测信息存到序列L1中作为候选雷达信息,未匹配成功的毫米波雷达信息存在另一序列L2中;
S7-2:对L1中候选雷达信息进行关联强度计算并进行第二次匹配,根据候选雷达信息中m个目标车辆的横、纵向距离信息记为样本向量a1-am,与视觉测距下n个目标车辆距离信息记为向量b1-bn,路侧设备的毫米波雷达检测的距离矩阵A为视觉传感器测距检测的距离矩阵B为将两个距离矩阵的距离差平方矩阵记为C,
S7-3:利用匈牙利匹配算法求出最小的距离差平方的匹配结果视为路侧设备的毫米波雷达与视觉传感器的关联匹配输出;将最优匹配结果的路侧设备的毫米波雷达的测速信息和测加速度信息、视觉传感器输出的车辆类别信息、车辆所属车道、车辆ID信息存入到序列L3中输出;
S7-4:将L2中未匹配成功的视觉距离信息与粗匹配未成功的路侧设备的毫米波雷达距离信息做匹配,成功则输入序列L3中,未成功则继续在下帧图像中进行匹配;匹配成功则将这帧雷达数据和上一帧视觉传感器识别的数据做融合并输出融合结果;
S8:对关联后的信息进行同目标信息融合处理;
S8-1:获取目标车辆在以前方距离最近的路侧融合设备的中心为原点所建的空间直角坐标系下的坐标为(xm,ym,zm),经坐标变换,转换为站点坐标系中的站点坐标(Em,Nm,Um)再经坐标逆变换为GPS大地坐标信息(Lm,Bm,Nm);
S8-2:获取路侧设备的毫米波雷达测量的速度及加速度信息、视觉传感器检测的车辆类型、毫米波雷达获取的目标车辆ID信息;
S8-3:将步骤S8-1和步骤S8-2获取的车辆信息按照车道进行ID分类并将同一ID的信息进行缓存,记录不同ID号的车辆的轨迹,根据车辆的加速度对行驶状态预测,判断是否有超车或车辆汇入行为;
S9:目标车辆在行驶过程中,向路侧设备发送信息请求,5G通讯模块根据目标车辆的ID号,寻找目标车辆同车道纵向距离150m内以及临车道纵向距离100m内的车辆信息,找到后,路侧设备不断向目标车辆发送自身的GPS位置信息,车道信息,同车道纵向距离150m内、临车道纵向距离100m内的车辆信息以及行驶状态信息;此时,目标车辆根据自身的毫米波雷达感知设备,得知前方车辆的行驶信息,目标车辆将结合路侧设备的返回信息和自身毫米波雷达检测信息综合考虑做出相应行驶反应。
路侧设施为路龙门架或路灯。
步骤S3输出目标车辆的类别包括小轿车、双座型小车、有蓬卡车、罐式车或客车。
步骤S4对毫米波雷达信息的预处理包括滤波和去噪。
步骤S8-1的目标车辆GPS位置信息的方法为:
S81:将第一处路侧设备的GPS信号(L0,B0,H0)作为站点坐标系的原点,其中,L0为大地经度、B0为大地纬度、H0为大地高,接下来将接收到的其余路侧设备的GPS信息(L,B,H)转换成地心直角坐标(X,Y,Z),
其中,L为路侧设备的大地经度、B为路侧设备的大地纬度、H为路侧设备的大地高度,X为路侧设备的地心直角坐标系X轴的数值、Y为路侧设备的地心直角坐标系Y轴的数值、Z为路侧设备的地心直角坐标系Z轴的数值,N为卯酉圈曲率半径,a、b、e分别为大地坐标系对应的地球椭圆长半轴、短半轴、第一偏心率,e2=(a2-b2)/a2、a=6378137m、b=6356.7523142km、e2=0.0066943799013;
S82:将地心直角坐标(X,Y,Z)转换成站点坐标(E,N,U),其中E为正东方向,N为正北方向,U为正天方向,
S83:已知目标车辆前方的路侧融合设备的站点坐标系为(E1,N1,U1),测量路侧融合设备与以第一处路侧融合设备建立的站点坐标系的坐标轴绕E轴旋转的旋转角γ,绕N轴旋转的旋转角θ,绕U轴旋转的旋转角p,得旋转矩阵:
其中,Rγ为绕E轴旋转的旋转矩阵,Rθ为绕N轴旋转的旋转矩阵,Rp为绕U轴旋转的旋转矩阵;
S84:以路侧融合设备的投影点为原点建立平面直角坐标系,垂直于此路侧融合设备平面的方向设为Y轴,且路侧融合设备探测的前方为Y轴正方向,与Y轴垂直的方向为X轴,按照右手定则,确定X轴正方向;
获取路侧融合设备的对目标车辆的测距信息,得到路侧设备的毫米波雷达测距值d1=(x1,y1),x1为毫米波雷达探测的X轴数值,y1为毫米波雷达探测的Y轴数值;单目测距的测距值d2=(x2,y2),x2为视觉传感器测算后获得的X轴数值,y2为视觉传感器测算后的Y轴数值,加权平均得出目标车辆相对路侧设备的横向距离值和纵向距离值dm=(xm,ym),其中,xm为加权平均后得到的X轴数值,ym为加权平均后得到的Y轴数值,其中w1和w2分别为x1和x2的权重,w3和w4分别为x3和x4的权重;
S85:路侧设备的高度已知为h=-zm,则目标车辆在以路侧设备中心为原点所建的空间直角坐标系下的坐标为(xm,ym,zm),目标车辆的站点坐标为(Em,Nm,Um),最后将(Em,Nm,Um)经坐标逆变换为GPS大地坐标信息(Lm,Bm,Nm)。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征之“上”或之“下”可以包括第一和第二特征直接接触,也可以包括第一和第二特征不是直接接触而是通过它们之间的另外的特征接触。而且,第一特征在第二特征“之上”、“上方”和“上面”包括第一特征在第二特征正上方和斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”包括第一特征在第二特征正下方和斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本发明中,术语“第一”、“第二”、“第三”、“第四”仅用于描述目的,而不能理解为指示或暗示相对重要性。术语“多个”指两个或两个以上,除非另有明确的限定。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于5G的路车协调高精度感知方法,其特征在于,在每隔100-200米道路的高度5米以上的路侧设施上安装路侧设备,所述路侧设备包括视觉传感器、毫米波雷达和5G通讯设备,所述视觉传感器和所述毫米波雷达组成路侧融合设备,在智能驾驶车辆上安装毫米波雷达和5G通讯设备,所述感知方法包括以下步骤:
S1:针对路侧设备,对视觉传感器进行视觉传感器内、外参标定,将视觉传感器坐标系转换到图像坐标系;再进行视觉传感器单目测距标定,最后进行毫米波雷达与视觉传感器的联合标定,采用高精度GPS设备对路侧设备进行位置标定;
S2:目标识别;
S2-1:步骤S1的视觉传感器采集车辆数据集,标注样本,将图像数据进行格式转换;
S2-2:对步骤S2-1得到的数据集,基于caffe框架使用VGG16网络与SSD算法训练,得到的SSD模型;
S2-3:利用步骤S2-2得到的SSD模型进行目标检测,将检测结果进行预处理;
S2-4:利用NMS非极大抑制算法筛选步骤S2-3的SSD模型检测出目标车辆的预测框,按照置信度降序排序,选出置信度最高的预测框作为检测框,最后输出目标的类别及检测框的四个顶点坐标;
S3:视觉测距;
步骤S2目标识别后得到目标车辆的检测框,根据检测框的左上角坐标及右下角坐标计算车辆中心坐标,综合视觉传感器几何投影关系与单目测距标定对车辆进行距离测算,得出目标车辆的横向距离、纵向距离并储存到数据缓存区,输出目标车辆的类别、检测框在图像中的位置、视觉测量的目标车辆的横向距离、视觉测量的目标车辆的纵向距离和车辆所在车道信息;
S4:读取路侧设备的毫米波雷达信息,过滤、筛选探测到的目标车辆,采用K-means聚类算法对目标车辆信息进行聚类;
S5:将路侧设备的毫米波雷达探测到目标车辆信息与视觉传感器检测到的目标车辆信息变换到同一时空基准;
S5-1:多线程同步处理,一条线程负责路侧设备的毫米波雷达数据的处理,另一条线程获取视频帧及图像处理;
S5-2:根据步骤S1毫米波雷达和视觉传感器联合标定后得到的旋转矩阵及平移矩阵,将路侧设备的毫米波雷达探测到的目标车辆的点投影到像素坐标系上;
S6:采用图像分割划分出有效目标车辆的行驶区域即只保留车道区域作为感兴趣区域;
S7:对步骤S6获得的感兴趣区域的目标车辆进行视觉传感器目标和路侧设备的毫米波雷达目标的匹配,采用融合算法进行数据关联,具体方法为:
S7-1:设定视觉传感器检测到的检测框为匹配范围,判断路侧设备的毫米波雷达探测目标车辆的点是否落入检测框内;在检测框内,则进行第一次的目标粗匹配,将检测框内的探测点认为是粗匹配成功的目标车辆点,并将探测信息存到序列L1中作为候选雷达信息,未匹配成功的毫米波雷达信息存在另一序列L2中;
S7-2:对L1中候选雷达信息进行关联强度计算并进行第二次匹配,根据候选雷达信息中m个目标车辆的横、纵向距离信息记为样本向量a1-am,与视觉测距下n个目标车辆距离信息记为向量b1-bn,路侧设备的毫米波雷达检测的距离矩阵A为A=[a1 … am],A的转置矩阵为视觉传感器测距检测的距离矩阵B为将两个距离矩阵的距离差平方矩阵记为C,
S7-3:利用匈牙利匹配算法求出最小的距离差平方的匹配结果视为路侧设备的毫米波雷达与视觉传感器的关联匹配输出;将最优匹配结果的路侧设备的毫米波雷达的测速信息和测加速度信息、视觉传感器输出的车辆类别信息、车辆所属车道、车辆ID信息存入到序列L3中输出;
S7-4:将L2中未匹配成功的视觉距离信息与粗匹配未成功的路侧设备的毫米波雷达距离信息做匹配,成功则输入序列L3中,未成功则继续在下帧图像中进行匹配;匹配成功则将这帧雷达数据和上一帧视觉传感器识别的数据做融合并输出融合结果;
S8:对关联后的信息进行同目标信息融合处理;
S8-1:获取目标车辆在以前方距离最近的路侧融合设备的中心为原点所建的空间直角坐标系下的坐标为(xm,ym,zm),经坐标变换,转换为站点坐标系中的站点坐标(Em,Nm,Um)再经坐标逆变换为GPS大地坐标信息(Lm,Bm,Nm);
S8-2:获取路侧设备的毫米波雷达测量的速度及加速度信息、视觉传感器检测的车辆类型、毫米波雷达获取的目标车辆ID信息;
S8-3:将步骤S8-1和步骤S8-2获取的车辆信息按照车道进行ID分类并将同一ID的信息进行缓存,记录不同ID号的车辆的轨迹,根据车辆的加速度对行驶状态预测,判断是否有超车或车辆汇入行为;
S9:目标车辆在行驶过程中,向路侧设备发送信息请求,5G通讯模块根据目标车辆的ID号,寻找目标车辆同车道纵向距离150m内以及临车道纵向距离100m内的车辆信息,找到后,路侧设备不断向目标车辆发送自身的GPS位置信息,车道信息,同车道纵向距离150m内、临车道纵向距离100m内的车辆信息以及行驶状态信息;此时,目标车辆根据自身的毫米波雷达感知设备,得知前方车辆的行驶信息,目标车辆将结合路侧设备的返回信息和自身毫米波雷达检测信息综合考虑做出相应行驶反应。
2.根据权利要求1所述的一种基于5G的路车协调高精度感知方法,其特征在于,所述路侧设施为路龙门架或路灯。
3.根据权利要求1所述的一种基于5G的路车协调高精度感知方法,其特征在于,所述步骤S3输出目标车辆的类别包括小轿车、双座型小车、有蓬卡车、罐式车或客车。
4.根据权利要求1所述的一种基于5G的路车协调高精度感知方法,其特征在于,所述步骤S4对毫米波雷达信息的预处理包括滤波和去噪。
5.根据权利要求1所述的一种基于5G的路车协调高精度感知方法,其特征在于,所述步骤S8-1的目标车辆GPS位置信息的方法为:
S81:将GPS设备获取的第一处路侧设备的位置信息(L0,B0,H0)作为站点坐标系的原点,其中,L0为大地经度、B0为大地纬度、H0为大地高,接下来将接收到的其余路侧设备的GPS信息(L,B,H)转换成地心直角坐标(X,Y,Z),
其中,L为路侧设备的大地经度、B为路侧设备的大地纬度、H为路侧设备的大地高度,X为路侧设备的地心直角坐标系X轴的数值、Y为路侧设备的地心直角坐标系Y轴的数值、Z为路侧设备的地心直角坐标系Z轴的数值,N为卯酉圈曲率半径,a、b、e分别为大地坐标系对应的地球椭圆长半轴、短半轴、第一偏心率,e2=(a2-b2)/a2、a=6378137m、b=6356.7523142km、e2=0.0066943799013;
S82:将地心直角坐标(X,Y,Z)转换成站点坐标(E,N,U),其中E为正东方向,N为正北方向,U为正天方向,
S83:已知目标车辆前方的路侧融合设备的站点坐标系为(E1,N1,U1),测量路侧融合设备与以第一处路侧融合设备建立的站点坐标系的坐标轴绕E轴旋转的旋转角γ,绕N轴旋转的旋转角θ,绕U轴旋转的旋转角p,得旋转矩阵:
其中,Rγ为绕E轴旋转的旋转矩阵,Rθ为绕N轴旋转的旋转矩阵,Rp为绕U轴旋转的旋转矩阵;
S84:以路侧融合设备的投影点为原点建立平面直角坐标系,垂直于此路侧融合设备平面的方向设为Y轴,且路侧融合设备探测的前方为Y轴正方向,与Y轴垂直的方向为X轴,按照右手定则,确定X轴正方向;
获取路侧融合设备的对目标车辆的测距信息,得到路侧设备的毫米波雷达测距值d1=(x1,y1),x1为毫米波雷达探测的X轴数值,y1为毫米波雷达探测的Y轴数值;单目测距的测距值d2=(x2,y2),x2为视觉传感器测算后获得的X轴数值,y2为视觉传感器测算后的Y轴数值,加权平均得出目标车辆相对路侧设备的横向距离值和纵向距离值dm=(xm,ym),其中,xm为加权平均后得到的X轴数值,ym为加权平均后得到的Y轴数值,其中w1和w2分别为x1和x2的权重,w3和w4分别为x3和x4的权重;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010554720.8A CN111787481B (zh) | 2020-06-17 | 2020-06-17 | 一种基于5g的路车协调高精度感知方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010554720.8A CN111787481B (zh) | 2020-06-17 | 2020-06-17 | 一种基于5g的路车协调高精度感知方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111787481A CN111787481A (zh) | 2020-10-16 |
CN111787481B true CN111787481B (zh) | 2021-06-29 |
Family
ID=72757186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010554720.8A Active CN111787481B (zh) | 2020-06-17 | 2020-06-17 | 一种基于5g的路车协调高精度感知方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111787481B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112526470A (zh) * | 2020-12-22 | 2021-03-19 | 北京百度网讯科技有限公司 | 标定雷达参数的方法和装置、电子设备、存储介质 |
CN112797975A (zh) * | 2020-12-30 | 2021-05-14 | 青岛海信网络科技股份有限公司 | 一种智能网联环境下的设备定位方法及装置 |
CN112816954B (zh) * | 2021-02-09 | 2024-03-26 | 中国信息通信研究院 | 一种基于真值的路侧感知系统评测方法和系统 |
CN115063733A (zh) * | 2021-02-27 | 2022-09-16 | 华为技术有限公司 | 一种对象检测方法及电子设备 |
CN113093128A (zh) * | 2021-04-09 | 2021-07-09 | 阿波罗智联(北京)科技有限公司 | 用于标定毫米波雷达的方法、装置、电子设备及路侧设备 |
CN115410379B (zh) * | 2021-05-28 | 2024-02-13 | 深圳成谷科技有限公司 | 应用于车路协同的匹配关系确定方法、装置及处理设备 |
CN113808389A (zh) * | 2021-08-11 | 2021-12-17 | 深圳市金溢科技股份有限公司 | 车路协同系统、边缘计算单元、中心云平台及信息处理方法 |
CN114279453B (zh) * | 2022-03-04 | 2022-07-19 | 智道网联科技(北京)有限公司 | 基于车路协同的自动驾驶车辆定位方法、装置及电子设备 |
CN114999198A (zh) * | 2022-04-14 | 2022-09-02 | 广州都市圈网络科技有限公司 | 基于高精度地图相对位置的混合交通流融合控制方法及系统 |
CN117351756A (zh) * | 2022-06-29 | 2024-01-05 | 中兴通讯股份有限公司 | 视野增强方法、电子设备及存储介质 |
CN114937249B (zh) * | 2022-07-21 | 2022-11-11 | 合肥工业大学 | 一种基于网格化管理的车路协同视觉感知处理方法 |
CN115412844A (zh) * | 2022-08-25 | 2022-11-29 | 北京大学 | 一种基于多模态信息联觉的车联网波束实时对准方法 |
CN116026349B (zh) * | 2022-12-30 | 2024-03-19 | 吉咖智能机器人有限公司 | 用于车辆距离测量的方法、装置、电子设备和介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110874945A (zh) * | 2018-08-31 | 2020-03-10 | 百度在线网络技术(北京)有限公司 | 基于车路协同的路侧感知系统及其车辆控制方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9806846B2 (en) * | 2015-07-24 | 2017-10-31 | Ziva Corp. | Wireless sensing with time reversal |
CN106874869B (zh) * | 2017-02-15 | 2018-07-27 | 北京航空航天大学 | 一种车载视觉感知的信息安全系统及方法 |
CN109948523B (zh) * | 2019-03-18 | 2019-12-03 | 中国汽车工程研究院股份有限公司 | 一种基于视频与毫米波雷达数据融合的目标物识别方法及其应用 |
CN110068818A (zh) * | 2019-05-05 | 2019-07-30 | 中国汽车工程研究院股份有限公司 | 通过雷达和图像采集设备进行交通路口车辆及行人检测的工作方法 |
CN110428619A (zh) * | 2019-07-26 | 2019-11-08 | 阿尔法巴人工智能(深圳)有限公司 | 一种基于车路协同系统的智能驾驶方法 |
CN110532896B (zh) * | 2019-08-06 | 2022-04-08 | 北京航空航天大学 | 一种基于路侧毫米波雷达和机器视觉融合的道路车辆检测方法 |
-
2020
- 2020-06-17 CN CN202010554720.8A patent/CN111787481B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110874945A (zh) * | 2018-08-31 | 2020-03-10 | 百度在线网络技术(北京)有限公司 | 基于车路协同的路侧感知系统及其车辆控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111787481A (zh) | 2020-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111787481B (zh) | 一种基于5g的路车协调高精度感知方法 | |
CN111554088B (zh) | 一种多功能v2x智能路侧基站系统 | |
CN107161141B (zh) | 无人驾驶汽车系统及汽车 | |
CN108960183B (zh) | 一种基于多传感器融合的弯道目标识别系统及方法 | |
CN106919915B (zh) | 基于adas系统的地图道路标记及道路质量采集装置及方法 | |
CN110532896B (zh) | 一种基于路侧毫米波雷达和机器视觉融合的道路车辆检测方法 | |
Li et al. | Automatic bridge crack detection using Unmanned aerial vehicle and Faster R-CNN | |
CN104616502B (zh) | 基于组合式车路视频网络的车牌识别与定位系统 | |
Ma et al. | Generation of horizontally curved driving lines in HD maps using mobile laser scanning point clouds | |
KR101569919B1 (ko) | 차량의 위치 추정 장치 및 방법 | |
Lin et al. | An automatic lane marking detection method with low-density roadside LiDAR data | |
CN104011737A (zh) | 用于探测雾的方法 | |
KR101785401B1 (ko) | 무인비행체를 이용한 적재불량 차량 단속 시스템 및 그 방법 | |
KR101735557B1 (ko) | 실시간 목표 탐지에 의한 교통 정보 수집 시스템 및 방법 | |
CN108645375B (zh) | 一种用于车载双目系统快速车辆测距优化方法 | |
CN112740225B (zh) | 一种路面要素确定方法及装置 | |
CN113378654B (zh) | 基于定位和视觉技术融合的车道级定位方法及系统 | |
CN109241855A (zh) | 基于立体视觉的智能车辆可行驶区域探测方法 | |
CN113962301B (zh) | 一种多源输入信号融合的路面质量检测方法及系统 | |
Sadekov et al. | Road sign detection and recognition in panoramic images to generate navigational maps | |
Belaroussi et al. | Convergence of a traffic signs-based fog density model | |
Ozawa | Image sensors in traffic and vehicle control | |
Shahbazi et al. | Vehicle Tracking and Speed Estimation from Unmanned Aerial Videos | |
CN117492026B (zh) | 结合激光雷达扫描的铁路货车装载状态检测方法及系统 | |
RU2807978C1 (ru) | Способ визуальной локализации городского рельсового транспорта на основе фильтров частиц калмана и данных о картировании |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |