CN113436257A - 一种基于道路几何信息的车辆位置实时检测方法 - Google Patents

一种基于道路几何信息的车辆位置实时检测方法 Download PDF

Info

Publication number
CN113436257A
CN113436257A CN202110641118.2A CN202110641118A CN113436257A CN 113436257 A CN113436257 A CN 113436257A CN 202110641118 A CN202110641118 A CN 202110641118A CN 113436257 A CN113436257 A CN 113436257A
Authority
CN
China
Prior art keywords
vehicle
real
coordinate system
image
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110641118.2A
Other languages
English (en)
Other versions
CN113436257B (zh
Inventor
刘超
许博强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN202110641118.2A priority Critical patent/CN113436257B/zh
Publication of CN113436257A publication Critical patent/CN113436257A/zh
Application granted granted Critical
Publication of CN113436257B publication Critical patent/CN113436257B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明涉及一种基于道路几何信息的车辆位置实时检测方法,包括以下步骤:1)进行车辆实时目标检测,获取车辆的几何信息;2)根据车辆的几何信息,基于卷积神经网络与BP神经网络获取图像中车辆与路面接触点位置坐标;3)基于路面交通线图像信息与相机内参数计算得到图像坐标系与现实坐标系之间的转换关系,即单应性矩阵H;4)根据转换关系对车辆与路面接触点进行转换,得到车辆的实时位置。与现有技术相比,本发明具有无需现场标记控制点、节省标记人工成本、检测精度高等优点。

Description

一种基于道路几何信息的车辆位置实时检测方法
技术领域
本发明涉及道路车辆检测技术领域,尤其是涉及一种基于道路几何信息的车辆位置实时检测方法。
背景技术
路面的车辆的时间空间分布信息能够对道路或桥梁的受力状态评估提供了可靠的依据,也能够为交通管理的相关决策提供原始数据,因此能够高效、准确地测量路面车辆的实时位置在土木工程、交通工程领域具有非常重大的意义。车辆位置的检测主要需要有两个解决的问题,一是需要对车辆的位置进行精确定位,由于图像信息是二维的,现实空间是三维的,从二维图像中更精确地恢复三维信息是一项具有挑战性的工作;二是需要进行实时监测,这就需要对现有算法进行优化,提高其效率,使其能够更快地对监控视频进行检测。
经过对现有技术的文献检索发现,车辆检测中的研究多集中在优化车辆检测跟踪算法,以实现准确地对车辆的实时位置进行检测的目的。
申请号为201911128448.0的中国专利“基于视觉的密度交通车辆计数和交通流量计算方法及系统”提出一种基于视觉的车辆检测系统,对连续帧图像进行缩放得到金字塔特征图,用金字塔-YOLO网络检测不同尺度的车辆目标,对车辆进行计数,并根据计数结果估计车辆流量,得到车辆流量交通体量、速度和密度。
申请号为CN201910608892.6的中国专利“一种基于双目立体视觉系统的车辆智能测轨迹方法”提出了一种基于双目立体视觉系统的车辆智能测轨迹方法,利用SSD神经网络得到车牌识别模型,对双目立体视觉系统进行标定,拍摄运动的目标车辆的视频,再对车牌位置进行立体匹配,对匹配点对进行立体测量,获取视频帧中车辆空间坐标下的位置,按时间顺序生成车辆的运行轨迹,实现了多车道、多目标、多方向车辆的同时测量。
但在以上的已有相关研究中,对车辆与路面接触点的估计较为粗糙,增大了误差;现有的确定车辆在路面具体位置的计算方法需要在现场标记控制点,效率较低,缺乏简便的坐标转换方法。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于道路几何信息的车辆位置实时检测方法。
本发明的目的可以通过以下技术方案来实现:
一种基于道路几何信息的车辆位置实时检测方法,包括以下步骤:
1)进行车辆实时目标检测,获取车辆的几何信息;
2)根据车辆的几何信息,基于卷积神经网络与BP神经网络获取图像中车辆与路面接触点位置坐标;
3)基于路面交通线图像信息与相机内参数计算得到图像坐标系与现实坐标系之间的转换关系,即单应性矩阵H;
4)根据转换关系对车辆与路面接触点进行转换,得到车辆的实时位置。
所述的步骤1)中,采用公开数据集DETRAC进行训练,通过YOLOv4网络进行车辆实时目标检测,得到车辆的几何信息。
所述的步骤2)具体包括以下步骤:
21)对于检测出的车辆图像,将车辆与路面接触点的位置简化为车辆轮子围成的矩形,并获取车辆与路面接触点位置O的坐标;
22)获取多幅公开数据集中的车辆图像并通过步骤21)获取每幅图像中车辆与路面接触点位置O的坐标,将车辆图像缩放后采用Vgg16网络的卷积层进行几何特征的提取得到几何特征向量;
23)构建一个BP神经网络,并以几何特征向量作为输入,以车辆与路面接触点位置O的坐标作为输出进行训练和测试。
所述的步骤21)中,由于车身的遮挡,车辆只显现一侧的轮胎,假设车辆的两个后视镜之间的距离与车轮之间的距离相等且相互平行,则车辆与路面接触点位置O的坐标表达式为:
Figure BDA0003107789140000031
其中,xA、yA为一侧后轮接地点A的坐标,xB、yB为一侧前轮接地点B的坐标,xC、yC为另一侧前轮接地点C的坐标,
Figure BDA0003107789140000032
为一侧后视镜W1的坐标,
Figure BDA0003107789140000033
Figure BDA0003107789140000034
为另一侧后视镜W2的坐标。
所述的步骤22)中,公开数据集中的车辆图像通过Vgg16网络的前34层后得到几何特征向量。
所述的步骤3)中,单应性矩阵H为
Figure BDA0003107789140000035
图像坐标系中的点P(x,y)与现实坐标系中的点P’(x',y')的转换关系为:
Figure BDA0003107789140000036
其中,h11、h12、h13、h21、h22、h23、h31、h32、h33分别为单应性矩阵中的元素。
所述的步骤3)具体包括以下步骤:
31)将道路延伸方向设置为现实坐标系的y轴,横向设置为现实坐标系的x轴,车道线在现实坐标系中为平行于y轴的直线,在图像坐标系中则为斜线,由此根据多条车道线分别对应在现实坐标系的表达式以及在图像坐标系中的表达式联立求解得到单应性矩阵H中的六个元素值,即h11、h12、h13、h31、h32和h33
32)设定图像中的点P0(x0,y0)对应现实坐标系中的原点P’0(0,0),根据标定获取相机的内参数矩阵K,根据相机成像原理联立求解得到单应性矩阵H中剩下的三个元素值,即h21、h22和h23
所述的步骤31)中,联立求解得到单应性矩阵H中的六个元素值的方程表达式为:
Figure BDA0003107789140000041
其中,xi为第i条车道线在现实坐标系的表达式x=xi的参数,ki、bi分别为第i条车道线在图像坐标系的表达式y=kix+bi的参数。
所述的步骤32)中,联立求解得到单应性矩阵H中剩下的三个元素值的方程式为:
Figure BDA0003107789140000042
Figure BDA0003107789140000043
Figure BDA0003107789140000044
其中,λ、μ均为尺度系数,K为相机的内参数矩阵,r11、r12、r21、r22、r31、r32、t1、t2、t3分别为相机的外参数矩阵T中的参数,
Figure BDA0003107789140000045
为中间参数矩阵,scol1、scol2、scol3分别为中间参数矩阵S的列向量,s'col1为scol1的转置向量,s'col2为scol2的转置向量。
所述的步骤4)具体为:
将实时采集到的车辆图像经过卷积神经网络与训练后的BP神经网络后获取车辆与路面接触点在图像坐标系下的位置坐标,根据单应性矩阵转换后得到车辆与路面接触点位置在现实坐标系下的位置坐标,即得到车辆的实时位置。
与现有技术相比,本发明具有以下优点:
一、本发明利用了监控图像中道路中车道线的几何信息,在不需要在现场标记控制点的情况下也能够得到图像坐标系与现实坐标系之间的转换关系。
二、本发明通过Vgg16卷积层与BP神经网络对车辆与路面接触点坐标进行了较为准确的预测,节省了现场标记的人工成本,并提高车辆位置的计算精度,使得大范围的车辆信息实时监测成为可能。
附图说明
图1为车辆的目标检测模型。
图2为车辆的简化几何模型。
图3为基于Vgg16的几何特征编码。
图4为用于接触点预测BP神经网络。
图5为BP神经网络模型的检验,其中,图(5a)为O点x轴坐标xO的比较结果,图(5b)为O点y轴坐标yO的比较结果。
图6为车道线与现实坐标系。
图7为待检测区域。
图8为本发明的流程框架图。
图9为监控图像的车辆检测。
图10为图像尺寸标准化。
图11为相机的标定板。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
本发明提供一种基于道路几何信息的车辆位置实时检测方法,包括以下步骤:
1)利用YOLOv4网络进行车辆实时目标检测;
2)根据车辆的几何信息,基于卷积神经网络与BP神经网络对图像中车辆与路面接触点位置进行计算;
3)基于路面交通线图像的信息与相机内参数计算得到图像坐标系与现实坐标系之间的转换关系;
4)将车辆与路面接触点利用转换关系进行转换,得到车辆的实时位置。
各步骤的具体说明如下:
步骤1)车辆检测:
车辆的检测采用YOLO-v4的网络,利用公开数据集DETRAC进行训练,得到车辆的目标检测模型,如图1所示。
步骤2)车辆与路面接触点检测,具体包括以下步骤:
21)对于检测出来的车辆图像,其与路面接触点的位置可以简化为车辆的轮子围成的矩形(如图2中的矩形ABCD)的几何中心(图2中的O点)。
由于车身的遮挡,车辆只有一侧的轮胎是显现的,因此假设车辆的两个后视镜之间的距离与车轮之间的距离近似相等且相互平行(即图2中
Figure BDA0003107789140000061
),因此O点的坐标为:
Figure BDA0003107789140000062
其中,xA、yA为右后轮接地点A的坐标,xB、yB为右前轮接地点B的坐标,xC、yC为左前轮接地点C的坐标,
Figure BDA0003107789140000063
为右侧后视镜W1的坐标,
Figure BDA0003107789140000064
为左侧后视镜W2的坐标。
因此只需要得到A、B、W1、W2四个点的位置,即可得到车辆与路面接触点位置O的坐标。
22)在公开数据集中选取568张车辆的图像,并利用步骤21)中的方法进行A、B、W1、W2四个点的标注,并计算出对应的O点的坐标,这样就得到了568张图像与对应的接触点的数据集。
将每张图放缩至分辨率为(224,224)的标准图像,并将每张图像用Vgg16网络的卷积层进行几何特征的提取,即将每张图像通过Vgg16的前34层,得到一个4096维度的几何特征向量,如图3所示。
得到几何特征向量后,构造一个BP神经网络,其输入为图像通过上述Vgg16卷积层得到的几何特征向量,以对应的O点坐标(xO,yO)为输出,隐含层为3层,每层4个神经元,激活函数采用sigmoid函数,即
Figure BDA0003107789140000065
BP神经网络的具体结构如图4所示。
23)将568张图片得到的数据作为数据集进行训练,其中455张作为训练集,113张作为测试集,将455组数据进行充分训练之后,对测试集进行O点坐标的预测,并真实值进行比较,如图5所示(坐标数据进行了归一化处理),可见O点坐标(xO,yO)的预测值与真实值差距较小,BP神经网络能够较为准确地预测。
步骤3)将图像坐标系中的坐标点转换到现实坐标系中,具体为:
假设图像坐标系与现实坐标系之间转换的单应性矩阵为
Figure BDA0003107789140000071
将道路延伸方向设置为现实坐标系中的y轴,横向设置为x轴,那么车道线li的方程为x=xi,xi的值可通过相关规范或道路的设计资料得到,如图6所示,l1,l2,l3均为车道线。
记图像坐标系中的任意一点坐标为P(x,y),对应的路面上的点为P’(x’,y’),那么根据单应性矩阵,P到P’之间的转换关系为:
Figure BDA0003107789140000072
对于现实坐标系中车道线x=xi,将x=xi带入(1)中,可得:
Figure BDA0003107789140000073
即为:
(h11-h31xi)x+(h12-h32xi)y+(h13-h33xi)≡0 (3)
假设车道线x=xi对应图像中的解析式是y=kix+b,带入(3)中即得:
(h11+kih12-kixih32-xih31)x+(bih12+h13-bixih32-xih33)≡0 (4)
式(4)式立,因此(4)中x项系数和常数项必须恒等于0,则有:
Figure BDA0003107789140000074
也即:
Figure BDA0003107789140000081
对于多条车道线,则有:
Figure BDA0003107789140000082
根据单应性矩阵的特性,可以不妨设h33=1,另外式(7)中,h21,h22,h23的系数均为0,因此式(7)能够求出除h21,h22,h23外的另外六个值,即为求解式(8)。
Figure BDA0003107789140000083
另外,假设图像中P0(x0,y0)对应的是现实坐标系中的原点P’0(0,0),带入式(1)中可得:
h21x0+h22y0+h23=0 (9)
假设相机的内参数矩阵是
Figure BDA0003107789140000084
外参数矩阵是
Figure BDA0003107789140000085
根据相机成像原理,则有:
Figure BDA0003107789140000091
其中,λ为尺度系数。
同时由于H是(x,y)到(x’,y’)的单应矩阵,因此有:
Figure BDA0003107789140000092
其中,μ为尺度系数。
由(10)-(11)可得:
Figure BDA0003107789140000093
对于任意的(x’,y’)始终成立,因此
Figure BDA0003107789140000094
为单元矩阵,因此有:
Figure BDA0003107789140000095
K为内参数矩阵,可通过标定得到精确值,H是一个包含三个未知量h21,h22,h23的矩阵,而矩阵
Figure BDA0003107789140000096
的第一列和第二列是旋转矩阵的第一列和第二列,因此其模长均1,且内积为0。记
Figure BDA0003107789140000097
可以得到:
Figure BDA0003107789140000101
消去系数λ、μ,并结合式(10)有:
Figure BDA0003107789140000102
由于矩阵S中的各项均为关于h21,h22,h23的代数式,因此(15)可以被解出。综上所述,利用车道线和相机内参数就可以得到相机坐标系与路面坐标系之间的单应矩阵,即可以实现从相机中恢复任一点的坐标位置。
对于检测到的车辆,首先利用步骤1中YOLO-v4算法得的车辆的目标检测结果,再利用步骤2的方法得到接触点坐标,若接触点处于ABCD所在的范围内,则利用步骤3中得到的单应性矩阵将接触点的图像坐标系中的坐标转换成现实坐标系中的坐标。
如图8所示,以上海市海宁路与吴淞路交叉口交通状况为例,计算某张图片中的车辆实时位置,具体包括以下步骤:
步骤1,以DETRAC数据集为训练集,利用YOLO-v4网络的结构进行训练,将训练好的神经网络用于监控图像的监测,如图9所示。
图中检测出的3辆车的边界框的坐标如表1
表1 YOLO-v4对图9中车辆检测的边界框
Figure BDA0003107789140000103
步骤2,将检测到的三辆车从图像中取出,并将其放缩为分辨率(224,224)的图像。如图10所示:
将以上三张图输入Vgg16的前34层得到的网络,各自得到几何特征向量Si(i=1,2,3):
S1=[2.5793731,1.0855657,0,0,0,0,0,0,0,0,0,0,0,1.9149303,4.4880753,0,0,……]
S2=[5.9402165,4.1505733,0,0,0,5.7200165,0,0,0,0,0,0,0,0,0,0,0,……]
S3=[0,1.5428404,0,0,0.10933141,0,0,0,0,0,0,0,2.5346160,2.7617886,5.9865236,0,0,……]
再将几何特征向量Si分别输入步骤2中训练得到的BP神经网络中,得到了车辆与路面接触点的相对坐标:Tre1=(0.4660,0.8141),Tre2=(0.4305,0.8805),Tre3=(0.4877,0.7285),转换为图像坐标系即为Tab1=(535.56,724.94),Tab2=(886.21,655.41),Tab3=(1063.47,624.90)。
步骤3:转换为路面坐标系坐标
选取的现实坐标系和图6中的x轴,y轴相同,原点为(496,903),即x0=496,y0=903。y方向为道路延伸方向,x方向为与其垂直的横向,利用hough变换检测出图6中三条直线的解析式为:
Figure BDA0003107789140000111
即得k1=-0.3699,b1=1016.1118,k2=-0.4286,b2=1116.2665,k3=-0.5117,b3=1254.1945,另外,根据《城市道路设计规范》CJJ37—90的规定,计算行车速度不小于40km/h的大型汽车或大、小型汽车混行道路的车道宽度为3.75m,因此x1=-3.75,x2=0,x3=3.75。带入方程(8)中,即得:
Figure BDA0003107789140000112
求解该方程得到最小二乘解,有:
Figure BDA0003107789140000121
拍摄40张标定板的图像,如图11所示。
利用MATLAB的Camera Calibration工具箱对相机进行标定,得到相机的内参数:
Figure BDA0003107789140000122
Figure BDA0003107789140000123
因此有:
Figure BDA0003107789140000124
带入方程(15),有:
Figure BDA0003107789140000125
解得:
Figure BDA0003107789140000126
因此得到单应性矩阵:
Figure BDA0003107789140000127
步骤4:计算显示坐标系中的坐标
根据式(1)将三辆车的位置标签Tab1=(535.56,724.94),Tab2=(886.21,655.41),Tab3=(1063.47,624.90)三个坐标代入
Figure BDA0003107789140000131
中,即可得到三辆汽接触点的现实坐标系坐标:
Figure BDA0003107789140000132

Claims (10)

1.一种基于道路几何信息的车辆位置实时检测方法,其特征在于,包括以下步骤:
1)进行车辆实时目标检测,获取车辆的几何信息;
2)根据车辆的几何信息,基于卷积神经网络与BP神经网络获取图像中车辆与路面接触点位置坐标;
3)基于路面交通线图像信息与相机内参数计算得到图像坐标系与现实坐标系之间的转换关系,即单应性矩阵H;
4)根据转换关系对车辆与路面接触点进行转换,得到车辆的实时位置。
2.根据权利要求1所述的一种基于道路几何信息的车辆位置实时检测方法,其特征在于,所述的步骤1)中,采用公开数据集DETRAC进行训练,通过YOLOv4网络进行车辆实时目标检测,得到车辆的几何信息。
3.根据权利要求1所述的一种基于道路几何信息的车辆位置实时检测方法,其特征在于,所述的步骤2)具体包括以下步骤:
21)对于检测出的车辆图像,将车辆与路面接触点的位置简化为车辆轮子围成的矩形,并获取车辆与路面接触点位置O的坐标;
22)获取多幅公开数据集中的车辆图像并通过步骤21)获取每幅图像中车辆与路面接触点位置O的坐标,将车辆图像缩放后采用Vgg16网络的卷积层进行几何特征的提取得到几何特征向量;
23)构建一个BP神经网络,并以几何特征向量作为输入,以车辆与路面接触点位置O的坐标作为输出进行训练和测试。
4.根据权利要求3所述的一种基于道路几何信息的车辆位置实时检测方法,其特征在于,所述的步骤21)中,由于车身的遮挡,车辆只显现一侧的轮胎,假设车辆的两个后视镜之间的距离与车轮之间的距离相等且相互平行,则车辆与路面接触点位置O的坐标表达式为:
Figure FDA0003107789130000011
其中,xA、yA为一侧后轮接地点A的坐标,xB、yB为一侧前轮接地点B的坐标,xC、yC为另一侧前轮接地点C的坐标,
Figure FDA0003107789130000023
为一侧后视镜W1的坐标,
Figure FDA0003107789130000024
Figure FDA0003107789130000025
为另一侧后视镜W2的坐标。
5.根据权利要求3所述的一种基于道路几何信息的车辆位置实时检测方法,其特征在于,所述的步骤22)中,公开数据集中的车辆图像通过Vgg16网络的前34层后得到几何特征向量。
6.根据权利要求1所述的一种基于道路几何信息的车辆位置实时检测方法,其特征在于,所述的步骤3)中,单应性矩阵H为
Figure FDA0003107789130000021
图像坐标系中的点P(x,y)与现实坐标系中的点P’(x',y')的转换关系为:
Figure FDA0003107789130000022
其中,h11、h12、h13、h21、h22、h23、h31、h32、h33分别为单应性矩阵中的元素。
7.根据权利要求6所述的一种基于道路几何信息的车辆位置实时检测方法,其特征在于,所述的步骤3)具体包括以下步骤:
31)将道路延伸方向设置为现实坐标系的y轴,横向设置为现实坐标系的x轴,车道线在现实坐标系中为平行于y轴的直线,在图像坐标系中则为斜线,由此根据多条车道线分别对应在现实坐标系的表达式以及在图像坐标系中的表达式联立求解得到单应性矩阵H中的六个元素值,即h11、h12、h13、h31、h32和h33
32)设定图像中的点P0(x0,y0)对应现实坐标系中的原点P’0(0,0),根据标定获取相机的内参数矩阵K,根据相机成像原理联立求解得到单应性矩阵H中剩下的三个元素值,即h21、h22和h23
8.根据权利要求7所述的一种基于道路几何信息的车辆位置实时检测方法,其特征在于,所述的步骤31)中,联立求解得到单应性矩阵H中的六个元素值的方程表达式为:
Figure FDA0003107789130000031
其中,xi为第i条车道线在现实坐标系的表达式x=xi的参数,ki、bi分别为第i条车道线在图像坐标系的表达式y=kix+bi的参数。
9.根据权利要求7所述的一种基于道路几何信息的车辆位置实时检测方法,其特征在于,所述的步骤32)中,联立求解得到单应性矩阵H中剩下的三个元素值的方程式为:
Figure FDA0003107789130000032
Figure FDA0003107789130000033
Figure FDA0003107789130000034
其中,λ、μ均为尺度系数,K为相机的内参数矩阵,r11、r12、r21、r22、r31、r32、t1、t2、t3分别为相机的外参数矩阵T中的参数,
Figure FDA0003107789130000035
为中间参数矩阵,scol1、scol2、scol3分别为中间参数矩阵S的列向量,s'col1为scol1的转置向量,s'col2为scol2的转置向量。
10.根据权利要求1所述的一种基于道路几何信息的车辆位置实时检测方法,其特征在于,所述的步骤4)具体为:
将实时采集到的车辆图像经过卷积神经网络与训练后的BP神经网络后获取车辆与路面接触点在图像坐标系下的位置坐标,根据单应性矩阵转换后得到车辆与路面接触点位置在现实坐标系下的位置坐标,即得到车辆的实时位置。
CN202110641118.2A 2021-06-09 2021-06-09 一种基于道路几何信息的车辆位置实时检测方法 Active CN113436257B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110641118.2A CN113436257B (zh) 2021-06-09 2021-06-09 一种基于道路几何信息的车辆位置实时检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110641118.2A CN113436257B (zh) 2021-06-09 2021-06-09 一种基于道路几何信息的车辆位置实时检测方法

Publications (2)

Publication Number Publication Date
CN113436257A true CN113436257A (zh) 2021-09-24
CN113436257B CN113436257B (zh) 2023-02-10

Family

ID=77755429

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110641118.2A Active CN113436257B (zh) 2021-06-09 2021-06-09 一种基于道路几何信息的车辆位置实时检测方法

Country Status (1)

Country Link
CN (1) CN113436257B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103729892A (zh) * 2013-06-20 2014-04-16 深圳市金溢科技有限公司 车辆定位方法、装置及处理器
CN107944350A (zh) * 2017-11-07 2018-04-20 浙江大学 一种基于外观和几何信息融合的单目视觉道路识别算法
CN109389064A (zh) * 2018-09-27 2019-02-26 东软睿驰汽车技术(沈阳)有限公司 一种车辆特征获取方法及装置
CN111024003A (zh) * 2020-01-02 2020-04-17 安徽工业大学 一种基于单应性矩阵优化的3d四轮定位检测方法
US20200191577A1 (en) * 2018-12-14 2020-06-18 Industrial Technology Research Institute Method and system for road image reconstruction and vehicle positioning
CN111582079A (zh) * 2020-04-24 2020-08-25 杭州鸿泉物联网技术股份有限公司 基于计算机视觉的车道定位方法及装置
CN111832388A (zh) * 2020-05-22 2020-10-27 南京邮电大学 一种车辆行驶中交通标志检测与识别方法及系统
CN112435300A (zh) * 2019-08-26 2021-03-02 华为技术有限公司 定位方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103729892A (zh) * 2013-06-20 2014-04-16 深圳市金溢科技有限公司 车辆定位方法、装置及处理器
CN107944350A (zh) * 2017-11-07 2018-04-20 浙江大学 一种基于外观和几何信息融合的单目视觉道路识别算法
CN109389064A (zh) * 2018-09-27 2019-02-26 东软睿驰汽车技术(沈阳)有限公司 一种车辆特征获取方法及装置
US20200191577A1 (en) * 2018-12-14 2020-06-18 Industrial Technology Research Institute Method and system for road image reconstruction and vehicle positioning
CN112435300A (zh) * 2019-08-26 2021-03-02 华为技术有限公司 定位方法及装置
CN111024003A (zh) * 2020-01-02 2020-04-17 安徽工业大学 一种基于单应性矩阵优化的3d四轮定位检测方法
CN111582079A (zh) * 2020-04-24 2020-08-25 杭州鸿泉物联网技术股份有限公司 基于计算机视觉的车道定位方法及装置
CN111832388A (zh) * 2020-05-22 2020-10-27 南京邮电大学 一种车辆行驶中交通标志检测与识别方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JENS WESTERHOFF ET AL.: "Development and Comparison of Homography based Estimation Techniques for Camera to Road Surface Orientation", 《IEEE》 *

Also Published As

Publication number Publication date
CN113436257B (zh) 2023-02-10

Similar Documents

Publication Publication Date Title
CN110322702B (zh) 一种基于双目立体视觉系统的车辆智能测速方法
CN110031829B (zh) 一种基于单目视觉的目标精准测距方法
CN105300403B (zh) 一种基于双目视觉的车辆里程计算法
CN102999759B (zh) 一种基于光流的车辆运动状态估计方法
CN101894366B (zh) 一种获取标定参数的方法、装置及一种视频监控系统
CN117836653A (zh) 一种基于车载定位装置的路侧毫米波雷达校准方法
CN109727273B (zh) 一种基于车载鱼眼相机的移动目标检测方法
CN109871776B (zh) 全天候车道线偏离的预警方法
CN110378202B (zh) 一种基于鱼眼镜头的全方位行人碰撞预警方法
CN113936139A (zh) 一种视觉深度信息与语义分割相结合的场景鸟瞰图重构方法及系统
CN104700414A (zh) 一种基于车载双目相机的前方道路行人快速测距方法
CN110307791B (zh) 基于三维车辆边界框的车辆长度及速度计算方法
CN104657981A (zh) 一种移动机器人运动中三维激光测距数据动态补偿方法
CN109827516B (zh) 一种通过车轮来测量距离的方法
CN107796373A (zh) 一种基于车道平面几何模型驱动的前方车辆单目视觉的测距方法
US20190180121A1 (en) Detection of Objects from Images of a Camera
CN111862235A (zh) 双目相机自标定方法及系统
CN107688174A (zh) 一种图像测距方法、系统、存储介质和车载视觉感知设备
Chen et al. Vision-based distance estimation for multiple vehicles using single optical camera
CN116311091A (zh) 一种基于金字塔密度感知注意力网络的车辆计数方法
CN112200779B (zh) 面向无人驾驶的路表车辙形状及构造横向差异度评价方法
CN117333846A (zh) 恶劣天气下基于传感器融合和增量学习的检测方法及系统
CN113436257B (zh) 一种基于道路几何信息的车辆位置实时检测方法
US20190180122A1 (en) Detection and Tracking of Objects from Images of a Camera
Khosravi et al. Vehicle speed and dimensions estimation using on-road cameras by identifying popular vehicles

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant