CN109490890B - 一种面向智能车的毫米波雷达与单目相机信息融合方法 - Google Patents

一种面向智能车的毫米波雷达与单目相机信息融合方法 Download PDF

Info

Publication number
CN109490890B
CN109490890B CN201811444277.8A CN201811444277A CN109490890B CN 109490890 B CN109490890 B CN 109490890B CN 201811444277 A CN201811444277 A CN 201811444277A CN 109490890 B CN109490890 B CN 109490890B
Authority
CN
China
Prior art keywords
target
camera
targets
radar
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811444277.8A
Other languages
English (en)
Other versions
CN109490890A (zh
Inventor
冯明驰
陈云坤
郑太雄
张浩坤
彭文冠
游双林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN201811444277.8A priority Critical patent/CN109490890B/zh
Publication of CN109490890A publication Critical patent/CN109490890A/zh
Application granted granted Critical
Publication of CN109490890B publication Critical patent/CN109490890B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明请求保护一种面向智能车的毫米波雷达与单目相机信息融合方法,主要包括三个阶段:第一阶段,首先在智能车上安装并调整相机与毫米波雷达位置,然后用张正友标定法获取相机内部参数,最后将相机成像平面投影到俯视图,以满足两个传感器识别的目标信息在同一车辆坐标系下;第二阶段,在线下用深度学习方法训练基于图像的多目标识别模型,线上在智能车行驶的过程中雷达与相机实时采集数据,把识别的目标信息转化到统一的车辆坐标系下并排除无效目标;第三阶段,用全局最近邻匹配算法判断目标是否一致,通过扩展卡尔曼滤波跟踪匹配目标和未匹配目标,实现多目标识别。本发明目标识别率高,安全性可靠,可有效提高智能汽车对环境感知的实用性。

Description

一种面向智能车的毫米波雷达与单目相机信息融合方法
技术领域
本发明属于多传感器信息融合领域,具体涉及一种毫米波雷达与相机信息融合方法。
背景技术
智能汽车是在普通汽车的基础上增加了先进的传感器(雷达,相机)、控制器、执行器等装置,通过车载传感系统和信息终端实现与人、车、路等的智能信息交换,使汽车具备智能的环境感知能力,能够自动分析汽车行驶的安全及危险状态,并使汽车按照人的意愿到达目的地,最终实现替代人来操作的目的。目前可识别智能车周围障碍物的传感器有相机,热成像仪,毫米波雷达,激光雷达,超声波雷达等。相机是实际生活中应用最广泛的传感器,通过摄像头感知环境并识别目标是当前最普遍的途径。然而,采用相机的算法会受到复杂环境如天气、路况信息、光照等因素的影响,常常会存在检测不到目标或者遗漏目标的情况。车载毫米波雷达能克服环境带来的不利因素,并能测出目标的位置和与雷达的距离,但识别的范围较窄,不能识别交通标识与交通信号。
虽然现在的汽车上或多或少的会安装摄像头或者毫米波雷达,但都是单独使用,没能充分利用不同传感器的优势。由于环境复杂性,无法通过单一传感器实现所有环境信息的感知和目标的识别,对于智能汽车,同质信号融合已形成较成熟的理论方法,同一目标融合不同传感器信号提高准确性是一方面,更重要的是如何利用不同传感器的优势,弥补其它传感器的不足。
当前基于毫米波雷达与相机信息融合方法中,通常将其中一个传感器作为主传感器,将它检测的目标位置信息生成可供其它传感器识别的感兴趣区域(Region ofInterest,ROI),然后用其它传感器来验证ROI内是否包含目标,如专利申请号CN201710100068.0,CN107336724A,CN201710970932.2等。然而,这种方法本质上只是对单一传感器目标的一种验证,对于未检测到的目标无法判断,无法充分发挥传感器的作用。
发明内容
本发明旨在解决以上现有技术的问题。提出了一种,提升目标识别的精度和减小环境对目标识别的影响、减少对目标的重复利用的面向智能车的毫米波雷达与单目相机信息融合方法。本发明的技术方案如下:
一种面向智能车的毫米波雷达与单目相机信息融合方法,假定地面是平坦的,毫米波雷达安装在智能车前保险杠,相机安装在车顶或后视镜,雷达与相机在同一车轴线上,其包括以下步骤:
标定阶段:安装并调整相机与毫米波雷达位置,利用张正友标定法获取相机内部参数,然后将相机成像平面投影到俯视图,以满足毫米波雷达与单目相机目标信息在同一车辆坐标系下;
识别阶段:在线下用深度学习方法训练基于图像的多目标识别模型,线上在智能车行驶的过程中雷达与相机实时采集数据,把识别的目标信息转化到同一车辆坐标系下并排除无效目标;
融合阶段:用全局最近邻匹配算法判断目标是否一致,通过扩展卡尔曼滤波跟踪匹配目标和未匹配目标。
进一步的,所述标定阶段利用张正友标定法获取相机内部参数,具体过程包括:
1)、当相机安装位置固定后,在相机前方拍摄不同角度的若干张棋盘格标定板的图像;
2)、检测出棋盘格标定板的图像中的特征点;
3)、根据检测的特征点位置信息,在不考虑畸变的情况下用直接法求出相机内部参数初值;
4)、用非线性方法优化包括畸变系数在内的所有相机内部参数。
进一步的,所述将相机成像平面投影到俯视图,以满足两个传感器识别的目标信息在同一车辆坐标系下,其具体步骤包括:
1)、测出相机光心到地面的投影点。
2)、在地面平铺四张棋盘格标定图案的标定纸,分别测出棋盘格黑白块交叉点在车辆坐标系下的坐标(x,y)以及在图像中的坐标(u,v);
3)、利用最小二乘法求出相机成像平面到俯视图的转移矩阵P,其表达式为:
Figure BDA0001885342040000031
进一步的,所述识别阶段的具体步骤为:
1)、线下采集用于目标识别的训练样本,标注出真实目标的位置和类别信息;
2)、将样本图像作为深度神经网络的输入,标注信息作为网络的输出,经过多次迭代得到多目标识别模型参数;
3)、线上实时采集图像,并根据深度神经网络模型和参数获取图像中各个目标的位置和类别信息;
4)、根据转移矩阵P,将相机目标在图像上的位置信息转化到车辆坐标系;根据前后两幅图像的时间差求出目标的速度;
5)、根据雷达数据协议,对毫米波雷达的数据进行解算,排除虚假目标,返回多个目标的距离信息和速度信息。
进一步的,所述步骤4)根据转移矩阵P,将相机目标在图像上的位置信息转化到车辆坐标系;根据前后两幅图像的时间差求出目标的速度,具体包括:根据所得转移矩阵P,将目标位置信息转化为到相机的水平距离和垂直距离;根据前后两幅图像的时间差求出目标的速度,计算公式为:
Figure BDA0001885342040000032
tk和tk-1分别表示在k和k-1时刻的时间戳,xk和yk分别表示目标在k时刻到相机的水平距离和垂直距离,
Figure BDA0001885342040000041
和/>
Figure BDA0001885342040000042
分别表示目标在k时刻相对于相机的水平方向速度和垂直方向速度。
进一步的,所述用全局最邻域匹配算法判断目标是否一致,通过扩展卡尔曼滤波跟踪匹配的目标和未匹配的目标,步骤具体为:
1)、将毫米波雷达有效目标序列信息R={r1 r2…rm}与相机识别的有效目标序列信息C={c1 c2…cn}进行全局最近邻匹配,rm表示第m个雷达目标,cn表示第n个相机目标,得到匹配的目标、未匹配的雷达目标与未匹配的相机目标;
2)、分别跟踪匹配的目标、未匹配的雷达目标与未匹配的相机目标;
3)、判断跟踪的目标是否为有效目标,如果连续跟踪到匹配的目标,则该目标为有效目标,否则为无效目标;如果连续跟踪到未匹配的相机目标或未匹配的雷达目标,这在下一时刻回归到相应有效目标序列中等待重新匹配,否则视为无效目标。
进一步的,所述用全局最邻域匹配算法判断目标是否一致,其算法实现过程为:
目标函数:
Figure BDA0001885342040000043
约束条件:
Figure BDA0001885342040000044
其中
Figure BDA0001885342040000045
Figure BDA0001885342040000051
m表示雷达目标个数,n表示相机目标个数,cij表示雷达目标与相机目标距离的代价矩阵的元素。
第i个雷达目标与第j个相机目标距离dij的阈值G是它们匹配的必要条件,ξij表示是否是必要条件,ξij=1表示是,ξij=0表示否。
进一步的,所述通过扩展卡尔曼滤波跟踪匹配的目标和未匹配的目标,具体为:当完成目标匹配后,匹配的目标将会被跟踪以保证目标在时间上的连续性,对于没有匹配的目标,同样需要进行跟踪;首先确定目标的状态向量,对于未匹配的雷达目标,它的状态包括目标在水平面两个方向的距离和速度,即:
Figure BDA0001885342040000052
Figure BDA0001885342040000053
表示第i个未匹配雷达目标在第k时刻的状态向量;xr和yr分别表示雷达目标到相机的水平距离和垂直距离,/>
Figure BDA0001885342040000054
和/>
Figure BDA0001885342040000055
分别表示雷达目标的水平方向速度和垂直方向速度。
对于未匹配相机目标,其状态向量为:
Figure BDA0001885342040000056
Figure BDA0001885342040000057
表示第i个未匹配相机目标在第k时刻的状态向量,xc和yc分别表示相机目标到相机的水平距离和垂直距离,/>
Figure BDA0001885342040000058
和/>
Figure BDA0001885342040000059
分别表示相机目标的水平方向速度和垂直方向速度。class表示目标类别,相机目标不能直接提供速度信息,只有位置信息和类别信息,相机目标的速度计算公式为:
Figure BDA00018853420400000510
tk和tk-1分别表示在k和k-1时刻的时间戳;
对于匹配的目标,根据传感器的平均误差对每个测量值分配权值,当δrx<δcx,δry<δcy
Figure BDA0001885342040000061
其中δrx和δry分别表示雷达目标在x和y方向的平均误差,δcx和δcy分别表示相机目标在x和y方向上的平均误差;
定义其状态向量为
Figure BDA0001885342040000062
Figure BDA0001885342040000063
利用扩展卡尔曼滤波分别跟踪这些目标,在目标跟踪的过程中,如果连续跟踪到匹配的目标,则该目标为有效目标,否则为无效目标;如果连续跟踪到未匹配的相机目标或未匹配的雷达目标,则在下一时刻回归到相应有效目标序列中等待重新匹配,否则视为无效目标。
本发明的优点及有益效果如下:
1)、本发明相机部分采用基于深度学习的多目标识别方法,考虑到在不同场景和不同天气情况下对图像识别的影响,前期采集大量的样本训练网络模型,提升目标识别的精度和减小环境对目标识别的影响。
2)、本发明运用全局最近邻匹配方法判断雷达目标与相机目标是否一致,然后根据传感器各自的误差对匹配的目标采用加权平均,进一步的提升目标识别的精度,减少对目标的重复利用。
3)、本发明最后对匹配的目标和未匹配的目标都进行跟踪,一方面能将有效目标的位置信息趋于真实值,另一方面进一步验证匹配的结果,防止对目标的误判和漏检。
附图说明
图1是本发明提供优选实施例系统流程图。
图2为坐标系转换及统一实验图。
图3为相机与毫米波雷达融合流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明解决上述技术问题的技术方案是:
本发明提出了面向智能车的毫米波雷达与相机信息融合方法,旨在弥补单一传感器的不足。
如图1所示,毫米波雷达与相机信息融合方法包括以下步骤:
步骤1、利用张正友标定法对单目相机进行标定,获取相机参数。
步骤1.1、在相机安装位置固定后,在相机前方拍摄不同角度的若干张棋盘格标定板的图像。
步骤1.2、检测出图像中的特征点。
步骤1.3、根据检测的特征点位置信息,在不考虑畸变的情况下用直接法求出相机内部参数初值。
步骤1.4、用非线性方法优化包括畸变系数在内的所有相机内部参数。
步骤2、将相机成像平面投影到俯视图,以满足两个传感器识别的目标信息在同一车辆坐标系下,如图2,具体包括以下步骤:
步骤2.1、测出相机光心到地面的投影点
步骤2.2、在地面平铺四张棋盘格标定图案的标定纸,分别测出棋盘格黑白块交叉点在车辆坐标系下的坐标(x,y)以及在图像中的坐标(u,v)。
步骤2.3、利用最小二乘法求出相机平面到俯视图的转移矩阵P,其表达式为:
Figure BDA0001885342040000081
步骤3、采集并处理相机信息,具体步骤为:
步骤3.1、线下采集用于目标识别的训练样本,标注出真实目标的位置和类别信息。
步骤3.2、将样本图像作为深度神经网络的输入,标注信息作为网络的输出,经过多次迭代得到多目标识别模型参数。
步骤3.3、线上实时采集图像并根据网络模型和参数获取图像中各个目标的位置和类别信息。
步骤3.4、根据步骤2.3所得转移矩阵P,将目标位置信息转化为到相机的水平距离和垂直距离;根据前后两幅图像的时间差求出目标的速度,计算公式为:
Figure BDA0001885342040000082
tk和tk-1分别表示在k和k-1时刻的时间戳。
步骤4、对毫米波雷达的数据进行解算,排除虚假目标,返回多目标的距离,方向角和速度信息。
步骤5、用全局最邻域匹配算法判断目标是否一致,通过扩展卡尔曼滤波跟踪匹配的目标和未匹配的目标,实现多目标识别,如图3所示,具体步骤为:
步骤5.1、将毫米波雷达有效目标序列信息R={r1 r2…rm}与相机识别的有效目标序列信息C={c1 c2…cn}进行全局最近邻匹配,可以得到匹配的目标、未匹配的雷达目标与未匹配的相机目标。
步骤5.2、分别跟踪步骤5.1所述的三类目标,如果连续跟踪到匹配的目标,则该目标为有效目标,否则为无效目标;如果连续跟踪到未匹配的相机目标或未匹配的雷达目标,则在下一时刻回归到相应有效目标序列中等待重新匹配,否则视为无效目标。
当完成目标匹配后,匹配的目标将会被传入融合中心以保证目标在时间上的连续性,对于没有匹配的目标,同样需要进行跟踪,例如,当相机检测到某个目标而雷达没检测到时,只能说明雷达此时漏检或者相机误判,需要跟踪它的状态直到确定该目标是否真的存在。首先确定目标的状态向量,对于未匹配的雷达目标,它的状态包括目标在水平面两个方向的距离和速度,即:
Figure BDA0001885342040000091
Figure BDA0001885342040000092
表示第i个未匹配雷达目标在第k时刻的状态向量。
对于为匹配相机目标,其状态向量为:
Figure BDA0001885342040000093
Figure BDA0001885342040000094
表示第i个未匹配相机目标在第k时刻的状态向量,相机目标不能直接提供速度信息,只有位置信息和类别信息。相机目标的速度计算公式为:
Figure BDA0001885342040000095
tk和tk-1分别表示在k和k-1时刻的时间戳。
对于匹配的目标,根据传感器的平均误差对每个测量值分配权值,当δrx<δcx,δry<δcy
Figure BDA0001885342040000096
其中δrx和δry分别表示雷达目标在x和y方向的平均误差,δcx和δcy分别表示相机目标在x和y方向上的平均误差。
定义其状态向量为
Figure BDA0001885342040000101
Figure BDA0001885342040000102
因此,跟踪系统的状态矢量包括三种不同的类型,这些观测是独立处理的,但状态跟新方式相同。利用扩展卡尔曼滤波分别跟踪这些目标,在目标跟踪的过程中,如果连续跟踪到匹配的目标,则该目标为有效目标,否则为无效目标;如果连续跟踪到未匹配的相机目标或未匹配的雷达目标,则在下一时刻回归到相应有效目标序列中等待重新匹配,否则视为无效目标。
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。

Claims (5)

1.一种面向智能车的毫米波雷达与单目相机信息融合方法,假定地面是平坦的,毫米波雷达安装在智能车前保险杠,相机安装在车顶或后视镜,雷达与相机在同一车轴线上,其特征在于,包括以下步骤:
标定阶段:安装并调整相机与毫米波雷达位置,利用张正友标定法获取相机内部参数,然后将相机成像平面投影到俯视图,以满足毫米波雷达与单目相机目标信息在同一车辆坐标系下;
识别阶段:在线下用深度学习方法训练基于图像的多目标识别模型,线上在智能车行驶的过程中雷达与相机实时采集数据,把识别的目标信息转化到同一车辆坐标系下并排除无效目标;
融合阶段:用全局最近邻匹配算法判断目标是否一致,通过扩展卡尔曼滤波跟踪匹配目标和未匹配目标;
所述用全局最近邻匹配算法判断目标是否一致,通过扩展卡尔曼滤波跟踪匹配的目标和未匹配的目标,步骤具体为:
1)、将毫米波雷达有效目标序列信息R={r1 r2 … rm}与相机识别的有效目标序列信息C={c1 c2 … cn}进行全局最近邻匹配,rm表示第m个雷达目标,cn表示第n个相机目标,得到匹配的目标、未匹配的雷达目标与未匹配的相机目标;
2)、分别跟踪匹配的目标、未匹配的雷达目标与未匹配的相机目标;
3)、判断跟踪的目标是否为有效目标,如果连续跟踪到匹配的目标,则该目标为有效目标,否则为无效目标;如果连续跟踪到未匹配的相机目标或未匹配的雷达目标,这在下一时刻回归到相应有效目标序列中等待重新匹配,否则视为无效目标;
所述用全局最近邻匹配算法法判断目标是否一致,其算法实现过程为:
目标函数:
Figure QLYQS_1
约束条件:
Figure QLYQS_2
其中
Figure QLYQS_3
Figure QLYQS_4
m表示雷达目标个数,n表示相机目标个数,cij表示雷达目标与相机目标距离的代价矩阵的元素;
第i个雷达目标与第j个相机目标距离dij的阈值G是它们匹配的必要条件,ξij表示是否是必要条件,ξij=1表示是,ξij=0表示否;
所述通过扩展卡尔曼滤波跟踪匹配的目标和未匹配的目标,具体为:当完成目标匹配后,匹配的目标将会被跟踪以保证目标在时间上的连续性,对于没有匹配的目标,同样需要进行跟踪;首先确定目标的状态向量,对于未匹配的雷达目标,它的状态包括目标在水平面两个方向的距离和速度,即:
Figure QLYQS_5
Figure QLYQS_6
表示第i个未匹配雷达目标在第k时刻的状态向量;xr和yr分别表示雷达目标到相机的水平距离和垂直距离,/>
Figure QLYQS_7
和/>
Figure QLYQS_8
分别表示雷达目标的水平方向速度和垂直方向速度;
对于未匹配相机目标,其状态向量为:
Figure QLYQS_9
Vk (i)表示第i个未匹配相机目标在第k时刻的状态向量,xc和yc分别表示相机目标到相机的水平距离和垂直距离,
Figure QLYQS_10
和/>
Figure QLYQS_11
分别表示相机目标的水平方向速度和垂直方向速度,class表示目标类别,相机目标不能直接提供速度信息,只有位置信息和类别信息,相机目标的速度计算公式为:
Figure QLYQS_12
tk和tk-1分别表示在k和k-1时刻的时间戳;
对于匹配的目标,根据传感器的平均误差对每个测量值分配权值,当δrx<δcx,δry<δcy
Figure QLYQS_13
其中δrx和δry分别表示雷达目标在x和y方向的平均误差,δcx和δcy分别表示相机目标在x和y方向上的平均误差;
定义其状态向量为Fk (i)
Figure QLYQS_14
利用扩展卡尔曼滤波分别跟踪这些目标,在目标跟踪的过程中,如果连续跟踪到匹配的目标,则该目标为有效目标,否则为无效目标;如果连续跟踪到未匹配的相机目标或未匹配的雷达目标,则在下一时刻回归到相应有效目标序列中等待重新匹配,否则视为无效目标。
2.根据权利要求1所述的面向智能车的毫米波雷达与单目相机信息融合方法,其特征在于,所述标定阶段利用张正友标定法获取相机内部参数,具体过程包括:
1)、当相机安装位置固定后,在相机前方拍摄不同角度的若干张棋盘格标定板的图像;
2)、检测出棋盘格标定板的图像中的特征点;
3)、根据检测的特征点位置信息,在不考虑畸变的情况下用直接法求出相机内部参数初值;
4)、用非线性方法优化包括畸变系数在内的所有相机内部参数。
3.根据权利要求2所述的面向智能车的毫米波雷达与单目相机信息融合方法,其特征在于,所述将相机成像平面投影到俯视图,以满足两个传感器识别的目标信息在同一车辆坐标系下,其具体步骤包括:
1)、测出相机光心到地面的投影点;
2)、在地面平铺四张棋盘格标定图案的标定纸,分别测出棋盘格黑白块交叉点在车辆坐标系下的坐标(x,y)以及在图像中的坐标(u,v);
3)、利用最小二乘法求出相机成像平面到俯视图的转移矩阵P,其表达式为:
Figure QLYQS_15
4.根据权利要求3所述的面向智能车的毫米波雷达与单目相机信息融合方法,其特征在于,所述识别阶段的具体步骤为:
1)、线下采集用于目标识别的训练样本,标注出真实目标的位置和类别信息;
2)、将样本图像作为深度神经网络的输入,标注信息作为网络的输出,经过多次迭代得到多目标识别模型参数;
3)、线上实时采集图像,并根据深度神经网络模型和参数获取图像中各个目标的位置和类别信息;
4)、根据转移矩阵P,将相机目标在图像上的位置信息转化到车辆坐标系;根据前后两幅图像的时间差求出目标的速度;
5)、根据雷达数据协议,对毫米波雷达的数据进行解算,排除虚假目标,返回多个目标的距离信息和速度信息。
5.根据权利要求4所述的面向智能车的毫米波雷达与单目相机信息融合方法,其特征在于,所述步骤4)根据转移矩阵P,将相机目标在图像上的位置信息转化到车辆坐标系;根据前后两幅图像的时间差求出目标的速度,具体包括:根据所得转移矩阵P,将目标位置信息转化为到相机的水平距离和垂直距离;根据前后两幅图像的时间差求出目标的速度,计算公式为:
Figure QLYQS_16
tk和tk-1分别表示在k和k-1时刻的时间戳,xk和yk分别表示目标在k时刻到相机的水平距离和垂直距离,
Figure QLYQS_17
和/>
Figure QLYQS_18
分别表示目标在k时刻相对于相机的水平方向速度和垂直方向速度。/>
CN201811444277.8A 2018-11-29 2018-11-29 一种面向智能车的毫米波雷达与单目相机信息融合方法 Active CN109490890B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811444277.8A CN109490890B (zh) 2018-11-29 2018-11-29 一种面向智能车的毫米波雷达与单目相机信息融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811444277.8A CN109490890B (zh) 2018-11-29 2018-11-29 一种面向智能车的毫米波雷达与单目相机信息融合方法

Publications (2)

Publication Number Publication Date
CN109490890A CN109490890A (zh) 2019-03-19
CN109490890B true CN109490890B (zh) 2023-06-02

Family

ID=65698641

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811444277.8A Active CN109490890B (zh) 2018-11-29 2018-11-29 一种面向智能车的毫米波雷达与单目相机信息融合方法

Country Status (1)

Country Link
CN (1) CN109490890B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111736153A (zh) * 2019-03-21 2020-10-02 北京京东尚科信息技术有限公司 用于无人驾驶车辆的环境检测系统、方法、设备和介质
CN111856445B (zh) * 2019-04-11 2023-07-04 杭州海康威视数字技术股份有限公司 一种目标检测方法、装置、设备及系统
CN110068818A (zh) * 2019-05-05 2019-07-30 中国汽车工程研究院股份有限公司 通过雷达和图像采集设备进行交通路口车辆及行人检测的工作方法
CN110726990B (zh) * 2019-09-23 2023-04-07 江苏大学 一种基于ds-gnn算法的多传感器融合方法
WO2021056499A1 (zh) * 2019-09-29 2021-04-01 深圳市大疆创新科技有限公司 数据处理方法、设备和可移动平台
CN110865367B (zh) * 2019-11-30 2023-05-05 山西禾源科技股份有限公司 一种雷达视频数据智能融合方法
CN111077517A (zh) * 2019-12-09 2020-04-28 武汉光庭信息技术股份有限公司 一种车辆检测跟踪方法和装置
CN111289969B (zh) * 2020-03-27 2022-03-04 北京润科通用技术有限公司 一种车载雷达运动目标融合方法及装置
CN111812649A (zh) * 2020-07-15 2020-10-23 西北工业大学 基于单目相机与毫米波雷达融合的障碍物识别与定位方法
CN111815717B (zh) * 2020-07-15 2022-05-17 西北工业大学 一种多传感器融合外参联合半自主标定方法
CN111986232B (zh) * 2020-08-13 2021-09-14 上海高仙自动化科技发展有限公司 目标物体的检测方法、装置、机器人及存储介质
CN112363167A (zh) * 2020-11-02 2021-02-12 重庆邮电大学 一种基于毫米波雷达与单目相机融合的扩展目标跟踪方法
CN112684424B (zh) * 2020-12-30 2022-08-16 同济大学 一种毫米波雷达与相机的自动标定方法
CN114152942B (zh) * 2021-12-08 2022-08-05 北京理工大学 一种毫米波雷达与视觉二阶融合多分类目标检测方法
CN114236528B (zh) * 2022-02-23 2022-11-01 浙江高信技术股份有限公司 一种基于毫米波雷达和视频融合的目标检测方法及系统

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102163331A (zh) * 2010-02-12 2011-08-24 王炳立 采用标定方法的图像辅助系统
CN102508246A (zh) * 2011-10-13 2012-06-20 吉林大学 车辆前方障碍物检测跟踪方法
USRE44807E1 (en) * 1993-12-21 2014-03-18 Colorado State University Research Foundation Method and system for tracking multiple regional objects by multi-dimensional relaxation
US9098753B1 (en) * 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using multiple sensors
CN104881029A (zh) * 2015-05-15 2015-09-02 重庆邮电大学 基于一点ransac和fast算法的移动机器人导航方法
CN106296708A (zh) * 2016-08-18 2017-01-04 宁波傲视智绘光电科技有限公司 车辆追踪方法和装置
CN106680806A (zh) * 2016-11-24 2017-05-17 清华大学 一种多雷达点迹融合方法
CN107202983A (zh) * 2017-05-19 2017-09-26 深圳佑驾创新科技有限公司 基于图像识别和毫米波雷达融合的自动刹车方法和系统
CN107966700A (zh) * 2017-11-20 2018-04-27 天津大学 一种用于无人驾驶汽车的前方障碍物检测系统及方法
CN108257161A (zh) * 2018-01-16 2018-07-06 重庆邮电大学 基于多相机的车辆环境三维重构和运动估计系统及方法
CN108263278A (zh) * 2016-12-30 2018-07-10 现代自动车株式会社 基于传感器整合的行人检测和行人防碰撞装置及方法
CN108596081A (zh) * 2018-04-23 2018-09-28 吉林大学 一种基于雷达和摄像机融合的车辆行人探测方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090292468A1 (en) * 2008-03-25 2009-11-26 Shunguang Wu Collision avoidance method and system using stereo vision and radar sensor fusion
US10634778B2 (en) * 2014-10-21 2020-04-28 Texas Instruments Incorporated Camera assisted tracking of objects in a radar system
JP6239047B1 (ja) * 2016-06-17 2017-11-29 三菱電機株式会社 物体認識統合装置および物体認識統合方法
KR101996418B1 (ko) * 2016-12-30 2019-07-04 현대자동차주식회사 센서 융합 기반 보행자 탐지 및 보행자 충돌 방지 장치 및 방법

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE44807E1 (en) * 1993-12-21 2014-03-18 Colorado State University Research Foundation Method and system for tracking multiple regional objects by multi-dimensional relaxation
CN102163331A (zh) * 2010-02-12 2011-08-24 王炳立 采用标定方法的图像辅助系统
CN102508246A (zh) * 2011-10-13 2012-06-20 吉林大学 车辆前方障碍物检测跟踪方法
US9098753B1 (en) * 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using multiple sensors
CN104881029A (zh) * 2015-05-15 2015-09-02 重庆邮电大学 基于一点ransac和fast算法的移动机器人导航方法
CN106296708A (zh) * 2016-08-18 2017-01-04 宁波傲视智绘光电科技有限公司 车辆追踪方法和装置
CN106680806A (zh) * 2016-11-24 2017-05-17 清华大学 一种多雷达点迹融合方法
CN108263278A (zh) * 2016-12-30 2018-07-10 现代自动车株式会社 基于传感器整合的行人检测和行人防碰撞装置及方法
CN107202983A (zh) * 2017-05-19 2017-09-26 深圳佑驾创新科技有限公司 基于图像识别和毫米波雷达融合的自动刹车方法和系统
CN107966700A (zh) * 2017-11-20 2018-04-27 天津大学 一种用于无人驾驶汽车的前方障碍物检测系统及方法
CN108257161A (zh) * 2018-01-16 2018-07-06 重庆邮电大学 基于多相机的车辆环境三维重构和运动估计系统及方法
CN108596081A (zh) * 2018-04-23 2018-09-28 吉林大学 一种基于雷达和摄像机融合的车辆行人探测方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
A Joint Integrated Probabilistic Data Association Filter for pedestrian tracking across blind regions using monocular camera and radar;Carola Otto等;《2012 IEEE Intelligent Vehicles Symposium》;20120705;全文 *
Mono-Camera based 3D Object Tracking Strategy for Autonomous Vehicles;Akisue Kuramoto等;《2018 IEEE Intelligent Vehicles Symposium (IV)》;20181021;全文 *
基于RGBD的道路车辆3D检测与跟踪;周阳;《中国优秀硕士学位论文全文数据库信息科技辑》;20181015(第10期);全文 *
基于视觉的智能车辆自主导航方法研究;李颢;《中国优秀硕士学位论文全文数据库信息科技辑》;20100415(第04期);全文 *
李墨.面向无人驾驶汽车的雷达—视觉集成控制器研究.《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》.2017,(第09期),C035-43. *
面向无人驾驶汽车的雷达—视觉集成控制器研究;李墨;《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》;20170915(第09期);摘要、第6-7、24、35-38、43-47页 *

Also Published As

Publication number Publication date
CN109490890A (zh) 2019-03-19

Similar Documents

Publication Publication Date Title
CN109490890B (zh) 一种面向智能车的毫米波雷达与单目相机信息融合方法
CN108596081B (zh) 一种基于雷达和摄像机融合的车辆行人探测方法
CN111060904B (zh) 一种基于毫米波与视觉融合感知的盲区监测方法
CN112541953B (zh) 一种基于雷达信号和视频同步坐标映射的车辆检测方法
CN111753797B (zh) 一种基于视频分析的车辆测速方法
KR102008263B1 (ko) 융복합형 검지기 및 이를 이용한 교통 단속시스템
CN109471096B (zh) 多传感器目标匹配方法、装置及汽车
CN112083441B (zh) 激光雷达和毫米波雷达深度融合的障碍物检测方法及系统
KR20200064873A (ko) 객체와 감지 카메라의 거리차를 이용한 속도 검출 방법
Wu et al. An algorithm for automatic vehicle speed detection using video camera
CN114236528A (zh) 一种基于毫米波雷达和视频融合的目标检测方法及系统
JP6569280B2 (ja) 路面標示検出装置及び路面標示検出方法
CN112363167A (zh) 一种基于毫米波雷达与单目相机融合的扩展目标跟踪方法
CN103499337A (zh) 一种基于立式标靶的车载单目摄像头测距测高装置
GB2370706A (en) Determining the position of a vehicle
CN114758504A (zh) 一种基于滤波校正的网联车超速预警方法及系统
CN115236603A (zh) 隧道内基于时空关系的毫米波雷达量测异常轨迹处理方法
JP4850531B2 (ja) 車載レーダ装置
CN111105465B (zh) 一种摄像装置校准方法、装置、系统电子设备及存储介质
CN115629385A (zh) 基于毫米波雷达和相机关联的车辆排队长度实时检测方法
CN110967040B (zh) 一种传感器水平偏差角度的识别方法及系统
CN110596656B (zh) 一种基于大数据的智慧路灯反馈补偿系统
CN112037536A (zh) 一种基于视频特征识别的车辆测速方法及装置
CN112162252B (zh) 一种毫米波雷达与可见光传感器的数据标定方法
CN219303146U (zh) 用于高速公路出口收费站的车型异常检测系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant