CN110865366A - 一种智能驾驶雷达和图像融合的人机交互方法 - Google Patents
一种智能驾驶雷达和图像融合的人机交互方法 Download PDFInfo
- Publication number
- CN110865366A CN110865366A CN201910975678.4A CN201910975678A CN110865366A CN 110865366 A CN110865366 A CN 110865366A CN 201910975678 A CN201910975678 A CN 201910975678A CN 110865366 A CN110865366 A CN 110865366A
- Authority
- CN
- China
- Prior art keywords
- data
- radar
- camera
- image
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0816—Indicating performance data, e.g. occurrence of a malfunction
- G07C5/0825—Indicating performance data, e.g. occurrence of a malfunction using optical means
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Data Mining & Analysis (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Radar Systems Or Details Thereof (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种智能驾驶雷达和图像融合的人机交互方法,包括以下的步骤:雷达目标数据采集及处理,雷达目标坐标变换,图像数据采集及处理,视频图像的二次绘图,多媒体屏幕显示。本发明将汽车前向毫米波雷达检测的目标通过坐标变换的方法绘制在视频图像上,最终显示在车载多媒体屏幕,实现了雷达数据与视频图像数据的融合,完成了数据的可视化人机交互过程;为用户观察智能驾驶系统运行状况提供依据;为开发人员检查传感器数据及其处理过程的实效性、准确性提供依据;快速变换易于实现,在保证数据准确性的同时,节约CPU资源及研发成本。
Description
技术领域
本发明涉及车辆智能探测障碍物技术领域,具体涉及一种智能驾驶雷达和图像融合的人机交互方法。
背景技术
随着智能汽车科技的快速发展,智能驾驶系统也在不断推陈出新,如何使智能驾驶系统做到驾乘更安全、用户体验更佳一直都是业界努力的方向。现在的智能驾驶系统越来越依靠对数据进行分析处理实现车辆控制,数据处理是十分复杂的过程,尤其是雷达检测的数据,其数据量大、变化速度快,却难以让用户直观感知判断,另一方面,通过摄像头采集的视频图像数据虽可让用户直观感知,却缺乏更精准的距离、坐标等数据支持。如果可将雷达检测的数据和视频图像数据进行二者融合,相信用户和开发人员就可通过智能驾驶系统更直观了解雷达检测的目标情况,使操作更便捷、驾乘更安全,也会让开发人员系统更有效地开发智能驾驶系统。
目前,虽也有基于雷达和图像数据融合通过深度学习对车载障碍物检测方法,但其方法是通过融合雷达点云数据和摄像头数据,对真实数据进行测试确定了适合真实情况的通道配置,达到利用Yolo深度卷积神经网络模型处理融合数据,实现道路场景的目标障碍物检测。该方法涉及的设备实施成本较高,不利于快速推广,基于深度学习的融合数据检测方法还需要有足够数量的样本数据作为支持,短期内很难达到理想的检测效果,同时,也缺乏更好的人机交互,用户和开发人员难以直接可视化地利用这些数据进行观察智能驾驶系统的运行状况。
发明内容
本发明的目的在于针对上述现有技术的不足,提供一种智能驾驶雷达和图像融合的人机交互方法。
为实现上述目的,本发明提供以下的技术方案:
一种智能驾驶雷达和图像融合的人机交互方法,包括以下的步骤:
雷达目标数据采集及处理,通过毫米波雷达探测采集雷达目标,采集雷达原始点数据,计算出坐标并标记时间,对多个目标数据进行存储,通过时间有效性筛选掉过时数据;
雷达目标坐标变换,根据几何光学模型建立的快速坐标换算,通过对采集到的雷达目标物体平面数据纵向几何光路换算、横向几何光路换算、俯仰方向快速修正换算成屏幕上影像平面数据;
图像数据采集及处理,通过域控制器采集摄像头实时视频图像,经过对比度优化、矫正畸变、感兴趣区域提取处理过程,形成视频图像;
视频图像的二次绘图,利用域控制器的绘图组件,将雷达目标的影像平面数据绘制在实时所述视频图像上,合成影像平面数据;
多媒体屏幕显示,将所述影像平面数据显示于多媒体屏幕,并显示纵向标尺、直线行驶轨迹、坐标数值、实时车速及方向盘角度。
进一步地,所述纵向几何光路换算包括如下步骤:
目标物体在物平面的相对高度(hi/hm)与其在像平面的相对高度(h′i/h′m)相等,如式(1)所示:
当摄像头水平向前时,能拍摄到的可观测的最近地点物体视野高度hm等于摄像头高度h的两倍,如式(2)所示:
hm=2h (2);
目标物体i在物面上的投影高度hi,可根据物体的纵向距离yi计算得到,如式(3)所示:
其中,y0为可观测的最近地点物体到摄像头的距离,可根据垂直方向最大视场角度α计算,如式(4)所示:
则地平面上的物体纵向距离yi可变换为屏幕上的像素高度h′i,如式(5)所示:
其中,h′m为屏幕高度。
进一步地,所述横向几何光路换算包括如下步骤:
目标物体在物平面的相对宽度(ki/km)与其在像平面的相对高度(k′i/k′m)相等,如式(6)所示:
当摄像头水正向前时,能拍摄到的可观测的最近地点物体视野宽度km根据水平方向视场角度β和y0计算,如式(7)所示:
目标物体在物平面上的投影宽度ki,可根据物体到摄像头的横向距离xi以及yi、y0计算得到,如式(8)所示:
则地面上的物体横向距离xi可变换为屏幕上的像素宽度k′i,如式(9)所示
其中,y0为可观测的最近地点物体到摄像头的距离,yi为物体的纵向距离,k′m为屏幕宽度,(xi,yi)为通过毫米波雷达采集的数据。
进一步地,所述俯仰方向快速修正换算包括如下步骤:
可旋转摄像头俯仰方向旋转后,目标物体在物面上的投影点与旋转前距离很近,将两个投影点近似为同一点,简化计算复杂度,目标物体在俯仰方向旋转后屏幕上的影像高度H′i按照如式(10)所示计算:
其中,y0为可观测的最近地点物体到摄像头的距离,γ为摄像头俯仰方向旋转角度。
进一步地,所述雷达目标数据采集及处理还包括如下步骤:多次采样的数据ID号相同时,则覆盖历史数据,并更新采样时间;数据ID号不同时,新建数据并标记采样时间。
采用以上技术方案的有益效果是:采用本发明将汽车前向毫米波雷达检测的目标通过坐标变换的方法绘制在视频图像上,最终显示在车载多媒体屏幕,实现了雷达数据与视频图像数据的融合,完成了数据的可视化人机交互过程;为用户观察智能驾驶系统运行状况提供依据;为开发人员检查传感器数据及其处理过程的实效性、准确性提供依据;快速变换易于实现,在保证数据准确性的同时,节约CPU资源及研发成本。
附图说明
下面结合附图对本发明的具体实施方式作进一步详细的描述。
图1是本发明实施例提供的雷达目标与图像融合的总体流程图;
图2是本发明实施例提供的雷达目标数据处理原理图;
图3是本发明实施例提供的纵向几何光路坐标变换过程图;
图4是本发明实施例提供的横向几何光路坐标变换过程图;
图5是本发明实施例提供的俯仰方向几何光路快速修正过程图;
图6是本发明实施例提供的多媒体屏幕的人机交互显示示意图;
图中:1、摄像头;2、毫米波雷达;3、可观测的最近地点物体;4、目标物体;5、可旋转摄像头;6、纵向标尺;7、行驶轨迹;8、雷达目标框图;9、当前车速值和方向盘角度值显示区。
具体实施方式
下面对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
如图1至2所示,本实施一种智能驾驶雷达和图像融合的人机交互方法,包括以下的步骤:雷达目标数据采集及处理,通过毫米波雷达2探测采集雷达目标,采集雷达原始点数据,计算出坐标并标记时间,对多个目标数据进行存储,多次采样的数据ID号相同时,则覆盖历史数据,并更新采样时间;数据ID号不同时,新建数据并标记采样时间,通过时间有效性筛选掉过时数据。
雷达目标坐标变换,根据几何光学模型建立的快速坐标换算,通过对采集到的雷达目标物体4平面数据纵向几何光路换算、横向几何光路换算、俯仰方向快速修正换算成屏幕上影像平面数据;
如图3所示,所述纵向几何光路换算包括如下步骤:
目标物体4在物平面的相对高度(hi/hm)与其在像平面的相对高度(h′i/h′m)相等,如式(1)所示:
当摄像头1水平向前时,能拍摄到的可观测的最近地点物体3视野高度hm等于摄像头1高度h的两倍,如式(2)所示:
hm=2h (2);
目标物体4i在物面上的投影高度hi,可根据物体的纵向距离yi计算得到,如式(3)所示:
其中,y0为可观测的最近地点物体3到摄像头1的距离,可根据垂直方向最大视场角度α计算,如式(4)所示:
则地平面上的物体纵向距离yi可变换为屏幕上的像素高度h′i,如式(5)所示:
其中,h′m为屏幕高度。
如图4所示,所述横向几何光路换算包括如下步骤:
目标物体4在物平面的相对宽度(ki/km)与其在像平面的相对高度(k′i/k′m)相等,如式(6)所示:
当摄像头1水正向前时,能拍摄到的可观测的最近地点物体3视野宽度km根据水平方向视场角度β和y0计算,如式(7)所示:
目标物体4在物平面上的投影宽度ki,可根据物体到摄像头1的横向距离xi以及yi、y0计算得到,如式(8)所示:
则地面上的物体横向距离xi可变换为屏幕上的像素宽度k′i,如式(9)所示
其中,y0为可观测的最近地点物体3到摄像头1的距离,yi为物体的纵向距离,k′m为屏幕宽度,(xi,yi)为通过毫米波雷达2采集的数据。
如图5所示,所述俯仰方向快速修正换算包括如下步骤:
可旋转摄像头5俯仰方向旋转后,目标物体4在物面上的投影点与旋转前距离很近,将两个投影点近似为同一点,简化计算复杂度,目标物体4在俯仰方向旋转后屏幕上的影像高度H′i按照如式(10)所示计算:
其中,h为摄像头1、5距离地面高度,α为摄像头1、5垂直方向最大视场角度,y0为可观测的最近地点物体3到摄像头1、5的距离,y0、yi分别为目标物体4到摄像头1、5的纵向距离,hm为物体所在物平面的视野高度,hi目标物体4在W0物平面上的投影高度,h′m为屏幕高度(像素),h′i为目标物体4在屏幕上的影像高度(像素),β为摄像头水平方向最大视场角度,xi为目标物体4到摄像头的横向距离,km为目为标物体4在物平面的视野宽度,ki为目为标物体4在物平面的投影宽度,k′m为屏幕宽度(像素),k′i为目标物体4在屏幕上的影像宽度(像素),hi为目标物体4在俯仰方向旋转后的物平面上的投影高度,H′i为目标物体4在俯仰方向旋转后屏幕上的影像高度(像素),γ为摄像头俯仰方向旋转角度。
图像数据采集及处理,通过域控制器采集摄像头1实时视频图像,所述域控制器为ADAS(Advanced Driving Assistant System)域控制器,是实现自动驾驶功能的控制器,作为整车电子电器架构的一部分,设置于车辆上,负责接收分析和处理雷达及摄像头等传感器信号,与整车控制器通信,根据不同场景进行纵向横向的决策控制,实现自动驾驶功能,经过对所述摄像头1拍摄的原始视频图像进行对比度优化、矫正畸变、感兴趣区域提取处理过程,形成视频图像,所述视频图像是下一步骤“视频图像的二次绘图”的作用对象;
视频图像的二次绘图,利用域控制器的绘图组件,将雷达目标的影像平面数据绘制在实时所述视频图像上,合成影像平面数据,所述影像平面数据为多媒体屏幕显示图像;
如图6所示,多媒体屏幕显示,将所述影像平面数据显示于多媒体屏幕,并显示有多媒体屏幕中心位置绘制纵向标尺6,标尺两侧绘制一定宽度的直线行驶轨迹7,绘制雷达目标框图8并在下方显示坐标数值,显示当前车速值和方向盘角度值显示区9。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种智能驾驶雷达和图像融合的人机交互方法,其特征在于,包括以下的步骤:
雷达目标数据采集及处理,通过毫米波雷达探测采集雷达目标,采集雷达原始点数据,计算出坐标并标记时间,对多个目标数据进行存储,通过时间有效性筛选掉过时数据;
雷达目标坐标变换,根据几何光学模型建立的快速坐标换算,通过对采集到的雷达目标物体平面数据纵向几何光路换算、横向几何光路换算、俯仰方向快速修正换算成屏幕上影像平面数据;
图像数据采集及处理,通过域控制器采集摄像头实时视频图像,经过对比度优化、矫正畸变、感兴趣区域提取处理过程,形成视频图像;
视频图像的二次绘图,利用域控制器的绘图组件,将雷达目标的影像平面数据绘制在实时所述视频图像上,合成影像平面数据;
多媒体屏幕显示,将所述影像平面数据显示于多媒体屏幕,并显示纵向标尺、直线行驶轨迹、坐标数值、实时车速值及方向盘角度值。
2.根据权利要求1所述的智能驾驶雷达和图像融合的人机交互方法,其特征在于,所述纵向几何光路换算包括如下步骤:
目标物体在物平面的相对高度(hi/hm)与其在像平面的相对高度(h′i/h′m)相等,如式(1)所示:
当摄像头水平向前时,能拍摄到的可观测的最近地点物体视野高度hm等于摄像头高度h的两倍,如式(2)所示:
hm=2h (2);
目标物体i在物面上的投影高度hi,可根据物体的纵向距离yi计算得到,如式(3)所示:
其中,y0为可观测的最近地点物体到摄像头的距离,可根据垂直方向最大视场角度α计算,如式(4)所示:
则地平面上的物体纵向距离yi可变换为屏幕上的像素高度h′i,如式(5)所示:
其中,h′m为屏幕高度。
3.根据权利要求1所述的智能驾驶雷达和图像融合的人机交互方法,其特征在于,所述横向几何光路换算包括如下步骤:
目标物体在物平面的相对宽度(ki/km)与其在像平面的相对高度(k′i/k′m)相等,如式(6)所示:
当摄像头水正向前时,能拍摄到的可观测的最近地点物体视野宽度km根据水平方向视场角度β和y0计算,如式(7)所示:
目标物体在物平面上的投影宽度ki,可根据物体到摄像头的横向距离xi以及yi、y0计算得到,如式(8)所示:
则地面上的物体横向距离xi可变换为屏幕上的像素宽度k′i,如式(9)所示
其中,y0为可观测的最近地点物体到摄像头的距离,yi为物体的纵向距离,k′m为屏幕宽度,(xi,yi)为通过毫米波雷达采集的数据。
5.根据权利要求1所述的智能驾驶雷达和图像融合的人机交互方法,其特征在于:所述雷达目标数据采集及处理还包括如下步骤:多次采样的数据ID号相同时,则覆盖历史数据,并更新采样时间;数据ID号不同时,新建数据并标记采样时间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910975678.4A CN110865366B (zh) | 2019-10-12 | 2019-10-12 | 一种智能驾驶雷达和图像融合的人机交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910975678.4A CN110865366B (zh) | 2019-10-12 | 2019-10-12 | 一种智能驾驶雷达和图像融合的人机交互方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110865366A true CN110865366A (zh) | 2020-03-06 |
CN110865366B CN110865366B (zh) | 2023-04-18 |
Family
ID=69652504
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910975678.4A Active CN110865366B (zh) | 2019-10-12 | 2019-10-12 | 一种智能驾驶雷达和图像融合的人机交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110865366B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111398961A (zh) * | 2020-03-17 | 2020-07-10 | 北京百度网讯科技有限公司 | 用于检测障碍物的方法和装置 |
CN112799050A (zh) * | 2020-12-25 | 2021-05-14 | 济南和普威视光电技术有限公司 | 一种基于光电跟踪的低空慢小目标监测方法及系统 |
CN112985425A (zh) * | 2021-02-02 | 2021-06-18 | 恒大新能源汽车投资控股集团有限公司 | 基于异构感知数据融合的车辆定位方法、装置及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005175603A (ja) * | 2003-12-08 | 2005-06-30 | Suzuki Motor Corp | レーダを用いた障害物の表示方法及び表示システム |
JP2006322853A (ja) * | 2005-05-19 | 2006-11-30 | Olympus Corp | 距離計測装置、距離計測方法および距離計測プログラム |
CN104821056A (zh) * | 2015-04-30 | 2015-08-05 | 湖南华诺星空电子技术有限公司 | 基于雷达与视频融合的智能警戒方法 |
US20160291149A1 (en) * | 2015-04-06 | 2016-10-06 | GM Global Technology Operations LLC | Fusion method for cross traffic application using radars and camera |
CN106064587A (zh) * | 2016-07-06 | 2016-11-02 | 北方工业大学 | 一种基于车牌识别的多车道车间距识别方法及装置 |
CN107991671A (zh) * | 2017-11-23 | 2018-05-04 | 浙江东车智能科技有限公司 | 一种基于雷达数据和视频信号融合识别危险目标的方法 |
CN109143241A (zh) * | 2018-07-26 | 2019-01-04 | 清华大学苏州汽车研究院(吴江) | 雷达数据和图像数据的融合方法及系统 |
CN109492566A (zh) * | 2018-10-31 | 2019-03-19 | 奇瑞汽车股份有限公司 | 车道位置信息获取方法、装置及存储介质 |
CN109615870A (zh) * | 2018-12-29 | 2019-04-12 | 南京慧尔视智能科技有限公司 | 一种基于毫米波雷达和视频的交通检测系统 |
-
2019
- 2019-10-12 CN CN201910975678.4A patent/CN110865366B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005175603A (ja) * | 2003-12-08 | 2005-06-30 | Suzuki Motor Corp | レーダを用いた障害物の表示方法及び表示システム |
JP2006322853A (ja) * | 2005-05-19 | 2006-11-30 | Olympus Corp | 距離計測装置、距離計測方法および距離計測プログラム |
US20160291149A1 (en) * | 2015-04-06 | 2016-10-06 | GM Global Technology Operations LLC | Fusion method for cross traffic application using radars and camera |
CN104821056A (zh) * | 2015-04-30 | 2015-08-05 | 湖南华诺星空电子技术有限公司 | 基于雷达与视频融合的智能警戒方法 |
CN106064587A (zh) * | 2016-07-06 | 2016-11-02 | 北方工业大学 | 一种基于车牌识别的多车道车间距识别方法及装置 |
CN107991671A (zh) * | 2017-11-23 | 2018-05-04 | 浙江东车智能科技有限公司 | 一种基于雷达数据和视频信号融合识别危险目标的方法 |
CN109143241A (zh) * | 2018-07-26 | 2019-01-04 | 清华大学苏州汽车研究院(吴江) | 雷达数据和图像数据的融合方法及系统 |
CN109492566A (zh) * | 2018-10-31 | 2019-03-19 | 奇瑞汽车股份有限公司 | 车道位置信息获取方法、装置及存储介质 |
CN109615870A (zh) * | 2018-12-29 | 2019-04-12 | 南京慧尔视智能科技有限公司 | 一种基于毫米波雷达和视频的交通检测系统 |
Non-Patent Citations (2)
Title |
---|
JIHUN KIM ET AL.: ""Radar and Vision Sensor Fusion for Object Detection in Autonomous Vehicle Surroundings"" * |
王战古等: ""基于多传感器融合的前方车辆识别方法研究"" * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111398961A (zh) * | 2020-03-17 | 2020-07-10 | 北京百度网讯科技有限公司 | 用于检测障碍物的方法和装置 |
CN111398961B (zh) * | 2020-03-17 | 2022-07-15 | 北京百度网讯科技有限公司 | 用于检测障碍物的方法和装置 |
CN112799050A (zh) * | 2020-12-25 | 2021-05-14 | 济南和普威视光电技术有限公司 | 一种基于光电跟踪的低空慢小目标监测方法及系统 |
CN112799050B (zh) * | 2020-12-25 | 2022-12-06 | 济南和普威视光电技术有限公司 | 一种基于光电跟踪的低空慢小目标监测方法及系统 |
CN112985425A (zh) * | 2021-02-02 | 2021-06-18 | 恒大新能源汽车投资控股集团有限公司 | 基于异构感知数据融合的车辆定位方法、装置及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110865366B (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110865366B (zh) | 一种智能驾驶雷达和图像融合的人机交互方法 | |
CN108256413B (zh) | 可通行区域检测方法及装置、存储介质、电子设备 | |
CN107554430B (zh) | 车辆盲区可视化方法、装置、终端、系统及车辆 | |
US10783657B2 (en) | Method and apparatus for vehicle position detection | |
CN109961522B (zh) | 图像投射方法、装置、设备和存储介质 | |
CN107665505B (zh) | 基于平面检测实现增强现实的方法及装置 | |
CN109664820A (zh) | 基于行车记录仪的驾驶提示方法、装置、设备和存储介质 | |
CN111967360A (zh) | 基于车轮的目标车辆姿态检测方法 | |
CN107507245A (zh) | 一种车辆跟驰轨迹的动态采集方法及系统 | |
CN107665507B (zh) | 基于平面检测实现增强现实的方法及装置 | |
CN112614192B (zh) | 一种车载相机的在线标定方法和车载信息娱乐系统 | |
CN111860072A (zh) | 泊车控制方法、装置、计算机设备及计算机可读存储介质 | |
US20130155190A1 (en) | Driving assistance device and method | |
CN103971087A (zh) | 一种实时搜索及识别交通标志的方法及装置 | |
CN107767687A (zh) | 基于双目立体视觉的空闲停车位检测方法及系统 | |
CN112308913A (zh) | 一种基于视觉的车辆定位方法、装置及车载终端 | |
CN113177918A (zh) | 一种无人机对电力杆塔的智能精准巡检方法及系统 | |
CN107085869A (zh) | 基于物联网与云计算的数据处理系统 | |
CN113034583A (zh) | 基于深度学习的车辆停车测距方法、装置及电子设备 | |
CN115493614B (zh) | 航迹线的显示方法、装置、存储介质及电子设备 | |
CN109166081B (zh) | 一种视频能见度检测过程中目标亮度调节方法 | |
CN107886472B (zh) | 全景泊车系统的图像拼接校准方法和图像拼接校准装置 | |
CN111899512B (zh) | 结合天际线观测的车辆轨迹提取方法、系统及存储介质 | |
CN109186554B (zh) | 一种将实时视频固定轨迹巡检中的场景自动定位坐标的方法 | |
CN107292932A (zh) | 基于图像膨胀率的迎面视频测速方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |