CN112116031B - 基于路侧设备的目标融合方法、系统、车辆及存储介质 - Google Patents
基于路侧设备的目标融合方法、系统、车辆及存储介质 Download PDFInfo
- Publication number
- CN112116031B CN112116031B CN202011183010.5A CN202011183010A CN112116031B CN 112116031 B CN112116031 B CN 112116031B CN 202011183010 A CN202011183010 A CN 202011183010A CN 112116031 B CN112116031 B CN 112116031B
- Authority
- CN
- China
- Prior art keywords
- target
- radar
- fusion
- vehicle
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 17
- 238000001514 detection method Methods 0.000 claims abstract description 76
- 230000004927 fusion Effects 0.000 claims abstract description 69
- 238000004364 calculation method Methods 0.000 claims abstract description 16
- 230000001133 acceleration Effects 0.000 claims abstract description 9
- 230000008447 perception Effects 0.000 claims description 11
- 238000005516 engineering process Methods 0.000 claims description 7
- 238000000034 method Methods 0.000 description 12
- 238000012360 testing method Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000012800 visualization Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Abstract
本发明公开了一种基于路侧设备的目标融合方法、系统、车辆及存储介质,采用路侧的摄像头与雷达作为前端基础设备,通过视频微波检测融合计算单元将摄像头的视频与雷达的部分数据进行融合与深度分析,完成所检测目标车辆与行人的位置、速度、加速度、航向角等信息的输出,以供自动驾驶车辆感知融合,实现车路协同感知融合的决策控制。
Description
技术领域
本发明属于汽车自动驾驶、车辆协同技术领域,具体涉及一种基于路侧设备的目标融合方法、系统、车辆及存储介质。
背景技术
随着自动驾驶关键技术的日趋成熟,其逐步由单车智能向车路协同方向快速发展。由于单车智能传感器检测的路况存着盲区,而路侧端传感器则能辅助车辆完成该部分路况的检测。因此,车路协同能够提升自动驾驶系统的安全性能,助力自动驾驶技术早日面向普通用户。
车路协同经过2019年的“四跨”和多个示范先导区的先行先试,车联网V2X技术第一阶段的17个预警类应用场景已得到了基本的技术验证,2020年已具备了量产上车的条件。目前,车路协同面向第二阶段L2、L3级的高级辅助驾驶,以及第三阶段L3/L4高级自动驾驶的应用探索和标准制定已成为未来两年的行业研究重点。
在车路协同技术领域,路侧端的检测传感器主要包括视频、各种雷达等。每种传感器都各有优缺点,如CN109190581A公开的一种图像序列目标检测识别方法,该方法提出了一种图像序列的目标检测方案,由于神经网络、深度学习等技术的跨越式发展,视频传感器检测精度大大提高,而且由于其本身具有安装方便、可大场景断面检测,可获得多种检测数据以及“所见即所得”的可视化等多种优势,获得了大量的应用,然而,在雨雾等恶劣天气情况下,其检测效果不佳,且在超出一定距离范围存在着检测目标的精度较差等问题。
因此,有必要开发一种新的基于路侧设备的目标融合方法、系统、车辆及存储介质。
发明内容
本发明提供一种基于路侧设备的目标融合方法、系统、车辆及存储介质,以实现车路协同感知融合的决策控制。
第一方面,本发明所述的基于路侧设备的目标融合方法,包括以下步骤:
步骤1.摄像头输出视频流的目标数据,雷达通过雷达处理器输出雷达检测的目标数据;
步骤2.视频微波检测融合计算单元将摄像头和雷达输出的目标数据进行融合,并输出目标的位置、速度、加速度和航向角;其中,所述视频微波检测融合计算单元将摄像头和雷达输出的目标数据进行融合,具体为:
当驶向路口区域的目标与路侧原点的距离d<ds时,融合检测输出的目标数据Dfusion=Dcamera,其中:所述路侧原点指摄像头与雷达的部署位置,摄像头和雷达部署在同一位置,d为目标到路侧原点的距离,ds为第一预设距离,Dfusion为融合检测输出数据,Dcamera为摄像头检测输出数据;
当驶向路口区域的目标与路侧原点的距离d满足ds<d<dr时,融合检测输出的目标数据Dfusion=tDcamera+(1-t)Dradar,其中:所述t为置信系数,dr为第二预设距离,且ds<dr;
当驶向路口区域的目标与路侧原点的距离d>dr时,融合检测输出的目标数据Dfusion=Dradar。
步骤3.路侧单元将检测到的目标数据通过RSM消息集广播出去;
步骤4.车端通过车载单元接收后进行解析,并与本车感知的信息进行再次融合,接入决策控制单元以供自动驾驶使用。
进一步,所述ds的取值为30米~40米,所述dr的取值为80米~90米。
进一步,所述置信系数t的值为0.6~0.8。
进一步,所述雷达检测利用了主动扫描式阵列雷达技术,每20毫秒扫描一次前方运动目标状态,并利用回波信号计算目标的位置、速度、加速度和航向角。
第二方面,本发明所述的一种基于路侧设备的目标融合系统,包括路侧设备和车辆端,所述路侧设备包括摄像头、雷达、雷达处理器、视频微波检测融合计算单元和路侧单元,所述视频微波检测融合计算单元分别与路侧单元、摄像头和雷达处理器连接,雷达处理器与雷达连接;所述车辆端包括车载单元、感知融合单元和决策控制单元,所述感知融合单元分别与车载单元和决策控制单元连接,所述基于路侧设备的目标融合系统被配置为能执行如本发明所述的基于路侧设备的目标融合方法的步骤。
第三方面,本发明所述的一种车辆,采用如本发明所述的基于路侧设备的目标融合系统。
第四方面,本发明所述的一种存储介质,其内存储有一个或一个以上的计算机可读程序,一个或一个以上的计算机可读程序被一个或一个以上的控制器调用时,能执行如本发明所述的基于路侧设备的目标融合方法的步骤。
本发明具有以下优点:采用路侧的摄像头与雷达作为前端基础设备,通过视频微波检测融合计算单元将摄像头的视频与雷达的部分数据进行融合与深度分析,完成所检测目标车辆与行人的位置、速度、加速度、航向角等信息的输出,以供自动驾驶车辆感知融合,实现了车路协同感知融合的决策控制。同时充分利用了视频与雷达的各自优势,融合处理的目标准确性较好,且能够很好地适应于低速或者静止目标的检测,雨雾等恶劣天气下的目标检测,以及行人检测等。
附图说明
图1为本实施例的融合检测流程图;
图2为本实施例中的测试点位图。
具体实施方式
下面结合附图对本发明作进一步说明。
如图1所示,本实施例中,一种基于路侧设备的目标融合方法,采用路侧的摄像头与雷达作为前端基础设备,通过视频微波检测融合计算单元将摄像头的视频与雷达的部分数据进行融合与深度分析,完成所检测目标车辆与行人的位置、速度、加速度、航向角等信息的输出,以供自动驾驶车辆感知融合,实现车路协同感知融合的决策控制。本方法具体包括以下步骤:
步骤1.摄像头输出视频流的目标数据,雷达通过雷达处理器输出雷达检测的目标数据。
步骤2.视频微波检测融合计算单元将摄像头和雷达输出的目标数据进行融合,并输出目标的位置、速度、加速度和航向角;其中,所述视频微波检测融合计算单元将摄像头和雷达输出的目标数据进行融合,具体为:
当驶向路口区域的目标与路侧原点的距离d<ds时,融合检测输出的目标数据Dfusion=Dcamera,其中:所述路侧原点指摄像头与雷达的部署位置,摄像头和雷达部署在同一位置,d为目标到路侧原点的距离,ds为第一预设距离,Dfusion为融合检测输出数据,Dcamera为摄像头检测输出数据。当d<ds时,由于摄像头的检测结果远远优于雷达,故融合输出结果即为摄像头输出数据Dcamera。
当驶向路口区域的目标与路侧原点的距离d满足ds<d<dr时,融合检测输出的目标数据Dfusion=tDcamera+(1-t)Dradar,其中:所述t为置信系数,dr为第二预设距离,且ds<dr;此时摄像头的检测结果与雷达的检测结果相当,故融合输出结果为摄像头输出数据Dcamera与雷达输出数据Dradar基于置信系数t的融合。
当驶向路口区域的目标与路侧原点的距离d>dr时,融合检测输出的目标数据Dfusion=Dradar;当d>dr时,由于超出了摄像头的焦距范围,雷达检测结果优于摄像头,故融合输出结果即为雷达输出数据Dradar。
步骤3.路侧单元将检测到的目标数据通过RSM消息集广播出去;
步骤4、车端通过车载单元接收后进行解析,并与本车感知的信息进行再次融合,接入决策控制单元以供自动驾驶使用。
本实施例中,所述ds的取值为30米~40米左右,所述dr的取值为80米~90米左右。所述置信系数t的值为0.6~0.8。
该方法对路侧端视频和雷达检测目标进行融合,充分利用视频与雷达的各自优势。
其一,视频检测利用优化的多层神经网络模型,对各种条件下的车辆、行人进行建模,提取多种特征,然后利用训练好的模型和加速芯片的强大算力,对实时车辆和行人的特征进行逐步比较,当检测目标的置信度达到一定阈值时,即判断输出检测目标结果。
其二,雷达检测利用了主动扫描式阵列雷达技术,每20毫秒扫描一次前方运动目标状态,利用回波信号,可以快速计算目标的位置信息、速度信息等。
融合充分利用了视频和微波雷达的各自优势,雷达的优势在于针对速度在5km/h以上的目标定位和车速比较准确,而且其可以检测30米~200米的距离。而视频检测的优势在于“所见即所得”的特性,方便准确地进行设备配置,可以对8米~80米左右的低、高目标进行准确检测。针对视频和雷达都可以有效检测的区域,则采取对两种模式权重分配的策略,进行目标的融合定位和检测。
针对不同场景和检测能力等方面,视频检测、雷达检测以及融合检测效果对比如表1所示。
表1是仅视频检测、仅雷达检测和将视频和雷达融合检测的效果对比情况:
场景与检测能力 | 雷达 | 视频车检器 | 融合检测器 |
低速或者静止目标 | 较差 | 较好 | 较好 |
可视化 | 较差 | 较好 | 较好 |
行人检测 | 较差 | 较好 | 较好 |
车辆速度 | 较好 | 较差 | 较好 |
雨雾等恶劣天气 | 较好 | 较差 | 较好 |
有效检测距离 | 较好 | 较差 | 较好 |
从表1能够得到,采用视频和雷达融合检测,能够解决仅视频检测和仅雷达检测的缺点。
以下以长安研发中心南区测试场地实施测试为例对本实施例进行说明。在如图2的场地点位进行视频微波融合检测车辆、行人目标经纬度信息、速度误差等,其中S1,S2,S3,S4,S5分别为长安研发中心南区NVH、底盘、大数据、智能化、材料实验楼。
(1)目标经纬度测试方法与结论
车辆检测:人工驾驶车辆由北向南沿着4号路口到5号路口进行测试,车辆在运动或静止状态下,车内输出定位与路口的路侧设备检测到的目标定位信息进行比对;
测试过程:在不同天气下,自动驾驶车辆经过各路口时输出一组检测经纬度与路侧设备检测到的车辆经纬度进行比对,共测试563组数据。
行人检测:行人在运动或静止状态下,通过高精定位设备采集所在位置信息与路侧设备检测到的目标定位信息进行比对;
测试过程:在不同天气下,行人经过路口时输出一组检测经纬度与路侧设备检测到的车辆经纬度进行比对,共测试19组数据。
结论:车辆在有效范围8m~90m内,行人在有效范围8m~30m内可正常检测识别物并输出识别物类别、经纬度、速度等数据,识别有效目标信息检测率达到95%以上。车辆经纬度横向平均误差约为0.45m,纵向平均误差约为1.78m,行人经纬度横向平均误差约为0.4m,纵向平均误差约为0.93m;
(2)目标速度测试方法与结论
车辆检测:人工驾驶车辆由北向南匀速经过4号和5号路口,车辆在有效探测范围不同位置出现,路侧设备对目标物进行检测,输出检测目标的车速与自动驾驶车载速度显示进行比对。
测试过程:在不同天气下,人工驾驶车辆分别以12km/h,24km/h,20km/h匀速经过5号路口,路侧设备检测目标信息并输出实时速度进行比对,共测试25组数据。
行人检测:行人由北向南走过路口,在有效探测范围不同位置出现,路侧设备对行人进行检测,通过人工预估速度与检测目标速度信息进行比对。
测试过程:在不同天气下,行人常速经过5号路口,路侧设备检测目标信息并输出实时速度与自动驾驶车辆检测目标速度进行比对,共测试16组数据。
结论:车辆行驶方向的速度平均误差约为1.28km/h,行人行走方向的速度平均误差约为0.75km/h。
本实施例中,一种基于路侧设备的目标融合系统,包括路侧设备和车辆端,所述路侧设备包括摄像头、雷达、雷达处理器、视频微波检测融合计算单元和路侧单元,所述视频微波检测融合计算单元分别与路侧单元、摄像头和雷达处理器连接,雷达处理器与雷达连接;所述车辆端包括车载单元、感知融合单元和决策控制单元,所述感知融合单元分别与车载单元和决策控制单元连接,其特征在于:所述基于路侧设备的目标融合系统被配置为能执行如本实施例中所述的基于路侧设备的目标融合方法的步骤。
本实施例中,一种车辆,采用如本实施例中所述的基于路侧设备的目标融合系统。
本实施例中,一种存储介质,其内存储有一个或一个以上的计算机可读程序,一个或一个以上的计算机可读程序被一个或一个以上的控制器调用时,能执行如本实施例中所述的基于路侧设备的目标融合方法的步骤。
Claims (7)
1.一种基于路侧设备的目标融合方法,其特征在于,包括以下步骤:
步骤1.摄像头输出视频流的目标数据,雷达通过雷达处理器输出雷达检测的目标数据;
步骤2.视频微波检测融合计算单元将摄像头和雷达输出的目标数据进行融合,并输出目标的位置、速度、加速度和航向角;其中,所述视频微波检测融合计算单元将摄像头和雷达输出的目标数据进行融合,具体为:
当驶向路口区域的目标与路侧原点的距离d<ds时,融合检测输出的目标数据Dfusion=Dcamera,其中:所述路侧原点指摄像头与雷达的部署位置,摄像头和雷达部署在同一位置,d为目标到路侧原点的距离,ds为第一预设距离,Dfusion为融合检测输出数据,Dcamera为摄像头检测输出数据;
当驶向路口区域的目标与路侧原点的距离d满足ds<d<dr时,融合检测输出的目标数据Dfusion=tDcamera+(1-t)Dradar,其中:所述t为置信系数,dr为第二预设距离,且ds<dr;
当驶向路口区域的目标与路侧原点的距离d>dr时,融合检测输出的目标数据Dfusion=Dradar;
步骤3.路侧单元将检测到的目标数据通过RSM消息集广播出去;
步骤4.车端通过车载单元接收后进行解析,并与本车感知的信息进行再次融合,接入决策控制单元以供自动驾驶使用。
2.根据权利要求1所述的基于路侧设备的目标融合方法,其特征在于:所述ds的取值为30米~40米,所述dr的取值为80米~90米。
3.根据权利要求1或2所述的基于路侧设备的目标融合方法,其特征在于:所述置信系数t的值为0.6~0.8。
4.根据权利要求3所述的基于路侧设备的目标融合方法,其特征在于:所述雷达检测利用了主动扫描式阵列雷达技术,每20毫秒扫描一次前方运动目标状态,并利用回波信号计算目标的位置、速度、加速度和航向角。
5.一种基于路侧设备的目标融合系统,包括路侧设备和车辆端,所述路侧设备包括摄像头、雷达、雷达处理器、视频微波检测融合计算单元和路侧单元,所述视频微波检测融合计算单元分别与路侧单元、摄像头和雷达处理器连接,雷达处理器与雷达连接;所述车辆端包括车载单元、感知融合单元和决策控制单元,所述感知融合单元分别与车载单元和决策控制单元连接,其特征在于:所述基于路侧设备的目标融合系统被配置为能执行如权利要求1至4任一所述的基于路侧设备的目标融合方法的步骤。
6.一种车辆,其特征在于:采用如权利要求5所述的基于路侧设备的目标融合系统。
7.一种存储介质,其内存储有一个或一个以上的计算机可读程序,其特征在于:一个或一个以上的计算机可读程序被一个或一个以上的控制器调用时,能执行如权利要求1至4任一所述的基于路侧设备的目标融合方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011183010.5A CN112116031B (zh) | 2020-10-29 | 2020-10-29 | 基于路侧设备的目标融合方法、系统、车辆及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011183010.5A CN112116031B (zh) | 2020-10-29 | 2020-10-29 | 基于路侧设备的目标融合方法、系统、车辆及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112116031A CN112116031A (zh) | 2020-12-22 |
CN112116031B true CN112116031B (zh) | 2024-02-09 |
Family
ID=73794834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011183010.5A Active CN112116031B (zh) | 2020-10-29 | 2020-10-29 | 基于路侧设备的目标融合方法、系统、车辆及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112116031B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114764979A (zh) * | 2021-01-14 | 2022-07-19 | 大陆泰密克汽车系统(上海)有限公司 | 事故信息警示系统及方法、电子设备、存储介质 |
CN112463347B (zh) * | 2021-01-25 | 2021-06-11 | 国汽智控(北京)科技有限公司 | 一种云路协同的自动驾驶模型训练、调取方法及系统 |
CN112721952B (zh) * | 2021-01-29 | 2022-07-05 | 重庆长安汽车股份有限公司 | 一种l3级自动驾驶汽车的复杂路段行驶控制方法、装置、汽车及计算机存储介质 |
CN113034943A (zh) * | 2021-02-26 | 2021-06-25 | 重庆长安汽车股份有限公司 | 一种全息路口视频显示系统及方法 |
CN113420805B (zh) * | 2021-06-21 | 2022-11-29 | 车路通科技(成都)有限公司 | 视频和雷达的动态轨迹图像融合方法、装置、设备及介质 |
CN114506265B (zh) * | 2022-02-18 | 2024-03-26 | 东风汽车集团股份有限公司 | 一种车辆与行人的人机交互控制方法及装置 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102564431A (zh) * | 2011-11-14 | 2012-07-11 | 南京理工大学 | 基于多传感器融合的非结构化环境理解方法 |
CN103324936A (zh) * | 2013-05-24 | 2013-09-25 | 北京理工大学 | 一种基于多传感器融合的车辆下边界检测方法 |
CN104573646A (zh) * | 2014-12-29 | 2015-04-29 | 长安大学 | 基于激光雷达和双目相机的车前行人检测方法及系统 |
KR20160062880A (ko) * | 2014-11-26 | 2016-06-03 | 휴앤에스(주) | 카메라 및 레이더를 이용한 교통정보 관리시스템 |
CN107807355A (zh) * | 2017-10-18 | 2018-03-16 | 轩辕智驾科技(深圳)有限公司 | 一种基于红外和毫米波雷达技术的车辆避障预警系统 |
CN107991671A (zh) * | 2017-11-23 | 2018-05-04 | 浙江东车智能科技有限公司 | 一种基于雷达数据和视频信号融合识别危险目标的方法 |
CN108614262A (zh) * | 2018-06-22 | 2018-10-02 | 安徽江淮汽车集团股份有限公司 | 一种车辆前方目标物检测方法及系统 |
CN110095770A (zh) * | 2019-04-26 | 2019-08-06 | 东风柳州汽车有限公司 | 车辆周边目标物的检测方法 |
CN110532896A (zh) * | 2019-08-06 | 2019-12-03 | 北京航空航天大学 | 一种基于路侧毫米波雷达和机器视觉融合的道路车辆检测方法 |
CN110794405A (zh) * | 2019-10-18 | 2020-02-14 | 北京全路通信信号研究设计院集团有限公司 | 一种基于相机和雷达融合的目标检测方法及系统 |
WO2020108647A1 (zh) * | 2018-11-30 | 2020-06-04 | 杭州海康威视数字技术股份有限公司 | 车载摄像头和车载雷达联动的目标检测方法、装置及系统 |
CN111554088A (zh) * | 2020-04-13 | 2020-08-18 | 重庆邮电大学 | 一种多功能v2x智能路侧基站系统 |
CN111634290A (zh) * | 2020-05-22 | 2020-09-08 | 华域汽车系统股份有限公司 | 高级驾驶辅助的前向融合系统及方法 |
CN111652097A (zh) * | 2020-05-25 | 2020-09-11 | 南京莱斯电子设备有限公司 | 一种图像毫米波雷达融合目标检测方法 |
CN111754581A (zh) * | 2019-03-28 | 2020-10-09 | 阿里巴巴集团控股有限公司 | 一种摄像头标定方法、路侧感知设备和智慧交通系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11479262B2 (en) * | 2018-06-06 | 2022-10-25 | Metawave Corporation | Geographically disparate sensor fusion for enhanced target detection and identification in autonomous vehicles |
-
2020
- 2020-10-29 CN CN202011183010.5A patent/CN112116031B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102564431A (zh) * | 2011-11-14 | 2012-07-11 | 南京理工大学 | 基于多传感器融合的非结构化环境理解方法 |
CN103324936A (zh) * | 2013-05-24 | 2013-09-25 | 北京理工大学 | 一种基于多传感器融合的车辆下边界检测方法 |
KR20160062880A (ko) * | 2014-11-26 | 2016-06-03 | 휴앤에스(주) | 카메라 및 레이더를 이용한 교통정보 관리시스템 |
CN104573646A (zh) * | 2014-12-29 | 2015-04-29 | 长安大学 | 基于激光雷达和双目相机的车前行人检测方法及系统 |
CN107807355A (zh) * | 2017-10-18 | 2018-03-16 | 轩辕智驾科技(深圳)有限公司 | 一种基于红外和毫米波雷达技术的车辆避障预警系统 |
CN107991671A (zh) * | 2017-11-23 | 2018-05-04 | 浙江东车智能科技有限公司 | 一种基于雷达数据和视频信号融合识别危险目标的方法 |
CN108614262A (zh) * | 2018-06-22 | 2018-10-02 | 安徽江淮汽车集团股份有限公司 | 一种车辆前方目标物检测方法及系统 |
WO2020108647A1 (zh) * | 2018-11-30 | 2020-06-04 | 杭州海康威视数字技术股份有限公司 | 车载摄像头和车载雷达联动的目标检测方法、装置及系统 |
CN111754581A (zh) * | 2019-03-28 | 2020-10-09 | 阿里巴巴集团控股有限公司 | 一种摄像头标定方法、路侧感知设备和智慧交通系统 |
CN110095770A (zh) * | 2019-04-26 | 2019-08-06 | 东风柳州汽车有限公司 | 车辆周边目标物的检测方法 |
CN110532896A (zh) * | 2019-08-06 | 2019-12-03 | 北京航空航天大学 | 一种基于路侧毫米波雷达和机器视觉融合的道路车辆检测方法 |
CN110794405A (zh) * | 2019-10-18 | 2020-02-14 | 北京全路通信信号研究设计院集团有限公司 | 一种基于相机和雷达融合的目标检测方法及系统 |
CN111554088A (zh) * | 2020-04-13 | 2020-08-18 | 重庆邮电大学 | 一种多功能v2x智能路侧基站系统 |
CN111634290A (zh) * | 2020-05-22 | 2020-09-08 | 华域汽车系统股份有限公司 | 高级驾驶辅助的前向融合系统及方法 |
CN111652097A (zh) * | 2020-05-25 | 2020-09-11 | 南京莱斯电子设备有限公司 | 一种图像毫米波雷达融合目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112116031A (zh) | 2020-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112116031B (zh) | 基于路侧设备的目标融合方法、系统、车辆及存储介质 | |
CN109920246B (zh) | 一种基于v2x通信与双目视觉的协同局部路径规划方法 | |
CN112307594B (zh) | 道路数据采集和模拟场景建立一体化系统及方法 | |
CN112558023B (zh) | 传感器的标定方法和装置 | |
DE102017126877A1 (de) | Automatisierte Copilot-Steuerung für autonome Fahrzeuge | |
US11345371B2 (en) | Evaluation of components of driving functions and roadway detection in different processing stages | |
CN112307566A (zh) | 车辆仿真测试方法、装置、设备及存储介质 | |
CN112789619A (zh) | 一种仿真场景的构建方法、仿真方法以及设备 | |
DE102012203037A1 (de) | Verfahren zur Ermittlung der Geschwindigkeit und/oder Position eines Fahrzeuges | |
WO2020079698A1 (en) | Adas systems functionality testing | |
CN113885062A (zh) | 基于v2x的数据采集融合设备、方法和系统 | |
CN111123228A (zh) | 一种车载雷达集成测试系统及方法 | |
CN111830470B (zh) | 联合标定方法及装置、目标对象检测方法、系统及装置 | |
CN113340325A (zh) | 一种验证车路协同路侧感知融合精度的系统、方法及介质 | |
CN115257784A (zh) | 基于4d毫米波雷达的车路协同系统 | |
WO2019121211A1 (de) | Verfahren zur satellitengestützten ermittlung einer position eines fahrzeugs | |
CN114639085A (zh) | 交通信号灯识别方法、装置、计算机设备和存储介质 | |
CN112462368A (zh) | 一种障碍物检测方法、装置、车辆及存储介质 | |
CN114638853A (zh) | 一种基于路侧固态激光雷达的背景过滤方法和系统 | |
CN113781471A (zh) | 一种自动驾驶测试场系统及方法 | |
CN114037972A (zh) | 目标检测方法、装置、设备及可读存储介质 | |
CN117130010A (zh) | 用于无人驾驶的障碍物感知方法、系统及无人驾驶汽车 | |
CN117029840A (zh) | 一种移动车辆定位方法及系统 | |
CN112835029A (zh) | 面向无人驾驶的多传感器障碍物探测数据融合方法及系统 | |
Murashov et al. | Method of determining vehicle speed according to video stream data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |