CN116189116A - 一种交通状态感知方法及系统 - Google Patents

一种交通状态感知方法及系统 Download PDF

Info

Publication number
CN116189116A
CN116189116A CN202310444605.9A CN202310444605A CN116189116A CN 116189116 A CN116189116 A CN 116189116A CN 202310444605 A CN202310444605 A CN 202310444605A CN 116189116 A CN116189116 A CN 116189116A
Authority
CN
China
Prior art keywords
data
frame
video
target image
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310444605.9A
Other languages
English (en)
Other versions
CN116189116B (zh
Inventor
陈广辉
刘令君
黄涛
黄敏
罗江
喻凯
胡志刚
李欣
于大龙
陶强
赵安然
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangxi Fangxing Technology Co ltd
Original Assignee
Jiangxi Fangxing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangxi Fangxing Technology Co ltd filed Critical Jiangxi Fangxing Technology Co ltd
Priority to CN202310444605.9A priority Critical patent/CN116189116B/zh
Publication of CN116189116A publication Critical patent/CN116189116A/zh
Application granted granted Critical
Publication of CN116189116B publication Critical patent/CN116189116B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明提供一种交通状态感知方法及系统,该方法包括:实时获取待感知区域的视频采集器和雷达传感器所采集的视频信息和雷达信息;基于对视频数据进行目标追踪处理得到的目标图像构建卷积神经网络模型的候选框,并为候选框匹配唯一标识;基于唯一标识和卷积神经网络模型在视频数据中对目标图像进行轨迹跟踪得到轨迹参数;基于标准时间线对视频数据和雷达数据进行坐标融合转换得到目标位置参数;获取状态感知数据表,并利用状态感知数据表、轨迹参数及目标位置参数生成目标图像中目标的状态标记,以实现待感知区域的交通状态感知。本发明实现快速的状态标记,使得交通状态感知更为讯速,提升感知效果。

Description

一种交通状态感知方法及系统
技术领域
本发明涉及智能交通技术领域,特别涉及一种交通状态感知方法及系统。
背景技术
随着道路交通的发展迅速以及城市路网的不断完善,交通基础设施减伤已经得到很大的进步,伴随着人们生活水平的提高,汽车也逐渐成为一些家庭出行的必备品。
随着机动车数量的增加,交通拥堵、交通事故以及交通违法违规的事件频发,交通信息是机动车在交通运输领域内流通的可利用信息,在交通信息中存储有各类机动车的行驶状态以及行驶数据,然而,现有技术中,利用交通信息进行交通状态感知,大都是利用已有的交通数据进行聚类,根据预先构建好的分析模型对聚类结果进行分类,从而判断出交通状态,然而单纯通过交通数据进行状态感知,无法解决各路况、交通拥堵以及交通事故对交通状态的影响,从而使得交通状态感知的效果大打折扣,影响状态的判断。
发明内容
基于此,本发明的目的是提供一种交通状态感知方法及系统,以至少解决上述技术中的不足。
本发明提出一种交通状态感知方法,包括:
实时获取待感知区域的视频采集器和雷达传感器所采集的视频信息和雷达信息,其中,所述视频信息包括视频数据以及视频时间,所述雷达信息包括雷达数据以及雷达时间;
对所述视频数据进行目标追踪处理,以得到所述视频数据中的目标图像,基于所述目标图像构建卷积神经网络模型的候选框,并为所述候选框匹配唯一标识;
基于所述唯一标识和所述卷积神经网络模型在所述视频数据中对所述目标图像进行轨迹跟踪,以得到所述目标图像的轨迹参数;
将所述视频时间和所述雷达时间进行时间配准,以得到对应的标准时间线,并基于所述标准时间线对所述视频数据和所述雷达数据进行坐标融合转换,以得到对应的目标位置参数;
获取状态感知数据表,并利用所述状态感知数据表、所述目标图像的轨迹参数以及所述目标位置参数生成所述目标图像中目标的状态标记,以实现所述待感知区域的交通状态感知。
进一步的,对所述视频数据进行目标追踪处理,以得到所述视频数据中的目标图像的步骤包括:
对所述视频数据进行逐帧处理,以得到所述视频数据的逐帧图像以及对应的平均灰度值;
对所述逐帧图像进行差分处理,并根据所述平均灰度值和差分处理结果进行背景筛选,以得到对应的目标图像。
进一步的,基于所述唯一标识和所述卷积神经网络模型在所述视频数据中对所述目标图像进行轨迹跟踪,以得到所述目标图像的轨迹参数的步骤包括:
基于所述视频时间在所述视频数据中对所述唯一标识进行标识检测,以得到所述目标图像在所述视频数据中的位置变换逐帧数据;
将所述位置变换逐帧数据在像素坐标系中按二维坐标进行表示,从而得到所述目标图像的轨迹参数。
进一步的,基于所述标准时间线对所述视频数据和所述雷达数据进行坐标融合转换,以得到对应的目标位置参数的步骤包括:
将所述雷达数据进行绝对坐标映射,以得到所述雷达数据所对应的绝对坐标数据;
将所述绝对坐标数据中所有的三维坐标点进行矩阵转换,以得到所述雷达数据所对应的空间坐标数据;
对所述空间坐标数据进行平面转换,以得到对应的平面坐标数据,并对所述平面坐标数据进行像素转换,以得到对应的像素坐标数据;
在所述视频数据中对目标进行坐标数据标定,并在所述标准时间线中将所述像素坐标数据和所述视频数据的坐标数据进行坐标融合转换,以得到坐标数据标定结果所对应的目标位置参数。
进一步的,利用所述状态感知数据表、所述目标图像的轨迹参数以及所述目标位置参数生成所述目标图像中目标的状态标记,以实现所述待感知区域的交通状态感知的步骤包括:
分别解析出所述状态感知数据表、所述目标图像的轨迹参数以及所述目标位置参数中的字段标识;
将所述状态感知数据表、所述目标图像的轨迹参数以及所述目标位置参数中的字段标识相同的数据进行结构化处理,以得到所述目标图像中目标的状态标记,以实现所述待感知区域的交通状态感知。
进一步的,视频数据的逐帧图像的平均灰度值的计算公式为:
Figure SMS_1
式中,
Figure SMS_2
表示视频数据经过逐帧处理后的逐帧图像在/>
Figure SMS_3
点处的平均灰度值,/>
Figure SMS_4
表示实际参与逐帧处理的连续帧总数,/>
Figure SMS_5
表示第/>
Figure SMS_6
帧逐帧图像在
Figure SMS_7
点处的灰度值。
本发明还提出一种交通状态感知系统,包括:
数据采集模块,用于实时获取待感知区域的视频采集器和雷达传感器所采集的视频信息和雷达信息,其中,所述视频信息包括视频数据以及视频时间,所述雷达信息包括雷达数据以及雷达时间;
目标追踪模块,用于对所述视频数据进行目标追踪处理,以得到所述视频数据中的目标图像,基于所述目标图像构建卷积神经网络模型的候选框,并为所述候选框匹配唯一标识;
参数计算模块,用于基于所述唯一标识和所述卷积神经网络模型在所述视频数据中对所述目标图像进行轨迹跟踪,以得到所述目标图像的轨迹参数;
坐标转换模块,用于将所述视频时间和所述雷达时间进行时间配准,以得到对应的标准时间线,并基于所述标准时间线对所述视频数据和所述雷达数据进行坐标融合转换,以得到对应的目标位置参数;
状态感知模块,用于获取状态感知数据表,并利用所述状态感知数据表、所述目标图像的轨迹参数以及所述目标位置参数生成所述目标图像中目标的状态标记,以实现所述待感知区域的交通状态感知。
进一步的,所述目标追踪模块包括:
逐帧处理单元,用于对所述视频数据进行逐帧处理,以得到所述视频数据的逐帧图像以及对应的平均灰度值;
差分处理单元,用于对所述逐帧图像进行差分处理,并根据所述平均灰度值和差分处理结果进行背景筛选,以得到对应的目标图像。
进一步的,所述参数计算模块包括:
标识检测单元,用于基于所述视频时间在所述视频数据中对所述唯一标识进行标识检测,以得到所述目标图像在所述视频数据中的位置变换逐帧数据;
参数计算单元,用于将所述位置变换逐帧数据在像素坐标系中按二维坐标进行表示,从而得到所述目标图像的轨迹参数。
进一步的,所述坐标转换模块包括:
绝对坐标映射单元,用于将所述雷达数据进行绝对坐标映射,以得到所述雷达数据所对应的绝对坐标数据;
矩阵转换单元,用于将所述绝对坐标数据中所有的三维坐标点进行矩阵转换,以得到所述雷达数据所对应的空间坐标数据;
平面转换单元,用于对所述空间坐标数据进行平面转换,以得到对应的平面坐标数据,并对所述平面坐标数据进行像素转换,以得到对应的像素坐标数据;
数据标定单元,用于在所述视频数据中对目标进行坐标数据标定,并在所述标准时间线中将所述像素坐标数据和所述视频数据的坐标数据进行坐标融合转换,以得到坐标数据标定结果所对应的目标位置参数。
进一步的,所述状态感知模块包括:
标识解析单元,用于分别解析出所述状态感知数据表、所述目标图像的轨迹参数以及所述目标位置参数中的字段标识;
状态感知单元,用于将所述状态感知数据表、所述目标图像的轨迹参数以及所述目标位置参数中的字段标识相同的数据进行结构化处理,以得到所述目标图像中目标的状态标记,以实现所述待感知区域的交通状态感知。
本发明当中的交通状态感知方法及系统,通过实时采集待感知区域的雷达信息和视频信息,并对视频数据进行目标追踪处理,从而得到对应的目标图像,并利用唯一标识对视频数据进行轨迹跟踪,从而得到目标图像的轨迹参数;利用时间配准将视频时间和雷达时间进行统一,并利用坐标融合转换对视频数据和雷达数据进行信息融合,从而提高视频数据和雷达数据的可靠性、以及提高交通状态感知的准确性,利用状态感知数据表来对目标图像的轨迹参数和目标位置参数进行状态标记,实现快速的状态标记,使得交通状态感知更为讯速,提升感知效果。
附图说明
图1为本发明第一实施例中的交通状态感知方法的流程图;
图2为图1中步骤S102的详细流程图;
图3为图1中步骤S103的详细流程图;
图4为图1中步骤S104的详细流程图;
图5为图1中步骤S105的详细流程图;
图6为本发明第二实施例中的交通状态感知系统的结构框图;
图7为本发明第三实施例中的计算机设备的结构框图。
如下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的若干实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容更加透彻全面。
需要说明的是,当元件被称为“固设于”另一个元件,它可以直接在另一个元件上或者也可以存在居中的元件。当一个元件被认为是“连接”另一个元件,它可以是直接连接到另一个元件或者可能同时存在居中元件。本文所使用的术语“垂直的”、“水平的”、“左”、“右”以及类似的表述只是为了说明的目的。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
实施例一
请参阅图1,所示为本发明第一实施例中的交通状态感知方法,所述方法具体包括步骤S101至S105:
S101,实时获取待感知区域的视频采集器和雷达传感器所采集的视频信息和雷达信息,其中,所述视频信息包括视频数据以及视频时间,所述雷达信息包括雷达数据以及雷达时间;
在具体实施时,利用预先安装在待感知区域的视频采集器和雷达传感器对该待感知区域进行信息采集,其中,视频采集器优选高清摄像头,雷达传感器优选毫米波雷达,在采集的过程中会将视频时间以及雷达时间与对应的数据进行同时采集。
S102,对所述视频数据进行目标追踪处理,以得到所述视频数据中的目标图像,基于所述目标图像构建卷积神经网络模型的候选框,并为所述候选框匹配唯一标识;
进一步的,请参阅图2,所述步骤S102具体包括步骤S1021~S1022:
S1021,对所述视频数据进行逐帧处理,以得到所述视频数据的逐帧图像以及对应的平均灰度值;
S1022,对所述逐帧图像进行差分处理,并根据所述平均灰度值和差分处理结果进行背景筛选,以得到对应的目标图像。
在具体实施时,对上述得到的视频数据进行逐帧处理,以得到该待感知区域内的逐帧图像,利用多个相邻的视频帧进行多次交叉累加计算平均值,以得到逐帧图像所对应的平均灰度值:
Figure SMS_8
式中,
Figure SMS_9
表示视频数据经过逐帧处理后的逐帧图像在/>
Figure SMS_10
点处的平均灰度值,/>
Figure SMS_11
表示实际参与逐帧处理的连续帧总数,/>
Figure SMS_12
表示第/>
Figure SMS_13
帧逐帧图像在
Figure SMS_14
点处的灰度值。
在得到平均灰度值后,对其所对应的逐帧图像进行差分处理,计算出连续的前后两帧视频帧与逐帧图像在对应位置上的像素灰度值的差值,以得到连续的前后两视频帧的差分信息,利用二值化处理方法对该差分信息进行背景筛选,将差分信息超过阈值的标记为目标图像,将差分信息未超过阈值的标记为背景图像。
进一步的,构建卷积神经网络模型,并根据所述目标图像构建卷积神经网络模型的候选框,并对该目标图像的候选框进行唯一标识匹配,以便于在视频数据中对该目标图像进行轨迹追踪。
S103,基于所述唯一标识和所述卷积神经网络模型在所述视频数据中对所述目标图像进行轨迹跟踪,以得到所述目标图像的轨迹参数;
进一步的,请参阅图3,所述步骤S103具体包括步骤S1031~S1032:
S1031,基于所述视频时间在所述视频数据中对所述唯一标识进行标识检测,以得到所述目标图像在所述视频数据中的位置变换逐帧数据;
S1032,将所述位置变换逐帧数据在像素坐标系中按二维坐标进行表示,从而得到所述目标图像的轨迹参数。
在具体实施时,基于上述的视频时间在视频数据中对包含有唯一标识的候选框进行标识检测,从而得到该视频数据中该目标图像在视频时间中的连续帧时序,即目标在该视频数据中按照逐帧划分的位置变换数据,该位置变换数据在像素坐标系中按照二维坐标进行表示,从而得到所述目标图像的轨迹参数:
Figure SMS_15
式中,
Figure SMS_16
表示位置变换逐帧数据的宽度,/>
Figure SMS_17
表示位置变换逐帧数据的高度。
S104,将所述视频时间和所述雷达时间进行时间配准,以得到对应的标准时间线,并基于所述标准时间线对所述视频数据和所述雷达数据进行坐标融合转换,以得到对应的目标位置参数;
进一步的,请参阅图4,所述步骤S104具体包括步骤S1041~1044:
S1041,将所述雷达数据进行绝对坐标映射,以得到所述雷达数据所对应的绝对坐标数据;
S1042,将所述绝对坐标数据中所有的三维坐标点进行矩阵转换,以得到所述雷达数据所对应的空间坐标数据;
S1043,对所述空间坐标数据进行平面转换,以得到对应的平面坐标数据,并对所述平面坐标数据进行像素转换,以得到对应的像素坐标数据;
S1044,在所述视频数据中对目标进行坐标数据标定,并在所述标准时间线中将所述像素坐标数据和所述视频数据的坐标数据进行坐标融合转换,以得到坐标数据标定结果所对应的目标位置参数。
在具体实施时,由于雷达数据与视频数据在采样频率上存在差异,因此,需要将采样频率较低的数据作为基准,向下兼容同步两数据,在本实施中,将雷达数据的时间作为基准,对视频时间和雷达时间进行时间配准,以得到对应的标准时间线:
Figure SMS_18
式中,
Figure SMS_19
表示雷达时间的时间坐标,/>
Figure SMS_20
表示视频时间的时间坐标,/>
Figure SMS_21
表示时延;
进一步的,在该待感知区域中,毫米波雷达架设于高度为
Figure SMS_22
的支撑杆上,并倾斜向下反射波束,计算出在任一目标图像中毫米波雷达与其目标的距离/>
Figure SMS_23
,以及该毫米波雷达的方位角/>
Figure SMS_24
,将雷达数据映射到绝对坐标系中:
Figure SMS_25
Figure SMS_26
Figure SMS_27
由上述公式可以得到雷达数据所对应的绝对坐标数据
Figure SMS_28
为:
Figure SMS_29
Figure SMS_30
Figure SMS_31
具体的,将绝对坐标数据中的一个三维坐标点通过旋转矩阵和平移矩阵进行转换,从而得到视频采集器下的坐标点,即雷达数据对应的空间坐标数据
Figure SMS_32
Figure SMS_33
式中,
Figure SMS_34
表示旋转矩阵,/>
Figure SMS_35
表示平移矩阵。
将上述得到的空间坐标数据
Figure SMS_36
进行平面转换,以得到对应的平面坐标数据/>
Figure SMS_37
:/>
Figure SMS_38
式中,
Figure SMS_39
表示视频采集器的焦距。
进一步的,对平面坐标数据
Figure SMS_40
进行像素转换,以得到对应的像素坐标数据,可以理解的,平面坐标数据是图像平面内的直角坐标系,以像主点为原点,像素坐标数据是以图像左上角为原点;
在上述的视频数据中对目标进行坐标数据标定,并在所得到的标准时间线中将像素坐标数据和视频数据所标定的坐标数据进行坐标融合转换,以得到坐标数据标定结果所对应的目标位置参数,即目标图像中目标的位置数据。
S105,获取状态感知数据表,并利用所述状态感知数据表、所述目标图像的轨迹参数以及所述目标位置参数生成所述目标图像中目标的状态标记,以实现所述待感知区域的交通状态感知。
进一步的,请参阅图5,所述步骤S105具体包括步骤S1051~S1052:
S1051,分别解析出所述状态感知数据表、所述目标图像的轨迹参数以及所述目标位置参数中的字段标识;
S1052,将所述状态感知数据表、所述目标图像的轨迹参数以及所述目标位置参数中的字段标识相同的数据进行结构化处理,以得到所述目标图像中目标的状态标记,以实现所述待感知区域的交通状态感知。
在具体实施时,获取预先构建的状态感知数据表,并分别将状态感知数据表、目标图像的轨迹参数以及目标位置参数中的字段标识,其中,状态感知数据表的字段标识包括:车辆速度、车辆密度、车道占用时间等,在目标图像的轨迹参数和目标位置参数中同样具备有构建状态感知数据表的字段标识所需要的数据,并将所需要的数据分别构建字段标识;
具体的,将字段标识相同的数据进行结构化处理,以对应生成目标图像中目标的状态标记数据表,根据该数据表即可实现所述待感知区域的交通状态感知。
综上,本发明上述实施例当中的交通状态感知方法,通过实时采集待感知区域的雷达信息和视频信息,并对视频数据进行目标追踪处理,从而得到对应的目标图像,并利用唯一标识对视频数据进行轨迹跟踪,从而得到目标图像的轨迹参数;利用时间配准将视频时间和雷达时间进行统一,并利用坐标融合转换对视频数据和雷达数据进行信息融合,从而提高视频数据和雷达数据的可靠性、以及提高交通状态感知的准确性,利用状态感知数据表来对目标图像的轨迹参数和目标位置参数进行状态标记,实现快速的状态标记,使得交通状态感知更为讯速,提升感知效果。
实施例二
本发明另一方面还提出一种交通状态感知系统,请查阅图6,所示为本发明第二实施例中的交通状态感知系统,所述系统包括:
数据采集模块11,用于实时获取待感知区域的视频采集器和雷达传感器所采集的视频信息和雷达信息,其中,所述视频信息包括视频数据以及视频时间,所述雷达信息包括雷达数据以及雷达时间;
目标追踪模块12,用于对所述视频数据进行目标追踪处理,以得到所述视频数据中的目标图像,基于所述目标图像构建卷积神经网络模型的候选框,并为所述候选框匹配唯一标识;
进一步的,所述目标追踪模块12包括:
逐帧处理单元,用于对所述视频数据进行逐帧处理,以得到所述视频数据的逐帧图像以及对应的平均灰度值;
差分处理单元,用于对所述逐帧图像进行差分处理,并根据所述平均灰度值和差分处理结果进行背景筛选,以得到对应的目标图像。
参数计算模块13,用于基于所述唯一标识和所述卷积神经网络模型在所述视频数据中对所述目标图像进行轨迹跟踪,以得到所述目标图像的轨迹参数;
进一步的,所述参数计算模块13包括:
标识检测单元,用于基于所述视频时间在所述视频数据中对所述唯一标识进行标识检测,以得到所述目标图像在所述视频数据中的位置变换逐帧数据;
参数计算单元,用于将所述位置变换逐帧数据在像素坐标系中按二维坐标进行表示,从而得到所述目标图像的轨迹参数。
坐标转换模块14,用于将所述视频时间和所述雷达时间进行时间配准,以得到对应的标准时间线,并基于所述标准时间线对所述视频数据和所述雷达数据进行坐标融合转换,以得到对应的目标位置参数;
进一步的,所述坐标转换模块14包括:
绝对坐标映射单元,用于将所述雷达数据进行绝对坐标映射,以得到所述雷达数据所对应的绝对坐标数据;
矩阵转换单元,用于将所述绝对坐标数据中所有的三维坐标点进行矩阵转换,以得到所述雷达数据所对应的空间坐标数据;
平面转换单元,用于对所述空间坐标数据进行平面转换,以得到对应的平面坐标数据,并对所述平面坐标数据进行像素转换,以得到对应的像素坐标数据;
数据标定单元,用于在所述视频数据中对目标进行坐标数据标定,并在所述标准时间线中将所述像素坐标数据和所述视频数据的坐标数据进行坐标融合转换,以得到坐标数据标定结果所对应的目标位置参数。
状态感知模块15,用于获取状态感知数据表,并利用所述状态感知数据表、所述目标图像的轨迹参数以及所述目标位置参数生成所述目标图像中目标的状态标记,以实现所述待感知区域的交通状态感知。
进一步的,所述状态感知模块15包括:
标识解析单元,用于分别解析出所述状态感知数据表、所述目标图像的轨迹参数以及所述目标位置参数中的字段标识;
状态感知单元,用于将所述状态感知数据表、所述目标图像的轨迹参数以及所述目标位置参数中的字段标识相同的数据进行结构化处理,以得到所述目标图像中目标的状态标记,以实现所述待感知区域的交通状态感知。
上述各模块、单元被执行时所实现的功能或操作步骤与上述方法实施例大体相同,在此不再赘述。
本发明实施例所提供的交通状态感知系统,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,系统实施例部分未提及之处,可参考前述方法实施例中相应内容。
实施例三
本发明还提出一种计算机设备,请参阅图7,所示为本发明第三实施例中的计算机设备,包括存储器10、处理器20以及存储在所述存储器10上并可在所述处理器20上运行的计算机程序30,所述处理器20执行所述计算机程序30时实现上述的交通状态感知方法。
其中,存储器10至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器10在一些实施例中可以是计算机设备的内部存储单元,例如该计算机设备的硬盘。存储器10在另一些实施例中也可以是外部存储装置,例如插接式硬盘,智能存储卡(Smart MediaCard, SMC),安全数字(Secure Digital, SD)卡,闪存卡(Flash Card)等。进一步地,存储器10还可以既包括计算机设备的内部存储单元也包括外部存储装置。存储器10不仅可以用于存储安装于计算机设备的应用软件及各类数据,还可以用于暂时地存储已经输出或者将要输出的数据。
其中,处理器20在一些实施例中可以是电子控制单元 (Electronic ControlUnit,简称ECU,又称行车电脑)、中央处理器(Central Processing Unit, CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行存储器10中存储的程序代码或处理数据,例如执行访问限制程序等。
需要指出的是,图7示出的结构并不构成对计算机设备的限定,在其它实施例当中,该计算机设备可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
本发明实施例还提出一种可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述的交通状态感知方法。
本领域技术人员可以理解,在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机设备可读介质中,以供指令执行系统、装置或设备(如基于计算机设备的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机设备可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。
计算机设备可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机设备盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机设备可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机设备存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或它们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种交通状态感知方法,其特征在于,包括:
实时获取待感知区域的视频采集器和雷达传感器所采集的视频信息和雷达信息,其中,所述视频信息包括视频数据以及视频时间,所述雷达信息包括雷达数据以及雷达时间;
对所述视频数据进行目标追踪处理,以得到所述视频数据中的目标图像,基于所述目标图像构建卷积神经网络模型的候选框,并为所述候选框匹配唯一标识;
基于所述唯一标识和所述卷积神经网络模型在所述视频数据中对所述目标图像进行轨迹跟踪,以得到所述目标图像的轨迹参数;
将所述视频时间和所述雷达时间进行时间配准,以得到对应的标准时间线,并基于所述标准时间线对所述视频数据和所述雷达数据进行坐标融合转换,以得到对应的目标位置参数;
获取状态感知数据表,并利用所述状态感知数据表、所述目标图像的轨迹参数以及所述目标位置参数生成所述目标图像中目标的状态标记,以实现所述待感知区域的交通状态感知。
2.根据权利要求1所述的交通状态感知方法,其特征在于,对所述视频数据进行目标追踪处理,以得到所述视频数据中的目标图像的步骤包括:
对所述视频数据进行逐帧处理,以得到所述视频数据的逐帧图像以及对应的平均灰度值;
对所述逐帧图像进行差分处理,并根据所述平均灰度值和差分处理结果进行背景筛选,以得到对应的目标图像。
3.根据权利要求1所述的交通状态感知方法,其特征在于,基于所述唯一标识和所述卷积神经网络模型在所述视频数据中对所述目标图像进行轨迹跟踪,以得到所述目标图像的轨迹参数的步骤包括:
基于所述视频时间在所述视频数据中对所述唯一标识进行标识检测,以得到所述目标图像在所述视频数据中的位置变换逐帧数据;
将所述位置变换逐帧数据在像素坐标系中按二维坐标进行表示,从而得到所述目标图像的轨迹参数。
4.根据权利要求1所述的交通状态感知方法,其特征在于,基于所述标准时间线对所述视频数据和所述雷达数据进行坐标融合转换,以得到对应的目标位置参数的步骤包括:
将所述雷达数据进行绝对坐标映射,以得到所述雷达数据所对应的绝对坐标数据;
将所述绝对坐标数据中所有的三维坐标点进行矩阵转换,以得到所述雷达数据所对应的空间坐标数据;
对所述空间坐标数据进行平面转换,以得到对应的平面坐标数据,并对所述平面坐标数据进行像素转换,以得到对应的像素坐标数据;
在所述视频数据中对目标进行坐标数据标定,并在所述标准时间线中将所述像素坐标数据和所述视频数据的坐标数据进行坐标融合转换,以得到坐标数据标定结果所对应的目标位置参数。
5.根据权利要求1所述的交通状态感知方法,其特征在于,利用所述状态感知数据表、所述目标图像的轨迹参数以及所述目标位置参数生成所述目标图像中目标的状态标记,以实现所述待感知区域的交通状态感知的步骤包括:
分别解析出所述状态感知数据表、所述目标图像的轨迹参数以及所述目标位置参数中的字段标识;
将所述状态感知数据表、所述目标图像的轨迹参数以及所述目标位置参数中的字段标识相同的数据进行结构化处理,以得到所述目标图像中目标的状态标记,以实现所述待感知区域的交通状态感知。
6.根据权利要求2所述的交通状态感知方法,其特征在于,视频数据的逐帧图像的平均灰度值的计算公式为:
Figure QLYQS_1
式中,
Figure QLYQS_2
表示视频数据经过逐帧处理后的逐帧图像在/>
Figure QLYQS_3
点处的平均灰度值,/>
Figure QLYQS_4
表示实际参与逐帧处理的连续帧总数,/>
Figure QLYQS_5
表示第/>
Figure QLYQS_6
帧逐帧图像在/>
Figure QLYQS_7
点处的灰度值。
7.一种交通状态感知系统,其特征在于,包括:
数据采集模块,用于实时获取待感知区域的视频采集器和雷达传感器所采集的视频信息和雷达信息,其中,所述视频信息包括视频数据以及视频时间,所述雷达信息包括雷达数据以及雷达时间;
目标追踪模块,用于对所述视频数据进行目标追踪处理,以得到所述视频数据中的目标图像,基于所述目标图像构建卷积神经网络模型的候选框,并为所述候选框匹配唯一标识;
参数计算模块,用于基于所述唯一标识和所述卷积神经网络模型在所述视频数据中对所述目标图像进行轨迹跟踪,以得到所述目标图像的轨迹参数;
坐标转换模块,用于将所述视频时间和所述雷达时间进行时间配准,以得到对应的标准时间线,并基于所述标准时间线对所述视频数据和所述雷达数据进行坐标融合转换,以得到对应的目标位置参数;
状态感知模块,用于获取状态感知数据表,并利用所述状态感知数据表、所述目标图像的轨迹参数以及所述目标位置参数生成所述目标图像中目标的状态标记,以实现所述待感知区域的交通状态感知。
8.根据权利要求7所述的交通状态感知系统,其特征在于,所述目标追踪模块包括:
逐帧处理单元,用于对所述视频数据进行逐帧处理,以得到所述视频数据的逐帧图像以及对应的平均灰度值;
差分处理单元,用于对所述逐帧图像进行差分处理,并根据所述平均灰度值和差分处理结果进行背景筛选,以得到对应的目标图像。
9.根据权利要求7所述的交通状态感知系统,其特征在于,所述参数计算模块包括:
标识检测单元,用于基于所述视频时间在所述视频数据中对所述唯一标识进行标识检测,以得到所述目标图像在所述视频数据中的位置变换逐帧数据;
参数计算单元,用于将所述位置变换逐帧数据在像素坐标系中按二维坐标进行表示,从而得到所述目标图像的轨迹参数。
10.根据权利要求7所述的交通状态感知系统,其特征在于,所述坐标转换模块包括:
绝对坐标映射单元,用于将所述雷达数据进行绝对坐标映射,以得到所述雷达数据所对应的绝对坐标数据;
矩阵转换单元,用于将所述绝对坐标数据中所有的三维坐标点进行矩阵转换,以得到所述雷达数据所对应的空间坐标数据;
平面转换单元,用于对所述空间坐标数据进行平面转换,以得到对应的平面坐标数据,并对所述平面坐标数据进行像素转换,以得到对应的像素坐标数据;
数据标定单元,用于在所述视频数据中对目标进行坐标数据标定,并在所述标准时间线中将所述像素坐标数据和所述视频数据的坐标数据进行坐标融合转换,以得到坐标数据标定结果所对应的目标位置参数。
CN202310444605.9A 2023-04-24 2023-04-24 一种交通状态感知方法及系统 Active CN116189116B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310444605.9A CN116189116B (zh) 2023-04-24 2023-04-24 一种交通状态感知方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310444605.9A CN116189116B (zh) 2023-04-24 2023-04-24 一种交通状态感知方法及系统

Publications (2)

Publication Number Publication Date
CN116189116A true CN116189116A (zh) 2023-05-30
CN116189116B CN116189116B (zh) 2024-02-23

Family

ID=86449264

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310444605.9A Active CN116189116B (zh) 2023-04-24 2023-04-24 一种交通状态感知方法及系统

Country Status (1)

Country Link
CN (1) CN116189116B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117670938A (zh) * 2024-01-30 2024-03-08 江西方兴科技股份有限公司 一种基于治超机器人的多目标时空跟踪方法
CN117670938B (zh) * 2024-01-30 2024-05-10 江西方兴科技股份有限公司 一种基于治超机器人的多目标时空跟踪方法

Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104200657A (zh) * 2014-07-22 2014-12-10 杭州智诚惠通科技有限公司 一种基于视频和传感器的交通流量参数采集方法
US20160293218A1 (en) * 2015-03-30 2016-10-06 International Business Machines Corporation System to distinguish between visually identical objects
CN107766821A (zh) * 2017-10-23 2018-03-06 江苏鸿信系统集成有限公司 基于卡尔曼滤波与深度学习的视频中全时段车辆检测跟踪方法及系统
CN109615870A (zh) * 2018-12-29 2019-04-12 南京慧尔视智能科技有限公司 一种基于毫米波雷达和视频的交通检测系统
CN110264493A (zh) * 2019-06-17 2019-09-20 北京影谱科技股份有限公司 一种针对运动状态下的多目标对象追踪方法和装置
CN110807924A (zh) * 2019-11-04 2020-02-18 吴钢 基于全量全样实时交通数据的多参数融合方法及系统
CN112541416A (zh) * 2020-12-02 2021-03-23 深兰科技(上海)有限公司 跨雷达障碍物跟踪方法、装置、电子设备和存储介质
CN112562405A (zh) * 2020-11-27 2021-03-26 山东高速建设管理集团有限公司 一种雷达视频智能融合与预警方法及系统
CN112946628A (zh) * 2021-02-08 2021-06-11 江苏中路工程技术研究院有限公司 一种基于雷达与视频融合的道路运行状态检测方法及系统
CN113096397A (zh) * 2021-03-31 2021-07-09 武汉大学 基于毫米波雷达与视频检测的交通拥堵分析方法
CN113139442A (zh) * 2021-04-07 2021-07-20 青岛以萨数据技术有限公司 一种图像跟踪方法、装置、存储介质及电子设备
CN113420805A (zh) * 2021-06-21 2021-09-21 车路通科技(成都)有限公司 视频和雷达的动态轨迹图像融合方法、装置、设备及介质
WO2021196294A1 (zh) * 2020-04-03 2021-10-07 中国科学院深圳先进技术研究院 一种跨视频人员定位追踪方法、系统及设备
CN113671480A (zh) * 2021-07-10 2021-11-19 亿太特(陕西)科技有限公司 雷达与视频融合交通目标跟踪方法、系统、设备、终端
CN114255434A (zh) * 2022-03-01 2022-03-29 深圳金三立视频科技股份有限公司 一种多目标跟踪方法及装置
CN114299417A (zh) * 2021-12-09 2022-04-08 连云港杰瑞电子有限公司 一种基于雷视融合的多目标跟踪方法
WO2022141914A1 (zh) * 2021-01-01 2022-07-07 杜豫川 一种基于雷视融合的多目标车辆检测及重识别方法
CN115019512A (zh) * 2022-07-05 2022-09-06 北京动视元科技有限公司 一种基于雷达视频融合的道路事件检测系统
US20230060211A1 (en) * 2021-09-01 2023-03-02 ITV Group LLC System and Method for Tracking Moving Objects by Video Data
CN115792894A (zh) * 2022-11-09 2023-03-14 武汉科技大学 一种多传感器融合车辆目标跟踪方法、系统及存储介质
CN115862312A (zh) * 2022-09-28 2023-03-28 中国市政工程华北设计研究总院有限公司 一种实时交通状态感知与发布的交通指示系统
CN115909285A (zh) * 2023-01-06 2023-04-04 中兴飞流信息科技有限公司 一种雷达和视频信号融合的车辆跟踪方法
CN115965655A (zh) * 2023-02-02 2023-04-14 西安电子科技大学 一种基于雷视一体的交通目标跟踪方法

Patent Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104200657A (zh) * 2014-07-22 2014-12-10 杭州智诚惠通科技有限公司 一种基于视频和传感器的交通流量参数采集方法
US20160293218A1 (en) * 2015-03-30 2016-10-06 International Business Machines Corporation System to distinguish between visually identical objects
CN107766821A (zh) * 2017-10-23 2018-03-06 江苏鸿信系统集成有限公司 基于卡尔曼滤波与深度学习的视频中全时段车辆检测跟踪方法及系统
CN109615870A (zh) * 2018-12-29 2019-04-12 南京慧尔视智能科技有限公司 一种基于毫米波雷达和视频的交通检测系统
CN110264493A (zh) * 2019-06-17 2019-09-20 北京影谱科技股份有限公司 一种针对运动状态下的多目标对象追踪方法和装置
CN110807924A (zh) * 2019-11-04 2020-02-18 吴钢 基于全量全样实时交通数据的多参数融合方法及系统
WO2021196294A1 (zh) * 2020-04-03 2021-10-07 中国科学院深圳先进技术研究院 一种跨视频人员定位追踪方法、系统及设备
CN112562405A (zh) * 2020-11-27 2021-03-26 山东高速建设管理集团有限公司 一种雷达视频智能融合与预警方法及系统
CN112541416A (zh) * 2020-12-02 2021-03-23 深兰科技(上海)有限公司 跨雷达障碍物跟踪方法、装置、电子设备和存储介质
WO2022141914A1 (zh) * 2021-01-01 2022-07-07 杜豫川 一种基于雷视融合的多目标车辆检测及重识别方法
CN112946628A (zh) * 2021-02-08 2021-06-11 江苏中路工程技术研究院有限公司 一种基于雷达与视频融合的道路运行状态检测方法及系统
CN113096397A (zh) * 2021-03-31 2021-07-09 武汉大学 基于毫米波雷达与视频检测的交通拥堵分析方法
CN113139442A (zh) * 2021-04-07 2021-07-20 青岛以萨数据技术有限公司 一种图像跟踪方法、装置、存储介质及电子设备
CN113420805A (zh) * 2021-06-21 2021-09-21 车路通科技(成都)有限公司 视频和雷达的动态轨迹图像融合方法、装置、设备及介质
CN113671480A (zh) * 2021-07-10 2021-11-19 亿太特(陕西)科技有限公司 雷达与视频融合交通目标跟踪方法、系统、设备、终端
US20230060211A1 (en) * 2021-09-01 2023-03-02 ITV Group LLC System and Method for Tracking Moving Objects by Video Data
CN114299417A (zh) * 2021-12-09 2022-04-08 连云港杰瑞电子有限公司 一种基于雷视融合的多目标跟踪方法
CN114255434A (zh) * 2022-03-01 2022-03-29 深圳金三立视频科技股份有限公司 一种多目标跟踪方法及装置
CN115019512A (zh) * 2022-07-05 2022-09-06 北京动视元科技有限公司 一种基于雷达视频融合的道路事件检测系统
CN115862312A (zh) * 2022-09-28 2023-03-28 中国市政工程华北设计研究总院有限公司 一种实时交通状态感知与发布的交通指示系统
CN115792894A (zh) * 2022-11-09 2023-03-14 武汉科技大学 一种多传感器融合车辆目标跟踪方法、系统及存储介质
CN115909285A (zh) * 2023-01-06 2023-04-04 中兴飞流信息科技有限公司 一种雷达和视频信号融合的车辆跟踪方法
CN115965655A (zh) * 2023-02-02 2023-04-14 西安电子科技大学 一种基于雷视一体的交通目标跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ANTON MILAN等: "Joint Tracking and Segmentation of Multiple Targets", 《PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》, pages 5397 - 5406 *
YICONG TIAN等: "On Detection, Data Association and Segmentation for Multi-Target Tracking", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》, vol. 41, no. 9, pages 2146 - 2160, XP011737836, DOI: 10.1109/TPAMI.2018.2849374 *
叶仕浓: "基于Netlogo和社会力模型的慢行交通仿真研究", 《中国优秀硕士学位论文全文数据库 工程科技II辑》, vol. 2021, no. 10, pages 034 - 41 *
易承东: "基于点云和图像的智能交通路侧感知系统研究", 《中国优秀硕士学位论文全文数据库 工程科技II辑》, vol. 2023, no. 3, pages 034 - 661 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117670938A (zh) * 2024-01-30 2024-03-08 江西方兴科技股份有限公司 一种基于治超机器人的多目标时空跟踪方法
CN117670938B (zh) * 2024-01-30 2024-05-10 江西方兴科技股份有限公司 一种基于治超机器人的多目标时空跟踪方法

Also Published As

Publication number Publication date
CN116189116B (zh) 2024-02-23

Similar Documents

Publication Publication Date Title
US11455805B2 (en) Method and apparatus for detecting parking space usage condition, electronic device, and storage medium
CN109087510B (zh) 交通监测方法及装置
CN112581612B (zh) 基于激光雷达和环视摄像头融合的车载栅格地图生成方法及系统
CN111507327B (zh) 一种目标检测方法及装置
US10984263B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
CN109313699B (zh) 用于对一车辆的输入图像进行目标识别的装置和方法
Lee et al. Available parking slot recognition based on slot context analysis
CN110110678B (zh) 道路边界的确定方法和装置、存储介质及电子装置
US10984264B2 (en) Detection and validation of objects from sequential images of a camera
WO2017115732A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム
CN114677446A (zh) 基于路侧多传感器融合的车辆检测方法、装置及介质
CN112799091A (zh) 算法评估方法、装置及存储介质
Bi et al. A new method of target detection based on autonomous radar and camera data fusion
WO2021036243A1 (zh) 识别车道的方法、装置及计算设备
US11488471B2 (en) Systems and methods for identifying vehicles using wireless device identifiers
CN114550142A (zh) 基于4d毫米波雷达和图像识别融合的车位检测方法
Dhatbale et al. Deep learning techniques for vehicle trajectory extraction in mixed traffic
CN116189116B (zh) 一种交通状态感知方法及系统
CN108268866B (zh) 一种车辆检测方法和系统
CN111814769A (zh) 一种信息采集方法、装置、终端设备及存储介质
Xiong et al. Fast and robust approaches for lane detection using multi‐camera fusion in complex scenes
CN116794650A (zh) 一种毫米波雷达与摄像头数据融合的目标检测方法和装置
Li et al. An effective algorithm for video-based parking and drop event detection
CN114724119A (zh) 车道线提取方法、检测设备及存储介质
CN115829890A (zh) 一种图像融合方法、装置、设备、存储介质及产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant