CN110794405B - 一种基于相机和雷达融合的目标检测方法及系统 - Google Patents
一种基于相机和雷达融合的目标检测方法及系统 Download PDFInfo
- Publication number
- CN110794405B CN110794405B CN201910991170.3A CN201910991170A CN110794405B CN 110794405 B CN110794405 B CN 110794405B CN 201910991170 A CN201910991170 A CN 201910991170A CN 110794405 B CN110794405 B CN 110794405B
- Authority
- CN
- China
- Prior art keywords
- target
- radar
- camera
- coordinate system
- effective
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/36—Means for anti-jamming, e.g. ECCM, i.e. electronic counter-counter measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明公开了一种基于相机和雷达融合的目标检测方法及系统,所述检测方法包括:首先,获取雷达探测到的雷达数据以及相机同步采集到的图像;其次,对雷达数据中的雷达目标进行信息相关性滤波和卡尔曼滤波,筛选出有效雷达目标;然后,通过深度学习方法检测图像中的相机目标并获取相机目标的目标信息;最后,利用交小比方法融合有效雷达目标与相机目标,并筛选、输出融合目标结果。采用所述检测方法有效的降低了目标的漏检率和误检率,且对融合目标结果进行筛选,保证了融合目标结果的精确性。
Description
技术领域
本发明属于目标检测技术领域,特别涉及一种基于相机和雷达融合的目标检测方法及系统。
背景技术
有轨电车等路口的入侵物将对轨道运行安全造成极大的危害,目前,障碍物检测的方法或系统主要基于车载,用于探测前方障碍物,且均是基于运动坐标系实现探测,普遍存在仅使用感兴趣区域(ROI)叠加的方法实现探测,存在较高的误检率。在轨道交通检测领域,如何基于静止坐标系、充分利用相机、雷达两个维度的信息融合实现障碍物的检测越来越成为亟待解决的技术问题。
发明内容
针对上述问题,本发明提供了一种基于相机和雷达融合的目标检测方法及系统,所述方法有效的降低了目标的漏检率和误检率,且保证了融合目标结果的精确性。
本发明的目的在于提供一种基于相机和雷达融合的目标检测方法,所述检测方法包括:
获取雷达探测到的雷达数据以及相机同步采集到的图像;
对雷达数据中的雷达目标进行信息相关性滤波和卡尔曼滤波,筛选出有效雷达目标;
通过深度学习方法检测图像中的相机目标并获取相机目标的目标信息;
利用交小比方法融合有效雷达目标与相机目标,并筛选、输出融合目标结果。
进一步地,所述雷达数据包括目标的id、类型、位置、速度、距离、角度;
所述相机目标的目标信息包括目标的id、类型、候选框位置、候选框左上和右下坐标、速度信息;
所述融合目标结果包括相机目标的类型、候选框位置、以及相应有效雷达目标的速度。
进一步地,所述获取雷达探测到的雷达数据以及相机同步采集到的图像之前还包括:
安装并调整雷达与相机的位置,令二者具有共同的视场;
建立雷达坐标系、相机坐标系及地面坐标系,通过雷达和相机之间的平移矢量t及旋转矩阵R对二者之间的外参数进行标定。
进一步地,所述方法还包括:
在所述视场内布置标定场;
通过相机拍摄标定场提取多个特征点;
计算相机坐标系中图像平面与地面坐标系中地面平面之间的单应矩阵H,其中,所述单应矩阵H满足:
Pg=HPc (1)
其中,Pc是相机坐标系下的特征点坐标,Pg是地面坐标系下的特征点坐标。
进一步地,所述对雷达数据中的雷达目标进行信息相关性滤波和卡尔曼滤波,筛选出有效雷达目标具体包括以下步骤:
对所述雷达数据中的雷达目标进行信息相关性滤波:
获取当前帧雷达数据,并调取记录的当前帧的上一帧雷达数据;
分别获取上一帧雷达数据与当前帧雷达数据中的雷达目标,并判断所述当前帧中的雷达目标是否在上一帧中出现,若所述雷达目标在所述上一帧中出现,取所述雷达目标在上一帧与中的速度与当前帧中的速度的平均值,将所述平均值作为所述雷达目标在两帧中的平均速度v;
对所述保留的有效雷达目标进行卡尔曼滤波。
进一步地,所述获取相机目标的目标信息包括获取相机目标的速度,具体包括以下步骤:
基于相机目标候选框的左上坐标和右下坐标,计算出相机目标在候选框底边中点的坐标,并将所述底边中点作为质点;
基于公式(1),将所述质点投影到地面坐标系中,获取所述相机目标在地面坐标系中的位置;
基于所述相机目标在地面坐标系中的位置,利用帧与帧之间的差分算法计算相机目标的速度。
进一步地,所述利用交小比方法融合有效雷达目标与相机目标,并筛选、输出融合目标结果具体包括以下步骤:
利用交小比方法获取所述有效雷达目标与相机目标的交小比;
判断所述交小比是否大于第一预设值,其中,
若所述交小比大于第一预设值,则输出融合的目标结果;
若所述交小比小于或等于第一预设值,则暂存所述相机目标与有效雷达目标,并分别记录相机目标与有效雷达目标单独出现的次数,并判断所述相机目标或有效雷达目标单独出现的次数是否大于第二预设值,其中,
若所述相机目标或有效雷达目标单独出现的次数大于第二预设值,则剔除所述相机目标或有效雷达目标;
若所述相机目标或有效雷达目标单独出现的次数小于或等于第二预设值,则保留所述相机目标或有效雷达目标,重新执行上述步骤。
进一步地,所述有效雷达目标与相机目标的交小比为:
有效雷达目标候选区域与相机目标候选框相重叠的面积与有效雷达目标候选框区域面积和相机目标候选框面积中最小面积的比值。
进一步地,所述方法还包括获取雷达目标的候选区域,具体包括:
设定雷达目标与雷达坐标系原点之间的距离为标准距离d0时,所述雷达目标的候选区域大小为标准大小(w0,h0),其中,w0为标准距离d0下候选区域的宽度、h0为标准距离d0下候选区域的高度;
在任意距离d下,雷达目标的候选区域大小为标准大小的λ倍,即为(λw0,λh0),其中,λ满足:
其中,dmin为雷达的最小探测距离,λmin为雷达目标在距离dmin下候选区域大小与标准大小的倍数,dmax为雷达的最大探测距离,λmax为雷达目标在距离dmax下候选区域大小与标准大小的倍数。
本发明的另一目的在于提供一种基于相机和雷达融合的目标检测系统,包括雷达和相机,且还包括:
获取单元,用于获取雷达探测到的雷达数据以及相机同步采集到的图像;
滤波单元,用于对雷达数据中的雷达目标进行信息相关性滤波和卡尔曼滤波,筛选出有效雷达目标;
图像检测单元,用于通过深度学习方法检测图像中的相机目标并获取相机目标的目标信息;
融合单元,用于利用交小比方法融合有效雷达目标与相机目标,并筛选、输出融合目标结果。
进一步地,所述雷达数据包括目标的id、类型、位置、速度、距离、角度;
所述相机目标的目标信息包括目标的id、类型、候选框位置、候选框左上和右下坐标、速度信息;
所述融合目标结果包括相机目标的类型、候选框位置、以及相应有效雷达目标的速度。
进一步地,所述系统还包括设置单元,用于调整雷达与相机的位置,令二者具有共同的视场,并建立雷达坐标系、相机坐标系及地面坐标系,通过雷达和相机之间的平移矢量t及旋转矩阵R对二者之间的外参数进行标定;其中,
在所述视场内布置标定场;
通过相机拍摄标定场提取多个特征点;
计算相机坐标系中图像平面与地面坐标系中地面平面之间的单应矩阵H,其中,所述单应矩阵H满足:
Pg=HPc (1)
其中,Pc是相机坐标系下的特征点坐标,Pg是地面坐标系下的特征点坐标。
进一步地,所述滤波单元还用于执行以下步骤:
对所述雷达数据中的雷达目标进行信息相关性滤波:
获取当前帧雷达数据,并调取记录的当前帧的上一帧雷达数据;
分别获取上一帧雷达数据与当前帧雷达数据中的雷达目标,并判断所述当前帧中的雷达目标是否在上一帧中出现,若所述雷达目标在所述上一帧中出现,取所述雷达目标在上一帧与中的速度与当前帧中的速度的平均值,将所述平均值作为所述雷达目标在两帧中的平均速度v;
对所述保留的有效雷达目标进行卡尔曼滤波。
进一步地,所述图像检测单元还用于获取相机目标的目标信息包括获取相机目标的速度,具体执行以下步骤:
基于相机目标候选框的左上坐标和右下坐标,计算出相机目标在候选框底边中点的坐标,并将所述底边中点作为质点;
基于公式(1),将所述质点投影到地面坐标系中,获取所述相机目标在地面坐标系中的位置;
基于所述相机目标在地面坐标系中的位置,利用帧与帧之间的差分算法计算相机目标的速度。
进一步地,所述融合单元还用于执行以下步骤:
利用交小比方法获取所述有效雷达目标与相机目标的交小比;
判断所述交小比是否大于第一预设值,其中,
若所述交小比大于第一预设值,则输出融合的目标结果;
若所述交小比小于或等于第一预设值,则暂存所述相机目标与有效雷达目标,并分别记录相机目标与有效雷达目标单独出现的次数,并判断所述相机目标或有效雷达目标单独出现的次数是否大于第二预设值,其中,
若所述相机目标或有效雷达目标单独出现的次数大于第二预设值,则剔除所述相机目标或有效雷达目标;
若所述相机目标或有效雷达目标单独出现的次数小于或等于第二预设值,则保留所述相机目标或有效雷达目标,重新执行上述步骤。
进一步地,所述有效雷达目标与相机目标的交小比为:
有效雷达目标候选区域与相机目标候选框相重叠的面积与有效雷达目标候选框区域面积和相机目标候选框面积中最小面积的比值。
进一步地,所述系统还包括处理单元,用于获取雷达目标的候选区域,其中,
设定雷达目标与雷达坐标系原点之间的距离为标准距离d0时,所述雷达目标的候选区域大小为标准大小(w0,h0),其中,w0为标准距离d0下候选区域的宽度、h0为标准距离d0下候选区域的高度;
在任意距离d下,雷达目标的候选区域大小为标准大小的λ倍,即为(λw0,λh0),其中,λ满足:
其中,dmin为雷达的最小探测距离,λmin为雷达目标在距离dmin下候选区域大小与标准大小的倍数,dmax为雷达的最大探测距离,λmax为雷达目标在距离dmax下候选区域大小与标准大小的倍数。
本发明的检测方法及系统摆脱了传统的人工检测方法,解放了人力资源,相比单独的基于相机的检测系统或者基于雷达的检测系统,上述目标检测方法具有更强的鲁棒性,能够做到全天候检测,且具有极低的漏检率和较低的虚警率;融合目标结果采用相机(图像)识别的物体类型、位置与雷达识别的速度,结合了相机和雷达的优点,从而该融合目标结果使得目标检测结果更加精确。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在说明书、权利要求书以及附图中所指出的结构来实现和获得。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明实施例中的一种基于相机和雷达融合的目标检测方法流程示意图;
图2示出了本发明实施例中的一种雷达坐标系、相机坐标系以及地面坐标系的关系示意图;
图3示出了本发明实施例中的一种雷达目标信息相关性滤波和卡尔曼滤波流程示意图;
图4示出了本发明实施例中的一种雷达目标与相机目标融合流程示意图;
图5示出了本发明实施例中的一种基于相机和雷达融合的目标检测系统结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地说明,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例中介绍了一种基于相机和雷达融合的目标检测方法,所述检测方法包括首先获取雷达探测到的雷达数据以及相机同步采集到的图像;其次对雷达数据中的雷达目标进行信息相关性滤波和卡尔曼滤波,筛选出有效雷达目标;然后通过深度学习方法检测图像中的相机目标并获取相机目标的目标信息;最后利用交小比方法融合有效雷达目标与相机目标,并筛选、输出融合目标结果。相比单独的基于相机的检测系统或者基于雷达的检测系统,本方法具有更强的鲁棒性,能够做到全天候检测,且具有极低的漏检率和较低的虚警率;
进一步,所述雷达数据包括目标的id(编号)、类型、位置、速度、距离、角度;所述相机目标的目标信息包括目标的id、类型、候选框位置、候选框左上和右下坐标、速度信息;所述融合目标结果包括相机目标的类型、候选框位置、以及相应有效雷达目标的速度。融合目标结果中的相机目标与相应有效雷达目标均为同一目标,融合目标结果采用相机(图像)识别的物体类型、位置与雷达识别的速度,结合了相机和雷达的优点,从而该融合目标结果使得目标检测结果更加精确。需要说明的是:目标信息中的类型指的是目标的类别,例如:目标的类型可以包括人、动物以及车等。
本实施例中,在所述分别获取雷达探测到的雷达数据以及相机同步采集到的图像之前还包括:
安装并调整雷达与相机的位置,令二者具有共同的视场;如图2所示,雷达与相机通过支架刚性连接。优选地,雷达安装在距离地面1m的位置,需垂直于地面安装,相机安装在距离地面6m左右的位置,调整相机与雷达,使二者具有共同视场。进一步,所述相机可以为安防监控器,所述雷达可以为毫米波雷达。
建立雷达坐标系、相机坐标系以及地面坐标系,通过雷达和相机之间的平移矢量t及旋转矩阵R对二者之间的外参数进行标定;其中,如图2中所示,所述雷达坐标系为Or-xryrzr,,所述相机坐标系为Oc-xcyczc,所述地面坐标系为Og-xgygzg。进一步具体的,所述建立雷达坐标系与相机坐标系还包括在所述视场内布置标定场,具体包括以下步骤:
通过相机拍摄标定场提取多个特征点;图2中,在拍摄标定场之前,在地面上设置9个发光特征点,优选地,本发明实施例中,通过相机拍摄标定场提取至少4个特征点。
基于所述多个特征点,计算相机坐标系中图像平面与地面坐标系中地面平面之间的单应矩阵H,具体的,可以通过米尺测量出标定场相对雷达坐标系的摆放角度、标定场坐标系原点相对雷达坐标系的平移关系,从而得到标定场坐标系到雷达坐标系之间的单应矩阵H,其中,所述单应矩阵H满足:
Pg=HPc (1)
其中,Pc是相机坐标系下的特征点坐标,Pg是地面坐标系下的特征点坐标。计算得到单应矩阵H后,即得到了目标点的相机坐标与地面坐标的一一映射关系,能够快速的将目标从相机坐标下投影到地面上,便于计算目标的速度等。通过建立雷达坐标系、相机坐标系以及地面坐标系,并标定雷达坐标系与相机坐标系、相机坐标系与地面坐标系的关系,提高了目标信息获取的速度,并确保了对目标检测的精度。
本实施例中,由于所述雷达数据返回的是探测区域内的运动目标,从而所述获取雷达探测到的雷达数据还包括对所述雷达数据中的雷达目标进行信息相关性滤波与卡尔曼滤波组合滤波,从而避免了受周围环境的反射以及自然物体(例如风吹动的树叶)的干扰,雷达出现虚警目标的状态;另外减小了雷达数据帧与帧之间的目标波动性;如图3所示,具体包括以下步骤:
S11:获取当前帧的雷达数据,并调取记录的前一帧雷达数据;
S12:取当前帧中探测到的一个雷达目标,并判断所述雷达目标是否在前一帧中出现,若所述雷达目标在所述前一帧中出现,则执行步骤S13,若所述雷达目标在所述前一帧中未出现,则不做滤波处理,即对于真正的信号,肯定是有多次有效数据可以进行匹配,从而将所述雷达目标保持为上一帧数据,用于下一帧雷达数据的循环检测。
S13:对所述雷达目标在前一帧中的速度与当前帧中的速度取平均值,将所述平均值作为所述雷达目标在两帧中的平均速度v;
S16:基于所述预测距离与所述雷达目标在当前帧中距离雷达坐标系原点的距离di,计算得出di与之间的差值的绝对值,并判断di与之间的差值的绝对值是否小于预设阈值,即若所述差值的绝对值小于预设阈值,则保留所述雷达目标,执行步骤S17,若所述差值的绝对值大于或等于预设阈值,则认为所述雷达目标误检目标,剔除该雷达目标(即,所述雷达目标为无效雷达目标);
S17:判断当前帧中是否还有未判定的雷达目标,若当前帧中仍有未判断的雷达目标,则执行步骤S12;若当前帧中没有未判定的雷达目标,则执行步骤S18;
S18:对每个保留的雷达目标进行卡尔曼滤波,得到平滑的输出结果。优选地,对每个经过卡尔曼滤波的雷达目标放置在相应的输出列表中,且每个经过卡尔曼滤波的雷达目标均为有效雷达目标。进一步,最终每一帧雷达数据在经过滤波后,均返回该帧检测到的所有有效雷达目标。
本实施例中,步骤S11-S17为信息相关性滤波,从而利用的雷达采集目标时,受反射影响得到的虚警目标的速度,基于虚警目标的速度与其相邻帧之间的位移不匹配的特性实现去除反射目标,保证了雷达目标的有效性和准确性。进一步,所述预设阈值可以为0.05m(米),i代表当前帧,i为整数,且位置xi-1、距离di均为雷达数据中已知的雷达目标信息。
本实施例中,所述分别获取相机探测到的数据包括:基于相机拍摄的图像,利用深度学习的方法获取图像中每个目标的id、类型、候选框左上坐标信息和右下坐标信息。进一步,所述获取相机目标的目标信息包括获取相机目标的速度,具体包括以下步骤:首先,基于目标候选框的左上坐标信息和右下坐标信息,计算出相机目标在候选框底边中点的坐标信息,并将所述底边中点作为质点;然后,基于公式(1),将所述质点投影到地面坐标系中,获取所述相机目标在地面坐标系中的位置;最后,基于相机目标在地面坐标系中的位置,利用帧与帧之间的差分算法计算目标的速度。进一步具体的,将目标在相机坐标系中的坐标Pc代入公式(1),即可计算出该相机目标在地面坐标系下的实际坐标Pg,得到相机目标的真实位置。对于实时图像中的相邻帧,分别用公式(1)计算同一目标的地面坐标,计算两个坐标的欧氏距离,即得到这两帧内该目标的位移,用位移除以这两帧的时间差,即可计算出速度。通过上述步骤,对每一帧相机图像检测过后均会返回检测到的所有有效相机目标,所述有效相机目标中的每个相机目标的目标信息均包括id、类型、候选框左上坐标和右下坐标、速度信息等。
本实施例中,对每一帧雷达数据中雷达目标与相应的相机目标进行融合,对于每一帧,针对每一个雷达目标遍历每一个相机目标,从而如图4所示,所述利用交小比方法融合有效雷达目标与相机目标,并筛选、输出融合目标结果具体包括以下步骤:
S21、根据有效雷达目标的距离将所述有效雷达目标扩充为候选区域;
S22、取一个有效雷达目标;
S23、利用交小比方法获取所述有效雷达目标与相机目标的交小比IOM;
S24、判断所述交小比IOM是否大于阈值TIOM,其中,若IOM>TIOM,所述有效雷达目标与相机目标为同一目标,则输出融合的目标结果,所述目标结果包括相机的目标类型、候选框位置、以及相应有效雷达目标的速度,并执行步骤S25;若IOM≤TIOM,则暂存所述相机目标与有效雷达目标,并分别记录相机目标与有效雷达目标单独出现的次数,并执行步骤S241;
S241、判断所述相机目标或有效雷达目标单独出现的次数是否大于阈值Tcnt,其中,
若所述相机目标单独出现的次数大于阈值Tcnt,则说明所述相机目标为相机误检,剔除所述相机目标;同理,若所述有效雷达目标单独出现的次数大于阈值Tcnt,则说明所述有效雷达目标为雷达误检,剔除所述有效雷达目标;
若所述相机目标单独出现的次数小于或等于阈值Tcnt,则保留所述相机目标,并执行步骤S25;同理,若所述有效雷达目标单独出现的次数小于或等于阈值Tcnt,则保留所述有效雷达目标,并执行步骤S25;
S25、判断是否还有未判定的雷达目标,即判断所述有效雷达目标所在帧中是否还有未判判定的雷达目标,若还有未判定的雷达目标,则执行步骤S22;若没有未判定的雷达目标,则结束。
本实施例中,TIOM的取值可以为0.5,进一步,所述步骤S241也为交叉验证滤波,即若某一未合并目标连续多帧(阈值Tcnt)出现(说明连续多帧只有一台设备检测到),则认为是单台设备的误检,将其剔除,从而通过交叉验证滤波能够有效降低虚警率。使用“基于交小比”的融合方式并采用“交叉验证”法以及结合相机和雷达之间的交互信息,对融合结果进行滤波,保证了融合结果的精确性。
所述有效雷达目标与相机目标的交小比为:有效雷达目标候选区域与相机目标候选框相重叠的面积与有效雷达目标候选框区域面积和相机目标候选框面积中最小面积的比值。即所述交小比IOM的公式为:
其中,Ar为雷达目标的候选区域面积,Ac为相机目标候选框面积,An为雷达目标的候选区域面积与相机目标候选框面积的重叠区域。
根据有效雷达目标的距离将所述有效雷达目标扩充为候选区域具体为:设定雷达目标与雷达坐标系原点之间的距离为标准距离d0时,所述雷达目标的候选区域大小为标准大小(w0,h0),其中,w0为标准距离d0下候选区域的宽度、h0为标准距离d0下候选区域的高度;
在任意距离d下,雷达目标的候选区域大小为标准大小的λ倍,即为(λw0,λh0),其中,λ满足:
其中,dmin为雷达的最小探测距离,λmin为雷达目标在距离dmin下候选区域大小与标准大小的倍数,dmax为雷达的最大探测距离,λmax为雷达目标在距离dmax下候选区域大小与标准大小的倍数。
进一步地,根据公式(2)能够得到雷达目标候选区域的左上点Cnw和右下点坐标Cse,进而用于计算雷达目标候选区域的面积。
如图5所示,本发明实施例中还介绍了一种基于相机和雷达融合的目标检测系统,包括雷达和相机(图中未示出)以及还包括获取单元、滤波单元、图像检测单元、融合单元、设置单元以及处理单元,其中所述获取单元用于获取雷达探测到的雷达数据以及相机同步采集到的图像;所述滤波单元用于对雷达数据中的雷达目标进行信息相关性滤波和卡尔曼滤波,筛选出有效雷达目标;所述图像检测单元用于通过深度学习方法检测图像中的相机目标并获取相机目标的目标信息;所述融合单元用于利用交小比方法融合有效雷达目标与相机目标,并筛选、输出融合目标结果。
所述设置单元用于调整雷达与相机的位置,令二者具有共同的视场,并建立雷达坐标系、相机坐标系及地面坐标系,通过雷达和相机之间的平移矢量t及旋转矩阵R对二者之间的外参数进行标定;其中,
在所述视场内布置标定场;
通过相机拍摄标定场提取多个特征点;
计算相机坐标系中图像平面与地面坐标系中地面平面之间的单应矩阵H,其中,所述单应矩阵H满足:
Pg=HPc (1)
其中,Pc是相机坐标系下的特征点坐标,Pg是地面坐标系下的特征点坐标。
本实施例中,所述雷达数据包括目标的id、类型、位置、速度、距离、角度;所述相机目标的目标信息包括目标的id、类型、候选框位置、候选框左上和右下坐标、速度信息;所述融合目标结果包括相机目标的类型、候选框位置、以及相应有效雷达目标的速度。
所述滤波单元还用于执行上述步骤S11-S18。
所述图像检测单元还用于获取相机目标的目标信息包括获取相机目标的速度,具体包括以下步骤:基于相机目标候选框的左上坐标信息和右下坐标信息,计算出相机目标在候选框底边中点的坐标信息,并将所述底边中点作为质点;基于公式(1),将所述质点投影到地面坐标系中,获取所述相机目标在地面坐标系中的位置;基于所述相机目标在地面坐标系中的位置,利用帧与帧之间的差分算法计算相机目标的速度。
所述融合单元还用于执行上述步骤S21-S25。
所述有效雷达目标与相机目标的交小比为:有效雷达目标候选区域与相机目标候选框相重叠的面积与有效雷达目标候选框区域面积和相机目标候选框面积中最小面积的比值。即所述交小比IOM的公式为:
其中,Ar为雷达目标的候选区域面积,Ac为相机目标候选框面积,An为雷达目标的候选区域面积与相机目标候选框面积的重叠区域。
所述处理单元用于获取雷达目标的候选区域,其中,设定雷达目标与雷达坐标系原点之间的距离为标准距离d0时,所述雷达目标的候选区域大小为标准大小(w0,h0),其中,w0为标准距离d0下候选区域的宽度、h0为标准距离d0下候选区域的高度;
在任意距离d下,雷达目标的候选区域大小为标准大小的λ倍,即为(λw0,λh0),其中,λ满足:
其中,dmin为雷达的最小探测距离,λmin为雷达目标在距离dmin下候选区域大小与标准大小的倍数,dmax为雷达的最大探测距离,λmax为雷达目标在距离dmax下候选区域大小与标准大小的倍数。
本发明摆脱了传统的人工检测方法,解放了人力资源,相比单独的基于相机的检测系统或者基于雷达的检测系统,上述目标检测方法具有更强的鲁棒性,能够做到全天候检测,且具有极低的漏检率和较低的虚警率;同时结合了相机和雷达的优点,融合目标结果采用相机(图像)识别的物体类别、位置与雷达识别的速度等各个信息都有较高的精度。
尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (22)
1.一种基于相机和雷达融合的目标检测方法,其特征在于,所述检测方法包括:
获取雷达探测到的雷达数据以及相机同步采集到的图像;
对雷达数据中的雷达目标进行信息相关性滤波和卡尔曼滤波,筛选出有效雷达目标;其中,筛选出有效雷达目标具体包括以下步骤:对所述雷达数据中的雷达目标进行信息相关性滤波:获取当前帧雷达数据,并调取记录的当前帧的上一帧雷达数据;分别获取上一帧雷达数据与当前帧雷达数据中的雷达目标,并判断所述当前帧中的雷达目标是否在上一帧中出现,若所述雷达目标在所述上一帧中出现,取所述雷达目标在上一帧与中的速度与当前帧中的速度的平均值,将所述平均值作为所述雷达目标在两帧中的平均速度v;基于所述平均速度v,根据采样时间T与所述雷达目标在上一帧中的位置xi-1计算目标在当前帧中的预测位置计算所述预测位置到雷达坐标系原点的预测距离基于所述预测距离与所述雷达目标在当前帧中距离雷达坐标系原点的距离di,剔除无效雷达目标,保留有效雷达目标;对所述保留的有效雷达目标进行卡尔曼滤波;
通过深度学习方法检测图像中的相机目标并获取相机目标的目标信息;
利用交小比方法融合有效雷达目标与相机目标,并筛选、输出融合目标结果。
2.根据权利要求1所述的一种基于相机和雷达融合的目标检测方法,其特征在于,所述雷达数据包括目标的id、类型、位置、速度、距离、角度;
所述相机目标的目标信息包括目标的id、类型、候选框位置、候选框左上和右下坐标、速度信息;
所述融合目标结果包括相机目标的类型、候选框位置、以及相应有效雷达目标的速度。
3.根据权利要求2所述的目标检测方法,其特征在于,所述获取雷达探测到的雷达数据以及相机同步采集到的图像之前还包括:
安装并调整雷达与相机的位置,令二者具有共同的视场;
建立雷达坐标系、相机坐标系及地面坐标系,通过雷达和相机之间的平移矢量t及旋转矩阵R对二者之间的外参数进行标定。
4.根据权利要求1或3所述的目标检测方法,其特征在于,所述方法还包括:
在视场内布置标定场;
通过相机拍摄标定场提取多个特征点;
计算相机坐标系中图像平面与地面坐标系中地面平面之间的单应矩阵H,其中,所述单应矩阵H满足:
Pg=HPc (1)
其中,Pc是相机坐标系下的特征点坐标,Pg是地面坐标系下的特征点坐标。
5.根据权利要求4所述的目标检测方法,其特征在于,所述获取相机目标的目标信息包括获取相机目标的速度,具体包括以下步骤:
基于相机目标候选框的左上坐标和右下坐标,计算出相机目标在候选框底边中点的坐标,并将所述底边中点作为质点;
基于公式Pg=HPc,将所述质点投影到地面坐标系中,获取所述相机目标在地面坐标系中的位置;
基于所述相机目标在地面坐标系中的位置,利用帧与帧之间的差分算法计算相机目标的速度。
6.一种基于相机和雷达融合的目标检测方法,其特征在于,所述检测方法包括:
获取雷达探测到的雷达数据以及相机同步采集到的图像;
对雷达数据中的雷达目标进行信息相关性滤波和卡尔曼滤波,筛选出有效雷达目标;
通过深度学习方法检测图像中的相机目标并获取相机目标的目标信息;
利用交小比方法融合有效雷达目标与相机目标,并筛选、输出融合目标结果;其中,筛选、输出融合目标结果具体包括:利用交小比方法获取所述有效雷达目标与相机目标的交小比;判断所述交小比是否大于第一预设值,其中,若所述交小比大于第一预设值,则输出融合的目标结果;若所述交小比小于或等于第一预设值,则暂存所述相机目标与有效雷达目标,并分别记录相机目标与有效雷达目标单独出现的次数,并判断所述相机目标或有效雷达目标单独出现的次数是否大于第二预设值,其中,若所述相机目标或有效雷达目标单独出现的次数大于第二预设值,则剔除所述相机目标或有效雷达目标;若所述相机目标或有效雷达目标单独出现的次数小于或等于第二预设值,则保留所述相机目标或有效雷达目标,重新执行上述步骤。
7.根据权利要求6所述的目标检测方法,其特征在于,所述雷达数据包括目标的id、类型、位置、速度、距离、角度;
所述相机目标的目标信息包括目标的id、类型、候选框位置、候选框左上和右下坐标、速度信息;
所述融合目标结果包括相机目标的类型、候选框位置、以及相应有效雷达目标的速度。
8.根据权利要求7所述的目标检测方法,其特征在于,所述获取雷达探测到的雷达数据以及相机同步采集到的图像之前还包括:
安装并调整雷达与相机的位置,令二者具有共同的视场;
建立雷达坐标系、相机坐标系及地面坐标系,通过雷达和相机之间的平移矢量t及旋转矩阵R对二者之间的外参数进行标定。
9.根据权利要求6或8所述的目标检测方法,其特征在于,所述方法还包括:
在视场内布置标定场;
通过相机拍摄标定场提取多个特征点;
计算相机坐标系中图像平面与地面坐标系中地面平面之间的单应矩阵H,其中,所述单应矩阵H满足:
Pg=HPc (1)
其中,Pc是相机坐标系下的特征点坐标,Pg是地面坐标系下的特征点坐标。
10.根据权利要求9所述的目标检测方法,其特征在于,所述获取相机目标的目标信息包括获取相机目标的速度,具体包括以下步骤:
基于相机目标候选框的左上坐标和右下坐标,计算出相机目标在候选框底边中点的坐标,并将所述底边中点作为质点;
基于公式Pg=HPc,将所述质点投影到地面坐标系中,获取所述相机目标在地面坐标系中的位置;
基于所述相机目标在地面坐标系中的位置,利用帧与帧之间的差分算法计算相机目标的速度。
11.根据权利要求6所述的目标检测方法,其特征在于,所述有效雷达目标与相机目标的交小比为:
有效雷达目标候选区域与相机目标候选框相重叠的面积与有效雷达目标候选框区域面积和相机目标候选框面积中最小面积的比值。
13.一种基于相机和雷达融合的目标检测系统,包括雷达和相机,其特征在于,还包括:
获取单元,用于获取雷达探测到的雷达数据以及相机同步采集到的图像;
滤波单元,用于对雷达数据中的雷达目标进行信息相关性滤波和卡尔曼滤波,筛选出有效雷达目标;其中,所述滤波单元还用于执行以下步骤:对所述雷达数据中的雷达目标进行信息相关性滤波:获取当前帧雷达数据,并调取记录的当前帧的上一帧雷达数据;分别获取上一帧雷达数据与当前帧雷达数据中的雷达目标,并判断所述当前帧中的雷达目标是否在上一帧中出现,若所述雷达目标在所述上一帧中出现,取所述雷达目标在上一帧与中的速度与当前帧中的速度的平均值,将所述平均值作为所述雷达目标在两帧中的平均速度v;基于所述平均速度v,根据采样时间T与所述雷达目标在上一帧中的位置xi-1计算目标在当前帧中的预测位置计算所述预测位置到雷达坐标系原点的预测距离基于所述预测距离与所述雷达目标在当前帧中距离雷达坐标系原点的距离di,剔除无效雷达目标,保留有效雷达目标;对所述保留的有效雷达目标进行卡尔曼滤波;
图像检测单元,用于通过深度学习方法检测图像中的相机目标并获取相机目标的目标信息;
融合单元,用于利用交小比方法融合有效雷达目标与相机目标,并筛选、输出融合目标结果。
14.根据权利要求13所述的检测系统,其特征在于,所述雷达数据包括目标的id、类型、位置、速度、距离、角度;
所述相机目标的目标信息包括目标的id、类型、候选框位置、候选框左上和右下坐标、速度信息;
所述融合目标结果包括相机目标的类型、候选框位置、以及相应有效雷达目标的速度。
15.根据权利要求14所述的检测系统,其特征在于,所述系统还包括设置单元,用于调整雷达与相机的位置,令二者具有共同的视场,并建立雷达坐标系、相机坐标系及地面坐标系,通过雷达和相机之间的平移矢量t及旋转矩阵R对二者之间的外参数进行标定;其中,
在所述视场内布置标定场;
通过相机拍摄标定场提取多个特征点;
计算相机坐标系中图像平面与地面坐标系中地面平面之间的单应矩阵H,其中,所述单应矩阵H满足:
Pg=HPc (1)
其中,Pc是相机坐标系下的特征点坐标,Pg是地面坐标系下的特征点坐标。
16.根据权利要求15所述的检测系统,其特征在于,所述图像检测单元还用于获取相机目标的目标信息包括获取相机目标的速度,具体执行以下步骤:
基于相机目标候选框的左上坐标和右下坐标,计算出相机目标在候选框底边中点的坐标,并将所述底边中点作为质点;
基于公式Pg=HPc,将所述质点投影到地面坐标系中,获取所述相机目标在地面坐标系中的位置;
基于所述相机目标在地面坐标系中的位置,利用帧与帧之间的差分算法计算相机目标的速度。
17.一种基于相机和雷达融合的目标检测系统,包括雷达和相机,其特征在于,还包括:
获取单元,用于获取雷达探测到的雷达数据以及相机同步采集到的图像;
滤波单元,用于对雷达数据中的雷达目标进行信息相关性滤波和卡尔曼滤波,筛选出有效雷达目标;
图像检测单元,用于通过深度学习方法检测图像中的相机目标并获取相机目标的目标信息;
融合单元,用于利用交小比方法融合有效雷达目标与相机目标,并筛选、输出融合目标结果;其中,所述融合单元还用于执行以下步骤:利用交小比方法获取所述有效雷达目标与相机目标的交小比;判断所述交小比是否大于第一预设值,其中,若所述交小比大于第一预设值,则输出融合的目标结果;若所述交小比小于或等于第一预设值,则暂存所述相机目标与有效雷达目标,并分别记录相机目标与有效雷达目标单独出现的次数,并判断所述相机目标或有效雷达目标单独出现的次数是否大于第二预设值,其中,若所述相机目标或有效雷达目标单独出现的次数大于第二预设值,则剔除所述相机目标或有效雷达目标;若所述相机目标或有效雷达目标单独出现的次数小于或等于第二预设值,则保留所述相机目标或有效雷达目标,重新执行上述步骤。
18.根据权利要求17所述的检测系统,其特征在于,所述雷达数据包括目标的id、类型、位置、速度、距离、角度;
所述相机目标的目标信息包括目标的id、类型、候选框位置、候选框左上和右下坐标、速度信息;
所述融合目标结果包括相机目标的类型、候选框位置、以及相应有效雷达目标的速度。
19.根据权利要求18所述的检测系统,其特征在于,所述系统还包括设置单元,用于调整雷达与相机的位置,令二者具有共同的视场,并建立雷达坐标系、相机坐标系及地面坐标系,通过雷达和相机之间的平移矢量t及旋转矩阵R对二者之间的外参数进行标定;其中,
在所述视场内布置标定场;
通过相机拍摄标定场提取多个特征点;
计算相机坐标系中图像平面与地面坐标系中地面平面之间的单应矩阵H,其中,所述单应矩阵H满足:
Pg=HPc (1)
其中,Pc是相机坐标系下的特征点坐标,Pg是地面坐标系下的特征点坐标。
20.根据权利要求19所述的检测系统,其特征在于,所述图像检测单元还用于获取相机目标的目标信息包括获取相机目标的速度,具体执行以下步骤:
基于相机目标候选框的左上坐标和右下坐标,计算出相机目标在候选框底边中点的坐标,并将所述底边中点作为质点;
基于公式Pg=HPc,将所述质点投影到地面坐标系中,获取所述相机目标在地面坐标系中的位置;
基于所述相机目标在地面坐标系中的位置,利用帧与帧之间的差分算法计算相机目标的速度。
21.根据权利要求17所述的目标检测系统,其特征在于,所述有效雷达目标与相机目标的交小比为:
有效雷达目标候选区域与相机目标候选框相重叠的面积与有效雷达目标候选框区域面积和相机目标候选框面积中最小面积的比值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910991170.3A CN110794405B (zh) | 2019-10-18 | 2019-10-18 | 一种基于相机和雷达融合的目标检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910991170.3A CN110794405B (zh) | 2019-10-18 | 2019-10-18 | 一种基于相机和雷达融合的目标检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110794405A CN110794405A (zh) | 2020-02-14 |
CN110794405B true CN110794405B (zh) | 2022-06-10 |
Family
ID=69439510
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910991170.3A Active CN110794405B (zh) | 2019-10-18 | 2019-10-18 | 一种基于相机和雷达融合的目标检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110794405B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113359125A (zh) * | 2020-03-05 | 2021-09-07 | 富士通株式会社 | 数据融合方法、装置和数据处理设备 |
CN111398961B (zh) * | 2020-03-17 | 2022-07-15 | 北京百度网讯科技有限公司 | 用于检测障碍物的方法和装置 |
CN111409070B (zh) * | 2020-03-25 | 2021-07-30 | 上海高仙自动化科技发展有限公司 | 检测方法及装置、智能机器人及存储介质 |
CN111429530B (zh) * | 2020-04-10 | 2023-06-02 | 浙江大华技术股份有限公司 | 一种坐标标定方法及相关装置 |
CN111539291B (zh) * | 2020-04-16 | 2022-08-26 | 创新奇智(合肥)科技有限公司 | 基于雷达波的目标检测方法及装置、电子设备、存储介质 |
CN111583663B (zh) * | 2020-04-26 | 2022-07-12 | 宁波吉利汽车研究开发有限公司 | 基于稀疏点云的单目感知修正方法、装置及存储介质 |
CN111815717B (zh) * | 2020-07-15 | 2022-05-17 | 西北工业大学 | 一种多传感器融合外参联合半自主标定方法 |
CN112017240B (zh) * | 2020-08-18 | 2022-08-26 | 浙江大学 | 一种面向无人叉车的托盘识别定位方法 |
CN112017241A (zh) * | 2020-08-20 | 2020-12-01 | 广州小鹏汽车科技有限公司 | 一种数据处理的方法和装置 |
CN112116031B (zh) * | 2020-10-29 | 2024-02-09 | 重庆长安汽车股份有限公司 | 基于路侧设备的目标融合方法、系统、车辆及存储介质 |
CN112906777A (zh) * | 2021-02-05 | 2021-06-04 | 北京邮电大学 | 目标检测方法、装置、电子设备及存储介质 |
CN117237777B (zh) * | 2023-11-13 | 2024-02-27 | 四川观想科技股份有限公司 | 一种基于多模态融合的船舶目标识别方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101094486A (zh) * | 2007-06-19 | 2007-12-26 | 武汉虹信通信技术有限责任公司 | 移动通信网络优化中的海量数据实时可视化实现方法 |
CN104268900A (zh) * | 2014-09-26 | 2015-01-07 | 中安消技术有限公司 | 一种运动目标检测方法及装置 |
CN105225482A (zh) * | 2015-09-02 | 2016-01-06 | 上海大学 | 基于双目立体视觉的车辆检测系统和方法 |
CN106908783A (zh) * | 2017-02-23 | 2017-06-30 | 苏州大学 | 基于多传感器信息融合的障碍物检测方法 |
CN109359577A (zh) * | 2018-10-08 | 2019-02-19 | 福州大学 | 一种基于机器学习的复杂背景下人数检测系统 |
CN109508664A (zh) * | 2018-10-26 | 2019-03-22 | 浙江师范大学 | 一种基于深度学习的菜品识别计价方法 |
CN109615870A (zh) * | 2018-12-29 | 2019-04-12 | 南京慧尔视智能科技有限公司 | 一种基于毫米波雷达和视频的交通检测系统 |
KR20190060341A (ko) * | 2017-11-24 | 2019-06-03 | 재단법인대구경북과학기술원 | 레이더 및 카메라 융합 시스템 및 그것을 이용한 타겟 탐지 방법 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103903246A (zh) * | 2012-12-26 | 2014-07-02 | 株式会社理光 | 物体检测方法和装置 |
CN103324936B (zh) * | 2013-05-24 | 2016-05-25 | 北京理工大学 | 一种基于多传感器融合的车辆下边界检测方法 |
US10565468B2 (en) * | 2016-01-19 | 2020-02-18 | Aptiv Technologies Limited | Object tracking system with radar/vision fusion for automated vehicles |
JP6885721B2 (ja) * | 2016-12-27 | 2021-06-16 | 株式会社デンソー | 物体検出装置、物体検出方法 |
US10852419B2 (en) * | 2017-10-20 | 2020-12-01 | Texas Instruments Incorporated | System and method for camera radar fusion |
CN108438254B (zh) * | 2018-04-18 | 2020-08-07 | 北京空间技术研制试验中心 | 空间飞行器系统及部署方法 |
CN108596081B (zh) * | 2018-04-23 | 2021-04-20 | 吉林大学 | 一种基于雷达和摄像机融合的车辆行人探测方法 |
CN108960183B (zh) * | 2018-07-19 | 2020-06-02 | 北京航空航天大学 | 一种基于多传感器融合的弯道目标识别系统及方法 |
CN109736783A (zh) * | 2018-12-11 | 2019-05-10 | 斯伦贝谢油田技术(山东)有限公司 | 一种连续波测量信号的处理方法 |
KR102029850B1 (ko) * | 2019-03-28 | 2019-10-08 | 세종대학교 산학협력단 | 카메라와 라이다 센서를 이용한 객체 검출 장치 및 그 방법 |
-
2019
- 2019-10-18 CN CN201910991170.3A patent/CN110794405B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101094486A (zh) * | 2007-06-19 | 2007-12-26 | 武汉虹信通信技术有限责任公司 | 移动通信网络优化中的海量数据实时可视化实现方法 |
CN104268900A (zh) * | 2014-09-26 | 2015-01-07 | 中安消技术有限公司 | 一种运动目标检测方法及装置 |
CN105225482A (zh) * | 2015-09-02 | 2016-01-06 | 上海大学 | 基于双目立体视觉的车辆检测系统和方法 |
CN106908783A (zh) * | 2017-02-23 | 2017-06-30 | 苏州大学 | 基于多传感器信息融合的障碍物检测方法 |
KR20190060341A (ko) * | 2017-11-24 | 2019-06-03 | 재단법인대구경북과학기술원 | 레이더 및 카메라 융합 시스템 및 그것을 이용한 타겟 탐지 방법 |
CN109359577A (zh) * | 2018-10-08 | 2019-02-19 | 福州大学 | 一种基于机器学习的复杂背景下人数检测系统 |
CN109508664A (zh) * | 2018-10-26 | 2019-03-22 | 浙江师范大学 | 一种基于深度学习的菜品识别计价方法 |
CN109615870A (zh) * | 2018-12-29 | 2019-04-12 | 南京慧尔视智能科技有限公司 | 一种基于毫米波雷达和视频的交通检测系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110794405A (zh) | 2020-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110794405B (zh) | 一种基于相机和雷达融合的目标检测方法及系统 | |
CN113671480A (zh) | 雷达与视频融合交通目标跟踪方法、系统、设备、终端 | |
CN110658518B (zh) | 一种目标入侵检测方法及装置 | |
KR20230004425A (ko) | 자율 주행 차량 환경 인지 소프트웨어 구조 | |
WO2016199244A1 (ja) | 物体認識装置及び物体認識システム | |
CN113989756A (zh) | 使用稳定的坐标系的道路垂直轮廓检测 | |
KR19980701568A (ko) | 이미지 시퀀스내의 객체의 움직임을 검출하기 위한 방법 및 장치(method and apparatus for detecting object movement within an image sequence) | |
JP3596339B2 (ja) | 車間距離計測装置 | |
CN113240756B (zh) | 车载bsd摄像头的位姿变动检测方法、设备和存储介质 | |
CN104954747B (zh) | 视频监视方法和装置 | |
KR20170080480A (ko) | 레이더 및 영상 융합 차량 단속시스템 | |
JP2002197469A (ja) | 車線検出装置 | |
JP4102885B2 (ja) | 駐車車両検知方法及び駐車車両検知システム | |
CN115184917B (zh) | 一种融合毫米波雷达与相机的区域目标跟踪方法 | |
CN108263389A (zh) | 一种车辆前方虚假目标剔除装置及方法 | |
JP2002074370A (ja) | 動画像による監視システム、方法及びコンピュータ読み取り可能な記録媒体 | |
JP3953710B2 (ja) | 動画像による監視システム | |
JP2002074369A (ja) | 動画像による監視システム、方法及びコンピュータ読み取り可能な記録媒体 | |
CN114783181B (zh) | 一种基于路侧感知的交通流量统计方法和装置 | |
JP3605955B2 (ja) | 車輌判別装置 | |
JPH11272989A (ja) | 交通流監視装置 | |
CN114662600B (zh) | 一种车道线的检测方法、装置和存储介质 | |
CN110794397B (zh) | 一种基于相机和雷达的目标检测方法及系统 | |
CN109591850A (zh) | 一种轨道异物检测方法及装置 | |
JP3771729B2 (ja) | 交通流計測システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |