CN118097933A - 双光谱雷视一体机交通事件监测方法、系统、设备及介质 - Google Patents
双光谱雷视一体机交通事件监测方法、系统、设备及介质 Download PDFInfo
- Publication number
- CN118097933A CN118097933A CN202311804542.XA CN202311804542A CN118097933A CN 118097933 A CN118097933 A CN 118097933A CN 202311804542 A CN202311804542 A CN 202311804542A CN 118097933 A CN118097933 A CN 118097933A
- Authority
- CN
- China
- Prior art keywords
- traffic event
- integrated machine
- detection result
- dual
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001228 spectrum Methods 0.000 title claims abstract description 76
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000012544 monitoring process Methods 0.000 title claims abstract description 53
- 238000001514 detection method Methods 0.000 claims abstract description 192
- 230000000875 corresponding effect Effects 0.000 claims abstract description 52
- 230000002596 correlated effect Effects 0.000 claims abstract description 7
- 238000006243 chemical reaction Methods 0.000 claims description 33
- 239000011159 matrix material Substances 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 17
- 230000015654 memory Effects 0.000 claims description 14
- 239000002131 composite material Substances 0.000 claims description 3
- 230000004927 fusion Effects 0.000 description 23
- 238000004422 calculation algorithm Methods 0.000 description 9
- 230000002159 abnormal effect Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了双光谱雷视一体机交通事件监测方法、系统、设备及介质,涉及交通事件监测技术领域,方法包括:将基于统一坐标系处理后的双光谱雷视一体机采集的可见光视频,按照固定间隔提取图像,并将提取到的图像输入至图像明亮度分类器中,得出该图像对应的明亮度得分;通过预测交通事件检测应用逻辑方法对所述双光谱雷视一体机中所有传感器在所述固定间隔内采集到视频数据进行交通事件检测,生成检测结果;根据所述明亮度得分以及所述检测结果,生成该图像对应的综合得分,将所述综合得分与该图像关联存储,完成监测。本发明通过双光谱雷视一体机中的三种传感器实现对交通事件的综合监测,相较于现有技术中两种传感器搭配监测的方案更具准确性。
Description
技术领域
本发明涉及交通事件监测技术领域,尤其涉及双光谱雷视一体机交通事件监测方法、系统、设备及介质。
背景技术
雷视融合感知在融合策略和实现步骤方面可以分为数据层融合、特征层融合、决策层融合三个层级。如图1以及图2所示,数据层融合一种初级融合模型,是指视频分析与毫米波雷达各自产生的基础数据,按照时间轴、检测区域等实现同步,然后将采集的目标数据统一进行特征提取分析,实现对有效目标的检测提取,然后将提取到的目标信息进行融合,并基于深度学习识别技术对目标的特征、属性等结果输出。
特征层融合是一种算法级过程融合,通过将多传感器数据源各自采用特征检测技术先对目标的特征进行提取,并基于算法层将多传感器提取到的特征信息如边缘特征、角点特征、色彩特征等信息进行融合,然后对融合输出的目标信息采用深度识别模型进行识别,并将识别结果输出。
决策层融合是一种分析结果的融合,各数据源分别基于算法层进行处理,包括:特征提取与检测,目标特征的识别等,然后基于时空、速度、视角等信息将识别结果融合输出,这一方案算法处理量较小融合难度不大。但往往受限有各数据源或传感器本身的局限性。因此,本方案中我们采用特征层融合为主,对特殊场景中则考虑添加数据层融合和决策层融合算法,以确保系统整体的可靠性。
由于视频可见光检测范围与毫米波雷达探测范围不能完全一致(可见光约250米、毫米波约425米),因此,要将两者目标融合必须对毫米波检测目标进行选取,选取原则是将毫米波与可见光都能够覆盖的目标数据融合,将可见光检测范围以外的目标只做毫米波检测和跟踪效果的展示。
总的融合架构由:雷达数据处理、相机数据处理和融合数据处理三部分构成。雷达数据处理包括:雷达数据初选、滤波参数选择、雷达目标识别结果输出等几部分;相机数据处理由:视频目标识别、车道线识别两个重要模块,视频目标识别采用YOLO等目标检测模型,车道线识别采用哈夫算法、边缘识别等模型;分别将车辆和车道线识别结果,连同雷达目标识别结果输出到数据总线,经过数据预处理、融合目标识别与轨迹跟踪等算法,输出目标的位置、速度、航向角等信息,以及事件报警信息、特征属性信息等。车路协同系统接收到目标信息后,可通过路侧端RSU天线对信号覆盖范围内的车辆发布车辆或事件预警信息;数字孪生平台则可以根据目标的位置、速度、大小、属性、事件等信息,对现实交通流在数字世界实时孪生再现。目前市面上基本都是只基于毫米波雷达和可见光或者可见光和红外热成像进行融合的技术,三种传感器同时融合的技术方案很少。
发明内容
本发明所要解决的技术问题是针对现有技术的不足,具体提供了双光谱雷视一体机交通事件监测方法、系统、设备及介质,具体如下:
1)第一方面,本发明提供一种双光谱雷视一体机的交通事件监测方法,具体技术方案如下:
如图3所示,S1,将双光谱雷视一体机中的可见光传感器、红外光传感器以及毫米波雷达传感器进行图像统一坐标系处理,将所述可见光红外传感器以及所述红外光传感器的采集到的图像的像素坐标转换为所述毫米波雷达传感器的采集到的图像的笛卡尔坐标;
S2,将基于统一坐标系处理后的双光谱雷视一体机采集的可见光视频,按照固定间隔提取图像,并将提取到的图像输入至图像明亮度分类器中,得出该图像对应的明亮度得分;
S3,通过预测交通事件检测应用逻辑方法对所述双光谱雷视一体机中所有传感器在所述固定间隔内采集到视频数据进行交通事件检测,生成检测结果;
S4,根据所述明亮度得分以及所述检测结果,生成该图像对应的综合得分,将所述综合得分与该图像关联存储,完成监测。
本发明提供的一种双光谱雷视一体机的交通事件监测方法的有益效果如下:
通过双光谱雷视一体机中的三种传感器实现对交通事件的综合监测,相较于现有技术中两种传感器搭配监测的方案更具准确性。
在上述方案的基础上,本发明还可以做如下改进。
进一步,将所述可见光红外传感器以及所述红外光传感器的采集到的图像的像素坐标转换为所述毫米波雷达传感器的采集到的图像的笛卡尔坐标的过程为:
在所述毫米波雷达传感器对应的视频图像的检测范围内任选四个笛卡尔坐标点,并根据该四个笛卡尔坐标点对应的像素坐标以及PnP转换公式确定转换矩阵参数,根据所述转换矩阵参数将所述可见光红外传感器以及所述红外光传感器的采集到的图像的像素坐标转换为所述毫米波雷达传感器的采集到的图像的笛卡尔坐标。
进一步,通过预测交通事件检测应用逻辑方法对所述双光谱雷视一体机中所有传感器在所述固定间隔内采集到视频数据进行交通事件检测,生成检测结果的过程为:
所述预测交通事件检测应用逻辑方法包括可见光交通事件检测应用逻辑、红外光交通事件检测应用逻辑以及雷达交通事件检测应用逻辑;
通过所述可见光交通事件检测应用逻辑对可见光传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第一检测结果,确定所述第一检测结果中的交通事件发生位置与所述双光谱雷视一体机之间的第一距离;
通过所述红外光交通事件检测应用逻辑对红外光传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第二检测结果,确定所述第二检测结果中的交通事件发生位置与所述双光谱雷视一体机之间的第二距离;
通过所述雷达交通事件检测应用逻辑对毫米波雷达传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第三检测结果,确定所述第三检测结果中的交通事件发生位置于所述双光谱雷视一体机之间的第三距离;
将所述第一距离、所述第二距离以及所述第三距离汇总得到所述检测结果。
进一步,根据所述明亮度得分以及所述检测结果,生成该图像对应的综合得分的过程为:
根据所述明亮度得分、所述检测结果对应的预设交通事件权重以及预设距离权重,生成该图像对应的综合得分。
2)第二方面,本发明还提供一种双光谱雷视一体机的交通事件监测系统,具体技术方案如下:
转换模块用于:将双光谱雷视一体机中的可见光传感器、红外光传感器以及毫米波雷达传感器进行图像统一坐标系处理,将所述可见光红外传感器以及所述红外光传感器的采集到的图像的像素坐标转换为所述毫米波雷达传感器的采集到的图像的笛卡尔坐标;
处理模块用于:将基于统一坐标系处理后的双光谱雷视一体机采集的可见光视频,按照固定间隔提取图像,并将提取到的图像输入至图像明亮度分类器中,得出该图像对应的明亮度得分;
检测模块用于:通过预测交通事件检测应用逻辑方法对所述双光谱雷视一体机中所有传感器在所述固定间隔内采集到视频数据进行交通事件检测,生成检测结果;
监测模块用于:根据所述明亮度得分以及所述检测结果,生成该图像对应的综合得分,将所述综合得分与该图像关联存储,完成监测。
在上述方案的基础上,本发明还可以做如下改进。
进一步,所述转换模块具体用于:
在所述毫米波雷达传感器对应的视频图像的检测范围内任选四个笛卡尔坐标点,并根据该四个笛卡尔坐标点对应的像素坐标以及PnP转换公式确定转换矩阵参数,根据所述转换矩阵参数将所述可见光红外传感器以及所述红外光传感器的采集到的图像的像素坐标转换为所述毫米波雷达传感器的采集到的图像的笛卡尔坐标。
进一步,所述检测模块具体用于:
所述预测交通事件检测应用逻辑方法包括可见光交通事件检测应用逻辑、红外光交通事件检测应用逻辑以及雷达交通事件检测应用逻辑;
通过所述可见光交通事件检测应用逻辑对可见光传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第一检测结果,确定所述第一检测结果中的交通事件发生位置与所述双光谱雷视一体机之间的第一距离;
通过所述红外光交通事件检测应用逻辑对红外光传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第二检测结果,确定所述第二检测结果中的交通事件发生位置与所述双光谱雷视一体机之间的第二距离;
通过所述雷达交通事件检测应用逻辑对毫米波雷达传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第三检测结果,确定所述第三检测结果中的交通事件发生位置于所述双光谱雷视一体机之间的第三距离;
将所述第一距离、所述第二距离以及所述第三距离汇总得到所述检测结果。
进一步,所述监测模块具体用于:
根据所述明亮度得分、所述检测结果对应的预设交通事件权重以及预设距离权重,生成该图像对应的综合得分。
3)第三方面,本发明还提供一种计算机设备,所述计算机设备包括处理器,所述处理器与存储器耦合,所述存储器中存储有至少一条计算机程序,所述至少一条计算机程序由所述处理器加载并执行,以使所述计算机设备实现如上任一项方法。
4)第四方面,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条计算机程序,所述至少一条计算机程序由处理器加载并执行,以使计算机实现如上任一项方法。
需要说明的是,本发明的第二方面至第四方面的技术方案及对应的可能的实现方式所取得的有益效果,可以参见上述对第一方面及其对应的可能的实现方式的技术效果,此处不再赘述。
附图说明
通过阅读参照以下附图所作的对非限制性实施例的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为雷视融合感知在融合策略和实现步骤流程示意图;
图2为现有专利融合示意图;
图3为本发明实施例的一种双光谱雷视一体机的交通事件监测方法的流程示意图;
图4为计算机设备结构框架图;
图5为选取雷达在视频检测范围内6个点坐标对应的像素坐标的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
如图1所示,本发明实施例的一种双光谱雷视一体机的交通事件监测方法,包括如下步骤:
将双光谱雷视一体机中的可见光传感器、红外光传感器以及毫米波雷达传感器进行图像统一坐标系处理,将所述可见光红外传感器以及所述红外光传感器的采集到的图像的像素坐标转换为所述毫米波雷达传感器的采集到的图像的笛卡尔坐标;
将基于统一坐标系处理后的双光谱雷视一体机采集的可见光视频,按照固定间隔提取图像,并将提取到的图像输入至图像明亮度分类器中,得出该图像对应的明亮度得分;
通过预测交通事件检测应用逻辑方法对所述双光谱雷视一体机中所有传感器在所述固定间隔内采集到视频数据进行交通事件检测,生成检测结果;
根据所述明亮度得分以及所述检测结果,生成该图像对应的综合得分,将所述综合得分与该图像关联存储,完成监测。
本发明提供的一种双光谱雷视一体机的交通事件监测方法的有益效果如下:
通过双光谱雷视一体机中的三种传感器实现对交通事件的综合监测,相较于现有技术中两种传感器搭配监测的方案更具准确性。
将双光谱雷视一体机中的可见光传感器、红外光传感器以及毫米波雷达传感器进行图像统一坐标系处理,将所述可见光红外传感器以及所述红外光传感器的采集到的图像的像素坐标转换为所述毫米波雷达传感器的采集到的图像的笛卡尔坐标。其中:
在毫米波雷达传感器对应的视频图像的检测范围内任选四个笛卡尔坐标点,并根据该四个笛卡尔坐标点对应的像素坐标以及PnP转换公式确定转换矩阵参数,根据所述转换矩阵参数将所述可见光红外传感器以及所述红外光传感器的采集到的图像的像素坐标转换为所述毫米波雷达传感器的采集到的图像的笛卡尔坐标。
即,使用PnP(Perspective-n-Point)方式进行标定,选取雷达在视频检测范围内6个点坐标对应的像素坐标,根据PnP转换公式,得到雷达与可见光视频和红外视频的转换矩阵参数,可以将可见光和红外的像素坐标转换成雷达的笛卡尔坐标。
使用PnP(Perspective-n-Point)方式进行标定指的是:通过PnP方式对目标在雷达笛卡尔坐标系和视频像素坐标系中的位置进行标定。
选取雷达在视频检测范围内6个点坐标对应的像素坐标的过程为:
如图5所示,人拿着角反射器,站在雷达和视频都可检测到的范围内,选取在画面宽度和高度各在1/3、2/3处的6个点,即图中灰色圆圈,进行雷达和像素坐标的采集。
视频检测范围指的是:视频画面所能看到的范围
雷达在视频检测范围内的6个点坐标对应的像素坐标指的是:
人拿角反射器站在上述四个点上,可以通过视频画面看到人所站位置的像素坐标P(x,y),并且可以通过雷达采集到角反射器所在的雷达坐标R(x,y)。
PnP转换公式具体为:
设一个空间特征点的世界坐标为Pw(X,Y,Z),其对应的像素坐标为p(u,v),列一下当前的条件,已知相机内参K(通过相机标定求得,而且内参不会随着物体运动而变),要求的是旋转矩阵R和平移矩阵t,有世界坐标->像素坐标转化可列如下方程(为了能表示为矩阵相乘的形式,简化运算,都转化为齐次坐标)。
等号两边左乘K逆,同时定义变换矩阵T=[R|t],展开如下:
把K逆用第三行表示,代入前两行化简得到两个约束:
这里,定义变换矩阵T的行向量:
则上述两个约束方程可化为:
Tt1Pw-Tt3Pwu=0;
Tt2Pw-Tt3Pwv=0。
未知量是Tt,其它已知,一个特征点提供两个方程,若有n个特征点,则方程如下:
变换矩阵有12个参数,因此需要至少6对特征匹配点才能求出线性解。
将基于统一坐标系处理后的双光谱雷视一体机采集的可见光视频,按照固定间隔提取图像,并将提取到的图像输入至图像明亮度分类器中,得出该图像对应的明亮度得分。其中:
固定间隔根据需求进行定义,在此不做具体限定。
图像明亮度分类器指的是:使用卷积神经网络(CNN)来训练一个图像明亮度分类器,3层网络结构,第一层使用32个3*3卷积核,Relu激活,加一个2*2的池化层;第二层使用64个3*3卷积核,Relu激活,加一个2*2的池化层;第三层实用128个3*3卷积核,Relu激活,加一个2*2的池化层;再接128个神经元的全连接层,Relu激活;最后接输出层,使用Sigmoid激活。将输出值映射到0-1之间。0代表明亮度低,1代表明亮度高,分数越高表示图像越明亮。
将可见光视频在第T时刻截取一帧图片,送入图像明亮度分类器,得到分值,记为SL,每间隔固定时间(T1、T2、T3……)截取一帧图片,得到当前时刻图像明亮度得分值SL1、SL2、SL3……。即,时间T1检测一帧图片的亮度得分,间隔一定时间T2检测一帧图片的亮度得分,在T1和T2之间的所有视频帧的亮度都沿用T1时刻的得分。
通过预测交通事件检测应用逻辑方法对所述双光谱雷视一体机中所有传感器在所述固定间隔内采集到视频数据进行交通事件检测,生成检测结果。
其中:
预测交通事件检测应用逻辑方法包括可见光交通事件检测应用逻辑、红外光交通事件检测应用逻辑以及雷达交通事件检测应用逻辑。其中:
可见光交通事件检测应用逻辑指的是:通过目标的运动轨迹来判定目标是否有异常情况发生,如停车、逆行、变道等。
红外光交通事件检测应用逻辑指的是:通过目标的运动轨迹来判定目标是否有异常情况发生,如停车、逆行、变道等,特殊的红外可以检测出异常高温的情况。
雷达交通事件检测应用逻辑指的是:通过目标的运动轨迹来判定目标是否有异常情况发生,如停车、逆行、变道、超速、慢速等。
通过可见光交通事件检测应用逻辑对可见光传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第一检测结果,确定所述第一检测结果中的交通事件发生位置与所述双光谱雷视一体机之间的第一距离。其中:
通过可见光交通事件检测应用逻辑对可见光传感器在所述固定间隔内采集到的视频进行交通事件检测的过程具体为:比如停车事件,通过yolo算法,检测到车辆目标框,在通过连续帧的目标框检测及deepsort目标跟踪逻辑,判断车辆是否在固定时间内静止不动并超过停车的时长阈值,即判定为停车事件。
确定所述第一检测结果中的交通事件发生位置与所述双光谱雷视一体机之间的第一距离的过程具体为:
通过上述PnP的转换矩阵,可以将上述在视频检测到的事件像素坐标P(x,y)转换为雷达的笛卡尔坐标R(x,y)。
通过所述红外光交通事件检测应用逻辑对红外光传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第二检测结果,确定所述第二检测结果中的交通事件发生位置与所述双光谱雷视一体机之间的第二距离。其中:
通过所述红外光交通事件检测应用逻辑对红外光传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第二检测结果的过程具体为:比如停车事件,通过yolo算法,检测到车辆目标框,在通过连续帧的目标框检测及deepsort目标跟踪逻辑,判断车辆是否在固定时间内静止不动并超过停车的时长阈值,即判定为停车事件。
确定所述第二检测结果中的交通事件发生位置与所述双光谱雷视一体机之间的第二距离的过程具体为:
通过上述PnP的转换矩阵,可以将上述在红外视频检测到的事件像素坐标P(x,y)转换为雷达的笛卡尔坐标R(x,y)。
通过所述雷达交通事件检测应用逻辑对毫米波雷达传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第三检测结果,确定所述第三检测结果中的交通事件发生位置于所述双光谱雷视一体机之间的第三距离。
其中:
通过所述雷达交通事件检测应用逻辑对毫米波雷达传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第三检测结果的过程具体为:
比如停车事件,通过雷达检测到车辆位置,在通过连续帧的跟踪逻辑,判断车辆是否在固定时间内静止不动并超过停车的时长阈值,即判定为停车事件。
确定所述第三检测结果中的交通事件发生位置于所述双光谱雷视一体机之间的第三距离的过程具体为:
雷达自身的事件发生的笛卡尔位置。
将所述第一距离、所述第二距离以及所述第三距离汇总得到所述检测结果。
对于同一事件多个传感器同时报出时,通过设置一个时间窗口WT和距离窗口WP,满足在窗口期内的事件,即合并为一个事件。
同一交通事件指的是:停车、逆行、变道等行为一样的事件。
通过设置一个时间窗口WT和距离窗口WP,满足在窗口期内的事件指的是:比如视频在17:55:00检测到一个停车事件,雷达在17:54:50检测到一个停车事件,由于两个相同事件两个传感器仅相差了10秒,故认为这是同一起事件。
根据所述明亮度得分以及所述检测结果,生成该图像对应的综合得分,将所述综合得分与该图像关联存储,完成监测。其中:
设置可见光、红外光、毫米波雷达三种传感器的事件权重分别为WVI,WIR,WRD,并且针对每一个事件WVI,WIR,WRD是不一样的,可以通过默认经验值进行配置,也可以人工调整。
即根据已进行合并处理后的交通事件进行权重确定。
设置视频(包括可见光、红外)、雷达的位置权重分别设置为PVI,PRD,200米内位置各为0.5,200米外,每增加30米,PVI减少0.1,PRD增加0.1;350米及以上时,PVI为0,PRD为1,(此考虑的是雷达检测效果不随距离远近而衰减,视频受影响较大,越远的目标检测效果越差)。
再通过上述事件权重、位置权重、当前时刻的亮度分值,得到最终的得分S,S计算公式如下:
S=WVI*PVI*SL+WIR*PVI*(1-SL)+WRD*PRD
系统可对S的上报阈值进行设置,当系统要求对事件的查全率高时,S的上报阈值可设置低值,当系统要求对事件的查准率高时,S的上报阈值可设置高值。
通过坐标标定以及时间窗口对三种传感器检测出的事件进行合并的思想。
对合并后的事件再通过权重得分进行事件是否上报的思想。
对三种传感器的置信度分值权重进行提取优化的思想:视频和可见光通过图像亮度来消除黑夜、白天对检出率的影响干扰;视频和雷达对事件发生的远近进行置信度分类;对事件本质受各种传感器的影响进行置信度分类。
根据实际要求对查全率和查准率的上报要求的分类思想。
进一步,将所述可见光红外传感器以及所述红外光传感器的采集到的图像的像素坐标转换为所述毫米波雷达传感器的采集到的图像的笛卡尔坐标的过程为:
在所述毫米波雷达传感器对应的视频图像的检测范围内任选四个笛卡尔坐标点,并根据该四个笛卡尔坐标点对应的像素坐标以及PnP转换公式确定转换矩阵参数,根据所述转换矩阵参数将所述可见光红外传感器以及所述红外光传感器的采集到的图像的像素坐标转换为所述毫米波雷达传感器的采集到的图像的笛卡尔坐标。
进一步,通过预测交通事件检测应用逻辑方法对所述双光谱雷视一体机中所有传感器在所述固定间隔内采集到视频数据进行交通事件检测,生成检测结果的过程为:
所述预测交通事件检测应用逻辑方法包括可见光交通事件检测应用逻辑、红外光交通事件检测应用逻辑以及雷达交通事件检测应用逻辑;
通过所述可见光交通事件检测应用逻辑对可见光传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第一检测结果,确定所述第一检测结果中的交通事件发生位置与所述双光谱雷视一体机之间的第一距离;
通过所述红外光交通事件检测应用逻辑对红外光传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第二检测结果,确定所述第二检测结果中的交通事件发生位置与所述双光谱雷视一体机之间的第二距离;
通过所述雷达交通事件检测应用逻辑对毫米波雷达传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第三检测结果,确定所述第三检测结果中的交通事件发生位置于所述双光谱雷视一体机之间的第三距离;
将所述第一距离、所述第二距离以及所述第三距离汇总得到所述检测结果。
进一步,根据所述明亮度得分以及所述检测结果,生成该图像对应的综合得分的过程为:
根据所述明亮度得分、所述检测结果对应的预设交通事件权重以及预设距离权重,生成该图像对应的综合得分。
在上述各实施例中,虽然对步骤进行了编号S1、S2等,但只是本发明给出的具体实施例,本领域的技术人员可根据实际情况调整S1、S2等的执行顺序,此也在本发明的保护范围内,可以理解,在一些实施例中,可以包含如上述各实施方式中的部分或全部。
本方案还提供了一种双光谱雷视一体机的交通事件监测系统,具体技术方案如下:
转换模块用于:将双光谱雷视一体机中的可见光传感器、红外光传感器以及毫米波雷达传感器进行图像统一坐标系处理,将所述可见光红外传感器以及所述红外光传感器的采集到的图像的像素坐标转换为所述毫米波雷达传感器的采集到的图像的笛卡尔坐标;
处理模块用于:将基于统一坐标系处理后的双光谱雷视一体机采集的可见光视频,按照固定间隔提取图像,并将提取到的图像输入至图像明亮度分类器中,得出该图像对应的明亮度得分;
检测模块用于:通过预测交通事件检测应用逻辑方法对所述双光谱雷视一体机中所有传感器在所述固定间隔内采集到视频数据进行交通事件检测,生成检测结果;
监测模块用于:根据所述明亮度得分以及所述检测结果,生成该图像对应的综合得分,将所述综合得分与该图像关联存储,完成监测。
在上述方案的基础上,本发明还可以做如下改进。
进一步,所述转换模块具体用于:
在所述毫米波雷达传感器对应的视频图像的检测范围内任选四个笛卡尔坐标点,并根据该四个笛卡尔坐标点对应的像素坐标以及PnP转换公式确定转换矩阵参数,根据所述转换矩阵参数将所述可见光红外传感器以及所述红外光传感器的采集到的图像的像素坐标转换为所述毫米波雷达传感器的采集到的图像的笛卡尔坐标。
进一步,所述检测模块具体用于:
所述预测交通事件检测应用逻辑方法包括可见光交通事件检测应用逻辑、红外光交通事件检测应用逻辑以及雷达交通事件检测应用逻辑;
通过所述可见光交通事件检测应用逻辑对可见光传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第一检测结果,确定所述第一检测结果中的交通事件发生位置与所述双光谱雷视一体机之间的第一距离;
通过所述红外光交通事件检测应用逻辑对红外光传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第二检测结果,确定所述第二检测结果中的交通事件发生位置与所述双光谱雷视一体机之间的第二距离;
通过所述雷达交通事件检测应用逻辑对毫米波雷达传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第三检测结果,确定所述第三检测结果中的交通事件发生位置于所述双光谱雷视一体机之间的第三距离;
将所述第一距离、所述第二距离以及所述第三距离汇总得到所述检测结果。
进一步,所述监测模块具体用于:
根据所述明亮度得分、所述检测结果对应的预设交通事件权重以及预设距离权重,生成该图像对应的综合得分。
需要说明的是,上述实施例提供的一种双光谱雷视一体机的交通事件监测系统的有益效果与上述一种双光谱雷视一体机的交通事件监测方法的有益效果相同,在此不再赘述。此外,上述实施例提供的系统在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将系统根据实际情况划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的系统与方法实施例属于同一构思,其具体实现过程详见方法实施例,在此不再赘述。
如图4所示,本发明实施例的一种计算机设备300,计算机设备300包括处理器320,处理器320与存储器310耦合,存储器310中存储有至少一条计算机程序330,至少一条计算机程序330由处理器320加载并执行,以使计算机设备300实现上述任一项方法,具体地:
计算机设备300可因配置或性能不同而产生比较大的差异,可以包括一个或多个处理器320(Central Processing Units,CPU)和一个或多个存储器310,其中,该一个或多个存储器310中存储有至少一条计算机程序330,该至少一条计算机程序330由该一个或多个处理器320加载并执行,以使该计算机设备300实现上述实施例提供的一种双光谱雷视一体机的交通事件监测方法。当然,该计算机设备300还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该计算机设备300还可以包括其他用于实现设备功能的部件,在此不做赘述。
本发明实施例的一种计算机可读存储介质,计算机可读存储介质中存储有至少一条计算机程序,至少一条计算机程序由处理器加载并执行,以使计算机实现上述任一项方法。
可选地,计算机可读存储介质可以是只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述任一项方法。
需要说明的是,本申请的说明书和权利要求书中的术语“第一”、“第二”、等是用于区别类似的对象,而代表对特定的顺序或先后次序进行限定。在适当情况下对于类似的对象的使用顺序可以互换,以便这里描述的本申请的实施例能够以除了图示或描述的顺序以外的顺序实施。
所属技术领域的技术人员知道,本发明可以实现为系统、方法或计算机程序产品,因此,本公开可以具体实现为以下形式,即:可以是完全的硬件、也可以是完全的软件(包括固件、驻留软件、微代码等),还可以是硬件和软件结合的形式,本文一般称为“电路”、“模块”或“系统”。此外,在一些实施例中,本发明还可以实现为在一个或多个计算机可读介质中的计算机程序产品的形式,该计算机可读介质中包含计算机可读的程序代码。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是一一但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM),只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种双光谱雷视一体机的交通事件监测方法,其特征在于,包括:
将双光谱雷视一体机中的可见光传感器、红外光传感器以及毫米波雷达传感器进行图像统一坐标系处理,将所述可见光红外传感器以及所述红外光传感器的采集到的图像的像素坐标转换为所述毫米波雷达传感器的采集到的图像的笛卡尔坐标;
将基于统一坐标系处理后的双光谱雷视一体机采集的可见光视频,按照固定间隔提取图像,并将提取到的图像输入至图像明亮度分类器中,得出该图像对应的明亮度得分;
通过预测交通事件检测应用逻辑方法对所述双光谱雷视一体机中所有传感器在所述固定间隔内采集到视频数据进行交通事件检测,生成检测结果;
根据所述明亮度得分以及所述检测结果,生成该图像对应的综合得分,将所述综合得分与该图像关联存储,完成监测。
2.根据权利要求1所述的一种双光谱雷视一体机的交通事件监测方法,其特征在于,将所述可见光红外传感器以及所述红外光传感器的采集到的图像的像素坐标转换为所述毫米波雷达传感器的采集到的图像的笛卡尔坐标的过程为:
在所述毫米波雷达传感器对应的视频图像的检测范围内任选四个笛卡尔坐标点,并根据该四个笛卡尔坐标点对应的像素坐标以及PnP转换公式确定转换矩阵参数,根据所述转换矩阵参数将所述可见光红外传感器以及所述红外光传感器的采集到的图像的像素坐标转换为所述毫米波雷达传感器的采集到的图像的笛卡尔坐标。
3.根据权利要求1所述的一种双光谱雷视一体机的交通事件监测方法,其特征在于,通过预测交通事件检测应用逻辑方法对所述双光谱雷视一体机中所有传感器在所述固定间隔内采集到视频数据进行交通事件检测,生成检测结果的过程为:
所述预测交通事件检测应用逻辑方法包括可见光交通事件检测应用逻辑、红外光交通事件检测应用逻辑以及雷达交通事件检测应用逻辑;
通过所述可见光交通事件检测应用逻辑对可见光传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第一检测结果,确定所述第一检测结果中的交通事件发生位置与所述双光谱雷视一体机之间的第一距离;
通过所述红外光交通事件检测应用逻辑对红外光传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第二检测结果,确定所述第二检测结果中的交通事件发生位置与所述双光谱雷视一体机之间的第二距离;
通过所述雷达交通事件检测应用逻辑对毫米波雷达传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第三检测结果,确定所述第三检测结果中的交通事件发生位置于所述双光谱雷视一体机之间的第三距离;
将所述第一距离、所述第二距离以及所述第三距离汇总得到所述检测结果。
4.根据权利要求1所述的一种双光谱雷视一体机的交通事件监测方法,其特征在于,根据所述明亮度得分以及所述检测结果,生成该图像对应的综合得分的过程为:
根据所述明亮度得分、所述检测结果对应的预设交通事件权重以及预设距离权重,生成该图像对应的综合得分。
5.一种双光谱雷视一体机的交通事件监测系统,其特征在于,包括:
转换模块用于:将双光谱雷视一体机中的可见光传感器、红外光传感器以及毫米波雷达传感器进行图像统一坐标系处理,将所述可见光红外传感器以及所述红外光传感器的采集到的图像的像素坐标转换为所述毫米波雷达传感器的采集到的图像的笛卡尔坐标;
处理模块用于:将基于统一坐标系处理后的双光谱雷视一体机采集的可见光视频,按照固定间隔提取图像,并将提取到的图像输入至图像明亮度分类器中,得出该图像对应的明亮度得分;
检测模块用于:通过预测交通事件检测应用逻辑方法对所述双光谱雷视一体机中所有传感器在所述固定间隔内采集到视频数据进行交通事件检测,生成检测结果;
监测模块用于:根据所述明亮度得分以及所述检测结果,生成该图像对应的综合得分,将所述综合得分与该图像关联存储,完成监测。
6.根据权利要求5所述的一种双光谱雷视一体机的交通事件监测系统,其特征在于,所述转换模块具体用于:
在所述毫米波雷达传感器对应的视频图像的检测范围内任选四个笛卡尔坐标点,并根据该四个笛卡尔坐标点对应的像素坐标以及PnP转换公式确定转换矩阵参数,根据所述转换矩阵参数将所述可见光红外传感器以及所述红外光传感器的采集到的图像的像素坐标转换为所述毫米波雷达传感器的采集到的图像的笛卡尔坐标。
7.根据权利要求5所述的一种双光谱雷视一体机的交通事件监测系统,其特征在于,所述检测模块具体用于:
所述预测交通事件检测应用逻辑方法包括可见光交通事件检测应用逻辑、红外光交通事件检测应用逻辑以及雷达交通事件检测应用逻辑;
通过所述可见光交通事件检测应用逻辑对可见光传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第一检测结果,确定所述第一检测结果中的交通事件发生位置与所述双光谱雷视一体机之间的第一距离;
通过所述红外光交通事件检测应用逻辑对红外光传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第二检测结果,确定所述第二检测结果中的交通事件发生位置与所述双光谱雷视一体机之间的第二距离;
通过所述雷达交通事件检测应用逻辑对毫米波雷达传感器在所述固定间隔内采集到的视频进行交通事件检测,得到第三检测结果,确定所述第三检测结果中的交通事件发生位置于所述双光谱雷视一体机之间的第三距离;
将所述第一距离、所述第二距离以及所述第三距离汇总得到所述检测结果。
8.根据权利要求5所述的一种双光谱雷视一体机的交通事件监测系统,其特征在于,所述监测模块具体用于:
根据所述明亮度得分、所述检测结果对应的预设交通事件权重以及预设距离权重,生成该图像对应的综合得分。
9.一种计算机设备,其特征在于,所述计算机设备包括处理器,所述处理器与存储器耦合,所述存储器中存储有至少一条计算机程序,所述至少一条计算机程序由所述处理器加载并执行,以使所述计算机设备实现如权利要求1至3任一项权利要求所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条计算机程序,所述至少一条计算机程序由处理器加载并执行,以使计算机实现如权利要求1至3任一项权利要求所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311804542.XA CN118097933B (zh) | 2023-12-26 | 2023-12-26 | 双光谱雷视一体机交通事件监测方法、系统、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311804542.XA CN118097933B (zh) | 2023-12-26 | 2023-12-26 | 双光谱雷视一体机交通事件监测方法、系统、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN118097933A true CN118097933A (zh) | 2024-05-28 |
CN118097933B CN118097933B (zh) | 2024-09-24 |
Family
ID=91148232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311804542.XA Active CN118097933B (zh) | 2023-12-26 | 2023-12-26 | 双光谱雷视一体机交通事件监测方法、系统、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118097933B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109243193A (zh) * | 2017-07-11 | 2019-01-18 | 现代摩比斯株式会社 | 智能停车系统及其停车轨迹生成方法 |
US20200225321A1 (en) * | 2019-01-15 | 2020-07-16 | Image Sensing Systems, Inc. | Machine learning based highway radar vehicle classification across multiple lanes and speeds |
CN112019835A (zh) * | 2020-08-08 | 2020-12-01 | 欧菲微电子技术有限公司 | 动态视觉传感器模组的帧率验证装置、方法及存储介质 |
JP2020198035A (ja) * | 2019-06-05 | 2020-12-10 | 株式会社デンソーアイティーラボラトリ | 画像処理装置、画像処理プログラムおよび画像処理方法 |
KR20210010618A (ko) * | 2017-07-11 | 2021-01-27 | 현대모비스 주식회사 | 자동주차 시스템의 주차궤적 생성방법 및 그 장치 |
CN112509333A (zh) * | 2020-10-20 | 2021-03-16 | 智慧互通科技股份有限公司 | 一种基于多传感器感知的路侧停车车辆轨迹识别方法及系统 |
CN113917454A (zh) * | 2021-10-11 | 2022-01-11 | 上海大学 | 一种无人艇水面目标融合检测方法及系统 |
CN114624711A (zh) * | 2020-12-11 | 2022-06-14 | 中寰卫星导航通信有限公司 | 一种不同雷达信息的融合方法、装置、存储介质及设备 |
CN115236654A (zh) * | 2022-06-28 | 2022-10-25 | 河北德冠隆电子科技有限公司 | 基于多频谱多波段多维度全天候工作复合雷达设备 |
WO2023034500A1 (en) * | 2021-09-02 | 2023-03-09 | Intel Corporation | Systems, apparatus, and methods for data driven location detection |
CN116721160A (zh) * | 2023-04-27 | 2023-09-08 | 中山大学 | 基于毫米波雷达与摄像头的自动标定方法及系统 |
CN117079465A (zh) * | 2023-09-11 | 2023-11-17 | 山东交通学院 | 一种用于高速公路的行驶车辆安全预警方法与系统 |
-
2023
- 2023-12-26 CN CN202311804542.XA patent/CN118097933B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109243193A (zh) * | 2017-07-11 | 2019-01-18 | 现代摩比斯株式会社 | 智能停车系统及其停车轨迹生成方法 |
KR20210010618A (ko) * | 2017-07-11 | 2021-01-27 | 현대모비스 주식회사 | 자동주차 시스템의 주차궤적 생성방법 및 그 장치 |
US20200225321A1 (en) * | 2019-01-15 | 2020-07-16 | Image Sensing Systems, Inc. | Machine learning based highway radar vehicle classification across multiple lanes and speeds |
JP2020198035A (ja) * | 2019-06-05 | 2020-12-10 | 株式会社デンソーアイティーラボラトリ | 画像処理装置、画像処理プログラムおよび画像処理方法 |
CN112019835A (zh) * | 2020-08-08 | 2020-12-01 | 欧菲微电子技术有限公司 | 动态视觉传感器模组的帧率验证装置、方法及存储介质 |
CN112509333A (zh) * | 2020-10-20 | 2021-03-16 | 智慧互通科技股份有限公司 | 一种基于多传感器感知的路侧停车车辆轨迹识别方法及系统 |
CN114624711A (zh) * | 2020-12-11 | 2022-06-14 | 中寰卫星导航通信有限公司 | 一种不同雷达信息的融合方法、装置、存储介质及设备 |
WO2023034500A1 (en) * | 2021-09-02 | 2023-03-09 | Intel Corporation | Systems, apparatus, and methods for data driven location detection |
CN113917454A (zh) * | 2021-10-11 | 2022-01-11 | 上海大学 | 一种无人艇水面目标融合检测方法及系统 |
CN115236654A (zh) * | 2022-06-28 | 2022-10-25 | 河北德冠隆电子科技有限公司 | 基于多频谱多波段多维度全天候工作复合雷达设备 |
CN116721160A (zh) * | 2023-04-27 | 2023-09-08 | 中山大学 | 基于毫米波雷达与摄像头的自动标定方法及系统 |
CN117079465A (zh) * | 2023-09-11 | 2023-11-17 | 山东交通学院 | 一种用于高速公路的行驶车辆安全预警方法与系统 |
Also Published As
Publication number | Publication date |
---|---|
CN118097933B (zh) | 2024-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102129893B1 (ko) | 딥러닝 네트워크 및 평균 이동을 기반으로 하는 선박 자동추적 방법 및 시스템 | |
JP7345504B2 (ja) | Lidarデータと画像データの関連付け | |
EP2940656B1 (en) | Vehicle periphery monitoring device | |
CN110765922A (zh) | 一种agv用双目视觉物体检测障碍物系统 | |
CN105654067A (zh) | 一种车辆检测方法及装置 | |
CN111186379B (zh) | 一种基于深度学习的汽车盲区危险物报警方法 | |
CN112149618B (zh) | 适用于巡检车的行人异常行为检测方法与装置 | |
CN104331901A (zh) | 一种基于tld的多视角目标跟踪装置及方法 | |
CN116052026B (zh) | 一种无人机航拍图像目标检测方法、系统及存储介质 | |
CN111967396A (zh) | 障碍物检测的处理方法、装置、设备及存储介质 | |
CN111913177A (zh) | 对目标物探测方法、装置以及存储介质 | |
CN112990049A (zh) | 用于车辆自动驾驶的aeb紧急制动方法、装置 | |
CN112130153A (zh) | 基于毫米波雷达和摄像头实现无人驾驶汽车边缘检测方法 | |
CN115760921A (zh) | 基于多目标跟踪的行人轨迹预测方法及系统 | |
CN116258940A (zh) | 一种多尺度特征及自适应权重的小目标检测方法 | |
CN112465735A (zh) | 行人检测方法、装置及计算机可读存储介质 | |
CN116778262B (zh) | 一种基于虚拟点云的三维目标检测方法和系统 | |
CN117416349A (zh) | V2X环境下基于改进YOLOV7-Tiny和SS-LSTM的自动驾驶风险预判系统及方法 | |
CN109961637A (zh) | 基于多子图融合与显著性分析的车辆检测装置及系统 | |
CN118097933B (zh) | 双光谱雷视一体机交通事件监测方法、系统、设备及介质 | |
Yang et al. | Research on Target Detection Algorithm for Complex Scenes | |
CN115082897A (zh) | 一种改进smoke的单目视觉3d车辆目标实时检测方法 | |
CN115249269A (zh) | 目标检测方法、计算机程序产品、存储介质及电子设备 | |
CN113920089A (zh) | 目标检测方法、装置以及电子控制器 | |
CN117636241B (zh) | 基于决策级融合的低光照场景多模态行人检测跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |