CN112115810A - 基于信息融合的目标识别方法、系统、计算机设备和存储介质 - Google Patents
基于信息融合的目标识别方法、系统、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN112115810A CN112115810A CN202010893429.3A CN202010893429A CN112115810A CN 112115810 A CN112115810 A CN 112115810A CN 202010893429 A CN202010893429 A CN 202010893429A CN 112115810 A CN112115810 A CN 112115810A
- Authority
- CN
- China
- Prior art keywords
- camera
- faster
- target identification
- information
- millimeter wave
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 14
- 238000004590 computer program Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 description 65
- 238000001514 detection method Methods 0.000 description 25
- 238000004422 calculation algorithm Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 15
- 238000013135 deep learning Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于信息融合的目标识别方法、系统、计算机设备和存储介质,方法包括:利用毫米波雷达和摄像机同时分别采集某一交通路段的场景信息,构成交通数据集;利用目标识别数据集对Faster R‑CNN模型进行训练,获得Faster R‑CNN模型各层的权重值;所述目标识别数据集中包括行人、车辆;对毫米波雷达和摄像机分别采集的数据进行融合;结合所述融合后的信息和训练后的Faster R‑CNN模型,实现目标识别。本发明方法不仅可以提高Faster R‑CNN对交通环境中小目标和重叠目标的识别精确度,还可以感知交通目标的距离信息。
Description
技术领域
本发明属于目标检测领域,特别涉及一种基于信息融合的目标识别方法、系统、计算机设备和存储介质。
背景技术
随着卷积深度学习网络的发展和GPU算力的提高,目标检测能力和效率得到了显著地提高。目前,利用深度学习来进行目标检测的方式主要有两类,基于回归(regressionbased)的检测方法和基于对象候选区域(object proposal based)的检测算法。
基于回归的目标检测算法又称为One Stage算法,特点是仅需要将数据送入网络,一次可以预测出所有边界框,节省时间,一步到位,计算速度相对较快。YOLO(You LookOnly Once)算法和SSD算法为经典的One Stage算法。YOLO算法是一类图像分割算法,它首先将图像按一定大小分割成相同大小的小方块,在分割后的小方块中进行目标分类,理论上来说,当图像分割程度越精细,网络检测识别能力越强。虽然YOLO检测网络在数据处理运算速度上极具优势,但在精准定位和识别率上还略有不足。于是Liu等人在《SSD:SingleShot MultiBox Detector》中提出了SSD检测网络。SSD检测算法是将YOLO网络和Faster R-CNN检测网络进行结合,回归多个不同尺寸的候选框,并且赋予每个候选框类别和分数。另外,SSD检测算法可以将不同尺寸的特征图进行结合后预测,实现处理各个尺寸图像的目的。SSD检测算法不仅拥有Faster R-CNN检测算法目标检测的高精度,同时也拥有YOLO检测算法的高速运算能力,成为One Stage检测算法的经典代表作之一。
基于对象候选区域算法通常又被称为two stage算法。这种算法是利用卷积神经网络来对候选框(bounding box)进行训练进而进行分类和回归。在2014年,大神Girshick等人提出了经典的R-CNN检测方法,极大拓宽了卷积神经网络特征提取的能力。同时,目标检测能力也得到了相应提升。后来Girshick等人提出了性能更加优秀的Fast R-CNN,在该网络结构框架下,网络中所有的网络层都可以进行反向传播来进行更新,不但简化了机器学习的过程,而且使得目标检测准确率得到了显著提高。在2016年,Girshick等人再次提出了Faster R-CNN卷积神经网络,它利用RPN(Regional Proposal Network)层来进行滑动窗口(slide window)检测,通过遍历整张图片或者视频,将符合特征提取提取到的信息通过候选框框出,从而达到目标检测的目的。目前,高精度的目标检测检测器基本上都是基于Faster R-CNN网络结构来进行的,Faster R-CNN广泛应用于各个领域的目标检测任务当中。但Faster R-CNN网络针对小目标、重叠目标的识别精度不高。
发明内容
本发明的目的在于针对上述现有技术的不足,提供一种基于图像与毫米波雷达信息融合的交通目标识别方法,克服现有方法中Faster R-CNN网络对小目标、重叠目标的识别精度不高的问题。
实现本发明目的的技术解决方案为:一种基于信息融合的目标识别方法,所述方法包括以下步骤:
步骤1,利用毫米波雷达和摄像机同时分别采集某一交通路段的场景信息,构成交通数据集;
步骤2,利用目标识别数据集对Faster R-CNN模型进行训练,获得Faster R-CNN模型各层的权重值;所述目标识别数据集中包括行人、车辆;
步骤3,对毫米波雷达和摄像机分别采集的数据进行融合;
步骤4,结合所述融合后的信息和训练后的Faster R-CNN模型,实现目标识别。
进一步地,步骤3中所述对毫米波雷达和摄像机分别采集的数据进行融合,具体包括:
时间融合:将毫米波雷达和摄像机分别采集的数据归一化至同一时间轴上,实现数据的时间同步;
空间融合:将毫米波雷达和摄像机分别采集的数据统一至同一坐标系下;假设设摄像机安装的高度为H,俯仰角为θ,Orw-xrwyrwzrw为雷达投影坐标系,Ocw-xcwycwzcw为摄像机投影坐标系,Oc-xcyczc为摄像头坐标系,Op-xpyp为图像坐标系,雷达投影坐标系与图像坐标系之间的转化关系为:
进一步地,步骤4所述结合所述融合后的信息和训练后的Faster R-CNN模型,实现目标识别,具体为:
将融合后毫米波雷达信息输入Faster R-CNN模型的分类和回归层;
将融合后的摄像机采集的数据作为Faster R-CNN模型的输入。
一种基于信息融合的目标识别系统,所述系统包括:
数据采集模块,用于利用毫米波雷达和摄像机同时分别采集某一交通路段的场景信息,构成交通数据集;
训练模块,用于利用目标识别数据集对Faster R-CNN模型进行训练,获得FasterR-CNN模型各层的权重值;所述目标识别数据集中包括行人、车辆;
数据融合模块,用于对毫米波雷达和摄像机分别采集的数据进行融合;
目标识别模块,用于结合所述融合后的信息和训练后的Faster R-CNN模型,实现目标识别。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
步骤1,利用毫米波雷达和摄像机同时分别采集某一交通路段的场景信息,构成交通数据集;
步骤2,利用目标识别数据集对Faster R-CNN模型进行训练,获得Faster R-CNN模型各层的权重值;所述目标识别数据集中包括行人、车辆;
步骤3,对毫米波雷达和摄像机分别采集的数据进行融合;
步骤4,结合所述融合后的信息和训练后的Faster R-CNN模型,实现目标识别。
一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
步骤1,利用毫米波雷达和摄像机同时分别采集某一交通路段的场景信息,构成交通数据集;
步骤2,利用目标识别数据集对Faster R-CNN模型进行训练,获得Faster R-CNN模型各层的权重值;所述目标识别数据集中包括行人、车辆;
步骤3,对毫米波雷达和摄像机分别采集的数据进行融合;
步骤4,结合所述融合后的信息和训练后的Faster R-CNN模型,实现目标识别。
本发明与现有技术相比,其显著优点为:1)实现对交通环境中小目标、重叠目标的高精确识别;2)利用毫米波雷达增加了交通环境中目标的距离信息,为自动驾驶提供更加丰富的目标信息。
下面结合附图对本发明作进一步详细描述。
附图说明
图1为一个实施例中本发明基于信息融合的目标识别方法的流程图。
图2为一个实施例中毫米波雷达和摄像机安装的相对位置信息图。
图3为一个实施例中Faster R-CNN算法流程图。
图4为一个实施例中Faster R-CNN识别结果与融合毫米波雷达信息后的FasterR-CNN识别结果对比图,其中图(a)为交通场景中小目标检测原始图,图(b)为Faster R-CNN对交通场景中小目标识别图,图(c)为改进后的Faster R-CNN对交通场景中小目标识别图,图(d)为交通场景中重叠目标检测原始图,图(e)为Faster R-CNN对交通场景中重叠目标识别结果图,图(f)为改进后的Faster R-CNN对交通场景中重叠目标识别结果图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,结合图1,提供了一种基于图像与毫米波雷达信息融合的交通目标识别方法,所述方法包括以下步骤:
步骤1,利用毫米波雷达和摄像机同时分别采集某一交通路段的场景信息,构成交通数据集;
步骤2,利用目标识别数据集对Faster R-CNN模型进行训练,获得Faster R-CNN模型各层的权重值;所述目标识别数据集中包括行人、车辆;
这里,目标识别数据集采用VOC数据集,包括Pascal VOC2007数据集或PascalVOC2012数据集。
进一步优选地,采用Pascal VOC2007数据集,该数据集一共分为20类,有9963张图片。
步骤3,对毫米波雷达和摄像机分别采集的数据进行融合;
步骤4,结合所述融合后的信息和训练后的Faster R-CNN模型,实现目标识别。
进一步地,在其中一个实施例中,步骤3中所述对毫米波雷达和摄像机分别采集的数据进行融合,具体包括:
时间融合:将毫米波雷达和摄像机分别采集的数据归一化至同一时间轴上,实现数据的时间同步;
这里,毫米波雷达与摄像机的时间融合主要是指两个传感器的数据采集频率不同,二者在时间上的统一。其中,毫米波雷达的采集频率为60帧/秒,而摄像机为30帧/秒,选择将摄像机数据统一到毫米波雷达上,利用人工筛选剔除毫米波雷达中的杂波信息并利用线性表实现毫米波雷达目标信息和摄像机图像数据在时间上的统一。
空间融合:将毫米波雷达和摄像机分别采集的数据统一至同一坐标系下;摄像机和毫米波雷达的空间位置关系如图2所示,假设摄像机安装的高度为H,俯仰角为θ,Orw-xrwyrwzrw为雷达投影坐标系,Ocw-xcwycwzcw为摄像机投影坐标系,Oc-xcyczc为摄像头坐标系,Op-xpyp为图像坐标系,结合图2,雷达投影坐标系与图像坐标系之间的转化关系为:
进一步地,在其中一个实施例中,步骤4所述结合所述融合后的信息和训练后的Faster R-CNN模型,实现目标识别,其流程图3所示,具体为:
将融合后毫米波雷达信息输入Faster R-CNN模型的分类和回归层;
将融合后的摄像机采集的数据作为Faster R-CNN模型的输入。
这里,是利用融合后的信息对Faster R-CNN模型进行了改进,模型包括:
卷积层:用于提取图片的特征,输入为整张图片,输出为提取出的特征称为feature maps。
RPN:网络(Region Proposal Network),用于推荐候选区域的、。输入为图片(因为这里RPN网络和Fast R-CNN共用同一个CNN,所以这里输入也可以认为是featrue maps),输出为多个候选区域。
RoI-Pooling:将不同大小的输入转换为固定长度的输出。
毫米波雷达信息分类回归层,利用融合后的毫米波雷达信息对Fast R-CNN生成候选区域位置进行细化和调整,实现基于图像与毫米波雷达信息融合的交通目标识别。
在一个实施例中,提供了一种基于信息融合的目标识别系统,所述系统包括:
数据采集模块,用于利用毫米波雷达和摄像机同时分别采集某一交通路段的场景信息,构成交通数据集;
训练模块,用于利用目标识别数据集对Faster R-CNN模型进行训练,获得FasterR-CNN模型各层的权重值;所述目标识别数据集中包括行人、车辆;
数据融合模块,用于对毫米波雷达和摄像机分别采集的数据进行融合;
目标识别模块,用于结合所述融合后的信息和训练后的Faster R-CNN模型,实现目标识别。
进一步地,在其中一个实施例中,所述数据融合模块,包括:
时间融合单元,用于将毫米波雷达和摄像机分别采集的数据归一化至同一时间轴上,实现数据的时间同步;
空间融合单元,用于将毫米波雷达和摄像机分别采集的数据统一至同一坐标系下;假设设摄像机安装的高度为H,俯仰角为θ,Orw-xrwyrwzrw为雷达投影坐标系,Ocw-xcwycwzcw为摄像机投影坐标系,Oc-xcyczc为摄像头坐标系,Op-xpyp为图像坐标系,雷达投影坐标系与图像坐标系之间的转化关系为:
进一步地,在其中一个实施例中,所述目标识别模块用于结合所述融合后的信息和训练后的Faster R-CNN模型,实现目标识别,具体包括:
将融合后毫米波雷达信息输入Faster R-CNN模型的分类和回归层;
将融合后的摄像机采集的数据作为Faster R-CNN模型的输入。
关于基于信息融合的目标识别系统的具体限定可以参见上文中对于基于信息融合的目标识别方法的限定,在此不再赘述。上述基于信息融合的目标识别系统中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
步骤1,利用毫米波雷达和摄像机同时分别采集某一交通路段的场景信息,构成交通数据集;
步骤2,利用目标识别数据集对Faster R-CNN模型进行训练,获得Faster R-CNN模型各层的权重值;所述目标识别数据集中包括行人、车辆;
步骤3,对毫米波雷达和摄像机分别采集的数据进行融合;
步骤4,结合所述融合后的信息和训练后的Faster R-CNN模型,实现目标识别。
关于每一步的具体限定可以参见上文中对于基于信息融合的目标识别方法的限定,在此不再赘述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
步骤1,利用毫米波雷达和摄像机同时分别采集某一交通路段的场景信息,构成交通数据集;
步骤2,利用目标识别数据集对Faster R-CNN模型进行训练,获得Faster R-CNN模型各层的权重值;所述目标识别数据集中包括行人、车辆;
步骤3,对毫米波雷达和摄像机分别采集的数据进行融合;
步骤4,结合所述融合后的信息和训练后的Faster R-CNN模型,实现目标识别。
关于每一步的具体限定可以参见上文中对于基于信息融合的目标识别方法的限定,在此不再赘述。
作为一种具体示例,对本发明进行进一步验证说明。Faster R-CNN的识别结果与融合毫米波雷达信息后Faster R-CNN识别结果对比图如图4所示。其中原始帧代表测试数据集,Faster R-CNN代表直接使用Faster R-CNN进行识别得到的结果,改进的Faster R-CNN代表融合毫米波雷达信息后的Faster R-CNN识别效果,从图中可以看出,融合毫米波雷达信息后的Faster R-CNN在识别小目标、重叠目标时,精确度得到了明显的提高。同时,还可以感知到识别到目标的距离信息。
进一步地,为了验证本算法具有普适性,选取了117张行人运动目标和228张车辆运动目标进行测试,并利用Precision(准确率又叫查准率)进行衡量。
式中,TP表示检测出的真实目标,TN表示检测出的虚假目标,FP表示未检测出的真实目标。
具体的结果如下表1所示。
表1查准率结果
从表1可以看出,本发明改进的Faster R-CNN的查准率明显高于原始Faster R-CNN的查准率。
以上显示和描述了本发明的基本原理、主要特征及优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (9)
1.一种基于信息融合的目标识别方法,其特征在于,所述方法包括以下步骤:
步骤1,利用毫米波雷达和摄像机同时分别采集某一交通路段的场景信息,构成交通数据集;
步骤2,利用目标识别数据集对Faster R-CNN模型进行训练,获得Faster R-CNN模型各层的权重值;所述目标识别数据集中包括行人、车辆;
步骤3,对毫米波雷达和摄像机分别采集的数据进行融合;
步骤4,结合所述融合后的信息和训练后的Faster R-CNN模型,实现目标识别。
2.根据权利要求1所述的基于信息融合的目标识别方法,其特征在于,步骤2中所述目标识别数据集采用Pascal VOC2007数据集或Pascal VOC2012数据集。
4.根据权利要求1所述的基于信息融合的目标识别方法,其特征在于,步骤4所述结合所述融合后的信息和训练后的Faster R-CNN模型,实现目标识别,具体为:
将融合后毫米波雷达信息输入Faster R-CNN模型的分类和回归层;
将融合后的摄像机采集的数据作为Faster R-CNN模型的输入。
5.一种基于信息融合的目标识别系统,其特征在于,所述系统包括:
数据采集模块,用于利用毫米波雷达和摄像机同时分别采集某一交通路段的场景信息,构成交通数据集;
训练模块,用于利用目标识别数据集对Faster R-CNN模型进行训练,获得Faster R-CNN模型各层的权重值;所述目标识别数据集中包括行人、车辆;
数据融合模块,用于对毫米波雷达和摄像机分别采集的数据进行融合;
目标识别模块,用于结合所述融合后的信息和训练后的Faster R-CNN模型,实现目标识别。
7.根据权利要求6所述的基于信息融合的目标识别系统,其特征在于,所述目标识别模块用于结合所述融合后的信息和训练后的Faster R-CNN模型,实现目标识别,具体包括:
将融合后毫米波雷达信息输入Faster R-CNN模型的分类和回归层;
将融合后的摄像机采集的数据作为Faster R-CNN模型的输入。
8.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至4中任一项所述方法的步骤。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至4中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010893429.3A CN112115810A (zh) | 2020-08-31 | 2020-08-31 | 基于信息融合的目标识别方法、系统、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010893429.3A CN112115810A (zh) | 2020-08-31 | 2020-08-31 | 基于信息融合的目标识别方法、系统、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112115810A true CN112115810A (zh) | 2020-12-22 |
Family
ID=73804529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010893429.3A Pending CN112115810A (zh) | 2020-08-31 | 2020-08-31 | 基于信息融合的目标识别方法、系统、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112115810A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113486775A (zh) * | 2021-07-02 | 2021-10-08 | 北京一维大成科技有限公司 | 一种目标追踪方法、系统、电子设备及存储介质 |
CN117093872A (zh) * | 2023-10-19 | 2023-11-21 | 四川数字交通科技股份有限公司 | 雷达目标分类模型自训练方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170080480A (ko) * | 2015-12-30 | 2017-07-10 | 건아정보기술 주식회사 | 레이더 및 영상 융합 차량 단속시스템 |
CN109615870A (zh) * | 2018-12-29 | 2019-04-12 | 南京慧尔视智能科技有限公司 | 一种基于毫米波雷达和视频的交通检测系统 |
CN111368706A (zh) * | 2020-03-02 | 2020-07-03 | 南京航空航天大学 | 基于毫米波雷达和机器视觉的数据融合动态车辆检测方法 |
-
2020
- 2020-08-31 CN CN202010893429.3A patent/CN112115810A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170080480A (ko) * | 2015-12-30 | 2017-07-10 | 건아정보기술 주식회사 | 레이더 및 영상 융합 차량 단속시스템 |
CN109615870A (zh) * | 2018-12-29 | 2019-04-12 | 南京慧尔视智能科技有限公司 | 一种基于毫米波雷达和视频的交通检测系统 |
CN111368706A (zh) * | 2020-03-02 | 2020-07-03 | 南京航空航天大学 | 基于毫米波雷达和机器视觉的数据融合动态车辆检测方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113486775A (zh) * | 2021-07-02 | 2021-10-08 | 北京一维大成科技有限公司 | 一种目标追踪方法、系统、电子设备及存储介质 |
CN117093872A (zh) * | 2023-10-19 | 2023-11-21 | 四川数字交通科技股份有限公司 | 雷达目标分类模型自训练方法及系统 |
CN117093872B (zh) * | 2023-10-19 | 2024-01-02 | 四川数字交通科技股份有限公司 | 雷达目标分类模型自训练方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11037305B2 (en) | Method and apparatus for processing point cloud data | |
Akyon et al. | Slicing aided hyper inference and fine-tuning for small object detection | |
CN108171112B (zh) | 基于卷积神经网络的车辆识别与跟踪方法 | |
WO2021072710A1 (zh) | 移动物体的点云融合方法、系统及计算机存储介质 | |
Verucchi et al. | Real-Time clustering and LiDAR-camera fusion on embedded platforms for self-driving cars | |
Nguyen et al. | Compensating background for noise due to camera vibration in uncalibrated-camera-based vehicle speed measurement system | |
Aradhya | Object detection and tracking using deep learning and artificial intelligence for video surveillance applications | |
CN111340855A (zh) | 一种基于轨迹预测的道路移动目标检测方法 | |
US20210110168A1 (en) | Object tracking method and apparatus | |
CN115049700A (zh) | 一种目标检测方法及装置 | |
CN104615986A (zh) | 利用多检测器对场景变化的视频图像进行行人检测的方法 | |
CN109934096B (zh) | 基于特征时序相关性的自动驾驶视觉感知优化方法 | |
CN115204044A (zh) | 轨迹预测模型的生成以及轨迹信息处理方法、设备及介质 | |
CN112115810A (zh) | 基于信息融合的目标识别方法、系统、计算机设备和存储介质 | |
EP4250245A1 (en) | System and method for determining a viewpoint of a traffic camera | |
Dhatbale et al. | Deep learning techniques for vehicle trajectory extraction in mixed traffic | |
Prokaj et al. | Using 3d scene structure to improve tracking | |
CN107247967B (zh) | 一种基于r-cnn的车窗年检标检测方法 | |
Par et al. | Real-time traffic sign recognition with map fusion on multicore/many-core architectures | |
US20220171975A1 (en) | Method for Determining a Semantic Free Space | |
CN112069997B (zh) | 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置 | |
CN113658222A (zh) | 一种车辆检测跟踪方法及装置 | |
CN113591735A (zh) | 一种基于深度学习的行人检测方法及系统 | |
CN111951328A (zh) | 一种物体位置检测方法、装置、设备和存储介质 | |
CN109063543B (zh) | 一种考虑局部形变的视频车辆重识别方法、系统及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201222 |