CN113139615A - 一种基于嵌入式设备的无人驾驶环境目标检测方法 - Google Patents
一种基于嵌入式设备的无人驾驶环境目标检测方法 Download PDFInfo
- Publication number
- CN113139615A CN113139615A CN202110502519.XA CN202110502519A CN113139615A CN 113139615 A CN113139615 A CN 113139615A CN 202110502519 A CN202110502519 A CN 202110502519A CN 113139615 A CN113139615 A CN 113139615A
- Authority
- CN
- China
- Prior art keywords
- model
- clustering
- data set
- data
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 65
- 230000006835 compression Effects 0.000 claims abstract description 9
- 238000007906 compression Methods 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 50
- 238000012549 training Methods 0.000 claims description 22
- 238000013138 pruning Methods 0.000 claims description 15
- 238000012360 testing method Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 2
- 238000009432 framing Methods 0.000 claims description 2
- 238000004519 manufacturing process Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 5
- 230000009467 reduction Effects 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000002054 transplantation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于嵌入式设备的无人驾驶环境目标检测方法,首先利用改进后的YOLOv3算法完成上述目标的识别,首先对YOLOv3的维度聚类算法K‑Means进行了改进,利用改进后的K‑Means++算法获取适应数据集的最优锚框尺度,提高聚类精度;其次,针对YOLOv3中的Darknet‑53主干网络,通过将主干网络的BN层与卷积层进行合并来缩短模型的前向推理时间;最后通过模型压缩技术实现模型参数的大幅度缩减以便在嵌入式设备上的应用,对摄像头输入的实时视频数据进行解析,并判断当前场景中的目标类别。
Description
技术领域
本方法涉及一种基于嵌入式设备的无人驾驶环境目标检测方法,属于属于无人车环境感知技术领域。
背景技术
前期有一些针对图像目标检测的方法,其核心发明点与本发明有明显的差异,以下为通过检索后比较接近的技术方案。
申请号:CN201911153078.6提供了一种适用于嵌入式设备的目标检测系统,包含嵌入式设备、服务器;运行于嵌入式设备上的目标检测逻辑由多层共享基础网络、私有基础网络和检测模块组成;共享基础网络的参数直接来自于上一层的输出;图像经共享基础网络、私有基础网络处理得到特征图,再经检测模块处理后,由结果合并模块合并输出目标检测结果。目标检测系统还包含模型在线自校准系统,嵌入式设备采集样本后不定时上传至服务器,服务器通过自动和人工的方式对样本进行标注后,训练模型,更新至嵌入式设备。目标检测系统能在嵌入式设备上取得良好的表现,并利用服务器上的大型目标检测模型完成自动标注,减轻了工作量,并更加有效率的完成模型校正。与本方法的差异点主要体现在以下三点。1)在目标检测框架中,上述方法采用的是CAFFEE框架,而本方法采用的是Pytorch框架,相对于CAFFEE框架而言,具有动态图计算的优点,在效率以及灵活性方面要优于CAFFEE框架。2)在技术方案中,采用MobileNet V2网络作为YOLOv3模型的主干网络,MobileNet V2的网络结构深度是21层,而本方法采用改进后的Darknet-53网络作为基础网络,在速度和MobileNet V2相当的前提下,检测精度优于MobileNet V2。3)在嵌入式平台的部署中,上述方法直接将检测模型部署在嵌入式设备上,参数量较大的检测模型会对嵌入式设备的计算资源造成巨大的压力,存在模型加载时间长,内存消耗大等问题,而本方法对训练得到的检测模型进行了模型的剪枝压缩工作,将压缩后的模型在嵌入式设备上进行部署使用。
CN201811372149.7公开了一种基于深度学习的RGBD图像目标识别方法,其包括以下步骤:1、利用稀疏自编码器获取RGB图像和深度图像的低维特征;2、利用卷积网络进一步提取所述RGB图像和深度图像的高维特征,将得到的高维特征做融合,得到融合特征;3、将融合后的特征送入到分类器中训练,调整参数使分类效果达到最佳,将上述调整好的网络移值到目标检测框架中,并对整个目标检测框架进行训练,将训练好的模型用于进行目标识别。利用了RGBD图像的RGB特征和深度特征,网络模型小,方便在嵌入式平台上移植。与本方法的差异点主要体现在以下三方面:1)设备选择不同,在数据输入中,上采用的是RGBD深度相机,而本方法只需要用到普通的单目相机。2)技术方案不同,上述方法的图像特征为融合特征,由RGB图像和深度图像特征组成,而本方法使用的图像特征并没有利用深度特征。在检测算法的选择上,上述方法采用的是深度学习的分类器进行模型训练,而本方法采用的是改进后的Darknet-53基础网络进行模型的训练。3)对检测模型的处理方式不同,上述方法对分类器得到的检测模型直接应用在目标识别中,而本方法采用对检测模型进行剪枝压缩,通过对模型的压缩,可以使模型更好的在嵌入式平台中应用。
CN201910114621.5涉及一种人工智能技术,提供了一种基于YOLO的图像目标识别方法、系统和存储介质,其中,方法包括:接收待检测图像;根据预设的要求调整所述待检测图像的尺寸大小,生成第一检测图像;将所述第一检测图像发送至神经网络模型中进行匹配识别,生成检测框和分类识别信息以及分类识别信息对应的分类概率值;判断所述分类概率值是否大于预设的分类概率阈值;若大于,则将所述检测框和分类识别信息作为识别的分类结果。通过本发明的技术方案,能够有效提高检测精度,降低检测时间。更多的体现在提高了识别准确率和增加了运算速度。与本方法的差异点主要体现在以下两方面:1)技术方案不同,上述方法的所用到的YOLO检测算法仅是对YOLO整体工作的应用,并没有针对YOLO中的算法细节进行改进,而本方法将YOLOv3网络结构中的卷积层以及BN层进行了合并,加快了网络前向推理的速度。本方法还对YOLOv3中的锚框尺度进行了改进,得到适用数据集的锚框尺度,提升了检测精度。2)应用设备不同,上述方法对分类器得到的检测模型直接应用在目标识别中,需要高性能计算机硬件支撑,而本方法对检测模型进行剪枝压缩,通过对模型压缩的方式使模型更好的在嵌入式平台中应用。
申请号201910967411.0公开了一种基于YOLOv3面向末端制导的热红外图像目标识别方法,包括如下步骤:获取红外数据集;制作类别标签;处理数据集;先验框聚类;训练网络;评估模型;结果处理。发明首次将YOLOv3模型应用在导弹末端制导中复杂场景下的目标检测。卷积神经网络可以很好地提取图像特征,避免了早先手工提取特征的缺点。不同于R-CNN目标检测模型在选择候选区域时所花费时间较多且算法复杂,本方法将特征提取和分类融合在一起,对红外目标检测的mAP值可以达到71.33%,检测速度达到了40帧每秒。与本方法的差异点主要体现在以下三方面:1)数据集选取不同,上述方法的数据集为红外图像数据集,而本方法采用的是单目相机拍摄的RGB三通道图片数据集。2)技术方案不同,上述方法在红外数据集上利用YOLOv3完成对目标的识别,并没有针对YOLOv3中的算法细节进行改进,而本方法将YOLOv3网络结构中的卷积层以及BN层进行了合并,加快了网络前向推理的速度。3)应用设备不同,上述方法对训练得到的检测模型直接应用在目标识别中,需要高性能计算机硬件支撑,而本方法对检测模型进行剪枝压缩,通过对模型的压缩,可以使模型更好的在嵌入式平台中应用。
发明内容
在无人驾驶技术中,环境感知技术负责感知车身周围环境,包括运动目标和静止目标等。本发明目的是利用深度学习的方法开发一个基于视觉传感器并且应用在嵌入式平台(如英伟达公司TX2设备)上的目标检测模型,实现对行人、车辆、卡车、道路标识牌以及道路红绿灯等目标的准确快速的检测。
本发明首先利用改进后的YOLOv3算法完成上述目标的识别,首先对YOLOv3的维度聚类算法K-Means进行了改进,利用改进后的K-Means++算法获取适应数据集的最优锚框尺度,提高聚类精度;其次,针对YOLOv3中的Darknet-53主干网络,通过将主干网络的BN(Batch Normalization)层与卷积层进行合并来缩短模型的前向推理时间;最后通过模型压缩技术实现模型参数的大幅度缩减以便在嵌入式设备上的应用,对摄像头输入的实时视频数据进行解析,并判断当前场景中的目标类别。其实施步骤如下:
步骤一,采集数据。
使用高分辨率的单目相机采集轿车、卡车、行人、交通标志牌以及红绿灯等视频作为原始数据。
步骤二,数据集制作,其步骤如下:
步骤2.1,将视频数据分帧为图片数据,并去除模糊的图片;
步骤2.2,对图片数据进行标注。
步骤三,数据集划分。
将标注完的数据集按照9:1的比例划分为训练集和测试集,作为训练数据集。
步骤四,最优锚框的获取。
YOLOv3中锚框尺度是在COCO数据集下,利用K-Means算法获得锚框的参数值,对预测框的初始位置进行初始化。由于COCO数据集中某些类别例如火车、猫、杯子等目标的长宽比和本文数据集相差很大,在锚框预测的过程中,使用YOLOv3原来的锚框尺度会降低目标检测的正确率。因此使用改进后的K-means++算法获取适应于数据集的最优锚框尺度,提高聚类精度,最终提高目标检测的准确率。针对本发明的数据集,利用K-Means++算法得到适用本发明数据集的9个锚框尺度,并且在聚类精度上相对于原始YOLOv3算法提高了4%,在不同聚类簇下的聚类精度对比如图3所示。
步骤五,模型训练。
使用Darknet-53网络作为基础网络,对数据集进行训练。
步骤六,合并模型的卷积层和BN层。
在YOLOv3的主干网络Darknet-53是由残差网络(Resnet)构成的,残差网络的基本组成部分由卷积层、BN层以及激活函数层三部分组成。虽然BN层在训练时起到了积极作用,然而在推理阶段中,在每个卷积层后增加BN层会导致在网络推理时多了BN层的运算,影响模型的性能,且占用了更多的内存或者显存空间。针对YOLOv3中的Darknet-53主干网络,通过将主干网络的卷积层与BN(Batch Normalization)层进行合并来缩短模型的前向推理时间。
步骤七,模型剪枝压缩。
本发明不同于应用于在高性能GPU计算机平台上进行目标检测方法,是以低成本嵌入式设备(如英伟达公司TX2设备)为应用平台,为了使检测模型可以更好的在嵌入式设备上应用,减少模型的加载时间以及对内存资源的消耗,对优化后的检测模型进行剪枝压缩,实现检测模型在保证精度的前提下,大幅度的缩减模型的参数量。
步骤八,实时目标检测。
将训练好的检测模型移植到英伟达公司TX2设备,搭载高分辨率的单目相机进行实时的目标检测。
与现有技术相比,本发明具有以下优点:
(1)使用改进后的K-means++算法对样本目标框进行聚类,获取适应于数据集的最优锚框尺度,从而提高YOLOV3算法的对检测目标的识别精度。
(2)将BN层的参数合并到卷积层中来减少计算量,提升模型推理的速度,加快目标检测速率。
(3)对训练得到的检测模型进行模型压缩,实现在保证精度的前提下,大幅度减少模型的参数量。
附图说明
图1为本方法技术方案图。
图2K-Means++算法流程图。
图3K-Means++算法在聚类精度上的提升。
图4模型剪枝的示意图。
图5剪枝算法伪代码。
图6模型微调mAP值变化。
具体实施方式
以下结合附图和实施例对本发明进行详细说明。
一种基于嵌入式设备的无人驾驶环境目标检测方法,该方法的具体实施方案如图1所示,具体内容如下:
步骤S10,使用高分辨率的单目相机对采集原始视频数据,采集的对象为无人车驾驶环境中常见的障碍物类型,分别为轿车、卡车、行人、交通标识牌、红绿灯等。
步骤S20,数据预处理。
步骤S30,数据集划分,按照9:1的比例划分为训练集和测试集。
步骤S40,编译Darknet框架,将Darknet-53网络作为训练时的基础网络。
步骤S50,使用改进后的K-Means++算法对数据集进行聚类,获取适应于数据集的最优锚框尺度。步骤S50包括以下步骤:
步骤S500,确定K值,也就是聚类最终得到的聚类数。从输入的数据点集合中随机选择一个数据点作为第一个聚类中心;
步骤S510,计算剩余样本与当前最近一个聚类中心的距离,距离值越大代表这个点被选作为聚类中心的概率越大;
步骤S520,使用轮盘法选出下一个聚类中心;
步骤S530,重复S510、S520步骤,直到选出K个聚类中心值,计算数据集中的点到被选出的聚类中心之间的距离,并将每个点划分到距离它最近的聚类中心;
步骤S540,所有数据经过第一轮的迭代获得相应的类别后,重新计算每个聚类集合的聚类中心,并将所有点的类别标记为距离最近的聚类中心的类别。
步骤S550,重复S540步骤,直至新计算出来的聚类中心和原来的聚类中心之间的距离小于设置的阈值。
步骤S60,模型训练,以Darknet-53网络为训练时的基础网络,将步骤S30中划分好的训练集作为网络输入。
步骤S70,合并卷积层和BN层,缩短模型的前向推理时间。Darknet-53网络是由残差网络(Resnet)构成的,而残差网络中的卷积计算可以通过BN计算中的权值参数、缩放因子以及方差表示,因此将卷积计算和BN计算进行合并,以减少模型参数。
步骤S80,模型剪枝压缩。主要分为三个步骤,分别为模型稀疏化训练、模型剪枝以及模型微调。步骤S80包括以下步骤:
步骤S800,在模型的稀疏化过程中引入L1正则化,不断压缩合并卷积层与BN层后的缩放因子,通过压缩使得某些通道的缩放因子趋近于0。
步骤S810,在模型剪枝的过程中,针对稀疏化后的检测模型的缩放因子,将缩放因子为0的通道直接进行裁剪,对于非0的通道缩放因子,通过制定合适的比例裁剪掉这些缩放因子对应的通道以及滤波器,模型剪枝的示意图如图4所示。
步骤S820,对裁剪后的网络结构进行进一步的调整,根据Darknet-53网络结构的特点,将残差结构作为一个基本单元结构进行修整,将裁剪后每层的滤波器个数调整为2n个。
下面给出应用本发明的实验结果。
经过将BN层于卷积层进行合并,在模型的前向推理过程中,分别采用合并前的检测模型以及合并后的检测模型做推理时间上的对比,对比结果如表1所示。以测试单张图片为例,在权值和量化参数都采用8Bit后进行测试,合并后的网络结构在前向推理的过程中,在CPU测试平台中,提升了57%,在GPU测试平台中,提升了50%。
表1:合并卷积层与BN层在推理时间上的对比
测试平台 | 合并前/秒 | 合并后/秒 |
CPU | 19 | 8 |
GPU | 0.08 | 0.04 |
通过对裁剪后的模型进行网络结构的重新修整,然后通过模型微调的方式恢复部分重要的权值,减少由于剪枝操作对模型精度的损伤,模型在微调过程中的平均精度值mAP(mean Average Precision)变化如图6所示,模型在迭代150次之后模型的平均精度mAP值为93%,相比于剪枝前模型的平均精度,剪枝后的模型平均精度mAP值虽然下降了5%,但是在模型精确度可比的情况下,模型减枝后模型参数量以及模型加载时间对比如表2所示,模型的参数量大幅缩减至原来的11.9%,在嵌入式设备(英伟达TX2)上进行测试,模型的平均加载时间缩短了4.5秒,FPS值达到了21帧/秒。这样就可以保证模型性能的情况下,最大程度的压缩了模型的参数量以及运算量,减少模型在嵌入式设备中的加载时间以及对计算单元的压力。
表2检测模型剪枝前后性能对比
Claims (4)
1.一种基于嵌入式设备的无人驾驶环境目标检测方法,其特征在于:该方法的实施步骤如下:
步骤一,采集数据;
使用高分辨率的单目相机采集轿车、卡车、行人、交通标志牌以及红绿灯视频作为原始数据;
步骤二,数据集制作,其步骤如下:
步骤2.1,将视频数据分帧为图片数据;
步骤2.2,对图片数据进行标注;
步骤三,数据集划分;
将标注完的数据集划分为训练集和测试集,作为训练数据集;
步骤四,最优锚框的获取;
YOLOv3中锚框尺度是在COCO数据集下,利用K-Means算法获得锚框的参数值,对预测框的初始位置进行初始化;使用改进后的K-means++算法获取适应于数据集的最优锚框尺度,提高聚类精度,最终提高目标检测的准确率;利用K-Means++算法得到适用数据集的9个锚框尺度;
步骤五,模型训练;
使用Darknet-53网络作为基础网络,对数据集进行训练;
步骤六,合并模型的卷积层和BN层;
在YOLOv3的主干网络Darknet-53是由残差网络构成的,残差网络的基本组成部分由卷积层、BN层以及激活函数层三部分组成;针对YOLOv3中的Darknet-53主干网络,通过将主干网络的卷积层与BN层进行合并来缩短模型的前向推理时间;
步骤七,模型剪枝压缩;
对优化后的检测模型进行剪枝压缩,实现检测模型在保证精度的前提下,大幅度的缩减模型的参数量;
步骤八,实时目标检测;
将训练好的检测模型移植到英伟达公司TX2设备,搭载高分辨率的单目相机进行实时的目标检测。
2.根据权利要求1所述的一种基于嵌入式设备的无人驾驶环境目标检测方法,其特征在于:数据集划分,按照9:1的比例划分为训练集和测试集。
3.根据权利要求1所述的一种基于嵌入式设备的无人驾驶环境目标检测方法,其特征在于:编译Darknet框架,将Darknet-53网络作为训练时的基础网络。
4.根据权利要求1所述的一种基于嵌入式设备的无人驾驶环境目标检测方法,其特征在于:使用改进后的K-Means++算法对数据集进行聚类,获取适应于数据集的最优锚框尺度;包括以下步骤:
步骤S500,确定K值,也就是聚类最终得到的聚类数;从输入的数据点集合中随机选择一个数据点作为第一个聚类中心;
步骤S510,计算剩余样本与当前最近一个聚类中心的距离,距离值越大代表这个点被选作为聚类中心的概率越大;
步骤S520,使用轮盘法选出下一个聚类中心;
步骤S530,重复S510、S520步骤,直到选出K个聚类中心值,计算数据集中的点到被选出的聚类中心之间的距离,并将每个点划分到距离它最近的聚类中心;
步骤S540,所有数据经过第一轮的迭代获得相应的类别后,重新计算每个聚类集合的聚类中心,并将所有点的类别标记为距离最近的聚类中心的类别;
步骤S550,重复S540步骤,直至新计算出来的聚类中心和原来的聚类中心之间的距离小于设置的阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110502519.XA CN113139615A (zh) | 2021-05-08 | 2021-05-08 | 一种基于嵌入式设备的无人驾驶环境目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110502519.XA CN113139615A (zh) | 2021-05-08 | 2021-05-08 | 一种基于嵌入式设备的无人驾驶环境目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113139615A true CN113139615A (zh) | 2021-07-20 |
Family
ID=76816705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110502519.XA Pending CN113139615A (zh) | 2021-05-08 | 2021-05-08 | 一种基于嵌入式设备的无人驾驶环境目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113139615A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114419473A (zh) * | 2021-11-17 | 2022-04-29 | 中国电子科技集团公司第三十八研究所 | 一种基于嵌入式设备的深度学习实时目标检测方法 |
CN116343175A (zh) * | 2023-05-24 | 2023-06-27 | 岚图汽车科技有限公司 | 行人路牌检测方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018149326A1 (zh) * | 2017-02-16 | 2018-08-23 | 阿里巴巴集团控股有限公司 | 一种自然语言问句答案的生成方法、装置及服务器 |
CN110727779A (zh) * | 2019-10-16 | 2020-01-24 | 信雅达系统工程股份有限公司 | 基于多模型融合的问答方法及系统 |
CN111401148A (zh) * | 2020-02-27 | 2020-07-10 | 江苏大学 | 一种基于改进的多级YOLOv3的道路多目标检测方法 |
WO2020181685A1 (zh) * | 2019-03-12 | 2020-09-17 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
CN112507861A (zh) * | 2020-12-04 | 2021-03-16 | 江苏科技大学 | 一种多层卷积特征融合的行人检测方法 |
-
2021
- 2021-05-08 CN CN202110502519.XA patent/CN113139615A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018149326A1 (zh) * | 2017-02-16 | 2018-08-23 | 阿里巴巴集团控股有限公司 | 一种自然语言问句答案的生成方法、装置及服务器 |
WO2020181685A1 (zh) * | 2019-03-12 | 2020-09-17 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
CN110727779A (zh) * | 2019-10-16 | 2020-01-24 | 信雅达系统工程股份有限公司 | 基于多模型融合的问答方法及系统 |
CN111401148A (zh) * | 2020-02-27 | 2020-07-10 | 江苏大学 | 一种基于改进的多级YOLOv3的道路多目标检测方法 |
CN112507861A (zh) * | 2020-12-04 | 2021-03-16 | 江苏科技大学 | 一种多层卷积特征融合的行人检测方法 |
Non-Patent Citations (1)
Title |
---|
常飞翔 等: "一种基于TX2平台的改进YOLOv3红绿灯检测算法", 汽车技术 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114419473A (zh) * | 2021-11-17 | 2022-04-29 | 中国电子科技集团公司第三十八研究所 | 一种基于嵌入式设备的深度学习实时目标检测方法 |
CN114419473B (zh) * | 2021-11-17 | 2024-04-16 | 中国电子科技集团公司第三十八研究所 | 一种基于嵌入式设备的深度学习实时目标检测方法 |
CN116343175A (zh) * | 2023-05-24 | 2023-06-27 | 岚图汽车科技有限公司 | 行人路牌检测方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106096561B (zh) | 基于图像块深度学习特征的红外行人检测方法 | |
CN107609525B (zh) | 基于剪枝策略构建卷积神经网络的遥感图像目标检测方法 | |
CN112418117B (zh) | 一种基于无人机图像的小目标检测方法 | |
Liu et al. | Research on automatic garbage detection system based on deep learning and narrowband internet of things | |
CN111339977B (zh) | 一种基于远程视频监控的小目标智能识别系统及其识别方法 | |
CN111461083A (zh) | 基于深度学习的快速车辆检测方法 | |
CN113160062B (zh) | 一种红外图像目标检测方法、装置、设备及存储介质 | |
CN113378890A (zh) | 一种基于改进YOLO v4的轻量级行人车辆检测方法 | |
CN110263712B (zh) | 一种基于区域候选的粗精行人检测方法 | |
CN111160481B (zh) | 基于深度学习的adas目标检测方法及系统 | |
CN112825192B (zh) | 基于机器学习的对象辨识系统及其方法 | |
CN111428689B (zh) | 一种多池化信息融合的人脸图像特征提取方法 | |
CN111340151A (zh) | 一种用于辅助车辆自动驾驶的天气现象识别系统和方法 | |
CN113139615A (zh) | 一种基于嵌入式设备的无人驾驶环境目标检测方法 | |
CN112183240A (zh) | 一种基于3d时间流和并行空间流的双流卷积行为识别方法 | |
CN115620393A (zh) | 一种面向自动驾驶的细粒度行人行为识别方法及系统 | |
CN113269224A (zh) | 一种场景图像分类方法、系统及存储介质 | |
CN112070010B (zh) | 一种联合多损失动态训练策略增强局部特征学习的行人重识别方法 | |
CN111723660A (zh) | 一种用于长形地面目标检测网络的检测方法 | |
CN111160100A (zh) | 一种基于样本生成的轻量级深度模型航拍车辆检测方法 | |
CN103905824A (zh) | 视频语义检索与压缩同步的摄像系统与方法 | |
CN116030396A (zh) | 一种用于视频结构化提取的精确分割方法 | |
CN112785610B (zh) | 一种融合低层特征的车道线语义分割方法 | |
CN112560799B (zh) | 基于自适应目标区域搜索和博弈的无人机智能车辆目标检测方法和应用 | |
CN116453033A (zh) | 一种视频监控场景下高精度低算量的人群密度估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210720 |
|
WD01 | Invention patent application deemed withdrawn after publication |