CN111860679A - 一种基于YOLO v3改进算法的车辆检测方法 - Google Patents
一种基于YOLO v3改进算法的车辆检测方法 Download PDFInfo
- Publication number
- CN111860679A CN111860679A CN202010745110.6A CN202010745110A CN111860679A CN 111860679 A CN111860679 A CN 111860679A CN 202010745110 A CN202010745110 A CN 202010745110A CN 111860679 A CN111860679 A CN 111860679A
- Authority
- CN
- China
- Prior art keywords
- frame
- clustering
- frames
- width
- height
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于YOLO v3改进算法的车辆检测方法。包括步骤:S1.采集车辆数据集,车辆数据集包含物体GT框的多幅图像I;S2.使用维度聚类方法对GT框的宽和高进行聚类,生成K个先验框的宽和高的尺寸;S3.将图像I输入到YOLO v3的骨架网络Darknet‑53中进行特征提取,输出不同尺度的特征图;S4.将K个先验框尺寸平均分配到不同尺度的特征图上进行预测并生成相应候选框;S5、根据生成的候选框,选出最终的预测框;S6、根据特征图与原图的关系,将最终的预测框映射到原图上,定位出图像中车辆信息。该方法对GT框与聚类中心的距离计算公式作出了改进,减小了公式对IoU值的敏感性,使聚类得到的先验框尺寸更符合真实值,提升了先验框质量,从而提高了YOLO v3检测方法的性能。
Description
技术领域
本发明属于图像目标检测领域,尤其涉及一种基于YOLO v3改进算法的车辆检测方法。
背景技术
目标检测是计算机视觉领域的重要组成模块。其中,车辆检测是目标检测领域的热点研究问题,在辅助驾驶、道路监控、遥感图像等方面有着重要应用。车辆检测的目标是从图片或者视频中快速检测出车辆目标及其相关特征信息。
传统的基于机器学习的车辆检测通常包括两个步骤:首先,进行特征提取,然后基于提取的特征向量,使用分类器对其进行分类。常用的特征提取方法有局部二值模式(Local Binary Pattern,LBP)、方向梯度直方图(Histogram of Oriented Gradient,HOG)、尺度不变特征转换(Scale Invariant Feature Transform,SIFT)等。常用的分类算法包括支持向量机(Support Vector Machine,SVM)、自适应增强算法(AdaptiveBoosting,AdaBoost)、决策树(Decision Tree,DT)等。这些方法依托人工设计的特定目标特征,提高了检测性能,但是在很大程度上,这些算法取决于研究者已知的经验和知识,这些经验和知识无法在复杂场景中取得较好的效果。
基于深度学习的目标检测方法使用大量数据训练的更深更复杂的网络模型对图像提取特征,所提取的特征优于传统方法中人工设计方法所提取的特征,在一定程度上解决了传统方法训练时间长,检测速度慢的问题。在车辆检测中利用基于深度学习的目标检测方法主要有两种:一种是两阶段检测方法,包括:R-CNN系列;另外一种是单阶段目标检测方法,包括:YOLO和SSD系列。相较于两阶段的方法,单阶段的目标检测方法有较快的检测速度,但是检测精度还有待加强。
如申请号为CN201910377894.9的中国专利,公开了一种构建行人检测模型的方法,该方法在进行聚类分析步骤时,距离计算的公式为d(box,centroid)=1-IoU(box,centroid),但是该公式对IoU值太敏感,因此最终得到的行人检测结果还是不够准确。
发明内容
本发明的目的是针对现有技术的缺陷,提供了一种基于YOLO v3改进算法的车辆检测方法。
为了实现以上目的,本发明采用以下技术方案:
一种基于YOLO v3改进算法的车辆检测方法,包括步骤:
S1、采集车辆数据集,车辆数据集包含物体GT框的多幅图像I,GT框为GroundTruth,物体对象为车辆,GT框数据为(c*,x*,y*,w*,h*),c*表示GT框内物体的类别,x*、y*分别表示GT框内中心点的x坐标和y坐标,w*、h*分别表示GT框的高度和宽度;
S2、使用维度聚类方法对GT框的宽和高进行聚类,生成聚类后的框宽和高尺寸;
S2.2、首先初始化K个聚类中心centroid(Wi,Hi),i∈(1,2,…,k),K为需要生成的先验框个数,Wi、Hi分别是聚类中心的宽和高;
S2.3、通过计算GT框与聚类中心的距离,把GT框划分到与之最近的一个簇中,计算GT框box与聚类中心距离d时,选用两者之间的交并比值作为距离指标,交并比值为IoU,距离计算公式为:
S2.4、所有GT框划分完毕后,对每个簇重新计算聚类中心,更新聚类中心的值(Wi,Hi),更新为当前簇中的所有GT框的宽和高的均值;
S2.5、重复S2.3和S2.4步骤,直到聚类中心改变量收敛,最终得到K个聚类中心(Wi″,Hi″),Wi″、Hi″分别表示先验框的宽和高,即得到K个先验框的宽和高的尺寸;
S3、将图像I输入到YOLO v3的骨架网络Darknet-53中进行特征提取,在Darknet-53中,经过多次卷积层进行下采样,输出不同尺度的特征图;
S4、将S2.5中得到的K个先验框尺寸平均分配到S3中的不同尺度的特征图上,每个尺度的特征图预测一定量的先验框,并生成相应的候选框;
S5、根据S4中生成的候选框,选出最终的预测框;
S6、根据特征图与原图的关系,将S5选出的最终的预测框映射到原图上,定位出图像中车辆信息。
作为优选方案,S2.3中通过控制映射函数中γ的取值可以确定d的范围。
作为优选方案,S5中,采用回归的方式对S4中生成的候选框进行类别、置信度的预测,将置信度大于一定阈值的框设定为预测框,然后根据每个预测框的得分,使用非极大抑制算法选出最终的预测框。
作为优选方案,S3中,卷积层的步长为2,并输出大、中、小3种不同尺度的特征图。
作为优选方案,S4中,对于小尺度的特征图,通过进一步卷积之后直接得到后续候选框信息。
作为优选方案,S4中,对于中尺度的特征图,首先将小尺度输出的特征图进行上采样,然后再与此中尺度特征图相加,相加之后再通过多个卷积输出后续候选框信息。
作为优选方案,S4中,对于大尺度的特征图,首先将中尺度输出的特征图进行上采样,然后再与此大尺度特征图相加,相加之后再通过多个卷积输出后续候选框信息。
作为优选方案,S2.2中聚类中心的个数K=9。
作为优选方案,S2.3中映射函数的收缩率γ=2000。
本发明与现有技术相比,有益效果是:在计算维度聚类时,对计算GT框与聚类中心距离d的公式进行了改进,减小了距离公式对IoU值的敏感性,使得聚类得到的先验框尺寸更加符合真实值,通过提升先验框的质量,提高了YOLO v3检测方法的性能,使得最终检测结果更加准确。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是一种基于YOLO v3改进算法的车辆检测方法的流程示意图;
图2是维度聚类过程中d值与参数γ的变化关系图;
图3是UA-DETRAC数据集下的车辆检测效果图;
图4是UA-DETRAC数据集下的车辆检测结果图。
具体实施方式
以下通过特定的具体实施例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
本实施例提供了一种基于YOLO v3改进算法的车辆检测方法,参照图1,该图像为该方法的流程示意图,参照图3,该图像为UA-DETRAC车辆检测数据集图像,该图像是由拍摄于北京和天津的道路过街天桥的真实道路车辆图像组成,对该图像按照本发明方法的流程图进行处理,以详细说明本发明所述方法对于提高检测精度的效果。
具体步骤如下:
S1、采集车辆数据集,车辆数据集包含物体GT框的多幅图像I,GT框为GroundTruth,物体对象为车辆,GT框数据为(c*,x*,y*,w*,h*),c*表示GT框内物体的类别,x*、y*分别表示GT框内中心点的x坐标和y坐标,w*、h*分别表示GT框的高度和宽度。
S2、使用维度聚类方法对GT框的宽和高进行聚类,生成聚类后的框宽和高尺寸。
S2.2、首先初始化K个聚类中心centroid(Wi,Hi),i∈(1,2,…,k),K为需要生成的先验框个数,本实施例以K=9为例,Wi、Hi分别是聚类中心的宽和高。
S2.3、通过计算GT框与聚类中心的距离,把GT框划分到与之最近的一个簇中,计算GT框box与聚类中心距离d时,选用两者之间的交并比值(Intersection over Union,IoU)作为距离指标,交并比值为IoU,距离计算公式为:
S2.4、所有GT框划分完毕后,对每个簇重新计算聚类中心,更新聚类中心的值(Wi,Hi),更新为当前簇中的所有GT框的宽和高的均值,计算方式为Ni是第i个簇的GT框个数,Wi′、Hi′分别表示更新后聚类中心宽和高的值。
S2.5、重复S2.3和S2.4步骤,直到聚类中心改变量收敛,最终得到9个聚类中心(Wi″,Hi″),Wi″、Hi″分别表示先验框的宽和高,即得到9个先验框的宽和高的尺寸,分别为(7,11),(11,15),(15,20),(19,29),(26,23),(36,31),(26,44),(45,52),(66,84)。
步骤S2.3中,d值与参数γ的变化关系图如图2所示,可知运用上述距离计算公式计算距离时,d对于IoU值的变化较不敏感,使得聚类得到的先验框尺寸更加符合真实值,通过提升先验框的质量,提高了YOLO v3检测方法的性能。
S3、将图像I输入到YOLO v3的骨架网络Darknet-53中进行特征提取,在Darknet-53中,经过多次步长为2的卷积层进行下采样,得到大、中、小三种尺度的特征图,分别为13×13、26×26以及52×52。
S4、将S2.5中得到的9个先验框尺寸平均分配到S3中的三种尺度的特征图上,每个尺度的特征图预测3个先验框,并生成相应的候选框;
并且,小尺度13×13的特征图预测(26,44)、(45,52)、(66,84)这3个大尺寸的先验框,中尺度26×26的特征图预测(19,29),(26,23),(36,31)这三个中尺寸的先验框,大尺度52×52的特征图预测(7,11),(11,15),(15,20)这三个小尺寸的先验框;
其中,对于13×13尺度的特征图,通过进一步卷积之后直接得到后续候选框信息。对于26×26尺度的特征图,首先将13×13尺度输出的特征图进行上采样,然后再与26×26尺度特征图相加,相加之后再通过多个卷积输出后续候选框信息。对于52×52尺度的特征图,首先将26×26尺度输出的特征图进行上采样,然后再与52×52尺度特征图相加,相加之后再通过多个卷积输出后续候选框信息。
S5、根据S4中生成的候选框,选出最终的预测框,其中预测框的具体选取方法为:采用回归的方式对S4中生成的候选框进行类别、置信度的预测,将置信度大于一定阈值的框设定为预测框,然后根据每个预测框的得分,使用非极大抑制算法(Non-MaximumSuppression,NMS)选出最终的预测框。
S6、根据特征图与原图的关系,将S5选出的最终的预测框映射到原图上,定位出图像中车辆信息。
本实施例中,采用416×416尺寸的图像输入,因此对应的三个检测尺度为13×13尺度,26×26尺度和52×52尺度,每个检测尺度分配三个先验框,预测种类数为1,则输出的维度为3×(1+4+1)=18。实验编程环境为Python 3.7,深度学习框架为TensorFlow,并使用CUDA并行计算加快网络训练速度。训练共进行20000次迭代,批量大小设置为2,采用滑动平均估计局部变量的平均值,衰减率设置为0.9995。实验设置的初始学习率为10-4,在训练过程中调节参数优化训练,在网络迭代10000次后学习率降低至10-6。
为了验证方法的性能,在UA-DETRAC车辆检测数据集上进行了实验。实验结果表明,本实验方法的平均检测精度达到93.13%,实验结果如图3、4所示。
以上所述的实施例仅仅是对本发明的优选实施方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案作出的各种变形和改进,均应落入本发明的保护范围内。
Claims (10)
1.一种基于YOLO v3改进算法的车辆检测方法,其特征在于,包括步骤:
S1、采集车辆数据集,车辆数据集包含物体GT框的多幅图像I,GT框为Ground Truth,物体对象为车辆,GT框数据为(c*,x*,y*,w*,h*),c*表示GT框内物体的类别,x*、y*分别表示GT框内中心点的x坐标和y坐标,w*、h*分别表示GT框的高度和宽度;
S2、使用维度聚类方法对GT框的宽和高进行聚类,生成聚类后的框宽和高尺寸;
S2.2、首先初始化K个聚类中心centroid(Wi,Hi),i∈(1,2,…,k),K为需要生成的先验框个数,Wi、Hi分别是聚类中心的宽和高;
S2.3、通过计算GT框与聚类中心的距离,把GT框划分到与之最近的一个簇中,计算GT框box与聚类中心距离d时,选用两者之间的交并比值作为距离指标,交并比值为IoU,距离计算公式为:
S2.4、所有GT框划分完毕后,对每个簇重新计算聚类中心,更新聚类中心的值(Wi,Hi),更新为当前簇中的所有GT框的宽和高的均值;
S2.5、重复S2.3和S2.4步骤,直到聚类中心改变量收敛,最终得到K个聚类中心(Wi″,Hi″),Wi″、Hi″分别表示先验框的宽和高,即得到K个先验框的宽和高的尺寸;
S3、将图像I输入到YOLO v3的骨架网络Darknet-53中进行特征提取,在Darknet-53中,经过多次卷积层进行下采样,输出不同尺度的特征图;
S4、将S2.5中得到的K个先验框尺寸平均分配到S3中的不同尺度的特征图上,每个尺度的特征图预测一定量的先验框,并生成相应的候选框;
S5、根据S4中生成的候选框,选出最终的预测框;
S6、根据特征图与原图的关系,将S5选出的最终的预测框映射到原图上,定位出图像中车辆信息。
2.根据权利要求1所述的一种基于YOLO v3改进算法的车辆检测方法,其特征在于,S2.3中通过控制映射函数中γ的取值可以确定d的范围。
4.根据权利要求1所述的一种基于YOLO v3改进算法的车辆检测方法,其特征在于,S5中,采用回归的方式对S4中生成的候选框进行类别、置信度的预测,将置信度大于一定阈值的框设定为预测框,然后根据每个预测框的得分,使用非极大抑制算法选出最终的预测框。
5.根据权利要求1所述的一种基于YOLO v3改进算法的车辆检测方法,其特征在于,S3中,卷积层的步长为2,并输出大、中、小3种不同尺度的特征图。
6.根据权利要求5所述的一种基于YOLO v3改进算法的车辆检测方法,其特征在于,S4中,对于小尺度的特征图,通过进一步卷积之后直接得到后续候选框信息。
7.根据权利要求6所述的一种基于YOLO v3改进算法的车辆检测方法,其特征在于,S4中,对于中尺度的特征图,首先将小尺度输出的特征图进行上采样,然后再与此中尺度特征图相加,相加之后再通过多个卷积输出后续候选框信息。
8.根据权利要求7所述的一种基于YOLO v3改进算法的车辆检测方法,其特征在于,S4中,对于大尺度的特征图,首先将中尺度输出的特征图进行上采样,然后再与此大尺度特征图相加,相加之后再通过多个卷积输出后续候选框信息。
9.根据权利要求1所述的一种基于YOLO v3改进算法的车辆检测方法,其特征在于,S2.2中聚类中心的个数K=9。
10.根据权利要求1所述的一种基于YOLO v3改进算法的车辆检测方法,其特征在于,S2.3中映射函数的收缩率γ=2000。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010745110.6A CN111860679B (zh) | 2020-07-29 | 2020-07-29 | 一种基于YOLO v3改进算法的车辆检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010745110.6A CN111860679B (zh) | 2020-07-29 | 2020-07-29 | 一种基于YOLO v3改进算法的车辆检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111860679A true CN111860679A (zh) | 2020-10-30 |
CN111860679B CN111860679B (zh) | 2022-04-26 |
Family
ID=72945251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010745110.6A Active CN111860679B (zh) | 2020-07-29 | 2020-07-29 | 一种基于YOLO v3改进算法的车辆检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111860679B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113192040A (zh) * | 2021-05-10 | 2021-07-30 | 浙江理工大学 | 一种基于YOLO v4改进算法的织物瑕疵检测方法 |
CN113255481A (zh) * | 2021-05-11 | 2021-08-13 | 北方工业大学 | 一种基于无人巡逻车的人群状态检测方法 |
CN113688706A (zh) * | 2021-08-16 | 2021-11-23 | 南京信息工程大学 | 一种车辆检测方法、装置、设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109325418A (zh) * | 2018-08-23 | 2019-02-12 | 华南理工大学 | 基于改进YOLOv3的道路交通环境下行人识别方法 |
CN109815886A (zh) * | 2019-01-21 | 2019-05-28 | 南京邮电大学 | 一种基于改进YOLOv3的行人和车辆检测方法及系统 |
CN110070074A (zh) * | 2019-05-07 | 2019-07-30 | 安徽工业大学 | 一种构建行人检测模型的方法 |
KR102030628B1 (ko) * | 2019-04-04 | 2019-10-10 | (주)아이엠시티 | Cnn 기반 차량 번호판 인식 방법 및 시스템 |
CN110399884A (zh) * | 2019-07-10 | 2019-11-01 | 浙江理工大学 | 一种特征融合自适应锚框模型车辆检测方法 |
CN110796168A (zh) * | 2019-09-26 | 2020-02-14 | 江苏大学 | 一种基于改进YOLOv3的车辆检测方法 |
US20200082165A1 (en) * | 2016-12-16 | 2020-03-12 | Peking University Shenzhen Graduate School | Collaborative deep network model method for pedestrian detection |
CN110909800A (zh) * | 2019-11-26 | 2020-03-24 | 浙江理工大学 | 一种基于Faster R-CNN改进算法的车辆检测方法 |
US20200160110A1 (en) * | 2018-10-13 | 2020-05-21 | Applied Research, LLC | Method and System for Object Tracking and Recognition Using Low Power Compressive Sensing Camera in Real-Time Applications |
-
2020
- 2020-07-29 CN CN202010745110.6A patent/CN111860679B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200082165A1 (en) * | 2016-12-16 | 2020-03-12 | Peking University Shenzhen Graduate School | Collaborative deep network model method for pedestrian detection |
CN109325418A (zh) * | 2018-08-23 | 2019-02-12 | 华南理工大学 | 基于改进YOLOv3的道路交通环境下行人识别方法 |
US20200160110A1 (en) * | 2018-10-13 | 2020-05-21 | Applied Research, LLC | Method and System for Object Tracking and Recognition Using Low Power Compressive Sensing Camera in Real-Time Applications |
CN109815886A (zh) * | 2019-01-21 | 2019-05-28 | 南京邮电大学 | 一种基于改进YOLOv3的行人和车辆检测方法及系统 |
KR102030628B1 (ko) * | 2019-04-04 | 2019-10-10 | (주)아이엠시티 | Cnn 기반 차량 번호판 인식 방법 및 시스템 |
CN110070074A (zh) * | 2019-05-07 | 2019-07-30 | 安徽工业大学 | 一种构建行人检测模型的方法 |
CN110399884A (zh) * | 2019-07-10 | 2019-11-01 | 浙江理工大学 | 一种特征融合自适应锚框模型车辆检测方法 |
CN110796168A (zh) * | 2019-09-26 | 2020-02-14 | 江苏大学 | 一种基于改进YOLOv3的车辆检测方法 |
CN110909800A (zh) * | 2019-11-26 | 2020-03-24 | 浙江理工大学 | 一种基于Faster R-CNN改进算法的车辆检测方法 |
Non-Patent Citations (2)
Title |
---|
JOSEPH REDMON ET AL.: "YOLOv3: An Incremental Improvement", 《ARXIV》 * |
王国文: "多尺度特征融合改进YOLOv3网络的行人和车辆检测", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113192040A (zh) * | 2021-05-10 | 2021-07-30 | 浙江理工大学 | 一种基于YOLO v4改进算法的织物瑕疵检测方法 |
CN113192040B (zh) * | 2021-05-10 | 2023-09-22 | 浙江理工大学 | 一种基于YOLO v4改进算法的织物瑕疵检测方法 |
CN113255481A (zh) * | 2021-05-11 | 2021-08-13 | 北方工业大学 | 一种基于无人巡逻车的人群状态检测方法 |
CN113255481B (zh) * | 2021-05-11 | 2023-05-23 | 北方工业大学 | 一种基于无人巡逻车的人群状态检测方法 |
CN113688706A (zh) * | 2021-08-16 | 2021-11-23 | 南京信息工程大学 | 一种车辆检测方法、装置、设备及存储介质 |
CN113688706B (zh) * | 2021-08-16 | 2023-12-05 | 南京信息工程大学 | 一种车辆检测方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111860679B (zh) | 2022-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111027493B (zh) | 一种基于深度学习多网络软融合的行人检测方法 | |
CN110619369B (zh) | 基于特征金字塔与全局平均池化的细粒度图像分类方法 | |
CN111860679B (zh) | 一种基于YOLO v3改进算法的车辆检测方法 | |
CN110909800B (zh) | 一种基于Faster R-CNN改进算法的车辆检测方法 | |
CN107169421B (zh) | 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法 | |
CN110414377B (zh) | 一种基于尺度注意力网络的遥感图像场景分类方法 | |
CN111191583B (zh) | 基于卷积神经网络的空间目标识别系统及方法 | |
CN111753828B (zh) | 一种基于深度卷积神经网络的自然场景水平文字检测方法 | |
CN109671070B (zh) | 一种基于特征加权和特征相关性融合的目标检测方法 | |
CN108830196A (zh) | 基于特征金字塔网络的行人检测方法 | |
CN109583483A (zh) | 一种基于卷积神经网络的目标检测方法和系统 | |
CN112016463A (zh) | 一种基于深度学习的车道线检测方法 | |
CN111986126B (zh) | 一种基于改进vgg16网络的多目标检测方法 | |
US11223782B2 (en) | Video processing using a spectral decomposition layer | |
CN114998595B (zh) | 弱监督语义分割方法、语义分割方法及可读存储介质 | |
CN110689044A (zh) | 一种结合目标间关系的目标检测方法及系统 | |
CN114359631A (zh) | 基于编码-译码弱监督网络模型的目标分类与定位方法 | |
CN112613450A (zh) | 一种增强在困难样本上表现的3d目标检测方法 | |
CN108846845B (zh) | 基于缩略图与分层模糊聚类的sar图像分割方法 | |
CN114550134A (zh) | 基于深度学习的交通标志检测与识别方法 | |
CN113205026B (zh) | 一种基于Faster RCNN深度学习网络改进的车型识别方法 | |
CN113902965A (zh) | 一种基于多层特征融合的多光谱行人检测方法 | |
CN111738237B (zh) | 一种基于异构卷积的多核迭代rpn的目标检测方法 | |
CN113627481A (zh) | 一种面向智慧园林的多模型组合的无人机垃圾分类方法 | |
CN112132145A (zh) | 一种基于模型扩展卷积神经网络的图像分类方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |