CN110222769B - 一种基于YOLOV3-tiny的改进目标检测方法 - Google Patents
一种基于YOLOV3-tiny的改进目标检测方法 Download PDFInfo
- Publication number
- CN110222769B CN110222769B CN201910495809.9A CN201910495809A CN110222769B CN 110222769 B CN110222769 B CN 110222769B CN 201910495809 A CN201910495809 A CN 201910495809A CN 110222769 B CN110222769 B CN 110222769B
- Authority
- CN
- China
- Prior art keywords
- data
- size
- obtaining
- convolution
- convolution kernels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于YOLOV3‑tiny的改进目标检测方法,包括以下步骤:确认要检测的目标种类;获取所有目标标注框的宽高占原图宽高的比例数据;用K‑means算法聚类出9个不同大小的锚框;搭建目标检测神经网络。本发明采用轻量化目标检测网络YOLOV3‑tiny,计算量小,能够在嵌入式硬件中进行目标检测任务并保证实时性。对于原图大小为416*416的图片,YOLOV3‑tiny网络能被检测出来的最小目标尺寸为16*16;本发明通过在原始YOLOV3‑tiny网络上增加52*52的预测尺度,理论上能被检测出来的最小目标尺寸为8*8,能够在不降低检测速度的前提下提高对小物体的检测精度。
Description
技术领域
本发明属于图像识别技术领域,具体涉及一种基于目标检测神经网络YOLOV3-tiny算法的优化方法,特别适用于在嵌入式平台等计算能力较弱的硬件上进行小目标检测任务。
背景技术
近年来,随着人工智能、深度学习技术的发展,利用卷积神经网络进行图像理解类任务逐渐代替人工提取特征制作分类器的方法。对于卷积神经网络模型,随着网络层数的增加,神经网络对图像的理解越来越丰富,目标检测识别精度越来越高,但计算量也随之增长。现阶段运算目标检测算法一般是在拥有GPU加速的服务器上运算,这种设备价格昂贵,无法在工业上被广泛采用。而一般的嵌入式平台由于计算能力有限,因此对于大型目标检测网络会出现无法计算出结果或计算耗时长的问题。YOLOV3-tiny网络是基于YOLOV3算法的一个轻量化目标检测网络,其网络层数少、参数量少,在一般的嵌入式平台上可以基本保证实时运算。但YOLOV3-tiny只在13*13和26*26这两个尺度上预测,所以面对小物体检测场景效果不佳。
发明内容
为解决现有技术存在的上述问题,本发明要设计一种面对小物体检测场景效果好的基于YOLOV3-tiny的改进目标检测方法。
为了实现上述目的,本发明的技术方案如下:一种基于YOLOV3-tiny的改进目标检测方法,包括以下步骤:
第一步,确认要检测的目标种类
确认要识别的目标数量m,则最后一层滤波器的数量为n=3*(m+5),其中“3”代表3个锚框,“5”代表检测框的中心点x坐标,中心点y坐标、宽度、高度以及置信度这5个量。收集若干张包含目标的图片,并在每张图片中标记出目标的位置,将图片和标记文件构成数据集。
第二步,获取所有目标标注框的宽高占原图宽高的比例数据
对于图片中的每个标注框,设其宽度和高度分别为w和h,对应原图宽度和高度分别为W和H。获取所有目标标注框的宽度和高度占原图宽度和高度的比例数据,即w/W和h/H,这样得到若干组数据。
第三步,用K-means算法聚类出9个不同大小的锚框
根据所有宽高的比例数据,用K-means算法聚类出9个不同大小的锚框。聚类步骤如下:
A、任意选取9组数据,作为9个聚类质心。
B、计算其余所有数据与这9组数据的交并比,对于每组数据,与这9组数据中交并比最大的那组数据属于一类,这样把数据分成了9类。其中交并比计算公式为:
式中w1、h1和w2、h2分别为两组数据的宽高占比。
C、对于分出来的9类数据,将每类数据的宽度中位数和高度中位数作为该类数据新的聚类质心。
D、转到步骤B,直到聚类质心不变。将最终得到的9个聚类质心乘416即得到9个锚框的参数。
第四步,搭建目标检测神经网络
搭建目标检测神经网络YOLOV3-tiny并在52*52的尺度上增加一个预测结果。具体网络结构如下:
输入图片为R、G和B的彩色图片,大小为416*416。
经过卷积层,使用16个大小为3*3的卷积核,步长为1,得到416*416*16的输出数据;通过核大小为2*2,步长为2的最大池化层,得到数据大小为208*208*16;
经过卷积层,使用32个大小为3*3的卷积核,步长为1,得到208*208*32的输出数据;通过核大小为2*2,步长为2的最大池化层,得到数据大小为104*104*32;
经过卷积层,使用64个大小为3*3的卷积核,步长为1,得到104*104*64的输出数据;通过核大小为2*2,步长为2的最大池化层,得到数据大小为52*52*64;
经过卷积层,使用128个大小为3*3的卷积核,步长为1,得到52*52*128的输出数据;通过核大小为2*2,步长为2的最大池化层,得到数据大小为26*26*128;
经过卷积层,使用256个大小为3*3的卷积核,步长为1,得到26*26*256的输出数据;通过核大小为2*2,步长为2的最大池化层,得到数据大小为13*13*256;
经过卷积层,使用512个大小为3*3的卷积核,步长为1,得到13*13*512的输出数据;通过核大小为2*2,步长为1的最大池化层,得到数据大小为13*13*512;最后连接一个卷积层使用1024个大小为3*3的卷积核,步长为1,得到13*13*1024的数据。
对于最终得到的13*13*1024的特征图数据,先通过卷积层,使用256个1*1大小的卷积核,得到13*13*256大小的数据;再通过卷积层,使用512个3*3大小的卷积核,最后连接一个有n个1*1大小的卷积核,得到13*13这个尺度上的预测结果,其中n由第一步计算得到。在这个尺度上使用9个锚框中面积最大的三个锚框进行预测。
对于13*13这个尺度中的13*13*256的数据,经过128个1*1卷积核的卷积层得到13*13*128大小的数据,将这个数据上采样得到26*26*128大小的数据,并与卷积层5的输出相连接,得到26*26*384大小的数据,再经过256个3*3卷积核的卷积层得到26*26*256大小的数据,最后通过n个1*1卷积核的卷积层得到26*26这个尺度上的预测结果,其中n在第一步中算出。在这个尺度上使用9个锚框中面积中等的三个锚框进行预测。
再对于26*26这个尺度上的26*26*256大小的数据,经过128个1*1卷积核得到数据大小为26*26*128,然后向上采样得到52*52*128,与卷积层4的输出结果相连接,得到52*52*256大小的数据,再通过256个3*3卷积核的卷积层得到52*52*256大小的数据,最后通过n个1*1卷积核的卷积层得到52*52这个尺度上的预测结果,其中n在第一步中算出。在这个尺度上使用9个锚框中面积最小的三个锚框进行预测。
得到13*13,26*26和52*52这三个尺度的预测结果之后使用非极大值抑制算法得到最终的检测结果。
第五步,得到训练权重文件
用第一步中获得的数据集训练第三步中搭建的目标检测神经网络,并判断训练误差,当误差长时间保持在2.0以下则停止训练,得到训练权重文件。
与现有技术相比,本发明的有益技术效果在于:
1、本发明采用轻量化目标检测网络YOLOV3-tiny,计算量小,能够在嵌入式硬件中进行目标检测任务并保证实时性。
2、就YOLOV3-tiny这个网络而言,目标检测分别在13*13和26*26这两个尺度上产生预测结果。例如原图大小为416*416,那么理论上能被检测出来的最小目标尺寸为16*16,若目标大小小于16*16则无法被检测出来。本发明通过在原始YOLOV3-tiny网络上增加52*52的预测尺度,来提高目标检测网络对小物体的检测效果,增加52*52尺度后,理论上能被检测出来的最小目标尺寸为8*8,能够在不降低检测速度的前提下提高对小物体的检测精度。
附图说明
图1是本发明的流程图。
图2是优化后的目标检测网络结构图。
具体实施方式
下面结合附图对本发明进行进一步地说明。如图1所示,一种基于YOLOV3-tiny的改进目标检测方法,包括以下步骤:
第一步,确认要检测的目标种类;
第二步,获取所有目标标注框的宽高占原图宽高的比例数据;
第三步,用K-means算法聚类出9个不同大小的锚框;
第四步,搭建如图2所示的目标检测神经网络;
第五步,得到训练权重文件。
本发明不局限于本实施例,任何在本发明披露的技术范围内的等同构思或者改变,均列为本发明的保护范围。
Claims (1)
1.一种基于YOLOV3-tiny的改进目标检测方法,其特征在于:包括以下步骤:
第一步,确认要检测的目标种类
确认要识别的目标数量m,则最后一层滤波器的数量为n=3*(m+5),其中“3”代表3个锚框,“5”代表检测框的中心点x坐标,中心点y坐标、宽度、高度以及置信度这5个量;收集若干张包含目标的图片,并在每张图片中标记出目标的位置,将图片和标记文件构成数据集;
第二步,获取所有目标标注框的宽高占原图宽高的比例数据
对于图片中的每个标注框,设其宽度和高度分别为w和h,对应原图宽度和高度分别为W和H;获取所有目标标注框的宽度和高度占原图宽度和高度的比例数据,即w/W和h/H,这样得到若干组数据;
第三步,用K-means算法聚类出9个不同大小的锚框
根据所有宽高的比例数据,用K-means算法聚类出9个不同大小的锚框;聚类步骤如下:
A、任意选取9组数据,作为9个聚类质心;
B、计算其余所有数据与这9组数据的交并比,对于每组数据,与这9组数据中交并比最大的那组数据属于一类,这样把数据分成了9类;其中交并比计算公式为:
式中w1、h1和w2、h2分别为两组数据的宽高占比;
C、对于分出来的9类数据,将每类数据的宽度中位数和高度中位数作为该类数据新的聚类质心;
D、转到步骤B,直到聚类质心不变;将最终得到的9个聚类质心乘416即得到9个锚框的参数;
第四步,搭建目标检测神经网络
搭建目标检测神经网络YOLOV3-tiny并在52*52的尺度上增加一个预测结果;具体网络结构如下:
输入图片为R、G和B的彩色图片,大小为416*416;
经过卷积层,使用16个大小为3*3的卷积核,步长为1,得到416*416*16的输出数据;通过核大小为2*2,步长为2的最大池化层,得到数据大小为208*208*16;
经过卷积层,使用32个大小为3*3的卷积核,步长为1,得到208*208*32的输出数据;通过核大小为2*2,步长为2的最大池化层,得到数据大小为104*104*32;
经过卷积层,使用64个大小为3*3的卷积核,步长为1,得到104*104*64的输出数据;通过核大小为2*2,步长为2的最大池化层,得到数据大小为52*52*64;
经过卷积层,使用128个大小为3*3的卷积核,步长为1,得到52*52*128的输出数据;通过核大小为2*2,步长为2的最大池化层,得到数据大小为26*26*128;
经过卷积层,使用256个大小为3*3的卷积核,步长为1,得到26*26*256的输出数据;通过核大小为2*2,步长为2的最大池化层,得到数据大小为13*13*256;
经过卷积层,使用512个大小为3*3的卷积核,步长为1,得到13*13*512的输出数据;通过核大小为2*2,步长为1的最大池化层,得到数据大小为13*13*512;最后连接一个卷积层使用1024个大小为3*3的卷积核,步长为1,得到13*13*1024的数据;
对于最终得到的13*13*1024的特征图数据,先通过卷积层,使用256个1*1大小的卷积核,得到13*13*256大小的数据;再通过卷积层,使用512个3*3大小的卷积核,最后连接一个有n个1*1大小的卷积核,得到13*13这个尺度上的预测结果,其中n由第一步计算得到;在这个尺度上使用9个锚框中面积最大的三个锚框进行预测;
对于13*13这个尺度中的13*13*256的数据,经过128个1*1卷积核的卷积层得到13*13*128大小的数据,将这个数据上采样得到26*26*128大小的数据,并与卷积层5的输出相连接,得到26*26*384大小的数据,再经过256个3*3卷积核的卷积层得到26*26*256大小的数据,最后通过n个1*1卷积核的卷积层得到26*26这个尺度上的预测结果,其中n在第一步中算出;在这个尺度上使用9个锚框中面积中等的三个锚框进行预测;
再对于26*26这个尺度上的26*26*256大小的数据,经过128个1*1卷积核得到数据大小为26*26*128,然后向上采样得到52*52*128,与卷积层4的输出结果相连接,得到52*52*256大小的数据,再通过256个3*3卷积核的卷积层得到52*52*256大小的数据,最后通过n个1*1卷积核的卷积层得到52*52这个尺度上的预测结果,其中n在第一步中算出;在这个尺度上使用9个锚框中面积最小的三个锚框进行预测;
得到13*13,26*26和52*52这三个尺度的预测结果之后使用非极大值抑制算法得到最终的检测结果;
第五步,得到训练权重文件
用第一步中获得的数据集训练第三步中搭建的目标检测神经网络,并判断训练误差,当误差长时间保持在2.0以下则停止训练,得到训练权重文件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910495809.9A CN110222769B (zh) | 2019-06-06 | 2019-06-06 | 一种基于YOLOV3-tiny的改进目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910495809.9A CN110222769B (zh) | 2019-06-06 | 2019-06-06 | 一种基于YOLOV3-tiny的改进目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110222769A CN110222769A (zh) | 2019-09-10 |
CN110222769B true CN110222769B (zh) | 2022-09-16 |
Family
ID=67816220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910495809.9A Active CN110222769B (zh) | 2019-06-06 | 2019-06-06 | 一种基于YOLOV3-tiny的改进目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110222769B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110689118A (zh) * | 2019-09-29 | 2020-01-14 | 华南理工大学 | 一种基于YOLO V3-tiny改进的目标检测方法 |
CN110929577A (zh) * | 2019-10-23 | 2020-03-27 | 桂林电子科技大学 | 一种基于YOLOv3的轻量级框架改进的目标识别方法 |
CN110826483A (zh) * | 2019-11-05 | 2020-02-21 | 安图实验仪器(郑州)有限公司 | 白带显微图像细胞识别方法 |
CN110826636A (zh) * | 2019-11-12 | 2020-02-21 | 吉林省民航机场集团公司 | 航空器异常检测系统及其异常检测方法 |
CN110807496B (zh) * | 2019-11-12 | 2023-06-16 | 杭州云栖智慧视通科技有限公司 | 一种密集目标检测方法 |
CN110889453A (zh) * | 2019-11-28 | 2020-03-17 | 华南理工大学 | 目标检测与追踪方法、装置、系统、介质和设备 |
CN111079604A (zh) * | 2019-12-06 | 2020-04-28 | 重庆市地理信息和遥感应用中心(重庆市测绘产品质量检验测试中心) | 面向大尺度遥感图像的微小目标快速检测方法 |
CN111461028A (zh) * | 2020-04-02 | 2020-07-28 | 杭州视在科技有限公司 | 复杂场景中的口罩检测模型训练及检测方法、介质及装置 |
CN111567331A (zh) * | 2020-05-11 | 2020-08-25 | 西南科技大学 | 一种基于深度卷积神经网络的草地垃圾自动清理机及方法 |
CN111753666B (zh) * | 2020-05-21 | 2024-01-23 | 西安科技大学 | 输电线路中小目标故障检测方法、检测系统及存储介质 |
CN111709489B (zh) * | 2020-06-24 | 2022-04-08 | 广西师范大学 | 一种基于改进YOLOv4的柑橘识别方法 |
CN115100492B (zh) * | 2022-08-26 | 2023-04-07 | 摩尔线程智能科技(北京)有限责任公司 | Yolov3网络训练、pcb表面缺陷检测方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108647742A (zh) * | 2018-05-19 | 2018-10-12 | 南京理工大学 | 基于轻量级神经网络的快速目标检测方法 |
CN109740463A (zh) * | 2018-12-21 | 2019-05-10 | 沈阳建筑大学 | 一种车载环境下的目标检测方法 |
-
2019
- 2019-06-06 CN CN201910495809.9A patent/CN110222769B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108647742A (zh) * | 2018-05-19 | 2018-10-12 | 南京理工大学 | 基于轻量级神经网络的快速目标检测方法 |
CN109740463A (zh) * | 2018-12-21 | 2019-05-10 | 沈阳建筑大学 | 一种车载环境下的目标检测方法 |
Non-Patent Citations (1)
Title |
---|
一种改进的卷积神经网络行人识别方法;陈聪等;《应用科技》;20181017(第03期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110222769A (zh) | 2019-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110222769B (zh) | 一种基于YOLOV3-tiny的改进目标检测方法 | |
CN110210621B (zh) | 一种基于残差网络改进的目标检测方法 | |
CN111626128B (zh) | 一种基于改进YOLOv3的果园环境下行人检测方法 | |
CN110135243B (zh) | 一种基于两级注意力机制的行人检测方法及系统 | |
CN109559320B (zh) | 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及系统 | |
CN111179217A (zh) | 一种基于注意力机制的遥感图像多尺度目标检测方法 | |
CN109903331B (zh) | 一种基于rgb-d相机的卷积神经网络目标检测方法 | |
CN111709310B (zh) | 一种基于深度学习的手势跟踪与识别方法 | |
CN111914795A (zh) | 一种航拍图像中旋转目标检测方法 | |
CN111461213B (zh) | 一种目标检测模型的训练方法、目标快速检测方法 | |
CN110991444B (zh) | 面向复杂场景的车牌识别方法及装置 | |
CN111127360B (zh) | 一种基于自动编码器的灰度图像迁移学习方法 | |
CN111753682B (zh) | 一种基于目标检测算法的吊装区域动态监控方法 | |
CN112699967B (zh) | 一种基于改进深度神经网络的远距离机场目标检测方法 | |
CN107992899A (zh) | 一种机场场面运动目标检测识别方法 | |
CN110827320B (zh) | 基于时序预测的目标跟踪方法和装置 | |
CN111414807A (zh) | 一种基于yolo技术的潮水识别与危机预警方法 | |
CN112800955A (zh) | 基于加权双向特征金字塔的遥感影像旋转目标检测方法及系统 | |
CN109242019A (zh) | 一种水面光学小目标快速检测与跟踪方法 | |
CN110334584A (zh) | 一种基于区域全卷积网络的手势识别方法 | |
CN105069459B (zh) | 一种针对高分辨率sar图像地物类型提取方法 | |
CN114565842A (zh) | 基于Nvidia Jetson嵌入式硬件的无人机实时目标检测方法及系统 | |
CN117437201A (zh) | 一种基于改进YOLOv7的道路裂缝检测方法 | |
CN115393635A (zh) | 一种基于超像素分割以及数据增强的红外小目标检测方法 | |
CN116824335A (zh) | 一种基于YOLOv5改进算法的火灾预警方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |