CN111523439A - 一种基于深度学习的目标检测的方法、系统、设备及介质 - Google Patents
一种基于深度学习的目标检测的方法、系统、设备及介质 Download PDFInfo
- Publication number
- CN111523439A CN111523439A CN202010314444.8A CN202010314444A CN111523439A CN 111523439 A CN111523439 A CN 111523439A CN 202010314444 A CN202010314444 A CN 202010314444A CN 111523439 A CN111523439 A CN 111523439A
- Authority
- CN
- China
- Prior art keywords
- convolution
- image
- layer
- detection
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 84
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000013135 deep learning Methods 0.000 title claims abstract description 28
- 238000001914 filtration Methods 0.000 claims abstract description 31
- 238000010586 diagram Methods 0.000 claims abstract description 21
- 238000004364 calculation method Methods 0.000 claims abstract description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 abstract description 2
- 238000004422 calculation algorithm Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 6
- 230000004927 fusion Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的目标检测的方法、系统、设备和存储介质,方法包括以下步骤:读取待检测图像,对图像进行分割;依次提取分割后的各个图像第一卷积层和第二卷积层的特征,并将第一卷积层和第二卷积层的特征进行融合以得到特征图;将先验框分布到各层特征图上,并基于检测卷积对不含目标的先验框进行滤除,对剩余先验框进行卷积计算以确定目标的位置和类别;以及将确定的位置变换回图像的位置,并在图像中标示目标的类别。本发明提出的基于深度学习的目标检测的方法、系统、设备及介质通过检测卷积,在目标较为稀疏的情况下,可以大大提升检测速度。
Description
技术领域
本发明涉及图像识别领域,更具体地,特别是指一种基于深度学习的目标检测的方法、系统、计算机设备及可读介质。
背景技术
遥感图像目标检测是利用目标检测算法检测遥感图像中的特定目标的技术,遥感图像目标检测在军事目标智能识别,遥感影像解析以及民用航空等领域具有广阔的应用前景。对于遥感图像,研究内容包括通过检测油罐预估石油储备、通过检测车辆预估商业收益、以及路网提取、农作物检测、图像检索等等。
当前,遥感图像的目标检测存在以下难点和问题:
1.尺度多样性:卫星遥感图像从几百米到近万米的拍摄高度都有,且地面目标即使是同类目标也大小不一,如港口的轮船大的有300多米,小的只有数十米。
2.视角特殊性:遥感图像的视角基本都是高空俯视,但常规数据集大部分还是地面水平视角,所以,在常规数据集上训练的很好的检测器,使用在遥感图像上效果很差。
3.小目标问题:遥感图像的目标很多都是小目标,弱目标(几十个甚至几个像素),这就导致目标信息量不大,对于一个24*24的小目标经过4层pooling后只有约1个像素,维度过低难以区分出来;
4.多方向问题:遥感图像采用俯视拍摄,目标的方向都是不确定的(而常规数据集上往往有一定的确定性,如行人、车辆基本都是立着的),目标检测器需要对方向具有鲁棒性。
5.背景复杂度高:遥感图像视野比较大(通常有数十平方公里的覆盖范围),视野中可能包含各种各样的背景,会对目标检测产生较强的干扰。
基于深度学习的目标检测器通常分为两类:one stage算法和two stage算法。其中one stage算法(SSD,YOLO)具有检测速度快的优势,但是检测精度较差。Two stage算法(R-CNN,Faster R-CNN)检测效果较好,但是需要耗费更长的时间来完成检测。尽管YOLO和SSD算法具有较快的运算速度,但是应用于嵌入式平台上还是存在运算速度慢的问题。
发明内容
有鉴于此,本发明实施例的目的在于提出一种基于深度学习的目标检测的方法、系统、计算机设备及计算机可读存储介质,通过使用深度可分卷积和深度可分反卷积取代普通卷积来减少计算量,加速计算速度;使用网络融合、图像金字塔结构等方法提高检测的精度;使用focal loss损失函数来训练网络,进一步提升网络的检测性能;使用检测卷积,在目标较为稀疏的情况下,可以大大提升检测速度。
基于上述目的,本发明实施例的一方面提供了一种基于深度学习的目标检测的方法,包括如下步骤:读取待检测图像,对所述图像进行分割;依次提取分割后的各个图像第一卷积层和第二卷积层的特征,并将所述第一卷积层和所述第二卷积层的特征进行融合以得到特征图;将先验框分布到各层特征图上,并基于检测卷积对不含目标的先验框进行滤除,对剩余先验框进行卷积计算以确定目标的位置和类别;以及将确定的位置变换回所述图像的位置,并在所述图像中标示目标的类别。
在一些实施方式中,所述基于检测卷积对不含目标的先验框进行滤除包括:输入特征图,判断所述特征图的卷积是否小于阈值;以及响应于所述特征图的卷积小于阈值,将所述特征图对应的先验框进行滤除。
在一些实施方式中,所述将所述第一卷积层和所述第二卷积层的特征进行融合以得到特征图包括:将所述第一卷积层的语义信息和所述第二卷积层的空间信息进行融合。
在一些实施方式中,所述将所述第一卷积层和所述第二卷积层的特征进行融合以得到特征图包括:基于图像金字塔结构创建多尺度的特征金字塔,并基于所述特征金字塔通过深度可分反卷积进行特征的上采样。
在一些实施方式中,还包括:基于所述检测卷积对不属于对应卷积层的尺度的先验框进行滤除。
在一些实施方式中,所述基于所述检测卷积对不属于对应卷积层的尺度的先验框进行滤除包括:基于所述检测卷积确定每个卷积层对应的先验框的基本尺度;以及滤除当前卷积层中大于所述基本尺度的先验框。
本发明实施例的另一方面,还提供了一种基于深度学习的目标检测的系统,包括:读取模块,配置用于读取待检测图像,对所述图像进行分割;特征模块,配置用于依次提取分割后的各个图像第一卷积层和第二卷积层的特征,并将所述第一卷积层和所述第二卷积层的特征进行融合以得到特征图;执行模块,配置用于将先验框分布到各层特征图上,并基于检测卷积对不含目标的先验框进行滤除,对剩余先验框进行卷积计算以确定目标的位置和类别;以及转换模块,配置用于将确定的位置变换回所述图像的位置,并在所述图像中标示目标的类别。
在一些实施方式中,所述执行模块还配置用于:输入特征图,判断所述特征图的卷积是否小于阈值;以及响应于所述特征图的卷积小于阈值,将所述特征图对应的先验框进行滤除。
本发明实施例的又一方面,还提供了一种计算机设备,包括:至少一个处理器;以及存储器,所述存储器存储有可在所述处理器上运行的计算机指令,所述指令由所述处理器执行时实现如上方法的步骤。
本发明实施例的再一方面,还提供了一种计算机可读存储介质,计算机可读存储介质存储有被处理器执行时实现如上方法步骤的计算机程序。
本发明具有以下有益技术效果:通过使用深度可分卷积和深度可分反卷积取代普通卷积来减少计算量,加速计算速度;使用网络融合、图像金字塔结构等方法提高检测的精度;使用focal loss损失函数来训练网络,进一步提升网络的检测性能;使用检测卷积,在目标较为稀疏的情况下,可以大大提升检测速度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明提供的基于深度学习的目标检测的方法的实施例的示意图;
图2为两个卷积层进行特征融合的示意图;
图3为检测卷积作用于网络特征和先验框的示意图;
图4为不同尺度的特征图和先验框的示意图;
图5为本发明提供的基于深度学习的目标检测的方法的整体架构示意图;
图6为本发明提供的基于深度学习的目标检测的计算机设备的实施例的硬件结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
基于上述目的,本发明实施例的第一个方面,提出了一种基于深度学习的目标检测的方法的实施例。图1示出的是本发明提供的基于深度学习的目标检测的方法的实施例的示意图。如图1所示,本发明实施例包括如下步骤:
S1、读取待检测图像,并对图像进行分割;
S2、依次提取分割后的各个图像第一卷积层和第二卷积层的特征,并将第一卷积层和第二卷积层的特征进行融合以得到特征图;
S3、将先验框分布到各层特征图上,并基于检测卷积对不含目标的先验框进行滤除,对剩余先验框进行卷积计算以确定目标的位置和类别;以及
S4、将确定的位置变换回图像的位置,并在图像中标示目标的类别。
读取图像,并对图像进行分割。例如读取一张遥感图像,并将图像按320*320尺寸进行裁剪,且允许裁剪图像之间有部分重叠。本实施例中采用MobileNet-V3骨架网络,MobileNet-V3是一种轻量级分类网络模型,较MobileNet-V2有25%的检测速度提升。MobileNet-V3包含两个模型:MobileNet-V3 Large和MobileNet-V3 Small。由于MobileNet-V3 Small的分类准确率较低,会影响到检测的精度,因此本实施例仅使用MobileNet-V3 Large作为骨架网络。此外,图像的输入应该与网络自身结构相匹配,一个小的骨架网络使用很大的图像尺寸输入或者一个大型骨架网络使用很小尺寸的输入都不是最优的,因此,本发明使用320*320像素的输入图像。由于MobileNet-V3的最后几层用于分类,在检测中可以删除,本算法使用到的MobileNet-V3 Large的网络结构如表1所示。将320*320尺寸的图像进行预处理,再导入骨架网络中进行处理。
表1 MobileNet-V Large网络结构
依次提取分割后的各个遥感图像第一卷积层和第二卷积层的特征,并将第一卷积层和第二卷积层的特征进行融合以得到特征图。在骨架网络中,前面层的特征图具有丰富的空间信息但语义信息少,随着网络层数的和深度的增加,特征表征能力增强,语义信息越来越丰富。对于轻量级网络,第一个用于检测特征图过于靠前,会严重影响到检测结果,因此可以将第一卷积层和第二卷积层的特征进行融合。
在有些实施例中,将所述第一卷积层和所述第二卷积层的特征进行融合以得到特征图包括:将所述第一卷积层的语义信息和所述第二卷积层的空间信息进行融合。例如,可以将C3_3层和C4_3层的特征进行融合,充分利用C4_3层的语义信息和C3_3层的空间信息。图2示出的是两个卷积层进行特征融合的示意图。如图2所示,1*1conv表示1*1的卷积,128表示通道的数目,upsample表示上采样,通过将C3_3层和C4_3层的通道数和像素保持一致,从而将C3_3层和C4_3层进行特征融合。
在一些实施方式中,所述将所述第一卷积层和所述第二卷积层的特征进行融合以得到特征图包括:基于图像金字塔结构创建多尺度的特征金字塔,并基于所述特征金字塔通过深度可分反卷积进行特征的上采样。为了获得更好的检测结果,使用图像金字塔结构FPN(Feature Pyramid Network)来构造一个多尺度的特征金字塔,用于多尺度的目标检测。在FPN中,设计一个深度可分反卷积(depthwise dconv)来进行特征的上采样,它相比常规反卷积可大大减少计算量,其中dconv2d为dwise conv2d的反卷积。
将先验框分布到各层特征图上,并基于检测卷积对不含目标的先验框进行滤除,对剩余先验框进行卷积计算以确定目标的位置和类别。在一些实施方式中,所述基于检测卷积对不含目标的先验框进行滤除包括:输入特征图,判断所述特征图的卷积是否小于阈值;以及响应于所述特征图的卷积小于阈值,将所述特征图对应的先验框进行滤除。
图3示出了检测卷积作用于网络特征和先验框的示意图。检测卷积(masked conv)是一种特殊的1*1卷积,该层卷积的输入为某个尺度的特征图,输出为0~1的判断结果,当该层卷积的输出大于等于0.9时,表明该特征图的该位置含有目标的先验框(positivebox),继续作用于后续卷积层用于判别目标的位置和类别。若输出小于0.9,则判读该位置不含有目标,不做后续的卷积计算,因此若目标较为稀疏时,可以节省掉后续大量的不必要的卷积运算,通过实验证明,一般目标的数量只占到整张图的10%,因此,该masked conv可以节省掉后续90%的计算量。图3中的负先验框即表示需要滤除的先验框。该卷积还可以让前面的卷积层只进行小物体的检测,后面的卷积层进行大物体的检测,具体的,图3中不同卷积层的正先验框可以检测不同尺寸的物体。
将确定的位置变换回图像的位置,并在图像中标示目标的类别。将先验框密集分布在各层特征图上,对先验框的位置进行回归,并判断该框内目标的类别,例如为目标类还是背景类,完成目标检测。再将确定的位置转换到原遥感图像上,为了便于用户读取,可以将目标的类别标示在遥感图像中。
在一些实施方式中,还包括:基于所述检测卷积对不属于对应卷积层的尺度的先验框进行滤除。图4示出的是不同尺度的特征图和先验框的示意图,左边为8*8的特征图,右边为4*4的特征图,8*8的特征图可以划分更多的单元,但是其每个单元的先验框尺度比较小,大的(8*8)特征图可以用来检测比较小的目标,小的(4*4)特征图可以用来检测比较大的目标。本实施例可以使用{16,32,64,128,256}尺度的先验框分别作用在不同特征图上,对于每个尺度的先验框使用{1,2,3,1/2,1/3}横纵比(宽高比)来生成5种先验框。尺度为16,横纵比为1的先验框为:16*16像素的方框。检测卷积可以让前面的卷积层(例如C0-C3)只进行小物体的检测,后面的卷积层(例如C4-C5)进行大物体的检测,即滤除掉不属于该尺度的先验框,这更符合检测网络的运行规律,进一步提升检测的精度和检测速度。
本发明使用轻量级网络mobilenet-v3作为骨架网络,该网络较VGG、ResNet网络有很高的速度提升,较mobilenet-v1和mobilenet-v2网络有较高的识别精度的提升;在网络的检测部分,使用基于depthwise卷积的反卷积结构,来代替普通的反卷积,提升了检测速度;并设计增加了一个masked卷积,在目标较为稀疏的情况下,可以大大提升检测速度。
图5示出的是本发明提供的基于深度学习的目标检测的方法的整体架构示意图。如图5所示,在Mobilnet-v3骨架网络中,将320*320像素的图像输入第一卷积层(C3),经过第一卷积层的处理再传输到第二卷积层(C4),经过第二卷积层的处理再传输到下一个卷积层。另外,基于图像金字塔结构创建多尺度的特征金字塔,并基于所述特征金字塔通过深度可分反卷积进行特征的上采样。如图5所示,为了描述的简便,将C3、C4和C5对应的FPN金字塔结构分别称为J3、J4和J5。从J5到J4再到J3通过深度可分反卷积(depthwise dconv)来自下而上进行上采样。然后通过检测卷积分别对每一层进行检测,然后可以进行分类或回归。
需要特别指出的是,上述基于深度学习的目标检测的方法的各个实施例中的各个步骤均可以相互交叉、替换、增加、删减,因此,这些合理的排列组合变换之于基于深度学习的目标检测的方法也应当属于本发明的保护范围,并且不应将本发明的保护范围局限在实施例之上。
基于上述目的,本发明实施例的第二个方面,提出了一种基于深度学习的目标检测的系统,包括:读取模块,配置用于读取待检测图像,对所述图像进行分割;特征模块,配置用于依次提取分割后的各个图像第一卷积层和第二卷积层的特征,并将所述第一卷积层和所述第二卷积层的特征进行融合以得到特征图;执行模块,配置用于将先验框分布到各层特征图上,并基于检测卷积对不含目标的先验框进行滤除,对剩余先验框进行卷积计算以确定目标的位置和类别;以及转换模块,配置用于将确定的位置变换回所述图像的位置,并在所述图像中标示目标的类别。
在一些实施方式中,所述执行模块还配置用于:输入特征图,判断所述特征图的卷积是否小于阈值;以及响应于所述特征图的卷积小于阈值,将所述特征图对应的先验框进行滤除。
在一些实施方式中,所述特征模块还配置用于:将所述第一卷积层的语义信息和所述第二卷积层的空间信息进行融合。
在一些实施方式中,所述特征模块还配置用于:基于图像金字塔结构创建多尺度的特征金字塔,并基于所述特征金字塔通过深度可分反卷积进行特征的上采样。
在一些实施方式中,还包括:滤除模块,配置用于基于所述检测卷积对不属于对应卷积层的尺度的先验框进行滤除。
在一些实施方式中,滤除模块还配置用于:基于所述检测卷积确定每个卷积层对应的先验框的基本尺度;以及滤除当前卷积层中大于所述基本尺度的先验框。
基于上述目的,本发明实施例的第三个方面,提出了一种计算机设备,包括:至少一个处理器;以及存储器,存储器存储有可在处理器上运行的计算机指令,指令由处理器执行以实现如下步骤:S1、读取待检测图像,对图像进行分割;S2、依次提取分割后的各个图像第一卷积层和第二卷积层的特征,并将第一卷积层和第二卷积层的特征进行融合以得到特征图;S3、将先验框分布到各层特征图上,并基于检测卷积对不含目标的先验框进行滤除,对剩余先验框进行卷积计算以确定目标的位置和类别;以及S4、将确定的位置变换回图像的位置,并在图像中标示目标的类别。
在一些实施方式中,所述基于检测卷积对不含目标的先验框进行滤除包括:输入特征图,判断所述特征图的卷积是否小于阈值;以及响应于所述特征图的卷积小于阈值,将所述特征图对应的先验框进行滤除。
在一些实施方式中,所述将所述第一卷积层和所述第二卷积层的特征进行融合以得到特征图包括:将所述第一卷积层的语义信息和所述第二卷积层的空间信息进行融合。
在一些实施方式中,所述将所述第一卷积层和所述第二卷积层的特征进行融合以得到特征图包括:基于图像金字塔结构创建多尺度的特征金字塔,并基于所述特征金字塔通过深度可分反卷积进行特征的上采样。
在一些实施方式中,还包括:基于所述检测卷积对不属于对应卷积层的尺度的先验框进行滤除。
在一些实施方式中,所述基于所述检测卷积对不属于对应卷积层的尺度的先验框进行滤除包括:基于所述检测卷积确定每个卷积层对应的先验框的基本尺度;以及滤除当前卷积层中大于所述基本尺度的先验框。
如图6所示,为本发明提供的上述基于深度学习的目标检测的计算机设备的一个实施例的硬件结构示意图。
以如图6所示的装置为例,在该装置中包括一个处理器301以及一个存储器302,并还可以包括:输入装置303和输出装置304。
处理器301、存储器302、输入装置303和输出装置304可以通过总线或者其他方式连接,图6中以通过总线连接为例。
存储器302作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的基于深度学习的目标检测的方法对应的程序指令/模块。处理器301通过运行存储在存储器302中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例的基于深度学习的目标检测的方法。
存储器302可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据基于深度学习的目标检测的方法的使用所创建的数据等。此外,存储器302可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器302可选包括相对于处理器301远程设置的存储器,这些远程存储器可以通过网络连接至本地模块。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置303可接收输入的用户名和密码等信息。输出装置304可包括显示屏等显示设备。
一个或者多个基于深度学习的目标检测的方法对应的程序指令/模块存储在存储器302中,当被处理器301执行时,执行上述任意方法实施例中的基于深度学习的目标检测的方法。
执行上述基于深度学习的目标检测的方法的计算机设备的任何一个实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
本发明还提供了一种计算机可读存储介质,计算机可读存储介质存储有被处理器执行时执行如上方法的计算机程序。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,基于深度学习的目标检测的方法的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,程序的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
此外,根据本发明实施例公开的方法还可以被实现为由处理器执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被处理器执行时,执行本发明实施例公开的方法中限定的上述功能。
此外,上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。
此外,应该明白的是,本文的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)或快闪存储器。易失性存储器可以包括随机存取存储器(RAM),该RAM可以充当外部高速缓存存储器。作为例子而非限制性的,RAM可以以多种形式获得,比如同步RAM(DRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDRSDRAM)、增强SDRAM(ESDRAM)、同步链路DRAM(SLDRAM)、以及直接Rambus RAM(DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里功能的下列部件来实现或执行:通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP和/或任何其它这种配置。
结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的软件模块中或这两者的组合中。软件模块可以驻留在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器,使得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中,存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在ASIC中。ASIC可以驻留在用户终端中。在一个替换方案中,处理器和存储介质可以作为分立组件驻留在用户终端中。
在一个或多个示例性设计中,功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(DSL)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、DSL或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
Claims (10)
1.一种基于深度学习的目标检测的方法,其特征在于,包括以下步骤:
读取待检测图像,并对所述图像进行分割;
依次提取分割后的各个图像第一卷积层和第二卷积层的特征,并将所述第一卷积层和所述第二卷积层的特征进行融合以得到特征图;
将先验框分布到各层特征图上,并基于检测卷积对不含目标的先验框进行滤除,对剩余先验框进行卷积计算以确定目标的位置和类别;以及
将确定的位置变换回所述图像的位置,并在所述图像中标示目标的类别。
2.根据权利要求1所述的方法,其特征在于,所述基于检测卷积对不含目标的先验框进行滤除包括:
输入特征图,判断所述特征图的卷积是否小于阈值;以及
响应于所述特征图的卷积小于阈值,将所述特征图对应的先验框进行滤除。
3.根据权利要求1所述的方法,其特征在于,所述将所述第一卷积层和所述第二卷积层的特征进行融合以得到特征图包括:
将所述第一卷积层的语义信息和所述第二卷积层的空间信息进行融合。
4.根据权利要求1所述的方法,其特征在于,所述将所述第一卷积层和所述第二卷积层的特征进行融合以得到特征图包括:
基于图像金字塔结构创建多尺度的特征金字塔,并基于所述特征金字塔通过深度可分反卷积进行特征的上采样。
5.根据权利要求1所述的方法,其特征在于,还包括:
基于所述检测卷积对不属于对应卷积层的尺度的先验框进行滤除。
6.根据权利要求5所述的方法,其特征在于,所述基于所述检测卷积对不属于对应卷积层的尺度的先验框进行滤除包括:
基于所述检测卷积确定每个卷积层对应的先验框的基本尺度;以及
滤除当前卷积层中大于所述基本尺度的先验框。
7.一种基于深度学习的目标检测的系统,其特征在于,包括:
读取模块,配置用于读取待检测图像,并对所述图像进行分割;
特征模块,配置用于依次提取分割后的各个图像第一卷积层和第二卷积层的特征,并将所述第一卷积层和所述第二卷积层的特征进行融合以得到特征图;
执行模块,配置用于将先验框分布到各层特征图上,并基于检测卷积对不含目标的先验框进行滤除,对剩余先验框进行卷积计算以确定目标的位置和类别;以及
转换模块,配置用于将确定的位置变换回所述图像的位置,并在所述图像中标示目标的类别。
8.根据权利要求7所述的系统,其特征在于,所述执行模块还配置用于:
输入特征图,判断所述特征图的卷积是否小于阈值;以及
响应于所述特征图的卷积小于阈值,将所述特征图对应的先验框进行滤除。
9.一种计算机设备,其特征在于,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机指令,所述指令由所述处理器执行时实现权利要求1-4任意一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-4任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010314444.8A CN111523439B (zh) | 2020-04-21 | 2020-04-21 | 一种基于深度学习的目标检测的方法、系统、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010314444.8A CN111523439B (zh) | 2020-04-21 | 2020-04-21 | 一种基于深度学习的目标检测的方法、系统、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111523439A true CN111523439A (zh) | 2020-08-11 |
CN111523439B CN111523439B (zh) | 2022-05-17 |
Family
ID=71903345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010314444.8A Active CN111523439B (zh) | 2020-04-21 | 2020-04-21 | 一种基于深度学习的目标检测的方法、系统、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111523439B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183472A (zh) * | 2020-10-28 | 2021-01-05 | 西安交通大学 | 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法 |
CN112434618A (zh) * | 2020-11-26 | 2021-03-02 | 西安电子科技大学 | 基于稀疏前景先验的视频目标检测方法、存储介质及设备 |
CN112733671A (zh) * | 2020-12-31 | 2021-04-30 | 新大陆数字技术股份有限公司 | 行人检测方法、装置及可读存储介质 |
CN113673563A (zh) * | 2021-07-15 | 2021-11-19 | 浙江大华技术股份有限公司 | 图像分类方法、装置、电子设备、计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190067680A (ko) * | 2017-12-07 | 2019-06-17 | 한양대학교 산학협력단 | 심층 학습을 이용하는 의미적 영상 분할 방법 |
CN110414574A (zh) * | 2019-07-10 | 2019-11-05 | 厦门美图之家科技有限公司 | 一种目标检测方法、计算设备及存储介质 |
CN110503088A (zh) * | 2019-07-03 | 2019-11-26 | 平安科技(深圳)有限公司 | 基于深度学习的目标检测方法及电子装置 |
CN110852383A (zh) * | 2019-11-12 | 2020-02-28 | 复旦大学 | 基于注意力机制深度学习网络的目标检测方法及装置 |
-
2020
- 2020-04-21 CN CN202010314444.8A patent/CN111523439B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190067680A (ko) * | 2017-12-07 | 2019-06-17 | 한양대학교 산학협력단 | 심층 학습을 이용하는 의미적 영상 분할 방법 |
CN110503088A (zh) * | 2019-07-03 | 2019-11-26 | 平安科技(深圳)有限公司 | 基于深度学习的目标检测方法及电子装置 |
CN110414574A (zh) * | 2019-07-10 | 2019-11-05 | 厦门美图之家科技有限公司 | 一种目标检测方法、计算设备及存储介质 |
CN110852383A (zh) * | 2019-11-12 | 2020-02-28 | 复旦大学 | 基于注意力机制深度学习网络的目标检测方法及装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183472A (zh) * | 2020-10-28 | 2021-01-05 | 西安交通大学 | 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法 |
CN112434618A (zh) * | 2020-11-26 | 2021-03-02 | 西安电子科技大学 | 基于稀疏前景先验的视频目标检测方法、存储介质及设备 |
CN112434618B (zh) * | 2020-11-26 | 2023-06-23 | 西安电子科技大学 | 基于稀疏前景先验的视频目标检测方法、存储介质及设备 |
CN112733671A (zh) * | 2020-12-31 | 2021-04-30 | 新大陆数字技术股份有限公司 | 行人检测方法、装置及可读存储介质 |
CN113673563A (zh) * | 2021-07-15 | 2021-11-19 | 浙江大华技术股份有限公司 | 图像分类方法、装置、电子设备、计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111523439B (zh) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111523439B (zh) | 一种基于深度学习的目标检测的方法、系统、设备及介质 | |
US20220230282A1 (en) | Image processing method, image processing apparatus, electronic device and computer-readable storage medium | |
CN109086668B (zh) | 基于多尺度生成对抗网络的无人机遥感影像道路信息提取方法 | |
CN111259758B (zh) | 一种针对密集区域的两阶段遥感图像目标检测方法 | |
CN111612008B (zh) | 基于卷积网络的图像分割方法 | |
CN111754394B (zh) | 鱼眼图像中的对象检测方法、装置及存储介质 | |
CN108596108B (zh) | 基于三元组语义关系学习的航拍遥感图像变化检测方法 | |
CN110781756A (zh) | 基于遥感图像的城市道路提取方法及装置 | |
Wan et al. | A novel neural network model for traffic sign detection and recognition under extreme conditions | |
Farag | A lightweight vehicle detection and tracking technique for advanced driving assistance systems | |
CN116403127A (zh) | 一种无人机航拍图像目标检测方法、装置和存储介质 | |
CN117372898A (zh) | 一种基于改进yolov8的无人机航拍图像目标检测方法 | |
CN117893990B (zh) | 道路标志检测方法、装置和计算机设备 | |
Meng et al. | A block object detection method based on feature fusion networks for autonomous vehicles | |
Yang et al. | Vehicle counting method based on attention mechanism SSD and state detection | |
CN113378642B (zh) | 一种对农村违法占地建筑物进行检测的方法 | |
CN112785610B (zh) | 一种融合低层特征的车道线语义分割方法 | |
CN114511788A (zh) | 一种坡体裂缝识别方法、系统、设备以及存储介质 | |
CN111881914B (zh) | 一种基于自学习阈值的车牌字符分割方法及系统 | |
CN113392837A (zh) | 一种基于深度学习的车牌识别方法及装置 | |
CN114882490B (zh) | 一种基于点引导定位的无受限场景车牌检测分类方法 | |
CN111767919A (zh) | 一种多层双向特征提取与融合的目标检测方法 | |
Li et al. | A new algorithm of vehicle license plate location based on convolutional neural network | |
CN112380986B (zh) | 抗复杂街道背景干扰的车型检测方法、系统及存储介质 | |
CN113326891A (zh) | 小目标对象的检测方法、系统及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |