CN109101914B - 一种基于多尺度的行人检测方法和装置 - Google Patents
一种基于多尺度的行人检测方法和装置 Download PDFInfo
- Publication number
- CN109101914B CN109101914B CN201810862611.5A CN201810862611A CN109101914B CN 109101914 B CN109101914 B CN 109101914B CN 201810862611 A CN201810862611 A CN 201810862611A CN 109101914 B CN109101914 B CN 109101914B
- Authority
- CN
- China
- Prior art keywords
- feature
- convolution
- image
- convolution unit
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供一种基于多尺度的行人检测方法和装置,其中所述方法包括:将待检测图像输入至特征提取模型,输出图像特征集合;特征提取模型为基于Resnet网络建立的包括多层串联的卷积单元的神经网络,对应地,图像特征集合由多层串联的卷积单元中每一卷积单元输出的图像特征构成;将图像特征集合输入至特征融合模型,输出融合特征;将融合特征输入至特征回归分类模型,输出融合特征的回归结果和分类结果,基于回归结果和分类结果得到行人检测结果。本发明实施例提供的方法和装置,在实现多尺度行人检测的同时,简化了特征提取模型,增加了行人检测的灵活性,减少了计算开销,避免了过多的资源占用,提高了多尺度行人检测的准确率。
Description
技术领域
本发明实施例涉及计算机视觉技术领域,尤其涉及一种基于多尺度的行人检测方法和装置。
背景技术
行人检测可定义为:判断输入图片(或视频帧)是否包含行人,如果有,给出位置信息。行人检测是计算机视觉领域的一个研究热点,是车辆辅助驾驶、智能视频监控和人体行为分析等应用中的第一步,近年来也应用在航拍图像、受害者营救等新兴领域中。
现实场景中,由于监控设备的高度、拍摄角度、行人与监控设备距离变化等因素,监控设备拍摄到的行人的大小各异,尺寸跨度很大,这给行人检测带来了困难。目前,针对图像中行人尺寸多变的问题,主要有一下两种策略:其一是应用单一模型针对多尺度图像和特征图进行行人检测,一般具有较好的精度,但是计算开销大,主要代表为RCNN,将输入的目标区域全都缩放到同一尺寸计算卷积特征。其二是应用多个模型,其中每一模型针对单一图像尺寸和特征图进行行人检测,避免重复计算特征,但是对每个尺度生成一个检测器,较为复杂。
发明内容
本发明实施例提供一种基于多尺度的行人检测方法和装置,用以解决现有的针对多尺度的行人检测方法存在计算开销大或操作复杂的问题。
一方面,本发明实施例提供一种基于多尺度的行人检测方法,包括:
将待检测图像输入至特征提取模型,输出图像特征集合;特征提取模型为基于Resnet网络建立的包括多层串联的卷积单元的神经网络,对应地,图像特征集合由多层串联的卷积单元中每一卷积单元输出的图像特征构成;
将图像特征集合输入至特征融合模型,输出融合特征;
将融合特征输入至特征回归分类模型,输出融合特征的回归结果和分类结果,基于融合特征的回归结果和分类结果得到待检测图像的行人检测结果;其中,特征提取模型、特征融合模型和特征回归分类模型是基于样本图像和样本图像对应的样本行人检测结果进行训练后得到的。
另一方面,本发明实施例提供一种基于多尺度的行人检测装置,包括:
特征提取模块,用于将待检测图像输入至特征提取模型,输出图像特征集合;特征提取模型为基于Resnet网络建立的包括多层串联的卷积单元的神经网络,对应地,图像特征集合由多层串联的卷积单元中每一卷积单元输出的图像特征构成;
特征回归分类模块,用于将图像特征集合输入至特征回归分类模型,输出待检测图像的行人检测结果;其中,特征提取模型和特征回归分类模型是基于样本图像和样本图像对应的样本行人检测结果进行训练后得到的。
又一方面,本发明实施例提供一种基于多尺度的行人检测设备,包括处理器、通信接口、存储器和总线,其中,处理器,通信接口,存储器通过总线完成相互间的通信,处理器可以调用存储器中的逻辑指令,以执行如前所述的基于多尺度的行人检测方法。
再一方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如前所述的基于多尺度的行人检测方法。
本发明实施例提供的一种基于多尺度的行人检测方法和装置,通过特征提取模型提取多层级的图像特征,以适应多尺度的行人检测需求。同时基于Resnet网络,保护图像特征的完整性,从而在实现多尺度的行人检测的同时,简化了特征提取模型,增加了行人检测的灵活性,减少了计算开销,避免了过多的资源占用,提高了多尺度行人检测的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的一种基于多尺度的行人检测方法的流程示意图;
图2为现有技术中的两层Resnet网络的结构示意图;
图3为本发明实施例的一种特征提取模型的结构示意图;
图4为本发明实施例的一种特征提取模型的结构示意图;
图5为本发明实施例的一种特征融合模型的结构示意图;
图6为本发明实施例的一种基于多尺度的行人检测装置的结构示意图;
图7为本发明实施例的一种基于多尺度的行人检测设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
现实场景中,由于监控设备的高度、拍摄角度、行人与监控设备距离变化等因素,监控设备拍摄到的行人的大小各异,尺寸跨度很大,这给行人检测带来了困难。而现有的多尺度解决方案存在计算开销大或操作复杂的问题,为了解决这一问题,本发明实施例提出了一种能够适应多尺度的行人检测方法,图1为本发明实施例的一种基于多尺度的行人检测方法的流程示意图,如图1所示,所述方法包括:
101,将待检测图像输入至特征提取模型,输出图像特征集合;特征提取模型为基于Resnet网络建立的包括多层串联的卷积单元的神经网络,对应地,图像特征集合由多层串联的卷积单元中每一卷积单元输出的图像特征构成。
在执行上述步骤之前,可以先获取待检测图像。此处,待检测图像可以是任意需要进行行人检测的图像,例如监控设备拍摄的图像、从监控设备拍摄的视频中提取的视频帧,本发明实施例对此不作具体限定。
其中,Resnet网络(Residual Network)即残差网络,图2为现有技术中的两层Resnet网络的结构示意图,如图2所示,Resnet网络能够直接将输入信息绕道到输出,保护信息的完整性,加深网络,减缓因网络层数不断加深导致在训练集上误差增大、梯度弥散的问题。基于Resnet网络建立的特征提取模型中,首层卷积单元的输入为待检测图像,此外每层卷积单元的输入为上层卷积单元输出的图像特征,通过从特征提取模型中的不同层的卷积单元来获取图像特征,能够得到适应进行不同尺度的行人检测的图像特征。例如,低层的卷积单元输出的图像特征,具备更小的感受野,更加适合进行小目标的检测,而高层的卷积单元输出的图像特征,则对于大目标的检测更加准确。需要说明的是,特征提取模型中的卷积单元的数量可以根据实际应用需求确定,本发明实施例中对此不作具体限定。
例如,图3为本发明实施例的一种特征提取模型的结构示意图,如图3所示,基于Resnet网络建立的包括4层卷积单元的特征提取模型,对应地,图像特征集合包括卷积单元1输出的图像特征1、卷积单元2输出的图像特征2、卷积单元3输出的图像特征3和卷积单元4输出的图像特征4。
102,将图像特征集合输入至特征融合模型,输出融合特征。
此处,特征融合模型用于将图像特征集合中每一卷积单元输出的图像特征进行融合,得到适用于多尺度的图像特征,即融合特征。
103,将融合特征输入至特征回归分类模型,输出融合特征的回归结果和分类结果,基于融合特征的回归结果和分类结果得到待检测图像的行人检测结果。
具体地,将融合特征输入到特征回归分类模型,特征回归分类模型基于融合特征对待检测图像进行行人检测,输出行人检测结果,特征回归分类模型可以是单一神经网络模型,也可以是多个神经网络模型的组合,本发明实施例不对特征回归分类模型的类型和结构作具体限定。
此处,融合特征的回归结果用于指示待检测图像中行人的位置信息,融合特征的分类结果用于指示待检测图像中对应位置信息为行人或背景的概率。基于融合特征的回归结果和分类结果,可以得到待检测图像的行人检测结果。
其中,特征提取模型、特征融合模型和特征回归分类模型是基于样本图像和样本图像对应的样本行人检测结果进行训练后得到的。
在执行上述步骤之前,还可预先训练得到特征提取模型、特征融合模型和特征回归分类模型,具体可通过如下方式训练得到特征提取模型、特征融合模型和特征回归分类模型:首先,收集大量样本图像,针对每一样本图像,标记该样本图像的样本行人检测结果。随后,基于样本图像和样本图像对应的样本行人检测结果对初始特征提取模型、初始特征融合模型和初始特征回归分类模型进行训练,从而得到特征提取模型、特征融合模型和特征回归分类模型。
本发明实施例提供的方法,通过特征提取模型提取多层级的图像特征,以适应多尺度的行人检测需求。同时基于Resnet网络,保护图像特征的完整性,从而在实现多尺度的行人检测的同时,简化了特征提取模型,增加了行人检测的灵活性,减少了计算开销,避免了过多的资源占用,提高了多尺度行人检测的准确率。
特征融合模型特征融合模型基于上述任一实施例,一种基于多尺度的行人检测方法,101,将待检测图像输入至特征提取模型,输出图像特征集合,具体包括:
针对任一卷积单元,对该卷积单元的上层卷积单元输出的图像特征进行降采样和卷积,得到该卷积单元的卷积特征;将该卷积单元的卷积特征与上层卷积单元输出的图像特征相加,作为该卷积单元输出的图像特征。
此处,卷积单元包括降采样和卷积两部分,降采样是降低特定信号的采样率的过程,通常用于降低数据传输速率或者数据大小,本发明实施例中用于对图片进行缩小以获取较低分辨率的图片,每经过一次降采样,图像的尺度降一杯,即长宽变为原来的一半。
图4为本发明实施例的一种特征提取模型的结构示意图,如图4所示的基于Resnet网络建立的包含4层卷积单元的特征提取模型,卷积单元1对待检测图像进行降采样和卷积,得到卷积单元1的卷积特征1,并将卷积特征1与待检测图像相加,作为卷积单元1输出的图像特征1,此处的图像特征1为4倍特征。在此基础上,卷积单元2对4倍特征进行降采样和卷积,得到卷积特征2,并将卷积特征2与4倍特征相加,作为卷积单元2输出的图像特征2,此处的图像特征2为8倍特征。卷积单元3对8倍特征进行降采样和卷积,得到卷积特征3,并将卷积特征3与8倍特征相加,作为卷积单元3输出的图像特征3,此处的图像特征3为16倍特征。卷积单元4对16倍特征进行降采样和卷积,得到卷积特征4,并将卷积特征4与16倍特征相加,作为卷积单元4输出的图像特征4,此处的图像特征4为32倍特征。
基于上述任一实施例,一种基于多尺度的行人检测方法,102,将图像特征集合输入至特征融合模型,输出融合特征,具体包括:
1)将图像特征集合中任一卷积单元输出的图像特征进行归一化计算,得到该卷积单元的归一化特征。
此处,对每一卷积单元输出的图像特征进行归一化,是为了规避不同层的卷积单元输出的图像特征数值分布不同的问题。常用的归一化方法包括线性比例变换法、极差变换法和0均值标准化方法等,本发明实施例对此不作具体限定。
作为优选,本发明实施例应用图像特征的L2模值进行归一化。其计算流程如下:
其中,x是任一图像特征的全部像素点组成的向量,分母‖x‖2为图像特征的L2模值,定义为:
2)针对任一卷积单元,将该卷积单元的下层卷积单元对应的通道拼接特征进行反卷积后与该卷积单元的归一化特征进行通道拼接,得到该卷积单元对应的通道拼接特征。
当给定一张待检测图像,并输入至特征提取模型得到特征提取模型中每一层卷积单元输出的图像特征。由于特征提取模型是分层级的,包含有补偿大于1的卷积层和池化层,导致图形特征的空间尺度会随着层数的增加而下降,不同层级的图像特征分辨率也不同。反卷积是卷积的逆向操作,用于扩大图像的尺度,此处,对通道拼接特征进行反卷积是为了对分辨率低的高层图像特征进行上采样计算,以使得在进行各层图像特征融合的同时,能够保持较高的分辨率。
3)将顶层卷积单元对应的通道拼接特征卷积后进行池化,得到融合特征。
此处,顶层卷积单元是指特征提取模块中将待检测图像作为输入的卷积单元,顶层卷积单元对应的通道拼接特征包含了每层卷积单元输出的多尺度图像特征,对顶层卷积单元对应的通道拼接特征进行卷积可以从通道拼接特征中获取更多的语义信息,并对通道拼接特征进行压缩,降低在后续分类中不需要的特征权重。随后进行池化,对通道拼接特征进行降维,获取最终的融合特征。
例如,图5为本发明实施例的一种特征融合模型的结构示意图,如图5所示,由图4示出的特征提取模块输出的图像特征集合包括3个层级的图像特征,分别为卷积单元1、2、3和4的输出,对应4倍特征、8倍特征、16倍特征和32倍特征。分别对4倍特征、8倍特征、16倍特征和32倍特征进行L2归一化,将卷积单元4输出的32倍特征的归一化特征反卷积后,与卷积单元3输出的16倍特征的归一化特征进行通道拼接,得到卷积单元3对应的通道拼接特征。将卷积单元3对应的通道拼接特征反卷积后,与卷积单元2输出的8倍特征的归一化特征进行通道拼接,得到卷积单元2对应的通道拼接特征。将卷积单元2对应的通道拼接特征反卷积后,与卷积单元1输出的4倍特征的归一化特征进行通道拼接,得到卷积单元1对应的通道拼接特征,即顶层卷积单元对应的通道拼接特征。
随后,将卷积单元1对应的通道拼接特征进行卷积、池化,得到融合特征。此处的池化为ROI池化。
基于上述任一实施例,一种基于多尺度的行人检测方法,特征回归分类模型包括卷积层、回归连接层和分类全连接层。
对应地,103,将融合特征输入至特征回归分类模型,输出融合特征的回归结果和分类结果,基于融合特征的回归结果和分类结果得到待检测图像的行人检测结果,具体包括:将融合特征输入至特征回归分类模型的卷积层,输出卷积融合特征;将卷积融合特征输入至特征回归分类模型的回归全连接层,输出回归结果,将卷积融合特征输入至特征回归分类模型的分类全连接层,输出分类结果,基于回归结果和分类结果得到待检测图像的行人检测结果。此处,回归全连接层用于对输入的卷积融合特征进行回归,分类全连接层用于对输入的卷积融合特征进行分类。
基于上述任一实施例,一种基于多尺度的行人检测方法,101,将待检测图像输入至特征提取模型,输出图像特征集合,之前还包括:基于样本图像和样本图像对应的样本行人检测结果训练特征提取模型、特征融合模型和特征回归分类模型,直至损失函数满足预设条件;其中,损失函数包括特征图像特征集合中每一图像特征的特征损失函数。
具体地,每一图像特征的特征损失函数Lf(X|W)如下:
其中,X为全部训练样本,W为当前模型的权重参数,f为从特征提取模型中分出来的一个RPN层级,每一RPN层级对应一个卷积单元,Xf为所有与层级f的经检测框匹配上的真实框样本,Nf为匹配到层级f的样本个数,lf(x)为一个样本在一个RPN层级中的损失值,它的定义如下。
为一个样本在层级f的分类结果损失值,该损失函数为一般分类任务中使用的softmax损失函数,为一个样本的候选区域框的回归结果的损失值,该损失函数为Fast R-CNN中提出的smooth L1损失函数如下所示:
基于上述任一实施例,一种基于多尺度的行人检测方法,样本图像和样本图像对应的样本行人检测结果是基于Caltech行人数据集获取的。
Caltech行人检测数据集是由安装在车辆的驾驶室中的后视镜上的摄像机进行录像得到的视频数据集,由驾驶员在美国的日常马路上驾驶汽车摄制得到,因而Caltech行人检测数据集中的行人数据特点非常真实而有代表性。对Caltech行人检测数据集中的行人尺寸进行统计可以发现,数据集中的行人高度呈正态分布,分布在16到128像素,具有中位值48像素和log均值50像素。对于分辨率为640*480的图像来说,高度50像素、宽度20像素的是比较小的。尤其在最近普遍应用的基于深度学习、卷积神经网络的行人检测方法中,池化层会对特征图进行降采样来减小宽高尺度。对于如图4所示的ResNet网络的特征提取模型,该模型最终对输入的待检测图像进行了32倍的降采样,如果不加改动直接使用最终输出的32倍特征完成行人检测的话,20*50像素的行人在最后尺寸为20*15像素的特征图中只占2个像素,对于要求达到的检测目标来说是不够的。因此,在本发明实施例中,基于图4的特征提取模型,获取了每层卷积单元的输出,并进行融合,基于融合特征进行目标检测。
基于上述任一实施例,一种基于多尺度的行人检测方法,参考图5所示的特征融合模型的结构示意图,可知在特征提取模型包括四层串联的卷积单元的情况下,顶层卷积单元输出的图像特征为4倍特征,第二层卷积单元输出的图像特征为8倍特征,第三层卷积单元输出的图像特征为16倍特征,第四层卷积单元输出的图像特征为32倍特征。
对应地,将顶层卷积单元对应的通道拼接特征卷积后进行池化,得到融合特征,具体包括:
1)针对顶层卷积单元对应的通道拼接特征中对应顶层卷积单元、第二层卷积单元和第三层卷积单元分别输出的图像特征的特征,分别通过两种尺度的卷积核进行卷积,得到6个候选区域;针对所述顶层卷积单元对应的通道拼接特征中对应第四层卷积单元输出的图像特征的特征,通过单一尺度的卷积核进行卷积,得到1个候选区域。
具体地,针对顶层卷积单元(图4中的卷积单元1)对应的通道拼接特征中对应顶层卷积单元输出的图像特征的特征,通过两种尺度的卷积核进行卷积,得到两个候选区域。同理,针对顶层卷积单元对应的通道拼接特征中对应第二层卷积单元(图4中的卷积单元2)输出的图像特征的特征,通过两种尺度的卷积核进行卷积,得到两个候选区域。针对顶层卷积单元对应的通道拼接特征中对应第三层卷积单元(图4中的卷积单元3)输出的图像特征的特征,通过两种尺度的卷积核进行卷积,得到两个候选区域,即针对顶层卷积单元对应的通道拼接特征中对应顶层卷积单元、第二层卷积单元和第三层卷积单元分别输出的图像特征的特征,进行两种尺度的卷积,共得到6个候选区域。例如,此处的两种尺度的卷积核分别为3*5和5*7。
针对顶层卷积单元对应的通道拼接特征中对应第四层卷积单元(即底层卷积单元,图4中的卷积单元4)输出的图像特征的特征,由于第四层卷积单元的感受最大,选用单一尺度的卷积核进行卷积,得到1个候选区域。例如,此处单一尺度的卷积核为3*5。
2)将6个候选区域和1个候选区域反卷积后进行ROI pooling,得到融合特征。此处,对共7个候选区域进行反卷积后,达到统一尺度(即4倍特征)。
为了更好地理解与应用本发明提出的一种基于多尺度的行人检测方法,本发明进行以下示例,且本发明不仅局限于以下示例。
在对特征提取模型和特征回归分类模型进行训练时,基于图4所示的特征提取模型,特征提取模型选择Resnet50,分别提取4个RPN层,基于图5所示的特征融合模型,在对顶层卷积单元对应的通道拼接特征进行卷积时,对应4个卷积单元,RPN1-3层前级卷积采用两种尺度,此处选择3*5与5*7的卷积核,RPN4层的感受最大,选择3*5卷积核,以适应不同尺度的行人,由此产生7个不同尺度的图像特征。每一RPN层级均单独返回一个损失值以进行参数调整,以期达到较好的图像特征提取效果。随后,通过反卷积后达到统一尺度(4倍特征)进行融合,然后进行ROI pooling,在通过全连接层进行分类和回归,提升识别准确率。此处,分类结果为两类,分类得分大于等于0.5则确认行人检出,分类得分小于0.5则确认为背景类。
基于上述任一方法实施例,图6为本发明实施例的一种基于多尺度的行人检测装置的结构示意图,如图6所示,一种基于多尺度的行人检测装置,包括:
特征提取模块601,用于将待检测图像输入至特征提取模型,输出图像特征集合;特征提取模型为基于Resnet网络建立的包括多层串联的卷积单元的神经网络,对应地,图像特征集合由多层串联的卷积单元中每一卷积单元输出的图像特征构成;
特征融合模块602,用于将图像特征集合输入至特征融合模型,输出融合特征;
特征回归分类模块603,用于将融合特征输入至特征回归分类模型,输出融合特征的回归结果和分类结果,基于融合特征的回归结果和分类结果得到待检测图像的行人检测结果;
其中,特征提取模型、特征融合模型和特征回归分类模型是基于样本图像和样本图像对应的样本行人检测结果进行训练后得到的。
需要说明的是,上述特征提取模块601、特征融合模块602和特征回归分类模块603配合以执行上述实施例中的一种基于多尺度的行人检测方法,该系统的具体功能参见上述的基于多尺度的行人检测方法的实施例,此处不再赘述。
本发明实施例提供的装置,通过特征提取模型提取多层级的图像特征,以适应多尺度的行人检测需求。同时基于Resnet网络,保护图像特征的完整性,从而在实现多尺度的行人检测的同时,简化了特征提取模型,增加了行人检测的灵活性,减少了计算开销,避免了过多的资源占用,提高了多尺度行人检测的准确率。
基于上述任一实施例,一种基于多尺度的行人检测装置,特征提取模块601具体用于:
针对任一所述卷积单元,对该卷积单元的上层卷积单元输出的图像特征进行降采样和卷积,得到该卷积单元的卷积特征;
将该卷积单元的卷积特征与上层卷积单元输出的图像特征相加,作为该卷积单元输出的图像特征。
基于上述任一实施例,一种基于多尺度的行人检测装置,特征融合模块,具体用于:
将图像特征集合中任一卷积单元输出的图像特征进行归一化计算,得到该卷积单元的归一化特征;
针对任一卷积单元,将该卷积单元的下层卷积单元对应的通道拼接特征进行反卷积后与该卷积单元的归一化特征进行通道拼接,得到该卷积单元对应的通道拼接特征;
将顶层卷积单元对应的通道拼接特征卷积后进行池化,得到所述融合特征。
基于上述任一实施例,一种基于多尺度的行人检测装置,特征回归分类模块包括卷积层、回归全连接层和分类全连接层;
对应地,特征回归分类模块具体用于:
将融合特征输入至特征回归分类模型的卷积层,输出卷积融合特征;
将所述卷积融合特征输入至特征回归分类模型的回归全连接层,输出回归结果,将卷积融合特征输入至特征回归分类模型的分类全连接层,输出分类结果,基于回归结果和分类结果得到待检测图像的行人检测结果。
基于上述任一实施例,一种基于多尺度的行人检测装置,还包括:
训练模块,用于基于样本图像和样本图像对应的样本行人检测结果训练特征提取模型、特征融合模型和特征回归分类模型,直至损失函数满足预设条件;其中,损失函数包括特征图像特征集合中每一图像特征的特征损失函数。
基于上述任一实施例,一种基于多尺度的行人检测装置,样本图像和样本图像对应的样本行人检测结果是基于Caltech行人数据集获取的。
基于上述任一实施例,一种基于多尺度的行人检测装置,特征提取模型为基于Resnet网络建立的包括四层串联的卷积单元的卷积神经网络;
对应地,顶层卷积单元输出的图像特征为4倍特征,第二层卷积单元输出的图像特征为8倍特征,第三层卷积单元输出的图像特征为16倍特征,第四层卷积单元输出的图像特征为32倍特征,图像特征集合由4倍特征、8倍特征、16倍特征和32倍特征构成。
基于上述任一实施例,一种基于多尺度的行人检测装置,将顶层卷积单元对应的通道拼接特征卷积后进行池化,得到融合特征,具体包括:
针对顶层卷积单元对应的通道拼接特征中对应顶层卷积单元、第二层卷积单元和第三层卷积单元分别输出的图像特征的特征,分别通过两种尺度的卷积核进行卷积,得到6个候选区域;
针对顶层卷积单元对应的通道拼接特征中对应第四层卷积单元输出的图像特征的特征,通过单一尺度的卷积核进行卷积,得到1个候选区域;
将6个候选区域和1个候选区域反卷积后进行ROI pooling,得到融合特征。
图7为本发明实施例的一种基于多尺度的行人检测设备的结构示意图,如图7所示,基于多尺度的行人检测设备包括:处理器(processor)701、通信接口(CommunicationsInterface)702、存储器(memory)703和总线704,其中,处理器701,通信接口702,存储器703通过总线704完成相互间的通信。处理器701可以调用存储器703中的逻辑指令,以执行如下方法,例如包括:将待检测图像输入至特征提取模型,输出图像特征集合;特征提取模型为基于Resnet网络建立的包括多层串联的卷积单元的神经网络,对应地,图像特征集合由多层串联的卷积单元中每一卷积单元输出的图像特征构成;将图像特征集合输入至特征融合模型,输出融合特征;将融合特征输入至特征回归分类模型,输出融合特征的回归结果和分类结果,基于融合特征的回归结果和分类结果得到待检测图像的行人检测结果;其中,特征提取模型、特征融合模型和特征回归分类模型是基于样本图像和样本图像对应的样本行人检测结果进行训练后得到的。
本发明实施例公开一种计算机程序产品,计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的方法,例如包括:将待检测图像输入至特征提取模型,输出图像特征集合;特征提取模型为基于Resnet网络建立的包括多层串联的卷积单元的神经网络,对应地,图像特征集合由多层串联的卷积单元中每一卷积单元输出的图像特征构成;将图像特征集合输入至特征融合模型,输出融合特征;将融合特征输入至特征回归分类模型,输出融合特征的回归结果和分类结果,基于融合特征的回归结果和分类结果得到待检测图像的行人检测结果;其中,特征提取模型、特征融合模型和特征回归分类模型是基于样本图像和样本图像对应的样本行人检测结果进行训练后得到的。
本实施例提供一种非暂态计算机可读存储介质,非暂态计算机可读存储介质存储计算机指令,计算机指令使计算机执行上述各方法实施例所提供的方法,例如包括:将待检测图像输入至特征提取模型,输出图像特征集合;特征提取模型为基于Resnet网络建立的包括多层串联的卷积单元的神经网络,对应地,图像特征集合由多层串联的卷积单元中每一卷积单元输出的图像特征构成;将图像特征集合输入至特征融合模型,输出融合特征;将融合特征输入至特征回归分类模型,输出融合特征的回归结果和分类结果,基于融合特征的回归结果和分类结果得到待检测图像的行人检测结果;其中,特征提取模型和特征回归分类模型是基于样本图像和样本图像对应的样本行人检测结果进行训练后得到的。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所描述的通信设备等实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分的方法。
最后应说明的是:以上各实施例仅用以说明本发明的实施例的技术方案,而非对其限制;尽管参照前述各实施例对本发明的实施例进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明的实施例各实施例技术方案的范围。
Claims (7)
1.一种基于多尺度的行人检测方法,其特征在于,包括:
将待检测图像输入至特征提取模型,输出图像特征集合;所述特征提取模型为基于Resnet网络建立的包括多层串联的卷积单元的神经网络,对应地,所述图像特征集合由所述多层串联的卷积单元中每一所述卷积单元输出的图像特征构成;
将所述图像特征集合输入至特征融合模型,输出融合特征;
将所述融合特征输入至特征回归分类模型,输出所述融合特征的回归结果和分类结果,基于所述融合特征的回归结果和分类结果得到所述待检测图像的行人检测结果;
其中,所述特征提取模型、所述特征融合模型和所述特征回归分类模型是基于样本图像和所述样本图像对应的样本行人检测结果进行训练后得到的;
所述将所述图像特征集合输入至特征融合模型,输出融合特征,具体包括:
将所述图像特征集合中任一卷积单元输出的图像特征进行归一化计算,得到所述任一卷积单元的归一化特征;
针对任一所述卷积单元,将所述任一卷积单元的下层卷积单元对应的通道拼接特征进行反卷积后与所述任一卷积单元的归一化特征进行通道拼接,得到所述任一卷积单元对应的通道拼接特征;
将顶层卷积单元对应的通道拼接特征卷积后进行池化,得到所述融合特征;
所述特征提取模型为基于Resnet网络建立的包括四层串联的卷积单元的卷积神经网络;
所述将顶层卷积单元对应的通道拼接特征卷积后进行池化,得到所述融合特征,具体包括:
针对所述顶层卷积单元对应的通道拼接特征中对应顶层卷积单元、第二层卷积单元和第三层卷积单元分别输出的图像特征的特征,分别通过两种尺度的卷积核进行卷积,得到6个候选区域;
针对所述顶层卷积单元对应的通道拼接特征中对应第四层卷积单元输出的图像特征的特征,通过单一尺度的卷积核进行卷积,得到1个候选区域;
将所述6个候选区域和所述1个候选区域反卷积后进行ROI pooling,得到所述融合特征。
2.根据权利要求1所述的方法,其特征在于,所述将待检测图像输入至特征提取模型,输出图像特征集合,具体包括:
针对任一所述卷积单元,对所述任一卷积单元的上层卷积单元输出的图像特征进行降采样和卷积,得到所述任一卷积单元的卷积特征;
将所述任一卷积单元的卷积特征与所述上层卷积单元输出的图像特征相加,作为所述任一卷积单元输出的图像特征。
3.根据权利要求1所述的方法,其特征在于,所述特征回归分类模型包括卷积层、回归全连接层和分类全连接层;
对应地,所述将所述融合特征输入至所述特征回归分类模型,输出所述融合特征的回归结果和分类结果,基于所述融合特征的回归结果和分类结果得到所述待检测图像的行人检测结果,具体包括:
将所述融合特征输入至所述特征回归分类模型的卷积层,输出卷积融合特征;
将所述卷积融合特征输入至所述特征回归分类模型的回归全连接层,输出所述回归结果,将所述卷积融合特征输入至所述特征回归分类模型的分类全连接层,输出所述分类结果,基于所述回归结果和所述分类结果得到所述待检测图像的行人检测结果。
4.根据权利要求1所述的方法,其特征在于,所述将待检测图像输入至特征提取模型,输出图像特征集合,之前还包括:
基于所述样本图像和所述样本图像对应的样本行人检测结果训练所述特征提取模型、所述特征融合模型和所述特征回归分类模型,直至损失函数满足预设条件;
其中,所述损失函数包括所述图像特征集合中每一图像特征的特征损失函数。
5.一种基于多尺度的行人检测装置,其特征在于,包括:
特征提取模块,用于将待检测图像输入至特征提取模型,输出图像特征集合;所述特征提取模型为基于Resnet网络建立的包括多层串联的卷积单元的神经网络,对应地,所述图像特征集合由所述多层串联的卷积单元中每一所述卷积单元输出的图像特征构成;
特征融合模块,用于将所述图像特征集合输入至特征融合模型,输出融合特征;
特征回归分类模块,用于将所述融合特征输入至特征回归分类模型,输出所述融合特征的回归结果和分类结果,基于所述融合特征的回归结果和分类结果得到所述待检测图像的行人检测结果;
其中,所述特征提取模型、所述特征融合模型和所述特征回归分类模型是基于样本图像和所述样本图像对应的样本行人检测结果进行训练后得到的;
所述特征融合模块,具体用于将所述图像特征集合中任一卷积单元输出的图像特征进行归一化计算,得到所述任一卷积单元的归一化特征;
针对任一所述卷积单元,将所述任一卷积单元的下层卷积单元对应的通道拼接特征进行反卷积后与所述任一卷积单元的归一化特征进行通道拼接,得到所述任一卷积单元对应的通道拼接特征;
将顶层卷积单元对应的通道拼接特征卷积后进行池化,得到所述融合特征;
所述特征提取模型为基于Resnet网络建立的包括四层串联的卷积单元的卷积神经网络;
所述将顶层卷积单元对应的通道拼接特征卷积后进行池化,得到所述融合特征,具体包括:
针对所述顶层卷积单元对应的通道拼接特征中对应顶层卷积单元、第二层卷积单元和第三层卷积单元分别输出的图像特征的特征,分别通过两种尺度的卷积核进行卷积,得到6个候选区域;
针对所述顶层卷积单元对应的通道拼接特征中对应第四层卷积单元输出的图像特征的特征,通过单一尺度的卷积核进行卷积,得到1个候选区域;
将所述6个候选区域和所述1个候选区域反卷积后进行ROI pooling,得到所述融合特征。
6.一种基于多尺度的行人检测设备,其特征在于,包括处理器、通信接口、存储器和总线,其中,处理器,通信接口,存储器通过总线完成相互间的通信,处理器可以调用存储器中的逻辑指令,以执行如权利要求1至4任一所述的基于多尺度的行人检测方法。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至4任一所述的基于多尺度的行人检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810862611.5A CN109101914B (zh) | 2018-08-01 | 2018-08-01 | 一种基于多尺度的行人检测方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810862611.5A CN109101914B (zh) | 2018-08-01 | 2018-08-01 | 一种基于多尺度的行人检测方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109101914A CN109101914A (zh) | 2018-12-28 |
CN109101914B true CN109101914B (zh) | 2021-08-20 |
Family
ID=64848150
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810862611.5A Active CN109101914B (zh) | 2018-08-01 | 2018-08-01 | 一种基于多尺度的行人检测方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109101914B (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111723614A (zh) * | 2019-03-20 | 2020-09-29 | 北京四维图新科技股份有限公司 | 交通信号灯识别方法及装置 |
CN110334602B (zh) * | 2019-06-06 | 2021-10-26 | 武汉市公安局视频侦查支队 | 一种基于卷积神经网络的人流量统计方法 |
CN110378211A (zh) * | 2019-06-11 | 2019-10-25 | 广州海昇计算机科技有限公司 | 基于教室场景下的目标检测方法、系统、装置及存储介质 |
CN110348311B (zh) * | 2019-06-13 | 2021-03-19 | 中国人民解放军战略支援部队信息工程大学 | 一种基于深度学习的道路交叉口识别系统及方法 |
CN110598709B (zh) * | 2019-08-12 | 2022-03-22 | 北京智芯原动科技有限公司 | 一种卷积神经网络训练方法以及车牌识别方法及装置 |
CN110752028A (zh) * | 2019-10-21 | 2020-02-04 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置、设备以及存储介质 |
CN110781845B (zh) * | 2019-10-29 | 2023-04-07 | 北京迈格威科技有限公司 | 基于图像统计目标对象的方法、装置和电子系统 |
CN110909701B (zh) * | 2019-11-28 | 2023-03-24 | 北京百度网讯科技有限公司 | 行人特征的提取方法、装置、设备及介质 |
CN111144248B (zh) * | 2019-12-16 | 2024-02-27 | 上海交通大学 | 基于st-fhcd网络模型的人数统计方法、系统及介质 |
CN111178434A (zh) * | 2019-12-30 | 2020-05-19 | 北京工业大学 | 一种基于Faster-RCNN的目标检测方法 |
CN113496150B (zh) * | 2020-03-20 | 2023-03-21 | 长沙智能驾驶研究院有限公司 | 密集目标检测方法、装置、存储介质及计算机设备 |
CN111508093A (zh) * | 2020-04-26 | 2020-08-07 | 王素云 | 一种用于高速公路的过路费预算系统 |
CN111754496A (zh) * | 2020-06-29 | 2020-10-09 | 国网陕西省电力公司延安供电公司 | 一种继电保护回路保护压板状态监测系统及监测方法 |
CN111967356A (zh) * | 2020-08-04 | 2020-11-20 | 杰创智能科技股份有限公司 | 图像中行人检测方法、装置、电子设备和存储介质 |
CN112115862B (zh) * | 2020-09-18 | 2023-08-29 | 广东机场白云信息科技有限公司 | 一种结合密度估计的拥挤场景行人检测方法 |
CN112258564B (zh) * | 2020-10-20 | 2022-02-08 | 推想医疗科技股份有限公司 | 生成融合特征集合的方法及装置 |
CN112215241B (zh) * | 2020-10-20 | 2022-04-01 | 西安交通大学 | 一种基于小样本学习的图像特征提取装置 |
CN113449784B (zh) * | 2021-06-18 | 2024-04-05 | 宜通世纪科技股份有限公司 | 基于先验属性图谱的图像多分类方法、装置、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102096803A (zh) * | 2010-11-29 | 2011-06-15 | 吉林大学 | 基于机器视觉的行人安全状态识别系统 |
CN103425967A (zh) * | 2013-07-21 | 2013-12-04 | 浙江大学 | 一种基于行人检测和跟踪的人流监控方法 |
CN106709568A (zh) * | 2016-12-16 | 2017-05-24 | 北京工业大学 | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 |
CN107341517A (zh) * | 2017-07-07 | 2017-11-10 | 哈尔滨工业大学 | 一种基于深度学习层级间特征融合的多尺度小物体检测方法 |
-
2018
- 2018-08-01 CN CN201810862611.5A patent/CN109101914B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102096803A (zh) * | 2010-11-29 | 2011-06-15 | 吉林大学 | 基于机器视觉的行人安全状态识别系统 |
CN103425967A (zh) * | 2013-07-21 | 2013-12-04 | 浙江大学 | 一种基于行人检测和跟踪的人流监控方法 |
CN106709568A (zh) * | 2016-12-16 | 2017-05-24 | 北京工业大学 | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 |
CN107341517A (zh) * | 2017-07-07 | 2017-11-10 | 哈尔滨工业大学 | 一种基于深度学习层级间特征融合的多尺度小物体检测方法 |
Non-Patent Citations (2)
Title |
---|
A Unified Multi-scale Deep CNN for Fast Object Detection;Zhaowei Cai et al.;《Computer Vision and Pattern Recognition》;20160725;第1-16页 * |
Deep Residual Learning for Image Recognition;Kaiming He et al.;《2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)》;20161230;第770-778页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109101914A (zh) | 2018-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109101914B (zh) | 一种基于多尺度的行人检测方法和装置 | |
CN110298262B (zh) | 物体识别方法及装置 | |
EP4105877A1 (en) | Image enhancement method and image enhancement apparatus | |
CN107274445B (zh) | 一种图像深度估计方法和系统 | |
EP4006773A1 (en) | Pedestrian detection method, apparatus, computer-readable storage medium and chip | |
US20230177641A1 (en) | Neural network training method, image processing method, and apparatus | |
CN111461213B (zh) | 一种目标检测模型的训练方法、目标快速检测方法 | |
CN111797983A (zh) | 一种神经网络构建方法以及装置 | |
EP4109343A1 (en) | Perception network architecture search method and device | |
CN115631344B (zh) | 一种基于特征自适应聚合的目标检测方法 | |
CN110969171A (zh) | 基于改进卷积神经网络的图像分类模型、方法及应用 | |
KR101869266B1 (ko) | 극한 심층학습 기반 차선 검출 시스템 및 그 방법 | |
CN114764856A (zh) | 图像语义分割方法和图像语义分割装置 | |
CN114120069A (zh) | 基于方向自注意力的车道线检测系统、方法和存储介质 | |
CN112132753B (zh) | 多尺度结构引导图像的红外图像超分辨率方法及系统 | |
CN112184700B (zh) | 基于单目相机的农业无人车障碍物感知方法及装置 | |
CN113963272A (zh) | 一种基于改进yolov3的无人机图像目标检测方法 | |
CN116863227A (zh) | 一种基于改进YOLOv5的危化品车辆检测方法 | |
EP4296896A1 (en) | Perceptual network and data processing method | |
CN116883770A (zh) | 深度估计模型的训练方法、装置、电子设备及存储介质 | |
CN112446292B (zh) | 一种2d图像显著目标检测方法及系统 | |
CN114219757A (zh) | 一种基于改进Mask R-CNN的车辆智能定损方法 | |
CN111783683A (zh) | 一种基于特征平衡和关系增强的人体检测方法 | |
CN113728355A (zh) | 一种图像处理方法和装置 | |
CN117475331A (zh) | 一种无人机轻量化目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20210721 Address after: 215000 unit 2-b702, creative industry park, 328 Xinghu street, Suzhou Industrial Park, Suzhou City, Jiangsu Province Applicant after: SUZHOU FEISOU TECHNOLOGY Co.,Ltd. Address before: Room 1216, 12 / F, Beijing Beiyou science and technology and cultural exchange center, 10 Xitucheng Road, Haidian District, Beijing, 100876 Applicant before: BEIJING FEISOU TECHNOLOGY Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |