CN109741301A - 一种更快的基于深度学习的密集目标计数方法 - Google Patents
一种更快的基于深度学习的密集目标计数方法 Download PDFInfo
- Publication number
- CN109741301A CN109741301A CN201811553198.0A CN201811553198A CN109741301A CN 109741301 A CN109741301 A CN 109741301A CN 201811553198 A CN201811553198 A CN 201811553198A CN 109741301 A CN109741301 A CN 109741301A
- Authority
- CN
- China
- Prior art keywords
- target
- intensive
- deep learning
- method based
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及到图像处理领域,更具体地,涉及一种更快的基于深度学习的密集目标计数方法。近年来深度学习在密集目标计数领域取得了不错的发展,但是存在着模型较大检测速度较慢的问题,且大多数的研究只针对特定场景,无法很快应用到其他场景。本发明提出了一种更小的网络结构,不仅保证了一定的准确性,还大大增加了检测速度,将具备搭载到移动手持等轻便设备的可能性。而且为了处理更多的场景,将不同的密集目标整合一起训练,检测结果也保持稳定。这样就可以在实际应用中处理多种场景的密集目标计数问题,例如实时监控商场的人群数目来做出相应的人流控制,防止出现安全事故,快速检测工厂里的钢筋数目将大大增加工作效率带来更大的效益。
Description
技术领域
本发明涉及到图像处理领域,更具体地,涉及一种更快的基于深度学习的密集目标计数方法。
背景技术
由于近年来深度学习技术研究地飞速发展,越来越多的问题在利用到深度学习技术之后获得了新的机遇。而在本发明所涉及到的密集目标计数领域中,涉及到多种复杂的场景,包括商场的人群,街道的车流,草原的牛群,工厂里的密集钢筋等等。若能快速的统计数目,不仅可以及时调节商场和街道的秩序防止安全事故发生,也可以提高工厂等企业的工作效率来增大效益。
传统的目标计数方法往往基于检测的方法,根据目标的运动特征和纹理特征准确识别出每个目标的具体位置信息来进行计数,但是由于密集目标的重叠遮挡情况非常严重,无法进行检测。后来基于全局特征的回归方法首先建立图像特征和图像人数的回归模型,通过测量图像特征从而估计场景中的人数,但是由于密集图像特征复杂依旧效果不好。
而基于深度学习的技术不再考虑复杂的特征处理操作,借助复杂多样且高效的卷积操作对图片进行处理,而且将密度图作为转换的中介大大增强了整体系统的鲁棒性,使不同复杂场景的密集目标的计数准确性得到了进一步地提升。
发明内容
本发明的主要优势是在基于强大的深度学习技术上提出一种全新的网络结构组合,能够克服传统图像处理在密集目标计数上的不足。不仅无需对图像本身进行前景背景分割等复杂过程,而且还能利用新的特征网络让密集目标的密度特征信息得到更多的保留,大大增加了最终的计数准确率。同时由于设计的神经网络结构所需参数量大幅度地降低,使计算速度变得更快,将具备加载到移动手持等轻便设备的可能。而且整合了不同场景的密集目标数据,一起训练处理后得到的测试结果依旧稳定,这样便可以同时处理多种场景的密集目标计数问题。为了达到以上目的,本发明将采取以下步骤:
(1)预处理
由于目前公开数据集有限,于是自主制作了一些相关的密集目标图片,为了保持一致性,所拍摄的图像的实际目标所占比例较小,且重合率较大,最终添加到公开数据集里一起。
首先为原始图像生成相应的密度图。对图像上所有目标位置进行人工标记,一般认定为该目标所占像素点区域的重心位置为标记点。使某一个目标的标记记作Pi(xi,yi),并将其表示为δ(x-xi),这样对于具有 N个目标的的图像I,这样对于具有N个目标的的图像I,为了使密度图具有连续性,进行归一化高斯处理。接着引入高斯核函数Gσ(x),但是由于在复杂场景中目标之间的关联性较大,而且由于透视失真导致某个目标点与周围目标在不同复杂场景区域的尺度不一致,所以为了更加精准地估计,利用k近邻算法的思想,使用该目标与周围目标距离的平均距离作为参照量,来估计高斯函数中σ参数。
对于每一个目标点,求去其于周围k个目标的平均欧式距离而对于不同区域的高斯核的σ参数也是随着区域的改变而改变,所以需要设置一个自适应的高斯核,那么由于目标区域的半径与存在线性比例关系,则通过实验经验设置(β=0.3),则最终的密度图转换函数可表示为式1:
(2)创立训练样本
将每一张图片平均分为大小一致、无重叠部分的9份子图片。而对于标签文件,在经过同样操作的处理之后,还需主要保持每一小块密度矩阵的积分值与原图真实数目一致。
(3)神经网络构建
构建的网络主要分为前后相连的两个部分组成,第一个部分是前期特征提取器,第二个为多尺度特征学习器。
对于第一部分由conv-pooling-conv-pooling组成,第一个卷积层为24个大小为5*5的卷积核,第一个池化层是大小为2*2,步长为1的最大值池化层,第二个卷积层为48个大小为3*3的卷积核,第二个池化层同样为大小为2*2,步长为1的最大值池化层。
紧接着第二部分主要由一个多孔空间金字塔池化结构组成,由并行的4个空洞卷积层组成,相比于传统的卷积,加入了采样比率参数rate,代表着在计算中被采集的像素点相邻之间的距离为rate,这样便可以保留了内部数据结构和重要层级信息,以便对不同目标的密度图重建。但是由于不同场景下的目标大小不同,大的rate对大的目标包容性更强,小的rate对小的目标更为贴切。本发明所采用的采样率参数分别为2,4,6,8,卷积核大小为3×3。最后再接一个1×1的卷积生成预测密度图,且所有的卷积函数适用 relu函数进行非线性激活。
首先前期特征提取器只是为了对图像做初步的学习筛选,为了让最后生成的密度图更能准确地反应实际的数目,所以也只采用两个池化层,保证了足够大的特征分辨率。而多尺度特征学习器则是聚焦到了特征的更深的尺度和语义信息,将不同感受野的学习结果进行整合,增强了系统的鲁棒性。综合其两者便可以更加关注对图像的具体语义信息的提取,从而使其具有网络具有更准确的表达。而且在每一层的卷积层使用较少的滤波器,大大缩减了网络的规模,使工作速度变得更快。
训练:首先定义目标函数为带有正则化的均方误差函数如下所示:
然后采用k-折叠交叉验证方法进行训练。将数据集分为k份,一次epoch一共训练k次,每次以k-1 份作为训练集,1份作为验证集。最后在网络构建完成之后开始进行对训练图像的自动学习,直到收敛后停止训练,并生成相应的模型文件。
测试:将待测试图片同样平均分为大小一致、无重叠部分的9份子图片,再依次输入到已训练好的网络,并输出相应的密度图,对其数值矩阵进行求和得到测试数目,并将9份数值之和作为最终的测试数目。
评价指标:利用求取平均绝对误差(MAE)和均方误差(MSE)来评估,MAE来评估模型的准确性,MSE 来评估模型的鲁棒性,具体计算公式如式3和式4:
N指图片总数目,zi和分别代表的真实数目和预测数目。
与现有技术相比,本发明具有以下有益效果:本发明为了解决密集目标计数问题提出一种更快的基于深度学习的密集目标计数方法,利用传统卷积和空洞卷积的结合有效地学习到了图片的深层语义和尺度信息,增强了系统的鲁棒性。传统的卷积有效地学习到了图像地特征信息,而且在保证足够大的特征分辨率值只进行两次池化缩小为原图的1/4;新的不同采样率的空洞卷积学习不同感受野下的特征信息,整合起来之后便支撑了更准确的语义信息。最终在保证了一定准确率的同时,还大大降低了网络的规模,加快了检测速度,具备了搭载到手持移动等轻便设备的条件,为能快速地对不同场景的密集目标计数提供了有效的解决方案。
附图说明
图1是本发明计数方法测试流程结构图
图2是具体神经网络结构图
图3是数据集中的图片和密度图示例
图4是测试结果图示例
具体实施方式
为了更充分理解本发明的计数内容,下面结合具体实例对本发明的技术方案做进一步介绍和说明,但不限于此。
(1)预处理
由于目前公开数据集有限,于是自主制作了一些相关的密集目标图片,包括工厂里的钢筋,散落到地里的瓜子,最终添加到公开数据集里一起。
参照附图三,首先为原始图像生成相应的密度图。对图像上所有目标位置进行人工标记,一般认定为该目标所占像素点区域的重心位置为标记点。使某一个目标的标记记作Pi(xi,yi),并将其表示为δ(x-xi),这样对于具有N个目标的的图像I,这样对于具有N个目标的的图像I,为了使密度图具有连续性,进行归一化高斯处理。接着引入高斯核函数Gσ(x),但是由于在复杂场景中目标之间的关联性较大,而且由于透视失真导致某个目标点与周围目标在不同复杂场景区域的尺度不一致,所以为了更加精准地估计,利用k 近邻算法的思想,使用该目标与周围目标距离的平均距离作为参照量,来估计高斯函数中σ参数。
对于每一个目标点,求去其于周围k个目标的平均欧式距离而对于不同区域的高斯核的σ参数也是随着区域的改变而改变,所以需要设置一个自适应的高斯核,那么由于目标区域的半径与存在线性比例关系,则通过实验经验设置(β=0.3),则最终的密度图转换函数可表示为式1:
(2)创立训练样本
将每一张图片平均分为大小一致、无重叠部分的9份子图片。而对于标签文件,在经过同样操作的处理之后,还需主要保持每一小块密度矩阵的积分值与原图真实数目一致。
(3)神经网络构建
参照附图二,构建的网络主要分为前后相连的两个部分组成,第一个部分是前期特征提取器,第二个为多尺度特征学习器。
对于第一部分主要由第一部分由conv-pooling-conv-pooling组成,第一个卷积层为24个大小为 5*5的卷积核,第一个池化层是大小为2*2,步长为1的最大值池化层,第二个卷积层为48个大小为3*3 的卷积核,第二个池化层同样为大小为2*2,步长为1的最大值池化层。
紧接着第二部分主要由一个多孔空间金字塔池化结构组成,由并行的4个空洞卷积层组成,相比于传统的卷积,加入了采样比率参数rate,代表着在计算中被采集的像素点相邻之间的距离为rate,这样便可以保留了内部数据结构和重要层级信息,以便对不同目标的密度图重建。但是由于不同场景下的目标大小不同,大的rate对大的目标包容性更强,小的rate对小的目标更为贴切。本发明所采用的采样率参数分别为2,4,6,8,卷积核大小为3×3。最后再接一个1×1的卷积生成预测密度图,且所有的卷积函数适用 relu函数进行非线性激活。
首先前期特征提取器只是为了对图像做初步的学习筛选,为了让最后生成的密度图更能准确地反应实际的数目,所以也只采用两个池化层,保证了足够大的特征分辨率。而多尺度特征学习器则是聚焦到了特征的更深的尺度和语义信息,将不同感受野的学习结果进行整合,增强了系统的鲁棒性。综合其两者便可以更加关注对图像的具体语义信息的提取,从而使其具有网络具有更准确的表达。而且在每一层的卷积层使用较少的滤波器,大大缩减了网络的规模,使工作速度变得更快。
训练:首先定义目标函数为带有正则化的均方误差函数如式2所示。
然后采用k-折叠交叉验证方法进行训练。将数据集分为k份,一次epoch一共训练k次,每次以k-1 份作为训练集,1份作为验证集。最后在网络构建完成之后开始进行对训练图像的自动学习,直到收敛后停止训练,并生成相应的模型文件。
测试:参照附图1,将待测试图片同样平均分为大小一致、无重叠部分的9份子图片,再依次输入到已训练好的网络,并输出相应的密度图,对其数值矩阵进行求和得到测试数目,并将9份数值之和作为最终的测试数目。参照附图4,左右两边分别为输入图片和输出图片,其测试结果对不同场景的目标的计数准确率较好,具有较好的稳定性。
评价指标:利用求取平均绝对误差(MAE)和均方误差(MSE)来评估,MAE来评估模型的准确性,MSE 来评估模型的鲁棒性。
同时在著名的数据集ShanghaiTech Part A,B上也做了相应的实验,结果如以下表1和表2所见:
表1
表2
可以看出本发明的测试结果,在保证一定的准确率上,大大地缩小了网络规模大小,从而有效地提高了识别速度,是一种更快的基于深度学习的密集目标识别方法。而为了验证能在多种场景下同样适应,在原有数据集的情况加入扩充的其他场景的数据集进行一起训练测试,结果如表3所示
在加入其他场景的密集目标数据之后,其结果也保持相对稳定,说明本发明所提出的方法有效。
Claims (4)
1.一种更块的基于深度学习的密集目标计数方法,其特征是:在基于深度学习的技术上,构建一种新的轻量化神经网络结构,并通过学习生成相似的测试图片的密度图的方式,实现对密集目标的图片进行快速数目统计的目标,其最终的效果在保证较好准确率的同时大大地加快了识别速度,其网络结构的规模远低于其他同类算法。
2.根据权利要求1所述的一种更快的基于深度学习的密集目标技术方法,在数据集制作密度图标签的详细步骤是:对图像上所有目标位置进行人工标记,一般认定为该目标所占像素点区域的重心位置。使某一个目标的标记记作Pi(xi,yi),并将其表示为δ(x-xi),这样对于具有N个目标的的图像I,为了具有物理密度的连续性,进行归一化高斯处理,从而生成相对应的密度图和数值矩阵文件,并作为标签文件。
3.根据权利要求1所述的一种更快的基于深度学习的密集目标技术方法,构建的新的轻量化网络结构具体是:主要分为前后相连的两个部分组成,第一个部分是前期特征提取器,第二个为多尺度特征学习器。对于第一部分由conv-pooling-conv-pooling组成,第一个卷积层为24个大小为5*5的卷积核,第一个池化层是大小为2*2,步长为1的最大值池化层,第二个卷积层为48个大小为3*3的卷积核,第二个池化层同样为大小为2*2,步长为1的最大值池化层。
紧接着第二部分主要由一个多孔空间金字塔池化结构组成,由并行的4个空洞卷积层组成,其区别在于适用不同的采样率参数,分别为2,4,6,8。最后再接一个1×1的卷积生成预测密度图,且所有的卷积函数适用relu函数进行非线性激活。
4.根据权利要求1所述的一种更快的基于深度学习的密集目标技术方法,在训练测试网络的详细步骤是:
(1)创立训练样本
将每一张图片平均分为大小一致、无重叠部分的9份子图片。而对于标签文件,在经过同样操作的处理之后,还需主要保持每一小块密度矩阵的积分值与原图真实数目一致。
(2)训练:首先定义目标函数为带有正则化的均方误差函数如下所示:
然后采用k-折叠交叉验证方法进行训练。将数据集分为k份,一次epoch一共训练k次,每次以k-1份作为训练集,1份作为验证集。最后在网络构建完成之后开始进行对训练图像的自动学习,直到收敛后停止训练,并生成相应的模型文件。
(3)测试:将待测试图片输入到已训练好的网络,并输出相应的密度图,对其数值矩阵进行求和得到最终的测试数目。
(4)评价指标:利用求取平均绝对误差(MAE)和均方误差(MSE)来评估,MAE来评估模型的准确性,MSE来评估模型的鲁棒性,具体计算公式如下所示:
N指图片总数目,zi和分别代表的真实数目和预测数目。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811553198.0A CN109741301A (zh) | 2018-12-19 | 2018-12-19 | 一种更快的基于深度学习的密集目标计数方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811553198.0A CN109741301A (zh) | 2018-12-19 | 2018-12-19 | 一种更快的基于深度学习的密集目标计数方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109741301A true CN109741301A (zh) | 2019-05-10 |
Family
ID=66360464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811553198.0A Pending CN109741301A (zh) | 2018-12-19 | 2018-12-19 | 一种更快的基于深度学习的密集目标计数方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109741301A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110264466A (zh) * | 2019-06-28 | 2019-09-20 | 广州市颐创信息科技有限公司 | 一种基于深度卷积神经网络的钢筋检测方法 |
CN110781755A (zh) * | 2019-09-28 | 2020-02-11 | 深圳中物智建科技有限公司 | 一种建筑钢筋智能识别计量方法及系统 |
CN111241993A (zh) * | 2020-01-08 | 2020-06-05 | 咪咕文化科技有限公司 | 座位数的确定方法、装置、电子设备及存储介质 |
CN111353977A (zh) * | 2020-02-26 | 2020-06-30 | 杭州电子科技大学 | 一种基于深度学习的小颗粒物体计数系统及方法 |
CN113409246A (zh) * | 2021-04-14 | 2021-09-17 | 宁波海棠信息技术有限公司 | 一种钢筋头计数、定位方法及系统 |
CN115063410A (zh) * | 2022-08-04 | 2022-09-16 | 中建电子商务有限责任公司 | 一种基于无锚点目标检测的钢管计数方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107301387A (zh) * | 2017-06-16 | 2017-10-27 | 华南理工大学 | 一种基于深度学习的图像高密度人群计数方法 |
CN108921822A (zh) * | 2018-06-04 | 2018-11-30 | 中国科学技术大学 | 基于卷积神经网络的图像目标计数方法 |
CN108985269A (zh) * | 2018-08-16 | 2018-12-11 | 东南大学 | 基于卷积和空洞卷积结构的融合网络驾驶环境感知模型 |
-
2018
- 2018-12-19 CN CN201811553198.0A patent/CN109741301A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107301387A (zh) * | 2017-06-16 | 2017-10-27 | 华南理工大学 | 一种基于深度学习的图像高密度人群计数方法 |
CN108921822A (zh) * | 2018-06-04 | 2018-11-30 | 中国科学技术大学 | 基于卷积神经网络的图像目标计数方法 |
CN108985269A (zh) * | 2018-08-16 | 2018-12-11 | 东南大学 | 基于卷积和空洞卷积结构的融合网络驾驶环境感知模型 |
Non-Patent Citations (1)
Title |
---|
王宏力等: "《惯性测量组合智能故障诊断及预测技术》", 31 May 2017 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110264466A (zh) * | 2019-06-28 | 2019-09-20 | 广州市颐创信息科技有限公司 | 一种基于深度卷积神经网络的钢筋检测方法 |
CN110781755A (zh) * | 2019-09-28 | 2020-02-11 | 深圳中物智建科技有限公司 | 一种建筑钢筋智能识别计量方法及系统 |
CN111241993A (zh) * | 2020-01-08 | 2020-06-05 | 咪咕文化科技有限公司 | 座位数的确定方法、装置、电子设备及存储介质 |
CN111241993B (zh) * | 2020-01-08 | 2023-10-20 | 咪咕文化科技有限公司 | 座位数的确定方法、装置、电子设备及存储介质 |
CN111353977A (zh) * | 2020-02-26 | 2020-06-30 | 杭州电子科技大学 | 一种基于深度学习的小颗粒物体计数系统及方法 |
CN113409246A (zh) * | 2021-04-14 | 2021-09-17 | 宁波海棠信息技术有限公司 | 一种钢筋头计数、定位方法及系统 |
CN115063410A (zh) * | 2022-08-04 | 2022-09-16 | 中建电子商务有限责任公司 | 一种基于无锚点目标检测的钢管计数方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109741301A (zh) | 一种更快的基于深度学习的密集目标计数方法 | |
CN113065558B (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN108764308A (zh) | 一种基于卷积循环网络的行人重识别方法 | |
CN105678284B (zh) | 一种固定位人体行为分析方法 | |
CN107330357A (zh) | 基于深度神经网络的视觉slam闭环检测方法 | |
CN108960086A (zh) | 基于生成对抗网络正样本增强的多姿态人体目标跟踪方法 | |
CN106446930A (zh) | 基于深层卷积神经网络的机器人工作场景识别方法 | |
CN107967451A (zh) | 一种利用多尺度多任务卷积神经网络对静止图像进行人群计数的方法 | |
CN108229444A (zh) | 一种基于整体和局部深度特征融合的行人再识别方法 | |
CN109166100A (zh) | 基于卷积神经网络的多任务学习细胞计数方法 | |
CN106682697A (zh) | 一种基于卷积神经网络的端到端物体检测方法 | |
CN106022380A (zh) | 基于深度学习的个体身份识别方法 | |
CN110033440A (zh) | 基于卷积神经网络与特征融合的生物细胞计数方法 | |
CN106651830A (zh) | 一种基于并行卷积神经网络的图像质量测试方法 | |
CN110084165A (zh) | 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法 | |
CN109740483A (zh) | 一种基于深层神经网络的水稻生长期检测方法 | |
CN108830170B (zh) | 一种基于分层特征表示的端到端目标跟踪方法 | |
CN109766873A (zh) | 一种混合可变形卷积的行人再识别方法 | |
CN109598220A (zh) | 一种基于多元输入多尺度卷积的人数统计方法 | |
CN107146237A (zh) | 一种基于在线状态学习与估计的目标跟踪方法 | |
Liu et al. | Coastline extraction method based on convolutional neural networks—A case study of Jiaozhou Bay in Qingdao, China | |
CN106815563A (zh) | 一种基于人体表观结构的人群数量预测方法 | |
CN110210550A (zh) | 基于集成学习策略的图像细粒度识别方法 | |
Udawant et al. | Cotton leaf disease detection using instance segmentation | |
CN109785359A (zh) | 一种基于深度特征金字塔与跟踪损失的视频目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190510 |
|
WD01 | Invention patent application deemed withdrawn after publication |