CN107103279A - 一种在垂直视角下基于深度学习的客流计数方法 - Google Patents

一种在垂直视角下基于深度学习的客流计数方法 Download PDF

Info

Publication number
CN107103279A
CN107103279A CN201710139113.3A CN201710139113A CN107103279A CN 107103279 A CN107103279 A CN 107103279A CN 201710139113 A CN201710139113 A CN 201710139113A CN 107103279 A CN107103279 A CN 107103279A
Authority
CN
China
Prior art keywords
mrow
shoulder
head
msubsup
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710139113.3A
Other languages
English (en)
Other versions
CN107103279B (zh
Inventor
赖剑煌
李传俊
谢晓华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SYSU CMU Shunde International Joint Research Institute
National Sun Yat Sen University
Original Assignee
SYSU CMU Shunde International Joint Research Institute
National Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SYSU CMU Shunde International Joint Research Institute, National Sun Yat Sen University filed Critical SYSU CMU Shunde International Joint Research Institute
Priority to CN201710139113.3A priority Critical patent/CN107103279B/zh
Publication of CN107103279A publication Critical patent/CN107103279A/zh
Application granted granted Critical
Publication of CN107103279B publication Critical patent/CN107103279B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Abstract

本发明提供一种在垂直视角下基于深度学习的客流计数方法,该方法垂直视角下进行人流统计,相比于斜拍视角,这个视角更容易应对商场、超市、地铁等公共场所人流很密集的情况;提出利用深度学习检测头肩,利用深度学习强大的学习能力,不需要对视频进行背景建模和前景提取,也不需要对前景进行行人切割,能够更精确更鲁棒地检测到头肩信息;进行匹配跟踪利用的是深度卷积特征,相对于HOG、LBP等手动设计的特征,深度卷积特征有更好的表达能力,能够更好的应对各种场景;本发明是直接将某一层的深度卷积特征拿来做匹配,避免了特征的重复计算,使得更加省时。

Description

一种在垂直视角下基于深度学习的客流计数方法
技术领域
本发明涉及数字图像处理领域,更具体地,涉及一种在垂直视角下基于深度学习的客流计数方法。
背景技术
近来年,视频客流计数技术一直是业界备受关注的研究热点,它也逐步应用于各大商场连锁店、超市、酒店、机场、地铁、景区等,这些场景下产生的人流量数据能够为很多领域提供很有价值的信息。对于各大商场连锁店、超市而言,面对目前火热的线上电子商务系统,如京东、淘宝、天猫、亚马逊等,线下的销售市场一直受到挤迫,科学化的管理显然是提高自身竞争力的有效手段。商场内不同时段、不同区域的人流数据在提高其经营决策的科学性、资源调度的合理性、消费环境的舒适性等方面起到了重要的作用,商业人流数据对商业的绩效考核、商品转化率、店铺选址、商品陈列、广告价值有着很重要的意义。另外,对于展览馆、体育馆、地铁站、公交站、机场等公共场所中,人流数据能够呈现实时精准的的区域人数和人群密度,管理者通过数据分析动态调整工作人员配置计划,控制区域人群数量,使资源更合理使用,同时也能加强安全防范。
目前针对客流计数这个领域,现有技术中有提出了利用局部轮廓的方法去检测头部,他用椭圆模型去拟合头部轮廓,当轮廓拟合度比较高就认为是一个头部。现有技术中还有利用头发的颜色以及头部的轮廓特征进行头部检测,众所周知,头部的轮廓类似一个圆,所以可以利用这个特征检测头部。但是这种特征的缺点就是容易受到轮廓类似圆的其他物体所影响,比如气球等。现有技术中还有提出了一个有效的行人计数方法,第一次使用霍夫圆变换(Hough circle Transform)进行头部检测,后面接上光流(optical flow)法进行跟踪,但是,这个方法的缺点就是光流需要耗费很大的计算力,难以部署到嵌入式设备上。现有技术中还有提出了一种先利用高斯混合背景建模提取前景区域,接着在前景区域使用自适应增强(Adaptive Boosting)方法结合局部二值模式(Local Binary Pattern)特征进行人头检测,最后接上均值漂移(meanshift)跟踪算法进行进出统计,这样一个系统依赖于前景提取的完整,而很多时候尤其在画面中行人密集的时候很难提取完好的前景。
发明内容
本发明提供一种明显地提高人流统计准确率的在垂直视角下基于深度学习的客流计数方法。
为了达到上述技术效果,本发明的技术方案如下:
一种在垂直视角下基于深度学习的客流计数方法,包括以下步骤:
S1:在视频画面内绘制进出统计线;
S2:利用深度学习方法在当前画面内进行行人头肩检测;
S3:判断当前画面是否存在头肩,如果是则转到步骤S4;如果不是则转到步骤S2,对下一帧继续检测;
S4:将当前帧检测到的头肩与跟踪列表里的头肩进行匹配更新;
S5:判断跟踪目标起始点和终止点是否在进出线两侧,如果是则转到步骤S6;如果不是则转到步骤S2,对下一帧继续检测;
S6:更新进出的人数信息,接着转到步骤S2,对下一帧继续检测。
进一步地,所述步骤S1中当行人先经过进线再经过出线,表示离开状态,反之,当行人先经过出线再经过进线,表示进入状态。
进一步地,所述步骤S2中使用SSD深度学习检测方法,先在应用场景进行数据学习训练,接着对采集的视频的每一帧进行头肩检测:
其中N表示在多个深度卷积层匹配到的框的个数,如果N=0,设置损失函数L()为0,是一个指示器,表示类别p上第i个检测框与第j个真实框匹配;
定位损失Lloc使用的是预测框l与真实框g的L1范数损失:
置信度损失Lconf采用的是头肩与背景置信度c的softmax损失:
基于上述的损失函数训练出来的模型收敛后可用于行人的头肩检测,给模型输入一张图片后可得到图片中头肩框的坐标位置以及是否为头肩的置信度,接着对采集的视频的每一帧利用该模型进行行人头肩的检测,用深度学习的方法不需要对视频进行背景建模和前景提取,也不需要对前景进行行人切割,解决了对于环境复杂人员密集的场景前景难以提取的问题。
进一步地,所述步骤S4中将当前帧检测到的头肩与跟踪列表里的头肩进行匹配更新,
初始时跟踪列表为空,当检测到画面内有头肩信息时,将头肩信息加入到跟踪列表内,接着使用匈牙利算法对跟踪列表里的头肩与当前帧检测到头肩进行匹配,其中匈牙利算法首先利用距离进行限制,头肩之间质心距离超过一个肩部距离的直接不匹配,接着衡量头肩之间的匹配相似度采用深度卷积层的特征进行度量,将检测到的头肩位置映射回深度卷积层对应的位置,若基础网络是VGG则采用conv4_3层的特征,将头肩的深度卷积特征统一归一化到一个固定的尺寸使得两两之间利用L2范数求得一个匹配相似度:
其中L表示匹配相似度,flast跟踪列表的头肩在conv4_3层的特征,fnow表示当年帧检测到的头肩在conv4_3层的特征;
通过匈牙利算法的最优匹配原则将头肩之间匹配相似度最高的匹配上,剩下没有匹配上的再做下述步骤的处理;
1)如果跟踪列表里有头肩没有匹配上,先暂时保留,如果8帧之后仍旧没有匹配上则认为该跟踪目标已离开将它删除;
2)如果当前帧检测到的头肩没有匹配上,则认为它可能是新出现的跟踪目标,如果后续8帧有出现了5帧以上,则确认它为新出现的目标,将它加入跟踪列表,如果后续8帧该目标出现的次数小于2次,则认为它是噪声,将它删除。
进一步地,所述步骤步骤S5中跟踪目标初次进入画面捕获到的位置即为跟踪起始点,跟踪目标离开画面时跟踪结束,跟踪目标最后存在的位置即为跟踪终止点;采用的是对跟踪目标的跟踪起始点以及跟踪终止点进行判定,通过起始点与终止点与线的相对位置判定是否为一个有效的进入或者离开,避免工作人员在线的两侧徘徊影响计数的现象。
进一步地,所述步骤S6中更新进出的人数信息,根据上一步骤得到的当前帧的离开人数和进入人数更新当前系统的总离开人数和进入人数,当前总离开人数等于当前帧的离开人数加上上一帧的总离开人数,当前总进入人数等于当前帧的进入人数加上上一帧的总进入人数,接着转到步骤S2,对下一帧继续检测。
与现有技术相比,本发明技术方案的有益效果是:
本发明是在垂直视角下进行人流统计,相比于斜拍视角,这个视角更容易应对商场、超市、地铁等公共场所人流很密集的情况;提出利用深度学习检测头肩,利用深度学习强大的学习能力,不需要对视频进行背景建模和前景提取,也不需要对前景进行行人切割,能够更精确更鲁棒地检测到头肩信息;进行匹配跟踪利用的是深度卷积特征,相对于HOG、LBP等手动设计的特征,深度卷积特征有更好的表达能力,能够更好的应对各种场景;本发明是直接将某一层的深度卷积特征拿来做匹配,避免了特征的重复计算,使得更加省时。
附图说明
图1为本发明的方法流程图;
图2为本发明自建数据集SYSUHS数据集示意图;
图3为本发明画线规则示意图;
图4为本发明匹配跟踪示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种在垂直视角下基于深度学习的客流计数方法,包含以下步骤:
步骤1:在视频画面内绘制进出统计线:
所绘制的进线与出线需尽可能靠近,且画绘制在画面中间的话会使得人流统计会更加准确。如图3所示,进去线为红色,离开线为绿色,他们都画在电梯通道口,且都画在画面的中心位置。
步骤2:利用深度学习方法在当前画面内进行头肩检测:
使用SSD深度学习检测方法,SSD是一个用于目标检测的框架,利用的是回归的思想直接在图像的多个位置回归出目标边框以及目标类别,并且它利用多个卷积层的特征去预测目标,能够高效并且准确的预测目标。我们预先准备了在商场录制的视频制作了一个数据集SYSUHS,总共有9个场景,总共标注了16万个头肩信息。在该数据集上进行学习训练,训练时采用以下的损失函数:
其中N表示在多个深度卷积层匹配到的框的个数,如果N=0,我们设置损失L()为0。是一个指示器,表示类别p上第i个检测框与第j个真实框匹配。
定位损失Lloc使用的是预测框l与真实框g的L1范数损失:
置信度损失Lconf采用的是头肩与背景置信度c的softmax损失:
基于上述的损失函数训练出来的模型收敛后可用于行人的头肩检测,给模型输入一张图片后可得到图片中头肩框的坐标位置以及是否为头肩的置信度。接着对采集的视频的每一帧利用该模型进行行人头肩的检测。用深度学习的方法不需要对视频进行背景建模和前景提取,也不需要对前景进行行人切割,解决了对于环境复杂人员密集的场景前景难以提取的问题。
步骤3:判断当前画面是否存在头肩。根据步骤2得到的检测结果做判定,如果当前视频画面检测出来的头肩框的个数不为0,则转到步骤4;如果为0则转到步骤2,对下一帧继续检测。
步骤4:将当前帧检测到的头肩与跟踪列表里的头肩进行匹配更新。
初始时跟踪列表为空,当检测到画面内有头肩信息时,将头肩信息加入到跟踪列表内。接着使用匈牙利算法对跟踪列表里的头肩与当前帧检测到头肩进行匹配,其中匈牙利算法首先利用距离进行限制,头肩之间质心距离超过一个肩部距离的直接不匹配。接着衡量头肩之间的匹配相似度采用深度卷积层的特征进行度量,将检测到的头肩位置映射回深度卷积层对应的位置,如果基础网络是VGG则可以采用conv4_3层的特征,将头肩的深度卷积特征统一归一化到一个固定的尺寸使得两两之间可以利用L2范数求得一个匹配相似度:
其中L表示匹配相似度,flast跟踪列表的头肩在conv4_3层的特征,fnow表示当年帧检测到的头肩在conv4_3层的特征。
通过匈牙利算法的最优匹配原则将头肩之间匹配相似度最高的匹配上,剩下没有匹配上的再做下面的处理。
1、如果跟踪列表里有头肩没有匹配上,先暂时保留,如果8帧之后仍旧没有匹配上则认为该跟踪目标已离开将它删除。
2、如果当前帧检测到的头肩没有匹配上,则认为它可能是新出现的跟踪目标,如果后续8帧有出现了5帧以上,则确认它为新出现的目标,将它加入跟踪列表。如果后续8帧该目标出现的次数小于2次,则认为它是噪声,将它删除。
步骤5:判断跟踪目标起始点和终止点是否在进出线两侧,如果是的话转到步骤6,如果不是的话转到步骤2,对下一帧继续检测。
跟踪目标初次进入画面捕获到的位置即为跟踪起始点。当跟踪目标离开画面时跟踪结束,跟踪目标最后存在的位置即为跟踪终止点。这里采用的是对跟踪目标的跟踪起始点以及跟踪终止点进行判定,通过起始点与终止点与线的相对位置判定是否为一个有效的进入或者离开,可以避免有些工作人员在线的两侧徘徊影响计数的现象。如图4所示,画面圆圈代表根据头肩检测找到的一个人,连接圆圈的是一条直线,直线的起点就是跟踪目标的起始点,圆圈的质心就是跟踪目标最新的位置,当跟踪目标离开画面时,此次跟踪结束,目标在画面最后出现的位置即为终止点,通过起始点终止点与线的相对位置即可判定结果并且更新进出的人流信息。
步骤6:更新进出的人数信息,根据上一步骤得到的当前帧的离开人数和进入人数更新当前系统的总离开人数和进入人数,当前总离开人数等于当前帧的离开人数加上上一帧的总离开人数,当前总进入人数等于当前帧的进入人数加上上一帧的总进入人数。接着转到步骤2,对下一帧继续检测。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (6)

1.一种在垂直视角下基于深度学习的客流计数方法,其特征在于,包括以下步骤:
S1:在视频画面内绘制进出统计线;
S2:利用深度学习方法在当前画面内进行行人头肩检测;
S3:判断当前画面是否存在头肩,如果是则转到步骤S4;如果不是则转到步骤S2,对下一帧继续检测;
S4:将当前帧检测到的头肩与跟踪列表里的头肩进行匹配更新;
S5:判断跟踪目标起始点和终止点是否在进出线两侧,如果是则转到步骤S6;如果不是则转到步骤S2,对下一帧继续检测;
S6:更新进出的人数信息,接着转到步骤S2,对下一帧继续检测。
2.根据权利要求1所述的在垂直视角下基于深度学习的客流计数方法,其特征在于,所述步骤S1中当行人先经过进线再经过出线,表示离开状态,反之,当行人先经过出线再经过进线,表示进入状态。
3.根据权利要求2所述的在垂直视角下基于深度学习的客流计数方法,其特征在于,所述步骤S2中使用SSD深度学习检测方法,先在应用场景进行数据学习训练,接着对采集的视频的每一帧进行头肩检测:
<mrow> <mi>L</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>c</mi> <mo>,</mo> <mi>l</mi> <mo>,</mo> <mi>g</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <mrow> <mo>(</mo> <msub> <mi>L</mi> <mrow> <mi>c</mi> <mi>o</mi> <mi>n</mi> <mi>f</mi> </mrow> </msub> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>c</mi> </mrow> <mo>)</mo> <mo>+</mo> <msub> <mi>&amp;alpha;L</mi> <mrow> <mi>l</mi> <mi>o</mi> <mi>c</mi> </mrow> </msub> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>l</mi> <mo>,</mo> <mi>g</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>...</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
其中N表示在多个深度卷积层匹配到的框的个数,如果N=0,设置损失函数L()为0,是一个指示器,表示类别p上第i个检测框与第j个真实框匹配;
定位损失Lloc使用的是预测框l与真实框g的L1范数损失:
<mrow> <msub> <mi>L</mi> <mrow> <mi>l</mi> <mi>o</mi> <mi>c</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>l</mi> <mo>,</mo> <mi>g</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>&amp;Element;</mo> <mi>P</mi> <mi>o</mi> <mi>s</mi> </mrow> <mi>N</mi> </munderover> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>m</mi> <mo>&amp;Element;</mo> <mo>{</mo> <mi>c</mi> <mi>x</mi> <mo>,</mo> <mi>c</mi> <mi>y</mi> <mo>,</mo> <mi>w</mi> <mo>,</mo> <mi>h</mi> <mo>}</mo> </mrow> </munder> <msubsup> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mi>k</mi> </msubsup> <msub> <mi>smooth</mi> <mrow> <mi>L</mi> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <msubsup> <mi>l</mi> <mi>i</mi> <mi>m</mi> </msubsup> <mo>-</mo> <mover> <msubsup> <mi>g</mi> <mi>j</mi> <mi>m</mi> </msubsup> <mo>^</mo> </mover> <mo>)</mo> </mrow> <mn>...</mn> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
置信度损失Lconf采用的是头肩与背景置信度c的softmax损失:
<mrow> <mtable> <mtr> <mtd> <mrow> <msub> <mi>L</mi> <mrow> <mi>c</mi> <mi>o</mi> <mi>n</mi> <mi>f</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>c</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>-</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>&amp;Element;</mo> <mi>P</mi> <mi>o</mi> <mi>s</mi> </mrow> <mi>N</mi> </munderover> <msubsup> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mi>p</mi> </msubsup> <mi>log</mi> <mrow> <mo>(</mo> <msubsup> <mover> <mi>c</mi> <mo>^</mo> </mover> <mi>i</mi> <mi>p</mi> </msubsup> <mo>)</mo> </mrow> <mo>-</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>&amp;Element;</mo> <mi>N</mi> <mi>e</mi> <mi>g</mi> </mrow> </munder> <mi>log</mi> <mrow> <mo>(</mo> <msubsup> <mover> <mi>c</mi> <mo>^</mo> </mover> <mi>i</mi> <mn>0</mn> </msubsup> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <mi>w</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>e</mi> </mrow> </mtd> <mtd> <mrow> <msubsup> <mover> <mi>c</mi> <mo>^</mo> </mover> <mi>i</mi> <mi>p</mi> </msubsup> <mo>=</mo> <mfrac> <mrow> <mi>exp</mi> <mrow> <mo>(</mo> <msubsup> <mi>c</mi> <mi>i</mi> <mi>p</mi> </msubsup> <mo>)</mo> </mrow> </mrow> <mrow> <msub> <mo>&amp;Sigma;</mo> <mi>p</mi> </msub> <mi>exp</mi> <mrow> <mo>(</mo> <msubsup> <mi>c</mi> <mi>i</mi> <mi>p</mi> </msubsup> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow> </mtd> </mtr> </mtable> <mn>...</mn> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
基于上述的损失函数训练出来的模型收敛后可用于行人的头肩检测,给模型输入一张图片后可得到图片中头肩框的坐标位置以及是否为头肩的置信度,接着对采集的视频的每一帧利用该模型进行行人头肩的检测,用深度学习的方法不需要对视频进行背景建模和前景提取,也不需要对前景进行行人切割,解决了对于环境复杂人员密集的场景前景难以提取的问题。
4.根据权利要求3所述的在垂直视角下基于深度学习的客流计数方法,其特征在于,所述步骤S4中将当前帧检测到的头肩与跟踪列表里的头肩进行匹配更新,
初始时跟踪列表为空,当检测到画面内有头肩信息时,将头肩信息加入到跟踪列表内,接着使用匈牙利算法对跟踪列表里的头肩与当前帧检测到头肩进行匹配,其中匈牙利算法首先利用距离进行限制,头肩之间质心距离超过一个肩部距离的直接不匹配,接着衡量头肩之间的匹配相似度采用深度卷积层的特征进行度量,将检测到的头肩位置映射回深度卷积层对应的位置,若基础网络是VGG则采用conv4_3层的特征,将头肩的深度卷积特征统一归一化到一个固定的尺寸使得两两之间利用L2范数求得一个匹配相似度:
<mrow> <mi>L</mi> <mo>=</mo> <mo>|</mo> <mo>|</mo> <msub> <mi>f</mi> <mrow> <mi>l</mi> <mi>a</mi> <mi>s</mi> <mi>t</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>f</mi> <mrow> <mi>n</mi> <mi>o</mi> <mi>w</mi> </mrow> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>...</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
其中L表示匹配相似度,flast跟踪列表的头肩在conv4_3层的特征,fnow表示当年帧检测到的头肩在conv4_3层的特征;
通过匈牙利算法的最优匹配原则将头肩之间匹配相似度最高的匹配上,剩下没有匹配上的再做下述步骤的处理;
1)如果跟踪列表里有头肩没有匹配上,先暂时保留,如果8帧之后仍旧没有匹配上则认为该跟踪目标已离开将它删除;
2)如果当前帧检测到的头肩没有匹配上,则认为它可能是新出现的跟踪目标,如果后续8帧有出现了5帧以上,则确认它为新出现的目标,将它加入跟踪列表,如果后续8帧该目标出现的次数小于2次,则认为它是噪声,将它删除。
5.根据权利要求4所述的在垂直视角下基于深度学习的客流计数方法,其特征在于,所述步骤步骤S5中跟踪目标初次进入画面捕获到的位置即为跟踪起始点,跟踪目标离开画面时跟踪结束,跟踪目标最后存在的位置即为跟踪终止点;采用的是对跟踪目标的跟踪起始点以及跟踪终止点进行判定,通过起始点与终止点与线的相对位置判定是否为一个有效的进入或者离开,避免工作人员在线的两侧徘徊影响计数的现象。
6.根据权利要求5所述的在垂直视角下基于深度学习的客流计数方法,其特征在于,所述步骤S6中更新进出的人数信息,根据上一步骤得到的当前帧的离开人数和进入人数更新当前系统的总离开人数和进入人数,当前总离开人数等于当前帧的离开人数加上上一帧的总离开人数,当前总进入人数等于当前帧的进入人数加上上一帧的总进入人数,接着转到步骤S2,对下一帧继续检测。
CN201710139113.3A 2017-03-09 2017-03-09 一种在垂直视角下基于深度学习的客流计数方法 Active CN107103279B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710139113.3A CN107103279B (zh) 2017-03-09 2017-03-09 一种在垂直视角下基于深度学习的客流计数方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710139113.3A CN107103279B (zh) 2017-03-09 2017-03-09 一种在垂直视角下基于深度学习的客流计数方法

Publications (2)

Publication Number Publication Date
CN107103279A true CN107103279A (zh) 2017-08-29
CN107103279B CN107103279B (zh) 2020-06-05

Family

ID=59675331

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710139113.3A Active CN107103279B (zh) 2017-03-09 2017-03-09 一种在垂直视角下基于深度学习的客流计数方法

Country Status (1)

Country Link
CN (1) CN107103279B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108154110A (zh) * 2017-12-22 2018-06-12 任俊芬 一种基于深度学习人头检测的密集人流量统计方法
CN108171752A (zh) * 2017-12-28 2018-06-15 成都阿普奇科技股份有限公司 一种基于深度学习的海面船只视频检测与跟踪方法
CN108205687A (zh) * 2018-02-01 2018-06-26 通号通信信息集团有限公司 目标检测系统中基于关注点机制定位损失计算方法及系统
CN108647587A (zh) * 2018-04-23 2018-10-12 腾讯科技(深圳)有限公司 人数统计方法、装置、终端及存储介质
CN109034036A (zh) * 2018-07-19 2018-12-18 青岛伴星智能科技有限公司 一种视频分析方法、教学质量评估方法及系统、计算机可读存储介质
CN109101929A (zh) * 2018-08-16 2018-12-28 新智数字科技有限公司 一种行人计数方法及装置
CN109285376A (zh) * 2018-08-09 2019-01-29 同济大学 一种基于深度学习的公交车客流统计分析系统
CN109697392A (zh) * 2017-10-23 2019-04-30 北京京东尚科信息技术有限公司 绘制目标对象热力图的方法及装置
CN110309825A (zh) * 2018-03-20 2019-10-08 中国科学院深圳先进技术研究院 一种复杂背景下的维吾尔文检测方法、系统及电子设备
CN110688924A (zh) * 2019-09-19 2020-01-14 天津天地伟业机器人技术有限公司 一种基于rfcn的垂直单目客流量统计方法
US10832416B2 (en) 2018-09-21 2020-11-10 International Business Machines Corporation Crowd flow rate estimation
CN113112070A (zh) * 2021-04-09 2021-07-13 南京邮电大学 一种基于智慧灯杆的景区客流调度方法
WO2021159898A1 (zh) * 2020-02-12 2021-08-19 深圳壹账通智能科技有限公司 基于隐私保护的深度学习方法、系统、服务器及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2030744A (en) * 1978-07-21 1980-04-10 Giken Trading Co Method for counting the number of persons passing a given point
CN101477626A (zh) * 2009-01-16 2009-07-08 清华大学 一种在复杂场景的视频中进行人体头肩检测的方法
CN104318578A (zh) * 2014-11-12 2015-01-28 苏州科达科技股份有限公司 一种视频图像分析方法及系统
EP2923304A1 (en) * 2012-11-21 2015-09-30 Pelco, Inc. Method and system for counting people using depth sensor
CN105844234A (zh) * 2016-03-21 2016-08-10 商汤集团有限公司 一种基于头肩检测的人数统计的方法及设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2030744A (en) * 1978-07-21 1980-04-10 Giken Trading Co Method for counting the number of persons passing a given point
CN101477626A (zh) * 2009-01-16 2009-07-08 清华大学 一种在复杂场景的视频中进行人体头肩检测的方法
EP2923304A1 (en) * 2012-11-21 2015-09-30 Pelco, Inc. Method and system for counting people using depth sensor
CN104318578A (zh) * 2014-11-12 2015-01-28 苏州科达科技股份有限公司 一种视频图像分析方法及系统
CN105844234A (zh) * 2016-03-21 2016-08-10 商汤集团有限公司 一种基于头肩检测的人数统计的方法及设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WEI LIU ET AL.: "SSD: Single Shot MultiBox Detector", 《ARXIV》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109697392A (zh) * 2017-10-23 2019-04-30 北京京东尚科信息技术有限公司 绘制目标对象热力图的方法及装置
CN108154110A (zh) * 2017-12-22 2018-06-12 任俊芬 一种基于深度学习人头检测的密集人流量统计方法
CN108154110B (zh) * 2017-12-22 2022-01-11 任俊芬 一种基于深度学习人头检测的密集人流量统计方法
CN108171752A (zh) * 2017-12-28 2018-06-15 成都阿普奇科技股份有限公司 一种基于深度学习的海面船只视频检测与跟踪方法
CN108205687A (zh) * 2018-02-01 2018-06-26 通号通信信息集团有限公司 目标检测系统中基于关注点机制定位损失计算方法及系统
CN108205687B (zh) * 2018-02-01 2022-04-01 通号通信信息集团有限公司 目标检测系统中基于注意力机制定位损失计算方法及系统
CN110309825A (zh) * 2018-03-20 2019-10-08 中国科学院深圳先进技术研究院 一种复杂背景下的维吾尔文检测方法、系统及电子设备
CN108647587B (zh) * 2018-04-23 2021-08-24 腾讯科技(深圳)有限公司 人数统计方法、装置、终端及存储介质
CN108647587A (zh) * 2018-04-23 2018-10-12 腾讯科技(深圳)有限公司 人数统计方法、装置、终端及存储介质
CN109034036A (zh) * 2018-07-19 2018-12-18 青岛伴星智能科技有限公司 一种视频分析方法、教学质量评估方法及系统、计算机可读存储介质
CN109034036B (zh) * 2018-07-19 2020-09-01 青岛伴星智能科技有限公司 一种视频分析方法、教学质量评估方法及系统、计算机可读存储介质
CN109285376A (zh) * 2018-08-09 2019-01-29 同济大学 一种基于深度学习的公交车客流统计分析系统
CN109285376B (zh) * 2018-08-09 2022-04-19 同济大学 一种基于深度学习的公交车客流统计分析系统
CN109101929A (zh) * 2018-08-16 2018-12-28 新智数字科技有限公司 一种行人计数方法及装置
US10832416B2 (en) 2018-09-21 2020-11-10 International Business Machines Corporation Crowd flow rate estimation
CN110688924A (zh) * 2019-09-19 2020-01-14 天津天地伟业机器人技术有限公司 一种基于rfcn的垂直单目客流量统计方法
WO2021159898A1 (zh) * 2020-02-12 2021-08-19 深圳壹账通智能科技有限公司 基于隐私保护的深度学习方法、系统、服务器及存储介质
CN113112070A (zh) * 2021-04-09 2021-07-13 南京邮电大学 一种基于智慧灯杆的景区客流调度方法

Also Published As

Publication number Publication date
CN107103279B (zh) 2020-06-05

Similar Documents

Publication Publication Date Title
CN107103279A (zh) 一种在垂直视角下基于深度学习的客流计数方法
Singh et al. Deep spatio-temporal representation for detection of road accidents using stacked autoencoder
CN104933710B (zh) 基于监控视频下的商店人流轨迹智能分析方法
CN103984915B (zh) 一种监控视频中行人重识别方法
CN104094279B (zh) 大范围优先的跨摄像机视觉目标再识别方法
Butenuth et al. Integrating pedestrian simulation, tracking and event detection for crowd analysis
CN103310444B (zh) 一种基于头顶摄像头的监控行人计数的方法
WO2015131734A1 (zh) 一种前视监视场景下的行人计数方法、装置和存储介质
CN109101888A (zh) 一种游客人流量监控预警方法
CN109902573A (zh) 面向矿井下视频监控的多摄像机无标注行人重识别方法
CN108198200A (zh) 跨摄像头场景下指定行人在线跟踪方法
CN101800890A (zh) 一种高速公路监控场景下多车辆视频跟踪方法
CN107301376B (zh) 一种基于深度学习多层刺激的行人检测方法
CN105893962A (zh) 一种机场安检卡口人流统计方法
CN104616006B (zh) 一种面向监控视频的胡须人脸检测方法
CN109583315A (zh) 一种面向智能视频监控的多通道快速人体姿态识别方法
CN109583366B (zh) 一种基于视频图像和WiFi定位的体育建筑疏散人群轨迹生成方法
CN103824114B (zh) 一种基于截面流量统计的行人流量计数方法和系统
CN112906678B (zh) 基于监控视频的非法遛狗事件检测方法、装置
CN106203276A (zh) 一种视频客流统计系统及客流统计方法
CN109558790B (zh) 一种行人目标检测方法、装置及系统
CN110378233A (zh) 一种基于人群行为先验知识的双分支异常检测方法
CN104599291B (zh) 基于结构相似度和显著性分析的红外运动目标检测方法
CN107563299A (zh) 一种利用ReCNN融合上下文信息的行人检测方法
CN103646254A (zh) 一种高密度行人检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant