CN105512640B - 一种基于视频序列的人流量统计方法 - Google Patents
一种基于视频序列的人流量统计方法 Download PDFInfo
- Publication number
- CN105512640B CN105512640B CN201511027665.2A CN201511027665A CN105512640B CN 105512640 B CN105512640 B CN 105512640B CN 201511027665 A CN201511027665 A CN 201511027665A CN 105512640 B CN105512640 B CN 105512640B
- Authority
- CN
- China
- Prior art keywords
- target
- carried out
- detection
- flow rate
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/759—Region-based matching
Abstract
本发明涉及一种基于视频序列的人流量统计方法,属于图像处理与视频监控技术领域。该方法包括以下步骤:1)获取视频,通过采样得到视频序列;2)通过候选区域检测模块进行粗检测得到候选目标区域;3)利用基于迁移学习的卷积神经网络+支持向量机分类器模型对候选区域进行进一步筛选得到检测目标;4)根据航迹预测对待关联的候选目标范围进行限制;5)通过特征匹配进行目标航迹关联;6)利用航迹信息进行人流量统计。该方法可以节约大量的人力资源,而且避免了由于人为因素所造成的错误统计,同时很好地克服了人工计数在某些场景下的计数劣势,并且该方法能够准确定位到单个行人,给后续分析工作带来了重大意义。
Description
技术领域
本发明属于图像处理与视频监控技术领域,涉及一种基于视频序列的人流量统计方法。
背景技术
随着人类智慧不断推动科技的快速发展,各种智能设备也在日趋进步与完善,智能技术也因此正不断地影响与改变着人们的学习生活与工作方式。在各个方面得到了广泛应用的图像处理与视频监控系统作为人们学习与生活中的一部分,起到了不可磨灭的作用。人流量统计系统作为评估某一特定场景中,某些方向上人流量多少的计数系统,在实际生活应用中具有非常重要的作用。例如,通过对进出教室人群进行自动统计不仅能考察各科的出勤率,从而合理的评估教学质量,而且可以帮助同学们快速选择合适的自习教室。通过对地铁站内进出客流人数的统计,可以方便地铁运营方以及安保方有效地控制客流,做好应对措施。通过对每路公交车的各个站点、各个时间段的人流量统计,可以使交通运营者采取最合理的调度制度以及运营模式,这样给乘客提供最方便、快捷的服务。
但是,传统的人工计数方式不仅会耗费大量的人力资源,而且可能由于各种因素造成错误统计,特别是对于那些人群出入密集场所,使得人工计数更加困难,而自动人流量统计系统则能解决以上问题,给学习和生活带来巨大便利,提高生活质量。因此,目前急需一种能够克服人工计数方式劣势的实时自动人流量统计方法。
发明内容
有鉴于此,本发明的目的在于提供一种基于视频序列的人流量统计方法,该方法可以节约大量的人力资源,而且避免了由于人为因素所造成的错误统计,同时很好地克服了人工计数在某些场景下的计数劣势,并且该方法能够准确定位到单个行人,给后续分析工作带来了重大意义。
为达到上述目的,本发明提供如下技术方案:
一种基于视频序列的人流量统计方法,包括以下步骤:1)获取视频,通过采样得到视频序列;2)通过候选区域检测模块进行粗检测得到候选目标区域;3)利用基于迁移学习的卷积神经网络+支持向量机分类器模型对候选区域进行进一步筛选得到检测目标;4)根据航迹预测对待关联的候选目标范围进行限制;5)通过特征匹配进行目标航迹关联;6)利用航迹信息进行人流量统计。
进一步,在步骤2)中,通过候选区域检测模块进行粗检测得到候选区域,采用以下几类方法得到候选区域:
21)基于检测的方法:这类方法利用训练好的目标分类器,对图像进行扫描得到疑似目标区域;例如级联的自适应增强(Adaboost,Adaptive Boosting)检测方法、方向梯度直方图(HOG,Histogram of oriented gradient)+支持向量机(SVM,Support VectorMachine)等方法;
22)基于碎片聚合的方法:这类方法首先将图片打碎,然后再聚合;例如选择性搜索算法(Selective Search),该方法无需学习,直接利用图像分割方法获得一些粗分割结果,然后根据给定的相似度准则进行聚合;
23)基于给滑动窗口打分的方法:这类方法是先生成候选框,然后利用某些方法或者准则直接打分排序来过滤掉低分的候选框;例如Bing、EdgeBoxes等方法。
在步骤3)中,提取出步骤S102所得到的候选区域,由于候选区域目标存在错误正样本,因而需要对候选区域目标重新加以挑选,从而得到正负样本训练集,然后利用基于迁移学习的卷积神经网络+支持向量机分类器模型对候选区域进行目标判别确认,这样能够保证较高的目标检测率。
进一步,在步骤3)中,基于迁移学习的卷积神经网络+支持向量机分类器模型中迁移学习是在已有卷积神经网络结构模型的基础上进行微调后重新训练,且卷积神经网络采用多层网络结构,取全连接层特征向量作为卷积神经网络提取到的特征,输入到支持向量机进行模型训练,输出即为基于迁移学习的卷积神经网络+支持向量机分类器模型。
进一步,在步骤4)中,对筛选得到的检测目标航迹进行预测,根据航迹预测对待关联的候选目标范围进行限制;由于相邻帧间行人目标的空间位置变化不大,因而通过设置合适的阈值进行距离区域限制,或者可以利用均值漂移、卡尔曼滤波、粒子滤波等方法预测当前帧的指定目标在下一帧可能出现的空间位置,从而以此目标为中心进行区域限制处理。
进一步,在步骤5)中,通过步骤4)得到候选区域,对候选区域内所有中心点在区域范围内的待关联候选目标一一进行特征匹配,通过特征匹配进行目标航迹关联;在此过程中,通过设置两个阈值,若匹配分数达到最高设限阈值,且得到的匹配分数最高,说明该目标最相关,则将该检测目标确定为当前帧指定目标的关联对象,若匹配分数未达到最低设定阈值,则说明当前帧指定目标为虚假目标,应当舍弃。
进一步,对于匹配分数在两个设定阈值之间的检测目标,若在匹配区域范围内仍存在未匹配对象,则可根据分数高低与匹配分数最高的检测目标进行匹配,否则,若在匹配区域范围内不存在未匹配对象或匹配区域范围内不存在检测目标,则暂时保存该目标,使之与后面隔帧图像进行匹配关联,若隔帧图像在限定区域内存在未与其上一帧匹配关联目标,且满足达到最低阈值,则可与其匹配分数最高者进行关联即可,若此时仍未达到要求,仍先保存该目标,反复进行匹配关联,直到连续N帧均未匹配到,则被视为无效目标,进行舍弃。
进一步,在步骤6)中,通过能够匹配关联到的相应目标航迹信息进行跟踪,当检测目标通过指定检测线或兴趣区域时进行双向流计数,从而最终得到人流量统计结果并显示出来,在这里,通过标志位的变化、位移差或光流方向等方法来判断行人运动方向,从而根据其相应的变化进行计数。
本发明的有益效果在于:本发明提供的方法可以节约大量的人力资源,而且避免了由于人为因素所造成的错误统计,同时很好地克服了人工计数在某些场景下的计数劣势,并且该方法能够准确定位到单个行人,给后续分析工作带来了重大意义。
附图说明
为了使本发明的目的、技术方案和有益效果更加清楚,本发明提供如下附图进行说明:
图1为本发明所述方法的流程示意图;
图2为Adaboost的算法流程示意图;
图3为基于迁移学习的卷积神经网络+支持向量机分类器模型示意图;
图4为特征匹配模块示意图;
图5为人流量计数模块示意图。
具体实施方式
下面将结合附图,对本发明的优选实施例进行详细的描述。
本发明是为了更好地利用已有视频资源,通过人流量统计技术达到实时计数的效果,方便多种场合下的人流量统计。该方法根据采集到的监控序列图像或视频,对其图像进行处理,从而将检测出来的人流量统计结果在线显示出来。
由于人头是身体部分中最为明显的部位,特别是在人流量比较大的场所,此时由于受遮挡、光照、像素分辨率等因素的影响,使得准确检测身体其他部位变得更加困难,甚至几乎很难进行目标检测。由此可见,目标的可视性尤为重要。因此,在本实施例中,本发明具体针对人头进行检测,通过对检测结果进行准确匹配关联,进而通过跟踪计数得到人流量统计结果。
图1为本发明所述方法的流程示意图,如图所示,该方法首先获取应用场景中的监控视频,通过对视频采样得到连续的视频序列;然后通过候选区域检测模块进行粗检测得到候选目标;随后利用基于迁移学习(TL,Transfer Learning)的卷积神经网络(CNN,Convolutional Neural Network)+支持向量机(SVM,Support Vector Machine)分类器模型对候选目标进行进一步筛选得到检测目标;之后根据航迹预测对待关联的候选目标范围进行限制;进一步地,通过对候选目标范围内的检测目标进行特征匹配得到关联的航迹目标;最后,利用航迹信息进行人流量统计。
具体步骤如下:
S101:获取视频,通过采样得到视频序列。
具体地,首先获取应用场景中的监控视频,通过对视频进行逐帧采样得到连续的视频序列。
S102:通过候选区域检测模块进行粗检测得到候选区域。
具体地,本发明选取使用级联的Adaboost方法进行粗检测得到候选区域。这是因为该方法能够快速地排除一些非人头,并保留人头部分,具有实时性。同时,可以通过调节不同的内部训练参数,使得粗检测具有较高的召回率,用于后阶段的再次筛选。
图2为Adaboost的算法流程图。从图中可知,该算法包括以下几个步骤:
S201:输入具有标签的训练样本特征向量;
S202:初始化训练样本特征向量的权值分布;
S203:使用当前权值分布加权的训练样本特征向量学习基本分类器;
S204:计算基本分类器在加权训练样本特征向量上的分类误差率;
S205:计算基本分类器的系数;
S206:更新训练样本特征向量的权值分布;
S207:判断是否达到误差最小或最大循环次数,若是,则进入步骤S208,否则,转入步骤S203进行循环;
S208:构建基本分类器的线性组合得到强分类器。
基于级联的Adaboost检测过程则是通过多尺度遍历整幅图像,产生多个子窗口;并进行特征提取,将提取到的特征向量输入到Adaboost检测器模型中;经过cascade级联检测器,一级级排除非人头区域,最终得到候选人头区域,达到检测的目的。在此过程中,只有当通过了每层检测器间设置的阈值才能够进入下一阶段的判断。这样可以大大降低了虚假目标的存在,同时,提高了检测的速度。
S103:利用基于迁移学习的卷积神经网络+支持向量机分类器模型对候选区域进行进一步筛选得到检测目标;
具体地,将基于级联的Adaboost检测器检测出来的结果中非人头虚假目标当作负样本,检测出来的真实目标当作正样本,由此构造正负样本集。然后把这个样本集用于训练基于迁移学习的卷积神经网络+支持向量机分类器模型。
迁移学习实质上是为了将从一个环境中学习到的知识用来帮助新环境中的学习任务。在这里主要是为了将从另外一个学习任务里面训练出来的卷积神经网络结构模型用于现有人流量统计任务上。由于卷积网络前面几层特征对一个具体的任务或数据集并不具有特定性,相反,它们对大多任务或数据集具有通用性,而在后面网络层中其训练特征则与特定的任务或数据集有关。因而,为了使前面训练的网络适用于后面的任务或数据集,则需要将网络后几层特征重新训练而保持前面网络特征不变,即将后几层网络特征进行转换,从而使之适应新的任务或数据集。这样,训练出来的模型更具有增强性,也能更好地对已有知识进行应用。
图3为基于迁移学习的卷积神经网络+支持向量机分类器模型示意图,如图所示,其训练过程包括以下部分:
S301:输入正负样本集;
S302:进行样本预处理;
具体地,将样本尺寸归一化到N×N大小,例如28×28,正样本标记为1,负样本标记为-1,对所有样本的R、G、B值进行均值预处理得到样本的初始化图像矩阵。
S303:加载卷积神经网络结构模型;
具体地,这里指将从另外一个学习任务里面训练出来的卷积神经网络结构模型用于现有人流量统计任务上。在这里,我们使用的是早期已经训练好的卷积神经网络结构模型。
S304:微调卷积神经网络参数;
具体地,若加载的卷积神经网络结构模型源数据最终预测的类别数与目标数据即现有任务数据类别数不一致,则需要调节卷积神经网络最后两层结构(全连接层和softmax层)。另外,尽量保证处理图像归一化尺寸一致。在这里,由于我们所使用的训练样本与源训练样本均为二分类且处理图像大小一致,因而只对参数进行了微调。例如,将前面几层网络参数中的学习率(Learning Rate)设置为0,而保持后面几层网络参数不变。
S305:重新学习并训练卷积神经网络模型;
具体地,该过程包括以下部分:
(1)前向传播阶段:
1)对每张图像进行多次卷积和下采样操作。首先用多个模板滤波器去卷积输入的图像矩阵,输入的样本矩阵被映射到高维空间;然后对高维空间的特征映射进行下采样降维操作,其中,下采样输出的特征映射图数目不会变化,只有尺寸大小的变化;
2)利用卷积神经网络提取目标的特征表达,即把全连接层的输出作为特征表达(特征向量),然后把该特征表达作为Softmax分类器的输入特征,得到样本的输出值。
(2)反向传播阶段:
1)首先计算前向传播阶段最后几层的各节点的激活值,并用于学习更新后几层网络结构模型;
2)在最后输出层计算输出值与相应的理想输出值之间的残差,同样计算隐藏层各节点的残差;
3)按梯度下降法极小化残差,反向传播调整卷积神经网络后几层权值参数。
S306:将卷积神经网络全连接层输出特征输入到支持向量机分类器进行训练;
S307:输出基于迁移学习的卷积神经网络+支持向量机分类器模型。
S104:根据航迹预测对待关联的候选目标范围进行限制;
具体地,对筛选得到的检测目标航迹进行预测,根据航迹预测对待关联的候选目标范围进行限制。在这里,我们使用均值漂移方法进行航迹预测,均值漂移跟踪的实质是通过对应的模板来确定目标的下一个位置。那么,我们可以通过指定的人头目标模板来迭代找到下一帧图像中新的人头目标中心点。通过以此人头目标中心点为中心,进行欧氏距离区域限制,得到所有中心点在候选区域内的关联目标进行后续匹配。均值漂移跟踪算法步骤如下:
1)确定当前帧指定人头目标的位置及核窗宽度并计算其概率密度;
2)以当前帧指定人头目标的位置为中心进行搜索,得到下一帧候选人头目标的中心位置坐标,并计算候选人头目标的概率密度;
3)度量当前帧与下一帧人头目标的相似性;
4)相似度最大的目标为下一帧图像中确定的人头目标。
S105:通过特征匹配进行目标航迹关联;
具体地,为了进一步确认下一帧图像中确定的人头目标的可靠性,通过对候选区域内所有中心点在区域范围内的待关联候选目标一一进行特征匹配。在此过程中,可以利用基于迁移学习的卷积神经网络+支持向量机提取到的全连接层的特征进行相关系数相似性度量匹配。首先设置两个阈值,若相似性度量匹配分数达到最高设限阈值,且得到的匹配分数最高,则将该检测目标确定其为当前帧指定目标的关联对象;若相似性度量匹配分数未达到最低设定阈值,则说明当前帧指定目标为虚假目标,应当舍弃。
另外,对于相似性度量匹配分数在两个设定阈值之间的检测目标,若它在匹配区域范围内仍存在未匹配目标,则将未匹配目标进行匹配分数排序。匹配分数最高目标与检测目标进行匹配,否则,若在匹配区域范围内不存在未匹配目标或匹配区域范围内不存在检测目标,则暂时保存该目标,使之与后面隔帧图像进行匹配关联。若隔帧图像在限定区域内存在未与其上一帧匹配关联目标,且满足达到最低阈值,则可与其匹配分数最高者进行关联即可。若此时仍未达到要求,仍先保存该目标,反复进行匹配关联,直到连续N帧均未匹配到,则被视为无效目标,进行舍弃,其具体匹配过程见图4所示。
S106:利用航迹信息进行人流量统计。
通过对能够匹配关联到的相应目标进行跟踪,当检测目标通过指定检测线或兴趣区域时进行双向计数,从而最终得到人流量统计结果并显示出来。在这里,通过对标志位的变化判断处理,得到最终的人流量统计结果。其过程如图5所示,目的是为了对通过检测线的人流量进行计数统计。具体过程包括:
(1)给待统计视频序列图像设置检测线并初始化人头检测信息。这里主要包括人头检测矩形框的坐标信息以及所处位置的标志位信息。
(2)更新图像,用于视频序列后面的不断判断与处理,使之更加连续。
(3)判定当前帧是否为有检测人头信息帧,若有,则赋予其所有检测框相应的标志位。标志位的设置主要是通过判断其与检测线的差值。在此我们根据检测线将整幅图像分成几个不同区域,因而将标志位设置成几个不同标志数。
(4)根据航迹预测对待关联人头进行欧氏距离范围限制。
(4)根据步骤S105对限制区域内的人头进行特征匹配,并对匹配到的人头目标进行航迹关联以及更新相应标志位用于后续判断。
(5)判断标志位是否发生变化,若发生变化则进行相应计数,否则更新图像继续进行判断。
最后说明的是,以上优选实施例仅用以说明本发明的技术方案而非限制,尽管通过上述优选实施例已经对本发明进行了详细的描述,但本领域技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离本发明权利要求书所限定的范围。
Claims (6)
1.一种基于视频序列的人流量统计方法,其特征在于:包括以下步骤:
1)获取视频,通过采样得到视频序列;
2)通过候选区域检测模块进行粗检测得到候选目标区域;
3)利用基于迁移学习的卷积神经网络+支持向量机分类器模型对候选区域进行进一步筛选得到检测目标;
在步骤3)中,基于迁移学习的卷积神经网络+支持向量机分类器模型中迁移学习是在已有卷积神经网络结构模型的基础上进行微调后重新训练,且卷积神经网络采用多层网络结构,取全连接层特征向量作为卷积神经网络提取到的特征,输入到支持向量机进行模型训练,输出即为基于迁移学习的卷积神经网络+支持向量机分类器模型;
重新学习并训练卷积神经网络模型,具体包括以下部分:
A)前向传播阶段:
a)对每张图像进行多次卷积和下采样操作;首先用多个模板滤波器去卷积输入的图像矩阵,输入的样本矩阵被映射到高维空间;然后对高维空间的特征映射进行下采样降维操作,其中,下采样输出的特征映射图数目不会变化,只有尺寸大小的变化;
b)利用卷积神经网络提取目标的特征表达,即把全连接层的输出作为特征表达,然后把该特征表达作为Softmax分类器的输入特征,得到样本的输出值;
B)反向传播阶段:
a)首先计算前向传播阶段最后几层的各节点的激活值,并用于学习更新后几层网络结构模型;
b)在最后输出层计算输出值与相应的理想输出值之间的残差,同样计算隐藏层各节点的残差;
c)按梯度下降法极小化残差,反向传播调整卷积神经网络后几层权值参数;
4)根据航迹预测对待关联的候选目标范围进行限制;
5)通过特征匹配进行目标航迹关联;
6)利用航迹信息进行人流量统计。
2.根据权利要求1所述的一种基于视频序列的人流量统计方法,其特征在于:在步骤2)中,通过候选区域检测模块进行粗检测得到候选区域,采用以下几类方法得到候选区域:
21)基于检测的方法:这类方法利用训练好的目标分类器,对图像进行扫描得到疑似目标区域;
22)基于碎片聚合的方法:这类方法首先将图片打碎,然后再聚合;
23)基于给滑动窗口打分的方法:这类方法是先生成候选框,然后利用某些方法或者准则直接打分排序来过滤掉低分的候选框。
3.根据权利要求1所述的一种基于视频序列的人流量统计方法,其特征在于:在步骤4)中,对筛选得到的检测目标航迹进行预测,根据航迹预测对待关联的候选目标范围进行限制;由于相邻帧间行人目标的空间位置变化不大,因而通过设置合适的阈值进行距离区域限制,或者利用均值漂移、卡尔曼滤波或粒子滤波来预测当前帧的指定目标在下一帧可能出现的空间位置,从而以此目标为中心进行区域限制处理。
4.根据权利要求1所述的一种基于视频序列的人流量统计方法,其特征在于:在步骤5)中,通过步骤4)得到候选区域,对候选区域内所有中心点在区域范围内的待关联候选目标一一进行特征匹配,通过特征匹配进行目标航迹关联;在此过程中,通过设置两个阈值,若匹配分数达到最高设限阈值,且得到的匹配分数最高,说明该目标最相关,则将该检测目标确定为当前帧指定目标的关联对象,若匹配分数未达到最低设定阈值,则说明当前帧指定目标为虚假目标,应当舍弃。
5.根据权利要求4所述的一种基于视频序列的人流量统计方法,其特征在于:对于匹配分数在两个设定阈值之间的检测目标,若在匹配区域范围内仍存在未匹配对象,则可根据分数高低与匹配分数最高的检测目标进行匹配,否则,若在匹配区域范围内不存在未匹配对象或匹配区域范围内不存在检测目标,则暂时保存该目标,使之与后面隔帧图像进行匹配关联,若隔帧图像在限定区域内存在未与其上一帧匹配关联目标,且满足达到最低阈值,则可与其匹配分数最高者进行关联即可,若此时仍未达到要求,仍先保存该目标,反复进行匹配关联,直到连续N帧均未匹配到,则被视为无效目标,进行舍弃。
6.根据权利要求1所述的一种基于视频序列的人流量统计方法,其特征在于:在步骤6)中,通过能够匹配关联到的相应目标航迹信息进行跟踪,当检测目标通过指定检测线或兴趣区域时进行双向流计数,从而最终得到人流量统计结果并显示出来,在这里,通过标志位的变化、位移差或光流方向来判断行人运动方向,从而根据其相应的变化进行计数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201511027665.2A CN105512640B (zh) | 2015-12-30 | 2015-12-30 | 一种基于视频序列的人流量统计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201511027665.2A CN105512640B (zh) | 2015-12-30 | 2015-12-30 | 一种基于视频序列的人流量统计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105512640A CN105512640A (zh) | 2016-04-20 |
CN105512640B true CN105512640B (zh) | 2019-04-02 |
Family
ID=55720607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201511027665.2A Active CN105512640B (zh) | 2015-12-30 | 2015-12-30 | 一种基于视频序列的人流量统计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105512640B (zh) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105930822A (zh) * | 2016-05-11 | 2016-09-07 | 北京格灵深瞳信息技术有限公司 | 一种人脸抓拍方法及系统 |
CN106203506B (zh) * | 2016-07-11 | 2019-06-21 | 上海凌科智能科技有限公司 | 一种基于深度学习技术的行人检测方法 |
CN106295124B (zh) * | 2016-07-27 | 2018-11-27 | 广州麦仑信息科技有限公司 | 多种图像检测技术综合分析基因子图相似概率量的方法 |
CN106485217B (zh) * | 2016-09-30 | 2019-10-25 | 四川世纪云道科技有限公司 | 一种识别游览景区人流饱和度的方法与系统 |
CN108021848B (zh) * | 2016-11-03 | 2021-06-01 | 浙江宇视科技有限公司 | 客流量统计方法及装置 |
CN106845352B (zh) * | 2016-12-23 | 2020-09-18 | 北京旷视科技有限公司 | 行人检测方法和装置 |
CN106940790B (zh) * | 2017-03-13 | 2020-05-19 | 重庆文理学院 | 一种人流拥塞预测方法及系统 |
CN106960195B (zh) * | 2017-03-27 | 2020-04-03 | 深圳市和巨信息技术有限公司 | 一种基于深度学习的人群计数方法及装置 |
CN106991439A (zh) * | 2017-03-28 | 2017-07-28 | 南京天数信息科技有限公司 | 基于深度学习与迁移学习的图像识别方法 |
CN107066990B (zh) * | 2017-05-04 | 2019-10-11 | 厦门美图之家科技有限公司 | 一种目标跟踪方法及移动设备 |
CN108230354B (zh) * | 2017-05-18 | 2022-05-10 | 深圳市商汤科技有限公司 | 目标跟踪、网络训练方法、装置、电子设备和存储介质 |
CN108986064B (zh) * | 2017-05-31 | 2022-05-06 | 杭州海康威视数字技术股份有限公司 | 一种人流量统计方法、设备及系统 |
CN107463937A (zh) * | 2017-06-20 | 2017-12-12 | 大连交通大学 | 一种基于迁移学习的番茄病虫害自动检测方法 |
CN107403137B (zh) * | 2017-06-29 | 2020-01-31 | 山东师范大学 | 基于视频的密集人群流量计算方法和装置 |
CN107291668B (zh) * | 2017-07-14 | 2018-08-17 | 中南大学 | 一种基于机器学习的地铁短时客流预测方法 |
CN107506740B (zh) * | 2017-09-04 | 2020-03-17 | 北京航空航天大学 | 一种基于三维卷积神经网络和迁移学习模型的人体行为识别方法 |
CN108021936A (zh) * | 2017-11-28 | 2018-05-11 | 天津大学 | 一种基于卷积神经网络vgg16的乳腺肿瘤分类算法 |
CN107992899A (zh) * | 2017-12-15 | 2018-05-04 | 四川大学 | 一种机场场面运动目标检测识别方法 |
CN108345842B (zh) * | 2018-01-24 | 2022-03-04 | 中电长城圣非凡信息系统有限公司 | 一种基于大数据的处理方法 |
CN108647223A (zh) * | 2018-03-22 | 2018-10-12 | 北京大学 | 一种基于模式关联分析的实值时间序列规则发现方法和装置 |
CN109559295A (zh) * | 2018-06-04 | 2019-04-02 | 新影智能科技(昆山)有限公司 | 图像分析系统、方法、计算机可读存储介质、及电子终端 |
CN110634148A (zh) * | 2018-06-21 | 2019-12-31 | 北京京东尚科信息技术有限公司 | 连续帧图像中的目标提取方法和装置 |
CN108875677B (zh) * | 2018-06-29 | 2020-11-17 | 上海小蚁科技有限公司 | 客流量统计方法及装置、存储介质、终端 |
CN108985218A (zh) * | 2018-07-10 | 2018-12-11 | 上海小蚁科技有限公司 | 人流量统计方法及装置、存储介质、计算设备 |
CN110717575B (zh) * | 2018-07-13 | 2022-07-26 | 奇景光电股份有限公司 | 无帧缓冲器的卷积神经网络系统与方法 |
CN110837760B (zh) * | 2018-08-17 | 2022-10-14 | 北京四维图新科技股份有限公司 | 目标检测方法、用于目标检测的训练方法和装置 |
CN109711454B (zh) * | 2018-12-21 | 2020-07-31 | 电子科技大学 | 一种基于卷积神经网络的特征匹配方法 |
CN110070050B (zh) * | 2019-04-24 | 2021-08-20 | 厦门美图之家科技有限公司 | 目标检测方法及系统 |
JP2021052225A (ja) * | 2019-09-20 | 2021-04-01 | Kddi株式会社 | 画像復号装置、画像復号方法及びプログラム |
CN111723693B (zh) * | 2020-06-03 | 2022-05-27 | 云南大学 | 一种基于小样本学习的人群计数方法 |
CN111860390A (zh) * | 2020-07-27 | 2020-10-30 | 西安建筑科技大学 | 一种电梯候梯人数检测统计方法、装置、设备及介质 |
US11854269B2 (en) * | 2021-06-04 | 2023-12-26 | Waymo Llc | Autonomous vehicle sensor security, authentication and safety |
CN113537050A (zh) * | 2021-07-14 | 2021-10-22 | 安徽炬视科技有限公司 | 一种基于局部图像增强的动态人脸识别算法 |
CN115760523A (zh) * | 2022-11-18 | 2023-03-07 | 四川云泷生态科技有限公司 | 一种基于云平台的动物管理方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101872431A (zh) * | 2010-02-10 | 2010-10-27 | 杭州海康威视软件有限公司 | 可适用多角度应用场景的人流量统计的方法及系统 |
CN102799935A (zh) * | 2012-06-21 | 2012-11-28 | 武汉烽火众智数字技术有限责任公司 | 一种基于视频分析技术的人流量统计方法 |
CN103986910A (zh) * | 2014-05-20 | 2014-08-13 | 中国科学院自动化研究所 | 一种基于智能分析摄像机的客流统计方法和系统 |
CN104809481A (zh) * | 2015-05-21 | 2015-07-29 | 中南大学 | 一种基于自适应色彩聚类的自然场景文本检测的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6678413B1 (en) * | 2000-11-24 | 2004-01-13 | Yiqing Liang | System and method for object identification and behavior characterization using video analysis |
-
2015
- 2015-12-30 CN CN201511027665.2A patent/CN105512640B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101872431A (zh) * | 2010-02-10 | 2010-10-27 | 杭州海康威视软件有限公司 | 可适用多角度应用场景的人流量统计的方法及系统 |
CN102799935A (zh) * | 2012-06-21 | 2012-11-28 | 武汉烽火众智数字技术有限责任公司 | 一种基于视频分析技术的人流量统计方法 |
CN103986910A (zh) * | 2014-05-20 | 2014-08-13 | 中国科学院自动化研究所 | 一种基于智能分析摄像机的客流统计方法和系统 |
CN104809481A (zh) * | 2015-05-21 | 2015-07-29 | 中南大学 | 一种基于自适应色彩聚类的自然场景文本检测的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105512640A (zh) | 2016-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105512640B (zh) | 一种基于视频序列的人流量统计方法 | |
CN107016357B (zh) | 一种基于时间域卷积神经网络的视频行人检测方法 | |
CN106295601B (zh) | 一种改进的安全带检测方法 | |
CN106897738B (zh) | 一种基于半监督学习的行人检测方法 | |
CN110263697A (zh) | 基于无监督学习的行人重识别方法、装置及介质 | |
CN108830188A (zh) | 基于深度学习的车辆检测方法 | |
CN108304787A (zh) | 基于卷积神经网络的道路目标检测方法 | |
CN107247956B (zh) | 一种基于网格判断的快速目标检测方法 | |
CN107818302A (zh) | 基于卷积神经网络的非刚性多尺度物体检测方法 | |
CN109614985A (zh) | 一种基于密集连接特征金字塔网络的目标检测方法 | |
CN108509976A (zh) | 动物的识别装置和方法 | |
CN110414368A (zh) | 一种基于知识蒸馏的无监督行人重识别方法 | |
CN109902806A (zh) | 基于卷积神经网络的噪声图像目标边界框确定方法 | |
CN108171136A (zh) | 一种多任务卡口车辆以图搜图的系统及方法 | |
CN107239762A (zh) | 一种基于视觉的公交车内乘客人数统计方法 | |
CN108596211B (zh) | 一种基于集中学习与深度网络学习的遮挡行人再识别方法 | |
CN107945153A (zh) | 一种基于深度学习的路面裂缝检测方法 | |
CN107609597A (zh) | 一种电梯轿厢人数检测系统及其检测方法 | |
CN104156734A (zh) | 一种基于随机蕨分类器的全自主在线学习方法 | |
CN107133974A (zh) | 高斯背景建模与循环神经网络相结合的车型分类方法 | |
CN106570490B (zh) | 一种基于快速聚类的行人实时跟踪方法 | |
CN106295532B (zh) | 一种视频图像中的人体动作识别方法 | |
CN111368660A (zh) | 一种单阶段半监督图像人体目标检测方法 | |
CN110956158A (zh) | 一种基于教师学生学习框架的遮挡行人再标识方法 | |
CN107194418A (zh) | 一种基于对抗特征学习的水稻蚜虫检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |