CN107909044A - 一种结合卷积神经网络和轨迹预测的人数统计方法 - Google Patents

一种结合卷积神经网络和轨迹预测的人数统计方法 Download PDF

Info

Publication number
CN107909044A
CN107909044A CN201711175079.1A CN201711175079A CN107909044A CN 107909044 A CN107909044 A CN 107909044A CN 201711175079 A CN201711175079 A CN 201711175079A CN 107909044 A CN107909044 A CN 107909044A
Authority
CN
China
Prior art keywords
pedestrian
agglomerate
crowd
convolutional neural
neural networks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711175079.1A
Other languages
English (en)
Other versions
CN107909044B (zh
Inventor
郭继昌
李翔鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201711175079.1A priority Critical patent/CN107909044B/zh
Publication of CN107909044A publication Critical patent/CN107909044A/zh
Application granted granted Critical
Publication of CN107909044B publication Critical patent/CN107909044B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Abstract

本发明涉及一种结合卷积神经网络和轨迹预测的人数统计方法,包括下列步骤:采用帧差法分割视频中所含的人群团块;区分稀疏人群团块和密集人群团块;对稀疏人群团块,将RGB图像由公式变换后得到的HSV颜色空间,在两个不同颜色空间中使用选择搜索算法预先确定行人位置,合并去除两个空间的重复区域后得到行人区域位置;使用卷积神经网络提取特征,选取栅极损失函数Grid Loss分块训练网络以实现对包括被遮挡行人的面部和躯干在内的局部位置的识别;对密集人群团块,提取人群密度分布图的特征,建立多元回归模型并估计人数;对于遮挡行人采用马尔可夫模链预测其行走轨迹,再锁定其位置并统计该行人。

Description

一种结合卷积神经网络和轨迹预测的人数统计方法
技术领域
本发明涉及目标识别领域,特别是涉一种结合卷积神经网络和轨迹预测的人数统计方法,本方法主要应用于以深度学习和轨迹预测进行目标检测为代表的视频人数统计中。
背景技术
人数统计是近年来智能视频监控领域的一个具有现实意义的研究方向,其主要分为基于目标检测的人数统计方法和基于特征回归的人数统计方法,这两类方法均用到了有监督的机器学习思想,此外还有基于无监督学习的跟踪轨迹聚类方法等。在有监督学习方法中,基于HOG算法检测行人是被广泛使用的方法之一,该方法通过计算和统计图像局部区域的梯度方向直方图来构成行人特征,此外还有使用人头,人脸或模板匹配来提取行人特征的方法,如LBP算法,DPM算法,再使用机器学习中SVM(支持向量机)以及Adaboost(级联分类器)方法训练出行人分类器进而识别和检测行人。此类方法在行人遮挡严重以及光照不足时,精度较差;基于特征回归的方法则通过提取区域的纹理等特征,然后采用核函数实现纹理特征到人数的回归映射。此类方法可以有效的降低行人互相遮挡对检测的影响,但是人群分布特征很难使用数学特征完全描述,影响统计准确性。
近几年,随着深度学习理论的日趋成熟以及硬件设备性能的提升,使得CNNs成为计算机视觉与模式识别领域的一个有力研究工具。2012年Hinton将卷积神经网络结构优化后应用于目标分类,在ImageNet图像数据库上的测试中取得了令人满意的结果。在2014年,Girshick等人提出了R-CNN(Regionproposal-CNN)算法并创建了在GPU上运行的caffe框架,成为近年深度学习中实现目标检测的经典算法之一。2015年,Zhang等人采用CNNs将人群的分布特征提取后投入训练,用网络生成的模型估计视频中行人数量,成为深度学习应用于行人检测的一个实例。这些算法虽然提取到了有效和优质的行人特征并建立了精确的预测模型,但仍然不能很好的解决遮挡和光照变化以及人群分布不均等因素对检测的影响。
发明内容
针对监控视频中行人的遮挡和光照变化对行人检测和统计的影响,本发明提供一种人数统计方法,通过在不同颜色空间提取行人特征并且采用栅极损失函数识别被遮挡行人的局部区域的方法,提高算法统计精度。技术方案如下:
一种结合卷积神经网络和轨迹预测的人数统计方法,包括下列步骤:
步骤1采用帧差法分割视频中所含的人群团块(blob);
步骤2根据各个团块面积像素数和周长,确定阈值,将视频中的人群团块依据密度分类,分为稀疏人群团块和密集人群团块;
步骤3对稀疏人群团块,将RGB图像由公式变换后得到的HSV颜色空间,在两个不同颜色空间中使用选择搜索算法预先确定行人位置,合并去除两个空间的重复区域后得到行人区域位置。
步骤4使用卷积神经网络提取特征,选取栅极损失函数Grid Loss分块训练网络以实现对包括被遮挡行人的面部和躯干在内的局部位置的识别;
步骤5对密集人群团块,提取人群密度分布图的特征,建立多元回归模型并估计人数;
步骤6对于遮挡行人采用马尔可夫模链预测其行走轨迹,再锁定其位置并统计该行人。
步骤7累加各团块中计数结果,统计场景中包含的行人数目。
本发明的有益效果如下:
1.本算法针对人群分布不均和聚集不规律的情况,提出了目标检测与特征回归相结合的方法分别应对稀疏和密集人群场景,以解决单一算法无法适应不同行人密度的问题。
2.针对遮挡的情况,采用栅极损失函数分块训练CNNs,以增加对行人面部、躯干等局部位置的检测率,有效减少了遮挡对识别的影响;针对算法的精度问题,在检测算法中使用选择搜索算法预判行人位置,避免CNNs提取到冗余特征,
3.在特征回归算法中提取人群密度分布图特征建立从人群密度到实际人数的映射模型,借助其良好的描述人群分布信息的能力增加统计的精确度。
4.利用视频帧间相关性,采取马尔科夫模型轨迹预测法锁定被遮挡行人,增加了对被遮挡行人的识别率。
附图说明
图1是本发明的结合卷积神经网络和轨迹预测的人数统计方法在UCSD数据集上实验结果图。
其中,(a)为测试结果;(b)为统计结果。
图2是本发明的结合卷积神经网络和轨迹预测的人数统计方法在PETS2009数据集实验结果图。
其中,(a)为在测试结果;(b)为统计结果。
图3是栅极损失函数分块训练神经网络检测行人脸部示意图;
其中,(a)为全局损失函数示意图;(b)为局部栅极损失函数示意图;(c)为CNNs框架图;(d)、(e)为密度分布特征图
图4是马尔可夫模型轨迹预测图。
其中,(a)为被遮挡行人前20帧的运动轨迹示意图,(b)为被遮挡行人的预测轨迹和锁定示意图。
图5是本发明的结合卷积神经网络和轨迹预测的人数统计方法基本框架
具体实施方式
下面结合附图对本发明的较佳实施例进行详细阐述,以使本发明的优点和特征能更易于被本领域技术人员理解,从而对本发明的保护范围做出更为清楚明确的界定。
请参阅图3、图4和图5,本发明实施例包括:
首先将视频中的人群依据密度分割成若干团块(blob),统计各团块的像素数和周长,取中值作为阈值θ,像素数和周长小于该阈值则记为稀疏人群团块,反之为密集人群团块。
对稀疏人群,在RGB和HSV不同颜色空间使用选择搜索算法预先确定行人位置,避免冗余特征干扰。该算法在RGB和经公式变换后的HSV空间中找好候选区域,并使用过分割的方法分割图像为若干小区域,并通过颜色直方图、纹理直方图以及面积和位置相近规则进行目标区域的选择与合并,得到一个目标的整体区域和位置。将两个颜色空间判断出的行人位置去除重复区域合并后即为行人区域。
接下来使用卷积神经网络提取特征并使用栅极损失函数训练神经网络。传统的损失函数是直接根据整个图片的信息特征计算损失函数,如图3(a),使得训练出的神经网络适于全局目标的识别。而栅极损失函数整合局部与整体特征,将最后一个卷基层的特征图划分为n×n的小栅极,每个小栅极看成一个单独的区域(blocks),单独按同样的方式计算每一个小区域的铰链损失函数(Hinge Loss),将整个区域的损失函数加和作为最终损失函数,以强化每个小栅极区域的独立判别能力。如果行人的身体或者脸的一部分被遮挡住,其余子小块可以将该区域没有遮挡住的其余部分输入检测器,这样降低了遮挡对检测的影响,如图3(a)、(b)。设定x表示f×r×c维的最后一层卷基层r列c行的特征向量图,f表示滤波器的数量,我们将x分割为f×n×n格非重叠的小栅极区域fi,i=1,…N,其中并选用铰链损失函数(Hinge Loss)
其中θ=[ω12,…,ωN,b1,b2,…,bN],m为常数1/N,表示每个栅极区域对分类贡献相等,y∈{-1,1}是分类标签,ωi和bi是第i块的权值向量和偏置参数。为了避免每个局部子分类器输出相似冗余的分类结果,于是把每个分类器赋予相应权重将每个局部区域的损失函数联结起来,通过局部分类器共享权值的方法。设定权重参数ω=[ω12,…,ωN],偏置参数b=∑ibi,最终的损失函数定义为:
其中,N代表栅极的个数,ωi与bi是最后一个特征图对应的整体权值参数,b=b1+b2+...+bN为其对应偏置项。这样,公式的第一项代表了特征图上的整个损失,第二项代表了每一个栅极的损失。λ是一个平衡系数,权衡全局与局部损失的大小。在最后采用随机梯度下降法优化该损失函数。
本发明在行人数据集上对神经网络进行反复迭代训练并调整权值参数后确定了针对提取行人特征的网络结构。该网络结构包含了2个5×5卷基层,分别有64和128个卷积核,1个4×4池化层,从原始帧中随机抠取的子图像块均为64×64大小,在每层卷积后利用纠正线性单元(Rectified Linear Unit,ReLU)函数激活,增加模型训练时的收敛速度。选用高斯零均值标准差为0.01的随机数初始化权重,在卷基层后加入约束上限为0.1的弃权算法(Dropout),将不满足权值L2范数上限约束的隐含层节点舍弃,以减弱神经元节点间的联合适应性,增强网络的泛化能力;引入栅极损失函数作为神经网络的损失函数来增加检测对遮挡的鲁棒性。卷积神经网络的框架如图3(c)。
对于密集团块提取行人密度分布特征进行回归统计人数。密度分布图的构建步骤如下:
定义点密度分布函数PSF(Point Spread Function),本发明将此函数用于表示行人像素点的密度。
其中(p,q)为要计算的像素点所在位置,(x,y)是其周围邻域的点,是高斯核,代表了点(x,y)周围的行人特征点的密集程度。图3(d)为行人密度分布特征图。
加和各个稀疏和密集团块即为统计人数。在视频中,本发明利用行人轨迹预测来解决遮挡的影响。
在UCSD数据集中,本发明记录了行人被遮挡前的20帧轨迹的移动方向,见表1:
表1遮挡行人的行进方向统计
由于行人的行走方向无大偏转,设行人下一步有三种移动状态,E1(左转向10°以内),E2(直线行走),E3(右转向10°以内),
表2遮挡行人轨迹的状态转移矩阵
得到行人的一步、二步状态转移概率矩阵如下:
由此预测行人接下来的轨迹状态,如图4所示。当行人不再被遮挡且在预测轨迹位置处出现,则锁定并统计该行人目标。
最终累加各团块中计数结果,统计得到场景中包含的行人数目。
实验1本算法在不同数据集的测试结果
算法在UCSD和PETS2009数据集上的统计结果如图1、图2所示。通过图1(a)可以看出,本文算法识别出了最左侧被遮挡住的行人。
实验2、不同检测特征的性能比较
表3、表4是现有的其他算法和本文算法在UCSD、PETS2009两个数据集上测试的比较结果。通过对比实验结果可以得出,相比较于近年人数统计领域内其他学者提出的算法,本发明方法在PETS 2009和UCSD数据集上的测试结果在准确率上有显著的提升,相比较于Zhang等人的研究结果,精度提高了12%,验证了所提算法的有效性。
表3
表4
[1]Zhang C,Li H,Wang X,et al.Cross-scene crowd counting via deepconvolutional neural networks[C]//Computer Vision and PatternRecognition.IEEE,2015:833-841.
[2]Chen K,Gong S,Xiang T,et al.Cumulative Attribute Space for Age andCrowd Density Estimation[C]//Computer Vision and Pattern Recognition.IEEE,2013:2467-2474.
[3]Conte D,Foggia P,Percannella G,et al.AMethod for Counting MovingPeople in Video Surveillance Videos[J].EURASIP Journal on Advances in SignalProcessing,2010,2010(1):1-10.
[4]Rao A S,Gubbi J,Marusic S,et al.Estimation of crowd density byclustering motion cues[J].The Visual Computer,2015,31(11):1533-1552.
[5]Subburaman V B,Descamps A,Carincotte C.Counting People in theCrowd Using a Generic Head Detector[C]//IEEE Ninth International Conferenceon Advanced Video and Signal-Based Surveillance.IEEE,2012:470-475.

Claims (1)

1.一种结合卷积神经网络和轨迹预测的人数统计方法,包括下列步骤:
步骤1采用帧差法分割视频中所含的人群团块(blob);
步骤2根据各个团块面积像素数和周长,确定阈值,将视频中的人群团块依据密度分类,分为稀疏人群团块和密集人群团块;
步骤3对稀疏人群团块,将RGB图像由公式变换后得到的HSV颜色空间,在两个不同颜色空间中使用选择搜索算法预先确定行人位置,合并去除两个空间的重复区域后得到行人区域位置;
步骤4使用卷积神经网络提取特征,选取栅极损失函数Grid Loss分块训练网络以实现对包括被遮挡行人的面部和躯干在内的局部位置的识别;
步骤5对密集人群团块,提取人群密度分布图的特征,建立多元回归模型并估计人数;
步骤6对于遮挡行人采用马尔可夫模链预测其行走轨迹,再锁定其位置并统计该行人。
步骤7累加各团块中计数结果,统计场景中包含的行人数目。
CN201711175079.1A 2017-11-22 2017-11-22 一种结合卷积神经网络和轨迹预测的人数统计方法 Active CN107909044B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711175079.1A CN107909044B (zh) 2017-11-22 2017-11-22 一种结合卷积神经网络和轨迹预测的人数统计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711175079.1A CN107909044B (zh) 2017-11-22 2017-11-22 一种结合卷积神经网络和轨迹预测的人数统计方法

Publications (2)

Publication Number Publication Date
CN107909044A true CN107909044A (zh) 2018-04-13
CN107909044B CN107909044B (zh) 2020-04-28

Family

ID=61847307

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711175079.1A Active CN107909044B (zh) 2017-11-22 2017-11-22 一种结合卷积神经网络和轨迹预测的人数统计方法

Country Status (1)

Country Link
CN (1) CN107909044B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108717528A (zh) * 2018-05-15 2018-10-30 苏州平江历史街区保护整治有限责任公司 一种基于深度网络的多策略全局人群分析方法
CN108985256A (zh) * 2018-08-01 2018-12-11 曜科智能科技(上海)有限公司 基于场景密度分布的多神经网络人数统计方法、系统、介质、终端
CN109102457A (zh) * 2018-06-12 2018-12-28 杭州米绘科技有限公司 一种基于卷积神经网络的智能化变色系统及方法
CN109697435A (zh) * 2018-12-14 2019-04-30 重庆中科云从科技有限公司 人流量监测方法、装置、存储介质及设备
CN110598669A (zh) * 2019-09-20 2019-12-20 郑州大学 一种复杂场景中人群密度的检测方法和系统
CN111126493A (zh) * 2019-12-25 2020-05-08 东软睿驰汽车技术(沈阳)有限公司 深度学习模型的训练方法、装置、电子设备及存储介质
CN111832413A (zh) * 2020-06-09 2020-10-27 天津大学 基于时空多尺度网络的人流密度图估计、定位和跟踪方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010003041A2 (en) * 2008-07-03 2010-01-07 Nec Laboratories America, Inc. Mitotic figure detector and counter system and method for detecting and counting mitotic figures
CN103218816A (zh) * 2013-04-18 2013-07-24 中山大学 一种基于视频分析的人群密度估计方法与人流量统计方法
CN104992223A (zh) * 2015-06-12 2015-10-21 安徽大学 基于深度学习的密集人数估计方法
CN105740945A (zh) * 2016-02-04 2016-07-06 中山大学 一种基于视频分析的人群计数方法
CN106326937A (zh) * 2016-08-31 2017-01-11 郑州金惠计算机系统工程有限公司 基于卷积神经网络的人群密度分布估计方法
US20170103258A1 (en) * 2015-10-10 2017-04-13 Beijing Kuangshi Technology Co., Ltd. Object detection method and object detection apparatus
CN107301383A (zh) * 2017-06-07 2017-10-27 华南理工大学 一种基于Fast R‑CNN的路面交通标志识别方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010003041A2 (en) * 2008-07-03 2010-01-07 Nec Laboratories America, Inc. Mitotic figure detector and counter system and method for detecting and counting mitotic figures
JP5315411B2 (ja) * 2008-07-03 2013-10-16 エヌイーシー ラボラトリーズ アメリカ インク 有糸分裂像検出装置および計数システム、および有糸分裂像を検出して計数する方法
CN103218816A (zh) * 2013-04-18 2013-07-24 中山大学 一种基于视频分析的人群密度估计方法与人流量统计方法
CN104992223A (zh) * 2015-06-12 2015-10-21 安徽大学 基于深度学习的密集人数估计方法
US20170103258A1 (en) * 2015-10-10 2017-04-13 Beijing Kuangshi Technology Co., Ltd. Object detection method and object detection apparatus
CN105740945A (zh) * 2016-02-04 2016-07-06 中山大学 一种基于视频分析的人群计数方法
CN106326937A (zh) * 2016-08-31 2017-01-11 郑州金惠计算机系统工程有限公司 基于卷积神经网络的人群密度分布估计方法
CN107301383A (zh) * 2017-06-07 2017-10-27 华南理工大学 一种基于Fast R‑CNN的路面交通标志识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
J.R.R.UIJLINGS: "Selective search for object recognition", 《INTERNATIONAL JOURNAL OF COMPUTER VISION》 *
MICHAEL OPITZ: "Grid loss: detecting occluded faces", 《COMPUTER VISION-ECCV》 *
马海军: "基于卷积神经网络的监控视频人数统计算法", 《安徽大学学报(自然科学版)》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108717528A (zh) * 2018-05-15 2018-10-30 苏州平江历史街区保护整治有限责任公司 一种基于深度网络的多策略全局人群分析方法
CN109102457A (zh) * 2018-06-12 2018-12-28 杭州米绘科技有限公司 一种基于卷积神经网络的智能化变色系统及方法
CN109102457B (zh) * 2018-06-12 2023-01-17 杭州米绘科技有限公司 一种基于卷积神经网络的智能化变色系统及方法
CN108985256A (zh) * 2018-08-01 2018-12-11 曜科智能科技(上海)有限公司 基于场景密度分布的多神经网络人数统计方法、系统、介质、终端
CN109697435A (zh) * 2018-12-14 2019-04-30 重庆中科云从科技有限公司 人流量监测方法、装置、存储介质及设备
CN110598669A (zh) * 2019-09-20 2019-12-20 郑州大学 一种复杂场景中人群密度的检测方法和系统
CN111126493A (zh) * 2019-12-25 2020-05-08 东软睿驰汽车技术(沈阳)有限公司 深度学习模型的训练方法、装置、电子设备及存储介质
CN111126493B (zh) * 2019-12-25 2023-08-01 东软睿驰汽车技术(沈阳)有限公司 深度学习模型的训练方法、装置、电子设备及存储介质
CN111832413A (zh) * 2020-06-09 2020-10-27 天津大学 基于时空多尺度网络的人流密度图估计、定位和跟踪方法
CN111832413B (zh) * 2020-06-09 2021-04-02 天津大学 基于时空多尺度网络的人流密度图估计、定位和跟踪方法

Also Published As

Publication number Publication date
CN107909044B (zh) 2020-04-28

Similar Documents

Publication Publication Date Title
CN107909044A (zh) 一种结合卷积神经网络和轨迹预测的人数统计方法
Luo et al. A revisit of sparse coding based anomaly detection in stacked rnn framework
CN108416250B (zh) 人数统计方法及装置
CN105844234B (zh) 一种基于头肩检测的人数统计的方法及设备
CN108764085B (zh) 基于生成对抗网络的人群计数方法
López-Rubio et al. Foreground detection in video sequences with probabilistic self-organizing maps
Afiq et al. A review on classifying abnormal behavior in crowd scene
CN111914664A (zh) 基于重识别的车辆多目标检测和轨迹跟踪方法
CN110020606A (zh) 一种基于多尺度卷积神经网络的人群密度估计方法
CN104616316B (zh) 基于阈值矩阵和特征融合视觉单词的人物行为识别方法
CN104077605B (zh) 一种基于颜色拓扑结构的行人搜索识别方法
CN108932479A (zh) 一种人体异常行为检测方法
CN104992223A (zh) 基于深度学习的密集人数估计方法
CN111382686B (zh) 一种基于半监督生成对抗网络的车道线检测方法
CN108230364A (zh) 一种基于神经网络的前景物体运动状态分析方法
Szwoch Extraction of stable foreground image regions for unattended luggage detection
CN106127812A (zh) 一种基于视频监控的客运站非出入口区域的客流统计方法
CN109426793A (zh) 一种图像行为识别方法、设备及计算机可读存储介质
Luque et al. An ART-type network approach for video object detection.
CN107103301A (zh) 视频目标时空最大稳定性判别性颜色区域匹配方法和系统
CN114973112B (zh) 一种基于对抗学习网络的尺度自适应密集人群计数方法
Grabner et al. Autonomous learning of a robust background model for change detection
KR20200060868A (ko) 객체 탐지 및 자동 추적이 가능한 다시점 영상 감시 시스템
CN110705394B (zh) 一种基于卷积神经网络的景区人群行为分析方法
Afzali et al. A supervised feature weighting method for salient object detection using particle swarm optimization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant