CN111062967A - 一种基于目标动态跟踪的电力营业厅客流统计方法及系统 - Google Patents
一种基于目标动态跟踪的电力营业厅客流统计方法及系统 Download PDFInfo
- Publication number
- CN111062967A CN111062967A CN201911167217.0A CN201911167217A CN111062967A CN 111062967 A CN111062967 A CN 111062967A CN 201911167217 A CN201911167217 A CN 201911167217A CN 111062967 A CN111062967 A CN 111062967A
- Authority
- CN
- China
- Prior art keywords
- target
- pedestrian
- tracking
- video
- pedestrian target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24317—Piecewise classification, i.e. whereby each classification requires several discriminant rules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种基于目标动态跟踪的电力营业厅客流统计方法及系统,在图像预处理后的视频帧图像中对行人目标进行检测,将检测到的且已存在于跟踪目标列表中的目标进行去重处理,使用KCF算法对跟踪目标列表中的目标进行跟踪并更新目标参数,通过分析目标参数获取行人目标在视频中的平均移动速度,根据平均移动速度预测行人目标到达计数线时的视频帧号与具体位置,并采用KCF算法的目标检测模型对该视频帧的该位置及其邻域范围内的行人目标存在情况进行验证,根据验证结果与目标的初始位置对营业厅客流进行计数统计;本公开减少了目标跟踪的过程,降低了系统的计算量,在提高系统目标跟踪性能的同时,保证了系统执行的高速率。
Description
技术领域
本公开涉及电力系统技术领域,特别涉及一种基于目标动态跟踪的电力营业厅客流统计方法及系统。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术,并不必然构成现有技术。
电力营业厅客流统计是指通过安装在经营区域内的设备对入口处的客流进出人数进行精确统计,从而基于客流信息为电力营业厅的科学管理和辅助决策提供数据依据。随着电力改革的推进和电力行业市场化的竞争,电力营业厅作为电网企业提供客户服务的重要场所,其服务质量与客户满意度不仅代表电力企业的形象,同时对电力企业的市场竞争力产生直接影响。因此,科学、有效地对客流量在时间、空间上进行信息收集和分析,一方面在掌握客流变化的前提下,合理地调配服务资源,快速、及时做出决策,成为电力营业厅提高服务质量的关键因素;另一方面,为适应电力市场化管理需求,通过客流统计自动、实时地统计营业厅直面的服务量,从而为电力营业厅的营业时间、服务地点等决策提供科学合理的依据,最大限度地节约运作成本,提高电力营业厅日常经营决策的科学性、客户环境的舒适性和营业厅人力资源调配的合理性。
本公开发明人发现,随着数字图像处理技术的快速发展,基于视频监控技术的客流统计成为目前发展最为迅速、性能最为可靠的客流统计方法。目前常见的基于视频监控的客流统计系统方法可分为三类:基于底层特征的拟合法、基于特征点的跟踪法和基于目标检测跟踪的方法。其中基于底层特征拟合的方法其客流计数精度较低,基于特征点的跟踪方法计算复杂度高,难以满足系统的计数实时性要求,基于目标检测跟踪的方法能够保障系统的计数实时性和大多数情况下的计数精度,但仍需克服跟踪速率较低和因营业厅入口处光照环境变化所致的跟踪性能下降,从而影响系统计数精度的问题。
发明内容
为了解决现有技术的不足,本公开提供了一种基于目标动态跟踪的电力营业厅客流统计方法及系统,降低了计算量,提高了计数速率以及在光照变化时的计数精度。
为了实现上述目的,本公开采用如下技术方案:
本公开第一方面提供了一种基于目标动态跟踪的电力营业厅客流统计方法。
一种基于目标动态跟踪的电力营业厅客流统计方法,包括以下步骤:
将摄像头获取的视频数据流信息以预设帧率解码为若干连续视频帧,对连续视频帧图像使用高斯滤波器进行图像预处理,并设定坐标系和进行人数统计的计数线;
对预处理后的连续视频帧图像使用帧间差分法提取视频序列的运动前景图像,对运动前景图像采用集成学习Adaboost算法和方向梯度直方图(Histogram of OrientedGradient,HOG)特征相结合的方法进行行人检测,得到视频图像中存在的行人目标;
对于检测到的行人目标,判定其是否已存在于跟踪目标列表中,对已存在的被重复检测目标进行目标去重,并将没有被重复检测的行人目标加入到跟踪目标列表中;
为跟踪目标列表中的每个目标分配一个基于核相关滤波(KernelizedCorrelation Filter,KCF)跟踪算法所构建的行人目标跟踪模型对某行人目标在后续多帧视频图像中进行跟踪,并同时更新其目标参数;
根据行人目标的初始目标参数和最终更新的目标参数预测该行人目标到达计数线时的视频帧号与位置,并在该帧号的视频中使用KCF算法的目标检测模型在该目标位置及其邻域内检测该行人目标,对预测的结果进行验证;
若判定该行人已到达计数线处,根据目标初始位置纵坐标与计数线纵坐标的关系判定客流的进出,统计计数情况。
作为可能的一些实现方式,所述行人检测,具体为:
(2-1)在连续视频帧中,利用帧间差分法计算视频图像帧间差分值;
(2-2)设置差分阈值,利用帧间差分值与阈值的关系实现对图像背景与运动区域的二值化处理,将完整的运动前景图像在视频帧中提取出来;
(2-3)采用集成学习Adaboost算法和方向梯度直方图(HOG)特征构成行人检测模型;
(2-4)利用行人检测模型完成运动前景图像中行人目标的检测;
进一步的,步骤(2-3)中:
(2-3-1)采用俯视拍摄的视频图像对行人的头肩信息进行标注建立样本库,利用样本库中的样本训练得到Adaboost算法的强分类器作为行人检测模型;
(2-3-2)基于(2-2)提取的运动前景样本图像,提取方向梯度直方图特征;
(2-3-3)以获取的方向梯度直方图特征作为模型输入,利用行人检测模型对运动前景图像中的行人目标进行检测。
作为可能的一些实现方式,所述目标去重,具体为:
(3-1)计算检测目标与跟踪目标的重叠面积比;
(3-2)设定重叠面积比的阈值,若重叠面积比集合中存在大于阈值的重叠面积比,则该行人目标为旧目标,不将其加入到跟踪目标列表中,反之集合中所有重叠面积比都小于阈值,则该行人目标为新目标,将其加入到跟踪目标列表中,并初始化目标参数。
作为进一步的限定,步骤(3-1)中,具体为:
(3-1-1)获取检测到的行人目标的目标区域,获取跟踪目标列表中各个行人目标的目标区域,计算该检测目标区域与各个跟踪目标区域的重叠面积;
(3-1-2)计算各重叠面积与对应跟踪目标区域面积的比值,得到若干重叠面积比的集合;
作为进一步的限定,步骤(3-2)中,具体为:
(3-2-1)构建实际实验运行检测行人目标和跟踪行人目标的重叠面积比与检测目标图像和跟踪目标图像的峰值信噪比值(PSNR值)的二维曲线图;
(3-2-2)通过分析曲线图获得重叠面积比的阈值。
作为可能的一些实现方式,行人目标跟踪,具体为:
(4-1)将检测到的行人目标提取其方向梯度直方图特征,利用提取到的方向梯度直方图特征训练KCF跟踪算法的滤波器,完成滤波器参数初始化;
(4-2)使用滤波器在下一帧视频图像的相同位置及附近对其方向梯度直方图特征进行卷积运算,得到滤波器响应值,响应值最大的位置即为KCF跟踪模型在当前帧跟踪到的行人目标,利用当前帧的目标信息对跟踪目标列表中对应目标的参数进行更新;
(4-3)KCF目标跟踪模型利用当前帧跟踪到的目标的方向梯度直方图特征对滤波器进行进一步训练与更新,并在下一帧视频图像中利用更新后的滤波器进行目标检测。
作为进一步的限定,行人目标预测与检测验证,具体为:
(5-1)根据得到的行人目标的目标参数,计算行人目标在视频中的平均移动速度;
(5-2)假设行人目标在进出营业厅时视频采集范围内基本保持匀速直线的运动状态,根据步骤(5-1)所得行人目标的平均移动速度计算该行人目标到达计数线时的视频帧号和具体位置;
(5-3)根据步骤(5-2)的预测,在对应视频帧的对应位置基础上形成新的搜索区域;
(5-4)使用步骤(4-3)最终更新后的KCF算法滤波器在新的搜索区域内进行卷积运算,得到滤波器的最大响应值;
(5-5)预设最大响应值阈值,用以判定所得最大响应值处是否为行人目标;
(5-6)基于步骤(5-4)所得滤波器最大响应值,结合最大响应值阈值,判定步骤(5-2)的预测结果是否准确。
作为更进一步的限定,步骤(5-1)中,具体为:
(5-1-1)根据获得的行人目标的目标参数,计算行人目标在被跟踪过程中产生的关于x方向和y方向上的位移量;
(5-1-2)基于视频帧率得到行人目标被跟踪过程所需的时间,并结合步骤(5-1-1)所得的位移量,计算行人目标在被跟踪过程中在x方向和y方向上的平均移动速度;
作为更进一步的限定,步骤(5-2)中,具体为:
(5-2-1)计算行人目标自目标跟踪终止处运动到计数线处时在y方向上发生的位移,并结合行人目标在y方向上的平均移动速度,计算行人目标运动到计数线处所需的时间;
(5-2-2)基于步骤(5-2-1)所得时间,结合视频帧率,计算行人目标到达计数线时的视频帧号;
(5-2-3)基于步骤(5-2-1)所得时间,结合行人目标在x方向上的平均移动速度,计算行人目标到达计数线时其具体位置的横坐标;
作为更进一步的限定,步骤(5-3)中,具体为:
(5-3-1)在预测行人目标到达计数线时的视频帧内,将KCF算法目标检测模型的搜索框及其中心点移至对应预测位置处;
(5-3-2)为验证预测的正确性,同时避免误检,减小误差,将搜索框分别在x、y的正负方向上以搜索框边长为偏移量进行偏移,形成新的搜索区域;
作为更进一步的限定,步骤(5-5)中,具体为:
(5-5-1)构建实际实验运行最大响应值与行人目标图像和最大响应值处对应目标图像的峰值信噪比值的二维曲线图,峰值信噪比值用以衡量两幅图像的相似性,峰值信噪比值越高,则两幅图像越相似;
(5-5-2)分析曲线图,得到使得峰值信噪比值发生跳变的最大响应值为最大响应值的阈值,即最大响应值的阈值所对应的目标图像与行人目标图像的相似性发生变化;
作为更进一步的限定,步骤(5-6)中,具体为:
(5-6-1)若最大响应值小于最大响应值的阈值,则判定计数线处没有检测到该行人目标,该行人没有到达营业厅入口处,将该目标在跟踪目标列表中删除;
(5-6-2)若最大响应值大于最大响应值的阈值,则判定计数线处检测到该行人目标,该行人到达营业厅入口处,对其进行进/出情况统计。
本公开第二方面提供了一种基于目标动态跟踪的电力营业厅客流统计系统。
一种基于目标动态跟踪的电力营业厅客流统计系统,包括:
图像预处理模块,被配置为:将摄像头获取的视频数据流信息以预设帧率解码为若干连续视频帧,对连续视频帧图像使用高斯滤波器进行图像预处理,并设定坐标系和进行人数统计的计数线;
行人目标检测模块,被配置为:对预处理后的连续视频帧图像使用帧间差分法提取视频序列的运动前景图像,对运动前景图像采用集成学习Adaboost算法和方向梯度直方图特征相结合的方法进行行人检测,得到视频图像中存在的行人目标;
行人目标去重模块,被配置为:对于检测到的行人目标,判定其是否已存在于跟踪目标列表中,对已存在的被重复检测目标进行目标去重,并将没有被重复检测的行人目标加入到跟踪目标列表中;
行人目标跟踪模块,被配置为:为跟踪目标列表中的每个目标分配一个基于KCF目标跟踪算法所构建的行人目标跟踪模型对某行人目标在后续多帧视频图像中进行跟踪,并同时更新其目标参数;
行人目标预测与检测验证模块,被配置为:根据行人目标的初始目标参数和最终更新的目标参数预测该行人目标到达计数线时的视频帧号与位置,并在该帧号的视频中使用KCF算法的目标检测模型在该目标位置及其邻域内检测该行人目标,对预测的结果进行验证;
统计计数模块,被配置为:若判定该行人已到达计数线处,根据目标初始位置纵坐标与计数线纵坐标的关系判定客流的进出,统计计数情况。
本公开第三方面提供了一种介质,其上存储有程序,该程序被处理器执行时实现如本公开第一方面所述的基于目标动态跟踪的电力营业厅客流统计方法中的步骤。
本公开第四方面提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,所述处理器执行所述程序时实现如本公开第一方面所述的基于目标动态跟踪的电力营业厅客流统计方法中的步骤。
与现有技术相比,本公开的有益效果是:
1、本公开采用Adaboost+HOG特征的行人检测方法,增强了行人头肩的描述能力,能够有效避免行人状态的细微变化对于检测结果的影响,同时能够有效适应电力营业厅入口处的光照变化和阴影影响,使得系统对于行人的检测具有更强的鲁棒性。
2、本公开采用核相关滤波(KCF)目标跟踪算法,通过循环移位产生了大量的虚拟检测空间,利用循环矩阵可以在傅里叶域对角化的性质,降低了了运算复杂度,提高了运算速度,且在光照环境变化时的跟踪适应能力较强,能够以其较高的跟踪速率与跟踪精确度保障系统对行人跟踪的实时性与准确性。
3、本公开引入了目标去重机制,由于系统并行执行行人检测与目标跟踪,目标去重机制可有效避免已被跟踪的行人目标的重复检测,保证了系统在进行客流统计时的工作效率。
4、本公开通过假设所检测到的行人目标会到达营业厅入口处,并对其出现的时间及位置进行预测,且通过调用KCF目标跟踪算法中的目标检测模型对假设进行验证,减少了目标跟踪的过程,降低了系统的计算量,在提高系统目标跟踪性能的同时,保证了系统执行的高速率。
5、本公开通过引入行人目标的初始状态,确定行人的进出动作及系统对进出客流的计数状态,从而为营业厅提供了更为准确且有价值的客流数据,提高了电力公司的运营成效。
附图说明
图1为本公开实施例1提供的基于目标动态跟踪的电力营业厅客流统计方法的流程示意图。
图2为本公开实施例1提供的行人检测方法的流程示意图。
图3为本公开实施例1提供的目标去重方法的流程示意图。
图4为本公开实施例1提供的不同重叠面积比所对应的检测行人目标和跟踪行人目标获取的PSNR值的曲线图。
图5为本公开实施例1提供的目标预测及检测验证方法的流程示意图。
图6为本公开实施例1提供的KCF目标跟踪算法的目标检测模型在(xl,yl)位置及其邻域内通过偏移形成的对该行人目标进行检测的新的搜索区域示意图。
图7为本公开实施例1提供的最大响应值与KCF目标跟踪算法检测到的行人目标图像和原行人目标图像PSNR值的曲线图。
图8为本公开实施例1提供的KCF目标跟踪算法与其他目标跟踪算法的跟踪精确度对比示意图。
具体实施方式
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
实施例1:
如图1所示,本公开实施例1提供了一种基于目标动态跟踪的电力营业厅客流统计方法,包括:
A:摄像头采集电力营业厅入口处的视频流信息,将此视频流信息以25FPS的帧率解码为若干视频帧;
B:输入连续视频帧,对每帧视频图像进行图像去噪预处理,并同时在图像中设定判断行人进出的计数线;
所述图像去噪预处理,为保证检测目标的边缘细节不被模糊,对视频帧图像进行高斯滤波以去除视频在采集时被引入的图像噪声,并同时在图像中以平行于营业厅入口且指向右侧为正方向建立坐标x轴,以垂直于营业厅入口且指向营业厅内部为正方向建立坐标y轴,设定判断行人进出的计数线y=yl。
C:通过帧间差分法提取视频帧的运动前景,并在运动前景中使用Adaboost算法+HOG特征检测行人头肩,获取行人目标;
具体地,如图2所示,所述步骤C中行人检测的一般过程为:
C1:利用帧间差分法在连续视频帧中提取运动前景,设第k帧处的像素点为fk(x,y),第k-1帧处的像素点为fk-1(x,y),帧间差分图像表示为Dk(x,y),Dk(x,y)计算公式如下:
Dk(x,y)=|fk(x,y)-fk-1(x,y)|
C2:设置差分阈值T,当Dk(x,y)<T时,说明该点处没有出现运动目标,并将该点的像素值设为0,当Dk(x,y)≥T时,说明该点处出现运动目标,并将该点的像素值设为1,从而完成对图像背景与运动区域的二值化处理,在此基础上对运动区域的像素点进行连通性处理,从而将完整的运动前景图像在视频帧中提取出来;
C3:采用Adaboost算法+HOG特征构成行人检测模型;
C31:采用俯视拍摄方式获取到的视频采集图像中行人的头肩形态数据和颜色特征作为行人检测目标,首先采用俯视拍摄的视频图像对人的头肩信息进行标注建立样本库,以人工标注的目标区域作为正样本,以目标区域外的随机区域作为负样本;
C32:将基于步骤C2提取的运动前景样本图像归一化成24×24单元,然后经过边缘梯度值计算、单元格梯度投影、统计单元内梯度方向直方图、块内归一化处理后得到其HOG特征;
C33:初始状态时所有样本被赋予相同的权值,并以获取的样本HOG特征作为输入对一个弱分类器进行训练,每轮训练后加入一个新的弱分类器,并根据训练结果调整不同样本的权值,即降低分类正确样本的权值,提高分类错误样本的权值,输入样本的HOG特征对弱分类器进行训练,最终将训练所得的弱分类器叠加构成强分类器,作为本专利的行人检测模型;
C4:对运动前景图像提取HOG特征,并利用行人检测模型对行人目标进行检测,若检测到行人目标,则进行下一个步骤,若没有检测到行人目标,则在后续输入的视频帧中继续进行检测;
D:基于步骤C中成功检测到的行人目标,由于系统中行人检测与行人目标跟踪并行执行,为防止已被跟踪的行人目标被重复检测,影响系统工作效率,因此将被重复检测的目标进行目标去重处理,删除重复目标,将新目标加入到跟踪目标列表中,保证系统进行客流统计的高效性和准确性;
具体地,如图3所示,所述步骤D中目标去重的一般过程为:
D2:设定重叠面积比阈值为T,经过实际实验与结果分析,系统最终将目标去重的重叠面积比阈值T的值设为0.6;
所述重叠面积比阈值T值的设定过程为,采用行人目标图像的PSNR值作为衡量检测到的行人目标与跟踪目标列表中行人目标相似性的指标,PSNR值越高则两幅图像越相似,行人目标被重复检测的可能性越大;根据不同重叠面积比所对应的检测行人目标和跟踪行人目标获取的PSNR值的曲线图,如图4所示,当重叠面积比在0.6附近时,检测行人目标与跟踪行人目标图像的PSNR值发生了跳变,PSNR值达到了40dB左右;
D21:当重叠面积比>0.6时所对应的PSNR值普遍≥40dB,说明当重叠面积比≥0.6时系统所检测到的目标与跟踪目标列表中的目标极为相似,行人目标被重复检测,该行人目标为旧目标;
D22:当重叠面积比<0.58时,检测行人目标与跟踪行人目标的图像PSNR值均<10dB,说明当重叠面积比<0.58时系统所检测到的目标与跟踪目标列表中的目标并不相似,行人目标没有被重复检测,该行人目标为系统检测到的新目标;
D3:基于步骤D2,对行人目标是否被重复检测进行判定;
D4:若U′为新目标,则根据所建坐标系记录其被检测时的视频帧号及目标中心点初始位置(x0,y0),并将其作为该目标的恒定参数加入并存储到跟踪目标列表中,同时对跟踪目标列表中的其他参数进行初始化,参数包括目标编号、目标中心点坐标、目标跟踪视频帧号、目标矩形区域的长度、宽度等;
E:基于步骤C与步骤D检测获取的行人目标,为加入到跟踪目标列表中的行人目标分配基于核相关滤波(KCF)目标跟踪算法的行人目标跟踪模型,当同一时段内检测到多个行人目标时,系统并行执行多个基于KCF跟踪算法的目标跟踪模型对行人目标进行跟踪;
所述行人目标跟踪模型的构建过程为:
E1:首先将步骤C检测到的行人目标提取其HOG特征,利用HOG特征训练KCF跟踪算法的滤波器,完成滤波器参数初始化;
E2:在下一帧视频图像的相同位置及附近提取图像HOG特征,使用滤波器对其进行卷积运算,得到滤波器响应值,响应值最大的位置即为KCF跟踪模型在当前帧跟踪到的行人目标,利用当前帧的目标信息对跟踪目标列表中对应目标的参数进行更新;
E3:为使跟踪算法不断适应目标的变化,KCF目标跟踪模型利用当前帧跟踪到的目标的HOG特征对滤波器进行进一步训练与更新,并在下一帧视频图像中利用更新后的滤波器进行目标检测;
E4:采用基于KCF算法的跟踪模型对所检测到的行人目标在初始连续10帧视频中进行跟踪,并不断更新跟踪目标列表中相应的参数,最终得到行人目标的初始中心点位置(x0,y0)、对应的跟踪开始帧号与跟踪结束时行人目标的终止中心点位置(xn,yn)、对应的跟踪结束帧号,并用跟踪结束帧所跟踪到的行人目标对滤波器进行训练更新,得到最新的滤波器;
F:基于步骤E中KCF算法对行人目标的跟踪,为减少KCF算法的跟踪过程,降低系统的计算量,本专利通过假设所检测到的行人目标会到达营业厅入口处,并对其出现的时间及位置进行预测,并通过调用KCF目标跟踪算法中的目标检测模型对假设进行验证。
具体地,如图5所示,所述步骤F中目标预测及检测验证的一般过程为:
F1:在步骤D与步骤E的基础上,已知行人目标的初始中心点位置(x0,y0)与跟踪结束时的终止中心点位置(xn,yn),则目标在x、y方向上的位移分别为:Δx=xn-x0,Δy=yn-y0,已知视频序列的帧率为25FPS,即0.04s/帧,则目标发生此位移所需时间为:t=(跟踪结束帧号-跟踪开始帧号)×0.04,则行人目标在视频图像中在x、y方向上的平均移动速度分别为:
F2:由于行人目标在进出营业厅时视频采集范围内,基本保持匀速直线的运动状态,因此设定行人目标将以vx,vy的速率进行运动,则系统预测在视频图像中当行人目标的中心点移动到计数线y=yl时所需时间为:结合视频序列的帧率,则行人目标的中心点运动到计数线时的帧号为:N=跟踪结束帧号+25×t′,行人目标的中心点运动到计数线时的中心点横坐标为:
F3:基于步骤F2中得到的中心点位置(xl,yl),得到系统预测行人目标到达计数线时的位置,为验证预测的正确性,同时避免误检,减小误差,使用KCF算法的目标检测模型在(xl,yl)位置及其邻域内对该行人目标进行检测,如图6所示,将KCF算法目标检测阶段的搜索框及中心点在第N帧视频中移至(xl,yl)位置,并以搜索框的边长作为偏移量将搜索框在x、y的正负方向上分别进行偏移,形成新的搜索区域;
F4:基于步骤E所得的KCF算法最新的滤波器,使用该滤波器在F3步骤所得的搜索区域内进行卷积运算,得到最大响应值fmax;
F5:基于步骤F4所得最大响应值fmax,因滤波器在搜索区域内进行卷积运算一定会得到一个最大响应值,但该响应值处对应的并不一定是目标物体,因此引入最大响应值阈值T′进行判断;
F51:若fmax<T′,则计数线处(即营业厅入口处)没有检测到行人目标,即所跟踪的行人目标并没有进/出营业厅,将此目标在跟踪目标列表中删除,若fmax≥T′,则计数线处(即营业厅入口处)检测到了行人目标,即所跟踪的行人目标正在进行进/出营业厅的动作;
F52:所述最大响应值阈值T′,采用图像的PSNR(峰值信噪比)值作为衡量KCF算法检测到的行人目标图像与原行人目标图像相似性的指标,运行最大响应值fmax与KCF算法检测到的行人目标图像和原行人目标图像PSNR值的曲线图,如图7所示;
F53:当最大响应值fmax<42时所对应的PSNR值均≤15dB,说明KCF算法在进行目标检测时所得最大响应值位置对应的图像与原行人目标图像极为不相似,即检测到的不是行人目标,可判定为行人目标没有到达营业厅入口处,对其不计数;
F54:当最大响应值fmax=45附近时所对应的PSNR值发生了跳变,且当fmax>45时所对应的PSNR值均≥15dB,说明KCF算法在进行目标检测时所得最大响应值位置对应的图像与原行人目标图像相似,即检测到的是行人目标,可判定为行人目标已到达营业厅入口处,对其进行后续客流进出计数。经过实际实验与结果分析,系统最终将最大响应值阈值T′的值设为45;
G:基于步骤F,在营业厅入口处检测到行人目标时,需将其纳入客流统计的步骤,调取行人目标在跟踪目标列表中的初始位置参数(x0,y0),引入计数线坐标yl对行人目标的初始状态进行判断;
G1:若y0<yl,则行人目标的初始状态为营业厅外部,行人目标完成进入营业厅的动作,将营业厅进人数+1计数;
G2:若y0>yl,则行人目标的初始状态为营业厅内部,行人目标完成出去营业厅的动作,将营业厅出人数+1计数。
H:如图8所示,通过在多个发生“光照变化”的视频序列中进行测试,KCF目标跟踪算法的跟踪性能优于其他多种目标跟踪算法,证明KCF算法对于在“光照变化”环境中进行目标跟踪有更强的鲁棒性,使得本专利检测到的行人目标能够持续准确地被跟踪,获取行人目标的运动状态及参数,为系统对客流信息进行精确统计提供了保障。
经实验测试,KCF算法的平均跟踪速率约为158FPS,有效降低了系统的图像数据处理量,在满足目标跟踪准确度的前提下,达到跟踪实时性的要求,本系统通过对行人目标到达计数线处的时间和位置进行预测,并调用KCF算法的目标检测模型进行验证,减少了对行人目标的跟踪过程,降低了系统的计算量,更进一步地提高了系统的统计速率和工作效率。
利用摄像机采集的包含不同状况的视频序列对本专利所述方法进行性能测试,测试结果如表1所示:
表1:系统统计性能测试情况
由表1可知,本系统的统计准确率可达93%以上,提高了电力营业厅客流统计的准确率,且基于动态的数据帧间隔图像处理降低系统数据处理量,从而有效提升了系统的实时监测性能,本专利所述方法的适应性及鲁棒性。
实施例2:
本公开实施例2提供了一种基于目标动态跟踪的电力营业厅客流统计系统,包括:
图像预处理模块,被配置为:将摄像头获取的视频数据流信息以预设帧率解码为若干连续视频帧,对连续视频帧图像使用高斯滤波器进行图像预处理,并设定坐标系和进行人数统计的计数线;
行人目标检测模块,被配置为:对预处理后的连续视频帧图像使用帧间差分法提取视频序列的运动前景图像,对运动前景图像采用集成学习Adaboost算法和方向梯度直方图特征相结合的方法进行行人检测,得到视频图像中存在的行人目标;
行人目标去重模块,被配置为:对于检测到的行人目标,判定其是否已存在于跟踪目标列表中,对已存在的被重复检测目标进行目标去重,并将没有被重复检测的行人目标加入到跟踪目标列表中;
行人目标跟踪模块,被配置为:为跟踪目标列表中的每个目标分配一个基于KCF目标跟踪算法所构建的行人目标跟踪模型对某行人目标在后续多帧视频图像中进行跟踪,并同时更新其目标参数;
行人目标预测与检测验证模块,被配置为:根据行人目标的初始目标参数和最终更新的目标参数预测该行人目标到达计数线时的视频帧号与位置,并在该帧号的视频中使用KCF算法的目标检测模型在该目标位置及其邻域内检测该行人目标,对预测的结果进行验证;
统计计数模块,被配置为:若判定该行人已到达计数线处,根据目标初始位置纵坐标与计数线纵坐标的关系判定客流的进出统计计数情况。
实施例3:
本公开实施例3提供了一种介质,其上存储有程序,该程序被处理器执行时实现如本公开实施例1所述的基于目标动态跟踪的电力营业厅客流统计方法中的步骤。
实施例4:
本公开实施例4提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,所述处理器执行所述程序时实现如本公开实施例1所述的基于目标动态跟踪的电力营业厅客流统计方法中的步骤。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
Claims (10)
1.一种基于目标动态跟踪的电力营业厅客流统计方法,其特征在于,包括以下步骤:
将摄像头获取的视频数据流信息以预设帧率解码为若干连续视频帧,对连续视频帧图像使用高斯滤波器进行图像预处理,并设定坐标系和进行人数统计的计数线;
对预处理后的连续视频帧图像使用帧间差分法提取视频序列的运动前景图像,对运动前景图像采用集成学习Adaboost算法和方向梯度直方图特征相结合的方法进行行人检测,得到视频图像中存在的行人目标;
对于检测到的行人目标,判定其是否已存在于跟踪目标列表中,对已存在的被重复检测目标进行目标去重,并将没有被重复检测的行人目标加入到跟踪目标列表中;
为跟踪目标列表中的每个目标分配一个基于核相关滤波目标跟踪算法所构建的行人目标跟踪模型对某行人目标在后续多帧视频图像中进行跟踪,并同时更新其目标参数;
根据行人目标的初始目标参数和最终更新的目标参数预测该行人目标到达计数线时的视频帧号与位置,并在该帧号的视频中使用核相关滤波目标跟踪算法的目标检测模型在该目标位置及其邻域内检测该行人目标,对预测的结果进行验证;
若判定该行人已到达计数线处,根据目标初始位置纵坐标与计数线纵坐标的关系判定客流的进出,统计计数情况。
2.如权利要求1所述的基于目标动态跟踪的电力营业厅客流统计方法,其特征在于,所述行人检测,具体为:
(2-1)在连续视频帧中,利用帧间差分法计算视频图像帧间差分值;
(2-2)设置差分阈值,利用帧间差分值与阈值的关系实现对图像背景与运动区域的二值化处理,将完整的运动前景图像在视频帧中提取出来;
(2-3)采用集成学习Adaboost算法和方向梯度直方图特征构成行人检测模型;
(2-4)利用行人检测模型完成视频图像中行人目标的检测;
进一步的,步骤(2-3)中:
(2-3-1)采用俯视拍摄的视频图像对行人的头肩信息进行标注建立样本库,利用样本库中的样本训练得到Adaboost算法的强分类器作为行人检测模型;
(2-3-2)基于(2-2)提取的运动前景样本图像,提取方向梯度直方图特征;
(2-3-3)以获取的方向梯度直方图特征作为模型输入,利用行人检测模型对运动前景图像中的行人目标进行检测。
3.如权利要求1所述的基于目标动态跟踪的电力营业厅客流统计方法,其特征在于,所述目标去重,具体为:
(3-1)计算检测目标与跟踪目标的重叠面积比;
(3-2)设定重叠面积比的阈值,若重叠面积比集合中存在大于阈值的重叠面积比,则该行人目标为旧目标,不将其加入到跟踪目标列表中,反之集合中所有重叠面积比都小于阈值,则该行人目标为新目标,将其加入到跟踪目标列表中,并初始化目标参数。
4.如权利要求3所述的基于目标动态跟踪的电力营业厅客流统计方法,其特征在于,步骤(3-1)中,具体为:
(3-1-1)获取检测到的行人目标的目标区域,获取跟踪目标列表中各个行人目标的目标区域,计算该检测目标区域与各个跟踪目标区域的重叠面积;
(3-1-2)计算各重叠面积与对应跟踪目标区域面积的比值,得到若干重叠面积比的集合;
或者,
步骤(3-2)中,具体为:
(3-2-1)构建实际实验运行检测行人目标和跟踪行人目标的重叠面积比与检测目标图像和跟踪目标图像的峰值信噪比值的二维曲线图;
(3-2-2)通过分析曲线图获得重叠面积比的阈值。
5.如权利要求1所述的基于目标动态跟踪的电力营业厅客流统计方法,其特征在于,行人目标跟踪,具体为:
(4-1)将检测到的行人目标提取其方向梯度直方图特征,利用提取到的方向梯度直方图特征训练核相关滤波目标跟踪算法的滤波器,完成滤波器参数初始化;
(4-2)使用滤波器在下一帧视频图像的相同位置及附近对其方向梯度直方图特征进行卷积运算,得到滤波器响应值,响应值最大的位置即为核相关滤波目标跟踪模型在当前帧跟踪到的行人目标,利用当前帧的目标信息对跟踪目标列表中对应目标的参数进行更新;
(4-3)核相关滤波目标跟踪模型利用当前帧跟踪到的目标的方向梯度直方图特征对滤波器进行进一步训练与更新,并在下一帧视频图像中利用更新后的滤波器进行目标检测。
6.如权利要求5所述的基于目标动态跟踪的电力营业厅客流统计方法,其特征在于,行人目标预测与检测验证,具体为:
(5-1)根据得到的行人目标的目标参数,计算行人目标在视频中的平均移动速度;
(5-2)假设行人目标在进出营业厅时视频采集范围内基本保持匀速直线的运动状态,根据步骤(5-1)所得行人目标的平均移动速度计算该行人目标到达计数线时的视频帧号和具体位置;
(5-3)根据步骤(5-2)的预测,在对应视频帧的对应位置基础上形成新的搜索区域;
(5-4)使用步骤(4-3)最终更新后的核相关滤波目标跟踪算法滤波器在新的搜索区域内进行卷积运算,得到滤波器的最大响应值;
(5-5)预设最大响应值阈值,用以判定所得最大响应值处是否为行人目标;
(5-6)基于步骤(5-4)所得滤波器最大响应值,结合最大响应值阈值,判定步骤(5-2)的预测结果是否准确。
7.如权利要求6所述的基于目标动态跟踪的电力营业厅客流统计方法,其特征在于,步骤(5-1)中,具体为:
(5-1-1)根据获得的行人目标的目标参数,计算行人目标在被跟踪过程中产生的关于x方向和y方向上的位移量;
(5-1-2)基于视频帧率得到行人目标被跟踪过程所需的时间,并结合步骤(5-1-1)所得的位移量,计算行人目标在被跟踪过程中在x方向和y方向上的平均移动速度;
或者,
步骤(5-2)中,具体为:
(5-2-1)计算行人目标自目标跟踪终止处运动到计数线处时在y方向上发生的位移,并结合行人目标在y方向上的平均移动速度,计算行人目标运动到计数线处所需的时间;
(5-2-2)基于步骤(5-2-1)所得时间,结合视频帧率,计算行人目标到达计数线时的视频帧号;
(5-2-3)基于步骤(5-2-1)所得时间,结合行人目标在x方向上的平均移动速度,计算行人目标到达计数线时其具体位置的横坐标;
或者,
步骤(5-3)中,具体为:
(5-3-1)在预测行人目标到达计数线时的视频帧内,将核相关滤波目标跟踪算法目标检测模型的搜索框及其中心点移至对应预测位置处;
(5-3-2)为验证预测的正确性,同时避免误检,减小误差,将搜索框分别在x、y的正负方向上以搜索框边长为偏移量进行偏移,形成新的搜索区域;
或者,
步骤(5-5)中,具体为:
(5-5-1)构建实际实验运行最大响应值与行人目标图像和最大响应值处对应目标图像的峰值信噪比值的二维曲线图,峰值信噪比值用以衡量两幅图像的相似性,峰值信噪比值越高,则两幅图像越相似;
(5-5-2)分析曲线图,得到使得峰值信噪比值发生跳变的最大响应值为最大响应值的阈值,即最大响应值的阈值所对应的目标图像与行人目标图像的相似性发生变化;
或者,
步骤(5-6)中,具体为:
(5-6-1)若最大响应值小于最大响应值的阈值,则判定计数线处没有检测到该行人目标,该行人没有到达营业厅入口处,将该目标在跟踪目标列表中删除;
(5-6-2)若最大响应值大于最大响应值的阈值,则判定计数线处检测到该行人目标,该行人到达营业厅入口处,对其进行进/出情况统计。
8.一种基于目标动态跟踪的电力营业厅客流统计系统,其特征在于,包括:
图像预处理模块,被配置为:将摄像头获取的视频数据流信息以预设帧率解码为若干连续视频帧,对连续视频帧图像使用高斯滤波器进行图像预处理,并设定坐标系和进行人数统计的计数线;
行人目标检测模块,被配置为:对预处理后的连续视频帧图像使用帧间差分法提取视频序列的运动前景图像,对运动前景图像采用集成学习Adaboost算法和方向梯度直方图特征相结合的方法进行行人检测,得到视频图像中存在的行人目标;
行人目标去重模块,被配置为:对于检测到的行人目标,判定其是否已存在于跟踪目标列表中,对已存在的被重复检测目标进行目标去重,并将没有被重复检测的行人目标加入到跟踪目标列表中;
行人目标跟踪模块,被配置为:为跟踪目标列表中的每个目标分配一个基于核相关滤波目标跟踪算法所构建的行人目标跟踪模型对某行人目标在后续多帧视频图像中进行跟踪,并同时更新其目标参数;
行人目标预测与检测验证模块,被配置为:根据行人目标的初始目标参数和最终更新的目标参数预测该行人目标到达计数线时的视频帧号与位置,并在该帧号的视频中使用核相关滤波目标跟踪算法的目标检测模型在该目标位置及其邻域内检测该行人目标,对预测的结果进行验证;
统计计数模块,被配置为:若判定该行人已到达计数线处,根据目标初始位置纵坐标与计数线纵坐标的关系判定客流的进出统计计数情况。
9.一种介质,其上存储有程序,其特征在于,该程序被处理器执行时实现如权利要求1-7任一项所述的基于目标动态跟踪的电力营业厅客流统计方法中的步骤。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-7任一项所述的基于目标动态跟踪的电力营业厅客流统计方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911167217.0A CN111062967B (zh) | 2019-11-25 | 2019-11-25 | 一种基于目标动态跟踪的电力营业厅客流统计方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911167217.0A CN111062967B (zh) | 2019-11-25 | 2019-11-25 | 一种基于目标动态跟踪的电力营业厅客流统计方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111062967A true CN111062967A (zh) | 2020-04-24 |
CN111062967B CN111062967B (zh) | 2023-05-26 |
Family
ID=70298645
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911167217.0A Active CN111062967B (zh) | 2019-11-25 | 2019-11-25 | 一种基于目标动态跟踪的电力营业厅客流统计方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111062967B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112085767A (zh) * | 2020-08-28 | 2020-12-15 | 安徽清新互联信息科技有限公司 | 一种基于深度光流跟踪的客流统计方法及系统 |
CN112686921A (zh) * | 2021-01-08 | 2021-04-20 | 西安羚控电子科技有限公司 | 一种基于轨迹特征的多干扰无人机检测跟踪方法 |
CN113592785A (zh) * | 2021-07-09 | 2021-11-02 | 浙江大华技术股份有限公司 | 一种目标流量统计方法及装置 |
CN114913195A (zh) * | 2022-07-13 | 2022-08-16 | 苏州魔视智能科技有限公司 | 一种针对目标区域的人数统计方法、装置及系统 |
CN115546192A (zh) * | 2022-11-03 | 2022-12-30 | 中国平安财产保险股份有限公司 | 牲畜数量识别方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103986910A (zh) * | 2014-05-20 | 2014-08-13 | 中国科学院自动化研究所 | 一种基于智能分析摄像机的客流统计方法和系统 |
CN106127812A (zh) * | 2016-06-28 | 2016-11-16 | 中山大学 | 一种基于视频监控的客运站非出入口区域的客流统计方法 |
CN110009665A (zh) * | 2019-03-12 | 2019-07-12 | 华中科技大学 | 一种遮挡环境下的目标检测跟踪方法 |
CN110490899A (zh) * | 2019-07-11 | 2019-11-22 | 东南大学 | 一种结合目标跟踪的可变形施工机械的实时检测方法 |
-
2019
- 2019-11-25 CN CN201911167217.0A patent/CN111062967B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103986910A (zh) * | 2014-05-20 | 2014-08-13 | 中国科学院自动化研究所 | 一种基于智能分析摄像机的客流统计方法和系统 |
CN106127812A (zh) * | 2016-06-28 | 2016-11-16 | 中山大学 | 一种基于视频监控的客运站非出入口区域的客流统计方法 |
CN110009665A (zh) * | 2019-03-12 | 2019-07-12 | 华中科技大学 | 一种遮挡环境下的目标检测跟踪方法 |
CN110490899A (zh) * | 2019-07-11 | 2019-11-22 | 东南大学 | 一种结合目标跟踪的可变形施工机械的实时检测方法 |
Non-Patent Citations (1)
Title |
---|
ZHUOJIN SUN ET AL.: "Hard negative mining for correlation filters in visual tracking" * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112085767A (zh) * | 2020-08-28 | 2020-12-15 | 安徽清新互联信息科技有限公司 | 一种基于深度光流跟踪的客流统计方法及系统 |
CN112686921A (zh) * | 2021-01-08 | 2021-04-20 | 西安羚控电子科技有限公司 | 一种基于轨迹特征的多干扰无人机检测跟踪方法 |
CN112686921B (zh) * | 2021-01-08 | 2023-12-01 | 西安羚控电子科技有限公司 | 一种基于轨迹特征的多干扰无人机检测跟踪方法 |
CN113592785A (zh) * | 2021-07-09 | 2021-11-02 | 浙江大华技术股份有限公司 | 一种目标流量统计方法及装置 |
CN114913195A (zh) * | 2022-07-13 | 2022-08-16 | 苏州魔视智能科技有限公司 | 一种针对目标区域的人数统计方法、装置及系统 |
CN115546192A (zh) * | 2022-11-03 | 2022-12-30 | 中国平安财产保险股份有限公司 | 牲畜数量识别方法、装置、设备及存储介质 |
CN115546192B (zh) * | 2022-11-03 | 2023-03-21 | 中国平安财产保险股份有限公司 | 牲畜数量识别方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111062967B (zh) | 2023-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111062967B (zh) | 一种基于目标动态跟踪的电力营业厅客流统计方法及系统 | |
CN108492319B (zh) | 基于深度全卷积神经网络的运动目标检测方法 | |
Parks et al. | Evaluation of background subtraction algorithms with post-processing | |
CN109376572B (zh) | 基于深度学习的交通视频中实时车辆检测与轨迹跟踪方法 | |
CN102542289B (zh) | 一种基于多高斯计数模型的人流量统计方法 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
CN103955949B (zh) | 基于Mean-shift算法的运动目标检测方法 | |
CN106157332A (zh) | 一种基于ViBe算法的运动检测优化方法 | |
CN106295532B (zh) | 一种视频图像中的人体动作识别方法 | |
CN105631418A (zh) | 一种人数统计的方法和装置 | |
CN105930794A (zh) | 一种基于云计算的室内场景识别方法 | |
CN109685045A (zh) | 一种运动目标视频跟踪方法及系统 | |
CN110991397B (zh) | 一种行进方向确定方法及相关设备 | |
Xiang et al. | Lightweight fully convolutional network for license plate detection | |
CN111027377A (zh) | 一种双流神经网络时序动作定位方法 | |
CN111540203B (zh) | 基于Faster-RCNN调节绿灯通行时间的方法 | |
CN111476160A (zh) | 损失函数优化方法、模型训练方法、目标检测方法及介质 | |
CN1564600A (zh) | 动态场景下的运动物体检测方法 | |
CN116721414A (zh) | 一种医学图像细胞分割与跟踪方法 | |
CN112926429A (zh) | 机审模型训练、视频机审方法、装置、设备及存储介质 | |
CN102509308A (zh) | 基于混合动态纹理空时显著性检测的运动分割方法 | |
CN108765463A (zh) | 一种结合区域提取与改进纹理特征的运动目标检测方法 | |
Najafzadeh et al. | Object tracking using Kalman filter with adaptive sampled histogram | |
CN112258552A (zh) | 一种社区监控场景下行人多目标跟踪方法 | |
CN111339824A (zh) | 基于机器视觉的路面抛洒物检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |