CN116245911B - 一种视频过线统计方法 - Google Patents

一种视频过线统计方法 Download PDF

Info

Publication number
CN116245911B
CN116245911B CN202310079428.9A CN202310079428A CN116245911B CN 116245911 B CN116245911 B CN 116245911B CN 202310079428 A CN202310079428 A CN 202310079428A CN 116245911 B CN116245911 B CN 116245911B
Authority
CN
China
Prior art keywords
area
line
target
statistics
human head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310079428.9A
Other languages
English (en)
Other versions
CN116245911A (zh
Inventor
唐自兴
陈苗苗
姚顾肖
胡江峰
杨运红
江发钦
杨亮亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Raysharp Technology Co ltd
Original Assignee
Zhuhai Raysharp Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Raysharp Technology Co ltd filed Critical Zhuhai Raysharp Technology Co ltd
Priority to CN202310079428.9A priority Critical patent/CN116245911B/zh
Publication of CN116245911A publication Critical patent/CN116245911A/zh
Application granted granted Critical
Publication of CN116245911B publication Critical patent/CN116245911B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Abstract

本发明提供了一种视频过线统计方法,具体包括:基于深度学习人头检测、区域和拌线结合的进出统计。其中,基于深度学习人头检测包括:人头数据集收集、人头检测模型训练、板端模型的应用。区域和拌线结合的进出统计包括:对目标进行跟踪,判断目标是否经过拌线,目标数目的统计与输出。本视频过线统计方法基于人头检测的人员统计方法可以降低由于遮挡原因而引入的漏检情况,同时基于线和区域相结合的规则判断人员是否过线,防止人员在线上徘徊引起的误统计,或未真实经过线的误统计,大幅提高过线统计的准确率。

Description

一种视频过线统计方法
技术领域
本发明涉及安防监控技术领域,具体涉及一种视频过线统计方法。
背景技术
在视觉监控领域中,过线统计功能是一种常用的功能,通常可以用在店铺门口,超市过道以及交通街道,用来统计人员、车辆或者其他目标的进出数目,该功能通常涉及到的技术有目标检测、目标跟踪以及过线判断。
现有的技术中通常使用设置一根虚拟线用来判断目标是否越过这个线,当从线的一边越到另一边对目标进行进出的统计以达到统计人员、车辆的作用,同时对人员的统计现有技术大多也都采用的是对人行进行检测或者对头肩进行检测。
现有技术中的过线统计算法往往采用的是单条线进行判断检测目标是否通过,这样在实际应用过程中当目标在线上左右徘徊的过程很容易产生误触发,对人员的统计以往算法往往采用人形检测或者头肩检测的方法检测目标,普通场景能比较好的统计,但是当密集场景的时候人行检测容易出现重叠的情况导致漏统计一些人。
发明内容
针对现有技术的不足,本发明提出了一种视频过线统计方法,基于人头检测的人员统计方法可以降低由于遮挡原因而引入的漏检情况,同时基于线和区域相结合的规则判断人员是否过线,防止人员在线上徘徊引起的误统计,或未真实经过线的误统计,大幅提高过线统计的准确率。
为实现上述技术方案,本发明提供了一种视频过线统计方法,具体包括如下步骤:
S1、基于深度学习的人头检测:
S11、人头数据集收集,从现有开放的数据集中收集人头数据集,并利用收集好的数据训练模型以及将模型应用到板端,使用板端设备在不同场景进行人头检测,同时对出现误报的目标再针对的进行收集,总共收集了超过25000张包含人头以及常见误报漏报的数据集;
S12、人头检测模型训练,使用步骤S11收集好的人头数据集将数据转换为yolov5支持的格式,基于yolov5进行训练;
S13、板端模型的应用,将步骤S12训练好的电脑端模型通过对应芯片提供的转换工具转换为板端模型,首先对图像数据进行缩放操作,然后将缩放后的图像数据和板端模型送入到芯片的推演模块进行运算得到模型网络的输出数据,对输出的数据进行后处理,对候选框进行非极大抑制操作筛选出检测的目标框,最后将输出的框的位置输出用于后面的跟踪算法跟踪以及画框使用;
S2、使用区域和线结合的方式进行过线统计:
S21、获取摄像头拍摄到的图像数据;
S22、将图像数据送入到推演算法模块进行运算实现人头检测,将人头检测到的目标框通过人头目标跟踪将同一人头在不同帧形成相同的ID,以用于后续的过线判断;
S23、依据跟踪轨迹信息以及用户设置的规则,使用区域和线形成的规则进行人员的过线判断;
S24、将过线判断的信息进行统计,分别计数进去和出去的人员数目,最后将统计好的信息输出出去。
优选的,所述步骤S11中,现有开放的数据集包括WiderFace、coco数据集,并将特别小的人头目标进行马赛克处理防止其影响最终的检测效果。
优选的,所述步骤S12中,为了满足嵌入式板端实时运行的条件,需要对网络结构进行一些调整,去除掉yolov5中第一层的focus层,使用卷积层进行替换,对于嵌入式设备端不支持的激活层进行修改,使用LeakyReLU替代原有网络中的SiLU,同时网络结构中的宽度和高度修改为width=0.25,height=0.75,并使用repvgg的方式替换了yolov5中的部分卷积层,在导出模型的时候合并卷积分支提高速度。
优选的,所述步骤S13中,后处理包括提取候选框执行度、类别、以及框的位置信息。
优选的,所述步骤S22中,人头目标跟踪为卡尔曼滤波和匈牙利算法相结合的跟踪算法,目标跟踪距离的计算公式为dist=1-A∩B/A∪B,其中A为预测的下一帧的目标的位置信息,B为当前帧目标的位置信息,dist用来度量两个目标之间的距离。
优选的,所述步骤S23中,使用区域和线形成的规则进行人员的过线判断方式具体如下:
a、当人员先进入区域A然后越过线再进入区域B同时在B区域中离开,或者从反方向人员先进入区域B然后越过线再进入区域A同时在A区域中离开这样的过程可以认为是一个越线过程,对这一过程进行统计以达到对人员统计的效果;
b、只在某一个区域进行了运动,包含在区域A或者区域B中,这种情况没有越过线不会被统计;
c、在其中一个区域运动同时越过线也在另一个区域有出现,但是最终回到了初始进入的区域离开,这种情况不会统计;
d、在某个区域出现然后绕过设置的线出现在另一个区域,这种情况也不进行统计因为没有越过线所以不会被统计。
优选的,所述步骤S24中,目标数目的统计与输出方式如下:
a、设置规则区域和线的判断规则,用户设置的参数为一个6个点的数组参数,记点为p1~p6,其中p1~p4为区域的4个点,p5~p6为线的两个点,将[p1,p2,p5,p6]4个点使用opencv中cv::fillPoly函数填充区域,并将其中的值设置为128,再将[p3,p4,p5,p6]4个点按照同样的方式将值设置为255,其他不在设置区域内的位置设置为0,设置不同的值是为了区分三个区域为不同的区域,分别为A区域、B区域、以及区域外,保存规则信息到缓存中用于后续判断;
b、目标检测框通过跟踪算法形成轨迹,使用跟踪轨迹信息与上面设置规则的缓存数据进行判断,首先通过目标框的中心位置所在设置规则区域位置的像素值大小为0、128、255用来判断目标分别在区域外、A区域、B区域三种状态,然后判断跟踪轨迹的状态为第二次判断区域还是第一次,如果是第一次那么就直接存储当前所在区域状态,如果为第二次那么与第一次的状态进行并集操作,用以记录两次所在的区域,最后通过判别轨迹是否在设置区域外的状态用来判断目标是否离开区域。
本发明提供的一种视频过线统计方法的有益效果在于:
1)针对现有技术中过线统计对人员的统计使用人形检测或者头肩检测容易被遮挡的情况,本发明对人员统计使用人头检测的方法避免遮挡带来的检测人员数目不准确情况,可以降低由于遮挡原因而引入的漏检情况,提高统计的准确性;
2)针对现有技术中过线统计通过单条线进行统计,在线上移动频繁统计的情况,本发明增加一个缓冲区域,用以避免在线上晃动引起的多次统计,并且使用基于线和区域相结合的规则判断人员是否过线,防止人员在线上徘徊引起的误统计,或未真实经过线的误统计,大幅提高过线统计的准确率。
附图说明
图1为本发明的步骤流程图。
图2为本发明中板端模型应用流程图。
图3为本发明中区域和线结合的规则示意图。
图4为本发明中规避轨迹示意图。
图5为本发明中具体目标所在两个区域的判断流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。本领域普通人员在没有做出创造性劳动前提下所获得的所有其他实施例,均属于本发明的保护范围。
实施例:一种视频过线统计方法。
本视频过线统计方法主要包括:基于深度学习人头检测、区域和拌线结合的进出统计。其中,基于深度学习人头检测包括:人头数据集收集、人头检测模型训练、板端模型的应用。区域和拌线结合的进出统计包括:对目标进行跟踪,判断目标是否经过拌线,目标数目的统计与输出。
过线统计方法在实际设备上的流程为,首先获取摄像头拍摄到的图像数据,然后将图像数据送入到推演算法模块进行运算实现人头检测,将人头检测到的目标框通过跟踪算法将同一人头在不同帧形成相同的ID,以用于后续的过线判断,然后依据跟踪轨迹信息以及用户设置的规则,使用区域和线形成的规则进行人员的过线判断,将过线判断的信息进行统计分别计数进去和出去的人员数目,最后将统计好的信息输出出去,具体流程如图1所示。
一种视频过线统计方法,具体包括如下步骤:
S1、基于深度学习人头检测
S11、人头数据集收集
人头数据集收集分为两个部分,第一部分从现有的如WiderFace,coco等现有开放的数据集中收集人头数据集,为了降低误报,将特别小的人头目标进行马赛克处理防止其影响最终的检测效果。第二部分利用前面收集好的数据训练模型以及将模型应用到板端,使用板端设备在不同场景进行人头检测,有很多物体与人头存在类似形状情况,对出现误报的目标再针对的进行收集,其中包括动物类头、玩偶头、人手、圆形灯具等容易误报,而对于漏报的情况主要表现为带口罩的人,通过这两部分的数据总共收集了超过25000张包含人头以及常见误报漏报的数据集。
S12、人头检测模型训练
人头检测模型训练使用基于yolov5进行训练,使用上面收集好的人头数据集将数据转换为yolov5支持的格式,为了满足嵌入式板端实时运行的条件,对网络结构进行一些调整,去除掉yolov5中第一层的focus层,使用卷积层进行替换,对于嵌入式设备端不支持的激活层进行修改,使用LeakyReLU替代原有网络中的SiLU,同时网络结构中的宽度和高度修改为width=0.25,height=0.75,为了提高模型的运行速度,使用了repvgg的方式替换了yolov5中的部分卷积层,在导出模型的时候合并卷积分支提高速度。然后将yolov5导出为onnx格式的模型,最后将onnx模型转换为caffe模型格式以用于后续转换为板端模型使用。
S13、板端模型的应用
板端模型应用流程如图2所示,提前需要将之前训练好的电脑端模型通过对应芯片提供的转换工具转换为板端模型,首先能获取到图像数据对图像数据进行缩放操作,这里缩放的尺寸需要与板端模型的输入尺寸相匹配,然后将缩放后的图像数据和板端模型送入到芯片的推演模块进行运算得到模型网络的输出数据,对输出的数据进行后处理,后处理包括提取候选框执行度、类别、以及框的位置信息,对候选框进行非极大抑制操作筛选出检测的目标框,最后将输出的框的位置输出用于后面的跟踪算法跟踪以及画框使用。
S2、区域和线结合的进出统计
S21、人头目标跟踪
人头跟踪算法为了提高目标的跟踪速度,防止跟踪轨迹不连续情况,这里采用卡尔曼滤波和匈牙利算法相结合的跟踪算法,其中,目标跟踪距离的计算公式为dist=1-A∩B/A∪B,其中A为预测的下一帧的目标的位置信息,B为当前帧目标的位置信息,dist用来度量两个目标之间的距离。
S22、判断目标是否经过拌线
区域和线结合的规则示意图如图3所示,区域和线结合的人员过线判断可以描述为,当人员先进入区域A然后越过线再进入区域B同时在B区域中离开,或者从反方向人员先进入区域B然后越过线再进入区域A同时在A区域中离开这样的过程可以认为是一个越线过程对这一过程进行统计以达到对人员统计的效果。
如上设计可以规避以下误报情况,具体参照图4所示:
1、轨迹A类似的运动方式代表只在某一个区域进行了运动,包含在区域A或者区域B中,这种情况没有越过线不会被统计。
2、轨迹B类似的运动方式代表在其中一个区域运动同时越过线也在另一个区域有出现,但是他最终回到了初始进入的区域离开,这种情况不会统计因为没有真实的越过区域和线的规则。
3、轨迹C类似的运动,在某个区域出现然后绕过设置的线出现在另一个区域,这种情况也不进行统计因为没有越过线所以不会被统计。
S23、目标数目的统计与输出
首先,设置规则区域和线的判断规则,用户设置的参数为一个6个点的数组参数,记点为p1~p6,其中p1~p4为区域的4个点,p5~p6为线的两个点,我们将[p1,p2,p5,p6]4个点使用opencv中cv::fillPoly函数填充区域并将其中的值设置为128,再将[p3,p4,p5,p6]4个点安装同样的方式将值设置为255,其他不在设置区域内的位置设置为0,设置不同的值是为了区分三个区域为不同的区域,分别为A区域、B区域、以及区域外,保存规则信息到缓存中用于后续判断。
然后,对具体目标所在两个区域进行判断,判断流程如图5所示,目标检测框通过跟踪算法形成轨迹,使用跟踪轨迹信息与上面设置规则的缓存数据进行判断,首先通过目标框的中心位置所在设置规则区域位置的像素值大小为0、128、255用来判断目标分别在区域外、A区域、B区域三种状态,然后判断跟踪轨迹的状态为第二次判断区域还是第一次,如果是第一次那么就直接存储当前所在区域状态,如果为第二次那么与第一次的状态进行并集操作,用以记录两次所在的区域,最后通过判别轨迹是否在设置区域外的状态用来判断目标是否离开区域。
本发明针对现有技术中过线统计对人员的统计使用人形检测或者头肩检测容易被遮挡的情况,对人员统计使用人头检测的方法避免遮挡带来的检测人员数目不准确情况,可以降低由于遮挡原因而引入的漏检情况,提高统计的准确性。同时针对现有技术中过线统计通过单条线进行统计,在线上移动频繁统计的情况,本发明增加一个缓冲区域,用以避免在线上晃动引起的多次统计,并且使用基于线和区域相结合的规则判断人员是否过线,防止人员在线上徘徊引起的误统计,或未真实经过线的误统计,大幅提高过线统计的准确率。
以上所述为本发明的较佳实施例而已,但本发明不应局限于该实施例和附图所公开的内容,所以凡是不脱离本发明所公开的精神下完成的等效或修改,都落入本发明保护的范围。

Claims (5)

1.一种视频过线统计方法,其特征在于具体包括如下步骤:
S1、基于深度学习的人头检测:
S11、人头数据集收集,从现有开放的数据集中收集人头数据集,并利用收集好的数据训练模型以及将模型应用到板端,使用板端设备在不同场景进行人头检测,同时对出现误报的目标再针对的进行收集,总共收集了超过25000张包含人头以及常见误报漏报的数据集;
S12、人头检测模型训练,使用步骤S11收集好的人头数据集将数据转换为yolov5支持的格式,基于yolov5进行训练;
S13、板端模型的应用,将步骤S12训练好的电脑端模型通过对应芯片提供的转换工具转换为板端模型,首先对图像数据进行缩放操作,然后将缩放后的图像数据和板端模型送入到芯片的推演模块进行运算得到模型网络的输出数据,对输出的数据进行后处理,对候选框进行非极大抑制操作筛选出检测的目标框,最后将输出的框的位置输出用于后面的跟踪算法跟踪以及画框使用;
S2、使用区域和线结合的方式进行过线统计:
S21、获取摄像头拍摄到的图像数据;
S22、将图像数据送入到推演算法模块进行运算实现人头检测,将人头检测到的目标框通过人头目标跟踪将同一人头在不同帧形成相同的ID,以用于后续的过线判断;
S23、依据跟踪轨迹信息以及用户设置的规则,使用区域和线形成的规则进行人员的过线判断,具体方式如下:
S231、当人员先进入区域A然后越过线再进入区域B同时在B区域中离开,或者从反方向人员先进入区域B然后越过线再进入区域A同时在A区域中离开这样的过程可以认为是一个越线过程,对这一过程进行统计以达到对人员统计的效果;
S232、只在某一个区域进行了运动,包含在区域A或者区域B中,这种情况没有越过线不会被统计;
S233、在其中一个区域运动同时越过线也在另一个区域有出现,但是最终回到了初始进入的区域离开,这种情况不会统计;
S234、在某个区域出现然后绕过设置的线出现在另一个区域,这种情况也不进行统计因为没有越过线所以不会被统计;
S24、将过线判断的信息进行统计,分别计数进去和出去的人员数目,最后将统计好的信息输出出去,目标数目的统计与输出方式如下:
S241、设置规则区域和线的判断规则,用户设置的参数为一个6个点的数组参数,记点为p1~p6,其中p1~p4为区域的4个点,p5~p6为线的两个点,将[p1,p2,p5,p6] 4个点使用opencv中cv::fillPoly函数填充区域,并将其中的值设置为128,再将[p3,p4,p5,p6] 4个点按照同样的方式将值设置为255,其他不在设置区域内的位置设置为0,设置不同的值是为了区分三个区域为不同的区域,分别为A区域、B区域、以及区域外,保存规则信息到缓存中用于后续判断;
S242、目标检测框通过跟踪算法形成轨迹,使用跟踪轨迹信息与上面设置规则的缓存数据进行判断,首先通过目标框的中心位置所在设置规则区域位置的像素值大小为0、128、255用来判断目标分别在区域外、A区域、B区域三种状态,然后判断跟踪轨迹的状态为第二次判断区域还是第一次,如果是第一次那么就直接存储当前所在区域状态,如果为第二次那么与第一次的状态进行并集操作,用以记录两次所在的区域,最后通过判别轨迹是否在设置区域外的状态用来判断目标是否离开区域。
2.如权利要求1所述的视频过线统计方法,其特征在于,所述步骤S11中,现有开放的数据集包括WiderFace、coco数据集,并将特别小的人头目标进行马赛克处理防止其影响最终的检测效果。
3.如权利要求1所述的视频过线统计方法,其特征在于,所述步骤S12中,为了满足嵌入式板端实时运行的条件,需要对网络结构进行一些调整,去除掉yolov5中第一层的focus层,使用卷积层进行替换,对于嵌入式设备端不支持的激活层进行修改,使用LeakyReLU替代原有网络中的SiLU, 同时网络结构中的宽度和高度修改为width=0.25,height=0.75,并使用repvgg的方式替换了yolov5中的部分卷积层,在导出模型的时候合并卷积分支提高速度。
4.如权利要求1所述的视频过线统计方法,其特征在于,所述步骤S13中,后处理包括提取候选框执行度、类别、以及框的位置信息。
5.如权利要求1所述的视频过线统计方法,其特征在于,所述步骤S22中,人头目标跟踪为卡尔曼滤波和匈牙利算法相结合的跟踪算法,目标跟踪距离的计算公式为 dist = 1 -A∩B/A∪B,其中A为预测的下一帧的目标的位置信息,B为当前帧目标的位置信息,dist用来度量两个目标之间的距离。
CN202310079428.9A 2023-02-08 2023-02-08 一种视频过线统计方法 Active CN116245911B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310079428.9A CN116245911B (zh) 2023-02-08 2023-02-08 一种视频过线统计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310079428.9A CN116245911B (zh) 2023-02-08 2023-02-08 一种视频过线统计方法

Publications (2)

Publication Number Publication Date
CN116245911A CN116245911A (zh) 2023-06-09
CN116245911B true CN116245911B (zh) 2023-11-03

Family

ID=86625514

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310079428.9A Active CN116245911B (zh) 2023-02-08 2023-02-08 一种视频过线统计方法

Country Status (1)

Country Link
CN (1) CN116245911B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116993550B (zh) * 2023-08-25 2024-04-09 广州控智电子科技有限公司 控制教室开启的方法、系统、计算机设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102799935A (zh) * 2012-06-21 2012-11-28 武汉烽火众智数字技术有限责任公司 一种基于视频分析技术的人流量统计方法
CN106845383A (zh) * 2017-01-16 2017-06-13 腾讯科技(上海)有限公司 人头检测方法和装置
CN108206935A (zh) * 2016-12-16 2018-06-26 北京迪科达科技有限公司 一种人员数量统计监测分析系统
CN111382720A (zh) * 2020-03-18 2020-07-07 浩云科技股份有限公司 基于顶视单目摄像机的人员数量的实时统计方法及装置
CN112633210A (zh) * 2020-12-14 2021-04-09 南京理工大学 基于目标检测的轨道交通客流密度估计系统及其方法
CN113762126A (zh) * 2021-08-31 2021-12-07 深圳数联天下智能科技有限公司 一种人员进出检测方法、装置、设备及介质
WO2022256150A1 (en) * 2021-06-04 2022-12-08 Microsoft Technology Licensing, Llc Occlusion-aware multi-object tracking

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102799935A (zh) * 2012-06-21 2012-11-28 武汉烽火众智数字技术有限责任公司 一种基于视频分析技术的人流量统计方法
CN108206935A (zh) * 2016-12-16 2018-06-26 北京迪科达科技有限公司 一种人员数量统计监测分析系统
CN106845383A (zh) * 2017-01-16 2017-06-13 腾讯科技(上海)有限公司 人头检测方法和装置
CN111382720A (zh) * 2020-03-18 2020-07-07 浩云科技股份有限公司 基于顶视单目摄像机的人员数量的实时统计方法及装置
CN112633210A (zh) * 2020-12-14 2021-04-09 南京理工大学 基于目标检测的轨道交通客流密度估计系统及其方法
WO2022256150A1 (en) * 2021-06-04 2022-12-08 Microsoft Technology Licensing, Llc Occlusion-aware multi-object tracking
CN113762126A (zh) * 2021-08-31 2021-12-07 深圳数联天下智能科技有限公司 一种人员进出检测方法、装置、设备及介质

Also Published As

Publication number Publication date
CN116245911A (zh) 2023-06-09

Similar Documents

Publication Publication Date Title
CN101458871B (zh) 一种智能交通分析系统及其应用系统
CN104244113B (zh) 一种基于深度学习技术的视频摘要生成方法
CN108062349A (zh) 基于视频结构化数据及深度学习的视频监控方法和系统
CN106571039A (zh) 一种高速公路违章行为自动抓拍系统
CN107229894A (zh) 基于计算机视觉分析技术的智能视频监控方法及系统
CN105303191A (zh) 一种前视监视场景下的行人计数方法和装置
CN102426785B (zh) 基于轮廓和局部特征点的交通流信息感知方法及系统
CN116245911B (zh) 一种视频过线统计方法
Chang et al. Video analytics in smart transportation for the AIC'18 challenge
CN105608431A (zh) 一种基于车辆数目与车流速度的高速公路拥堵检测方法
CN106558224B (zh) 一种基于计算机视觉的交通智能监管方法
CN104966304A (zh) 基于卡尔曼滤波与非参数背景模型的多目标检测跟踪方法
CN103150552B (zh) 一种基于人头计数的驾驶培训管理方法
CN110288738B (zh) 一种自行车专用车道智能综合管控系统和管控方法
US20220237919A1 (en) Method, Apparatus, and Computing Device for Lane Recognition
CN115841651B (zh) 基于计算机视觉与深度学习的施工人员智能监测系统
CN104159088A (zh) 一种远程智能车辆监控系统及方法
CN112560641A (zh) 基于视频的双向客流通道中的单向客流信息检测方法
CN114898326A (zh) 基于深度学习的单行道车辆逆行检测方法、系统及设备
CN110516600A (zh) 一种基于人脸检测的公交客流检测方法
CN114494998A (zh) 一种车辆数据智能分析方法及系统
Khoshabeh et al. Multi-camera based traffic flow characterization & classification
CN116311166A (zh) 交通障碍物识别方法、装置及电子设备
Garvanov et al. Detection and parameters estimation of moving objects via video surveillance
Ponte et al. Using specialised cyclist detection software to count cyclists and determine cyclist travel speed from video

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant