CN109145736B - 一种基于视频分析的地铁站点行人逆向行走的检测方法 - Google Patents
一种基于视频分析的地铁站点行人逆向行走的检测方法 Download PDFInfo
- Publication number
- CN109145736B CN109145736B CN201810788357.9A CN201810788357A CN109145736B CN 109145736 B CN109145736 B CN 109145736B CN 201810788357 A CN201810788357 A CN 201810788357A CN 109145736 B CN109145736 B CN 109145736B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- monitoring
- video
- inversely
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视频分析的地铁站点行人逆向行走的检测方法,该方法包括以下具体步骤:步骤1,获取视频流:步骤2,监控区域背景建模:步骤3,提取运动前景;步骤4,通过卷积神经网络行人轮廓分割模型判断图像中是否存在行人,具体为:步骤41,卷积神经网络行人轮廓分割模型的构建;步骤42,判断图像中是否存在行人;步骤5,跟踪并确定行人运动方向;步骤6,判断行人是否逆行并报警;本发明的行人逆向行走检测方法满足了城市轨道日益智能化趋势的要求,实现了无需管理人员时刻观察监控视频的自动监控和实时报警,节省了大量的人力物力的投入;提高了城市轨道有效的管理效率。
Description
技术领域
本发明涉及公共监控技术领域,尤其适用于地铁站点中单向通道上行人流向的监控,具体涉及一种基于视频分析的地铁站点行人逆向行走的检测方法。
背景技术
随着城市化进程的加快,地铁在公共出行中占据了越来越重要的地位。在某些地铁站点,尤其是地铁换乘站点,存在一些单向行走区域。当行人在单向通道中逆向行走时,如果遇到地铁到站后突发大客流情况,极易造成踩踏事故。为了避免上述事件的发生,传统方法在单向行走区域放置警告牌,并安排一名工作人员监看此区域,阻止地铁乘客在单向通道逆向行走;目前存在的监控方法可以对区域进行全天候的监控,但其不能自动检测出行人逆向行走事件,需要管理人员时刻观察监控视频,效率低下,同时管理人员很难做到时刻查看视频,采用该方法检测行人逆向行走事件缺乏实际的可行性。
发明内容
为了克服上述现有技术的不足,本发明的目的在于提供一种基于视频分析的地铁站点行人逆向行走的检测方法,该方法在在单向行走通道区域使用原有拍摄装置或者安装拍摄或者监控装置,将拍摄装置拍摄到的图像实时传输回服务器,服务器对监控图像进行实时分析,实时自动检测出单向行走区域中行人逆向行走事件,及时进行报警干预,可以有效维持了正常的客流顺序,避免了事故的发生。
为达到上述目的,本发明是通过以下的技术方案来实现的。
步骤1,获取视频流:
使用监控摄像装置收集到实时视频流,通过分析服务器将所述实时视频流转换成实时监控图像;
步骤2,监控区域背景建模:
步骤3,提取运动前景;
步骤4,通过卷积神经网络行人轮廓分割模型判断图像中是否存在行人,具体为:步骤41,卷积神经网络行人轮廓分割模型的构建;
步骤42,判断图像中是否存在行人;
步骤5,跟踪并确定行人运动方向;
对所述步骤4检测到的每个行人,采用跟踪算法进行分别跟踪,定位出每个行人在连续视频帧中的位置,形成此人的运动轨迹,根据所述运动轨迹的方向,判断行人的运动方向;
步骤6,判断行人是否逆行并报警;
判断步骤5所述的行人的运动方向是否与预先设置方向相反,若相反则为逆行,在监控画面中进行标示,当达到一定阈值时发出警告,否则,继续步骤3的操作。
优选的,所述步骤2中监控区域背景建模具体以下内容:使用所述步骤1中初始获取的连续的150-300帧的实时监控图像,通过混合高斯模型对监控区域的背景进行建模,对任一个像素点进行建模:其中X表示该像素点灰度值,η为高斯概率密度函数,ω属于不同函数的权重,μ和Σ分别是在t时刻第n个高斯模型的均值向量和协方差矩阵;
进一步的,所述提取运动前景,具体包含以下具体步骤:
步骤31,使用所述监控摄像装置收集到实时视频流,通过分析服务器将所述实时视频流转换成实时监控图像;
步骤32,根据所述步骤2建立的所述监控区域背景模型,对所述实时监控图像新的像素点进行判断,如果所述像素点与背景模型中所述3个高斯分布中的任何一个相匹配,即认为该像素属于背景,否则属于前景;如果所述像素点属于背景,则对监控区域背景模型进行动态更新,利用属于背景的所述像素点的像素值更新所匹配上的高斯分布的均值和方差,并提升匹配上的分布的权重。
步骤33,对检测出的所述运动前景做后处理,具体地,依次包括以下内容:①滤除面积过小的区域;②合并相邻的运动前景区域;③对每一块经过处理后前景区域计算出外接矩形;④对所述外接矩形的尺寸进行一定程度的扩大,最终得到运动前景的扩大的外接矩形区域。
进一步的,所述步骤41中的卷积神经网络行人轮廓分割模型的构建包含以下步骤:
步骤411,收集监控图像或者视频流:通过监控摄像装置收集同一监控场景下的不同的工作日、不同的休息日,和一天中不同时间段的监控图像或者监控视频流,如收集的是所述监控视频流,需要把所述监控视频流转换为需要格式的监控图像;
步骤412,标注出步骤411中所述监控图像中每个行人的轮廓,形成样本数据集;
步骤413,使用深度学习算法,使用所述样本数据集训练卷积神经网络模型,得到卷积神经网络行人轮廓分割模型,所述卷积神经网络行人轮廓分割模型,使用MASK-RCNN算法,所述MASK-RCNN算法中RPN网络部分,使用基于MobileNetV2的SSD框架替换原有的ResNeXt-101框架,在保留算法精度的同时大大降低了算法的复杂度。
进一步的,所述步骤42中所述判断图像中是否存在行人,具体包含以下内容:对于步骤334获得的所述提取的运动前景的扩大的外接矩形区域,使用步骤413的所述卷积神经网络行人轮廓分割模型进行检测,检测运动前景区域中是否存在行人,如果所述运动前景区域中存在行人,则定位出行人在监控图像中的具体位置,如果所述运动前景区域中不存在行人,继续步骤3中的操作。
进一步的,所述步骤5中的所述跟踪算法可以采用连续帧矩形框重合、KCF跟踪算法。
优选的,所述步骤6中的所述阈值可以根据逆向行人的数量或者逆行时间设定。
优选的,所述混合高斯模型对监控图像中的每一个像素点,使用3个独立的高斯分布进行描述,即K取值3,每个高斯分布具有不同的权重ω、均值μ和标准差Σ。
与现有技术相比,本发明具有如下有益效果:
本发明的行人逆向行走检测方法满足了城市轨道日益智能化趋势的要求,实现了无需管理人员时刻观察监控视频的自动监控和实时报警,节省了大量的人力物力的投入;提高了城市轨道有效的管理效率。
附图说明
图1为本发明实施例提供的一种基于视频分析的地铁站点行人逆向行走的检测方法流程示意图。
图2为本发明实施例提供的ResNext框架。
图3为本发明实施例提供的MobileNetV2框架。
图4为本发明实施例提供的SSD网络结构图。
具体实施方式
为了阐明本发明的技术方案,下面结合附图与具体实施例对本发明作进一步的详细说明,目的是使得本领域的技术人员对本发明的构思、技术方案有更完整、准确和深入的理解,本实施例中,所述行人逆向行走的检测,不限于地铁站点,也包括有着类似单向通道的其他轨道交通、商场等。
附图1为本发明实施例提供的一种基于视频分析的地铁站点行人逆向行走的检测方法流程示意图,其中步骤41中卷积神经网络行人轮廓分割模型构建属于事先训练构建好的,用于行人逆向行走的实时监测。
结合附图1,该方法主要包括以下步骤:
步骤1,获取视频流:
使用监控摄像装置收集到实时视频流,通过分析服务器将所述实时视频流解码成一帧一帧的实时监控图像;
步骤2,监控区域背景建模:
使用所述步骤1中初始获取的连续的200帧的实时监控图像,对混合高斯背景模型进行初始化,确定每个模型的初始权重、初始均值和初始方差;通过混合高斯模型对监控区域的背景进行建模,对任一个像素点进行建模:其中X表示该像素点灰度值,η为高斯概率密度函数,ω属于不同函数的权重,μ和Σ分别是在t时刻第n个高斯模型的均值向量和协方差矩阵;所述混合高斯模型对监控图像中的每一个像素点,使用3个独立的高斯分布进行描述,即K取值3,每个高斯分布具有不同的权重ω、均值μ和标准差Σ;使用混合高斯背景建模,可以适应监控场景的光线以及其它因素的影响,具有比较高的鲁棒性。
步骤3,提取运动前景,具体为:
步骤31,使用所述监控摄像装置收集到实时视频流,通过分析服务器将所述实时视频流转换成实时监控图像;
步骤32,根据所述步骤2建立的所述监控区域背景模型,对所述实时监控图像新的像素点进行判断,如果所述像素点与背景模型中所述3个高斯分布中的任何一个相匹配,即认为该像素属于背景,否则属于前景;如果所述像素点属于背景,则对监控区域背景模型进行动态更新,利用属于背景的所述像素点的像素值更新所匹配上的高斯分布的均值和方差,并提升匹配上的分布的权重。
步骤33,对检测出的所述运动前景做后处理,对图像中每一块前景目标区域实施腐蚀和膨胀操作,具体地,包括以下内容:
步骤331,滤除面积过小的区域;
步骤332,合并相邻的运动前景区域;
步骤333,对每一块经过处理后前景区域计算出外接矩形;
步骤334,对所述外接矩形的尺寸进行2倍的扩大,最终得到运动前景的扩大的外接矩形区域。
步骤4,通过卷积神经网络行人轮廓分割模型判断图像中是否存在行人,包含以下步骤:
步骤41,卷积神经网络行人轮廓分割模型的构建,所述模型的构建在时间顺序上发生在逆向行人检测之前,包含以下内容:
步骤411,收集监控图像或者视频流:通过监控摄像装置收集同一监控场景下的不同的工作日、不同的休息日,一天中不同时间段的监控图像或者监控视频流,如收集的是所述监控视频流,把所述监控视频流转换为需要格式的监控图像。
步骤412,标注出步骤411中所述监控图像中每个行人的轮廓,形成样本数据集;
步骤413,使用深度学习算法,使用所述样本数据集训练卷积神经网络模型,得到卷积神经网络行人轮廓分割模型,所述卷积神经网络行人轮廓分割模型,使用MASK-RCNN算法,所述MASK-RCNN算法中RPN网络部分,使用基于MobileNetV2的SSD框架替换原有的ResNeXt-101框架,其中MobileNetV2框架如图3所示,ResNeXt-101框架如图2所示,SSD网络结构图如图4所示;在保留算法精度的同时,大大降低了算法的复杂度,减少了检测所需要的运行时间,计算量从9834M下降到300M,运算速度提升了30倍。
步骤42,判断图像中是否存在行人:对于步骤334获得的所述提取的运动前景的扩大的外接矩形区域,使用步骤413的所述卷积神经网络行人轮廓分割模型进行检测,检测运动前景区域中是否存在行人,如果所述运动前景区域中存在行人,则定位出行人在监控图像中的具体位置,如果所述运动前景区域中不存在行人,继续步骤3中的操作。
步骤5,跟踪并确定行人运动方向;
对所述步骤4检测到的每个行人,采用KCF跟踪算法进行分别跟踪,定位出每个行人在连续100帧中的位置,形成此人的运动轨迹,根据所述运动轨迹的方向,判断行人的运动方向。
步骤6,判断行人是否逆行并报警;
判断步骤5所述的行人的运动方向是否与预先设置方向相反,若相反则为逆行,在监控画面中进行标示,当满足逆向行人大于等于2人,或者某一行人的逆行时间达到2min中的任一条件时报警,否则,继续步骤3的操作。
以上结合附图对本发明进行了示例性描述,显然,本发明具体实现并不受上述方式的限制,凡是采用了本发明的方法构思和技术方案进行的各种非实质性的改进;或者未经改进、等同替换,将本发明的上述构思和技术方案直接应用于其他场合的,均在本发明的保护范围之内。
Claims (6)
1.一种基于视频分析的地铁站点行人逆向行走的检测方法,其特征在于,包含以下具体步骤:
步骤1,获取视频流:
使用监控摄像装置收集到实时视频流,通过分析服务器将所述实时视频流转换成实时监控图像;
步骤2,监控区域背景建模:
步骤3,提取运动前景;
步骤4,通过卷积神经网络行人轮廓分割模型判断图像中是否存在行人,具体为:
步骤41,卷积神经网络行人轮廓分割模型的构建;
步骤411,收集监控图像或者视频流:通过监控摄像装置收集同一监控场景下的不同的工作日、不同的休息日,和一天中不同时间段的监控图像或者监控视频流,如收集的是所述监控视频流,需要把所述监控视频流转换为需要格式的监控图像;
步骤412,标注出步骤411中所述监控图像中每个行人的轮廓,形成样本数据集;
步骤413,使用深度学习算法,使用所述样本数据集训练卷积神经网络模型,得到卷积神经网络行人轮廓分割模型,所述卷积神经网络行人轮廓分割模型,使用MASK-RCNN算法,所述MASK-RCNN算法中RPN网络部分,使用基于MobileNetV2的SSD框架替换原有的ResNeXt-101框架,在保留算法精度的同时大大降低了算法的复杂度;
步骤42,判断图像中是否存在行人;
步骤5,跟踪并确定行人运动方向;
对所述步骤4检测到的每个行人,采用跟踪算法进行分别跟踪,定位出每个行人在连续视频帧中的位置,形成此人的运动轨迹,根据所述运动轨迹的方向,判断行人的运动方向;
步骤6,判断行人是否逆行并报警;
判断步骤5所述的行人的运动方向是否与预先设置方向相反,若相反则为逆行,在监控画面中进行标示,当达到一定阈值时发出警告,否则,继续步骤3的操作。
2.根据权利要求1所述的一种基于视频分析的地铁站点行人逆向行走的检测方法,其特征在于,所述步骤2中监控区域背景建模具体以下内容:
使用所述步骤1中初始获取的连续的150-300帧的实时监控图像,通过混合高斯模型对监控区域的背景进行建模,对任一个像素点进行建模:其中X表示该像素点灰度值,η为高斯概率密度函数,ω属于不同函数的权重,μ和Σ分别是在t时刻第n个高斯模型的均值向量和协方差矩阵,所述混合高斯模型对监控图像中的每一个像素点,使用3个独立的高斯分布进行描述,即K取值3,每个高斯分布具有不同的权重ω、均值μ和标准差Σ。
3.根据权利要求2所述的一种基于视频分析的地铁站点行人逆向行走的检测方法,其特征在于,所述提取运动前景,具体包含以下具体步骤:
步骤31,使用所述监控摄像装置收集到实时视频流,通过分析服务器将所述实时视频流转换成实时监控图像;
步骤32,根据所述步骤2建立的所述监控区域背景模型,对所述实时监控图像新的像素点进行判断,如果所述像素点与背景模型中所述3个高斯分布中的任何一个相匹配,即认为该像素属于背景,否则属于前景;如果所述像素点属于背景,则对监控区域背景模型进行动态更新,利用属于背景的所述像素点的像素值更新所匹配上的高斯分布的均值和方差,并提升匹配上的分布的权重;
步骤33,对检测出的所述运动前景做后处理,具体地,包括以下内容:
步骤331,滤除面积过小的区域;
步骤332,合并相邻的运动前景区域;
步骤333,对每一块经过处理后前景区域计算出外接矩形;
步骤334,对所述外接矩形的尺寸进行一定程度的扩大,最终得到运动前景的扩大的外接矩形区域。
4.根据权利要求3所述的一种基于视频分析的地铁站点行人逆向行走的检测方法,其特征在于,所述步骤42中所述判断图像中是否存在行人,具体包含以下内容,
对于步骤334获得的所述提取的运动前景的扩大的外接矩形区域,使用步骤413 的所述卷积神经网络行人轮廓分割模型进行检测,检测运动前景区域中是否存在行人,如果所述运动前景区域中存在行人,则定位出行人在监控图像中的具体位置,如果所述运动前景区域中不存在行人,继续步骤3中的操作。
5.根据权利要求4所述的一种基于视频分析的地铁站点行人逆向行走的检测方法,其特征在于,所述步骤5中的所述跟踪算法可以采用连续帧矩形框重合、KCF跟踪算法。
6.根据权利要求1-5所述的任一种基于视频分析的地铁站点行人逆向行走的检测方法,其特征在于,所述步骤6中的所述阈值可以根据逆向行人的数量或者逆行时间设定。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810788357.9A CN109145736B (zh) | 2018-07-18 | 2018-07-18 | 一种基于视频分析的地铁站点行人逆向行走的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810788357.9A CN109145736B (zh) | 2018-07-18 | 2018-07-18 | 一种基于视频分析的地铁站点行人逆向行走的检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109145736A CN109145736A (zh) | 2019-01-04 |
CN109145736B true CN109145736B (zh) | 2019-08-09 |
Family
ID=64801048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810788357.9A Active CN109145736B (zh) | 2018-07-18 | 2018-07-18 | 一种基于视频分析的地铁站点行人逆向行走的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109145736B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948474A (zh) * | 2019-03-04 | 2019-06-28 | 成都理工大学 | Ai热成像全天候智能监控方法 |
CN110349189A (zh) * | 2019-05-31 | 2019-10-18 | 广州铁路职业技术学院(广州铁路机械学校) | 一种基于连续帧间差分的背景图像更新方法 |
CN110188835B (zh) * | 2019-06-05 | 2021-03-16 | 国家广播电视总局广播电视科学研究院 | 基于生成式对抗网络模型的数据增强行人再识别方法 |
CN111160134A (zh) * | 2019-12-12 | 2020-05-15 | 浙江大学 | 一种以人为主体的视频景别分析方法和装置 |
CN111860392B (zh) * | 2020-07-28 | 2021-04-20 | 珠海安联锐视科技股份有限公司 | 基于目标检测和前景检测热力图统计方法 |
CN113408333B (zh) * | 2021-04-27 | 2022-10-11 | 上海工程技术大学 | 一种基于视频数据的地铁站内行人交通行为判别方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106056631A (zh) * | 2016-06-06 | 2016-10-26 | 中国矿业大学 | 基于运动区域的行人检测方法 |
CN107133974B (zh) * | 2017-06-02 | 2019-08-27 | 南京大学 | 高斯背景建模与循环神经网络相结合的车型分类方法 |
CN107730904A (zh) * | 2017-06-13 | 2018-02-23 | 银江股份有限公司 | 基于深度卷积神经网络的多任务车辆逆向行驶视觉检测系统 |
CN107886055A (zh) * | 2017-10-27 | 2018-04-06 | 中国科学院声学研究所 | 一种用于车辆运动方向判定的逆行检测方法 |
-
2018
- 2018-07-18 CN CN201810788357.9A patent/CN109145736B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109145736A (zh) | 2019-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109145736B (zh) | 一种基于视频分析的地铁站点行人逆向行走的检测方法 | |
CN109657575B (zh) | 室外施工人员智能视频跟踪算法 | |
CN105744232B (zh) | 一种基于行为分析技术的输电线路视频防外破的方法 | |
Yang et al. | Multi-target tracking by online learning of non-linear motion patterns and robust appearance models | |
CN102867177B (zh) | 一种基于图像灰度匹配的人数统计方法 | |
CN101739686B (zh) | 运动目标跟踪方法及其系统 | |
CN106203513B (zh) | 一种基于行人头肩多目标检测及跟踪的统计方法 | |
CN104123544A (zh) | 基于视频分析的异常行为检测方法及系统 | |
Mukherjee et al. | Anovel framework for automatic passenger counting | |
CN105117683B (zh) | 一种公共场所密集人群检测及预警方法 | |
AT502551A1 (de) | Verfahren und bildauswertungseinheit zur szenenanalyse | |
CN106296677A (zh) | 一种基于双背景模型的双掩膜背景更新的遗留物检测方法 | |
CN109948455A (zh) | 一种遗留物体检测方法及装置 | |
CN105160297A (zh) | 基于肤色特征的蒙面人事件自动检测方法 | |
CN103400120B (zh) | 基于视频分析的银行自助服务区域推入行为检测方法 | |
CN108776974A (zh) | 一种适用于公共交通场景的实时目标跟踪方法 | |
CN105894530A (zh) | 一种针对视频中运动目标检测与跟踪的解决方案 | |
Jeyabharathi et al. | Vehicle Tracking and Speed Measurement system (VTSM) based on novel feature descriptor: Diagonal Hexadecimal Pattern (DHP) | |
CN105321187A (zh) | 基于人头检测的行人计数方法 | |
CN106203276A (zh) | 一种视频客流统计系统及客流统计方法 | |
CN111489380B (zh) | 一种目标物体轨迹分析方法 | |
CN112257683A (zh) | 一种面向车辆运行轨迹监测的跨镜追踪方法 | |
Lumentut et al. | Evaluation of recursive background subtraction algorithms for real-time passenger counting at bus rapid transit system | |
CN108520526A (zh) | 一种车前方动态障碍物检测方法 | |
Fehr et al. | Counting people in groups |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |