CN111640135A - 一种基于硬件前端的tof摄像头行人计数方法 - Google Patents
一种基于硬件前端的tof摄像头行人计数方法 Download PDFInfo
- Publication number
- CN111640135A CN111640135A CN202010451383.XA CN202010451383A CN111640135A CN 111640135 A CN111640135 A CN 111640135A CN 202010451383 A CN202010451383 A CN 202010451383A CN 111640135 A CN111640135 A CN 111640135A
- Authority
- CN
- China
- Prior art keywords
- target
- tof camera
- neural network
- track
- deep neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000013528 artificial neural network Methods 0.000 claims abstract description 42
- 238000001514 detection method Methods 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims abstract description 10
- 238000012360 testing method Methods 0.000 claims abstract description 5
- 230000000007 visual effect Effects 0.000 claims description 9
- 238000002372 labelling Methods 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 230000006399 behavior Effects 0.000 claims description 3
- 238000007689 inspection Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开一种基于硬件前端的TOF摄像头行人计数方法,包括:标注TOF摄像头采集的行人计数学习样本集;构建深度神经网络,使用样本集的数据对神经网络进行训练;从TOF摄像头获取乘客的深度数据,并对数据进行增强处理;使用训练好的网络模型对新获取的数据进行测试,并调整相关参数,获得足够好的检测算法;将检测算法的输出结果作为跟踪系统的输入;跟踪系统采用匈牙利匹配算法,并采用遮挡预测等方法,解决遮挡问题;跟踪系统将检测系统的结果赋予独立的ID标签,并作为计数系统的输入;计数系统通过三线法对视场中的乘客进行计数。本发明在针对大视野、拥挤场景的乘客计数可以进行嵌入式端硬件平台的实时处理,节省人力成本。
Description
技术领域
本发明属于计算机数字图像处理与模式识别技术领域,特别涉及一种基于硬件前端的TOF 摄像头行人计数方法。
背景技术
行人计数就是在列车(高铁或者地铁)的车门处或者其它相关场景下,进行人流量统计,人流量统计如果不通过自动化手段,就需要人力进行统计,耗时又耗力。
随着技术的发展,现有技术可以直接通过监控摄像头进行计数,但是现有摄像头进行行人计数统计,准确度不高,仅仅只能作为一个粗略的统计手段。
因此,一个精确的行人计数方法的需求迫不及待。
发明内容
本发明的目的在于提供一种基于硬件前端的TOF摄像头行人计数方法,在相关场景下进行 TOF摄像数据采集,对采集的深度数据进行行人计数,以解决现有技术的不足。
为了实现上述目的,本发明采用如下技术方案:
一种基于硬件前端的TOF摄像头行人计数方法,包括以下步骤:
步骤1:获取TOF摄像头采集的采集数据集若干行人上下视频,标注形成学习样本集;
步骤2:深度神经网络目标检测器训练;
步骤3:对新获取的待识别的图像进行图像增强处理;
步骤4:采用步骤2训练好的深度神经网络目标检测器对步骤3处理过的待识别图像进行乘客检测定位;
步骤5:将检测的乘客定位信息作为输入送入跟踪系统中进行目标轨迹检测/预测;
步骤6:计数系统根据步骤5跟踪的目标轨迹通过三线法对视场中的乘客进行计数。
进一步的,步骤1中通过TOF摄像头采集若干行人上下视频,人工标注形成学习样本集;样本数据量大于或等于5000张。
进一步的,步骤2具体包括:
步骤2.1、将学习样本集转化为VOC标准数据集格式;
步骤2.2、将转化后的VOC标准数据集输入深度神经网络进行训练,生成深度神经网络目标检测器,每隔50次进行模型测试挑选一个性能最好的模型保存下来,到达的训练次数后最终保存下来的模型为训练好的深度神经网络目标检测器。
进一步的,所述深度神经网络为YOLO、Fast-RCNN、Faster-RCNN或SSD。
进一步的,步骤3具体的增强处理为:将TOF摄像头新获取的待识别图像进行亮度提升,并保持最大亮度在255。
进一步的,步骤5具体包括:
1)、若当前帧没有检测到任何目标,则为上一帧所有的目标进行预测轨迹;
2)、若当前帧检测到目标,上一帧没有检测目标,则为当前帧所有目标进行注册新ID;
3)、若当前帧检测到目标,上一帧检测到目标,则进行匈牙利匹配算法,为当前帧所有的目标进行赋予ID;
4)、若当前帧有新ID出现,则进行注册新ID;
5)、若当前帧有漏ID出现,则为其预测轨迹;
6)、若目标轨迹或者预测轨迹超出视场,或者连续漏检长度超过对应的阈值,则对该目标进行注销。
进一步的,预测轨迹的具体方法如下:
S1、若该漏检ID靠近待识别图像上边缘,则预测轨迹根据步骤2获得的深度神经网络目标检测器的boundingbox的下边缘的轨迹进行匀速预测;
S2、若该漏检ID靠近待识别图像下边缘,则预测轨迹根据步骤2获得的深度神经网络目标检测器的boundingbox的上边缘的轨迹进行匀速预测;
S3、若该漏检ID处于视场中心,也先在视场中寻找造成该ID目标被遮挡的目标源的位置;
S4、若遮挡源处于漏检ID的上方,则预测轨迹根据步骤2获得的深度神经网络目标检测器的boundingbox的下边缘的轨迹进行匀速预测;
S5、若遮挡源处于漏检ID的下方,则预测轨迹根据步骤2获得的深度神经网络目标检测器的boundingbox的上边缘的轨迹进行匀速预测。
进一步的,步骤6)中阈值为自适应阈值,设计如下:
a、若该目标漏检的时候处于下边界,且速度方向朝上,或者该目标漏检的时候处于上边界,且速度方向朝下,则表示该目标为刚进入视场目标,则设置其的阈值为8;
b、若该目标漏检的时候处于下边界,且速度方向朝下,或者该目标漏检的时候处于上边界,且速度方向朝上,则表示该目标为出视场目标,则设置其的阈值为1;
c、若该目标漏检的时候处于视场中间,则设置其的阈值为20。
进一步的,步骤6具体包括:
步骤6.1、目标进入视场的时候,记录下是从上还是下进入的;
步骤6.2、如果目标消失在中线以下/上,则对应的下/上计数器加一;
相对于现有技术,本发明具有以下有益效果:
本发明是一种基于硬件前端的TOF摄像头行人计数方法,通过放置相关场景下的TOF摄像头采集到的数据进行实时检测跟踪和计数。通过将增强后的TOF视频数据处理成图片,人工标注检测系统的学习样本;基于样本训练出深度学习网络的目标检测器;采用深度神经网络将视场中的乘客检测出来;通过匈牙利匹配和遮挡轨迹预测将检测出来的乘客目标进行ID匹配;将匹配的乘客ID信息,根据视频中的运动轨迹,采用三线法进行行人数量统计。本发明能有效对具有一定拥挤程度的行人进行实时的人流量统计,减少人力的繁琐劳动,提供更好的相关场景的系统的服务和管理。
附图说明
图1是本发明一种基于硬件前端的TOF摄像头行人计数方法的流程图;
图2是用于深度神经网络训练的样本集;其中图2(a)是样本集标注方法视图;图2(b)是样本集的组成。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
请参阅图1所示,本发明提供一种基于硬件前端的TOF摄像头行人计数方法,具体包括以下步骤:
步骤1,获取TOF摄像头采集学习样本集:
本实例以TOF摄像头采集的标注样本集为深度神经网络学习样本集,用于训练深度神经网络目标检测器。具体通过安装于相关场景下的TOF摄像头采集若干行人上下视频,包含各种复杂场景,如不同的拥挤程度、不同姿势、不同行李;人工标注形成学习样本集。样本数据量为约5000张,图2是部分深度神经网络学习样本集。
步骤2:深度神经网络目标检测器训练;
采用深度学习算法训练一个深度神经网络目标检测器:通过深度神经网络学习样本集,通过不断减少真实属性与预测属性之间的误差使网络的预测结果与真实结果相近。具体步骤是:
2.1、将学习样本集转化为VOC标准数据集格式,以便计算机进行读取;
2.2、将转化后的VOC标准数据集输入深度神经网络进行训练7000次,生成深度神经网络目标检测器,每隔50次进行模型测试挑选一个性能最好的模型保存下来,最终保存下来的模型为训练好的深度神经网络目标检测器。
深度神经网络在图像目标检测领域已经取得很大的进展,本发明可以采用多种深度神经网络进行视频分析,其中有:YOLO,Fast-RCNN,Faster-RCNN,SSD。经过多次实验测试,SSD 在速度与准确性之间取得了比较的权衡。本发明在采用SSD深度神经网络的时候取得了最好的效果,但并不局限于SSD深度神经网络。
SSD网络是一种直接预测bounding box的坐标和类别的目标检测算法,是由UNCChapel Hill(北卡罗来纳大学教堂山分校)的刘伟在2016年提出,详见文献:Liu W,Anguelov D,Erhan D,et al.SSD:Single Shot MultiBox Detector[J].2016.基本思想是提出取消生成proposal的过程,利用不同卷积层的feature map进行综合达到同样的效果。实验证明去掉了bounding box proposal以及后续的pixel或feature的resampling步骤具有更好的性能,SSD相比其他网络在速度上有明显提升。
步骤3:对新获取的待识别的图像进行图像增强处理;
将TOF摄像头新获取的待识别图像进行亮度提升,并保持最大亮度在255;
步骤4:采用步骤2训练好的深度神经网络目标检测器对步骤3处理过的待识别图像进行乘客检测定位;
步骤5:将检测的乘客定位信息作为输入送入跟踪系统中,跟踪系统设计如下:
1)、若当前帧没有检测到任何目标,则为上一帧所有的目标进行预测轨迹;
2)、若当前帧检测到目标,上一帧没有检测目标,则为当前帧所有目标进行注册新ID;
3)、若当前帧检测到目标,上一帧检测到目标,则进行匈牙利匹配算法,为当前帧所有的目标进行赋予ID;
4)、若当前帧有新ID出现,则进行注册新ID;
5)、若当前帧有漏ID出现,则为其预测轨迹;
6)、若目标轨迹或者预测轨迹超出视场,或者连续漏检长度超过对应的阈值,则对该目标进行注销,其中这里的阈值是自适应的。
步骤1)和步骤5)中预测轨迹的具体方法如下:
S1、若该漏检ID靠近待识别图像上边缘,则预测轨迹根据步骤2获得的深度神经网络目标检测器的boundingbox的下边缘的轨迹进行匀速预测;
S2、若该漏检ID靠近待识别图像下边缘,则预测轨迹根据步骤2获得的深度神经网络目标检测器的boundingbox的上边缘的轨迹进行匀速预测;
S3、若该漏检ID处于视场中心,也先在视场中寻找造成该ID目标被遮挡的目标源的位置;
S4、若遮挡源处于漏检ID的上方,则预测轨迹根据步骤2获得的深度神经网络目标检测器的boundingbox的下边缘的轨迹进行匀速预测;
S5、若遮挡源处于漏检ID的下方,则预测轨迹根据步骤2获得的深度神经网络目标检测器的boundingbox的上边缘的轨迹进行匀速预测。
步骤6)中阈值为自适应阈值,设计如下:
a、若该目标漏检的时候处于下边界,且速度方向朝上,或者该目标漏检的时候处于上边界,且速度方向朝下,则表示该目标为刚进入视场目标,则设置其的阈值为8;
b、若该目标漏检的时候处于下边界,且速度方向朝下,或者该目标漏检的时候处于上边界,且速度方向朝上,则表示该目标为出视场目标,则设置其的阈值为1;
c、若该目标漏检的时候处于视场中间,则设置其的阈值为20。
步骤6:计数系统根据步骤5跟踪的目标轨迹通过三线法对视场中的乘客进行计数,三线法设计如下:
6.1、目标进入视场的时候,记录下是从哪个方向(上/下)进入的;
6.2、如果目标消失在中线以下/上,则对应的下/上计数器加一;
实验结果表明,通过本技术方案,可以对拥挤场景下的行人进行较为精确的计数。在嵌入式平台达到了大于30fps的处理速度,并且有着超过95%的准确率,和现有方法相比,本发明在针对大视野、拥挤场景的行人计数有着更好的优势。
本发明采用了深度学习的方式,并采用多种预测方式进行遮挡预测,并且在嵌入式平台达到的实时处理,能够很好解决现有的行人计数的痛点。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以提出若干改进和变型,这些改进和变型也应视为本发明的保护范围。
Claims (9)
1.一种基于硬件前端的TOF摄像头行人计数方法,其特征在于,包括以下步骤:
步骤1:获取TOF摄像头采集的采集数据集若干行人上下视频,标注形成学习样本集;
步骤2:深度神经网络目标检测器训练;
步骤3:对新获取的待识别的图像进行图像增强处理;
步骤4:采用步骤2训练好的深度神经网络目标检测器对步骤3处理过的待识别图像进行乘客检测定位;
步骤5:将检测的乘客定位信息作为输入送入跟踪系统中进行目标轨迹检测/预测;
步骤6:计数系统根据步骤5跟踪的目标轨迹通过三线法对视场中的乘客进行计数。
2.根据权利要求1所述的一种基于硬件前端的TOF摄像头行人计数方法,其特征在于,步骤1中通过TOF摄像头采集若干行人上下视频,人工标注形成学习样本集;样本数据量大于或等于5000张。
3.根据权利要求1所述的一种基于硬件前端的TOF摄像头行人计数方法,其特征在于,步骤2具体包括:
步骤2.1、将学习样本集转化为VOC标准数据集格式;
步骤2.2、将转化后的VOC标准数据集输入深度神经网络进行训练,生成深度神经网络目标检测器,每隔50次进行模型测试挑选一个性能最好的模型保存下来,到达的训练次数后最终保存下来的模型为训练好的深度神经网络目标检测器。
4.根据权利要求3所述的一种基于硬件前端的TOF摄像头行人计数方法,其特征在于,所述深度神经网络为YOLO、Fast-RCNN、Faster-RCNN或SSD。
5.根据权利要求1所述的一种基于硬件前端的TOF摄像头行人计数方法,其特征在于,步骤3具体的增强处理为:将TOF摄像头新获取的待识别图像进行亮度提升,并保持最大亮度在255。
6.根据权利要求1所述的一种基于硬件前端的TOF摄像头行人计数方法,其特征在于,步骤5具体包括:
1)、若当前帧没有检测到任何目标,则为上一帧所有的目标进行预测轨迹;
2)、若当前帧检测到目标,上一帧没有检测目标,则为当前帧所有目标进行注册新ID;
3)、若当前帧检测到目标,上一帧检测到目标,则进行匈牙利匹配算法,为当前帧所有的目标进行赋予ID;
4)、若当前帧有新ID出现,则进行注册新ID;
5)、若当前帧有漏ID出现,则为其预测轨迹;
6)、若目标轨迹或者预测轨迹超出视场,或者连续漏检长度超过对应的阈值,则对该目标进行注销。
7.根据权利要求6所述的一种基于硬件前端的TOF摄像头行人计数方法,其特征在于,预测轨迹的具体方法如下:
S1、若该漏检ID靠近待识别图像上边缘,则预测轨迹根据步骤2获得的深度神经网络目标检测器的boundingbox的下边缘的轨迹进行匀速预测;
S2、若该漏检ID靠近待识别图像下边缘,则预测轨迹根据步骤2获得的深度神经网络目标检测器的boundingbox的上边缘的轨迹进行匀速预测;
S3、若该漏检ID处于视场中心,也先在视场中寻找造成该ID目标被遮挡的目标源的位置;
S4、若遮挡源处于漏检ID的上方,则预测轨迹根据步骤2获得的深度神经网络目标检测器的boundingbox的下边缘的轨迹进行匀速预测;
S5、若遮挡源处于漏检ID的下方,则预测轨迹根据步骤2获得的深度神经网络目标检测器的boundingbox的上边缘的轨迹进行匀速预测。
8.根据权利要求6所述的一种基于硬件前端的TOF摄像头行人计数方法,其特征在于,步骤6)中阈值为自适应阈值,设计如下:
a、若该目标漏检的时候处于下边界,且速度方向朝上,或者该目标漏检的时候处于上边界,且速度方向朝下,则表示该目标为刚进入视场目标,则设置其的阈值为8;
b、若该目标漏检的时候处于下边界,且速度方向朝下,或者该目标漏检的时候处于上边界,且速度方向朝上,则表示该目标为出视场目标,则设置其的阈值为1;
c、若该目标漏检的时候处于视场中间,则设置其的阈值为20。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010451383.XA CN111640135B (zh) | 2020-05-25 | 2020-05-25 | 一种基于硬件前端的tof摄像头行人计数方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010451383.XA CN111640135B (zh) | 2020-05-25 | 2020-05-25 | 一种基于硬件前端的tof摄像头行人计数方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111640135A true CN111640135A (zh) | 2020-09-08 |
CN111640135B CN111640135B (zh) | 2024-09-06 |
Family
ID=72329115
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010451383.XA Active CN111640135B (zh) | 2020-05-25 | 2020-05-25 | 一种基于硬件前端的tof摄像头行人计数方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111640135B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112036367A (zh) * | 2020-09-16 | 2020-12-04 | 南通天成现代农业科技有限公司 | 一种yolo卷积神经网络的人数检测方法 |
CN112633249A (zh) * | 2021-01-05 | 2021-04-09 | 北华航天工业学院 | 一种基于轻型深度学习框架的嵌入式人流量检测方法 |
CN113076808A (zh) * | 2021-03-10 | 2021-07-06 | 青岛海纳云科技控股有限公司 | 一种通过图像算法精准获取双向人流量的方法 |
CN113177461A (zh) * | 2021-04-25 | 2021-07-27 | 台州智必安科技有限责任公司 | 一种基于硬件前端的乘客附属物检测方法及系统 |
CN114120293A (zh) * | 2021-11-30 | 2022-03-01 | 北京华高世纪科技股份有限公司 | 一种地铁列车乘客检测方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701801A (zh) * | 2015-12-31 | 2016-06-22 | 清华大学 | 一种基于三线法的远景摄像机标定方法 |
US9460613B1 (en) * | 2016-05-09 | 2016-10-04 | Iteris, Inc. | Pedestrian counting and detection at a traffic intersection based on object movement within a field of view |
CN107563347A (zh) * | 2017-09-20 | 2018-01-09 | 南京行者易智能交通科技有限公司 | 一种基于tof相机的客流计数方法和装置 |
CN109325404A (zh) * | 2018-08-07 | 2019-02-12 | 长安大学 | 一种公交场景下的人数统计方法 |
CN109522854A (zh) * | 2018-11-22 | 2019-03-26 | 广州众聚智能科技有限公司 | 一种基于深度学习和多目标跟踪的行人流量统计方法 |
CN110309717A (zh) * | 2019-05-23 | 2019-10-08 | 南京熊猫电子股份有限公司 | 一种基于深度神经网络的行人计数方法 |
CN110969131A (zh) * | 2019-12-04 | 2020-04-07 | 大连理工大学 | 一种基于场景流的地铁人流计数方法 |
-
2020
- 2020-05-25 CN CN202010451383.XA patent/CN111640135B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701801A (zh) * | 2015-12-31 | 2016-06-22 | 清华大学 | 一种基于三线法的远景摄像机标定方法 |
US9460613B1 (en) * | 2016-05-09 | 2016-10-04 | Iteris, Inc. | Pedestrian counting and detection at a traffic intersection based on object movement within a field of view |
CN107563347A (zh) * | 2017-09-20 | 2018-01-09 | 南京行者易智能交通科技有限公司 | 一种基于tof相机的客流计数方法和装置 |
CN109325404A (zh) * | 2018-08-07 | 2019-02-12 | 长安大学 | 一种公交场景下的人数统计方法 |
CN109522854A (zh) * | 2018-11-22 | 2019-03-26 | 广州众聚智能科技有限公司 | 一种基于深度学习和多目标跟踪的行人流量统计方法 |
CN110309717A (zh) * | 2019-05-23 | 2019-10-08 | 南京熊猫电子股份有限公司 | 一种基于深度神经网络的行人计数方法 |
CN110969131A (zh) * | 2019-12-04 | 2020-04-07 | 大连理工大学 | 一种基于场景流的地铁人流计数方法 |
Non-Patent Citations (2)
Title |
---|
KISFALUDI, B.: "Semi-automated traffic counting method for forest roads.", FOREST ENGINEERING: MAKING A POSITIVE CONTRIBUTION, 28 July 2016 (2016-07-28), pages 265 - 269 * |
郑国书;朱秋煜;王辉;: "基于深度学习SSD模型的视频室内人数统计", 工业控制计算机, no. 11, 25 November 2017 (2017-11-25) * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112036367A (zh) * | 2020-09-16 | 2020-12-04 | 南通天成现代农业科技有限公司 | 一种yolo卷积神经网络的人数检测方法 |
CN112633249A (zh) * | 2021-01-05 | 2021-04-09 | 北华航天工业学院 | 一种基于轻型深度学习框架的嵌入式人流量检测方法 |
CN113076808A (zh) * | 2021-03-10 | 2021-07-06 | 青岛海纳云科技控股有限公司 | 一种通过图像算法精准获取双向人流量的方法 |
CN113076808B (zh) * | 2021-03-10 | 2023-05-26 | 海纳云物联科技有限公司 | 一种通过图像算法精准获取双向人流量的方法 |
CN113177461A (zh) * | 2021-04-25 | 2021-07-27 | 台州智必安科技有限责任公司 | 一种基于硬件前端的乘客附属物检测方法及系统 |
CN114120293A (zh) * | 2021-11-30 | 2022-03-01 | 北京华高世纪科技股份有限公司 | 一种地铁列车乘客检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111640135B (zh) | 2024-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111640135B (zh) | 一种基于硬件前端的tof摄像头行人计数方法 | |
CN109948582B (zh) | 一种基于跟踪轨迹分析的车辆逆行智能检测方法 | |
CN103324937B (zh) | 标注目标的方法和装置 | |
CN104933710B (zh) | 基于监控视频下的商店人流轨迹智能分析方法 | |
CN104200657B (zh) | 一种基于视频和传感器的交通流量参数采集方法 | |
CN109145708B (zh) | 一种基于rgb和d信息融合的人流量统计方法 | |
CN104637058B (zh) | 一种基于图像信息的客流量识别统计方法 | |
CN113947731B (zh) | 一种基于接触网安全巡检的异物识别方法及系统 | |
CN105069429A (zh) | 一种基于大数据平台的人流量分析统计方法和系统 | |
CN105044122A (zh) | 一种基于半监督学习模型的铜件表面缺陷视觉检测系统及检测方法 | |
CN110633678B (zh) | 一种基于视频图像的快速高效的车流量计算方法 | |
CN110490905A (zh) | 一种基于YOLOv3和DSST算法的目标跟踪方法 | |
CN109934170B (zh) | 一种基于计算机视觉的矿山资源统计方法 | |
CN107038411A (zh) | 一种基于视频中车辆运动轨迹的路侧停车行为精确识别方法 | |
CN112507760B (zh) | 暴力分拣行为的检测方法、装置及设备 | |
CN111160203A (zh) | 一种基于头肩模型和iou跟踪的徘徊逗留行为分析方法 | |
CN111767798A (zh) | 一种面向室内联网视频监控的智能导播方法及系统 | |
CN108471497A (zh) | 一种基于云台摄像机的船目标实时检测方法 | |
CN111597992B (zh) | 一种基于视频监控的场景物体异常的识别方法 | |
CN112381043A (zh) | 一种旗帜检测方法 | |
CN110728269B (zh) | 一种基于c2检测数据的高铁接触网支柱杆号牌识别方法 | |
CN109254271A (zh) | 一种用于地面监视雷达系统的静止目标抑制方法 | |
CN110889347B (zh) | 基于时空计数特征的密度交通流计数方法及系统 | |
CN111009136A (zh) | 一种高速公路行驶速度异常车辆检测方法、装置及系统 | |
CN106778675B (zh) | 一种视频图像中目标对象的识别方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |