CN111144247B - 一种基于深度学习的自动扶梯乘客逆行检测方法 - Google Patents
一种基于深度学习的自动扶梯乘客逆行检测方法 Download PDFInfo
- Publication number
- CN111144247B CN111144247B CN201911292323.1A CN201911292323A CN111144247B CN 111144247 B CN111144247 B CN 111144247B CN 201911292323 A CN201911292323 A CN 201911292323A CN 111144247 B CN111144247 B CN 111144247B
- Authority
- CN
- China
- Prior art keywords
- escalator
- detection
- target
- head
- passenger
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B50/00—Energy efficient technologies in elevators, escalators and moving walkways, e.g. energy saving or recuperation technologies
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的自动扶梯乘客逆行检行为测方法,包括步骤一、从自动扶梯的监控视频流获取图像帧,并设定检测区域(ROI);步骤二、使用目标检测算法检测步骤一中规定的ROI区域中乘客的头部位置;步骤三、使用分类器判别步骤二中检测到的人头的方向,判断该乘客是否有可能出现逆行现象;步骤四、利用多目标跟踪算法对步骤三中每个可能逆行的目标(头部)进行跟踪,得到跟踪轨迹;步骤五、对步骤四中的每一条轨迹进行分析,判断乘客是否发生逆行行为。该算法能在复杂的情况下较高的准确性和实时性,能有效的判断自动扶梯上的乘客逆行行为,避免事故的发生。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于深度学习的自动扶梯乘客逆行检测方法。
背景技术
改革开放以来,中国经济得到迅速发展,生活水平不断提高。为了满足人民的出行需要,地铁、商场、医院、火车站、过街天桥等越来越多的公共场所都安装了自动扶梯,乘坐自动扶梯成为人们几乎每天都要做的事情。据统计,光上海市地铁站就有超过4000部的自动扶梯,其每天运输超过3000万人次的客流。
随着国内智能手机的兴起,几乎所有人都养成了走路看手机的习惯,因此,在乘坐自动扶梯时,“低头族”们很多时候往往不注意就容易走错电梯口,发生逆行行为,若行为没有及时停止,进入电梯后往往会发生摔倒等较为严重的乘梯事故。据统计,由于逆行引发的乘梯安全事故的比例是所有安全事故中最多的,因此,检测乘客是否逆行进入自动扶梯并且对逆行的乘客进行提醒是保障乘客安全的必要措施。
目前大多数电梯均没有设置可以检测逆行的设备和装置,少量人流量大的场合会安排工作人员维护秩序,显然工作人员维护秩序的同时还要检查乘客是否发生逆行行为是非常累的,而且大多数公共场合的自动扶梯均没有安排工作人员,很容易发生事故。在某些公共场合会给电梯加装红外线检测仪器,当检测到行人在电梯口时,就会报警,这种装置有个缺点,首先,因为没有行为识别,常常导致误检。
公开号为106503632A的发明公开了一种基于视频分析的自动扶梯智能安全监测方法,步骤如下:首先获取安装在监控区域的摄像机中的实时视频图像序列;其次建立混合高斯背景模型,并对视频图像中的阴影进行抑制以提取前景;然后通过分类器对提取到的前景进行人体对象识别,并计算人体对象角点光流,从而判断是否有乘客逆行或跌倒等异常行为以及时采取电扶梯急停等措施,保障乘扶梯人员的人身安全。该发明通过通过角点光流判断人体对象的异常行为,能够有效阻止人员因逆行或跌倒发生踩踏事件的概率,极大程度地保护乘客的人身安全。但该方法判断方式单一,对复杂的逆行情况判断准确率不高。
因此,运用计算机视觉技术,通过电梯的监控摄像头,使用人工智能的方法,对逆行的人员进行跟踪并且进行行为分析,准确、迅速的判断乘客是否发生逆行行为,这对于减少自动扶梯事故的发生有非常大的意义。
发明内容
本发明的目的在于能在复杂的情况下能有效的判断自动扶梯上的乘客逆行行为,且具有较高的准确性和实时性,提出了一种基于深度学习的自动扶梯乘客逆行检测方法。
一种基于深度学习的自动扶梯乘客逆行检测方法,包括以下步骤:
步骤一、从自动扶梯的监控视频流获取图像帧,并设定检测区域(ROI);
步骤二、使用目标检测算法检测步骤一中规定的检测区域中乘客的头部位置;
步骤三、使用分类器判别步骤二中检测到的人头的方向,判断该乘客是否有可能出现逆行现象;
步骤四、利用多目标跟踪算法对步骤三中每个可能逆行的目标(头部)进行跟踪,得到跟踪轨迹;
步骤五、对步骤四中的每一条轨迹进行分析,判断乘客是否发生逆行行为;
步骤一中,视频流来自自动扶梯的监控摄像头,摄像头应安装在正对着扶梯口,能清晰的拍到搭乘扶梯的乘客上下扶梯的图像。安装好摄像头之后,设置一个矩形区域,矩形区域为自动扶梯的出口,该矩形区域作为本发明的检测区域(ROI),当有乘客从出口进入时,认为发生逆行现象。
步骤二中,采用的目标检测算法为YOLOv3算法,使用迁移学习算法,训练人头检测模型,对视频帧中的人头进行检测,并且通过后处理滤掉一些误检的目标以及在ROI外的目标,所述的人头检测包括以下步骤:
(2.1)训练时,先搭建YOLOv3的模型结构,YOLOv3网路结构包含一个用于特征提取的darknet53网络,三个称为yolo的全卷积网络作为输出层,每个yolo层在不同的特征图上输出结果,yolo层中,输出的维度是:
S×S×(B×(5+C))
其中S是特征图的尺寸,B表示每个格子输出的边框数目,5表示4个边框参数和一个是否含有物体的置信度得分,C表示类别数。
步骤二中只有人头一个类别,因此C取1,本次发明使用的图片的分辨率是416x416的图像,预测((52x52)+(26x26)+13x13))x3=10647个边界框。
使用在ILSVRC图像数据集上训练过的darknet53模型作为网络backbone的初值权重,其余的参数采用kaiming初始化方法,这样相当于做了迁移学习,让卷积特征提取网络提取特征的能力增强。
使用公开的人头数据集对网络进行训练,训练中使用的损失函数包含类别损失函数以及边框位置回归损失函数,类别损失函数采用的是二值交叉熵,边框位置回归损失函数采用的是平方损失函数。
(2.2)检测时,将图片归一化之后输入到训练好的网络中,在yolo层可得到网络的输出,其中网络的输出到边框的预测结果要做如下转换:
bx=σ(tx)+cx
by=σ(ty)+cy
其中tx,ty,tw,th为网络输出的边框信息,cx,cy,pw,ph分别为对应特征图格子的左上角的坐标以及设置的anchor的宽高。
其中每个边框预测的某一类别的概率由以下公式得出:
P=objectness*Pi
Objectness表示当前的bbox中含有目标的置信度;
Pi表示当前bbox中预测为第i个类别的条件概率;
(2.3)后处理,对于分辨率大小416x416的图像,YOLOv3预测10647个边界框,S2中,采用非极大值抑制NMS算法对输出的边框做处理,从而在输出的众多相互重叠的边框中筛选出置信度大于某一阈值的有效框。另外,针对场景的特殊性,经过NMS算法后,再筛选出长宽比以及大小在可能的范围内的预测,通过先验知识,减小网络的误差。最后输出筛选后的位于步骤一设置的R0I区域中的边框。
步骤三中,使用的分类器为CNN分类器,用来判断人脸是朝向即是否朝着电梯,通过人脸的朝向,可以更加准确的判断是否存在逆行现象。具体包括如下步骤:
(3.1)分类器的训练,采用迁移学习对网络进行训练,采用在ILSVRC图像数据集上训练过的权重对网络的卷积层进行初始化,网络的全连接层的参数采用随机初始化,最终训练得到一个有效的模型。
(3.2)检测,将步骤二中输出的人头区域截取出来,再对图片做归一化处理,输出到网络中,得到分类结果,将朝着电梯出口区域(ROI)的方向的人头定义为可能出现逆行的乘客。
步骤四中,多目标跟踪算法采用的是deepSort算法,对步骤三中可能逆行的人头生成一个跟踪器,得到跟踪轨迹。其步骤包括:
(4.1)使用卡尔曼滤波器对预测结果进行估计,采用(x,y,r,h,x^,y^,r^,h^)八个状态参数对人头的运动状态进行描述,其中x,y为人头检测框的中心坐标,r表示人头框的长宽比,h表示人头框的高度,其中x^,y^,r^,h^表示x,y,r,h的变化量,即速度信息。其中,行人行走被认为是匀速的,所以这里采用的线性观测模型的卡尔曼滤波器来对乘客的运动状态进行估计。
(4.2)目标关联,deepSort算法同时考虑了运动信息关联和外观信息关联。
运动信息关联,采用的是检测的目标位置与卡尔曼滤波器预测的位置之间的马氏距离进行关联,马氏距离计算方法如下:
d(1)(i,j)=(dj-yi)TSi -1(dj,yi)
其中:dj表示步骤三中检测到的可能逆行的乘客的人头位置,yi表示上一帧中第i个卡尔曼滤波器的预测结果,Si表示检测位置与平均追踪位置之间的协方差矩阵。
外观信息关联,将步骤三中检测到的可能逆行的每一个乘客的人头部分的图片di输入到一个卷积神经网络中,得到一个特征向量ri,且||ri||=1。如果di关联成功,则将它放入到关联成功的特征集中,特征集保留了关联成功的最近k帧的特征向量。
具体过程为:
计算每个卡尔曼滤波器中每个头部的图片与最近关联成功的特征集中每个特征的距离,计算公式如下:
其中rj表示人头部分的图片di输入到一个卷积神经网络中,得到一个特征向量rj,
如果di关联成功,则将它放入到关联成功的特征集中,特征集保留了关联成功的最近k帧的特征向量。
若计算结果小于指定的阈值,那么就认为关联是成功。
最终将上面两种关联方式的线性加权的结果作为最后关联的度量,计算公式如下:
ci,j=λd(1)(i,j)+(1-λ)d(2)(i,j)
其中,λ表示两个距离的线性加权系数;
另外采用级联匹配的方法赋予最近出现出现的目标的大的优先权,来解决由于长时间遮挡导致的位置更新不确定性带来的误差。
(4.3)跟踪轨迹的开始与结束,当一条跟踪路径连续3帧没有匹配到检测框,则认为跟踪结束,当检测框中没有匹配到任何跟踪器中的目标,则认为可能出现新目标,若连续3帧该新目标的卡尔曼预测结果都能与检测结果匹配,将该目标的跟踪器加入到跟踪列表中,否则认为是检测器误检,需删除该目标。
步骤五中,对步骤四中的每一条轨迹进行分析,判断乘客是否发生逆行行为,其过程如下:
(5.1)对每一条轨迹初始化一个记录ΔY=0,表示在Y轴(平行扶梯安装方向)上的总的位移;
(5.2)对第i帧图像跟踪到的人头,记录其坐标(xi,yi)、与上一个点的(xi-1,yi-1)像素差(Δxi,Δyi)。
(5.3)设ΔY=ΔY+Δyi,判断ΔY与THΔY(是否逆行的阈值)的大小,若ΔY大于THΔY则表示发生逆行现象,发出逆行信号。
本发明与现有技术相比,具有如下优点与有益效果:
首先本发明是直接从监控摄像头获取视频帧,然后分析监控视频中的乘客有无出现逆行的行为,优势是可以在任何自动扶梯上做扩展,不需要改变现有的自动扶梯结构,加装方便,有利于设备的部署。其次是本次发明是基于对视频中乘客的跟踪,然后对其行为进行理解分析,优势是准确率高,且效果稳定。
相比于检测整个行人,本发明采用直接检测人头的优点有:
1)电梯上行人较多,因此检测行人会导致有很多遮挡问题,而监控摄像头是俯视视角,因此检测人头遮挡问题不严重;
2)检测人头更加有利于下一步的对乘客的步行方向的判断,因为人脸与人的后脑勺特征区分非常明显,而人的整个前面与背面特征区分不明显,尤其是在有遮挡的情况下;
3)人头遮挡少,因此相对于整个行人,跟踪效果更好,轨迹更能反应乘客的真实轨迹。此外,本发明可以保存发生逆行现象的乘客的视频段,并且可以生成报表,有助于公共场所扶梯的设计以及人员的安排。
附图说明
图1为本发明的一种基于深度学习的自动扶梯乘客逆行检测方法的流程图。
图2为获取的图像帧以及设定好ROI区域示意照片。
图3为检测到发生逆行现象的示意照片。
具体实施方式
为了使本发明的目的、技术方案及优点更加明白清楚,以下结合附图和实施例,对本发明进行进一步的详细说明,应当理解,此处所描述的具体实施例仅仅用以解释本发明,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明所提供的基于深度学习的自动扶梯乘客逆行检测方法,包含以下步骤:
步骤一、从自动扶梯的监控视频流获取图像帧,并设定检测区域(ROI):
视频流来自自动扶梯的监控摄像头,监控摄像头可以选择海康或者大华的网络摄像头,帧率为25fps,分辨率为1920*1080。摄像头应安装在正对着扶梯口,能清晰的拍到搭乘扶梯的乘客上下扶梯的图像。安装好摄像头之后,设置一个矩形区域,作为检测区域(ROI),矩形区域为自动扶梯的出口,当有乘客从出口进入时,我们认为发生逆行现象。
由于处理速度小于视频流的读取速度,此时会导致当前处理的视频帧不是最新读进来的视频帧,因此采用了多线程的方法来降低时延,使用一个线程读取视频流中的视频帧,另一个线程处理图像,当处理速度慢于读取速度时读取视频帧的线程会自动更新buffer,以保证处理线程处理的是最新的视频帧,从而减少时延。
步骤二、使用目标检测算法检测步骤一中规定的ROI区域中乘客的头部位置:
采用的目标检测算法为YOLOv3算法,使用迁移学习算法,训练人头检测模型,对视频帧中的人头进行检测,并且通过后处理滤掉一些误检的目标以及在ROI外的目标。本发明采用直接检测人头,包括以下步骤:
训练时,先搭建YOLOv3的模型结构,本次发明使用的图片的分辨率是416x416的图像,预测((52x52)+(26x26)+13x13))x3=10647个边界框。使用在ILSVRC图像数据集上训练过的darknet53模型作为网络backbone的初值权重,其余的参数采用kaiming初始化方法,这样相当于做了迁移学习,让卷积特征提取网络提取特征的能力增强。
使用公开的人头数据集brainwash数据集对网络进行训练,训练中使用的损失函数如下:
损失函数包含类别损失函数以及边框位置回归损失函数,类别损失函数采用的是二值交叉熵,边框位置回归损失函数采用的是平方损失函数。
预测时,将图片归一化之后输入到训练好的网络中,在yolo层可得到网络的输出,其中网络的输出到边框的预测结果要做如下转换:
bx=σ(tx)+cx
by=σ(ty)+cy
其中tx,ty,tw,th为网络输出的边框信息,cx,cy,pw,ph分别为对应特征图格子的左上角的坐标以及设置的anchor的宽高。
其中每个边框预测的某一类别的概率由以下公式得出:
P=objectness*Pi
Objectness表示当前的bbox中含有目标的置信度;
Pi表示当前bbox中预测为第i个类别的条件概率。
所述的后处理,对于大小416x416的图像,YOLO预测((52x52)+(26x26)+13x13))x3=10647个边界框,步骤二中,采用非极大值抑制NMS算法对输出的边框做处理,从而在输出的众多相互重叠的边框中筛选出置信度大于0.6的有效框。另外,针对场景的特殊性,经过NMS算法后,再筛选出长宽比以及大小在可能的范围内的预测,通过先验知识,减小网络的误差。最后输出筛选后的位于步骤一设置的ROI区域中的边框。
步骤三、使用分类器判别步骤二中检测到的人头的方向:
增加了一个CNN分类器,用来判断人脸是朝向即是否朝着电梯,通过人脸的朝向,可以更加准确的判断是否存在逆行现象。其中包括如下步骤:
网络的训练,使用的分类网络是resnet50,训练输入样本大小是34*34,采用迁移学习对网络进行训练,采用在ILSVRC图像数据集上训练过的权重对网络的卷积层进行初始化,网络的全连接层的参数采用随机初始化,最终训练得到一个有效的模型。
检测,将步骤二中输出的人头区域截取出来,将尺寸变形到34*34,再对图片做归一化处理,输出到网络中,得到分类结果,将朝着电梯出口区域(ROI)的方向的人头定义为可能出现逆行的乘客。
步骤四、利用多目标跟踪算法对步骤三中每个可能逆行的目标(头部)进行跟踪,得到跟踪轨迹:
多目标跟踪算法采用的是deepSort算法,对步骤三中可能逆行的人头生成一个跟踪器,得到跟踪轨迹。其步骤包括:
使用卡尔曼滤波器对预测结果进行估计,采用(x,y,r,h,x^,y^,r^,h^)八个状态参数对人头的运动状态进行描述,其中x,y为人头检测框的中心坐标,r表示人头框的长宽比,h表示人头框的高度,其中x^,y^,r^,h^表示x,y,r,h的变化量,即速度信息。其中,行人行走被认为是匀速的,所以这里采用的线性观测模型的卡尔曼滤波器来对乘客的运动状态进行估计。
目标关联,deepSort算法同时考虑了运动信息关联和外观信息关联:
运动信息关联中,采用的是检测的目标位置与卡尔曼滤波器预测的位置之间的马氏距离进行关联,马氏距离计算方法如下:
d(1)(i,j)=(dj-yi)TSi -1(dj-yi)
其中dj表示步骤三中检测到的可能逆行的乘客的人头位置,yi表示上一帧中第i个卡尔曼滤波器的预测结果,Si表示检测位置与平均追踪位置之间的协方差矩阵。
外观信息关联,将步骤三中检测到的可能逆行的每一个乘客的人头部分的图片dj输入到一个卷积神经网络中,得到一个特征向量ri,且||ri||=1,如果dj关联成功,则将它放入到关联成功的特征集中,特征集保留了关联成功的最近k帧的特征向量。计算每个卡尔曼滤波器中每个头部的图片与最近关联成功的特征集中每个特征的距离,计算公式如下:
若计算结果小于指定的阈值,那么就认为关联是成功。最终将上面两种关联方式的线性加权的结果作为最后关联的度量,计算公式如下:
ci,j=λd(1)(i,j)+(1-λ)d(2)(i,j)
另外采用级联匹配的方法赋予最近出现出现的目标的大的优先权,来解决由于长时间遮挡导致的位置更新不确定性带来的误差。
跟踪轨迹的开始与结束,当一条跟踪路径连续3帧没有匹配到检测框,则认为跟踪结束,当检测框中没有匹配到任何跟踪器中的目标,则认为可能出现新目标,若连续3帧该新目标的卡尔曼预测结果都能与检测结果匹配,将该目标的跟踪器加入到跟踪列表中,否则认为是检测器误检,需删除该目标。
步骤五、对步骤四中的每一条轨迹进行分析,判断乘客是否发生逆行行为:
对每一条轨迹进行分析,判断乘客是否发生逆行行为,其过程如下:
对每一条轨迹初始化一个记录ΔY=0,表示在Y轴(平行扶梯安装方向)上的总的位移;
对第i帧图像跟踪到的人头,记录其坐标(xi,yi)、与上一个点的(xi-1,yi-1)像素差(Δxi,Δyi)。
设ΔY=ΔY+Δyi,判断ΔY与THΔY(是否逆行的阈值)的大小,若ΔY大于THΔY则表示发生逆行现象,发出逆行信号。
Claims (5)
1.一种基于深度学习的自动扶梯乘客逆行检测方法,其特征在于:包括以下步骤:
步骤一、从自动扶梯的监控视频流获取图像帧,所述视频流来自自动扶梯的监控摄像头,监控摄像头安装在正对着扶梯口并能清晰拍摄到搭乘扶梯的乘客上下扶梯的图像的位置;设定一个矩形区域作为检测区域,所述矩形区域为自动扶梯的出口,当有乘客从出口进入时,认为有可能出现逆行现象;
步骤二、使用目标检测算法检测步骤一中设定的检测区域中乘客的头部位置,所述的目标检测算法采用YOLOv3算法,使用迁移学习算法,训练人头检测模型,对视频帧中的人头进行检测,并且通过后处理滤掉一些误检的目标以及在检测区域外的目标;
步骤三、使用分类器判别步骤二中检测到的人头的方向,判断该乘客是否有可能出现逆行现象,将步骤二中输出的人头区域截取出来,输入到分类器中,将朝着扶梯出口检测区域的方向的人头定义为可能出现逆行的乘客;
步骤四、利用多目标跟踪算法,对步骤三中每个可能出现逆行的乘客生成一个跟踪器,得到跟踪轨迹,所述多目标跟踪算法采用deepSort算法;
步骤五、对步骤四中的每一条轨迹进行分析,判断乘客是否发生逆行行为。
2.根据权利要求1所述的基于深度学习的自动扶梯乘客逆行检测方法,其特征在于:步骤二具体包括以下步骤:
(2.1)训练时,先搭建目标检测模型结构,采用迁移学习的方法,使用在ILSVRC图像数据集上训练过的模型作为网络backbone的初值权重,其余的参数采用随机初始化方法;使用公开的人头数据集对网络进行训练,损失函数包含类别损失函数以及边框位置回归损失函数;
(2.3)检测时,将图片归一化之后输入到训练好的网络中,得到网络的输出;
(2.3)后处理,网络输出多个边界框,采用非极大值抑制NMS算法对输出的边框做处理,从而在输出的众多相互重叠的边框中筛选出置信度大于某一阈值的有效框。
3.根据权利要求1所述的基于深度学习的自动扶梯乘客逆行检测方法,其特征在于:步骤三具体包括:
(3.1)分类器的训练,将目标检测器检测出来的人头部分的图像作为训练数据,将人头是否朝着扶梯方向作为标签,采用迁移学习对网络进行训练,采用在ILSVRC图像数据集上训练过的权重对网络的卷积层进行初始化,网络的全连接层的参数采用随机初始化,最终训练得到一个有效的模型;
(3.2)检测,将步骤二中输出的人头区域截取出来,再对图片做归一化处理,输入到分类器中,得到分类结果,将朝着扶梯出口检测区域的方向的人头定义为可能出现逆行的乘客。
4.根据权利要求1所述的基于深度学习的自动扶梯乘客逆行检测方法,其特征在于:步骤四的具体步骤包括:
(4.1)使用卡尔曼滤波器对预测结果进行估计,采用x,y,r,h,x^,y^,r^,h^八个状态参数对人头的运动状态进行描述,其中x,y为人头检测框的中心坐标,r表示人头框的长宽比,h表示人头框的高度,其中x^,y^,r^,h^表示x,y,r,h的变化量,即速度信息;
(4.2)进行目标关联,deepSort算法同时考虑了运动信息关联和外观信息关联;
(4.3)跟踪轨迹的开始与结束,当一条跟踪路径连续若干帧没有匹配到检测框,则认为跟踪结束,当检测框中没有匹配到任何跟踪器中的目标,则认为可能出现新目标,若连续若干帧该新目标的卡尔曼预测结果都能与检测结果匹配,将该目标的跟踪器加入到跟踪列表中,否则认为是检测器误检,需删除该目标。
5.根据权利要求1所述的基于深度学习的自动扶梯乘客逆行检测方法,其特征在于:步骤五的具体过程如下:
(5.1)对每一条轨迹初始化一个记录ΔY=0,表示在Y轴上的总的位移;
(5.2)对第i帧图像跟踪到的人头,记录其坐标(xi,yi)以及与上一个点的(xi-1,yi-1)像素差(Δxi,Δyi);
(5.3)设ΔY=ΔY+Δyi,判断ΔY与THΔY的大小,若ΔY大于THΔY,其中TBΔY为是否逆行的阈值;则表示发生逆行现象,发出逆行信号。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911292323.1A CN111144247B (zh) | 2019-12-16 | 2019-12-16 | 一种基于深度学习的自动扶梯乘客逆行检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911292323.1A CN111144247B (zh) | 2019-12-16 | 2019-12-16 | 一种基于深度学习的自动扶梯乘客逆行检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111144247A CN111144247A (zh) | 2020-05-12 |
CN111144247B true CN111144247B (zh) | 2023-10-13 |
Family
ID=70518425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911292323.1A Active CN111144247B (zh) | 2019-12-16 | 2019-12-16 | 一种基于深度学习的自动扶梯乘客逆行检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111144247B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111582243B (zh) * | 2020-06-05 | 2024-03-26 | 上海商汤智能科技有限公司 | 逆流检测方法、装置、电子设备和存储介质 |
CN111860282B (zh) * | 2020-07-15 | 2022-12-16 | 中国电子科技集团公司第三十八研究所 | 地铁断面客流量统计和行人逆行检测方法及系统 |
CN111986231A (zh) * | 2020-08-10 | 2020-11-24 | 深思考人工智能科技(上海)有限公司 | 一种多目标跟踪方法及系统 |
CN112613365A (zh) * | 2020-12-11 | 2021-04-06 | 北京影谱科技股份有限公司 | 一种行人检测和行为分析方法、装置及计算设备 |
CN112668432A (zh) * | 2020-12-22 | 2021-04-16 | 上海幻维数码创意科技股份有限公司 | 一种基于YoloV5和DeepSort的地面互动投影系统中人体检测跟踪方法 |
CN112800841B (zh) * | 2020-12-28 | 2024-05-17 | 深圳市捷顺科技实业股份有限公司 | 一种行人计数方法、装置、系统及计算机可读存储介质 |
CN112875481A (zh) * | 2021-01-13 | 2021-06-01 | 深圳英飞拓科技股份有限公司 | 一种扶梯的运行控制方法、装置、终端设备和介质 |
CN112785625B (zh) * | 2021-01-20 | 2023-09-22 | 北京百度网讯科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN112836667B (zh) * | 2021-02-20 | 2022-11-15 | 上海吉盛网络技术有限公司 | 一种用于判断上行扶梯乘客摔倒逆行的方法 |
CN112801072B (zh) * | 2021-04-14 | 2021-11-02 | 浙江大学 | 一种基于计算机视觉的电梯非平层开门故障识别装置及方法 |
CN113361351A (zh) * | 2021-05-27 | 2021-09-07 | 湖南信达通信息技术有限公司 | 一种基于图像识别的逆行判断方法及系统 |
CN113256690B (zh) * | 2021-06-16 | 2021-09-17 | 中国人民解放军国防科技大学 | 一种基于视频监控的行人多目标跟踪方法 |
CN113435402A (zh) * | 2021-07-14 | 2021-09-24 | 深圳市比一比网络科技有限公司 | 一种用于列车车厢的不文明行为检测方法及系统 |
CN113723372B (zh) * | 2021-11-01 | 2022-01-18 | 北京卓建智菡科技有限公司 | 一种提示方法、装置、计算机设备及计算机可读存储介质 |
CN114120210A (zh) * | 2022-01-29 | 2022-03-01 | 通号通信信息集团有限公司 | 行人检测方法、电子设备、计算机可读介质 |
CN117315550B (zh) * | 2023-11-29 | 2024-02-23 | 南京市特种设备安全监督检验研究院 | 自动扶梯乘客危险行为的检测方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014028667A (ja) * | 2012-07-31 | 2014-02-13 | West Japan Railway Co | エスカレータ監視システム |
CN106127148A (zh) * | 2016-06-21 | 2016-11-16 | 华南理工大学 | 一种基于机器视觉的手扶电梯乘客异常行为检测算法 |
CN106503632A (zh) * | 2016-10-10 | 2017-03-15 | 南京理工大学 | 一种基于视频分析的自动扶梯智能安全监测方法 |
CN107220992A (zh) * | 2017-06-16 | 2017-09-29 | 华南理工大学 | 结合机器视觉与红外阵列的手扶电梯楼层板视频监控方法 |
WO2019025872A2 (en) * | 2018-11-26 | 2019-02-07 | Wasfi Alshdaifat | MEANS OF AUTONOMOUS URBAN TRANSPORT WITH ARTIFICIAL TELEPATHY |
CN109522793A (zh) * | 2018-10-10 | 2019-03-26 | 华南理工大学 | 基于机器视觉的多人异常行为检测与识别方法 |
CN110532852A (zh) * | 2019-07-09 | 2019-12-03 | 长沙理工大学 | 基于深度学习的地铁站行人异常事件检测方法 |
-
2019
- 2019-12-16 CN CN201911292323.1A patent/CN111144247B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014028667A (ja) * | 2012-07-31 | 2014-02-13 | West Japan Railway Co | エスカレータ監視システム |
CN106127148A (zh) * | 2016-06-21 | 2016-11-16 | 华南理工大学 | 一种基于机器视觉的手扶电梯乘客异常行为检测算法 |
CN106503632A (zh) * | 2016-10-10 | 2017-03-15 | 南京理工大学 | 一种基于视频分析的自动扶梯智能安全监测方法 |
CN107220992A (zh) * | 2017-06-16 | 2017-09-29 | 华南理工大学 | 结合机器视觉与红外阵列的手扶电梯楼层板视频监控方法 |
CN109522793A (zh) * | 2018-10-10 | 2019-03-26 | 华南理工大学 | 基于机器视觉的多人异常行为检测与识别方法 |
WO2019025872A2 (en) * | 2018-11-26 | 2019-02-07 | Wasfi Alshdaifat | MEANS OF AUTONOMOUS URBAN TRANSPORT WITH ARTIFICIAL TELEPATHY |
CN110532852A (zh) * | 2019-07-09 | 2019-12-03 | 长沙理工大学 | 基于深度学习的地铁站行人异常事件检测方法 |
Non-Patent Citations (1)
Title |
---|
Nicolai Wojke."Simple Online and Realtime Tracking with a Deep Association Metric".《arXiv》.2017,第1-5页. * |
Also Published As
Publication number | Publication date |
---|---|
CN111144247A (zh) | 2020-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111144247B (zh) | 一种基于深度学习的自动扶梯乘客逆行检测方法 | |
CN112257557B (zh) | 一种基于机器视觉的高空抛物检测识别方法及系统 | |
CN111860282B (zh) | 地铁断面客流量统计和行人逆行检测方法及系统 | |
WO2017122258A1 (ja) | 混雑状況監視システム | |
US9569531B2 (en) | System and method for multi-agent event detection and recognition | |
EP2093698A1 (en) | Crowd congestion analysis | |
JP4624396B2 (ja) | 状況判定装置、状況判定方法、状況判定プログラム、異常判定装置、異常判定方法および異常判定プログラム | |
CN111260693B (zh) | 一种高空抛物的检测方法 | |
US9977970B2 (en) | Method and system for detecting the occurrence of an interaction event via trajectory-based analysis | |
KR20080085837A (ko) | 비디오에서의 물체 조밀도 판단 | |
US8599261B1 (en) | Vision-based car counting for multi-story carparks | |
GB2337146A (en) | Detecting motion across a surveillance area | |
US10210392B2 (en) | System and method for detecting potential drive-up drug deal activity via trajectory-based analysis | |
KR101472674B1 (ko) | 군중 궤적 추출을 이용한 비정상 행동 검출에 기초한 영상 감시 방법 및 영상 감시 장치 | |
US20180032817A1 (en) | System and method for detecting potential mugging event via trajectory-based analysis | |
WO2019220589A1 (ja) | 映像解析装置、映像解析方法、及びプログラム | |
Ahmad et al. | Robust background subtraction based person’s counting from overhead view | |
CN106056078A (zh) | 一种基于多特征回归式集成学习的人群密度估计方法 | |
WO2022078134A1 (zh) | 一种人员流量分析方法和系统、电子设备和可读存储介质 | |
Yang et al. | Automatic aggression detection inside trains | |
Liu et al. | Metro passenger flow statistics based on yolov3 | |
CN110942642B (zh) | 一种基于视频的交通缓驶检测方法及系统 | |
CN114640807A (zh) | 基于视频的对象统计方法、装置、电子设备和存储介质 | |
CN112580633A (zh) | 一种公共交通客流统计装置及方法 | |
Szwoch et al. | A framework for automatic detection of abandoned luggage in airport terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |