CN117746311A - 一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法 - Google Patents
一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法 Download PDFInfo
- Publication number
- CN117746311A CN117746311A CN202311334971.5A CN202311334971A CN117746311A CN 117746311 A CN117746311 A CN 117746311A CN 202311334971 A CN202311334971 A CN 202311334971A CN 117746311 A CN117746311 A CN 117746311A
- Authority
- CN
- China
- Prior art keywords
- human body
- recognition model
- gesture recognition
- image
- dangerous behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000006399 behavior Effects 0.000 title claims abstract description 87
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000013135 deep learning Methods 0.000 title claims abstract description 18
- 230000003287 optical effect Effects 0.000 claims abstract description 17
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 230000004927 fusion Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 6
- 210000003127 knee Anatomy 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 238000007499 fusion processing Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 4
- 238000001514 detection method Methods 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B50/00—Energy efficient technologies in elevators, escalators and moving walkways, e.g. energy saving or recuperation technologies
Landscapes
- Image Analysis (AREA)
Abstract
本申请涉及一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法,涉及行为检测识别的领域,其包括读取视频流;对每一帧图像进行预处理;将预处理后的连续视频若干帧图像输入至第一姿态识别模型中识别得到人体关键点信息,再进行连续帧的跟踪,判断是否存在预设危险行为;将预处理后的连续若干帧图像的光流图像输入至第二姿态识别模型中识别得到目标人体位置,再跟踪得到目标人体的连续运动信息,判断是否存在预设危险行为;对第一姿态识别模型的判断结果与第二姿态识别模型的判断结果进行融合,得到最终判断结果;将最终判断结果通过网络传输至前端进行显示。本申请具有更加准确地对自动扶梯上乘客的危险行为进行识别和判断的效果。
Description
技术领域
本申请涉及行为检测识别的领域,尤其是涉一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法。
背景技术
自动扶梯作为公共场所重要的交通工具,遍布商城、车站、天桥等公共场所。然而,自动扶梯上的一些危险行为不及时制止容易引发安全事故,造成严重的社会影响和人身伤害。
目前扶梯出入口处大都配有摄像机,可借助摄像机并分析扶梯上实时分析发生的危险行为。现有的通过深度学习提取人体关键点的位置姿态来判别是否摔倒,但此种方式由于图像清晰度较低,且人与人之间经常出现互相遮挡的情况,使得提取人体关键点位置容易出现偏差,经常出现识别不准的情况,从而导致对危险行为的判断缺乏准确性。
发明内容
为了实现更加准确地对自动扶梯上乘客的危险行为进行识别和判断,划分乘客行为的安全和危险姿态,以及时采取必要措施,本申请提供一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法。
本申请提供的一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法,采用如下的技术方案:
一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法,包括:
读取手扶梯识别范围内的视频流;
截取视频流,并对得到的每一帧图像进行预处理;
将预处理后的图像输入至第一姿态识别模型中,识别得到人体关键点信息;
选取视频前若干帧中识别出的人体关键点信息,将识别出的人体关键点信息输入匹配跟踪算法中进行连续帧的跟踪;
根据多帧跟踪结果判断是否存在预设危险行为;
将预处理后的连续的若干帧图像的光流图像输入至第二姿态识别模型中,识别得到目标人体位置;
将识别出的目标人体位置输入目标跟踪算法中得到目标人体的连续运动信息;
根据连续运动信息判断是否存在预设危险行为;
对第一姿态识别模型的判断结果与第二姿态识别模型的判断结果进行融合,得到最终判断结果;
将最终判断结果通过网络传输至前端进行显示。
可选的,所述预设危险行为包含摔倒、逆行、拥堵、越界其中一种或多种。
可选的,所述第一姿态识别模型的建立过程包括:以Openpose模型为基础,由VGG-19网络的前10层对输入样本图像进行人体关键点特征提取,并将提取的人体关键点特征作为输入进行迭代,且在迭代过程中将前一阶段的预测与提取的人体关键点特征进行串联,迭代后得到人体关键点信息矩阵。
可选的,所述对输入样本图像进行人体关键点特征提取,包括:输入样本图像为同一时刻不同视角的样本图像,并对不同视角的样本图像分别进行人体关键点特征提取,并将不同视角提取的人体关键点特征进行融合,在融合过程中加入注意力模块进行注意力权重融合,得到最终的人体关键点特征,然后将最终的人体关键点特征输入至循环递归的卷积神经网络中得到人体关键点信息。
可选的,所述根据多帧跟踪结果判断是否存在预设危险行为,以及所述根据连续运动信息判断是否存在预设危险行为,均包括:
对人体关键点信息矩阵或目标人体位置提取坐标信息并分析是否超出划定的界限区域,若超出则存在预设危险行为,且危险行为为越界;
分析当前帧和上一帧头部到膝盖、肩部到膝盖、腰部到膝盖的距离差的变化是否超出预设范围,若超出则存在预设危险行为,且危险行为为摔倒;
分析脚部当前帧和10帧前的移动距离是否小于预设界定值,若小于,则存在预设危险行为,且危险行为为拥堵;
分析连续3秒内有多少次相邻两帧的人体关键点距离差值小于预设值,若大于两次则存在预设危险行为,且危险行为为逆行。
可选的,当存在所述预设危险行为为摔倒时,对相关的多帧图像进行再次判断。
可选的,对所述预设危险行为为摔倒进行再次判断时,分析膝盖、腰部、肩部三个点形成的角度是否超出预设范围,若超出则确定存在预设危险行为,且危险行为为摔倒。
可选的,所述第二姿态识别模型的建立过程包括:以SSD主干网络为基础,将光流图像经CNN处理提取特征图并将特征图分割为固定数目的单元,对每个单元生成一系列固定大小的候选框,再通过网络同时对候选框进行物体类别的分类和边界偏移的回归,得到目标人体位置;并将识别出中目标人体位置输入KCF目标跟踪算法中得到目标的连续运动信息。
可选的,所述将光流图像经CNN处理提取特征图包括:将光流图像分别进行普通卷积和扩张率为2的空洞卷积,然后将普通卷积的特征图与空洞卷积的特征图进行拼接并通过1*1卷积进行通道匹配,并经过通道注意力模块后得到最终的加强特征图。
可选的,所述对第一姿态识别模型的判断结果与第二姿态识别模型的判断结果进行融合,得到最终判断结果,包括:对第一姿态识别模型和第二姿态识别模型分别采用SoftMax函数计算出相应分类的得分,再采用融合分类网络将第一姿态识别模型的判断结果与第二姿态识别模型的判断结果进行融合,得到最终判断结果。
综上所述,本申请包括以下至少一种有益技术效果:
1.同时通过第一姿态识别模型的人体关键信息识别和跟踪以及第二姿态识别模型的光流图像中目标人体的识别和跟踪对危险行为进行判断,再将两种判断结果进行融合得到最终判断结果,提出了全新的融合判别网络,有效提高了对危险行为的判断准确性,以便于根据不同的危险行为采取必要的应急措施;
2.通过对不同视角的人体关键点特征进行融合,在融合过程中加入注意力模块,能够对人体关键点信息进行补充和完善,并提高人体关键点信息的准确性;
3.当存在所述预设危险行为为摔倒时,将相关的多帧图像输入至VGG网络进行再次判断,能够提高对于摔倒行为的判断准确性;
4.通过将光流图像分别进行普通卷积和空洞卷积后的特征图进行融合得到最终的特征图,从而加强了识别过程中不同大小、方向的目标人体的适配性能,有效提升了识别效果。
附图说明
图1是本申请实施例一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法的流程示意图;
图2是本申请实施例第一姿态识别模型对危险行为识别的流程示意图;
图3是本申请实施例第一姿态识别模型中识别人体关键部位示意图;
图4本申请实施例第二姿态识别模型对危险行为识别的流程示意图。
具体实施方式
以下结合附图1-4对本申请作进一步详细说明。
本申请实施例公开一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法。
参照图1,一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法,包括:
读取手扶梯识别范围内的视频流。
截取视频流,并对得到的每一帧图像进行预处理。
具体地,对得到的每一帧图像进行预处理包括对图像尺寸进行标准化处理、对图像进行灰度化处理以及去噪处理。
将预处理后的图像输入至第一姿态识别模型中,识别得到人体关键点信息;选取视频前若干帧中识别出的人体关键点信息,将识别出的人体关键点信息输入匹配跟踪算法中进行连续帧的跟踪
参照图2,第一姿态识别模型的建立过程包括:以Openpose模型为基础,采用VGG-19网络,由VGG-19网络的前10层对输入样本图像进行人体关键点特征提取,并将提取的人体关键点特征作为第一阶段的输入,在后续的每一个阶段中将前一阶段的预测与提取的人体关键点特征进行串联,迭代后得到人体关键点信息及其置信分值;然后将识别出的人体关键点信息输入匈牙利匹配跟踪算法中进行连续帧的跟踪。
具体地,参照图3,人体关键点信息为人体脖子、头部、左肩、右肩、左肘、右肘、左手、右手、左腰、中腰、右腰、左膝、右膝、左脚、右脚的位置坐标,对其进行标记并输出人体关键点信息矩阵及置信分值。
进一步地,由于人与人之间经常会直线互相遮挡的情况,因此通过不同的视角对人体关键点信息进行融合,能够对人体关键点信息进行补充和完善,并提高人体关键点信息的准确性。参照图2,输入样本图像为同一时刻不同视角的样本图像,首先由VGG-19网络的前10层通过卷积核为3*3的卷积层分别对不同视角的样本图像进行人体关键点特征提取,然后将不同视角的人体关键点特征通过全连接层连接后再通过卷积核为1*1的卷积层进行融合,在融合过程中加入注意力模块进行注意力权重融合,得到最终的人体关键点特征,具体对不同通道特征图赋予不同的权重(这样突出重要特征)对于融合特征图F,首先将其在通道维度聚合,然后利用全局平均池化降维特征信息,最后经过Sigmoid归一化后得到两个通道描述符,将其与对应输入相乘得到加强特征图。将加强特征图作为第一阶段的输入,由此得到的人体关键点信息能够具有较高的置信度。
同时,参照图4,将预处理后的连续的若干帧图像进行处理得到光流图像,并将光流图像输入至第二姿态识别模型中,识别得到目标人体位置;将识别出的目标人体位置输入目标跟踪算法中得到目标人体的连续运动信息。
具体地,第二姿态识别模型的建立过程包括:以SSD主干网络为基础,将光流图像经CNN处理提取特征图并将特征图分割为固定数目的单元,对每个单元生成一系列固定大小的候选框,再通过网络同时对候选框进行物体类别的分类和边界偏移的回归,得到目标人体位置;并将识别出的目标人体位置输入KCF目标跟踪算法中得到目标的连续运动信息。
由于人体结构左右对称,因此在进行目标人体识别时,在不同尺度处理光流图像并提取特征图,再将不同尺度的特征图进行融合,提升模型的识别性能。具体地,将光流图像分别进行卷积核为3*3的普通卷积和卷积核为3*3、扩张率为2的空洞卷积,然后将普通卷积的特征图与空洞卷积的特征图进行拼接并通过1*1卷积进行通道匹配,并经过通道注意力模块后得到最终的特征图,从而加强了识别过程中不同大小、方向的目标人体的适配性能,有效提升了识别效果。
通过对第一姿态识别模型识别出的人体关键点信息输入匈牙利匹配跟踪算法中进行连续帧的跟踪,同时对第二姿态识别模型识别出的目标人体位置输入KCF目标跟踪算法中得到目标的连续运动信息,分别判断是否存在预设危险行为。
进一步地,对第一姿态识别模型和第二姿态识别模型的判断结果分别采用SoftMax函数计算出相应分类的得分,再采用融合分类网络将第一姿态识别模型的判断结果与第二姿态识别模型的判断结果进行融合,得到最终判断结果,并将最终判断结果通过网络传输至前端进行显示。融合分类网络通过下式进行分类结果判断:
上式中,SD表示第一姿态识别模型与第二姿态识别模型针对视频流数据集判断结果的置信度,N表示视频流数据集的个数,N11表示第一姿态识别模型与第二姿态识别模型针对视频流数据集的判断结果同时正确的个数,N00表示第一姿态识别模型与第二姿态识别模型针对视频流数据集的判断结果同时错误的个数,N10表示第一姿态识别模型针对视频流数据集的判断结果正确而第二姿态识别模型针对视频流数据集的判断结果错误的个数,N01表示第一姿态识别模型针对视频流数据集的判断结果错误而第二姿态识别模型针对视频流数据集的判断结果正确的个数,α和β用于设置第一姿态识别模型与第二姿态识别模型的判断结果精度和不一样设定的权重,在本实施例中分别取0.7和0.3。
同时通过第一姿态识别模型的人体关键信息识别和跟踪以及第二姿态识别模型的光流图像中目标人体的识别和跟踪对危险行为进行判断,再将两种判断结果进行融合得到最终判断结果,通过融合分类网络的置信度得到分类结果,有效提高了对危险行为的判断准确性,以便于根据不同的危险行为采取必要的应急措施。在本实施例中可将置信度高的结果作为最终结果。
具体地,预设危险行为包含摔倒、逆行、拥堵、越界其中一种或多种。
判断是否存在预设危险行为,包括:
对人体关键点信息矩阵或目标人体位置提取坐标信息并分析是否超出划定的界限区域,若超出则存在预设危险行为,且危险行为为越界;
分析当前帧和上一帧头部到膝盖、肩部到膝盖、腰部到膝盖的距离差的变化是否超出预设范围,若超出则存在预设危险行为,且危险行为为摔倒;
分析脚部当前帧和10帧前的移动距离是否小于预设界定值,若小于,则存在预设危险行为,且危险行为为拥堵;
分析连续3秒内有多少次相邻两帧的人体关键点距离差值小于预设值,若大于两次则存在预设危险行为,且危险行为为逆行。
当出现摔倒的危险行为时,往往需要采取停止电梯运行等较为及时且必要的措施,因此对于摔倒行为的判断需要进一步提高其准确性。当存在所述预设危险行为为摔倒时,对其进行再次判断。
具体地,对预设危险行为为摔倒进行再次判断时,分析膝盖、腰部、肩部三个点形成的角度是否超出预设范围,若超出则确定存在预设危险行为,且危险行为为摔倒。
本申请的一些实施例提供一种电子设备以及计算机程序产品,电子设备包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述的计算机程序被处理器执行时可实现上述危险行为识别方法。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明的描述中,除非另有说明,术语“上”、“下”、“左”、“右”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
最后应说明的是,上述技术方案只是本发明的一种实施方式,对于本领域内的技术人员而言,在本发明公开了应用方法和原理的基础上,很容易做出各种类型的改进或变形,而不仅限于本发明上述具体实施方式所描述的方法,因此前面描述的方式只是优选的,而并不具有限制性的意义。
Claims (9)
1.一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法,其特征在于,包括:
读取手扶梯识别范围内的视频流;截取视频流,并对得到的每一帧图像进行预处理;将预处理后的图像输入至第一姿态识别模型中,识别得到人体关键点信息;
选取视频前若干帧中识别出的人体关键点信息,将识别出的人体关键点信息输入匹配跟踪算法中进行连续帧的跟踪;
根据多帧跟踪结果判断是否存在预设危险行为;将预处理后的连续的若干帧图像的光流图像输入至第二姿态识别模型中,识别得到目标人体位置;将识别出的目标人体位置输入目标跟踪算法中得到目标人体的连续运动信息;根据连续运动信息判断是否存在预设危险行为;
对第一姿态识别模型的判断结果与第二姿态识别模型的判断结果进行融合,得到最终判断结果;将最终判断结果通过网络传输至前端进行显示。
2.根据权利要求1所述的一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法,其特征在于,所述第一姿态识别模型的建立过程包括:以Openpose模型为基础,由VGG-19网络的前10层对输入样本图像进行人体关键点特征提取,并将提取的人体关键点特征作为输入进行迭代,且在迭代过程中将前一阶段的预测与提取的人体关键点特征进行串联,迭代后得到人体关键点信息矩阵;
所述对输入样本图像进行人体关键点特征提取,包括:输入样本图像为同一时刻不同视角的样本图像,并对不同视角的样本图像分别进行人体关键点特征提取,并将不同视角提取的人体关键点特征进行融合,在融合过程中加入注意力模块进行注意力权重融合,得到最终的人体关键点特征;
所述第二姿态识别模型的建立过程包括:以SSD主干网络为基础,将光流图像经CNN处理提取特征图并将特征图分割为固定数目的单元,对每个单元生成一系列固定大小的候选框,再通过网络同时对候选框进行物体类别的分类和边界偏移的回归,得到目标人体位置;并将识别出中目标人体位置输入KCF目标跟踪算法中得到目标的连续运动信息;
所述将光流图像经CNN处理提取特征图包括:将光流图像分别进行普通卷积和扩张率为2的空洞卷积,然后将普通卷积的特征图与空洞卷积的特征图进行拼接并通过1*1卷积进行通道匹配,并经过通道注意力模块后得到最终的特征图。
3.根据权利要求1所述的一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法,其特征在于,
所述对第一姿态识别模型的判断结果与第二姿态识别模型的判断结果进行融合,得到最终判断结果,包括:对第一姿态识别模型和第二姿态识别模型分别采用SoftMax函数计算出相应分类的得分,再采用融合分类网络将第一姿态识别模型的判断结果与第二姿态识别模型的判断结果进行融合,得到最终判断结果;
融合分类网络通过下式进行分类结果判断:
上式中,SD表示第一姿态识别模型与第二姿态识别模型针对视频流数据集判断结果的置信度,N表示视频流数据集的个数,N11表示第一姿态识别模型与第二姿态识别模型针对视频流数据集的判断结果同时正确的个数,N00表示第一姿态识别模型与第二姿态识别模型针对视频流数据集的判断结果同时错误的个数,N10表示第一姿态识别模型针对视频流数据集的判断结果正确而第二姿态识别模型针对视频流数据集的判断结果错误的个数,N01表示第一姿态识别模型针对视频流数据集的判断结果错误而第二姿态识别模型针对视频流数据集的判断结果正确的个数,α和β用于设置第一姿态识别模型与第二姿态识别模型的判断结果精度和不一样设定的权重。
4.根据权利要求1所述的一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法,其特征在于,所述预设危险行为包含摔倒、逆行、拥堵、越界其中一种或多种。
5.根据权利要求2所述的一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法,其特征在于,所述根据多帧跟踪结果判断是否存在预设危险行为,以及所述根据连续运动信息判断是否存在预设危险行为,均包括:
对人体关键点信息矩阵或目标人体位置提取坐标信息并分析是否超出划定的界限区域,若超出则存在预设危险行为,且危险行为为越界;
分析当前帧和上一帧头部到膝盖、肩部到膝盖、腰部到膝盖的距离差的变化是否超出预设范围,若超出则存在预设危险行为,且危险行为为摔倒;
分析脚部当前帧和10帧前的移动距离是否小于预设界定值,若小于,则存在预设危险行为,且危险行为为拥堵;
分析连续3秒内有多少次相邻两帧的人体关键点距离差值小于预设值,若大于两次则存在预设危险行为,且危险行为为逆行。
6.根据权利要求3所述的一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法,其特征在于,当存在所述预设危险行为为摔倒时,对相关的多帧图像进行再次判断。
7.根据权利要求4所述的一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法,其特征在于,对所述预设危险行为为摔倒进行再次判断时,分析膝盖、腰部、肩部三个点形成的角度是否超出预设范围,若超出则确定存在预设危险行为,且危险行为为摔倒。
8.一种电子设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其中,所述处理器执行所述程序时可实现如权利要求1-5所述的方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令在被处理器调用和执行时,计算机可执行指令促使处理器实现权利要求1-5所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311334971.5A CN117746311B (zh) | 2023-10-16 | 2023-10-16 | 一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311334971.5A CN117746311B (zh) | 2023-10-16 | 2023-10-16 | 一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117746311A true CN117746311A (zh) | 2024-03-22 |
CN117746311B CN117746311B (zh) | 2024-08-02 |
Family
ID=90276493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311334971.5A Active CN117746311B (zh) | 2023-10-16 | 2023-10-16 | 一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117746311B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118298514A (zh) * | 2024-06-06 | 2024-07-05 | 华东交通大学 | 一种基于深度学习的工人危险动作识别方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110110710A (zh) * | 2019-06-03 | 2019-08-09 | 北京启瞳智能科技有限公司 | 一种场景异常状态识别方法、系统和智能终端 |
CN110188644A (zh) * | 2019-05-22 | 2019-08-30 | 广东寰球智能科技有限公司 | 一种基于视觉分析的扶梯乘客危险行为监控系统及方法 |
CN112836667A (zh) * | 2021-02-20 | 2021-05-25 | 上海吉盛网络技术有限公司 | 一种用于判断上行扶梯乘客摔倒逆行的方法 |
CN114220176A (zh) * | 2021-12-22 | 2022-03-22 | 南京华苏科技有限公司 | 一种基于深度学习的人体行为的识别方法 |
CN114581843A (zh) * | 2022-02-22 | 2022-06-03 | 华南理工大学 | 一种基于深度学习的扶梯乘客危险行为识别方法 |
CN116189305A (zh) * | 2023-03-09 | 2023-05-30 | 合肥市轨道交通集团有限公司 | 一种基于神经网络模型嵌入的人员危险动作识别方法 |
KR20230097854A (ko) * | 2021-12-24 | 2023-07-03 | 한전케이디엔주식회사 | 발전소내 작업자의 위험행동 인지방법 및 시스템 |
CN117315550A (zh) * | 2023-11-29 | 2023-12-29 | 南京市特种设备安全监督检验研究院 | 自动扶梯乘客危险行为的检测方法 |
-
2023
- 2023-10-16 CN CN202311334971.5A patent/CN117746311B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110188644A (zh) * | 2019-05-22 | 2019-08-30 | 广东寰球智能科技有限公司 | 一种基于视觉分析的扶梯乘客危险行为监控系统及方法 |
CN110110710A (zh) * | 2019-06-03 | 2019-08-09 | 北京启瞳智能科技有限公司 | 一种场景异常状态识别方法、系统和智能终端 |
CN112836667A (zh) * | 2021-02-20 | 2021-05-25 | 上海吉盛网络技术有限公司 | 一种用于判断上行扶梯乘客摔倒逆行的方法 |
CN114220176A (zh) * | 2021-12-22 | 2022-03-22 | 南京华苏科技有限公司 | 一种基于深度学习的人体行为的识别方法 |
KR20230097854A (ko) * | 2021-12-24 | 2023-07-03 | 한전케이디엔주식회사 | 발전소내 작업자의 위험행동 인지방법 및 시스템 |
CN114581843A (zh) * | 2022-02-22 | 2022-06-03 | 华南理工大学 | 一种基于深度学习的扶梯乘客危险行为识别方法 |
CN116189305A (zh) * | 2023-03-09 | 2023-05-30 | 合肥市轨道交通集团有限公司 | 一种基于神经网络模型嵌入的人员危险动作识别方法 |
CN117315550A (zh) * | 2023-11-29 | 2023-12-29 | 南京市特种设备安全监督检验研究院 | 自动扶梯乘客危险行为的检测方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118298514A (zh) * | 2024-06-06 | 2024-07-05 | 华东交通大学 | 一种基于深度学习的工人危险动作识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN117746311B (zh) | 2024-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10776627B2 (en) | Human flow analysis method, human flow analysis apparatus, and human flow analysis system | |
CN110895671B (zh) | 跌倒检测方法以及使用此方法的电子系统 | |
CN107358149B (zh) | 一种人体姿态检测方法和装置 | |
WO2021042547A1 (zh) | 行为识别方法、装置及计算机可读存储介质 | |
CN117746311B (zh) | 一种基于图像跟踪和深度学习的乘客手扶梯危险行为识别方法 | |
US9183431B2 (en) | Apparatus and method for providing activity recognition based application service | |
CN110633004B (zh) | 基于人体姿态估计的交互方法、装置和系统 | |
KR102261880B1 (ko) | 딥러닝 기반 비대면 안면 인식 서비스 제공 방법, 장치 및 시스템 | |
Li et al. | Standardized use inspection of workers' personal protective equipment based on deep learning | |
JP2014093023A (ja) | 物体検出装置、物体検出方法及びプログラム | |
CN111368791A (zh) | 基于Quick-OpenPose模型的引体向上测试计数方法及系统 | |
US20100034464A1 (en) | Apparatus and method for tracking image | |
CN113780145A (zh) | 精子形态检测方法、装置、计算机设备和存储介质 | |
CN114758382B (zh) | 基于自适应补丁学习的面部au检测模型建立方法及应用 | |
CN112115790A (zh) | 人脸识别方法、装置、可读存储介质和电子设备 | |
CN112200176A (zh) | 人脸图像的质量检测方法、系统和计算机设备 | |
CN113408435B (zh) | 一种安全监控方法、装置、设备和存储介质 | |
CN117133053A (zh) | 基于机器视觉的高铁客站场景下行人多特征跌倒检测方法 | |
CN114596515A (zh) | 目标对象检测方法、装置、电子设备以及存储介质 | |
US11527090B2 (en) | Information processing apparatus, control method, and non-transitory storage medium | |
CN115376210B (zh) | 泳池防溺水的溺水行为识别方法、装置、设备及介质 | |
CN117011932A (zh) | 一种奔跑行为检测方法、电子设备及存储介质 | |
CN117037204A (zh) | 摔倒检测方法、装置、电子设备及计算机程序产品 | |
Milanova et al. | Recognition of emotional states in natural human-computer interaction | |
US20230245342A1 (en) | Image selection apparatus, image selection method, and non-transitory computer-readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |