CN113963439A - 一种基于机器视觉的电梯轿厢扒门行为识别方法 - Google Patents
一种基于机器视觉的电梯轿厢扒门行为识别方法 Download PDFInfo
- Publication number
- CN113963439A CN113963439A CN202111233387.1A CN202111233387A CN113963439A CN 113963439 A CN113963439 A CN 113963439A CN 202111233387 A CN202111233387 A CN 202111233387A CN 113963439 A CN113963439 A CN 113963439A
- Authority
- CN
- China
- Prior art keywords
- door
- judging
- opening behavior
- target
- elevator car
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Elevator Door Apparatuses (AREA)
Abstract
本发明提供了一种基于机器视觉的电梯轿厢扒门行为识别方法,包括:第一步骤:采集网络摄像头的包含多个电梯轿厢内场景的视频样本;第二步骤:对视频样本间隔提取图像帧,以制作目标检测数据集;第三步骤:对目标检测数据集进行YOLOV5网络训练,提取电梯轿厢内的人员目标,并将人员目标的目标框标识区域保存为图片;第四步骤:针对保存的图片进行人体姿态18个关键点的标注,制作人体姿态关键点数据集;第五步骤:针对人体姿态关键点数据集进行Openpose网络的训练,提取轿厢内各个人员目标的姿态的18个关键点;第六步骤:利用提取的轿厢内的每个人员目标的姿态的18个关键点判断是否存在扒门行为。
Description
技术领域
本发明涉及一种基于机器视觉的电梯轿厢扒门行为识别方法。
背景技术
随着高楼大厦的增多,电梯轿厢的安全愈来愈受到人们的重视。电梯运行过程中,尤其是因某些故障停止运行时,往往有乘客未采取正确的处理方式,而因采用扒电梯门的方式逃生,却带来更大的危险甚至危及生命。为了避免扒门造成的严重危害,电梯运营管理部门一方面在电梯有故障时尽快处理,一方面需要检测电梯轿厢内乘客的行为,对于扒门行为及时制止,以免造成严重后果。
目前的电梯轿厢监控大多是依靠人工监视的方法检测轿厢异常,智能检测方面仅能针对电动车进入轿厢的检测,针对人员暴力行为检测,针对梯内人员跌倒或晕倒,打架等不文明行为进行检测。
而且,目前的智能检测方法主要是通过比对方式实现。如中国专利申请CN112149576A通过比对手部、腿部子图的相似度来判断行为;中国专利申请CN105347127A通过3D体感摄像技术,提取人体3D模型与模型库比对,判断人员的行为;中国专利申请CN109896387 A通过3D测量技术判断门的开关状态,并根据电梯门区域是否有乘客存在判断乘客是否有扒门行为。因为人的行为动作变化较多,不同高度胖瘦的人的动作会有较大差别,因此比对的方式存在较多误判。单纯的依靠电梯门有缝状态下,门区域内有乘客的方式判断乘客的扒门行为也存在较多的误判,比如电梯出现故障,门未关严,或者轿厢内人员较多,电梯门附近一直有乘客等。
发明内容
本发明所要解决的技术问题是针对现有技术中存在上述缺陷,提供一种能够有效地实时检测直梯轿厢里的人员扒门行为的基于机器视觉的电梯轿厢扒门行为识别方法。
根据本发明,提供了一种基于机器视觉的电梯轿厢扒门行为识别方法包括:
第一步骤:采集网络摄像头的包含多个电梯轿厢内场景的视频样本;
第二步骤:对视频样本间隔提取图像帧,以制作目标检测数据集;
第三步骤:对目标检测数据集进行YOLOV5网络训练,提取电梯轿厢内的人员目标,并将人员目标的目标框标识区域保存为图片;
第四步骤:针对保存的图片进行人体姿态18个关键点的标注,制作人体姿态关键点数据集;
第五步骤:针对人体姿态关键点数据集进行Openpose网络的训练,提取轿厢内各个人员目标的姿态的18个关键点;
第六步骤:利用提取的轿厢内的每个人员目标的姿态的18个关键点判断是否存在扒门行为。
优选地,第三步骤将人员目标的目标框标识区域经像素扩充后保存为图片。
优选地,18个关键点包括:鼻子、脖子、右肩、右肘、右腕、左肩、左肘、左腕、右臀、右膝、右踝、左臀、左膝、左踝、右眼、左眼、右耳、左耳。
优选地,第六步骤包括:
第一判断步骤:判断是否能够检测到当前人员目标的两个眼睛及鼻子的关键点;如果第一判断步骤判定检测到两个眼睛及鼻子的关键点,则判断当前人员目标无扒门行为,否则针对当前人员目标执行第二判断步骤;
第二判断步骤:计算左手腕关节点与左手肘关节点连线与水平面的水平夹角,并且计算右手腕关节点与右手肘关节点连线与水平面的水平夹角,如果两个腕肘连线的水平夹角均不在设定的阈值范围内,则判断当前人员目标无扒门行为,否则针对当前人员目标执行第三判断步骤;
第三判断步骤:判断左右踝之间的距离减去左右膝之间的距离的值是否大于预定阈值,该预定阈值大于0的;如果满足,则判断当前人员目存在为有扒门行为,否则判断当前人员目不存在为有扒门行为。
优选地,第六步骤包括:
第一判断步骤:判断是否能够检测到当前人员目标的两个眼睛及鼻子的关键点;如果第一判断步骤判定检测到两个眼睛及鼻子的关键点,则判断当前人员目标无扒门行为,否则针对当前人员目标执行第二判断步骤;
第二判断步骤:计算左手腕关节点与左手肘关节点连线与水平面的水平夹角,并且计算右手腕关节点与右手肘关节点连线与水平面的水平夹角,如果两个腕肘连线的水平夹角均不在设定的阈值范围内,则判断当前人员目标无扒门行为,否则存在为有扒门行为。
优选地,第六步骤包括:
第一判断步骤:判断是否能够检测到当前人员目标的两个眼睛及鼻子的关键点;如果第一判断步骤判定检测到两个眼睛及鼻子的关键点,则判断当前人员目标无扒门行为,否则针对当前人员目标执行第三判断步骤;
第三判断步骤:判断左右踝之间的距离减去左右膝之间的距离的值是否大于预定阈值,该预定阈值大于0的;如果满足,则判断当前人员目存在为有扒门行为,否则判断当前人员目不存在为有扒门行为。
第六步骤包括:
第二判断步骤:计算左手腕关节点与左手肘关节点连线与水平面的水平夹角,并且计算右手腕关节点与右手肘关节点连线与水平面的水平夹角,如果两个腕肘连线的水平夹角均不在设定的阈值范围内,则判断当前人员目标无扒门行为,否则针对当前人员目标执行第三判断步骤;
第三判断步骤:判断左右踝之间的距离减去左右膝之间的距离的值是否大于预定阈值,该预定阈值大于0的;如果满足,则判断当前人员目存在为有扒门行为,否则判断当前人员目不存在为有扒门行为。
优选地,在判断当前人员目存在为有扒门行为的情况下,自动报警。
本发明利用机器视觉实时检测直梯轿厢里的人员扒门行为,及时预警,能够有效弥补传统人工监控系统的检查效率低和检测准确度低的弊端,减轻监控人员的工作量,保障乘梯人员的安全,提高直梯运行的安全性。
附图说明
结合附图,并通过参考下面的详细描述,将会更容易地对本发明有更完整的理解并且更容易地理解其伴随的优点和特征,其中:
图1示意性地示出了根据本发明优选实施例的基于机器视觉的电梯轿厢扒门行为识别方法的总体流程图。
图2示意性地示出了根据本发明优选实施例的基于机器视觉的电梯轿厢扒门行为识别方法的第六步骤的第一示例的流程图。
图3示意性地示出了根据本发明优选实施例的基于机器视觉的电梯轿厢扒门行为识别方法的第六步骤的第二示例的流程图。
图4示意性地示出了根据本发明优选实施例的基于机器视觉的电梯轿厢扒门行为识别方法的第六步骤的第三示例的流程图。
图5示意性地示出了根据本发明优选实施例的基于机器视觉的电梯轿厢扒门行为识别方法的第六步骤的第四示例的流程图。
需要说明的是,附图用于说明本发明,而非限制本发明。注意,表示结构的附图可能并非按比例绘制。并且,附图中,相同或者类似的元件标有相同或者类似的标号。
具体实施方式
为了使本发明的内容更加清楚和易懂,下面结合具体实施例和附图对本发明的内容进行详细描述。
图1示意性地示出了根据本发明优选实施例的基于机器视觉的电梯轿厢扒门行为识别方法的总体流程图。
如图1所示,根据本发明优选实施例的基于机器视觉的电梯轿厢扒门行为识别方法包括:
第一步骤S1:采集网络摄像头的包含多个电梯轿厢内场景的视频样本;
第二步骤S2:对视频样本间隔提取图像帧,以制作目标检测数据集;
第三步骤S3:对目标检测数据集进行YOLOV5网络训练,提取电梯轿厢内的人员目标,并将人员目标的目标框标识区域保存为图片;优选地,可以将人员目标的目标框标识区域经像素扩充后保存为图片;
第四步骤S4:针对保存的图片进行人体姿态18个关键点的标注,制作人体姿态关键点数据集;其中,例如,18个关键点包括:鼻子、脖子、右肩、右肘、右腕、左肩、左肘、左腕、右臀、右膝、右踝、左臀、左膝、左踝、右眼、左眼、右耳、左耳。
第五步骤S5:针对人体姿态关键点数据集进行Openpose网络的训练,提取轿厢内各个人员目标的姿态的18个关键点;
第六步骤S6:利用提取的轿厢内的每个人员目标的姿态的18个关键点判断是否存在扒门行为。
<第一示例>
图2示意性地示出了根据本发明优选实施例的基于机器视觉的电梯轿厢扒门行为识别方法的第六步骤的第一示例的流程图。
如图2所示,例如,第六步骤S6中利用提取的轿厢内的每个人员目标的姿态的18个关键点判断是否存在扒门行为可包括针对轿厢内的每个人员目标执行下述处理:
第一判断步骤S61:判断是否能够检测到当前人员目标的两个眼睛及鼻子的关键点;
如果第一判断步骤判定能够检测到两个眼睛及鼻子的关键点,则判断当前人员目标无扒门行为,否则针对当前人员目标执行第二判断步骤S62。
第二判断步骤S62:计算左手腕关节点与左手肘关节点连线与水平面的水平夹角,并且计算右手腕关节点与右手肘关节点连线与水平面的水平夹角,如果两个腕肘连线的水平夹角均不在设定的阈值范围内,则判定不存在扒门行为,否则针对当前人员目标执行第三判断步骤S63;
第三判断步骤S63:此时对可能的扒门行为进一步判断,鉴于人在扒门时腿部需要分开站立的经验,左右膝之间的距离、左右踝之间的距离是否满足左右踝之间的距离减去左右膝之间的距离的值大于预定阈值,该预定阈值为大于0的值。如果满足,则判断当前人员目存在为有扒门行为,否则判断当前人员目不存在为有扒门行为。由此,在判断当前人员目存在为有扒门行为的情况下,进行自动报警。
<第二示例>
可以设定更加严格的判断标准以防止出现存在扒门而没有检测出来的情况,如本示例所述。
具体地,图3示意性地示出了根据本发明优选实施例的基于机器视觉的电梯轿厢扒门行为识别方法的第六步骤的第二示例的流程图。
如图3所示,例如,第六步骤S6中利用提取的轿厢内的每个人员目标的姿态的18个关键点判断是否存在扒门行为可包括针对轿厢内的每个人员目标执行下述处理:
第一判断步骤S61:判断是否能够检测到当前人员目标的两个眼睛及鼻子的关键点;
如果第一判断步骤判定能够检测到两个眼睛及鼻子的关键点,则判断当前人员目标无扒门行为,否则针对当前人员目标执行第二判断步骤S62。
第二判断步骤S62:计算左手腕关节点与左手肘关节点连线与水平面的水平夹角,并且计算右手腕关节点与右手肘关节点连线与水平面的水平夹角,如果两个腕肘连线的水平夹角均不在设定的阈值范围内,则判断当前人员目标无扒门行为,否则判断当前人员目存在为有扒门行为。
<第三示例>
可以设定其它更加严格的判断标准以防止出现存在扒门而没有检测出来的情况,如本示例所述。
具体地,图4示意性地示出了根据本发明优选实施例的基于机器视觉的电梯轿厢扒门行为识别方法的第六步骤的第三示例的流程图。
如图4所示,例如,第六步骤S6中利用提取的轿厢内的每个人员目标的姿态的18个关键点判断是否存在扒门行为可包括针对轿厢内的每个人员目标执行下述处理:
第一判断步骤S61:判断是否能够检测到当前人员目标的两个眼睛及鼻子的关键点;
如果第一判断步骤判定能够检测到两个眼睛及鼻子的关键点,则判断当前人员目标无扒门行为,否则针对当前人员目标执行第三判断步骤S63。
第三判断步骤S63:此时对可能的扒门行为进一步判断,鉴于人在扒门时腿部需要分开站立的经验,左右膝之间的距离、左右踝之间的距离是否满足左右踝之间的距离减去左右膝之间的距离的值大于预定阈值,该预定阈值为大于0的值。如果满足,则判断当前人员目存在为有扒门行为,否则判断当前人员目不存在为有扒门行为。
<第四示例>
可以设定其它的更加严格的判断标准以防止出现存在扒门而没有检测出来的情况,如本示例所述。
图5示意性地示出了根据本发明优选实施例的基于机器视觉的电梯轿厢扒门行为识别方法的第六步骤的第四示例的流程图。
如图5所示,例如,第六步骤S6中利用提取的轿厢内的每个人员目标的姿态的18个关键点判断是否存在扒门行为可包括针对轿厢内的每个人员目标执行下述处理:
第二判断步骤S62:计算左手腕关节点与左手肘关节点连线与水平面的水平夹角,并且计算右手腕关节点与右手肘关节点连线与水平面的水平夹角,如果腕肘连线的水平夹角不在设定的阈值范围内,则认为不存在扒门行为,否则针对当前人员目标执行第三判断步骤S63;
第三判断步骤S63:此时对可能的扒门行为进一步判断,鉴于人在扒门时腿部需要分开站立的经验,左右膝之间的距离、左右踝之间的距离是否满足左右踝之间的距离减去左右膝之间的距离的值大于预定阈值,该预定阈值为大于0的值。如果满足,则判断当前人员目存在为有扒门行为,否则判断当前人员目不存在为有扒门行为。由此,在判断当前人员目存在为有扒门行为的情况下,进行自动报警。
总而言之,本发明相对于现有技术的优势至少包括:
1.本发明通过YoloV5检测人体目标,在人体目标框内检测人员姿态关键点,避免了直接用Openpose检测整图关键点可能存在的关键点分组错误的缺陷。
2.本发明通过人体姿态关节点的逻辑关系判断人的扒门行为,避免了动作比对带来的局限性,更具有灵活性和鲁棒性。
3.本发明可运行于嵌入式平台,实现前端在线检测,及时预警,避免了云端检测的非实时性和滞后性。
综上,本发明提出一种基于机器视觉技术,利用YOLOv5+OpenPose双深度网络从图像中先提取乘客目标,再进一步提取乘客骨架关节点数据,根据关节点坐标组合进行逻辑判断的方式检测电梯轿厢内乘客扒门行为,这种方式大大提高了识别准确率。本发明的检测算法采用嵌入式平台推理,实现了在线检测,就地预警。
此外,需要说明的是,除非特别指出,否则说明书中的术语“第一”、“第二”、“第三”等描述仅仅用于区分说明书中的各个组件、元素、步骤等,而不是用于表示各个组件、元素、步骤之间的逻辑关系或者顺序关系等。
可以理解的是,虽然本发明已以较佳实施例披露如上,然而上述实施例并非用以限定本发明。对于任何熟悉本领域的技术人员而言,在不脱离本发明技术方案范围情况下,都可利用上述揭示的技术内容对本发明技术方案作出许多可能的变动和修饰,或修改为等同变化的等效实施例。因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化及修饰,均仍属于本发明技术方案保护的范围内。
Claims (8)
1.一种基于机器视觉的电梯轿厢扒门行为识别方法,其特征在于包括:
第一步骤:采集网络摄像头的包含多个电梯轿厢内场景的视频样本;
第二步骤:对视频样本间隔提取图像帧,以制作目标检测数据集;
第三步骤:对目标检测数据集进行YOLOV5网络训练,提取电梯轿厢内的人员目标,并将人员目标的目标框标识区域保存为图片;
第四步骤:针对保存的图片进行人体姿态18个关键点的标注,制作人体姿态关键点数据集;
第五步骤:针对人体姿态关键点数据集进行Openpose网络的训练,提取轿厢内各个人员目标的姿态的18个关键点;
第六步骤:利用提取的轿厢内的每个人员目标的姿态的18个关键点判断是否存在扒门行为。
2.根据权利要求1所述的基于机器视觉的电梯轿厢扒门行为识别方法,其特征在于,第三步骤将人员目标的目标框标识区域经像素扩充后保存为图片。
3.根据权利要求1所述的基于机器视觉的电梯轿厢扒门行为识别方法,其特征在于,18个关键点包括:鼻子、脖子、右肩、右肘、右腕、左肩、左肘、左腕、右臀、右膝、右踝、左臀、左膝、左踝、右眼、左眼、右耳、左耳。
4.根据权利要求1至3之一所述的基于机器视觉的电梯轿厢扒门行为识别方法,其特征在于,第六步骤包括:
第一判断步骤:判断是否能够检测到当前人员目标的两个眼睛及鼻子的关键点;如果第一判断步骤判定检测到两个眼睛及鼻子的关键点,则判断当前人员目标无扒门行为,否则针对当前人员目标执行第二判断步骤;
第二判断步骤:计算左手腕关节点与左手肘关节点连线与水平面的水平夹角,并且计算右手腕关节点与右手肘关节点连线与水平面的水平夹角,如果两个腕肘连线的水平夹角均不在设定的阈值范围内,则判断当前人员目标无扒门行为,否则针对当前人员目标执行第三判断步骤;
第三判断步骤:判断左右踝之间的距离减去左右膝之间的距离的值是否大于预定阈值,该预定阈值大于0的;如果满足,则判断当前人员目存在为有扒门行为,否则判断当前人员目不存在为有扒门行为。
5.根据权利要求1至3之一所述的基于机器视觉的电梯轿厢扒门行为识别方法,其特征在于,第六步骤包括:
第一判断步骤:判断是否能够检测到当前人员目标的两个眼睛及鼻子的关键点;如果第一判断步骤判定检测到两个眼睛及鼻子的关键点,则判断当前人员目标无扒门行为,否则针对当前人员目标执行第二判断步骤;
第二判断步骤:计算左手腕关节点与左手肘关节点连线与水平面的水平夹角,并且计算右手腕关节点与右手肘关节点连线与水平面的水平夹角,如果两个腕肘连线的水平夹角均不在设定的阈值范围内,则判断当前人员目标无扒门行为,否则存在为有扒门行为。
6.根据权利要求1至3之一所述的基于机器视觉的电梯轿厢扒门行为识别方法,其特征在于,第六步骤包括:
第一判断步骤:判断是否能够检测到当前人员目标的两个眼睛及鼻子的关键点;如果第一判断步骤判定检测到两个眼睛及鼻子的关键点,则判断当前人员目标无扒门行为,否则针对当前人员目标执行第三判断步骤;
第三判断步骤:判断左右踝之间的距离减去左右膝之间的距离的值是否大于预定阈值,该预定阈值大于0的;如果满足,则判断当前人员目存在为有扒门行为,否则判断当前人员目不存在为有扒门行为。
7.根据权利要求1至3之一所述的基于机器视觉的电梯轿厢扒门行为识别方法,其特征在于,第六步骤包括:
第二判断步骤:计算左手腕关节点与左手肘关节点连线与水平面的水平夹角,并且计算右手腕关节点与右手肘关节点连线与水平面的水平夹角,如果两个腕肘连线的水平夹角均不在设定的阈值范围内,则判断当前人员目标无扒门行为,否则针对当前人员目标执行第三判断步骤;
第三判断步骤:判断左右踝之间的距离减去左右膝之间的距离的值是否大于预定阈值,该预定阈值大于0的;如果满足,则判断当前人员目存在为有扒门行为,否则判断当前人员目不存在为有扒门行为。
8.根据权利要求1至3之一所述的基于机器视觉的电梯轿厢扒门行为识别方法,其特征在于还包括:在判断当前人员目存在为有扒门行为的情况下,自动报警。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111233387.1A CN113963439A (zh) | 2021-10-22 | 2021-10-22 | 一种基于机器视觉的电梯轿厢扒门行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111233387.1A CN113963439A (zh) | 2021-10-22 | 2021-10-22 | 一种基于机器视觉的电梯轿厢扒门行为识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113963439A true CN113963439A (zh) | 2022-01-21 |
Family
ID=79466390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111233387.1A Pending CN113963439A (zh) | 2021-10-22 | 2021-10-22 | 一种基于机器视觉的电梯轿厢扒门行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113963439A (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108002161A (zh) * | 2017-11-20 | 2018-05-08 | 江苏省特种设备安全监督检验研究院 | 一种电梯轿厢内乘客扒门行为的检测方法 |
CN110781771A (zh) * | 2019-10-08 | 2020-02-11 | 北京邮电大学 | 一种基于深度学习的异常行为实时监测方法 |
CN110837778A (zh) * | 2019-10-12 | 2020-02-25 | 南京信息工程大学 | 一种基于骨架关节点序列的交警指挥手势识别方法 |
CN111242004A (zh) * | 2020-01-10 | 2020-06-05 | 厦门瑞为信息技术有限公司 | 一种基于电梯监控数据处理的自动告警方法及系统 |
CN112200039A (zh) * | 2020-09-30 | 2021-01-08 | 广州鲁邦通物联网科技有限公司 | 电梯轿厢全覆盖的人体检测和行为判断的方法、系统和分析方法 |
CN112287759A (zh) * | 2020-09-26 | 2021-01-29 | 浙江汉德瑞智能科技有限公司 | 基于关键点的跌倒检测方法 |
CN112800901A (zh) * | 2021-01-18 | 2021-05-14 | 上海云话科技有限公司 | 一种基于视觉感知的矿山人员安全检测方法 |
CN113011290A (zh) * | 2021-03-03 | 2021-06-22 | 上海商汤智能科技有限公司 | 事件检测方法及装置、电子设备和存储介质 |
CN113255509A (zh) * | 2021-05-20 | 2021-08-13 | 福州大学 | 一种基于Yolov3和OpenPose的工地危险行为监控方法 |
-
2021
- 2021-10-22 CN CN202111233387.1A patent/CN113963439A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108002161A (zh) * | 2017-11-20 | 2018-05-08 | 江苏省特种设备安全监督检验研究院 | 一种电梯轿厢内乘客扒门行为的检测方法 |
CN110781771A (zh) * | 2019-10-08 | 2020-02-11 | 北京邮电大学 | 一种基于深度学习的异常行为实时监测方法 |
CN110837778A (zh) * | 2019-10-12 | 2020-02-25 | 南京信息工程大学 | 一种基于骨架关节点序列的交警指挥手势识别方法 |
CN111242004A (zh) * | 2020-01-10 | 2020-06-05 | 厦门瑞为信息技术有限公司 | 一种基于电梯监控数据处理的自动告警方法及系统 |
CN112287759A (zh) * | 2020-09-26 | 2021-01-29 | 浙江汉德瑞智能科技有限公司 | 基于关键点的跌倒检测方法 |
CN112200039A (zh) * | 2020-09-30 | 2021-01-08 | 广州鲁邦通物联网科技有限公司 | 电梯轿厢全覆盖的人体检测和行为判断的方法、系统和分析方法 |
CN112800901A (zh) * | 2021-01-18 | 2021-05-14 | 上海云话科技有限公司 | 一种基于视觉感知的矿山人员安全检测方法 |
CN113011290A (zh) * | 2021-03-03 | 2021-06-22 | 上海商汤智能科技有限公司 | 事件检测方法及装置、电子设备和存储介质 |
CN113255509A (zh) * | 2021-05-20 | 2021-08-13 | 福州大学 | 一种基于Yolov3和OpenPose的工地危险行为监控方法 |
Non-Patent Citations (1)
Title |
---|
马志伟: ""基于视频的电梯轿厢内乘客异常行为检测研究"", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107644204B (zh) | 一种用于安防系统的人体识别与跟踪方法 | |
CN110210302B (zh) | 多目标跟踪方法、装置、计算机设备及存储介质 | |
CN108928700B (zh) | 医院电梯安全立体监测云平台、系统及其方法、电梯系统 | |
CN108564069A (zh) | 一种工业佩戴安全帽视频检测方法 | |
CN108750854B (zh) | 医院电梯安全立体监测云平台、系统及其方法、电梯系统 | |
CN102750709B (zh) | 利用视频检测打架行为的方法和装置 | |
CN109205430B (zh) | 电梯的安全检查装置、系统以及方法 | |
CN114155601A (zh) | 一种基于视觉的作业人员危险行为检测方法及系统 | |
CN111428617A (zh) | 一种基于视频图像的配网违规检修行为的识别方法和系统 | |
CN108537829A (zh) | 一种监控视频人员状态识别方法 | |
CN114842560B (zh) | 基于计算机视觉的建筑工地人员危险行为识别方法 | |
CN114663390A (zh) | 自动门智能防夹方法、装置、设备及存储介质 | |
CN112633262B (zh) | 通道监测方法、装置、电子设备及介质 | |
CN112597903B (zh) | 基于步幅测量的电力人员安全状态智能识别方法及介质 | |
CN113963439A (zh) | 一种基于机器视觉的电梯轿厢扒门行为识别方法 | |
CN109579934A (zh) | 水浸多重监测方法及系统 | |
CN116645633A (zh) | 一种基于计算机视觉的工人翻越围栏行为检测方法和系统 | |
CN116563949A (zh) | 一种行为识别方法、装置、设备及介质 | |
CN106096554A (zh) | 一种停车位遮挡判定方法和系统 | |
CN108002161B (zh) | 一种电梯轿厢内乘客扒门行为的检测方法 | |
CN109343427A (zh) | 一种用于皮带巷的监控方法及其系统 | |
CN116229502A (zh) | 基于图像的摔倒行为识别方法及设备 | |
CN113762115B (zh) | 一种基于关键点检测的配网作业人员行为检测方法 | |
Zhao | Research on the application of OpenPose in escalator safety systems | |
CN111860100B (zh) | 行人数量的确定方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |