CN111507317A - 一种基于视觉的旋转设备作业手套佩戴检测方法及系统 - Google Patents
一种基于视觉的旋转设备作业手套佩戴检测方法及系统 Download PDFInfo
- Publication number
- CN111507317A CN111507317A CN202010613767.7A CN202010613767A CN111507317A CN 111507317 A CN111507317 A CN 111507317A CN 202010613767 A CN202010613767 A CN 202010613767A CN 111507317 A CN111507317 A CN 111507317A
- Authority
- CN
- China
- Prior art keywords
- region
- human body
- key points
- interest
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Abstract
本发明公开了一种基于视觉的旋转设备作业手套佩戴检测方法及系统,包括:获取生产车间中实时生成的监控视频图像,在监控视频图像中绘制凸多边形规则框,使得整个旋转设备落于规则框内;基于人体目标检测神经网络模型对监控视频图像进行人体目标检测,获得目标人体;基于人体骨骼关键点检测神经网络模型对目标人体进行人体关键点检测,获得处于规则框内的目标人体的双手关键点;对双手关键点进行区域分割,得到感兴趣区域,并对感兴趣区域进行初始分类;对初始分类后的感兴趣区域进行跟踪,并通过联合投票算法得到感兴趣区域的最终分类结果。本发明可以降低漏检,提高手套检测及分类的准确率,并通过多线程流水线处理模式降低整个处理过程的耗时。
Description
技术领域
本发明涉及图像识别技术领域,尤其涉及一种基于视觉的旋转设备作业手套佩戴检测方法及系统。
背景技术
在生产车间中,针对旋转类机床的作业,操作员需要手动清理机床刨、铣产生的金属碎屑以及手动操作机床对金属器材做加工。因此为了满足安全化生产的要求,需要保证操作员佩戴相应的塑胶手套进行作业。在生产车间配备安保人员进行监控的传统方式不但耗费大量的人力,并且安保人员无法做到24小时实时监控。
现有技术中存在的安全检测系统采用卷积神经网络直接对获取到的监控图片中的工人、手套进行检测,而后根据手套与人体之间的相互关系判断是否正确佩戴手套。这种方法直接从图像中检测手套或者手掌的方法由于以下几个方面导致准确率较低:(1)由于需要检测的目标尺寸较小,同时手套没有丰富的纹理信息,因此手套检测的准确率较低。(2)安全生产不需要全程佩戴手套,仅仅需要在旋转设备作业时佩戴,直接检测整个监控画面的手套不能达到监控安全生产的目的。(3)由于监控视角一般是固定的,工人在作业时手套的姿态会不停地变动,可导致检测识别到的类型出现跳变,从而导致误报警。(4)现有技术中检测和分类任务均由一个卷积神经网络完成,虽然这样可以降低整体算法的计算量,但也导致了精确度低于检测与分类级联的网络。其次,现有的多模块组合级联的检测识别技术计算量大,处理耗时较长。
发明内容
本发明实施例的目的是提供一种基于视觉的旋转设备作业手套佩戴检测方法及系统,以解决现有的由于目标尺寸较小导致的手套检测率低,由于手套姿态变化导致的分类准确率低以及整体算法运行耗时太长,难以达到实时处理的问题。
为了达到上述目的,本发明实施例所采用的技术方案如下:
第一方面,本发明实施例提供一种基于视觉的旋转设备作业手套佩戴检测方法,包括:
获取生产车间中实时生成的监控视频图像,并在所述监控视频图像中绘制凸多边形规则框,使得整个旋转设备落于规则框内;
基于人体目标检测神经网络模型对所述监控视频图像进行人体目标检测,获得目标人体;
基于人体骨骼关键点检测神经网络模型对所述目标人体进行人体关键点检测,获得处于所述规则框内的目标人体的双手关键点;
对所述双手关键点进行区域分割,得到感兴趣区域,并对感兴趣区域进行初始分类;
对初始分类后的感兴趣区域进行跟踪,并通过联合投票算法得到感兴趣区域的最终分类结果。
进一步地,基于人体骨骼关键点检测神经网络模型对所述目标人体进行人体关键点检测,获得处于所述规则框内的目标人体的双手关键点,包括:
基于人体骨骼关键点检测神经网络模型对所述目标人体进行人体关键点检测,以检测得到目标人体双手的位置;
判断所述目标人体双手的位置是否处于所述规则区域内,从而得到落于规则区域内的手部关键点及与该手部关键点连接的手臂关键点,其中手部关键点和手臂关键点构成双手关键点。
进一步地,对所述双手关键点进行区域分割,得到感兴趣区域,并对感兴趣区域进行初始分类,包括:
对所述双手关键点进行区域分割,以手部关键点为中心,以手部关键点到手臂关键点的像素距离为边长,分割一块正方形图像区域,作为手套的感兴趣区域;
基于手套分类模型对所述感兴趣区域进行分类,得到未带手套、带塑胶安全手套、带其他手套三类初始分类的结果。
进一步地,对初始分类后的感兴趣区域进行跟踪,并通过联合投票算法得到感兴趣区域的最终分类结果,包括:
对初始分类后的感兴趣区域进行跟踪,并赋予身份识别号;
根据拥有同一身份识别号的感兴趣区域的多帧初始分类结果进行联合投票,并得到感兴趣区域的最终分类结果。
进一步地,对所述图像区域进行跟踪,并对其赋值身份识别号,包括:
提取当前帧感兴趣区域的HOG特征并保存;
计算当前帧感兴趣区域与前一帧跟踪轨迹集合的马氏距离;
计算当前帧感兴趣区域的HOG特征与前一帧跟踪轨迹集合保存的HOG特征的余弦距离;
采用匈牙利算法对当前帧感兴趣区域与前一帧所有的跟踪轨迹进行配对,并赋予身份识别号;其中配对采用距离原则,其中表示第i个感兴趣区域的HOG特征与第j个跟踪轨迹缓存的HOG特征的余弦距离,表示第i个感兴趣区域与第j个跟踪轨迹的马氏距离,为0到1范围内的实数参数。
进一步地,根据拥有同一身份识别号的感兴趣区域的多帧初始分类结果进行联合投票,并得到感兴趣区域的最终分类结果,包括:
第二方面,本发明实施例还一种基于视觉的旋转设备作业手套佩戴检测系统,其特征在于,包括:
数据获取模块,用于获取生产车间中实时生成的监控视频图像,并在监控视频图像中绘制凸多边形规则框,使得整个旋转设备落于规则框内;
人体检测模块,用于基于人体目标检测神经网络模型对所述监控视频图像进行人体目标检测,获得目标人体;
人体骨骼关键点检测模块,用于基于人体骨骼关键点检测神经网络模型对所述目标人体进行人体关键点检测,获得处于所述规则框内的目标人体的双手关键点;
手套分类模块,用于对所述双手关键点进行区域分割,得到感兴趣区域,并对感兴趣区域进行初始分类;
区域跟踪模块,用于对初始分类后的感兴趣区域进行跟踪,并通过联合投票算法得到感兴趣区域的最终分类结果;
报警模块,用于根据感兴趣区域的最终分类结果进行提示报警。
进一步地,所述人体骨骼关键点检测模块,包括:
人体骨骼关键点检测单元,用于基于人体骨骼关键点检测神经网络模型对所述目标人体进行人体关键点检测,以检测得到目标人体双手的位置;
规则判别单元,用于判断所述目标人体双手的位置是否处于所述规则区域内,从而得到落于规则区域内的手部关键点坐标及与该手部关键点连接的手臂关键点,其中手部关键点和手臂关键点构成双手关键点。
进一步地,所述手套分类模块,包括:
区域分割单元,用于对所述双手关键点进行区域分割,以手部关键点为中心,以手部关键点到手臂关键点的像素距离为边长,分割一块正方形图像区域,作为手套的感兴趣区域;
手套分类单元,用于基于手套分类模型对所述感兴趣区域进行初始分类,得到未带手套、带塑胶安全手套、带其他手套三类结果。
进一步地,所述区域跟踪模块,包括:
区域跟踪单元,用于对初始分类后的感兴趣区域进行跟踪,并赋予身份识别号;
联合投票单元,用于根据拥有同一身份识别号的感兴趣区域的多帧初始分类结果进行联合投票,并得到感兴趣区域的最终分类结果。
本检测方法及系统通过在采集的监控视频图像中绘制规则区域的方式来解决安全生产仅需要监控旋转设备作业时手套佩戴的问题;通过行人检测与人体骨骼关键点检测融合以及区域分割的方法可以有效提高手部感兴趣区域的检测准确率;通过基于人体目标检测神经网络模型与基于人体骨骼关键点检测神经网络模型级联的方法来提高识别分类的准确度;通过感兴趣区域跟踪与多帧联合投票的方式来减少手套在操作中因姿态变化带来的误识别;通过多线程流水线并行处理模式来降低处理算法的整体耗时。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明实施例提供的一种基于视觉的旋转设备作业手套佩戴检测方法的流程图;
图2为本发明实施例中区域跟踪流程图;
图3为本发明实施例中基于数据获取模块获取的图像数据并绘制规则框的效果图;
图4为本发明实施例中处理效果图;
图5为本发明实施例中算法流水线处理流程图;
图6为本发明实施例提供的一种基于视觉的旋转设备作业手套佩戴检测系统的框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
实施例1:
图1为本发明实施例提供的一种基于视觉的旋转设备作业手套佩戴检测方法的流程图;本实施例提供的一种基于视觉的旋转设备作业手套佩戴检测方法,包括以下步骤:
步骤S102,获取生产车间中实时生成的监控视频图像,并在所述监控视频图像中绘制凸多边形规则框,使得整个旋转设备落于规则框内;
具体地,人工在所属监控视频图像上顺时针标记多个点,构成一个凸多边形,使得旋转设备的每个像素均落于凸多边形内,如图3所示。
步骤S104,基于人体目标检测神经网络模型对所述监控视频图像进行人体目标检测,获得目标人体;
具体地,将获取到的视频监控图像缩放到人体目标检测神经网络模型的输入尺寸,并进行归一化和颜色空间转换等操作,最终构成一张图像输入向量并送入到人体目标检测神经网络模型中,经过模型推理得到人体目标的位置以及置信度。
步骤S106,基于人体骨骼关键点检测神经网络模型对所述目标人体进行人体关键点检测,获得处于所述规则框内的目标人体的双手关键点;具体地,包括两个子步骤:
步骤S1061,基于人体骨骼关键点检测神经网络模型对所述目标人体进行人体关键点检测,以检测得到目标人体双手的位置;具体地,根据获取到的人体目标检测结果在视频监控图像上截取人体目标区域图像,并对该图像区域进行归一化和颜色空间转换等操作,最终构成一张图像输入向量并送入到人体骨骼关键点检测神经网络模型中,经过模型推理得到人体包含手部关键点和手臂关键点在内的18个骨骼关键点位置以及置信度。
步骤S1062,判断所述目标人体双手的位置是否处于所述规则区域内,从而得到落于规则区域内的手部关键点及与该手部关键点连接的手臂关键点,其中手部关键点和手臂关键点构成双手关键点。具体地,判断双手的关键点是否落在规则区域内则使用如下方法,假设规则区域为一个凸四边形,则对于落于凸四边形ABCD的点O,需要O点与四个顶点构成的向量满足如下公式:
对于满足如上公式的双手关键点则认为是落于规则区域内。
步骤S108,对所述双手关键点进行区域分割,得到感兴趣区域,并对感兴趣区域进行初始分类;具体地,包括两个子步骤:
步骤S1081,对所述双手关键点进行区域分割,具体地,以手部关键点位置为中心,以手部关键点到手臂关键点的像素距离为边长,在视频监控图像上分割一块正方形图像区域,作为手套的感兴趣区域。
步骤S1082,基于手套分类模型对所述感兴趣区域进行分类,得到未带手套、带塑胶安全手套、带其他手套三类初始分类的结果。具体地,将获取到的感兴趣区域图像缩放到分类模型的输入尺寸,并进行归一化和颜色空间转换等操作,最终构成一张图像输入向量并送入到分类模型中,经过模型推理得到感兴趣区域的类别以及置信度。
步骤S110,对初始分类后的感兴趣区域进行跟踪,并通过联合投票算法得到感兴趣区域的最终分类结果;具体地,包括两个子步骤:
步骤S1101,对初始分类后的感兴趣区域进行跟踪,并赋予身份识别号,进一步地如图2所示,包括:
提取当前帧感兴趣区域的HOG特征并保存;
计算当前帧感兴趣区域与前一帧跟踪轨迹集合的马氏距离;
计算当前帧感兴趣区域的HOG特征与前一帧跟踪轨迹集合保存的HOG特征的余弦距离;
采用匈牙利算法对当前帧感兴趣区域与前一帧所有的跟踪轨迹进行配对,并赋予身份识别号;其中配对采用距离原则,其中表示第i个感兴趣区域的HOG特征与第j个跟踪轨迹缓存的HOG特征的余弦距离,表示第i个感兴趣区域与第j个跟踪轨迹的马氏距离,为0到1范围内的实数参数。
步骤S1102,根据拥有同一身份识别号的感兴趣区域的多帧初始分类结果进行联合投票,并得到感兴趣区域的最终分类结果,如图4所示为最终效果图,进一步地,包括:
还可以包括根据所述最终分类结果进行提示报警。
综上,本方法通过先检测人体,再根据骨骼关键点来检测手部区域的方法来解决手掌由于像素尺寸过小而漏检率较高的问题,通过检测与分类级联来解决单检测网络分类准确率较低的问题,通过区域跟踪与联合投票的方法来降低操作员操作过程中手由于姿态变化导致的分类错误率较高的问题,通过流水线并行处理的模式降低算法整体耗时,从而达到视频流实时处理。
实施例2:
如图6所示,本实施例还提供一种基于视觉的旋转设备作业手套佩戴检测系统,该为与上述实施例提及的一种基于视觉的旋转设备作业手套佩戴检测方法相对应的虚拟装置,包括:
数据获取模块902,用于获取生产车间中实时生成的监控视频图像,并在监控视频图像中绘制凸多边形规则框,使得整个旋转设备落于规则框内;
人体检测模块904,用于基于人体目标检测神经网络模型对所述监控视频图像进行人体目标检测,获得目标人体;
人体骨骼关键点检测模块906,用于基于人体骨骼关键点检测神经网络模型对所述目标人体进行人体关键点检测,获得处于所述规则框内的目标人体的双手关键点;
具体地,所述人体骨骼关键点检测模块,包括:
人体骨骼关键点检测单元,用于基于人体骨骼关键点检测神经网络模型对所述目标人体进行人体关键点检测,以检测得到目标人体双手的位置;
规则判别单元,用于判断所述目标人体双手的位置是否处于所述规则区域内,从而得到落于规则区域内的手部关键点坐标及与该手部关键点连接的手臂关键点,其中手部关键点和手臂关键点构成双手关键点。
手套分类模块908,用于对所述双手关键点进行区域分割,得到感兴趣区域,并对感兴趣区域进行初始分类;
具体地,所述手套分类模块,包括:
区域分割单元,用于对所述双手关键点进行区域分割,以手部关键点为中心,以手部关键点到手臂关键点的像素距离为边长,分割一块正方形图像区域,作为手套的感兴趣区域;
手套分类单元,用于基于手套分类模型对所述感兴趣区域进行初始分类,得到未带手套、带塑胶安全手套、带其他手套三类结果。
区域跟踪模块910,用于对初始分类后的感兴趣区域进行跟踪,并通过联合投票算法得到感兴趣区域的最终分类结果;
具体地,所述区域跟踪模块,包括:
区域跟踪单元,用于对初始分类后的感兴趣区域进行跟踪,并赋予身份识别号;
联合投票单元,用于根据拥有同一身份识别号的感兴趣区域的多帧初始分类结果进行联合投票,并得到感兴趣区域的最终分类结果。
还可以包括报警模块,用于根据感兴趣区域的最终分类结果进行提示报警。
上述技术方案中,需要说明的是,人体目标检测神经网络模型和人体骨骼关键点检测神经网络模型以及手套分类模型可以是事先训练好的模型,人体目标检测神经网络模型通过一深度卷积神经网络训练而得,该深度卷积神经网络采用的网络结构可以是现有的YOLOv3神经网络架构或YOLOv4神经网络架构等。人体骨骼关键点检测神经网络模型同样通过一深度卷积神经网络训练而得,该深度卷积神经网络采用的网络结构可以是现有的OpenPose或Alphose等神经网络架构等。手套分类模型也是通过一深度卷积神经网络而得,该深度卷积神经网络采用的网络结构可以是现有的ResNet18或者Reset50等神经网络架构。由于人体目标检测神经网络模型和人体骨骼关键点检测神经网络模型以及手套分类网络模型的训练过程采用的是现有的卷积神经网络结构等,而且这三个模型的训练过程也并非本发明要求专利保护的范围,所以这三个模型的训练过程在此不作详细阐述。
本发明中算法的计算量比较大,主要集中在四个模块中:人体检测模块、人体骨骼关键点检测模块、手套分类模块、区域跟踪模块。这四个模块的输入输出相互依赖,如果采用直接级联的方式,会导致算法处理每帧图像耗时较大,难以达到实时处理。因此本发明采用四个模块流水线并行处理的模式,如图5所示,其中T表示的视频图像流的帧号,每个处理模块创建一个算法线程,在线程内只需要从上一模块的结果缓存中得到本模块的输入,然后处理完之后将结果存入自己的结果缓存中,因此每个模块不需要等到所有的模块处理完才能继续运行,算法处理的每帧图像耗时仅由耗时最长的模块决定,而不是四个模块的耗时叠加,从而实现算法实时处理实时视频。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的设备实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于视觉的旋转设备作业手套佩戴检测方法,其特征在于,包括:
获取生产车间中实时生成的监控视频图像,并在所述监控视频图像中绘制凸多边形规则框,使得整个旋转设备落于规则框内;
基于人体目标检测神经网络模型对所述监控视频图像进行人体目标检测,获得目标人体;
基于人体骨骼关键点检测神经网络模型对所述目标人体进行人体关键点检测,获得处于所述规则框内的目标人体的双手关键点;
对所述双手关键点进行区域分割,得到感兴趣区域,并对感兴趣区域进行初始分类;
对初始分类后的感兴趣区域进行跟踪,并通过联合投票算法得到感兴趣区域的最终分类结果。
2.根据权利要求1所述的一种基于视觉的旋转设备作业手套佩戴检测方法,其特征在于,基于人体骨骼关键点检测神经网络模型对所述目标人体进行人体关键点检测,获得处于所述规则框内的目标人体的双手关键点,包括:
基于人体骨骼关键点检测神经网络模型对所述目标人体进行人体关键点检测,以检测得到目标人体双手的位置;
判断所述目标人体双手的位置是否处于所述规则区域内,从而得到落于规则区域内的手部关键点及与该手部关键点连接的手臂关键点,其中手部关键点和手臂关键点构成双手关键点。
3.根据权利要求2所述的一种基于视觉的旋转设备作业手套佩戴检测方法,其特征在于,对所述双手关键点进行区域分割,得到感兴趣区域,并对感兴趣区域进行初始分类,包括:
对所述双手关键点进行区域分割,以手部关键点为中心,以手部关键点到手臂关键点的像素距离为边长,分割一块正方形图像区域,作为手套的感兴趣区域;
基于手套分类模型对所述感兴趣区域进行分类,得到未带手套、带塑胶安全手套、带其他手套三类初始分类的结果。
4.根据权利要求3所述的一种基于视觉的旋转设备作业手套佩戴检测方法,其特征在于,对初始分类后的感兴趣区域进行跟踪,并通过联合投票算法得到感兴趣区域的最终分类结果,包括:
对初始分类后的感兴趣区域进行跟踪,并赋予身份识别号;
根据拥有同一身份识别号的感兴趣区域的多帧初始分类结果进行联合投票,并得到感兴趣区域的最终分类结果。
7.一种基于视觉的旋转设备作业手套佩戴检测系统,其特征在于,包括:
数据获取模块,用于获取生产车间中实时生成的监控视频图像,并在监控视频图像中绘制凸多边形规则框,使得整个旋转设备落于规则框内;
人体检测模块,用于基于人体目标检测神经网络模型对所述监控视频图像进行人体目标检测,获得目标人体;
人体骨骼关键点检测模块,用于基于人体骨骼关键点检测神经网络模型对所述目标人体进行人体关键点检测,获得处于所述规则框内的目标人体的双手关键点;
手套分类模块,用于对所述双手关键点进行区域分割,得到感兴趣区域,并对感兴趣区域进行初始分类;
区域跟踪模块,用于对初始分类后的感兴趣区域进行跟踪,并通过联合投票算法得到感兴趣区域的最终分类结果;
报警模块,用于根据感兴趣区域的最终分类结果进行提示报警。
8.根据权利要求7所述的一种基于视觉的旋转设备作业手套佩戴检测系统,其特征在于,所述人体骨骼关键点检测模块,包括:
人体骨骼关键点检测单元,用于基于人体骨骼关键点检测神经网络模型对所述目标人体进行人体关键点检测,以检测得到目标人体双手的位置;
规则判别单元,用于判断所述目标人体双手的位置是否处于所述规则区域内,从而得到落于规则区域内的手部关键点坐标及与该手部关键点连接的手臂关键点,其中手部关键点和手臂关键点构成双手关键点。
9.根据权利要求8所述的一种基于视觉的旋转设备作业手套佩戴检测系统,其特征在于,所述手套分类模块,包括:
区域分割单元,用于对所述双手关键点进行区域分割,以手部关键点为中心,以手部关键点到手臂关键点的像素距离为边长,分割一块正方形图像区域,作为手套的感兴趣区域;
手套分类单元,用于基于手套分类模型对所述感兴趣区域进行初始分类,得到未带手套、带塑胶安全手套、带其他手套三类结果。
10.根据权利要求9所述的一种基于视觉的旋转设备作业手套佩戴检测系统,其特征在于,所述区域跟踪模块,包括:
区域跟踪单元,用于对初始分类后的感兴趣区域进行跟踪,并赋予身份识别号;
联合投票单元,用于根据拥有同一身份识别号的感兴趣区域的多帧初始分类结果进行联合投票,并得到感兴趣区域的最终分类结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010613767.7A CN111507317B (zh) | 2020-06-30 | 2020-06-30 | 一种基于视觉的旋转设备作业手套佩戴检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010613767.7A CN111507317B (zh) | 2020-06-30 | 2020-06-30 | 一种基于视觉的旋转设备作业手套佩戴检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111507317A true CN111507317A (zh) | 2020-08-07 |
CN111507317B CN111507317B (zh) | 2020-10-23 |
Family
ID=71875363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010613767.7A Active CN111507317B (zh) | 2020-06-30 | 2020-06-30 | 一种基于视觉的旋转设备作业手套佩戴检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111507317B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112084984A (zh) * | 2020-09-15 | 2020-12-15 | 山东鲁能软件技术有限公司 | 一种基于改进的Mask RCNN的扶梯动作检测方法 |
CN112257492A (zh) * | 2020-08-27 | 2021-01-22 | 重庆科技学院 | 一种多路摄像头实时入侵检测与跟踪方法 |
CN112347916A (zh) * | 2020-11-05 | 2021-02-09 | 安徽继远软件有限公司 | 基于视频图像分析的电力现场作业安全监控方法及装置 |
CN112580552A (zh) * | 2020-12-23 | 2021-03-30 | 中山大学 | 一种鼠类行为分析方法及装置 |
CN112949439A (zh) * | 2021-02-19 | 2021-06-11 | 中国石油天然气集团有限公司 | 一种油罐车重点区域人员入侵监测方法和系统 |
CN114677633A (zh) * | 2022-05-26 | 2022-06-28 | 之江实验室 | 基于多部件特征融合的行人检测多目标跟踪系统及方法 |
CN115471874A (zh) * | 2022-10-28 | 2022-12-13 | 山东新众通信息科技有限公司 | 基于监控视频的施工现场危险行为识别方法 |
CN117115861A (zh) * | 2023-10-19 | 2023-11-24 | 四川弘和数智集团有限公司 | 手套检测方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140018819A1 (en) * | 2012-07-16 | 2014-01-16 | Anil K Raj | Anthro-Centric Multisensory Interface for Sensory Augmentation of Telesurgery |
CN110084201A (zh) * | 2019-04-29 | 2019-08-02 | 福州大学 | 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法 |
CN110674772A (zh) * | 2019-09-29 | 2020-01-10 | 国家电网有限公司技术学院分公司 | 电力作业现场智能安全管控辅助系统及方法 |
CN110705520A (zh) * | 2019-10-22 | 2020-01-17 | 上海眼控科技股份有限公司 | 目标检测方法、装置、计算机设备和计算机可读存储介质 |
CN111222379A (zh) * | 2018-11-27 | 2020-06-02 | 株式会社日立制作所 | 一种手部检测方法及装置 |
-
2020
- 2020-06-30 CN CN202010613767.7A patent/CN111507317B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140018819A1 (en) * | 2012-07-16 | 2014-01-16 | Anil K Raj | Anthro-Centric Multisensory Interface for Sensory Augmentation of Telesurgery |
CN111222379A (zh) * | 2018-11-27 | 2020-06-02 | 株式会社日立制作所 | 一种手部检测方法及装置 |
CN110084201A (zh) * | 2019-04-29 | 2019-08-02 | 福州大学 | 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法 |
CN110674772A (zh) * | 2019-09-29 | 2020-01-10 | 国家电网有限公司技术学院分公司 | 电力作业现场智能安全管控辅助系统及方法 |
CN110705520A (zh) * | 2019-10-22 | 2020-01-17 | 上海眼控科技股份有限公司 | 目标检测方法、装置、计算机设备和计算机可读存储介质 |
Non-Patent Citations (4)
Title |
---|
CHENG-BIN JIN 等: "Real-Time Action Detection in Video Surveillance using Sub-Action Descriptor with Multi-CNN", 《ARXIV:1710.03383 [CS.CV]》 * |
乔虹 等: "基于时序图像跟踪的葡萄叶片病害动态监测", 《农业工程学报》 * |
何超: "基于改进YOLOv3的安全帽检测系统研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
李明等: "基于视频图像处理的实验室异常行为检测", 《实验技术与管理》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112257492A (zh) * | 2020-08-27 | 2021-01-22 | 重庆科技学院 | 一种多路摄像头实时入侵检测与跟踪方法 |
CN112084984A (zh) * | 2020-09-15 | 2020-12-15 | 山东鲁能软件技术有限公司 | 一种基于改进的Mask RCNN的扶梯动作检测方法 |
CN112347916A (zh) * | 2020-11-05 | 2021-02-09 | 安徽继远软件有限公司 | 基于视频图像分析的电力现场作业安全监控方法及装置 |
CN112347916B (zh) * | 2020-11-05 | 2023-11-17 | 安徽继远软件有限公司 | 基于视频图像分析的电力现场作业安全监控方法及装置 |
CN112580552A (zh) * | 2020-12-23 | 2021-03-30 | 中山大学 | 一种鼠类行为分析方法及装置 |
CN112580552B (zh) * | 2020-12-23 | 2023-12-12 | 中山大学 | 一种鼠类行为分析方法及装置 |
CN112949439A (zh) * | 2021-02-19 | 2021-06-11 | 中国石油天然气集团有限公司 | 一种油罐车重点区域人员入侵监测方法和系统 |
CN114677633A (zh) * | 2022-05-26 | 2022-06-28 | 之江实验室 | 基于多部件特征融合的行人检测多目标跟踪系统及方法 |
CN115471874A (zh) * | 2022-10-28 | 2022-12-13 | 山东新众通信息科技有限公司 | 基于监控视频的施工现场危险行为识别方法 |
CN115471874B (zh) * | 2022-10-28 | 2023-02-07 | 山东新众通信息科技有限公司 | 基于监控视频的施工现场危险行为识别方法 |
CN117115861A (zh) * | 2023-10-19 | 2023-11-24 | 四川弘和数智集团有限公司 | 手套检测方法、装置、电子设备及存储介质 |
CN117115861B (zh) * | 2023-10-19 | 2024-01-26 | 四川弘和数智集团有限公司 | 手套检测方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111507317B (zh) | 2020-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111507317B (zh) | 一种基于视觉的旋转设备作业手套佩戴检测方法及系统 | |
CN110188724B (zh) | 基于深度学习的安全帽定位与颜色识别的方法及系统 | |
CN111488804B (zh) | 基于深度学习的劳保用品佩戴情况检测和身份识别的方法 | |
CN109670441B (zh) | 一种实现安全帽穿戴识别的方法、系统、终端以及计算机可读存储介质 | |
Son et al. | Integrated worker detection and tracking for the safe operation of construction machinery | |
Gowsikhaa et al. | Suspicious Human Activity Detection from Surveillance Videos. | |
CN110751022A (zh) | 基于图像识别的城市宠物活动轨迹监测方法及相关设备 | |
Devasena et al. | Video surveillance systems-a survey | |
Bhuyan et al. | Fingertip detection for hand pose recognition | |
CN112396658A (zh) | 一种基于视频的室内人员定位方法及定位系统 | |
CN110991315A (zh) | 一种基于深度学习的安全帽佩戴状态实时检测方法 | |
JP2021527256A (ja) | ビジョンシステムで画像内のパターンを検出及び分類するためのシステム及び方法 | |
Jin et al. | DWCA-YOLOv5: An improve single shot detector for safety helmet detection | |
CN113111844A (zh) | 一种作业姿态评估方法、装置、本地终端及可读存储介质 | |
Wang et al. | Gesture recognition by using kinect skeleton tracking system | |
Chen et al. | Simple face-detection algorithm based on minimum facial features | |
CN115861940A (zh) | 基于人体跟踪及识别技术的工作场景行为评估方法及系统 | |
CN112464850A (zh) | 图像处理方法、装置、计算机设备及介质 | |
CN113505770B (zh) | 快递行业衣着发饰异常检测方法及系统、电子设备 | |
CN114170686A (zh) | 一种基于人体关键点的屈肘行为检测方法 | |
RU2750419C1 (ru) | Система и способ идентификации экипировки на человеке | |
CN116682034A (zh) | 一种复杂生产作业场景下危险行为检测方法 | |
Kuang et al. | An effective skeleton extraction method based on Kinect depth image | |
CN113762221B (zh) | 人体检测方法及装置 | |
Lin | Safety Helmet Detection Based on Improved YOLOv8 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |