CN110210274A - 安全帽检测方法、装置及计算机可读存储介质 - Google Patents
安全帽检测方法、装置及计算机可读存储介质 Download PDFInfo
- Publication number
- CN110210274A CN110210274A CN201810168615.3A CN201810168615A CN110210274A CN 110210274 A CN110210274 A CN 110210274A CN 201810168615 A CN201810168615 A CN 201810168615A CN 110210274 A CN110210274 A CN 110210274A
- Authority
- CN
- China
- Prior art keywords
- video pictures
- target
- region
- human body
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种安全帽检测方法、装置及计算机可读存储介质,属于图像处理技术领域。该方法包括:从当前时间拍摄的视频画面中确定需要进行安全帽检测的目标对象,获取N帧视频画面来确定目标对象是否佩戴安全帽。目标对象是指从视频画面中检测到的任一人体特征区域对应的对象,由于该人体特征区域是指描述人体整体结构特征或人体肩部结构特征的区域,因此当摄像机距离目标对象较远时,人体特征区域相对于头部特征区域更容易被检测到,避免出现由于检测不到头部特征区域而产生错误的判断结果的情况。另外,本发明实施例是根据N帧视频画面来综合判断目标对象是否佩戴安全帽,同样可以避免出现由于头部特征区域被遮挡而产生错误的判断结果的情况。
Description
技术领域
本发明涉及图像处理技术领域,特别涉及一种安全帽检测方法、装置及计算机可读存储介质。
背景技术
目前,在诸如施工场地等场合中,为了确保该场合中的对象的人身安全,需对该场合中的对象是否佩戴安全帽进行监管,也即,需要检测该场合中的对象是否佩戴了安全帽。
相关技术中,当需要对该场合中的对象是否佩戴安全帽进行检测时,获取针对该场合拍摄的视频画面,确定该视频画面中是否存在头部特征区域,当该视频画面中存在头部特征区域时,确定检测到该场合中的对象,并根据该头部特征区域确定该对象是否佩戴了安全帽。
由于上述安全帽检测方法是根据视频画面中的头部特征区域来确定该对象是否佩戴了安全帽,因此,若在某些特殊场景中无法检测到该头部特征区域,则容易出现错误的判断结果,从而影响安全帽检测的准确率。比如,当该视频画面中该对象的头部被遮挡时,或者,当拍摄该视频画面的摄像头距离该对象较远时,都可能出现无法检测到该头部特征区域的情况。
发明内容
为了解决相关技术的问题,本发明实施例提供了一种安全帽检测方法、装置以及计算机可读存储介质。所述技术方案如下:
第一方面,提供了一种安全帽检测方法,所述方法包括:
从当前时间拍摄的视频画面中确定需要进行安全帽检测的目标对象,所述目标对象是指从所述视频画面中检测到的任一人体特征区域对应的对象,所述人体特征区域是指描述人体整体结构特征或人体肩部结构特征的区域;
获取从当前时间开始的预设时长内拍摄的N帧视频画面,所述N帧视频画面中均包括所述目标对象,所述N为大于1的正整数;
根据所述N帧视频画面确定所述目标对象是否佩戴安全帽。
可选地,所述从当前时间拍摄的视频画面中确定需要进行安全帽检测的目标对象,包括:
通过第一检测模型对所述当前时间拍摄的视频画面进行处理,所述第一检测模型是根据多张图像和在每张图像中标定的人体特征区域训练得到;
当所述第一检测模型的输出结果为至少一个人体特征区域时,将所述至少一个人体特征区域中任一人体特征区域对应的对象确定为所述目标对象。
可选地,所述根据所述N帧视频画面确定所述目标对象是否佩戴安全帽,包括:
对每帧视频画面进行处理,得到与每帧视频画面对应的检测结果,所述检测结果为佩戴安全帽、未佩戴安全帽和未检测到所述目标对象的头部特征区域中的一个;
确定所述N帧视频画面中检测结果为佩戴安全帽的视频画面的帧数与所述N之间的比值;
若确定出的比值大于预设数值,则确定所述目标对象佩戴安全帽;
若确定出的比值小于或等于所述预设数值,则确定所述目标对象没有佩戴安全帽。
可选地,所述对每帧视频画面进行处理,包括:
对于所述N帧视频画面中任一视频画面A,根据所述当前时间拍摄的视频画面中的所述目标对象的人体特征区域,从所述视频画面A包括的至少一个人体特征区域中确定目标人体特征区域,所述目标人体特征区域与所述当前时间拍摄的视频画面中的所述目标对象的人体特征区域之间的相似度大于预设相似度;
从所述视频画面A中查找与所述目标人体特征区域匹配的目标头部特征区域;
若查找到所述目标头部特征区域,则根据所述目标头部特征区域确定所述视频画面A中所述目标对象是否佩戴安全帽;
若没有查找到所述目标头部特征区域,则确定所述视频画面A中未检测到所述目标对象的头部特征区域。
可选地,所述根据所述目标头部特征区域确定所述视频画面A中所述目标对象是否佩戴安全帽,包括:
通过第一分类模型对所述目标头部特征区域进行处理,所述第一分类模型是根据多张佩戴安全帽的头部图像和多张不佩戴安全帽的头部图像训练得到;
当所述第一分类模型的输出结果为佩戴安全帽时,确定所述视频画面A中所述目标对象佩戴安全帽;
当所述第一分类模型的输出结果为未佩戴安全帽时,确定所述视频画面A中所述目标对象未佩戴安全帽。
可选地,所述从所述视频画面A中查找与所述目标人体特征区域匹配的目标头部特征区域,包括:
通过第二检测模型对所述视频画面A进行处理,所述第二检测模型是根据多张图像和在每张图像中标定的头部特征区域训练得到;
当所述第二检测模型的输出结果为不存在头部特征区域时,确定没有查找到所述目标头部特征区域;
当所述第二检测模型的输出结果为至少一个头部特征区域时,从所述至少一个头部特征区域中查找所述目标头部特征区域。
可选地,所述从所述至少一个头部特征区域中查找所述目标头部特征区域之后,还包括:
若所述至少一个头部特征区域中不存在所述目标头部特征区域,则确定没有查找到所述目标头部特征区域。
可选地,所述对每帧视频画面进行处理之后,还包括:
从所述N帧视频画面中选择所述目标对象佩戴安全帽的视频画面,得到M帧视频画面,所述M为小于或等于N的正整数;
通过第二分类模型对所述M帧视频画面中每帧视频画面中的目标头部特征区域进行处理,所述第二分类模型是根据多张佩戴安全帽的头部图像和在每张头部图像中标定的安全帽颜色训练得到;
根据所述第二分类模型的输出结果,确定每帧视频画面中所述目标头部特征区域对应的安全帽颜色;
根据所述M帧视频画面中的每帧视频画面中所述目标头部特征区域对应的安全帽颜色,确定所述目标对象佩戴的安全帽的颜色。
可选地,所述确定所述目标对象没有佩戴安全帽之后,还包括:
生成告警信息,用于提示所述目标对象需要佩戴安全帽。
第二方面,提供了一种安全帽检测装置,所述装置包括:
第一确定模块,用于从当前时间拍摄的视频画面中确定需要进行安全帽检测的目标对象,所述目标对象是指从所述视频画面中检测到的任一人体特征区域对应的对象,所述人体特征区域是指描述人体整体结构特征或人体肩部结构特征的区域;
获取模块,用于获取从当前时间开始的预设时长内拍摄的N帧视频画面,所述N帧视频画面中均包括所述目标对象,所述N为大于1的正整数;
第二确定模块,用于根据所述N帧视频画面确定所述目标对象是否佩戴安全帽。
可选地,所述第一确定模块,具体用于:
通过第一检测模型对所述当前时间拍摄的视频画面进行处理,所述第一检测模型是根据多张图像和在每张图像中标定的人体特征区域训练得到;
当所述第一检测模型的输出结果为至少一个人体特征区域时,将所述至少一个人体特征区域中任一人体特征区域对应的对象确定为所述目标对象。
可选地,所述第二确定模块包括:
第一确定子模块,用于对每帧视频画面进行处理,得到与每帧视频画面对应的检测结果,所述检测结果为佩戴安全帽、未佩戴安全帽和未检测到所述目标对象的头部特征区域中的一个;
第二确定子模块,用于确定所述N帧视频画面中检测结果为佩戴安全帽的视频画面的帧数与所述N之间的比值;
第三确定子模块,用于若确定出的比值大于预设数值,则确定所述目标对象佩戴安全帽;
第四确定子模块,用于若确定出的比值小于或等于所述预设数值,则确定所述目标对象没有佩戴安全帽。
可选地,所述第一确定子模块包括:
第一确定单元,用于对于所述N帧视频画面中任一视频画面A,根据所述当前时间拍摄的视频画面中的所述目标对象的人体特征区域,从所述视频画面A包括的至少一个人体特征区域中确定目标人体特征区域,所述目标人体特征区域与所述当前时间拍摄的视频画面中的所述目标对象的人体特征区域之间的相似度大于预设相似度;
查找单元,用于从所述视频画面A中查找与所述目标人体特征区域匹配的目标头部特征区域;
第二确定单元,用于若查找到所述目标头部特征区域,则根据所述目标头部特征区域确定所述视频画面A中所述目标对象是否佩戴安全帽;
第三确定单元,用于若没有查找到所述目标头部特征区域,则确定所述视频画面A中未检测到所述目标对象的头部特征区域。
可选地,所述第二确定单元,具体用于:
通过第一分类模型对所述目标头部特征区域进行处理,所述第一分类模型是根据多张佩戴安全帽的头部图像和多张不佩戴安全帽的头部图像训练得到;
当所述第一分类模型的输出结果为佩戴安全帽时,确定所述视频画面A中所述目标对象佩戴安全帽;
当所述第一分类模型的输出结果为未佩戴安全帽时,确定所述视频画面A中所述目标对象未佩戴安全帽。
可选地,所述查找单元,具体用于:
通过第二检测模型对所述视频画面A进行处理,所述第二检测模型是根据多张图像和在每张图像中标定的头部特征区域训练得到;
当所述第二检测模型的输出结果为不存在头部特征区域时,确定没有查找到所述目标头部特征区域;
当所述第二检测模型的输出结果为至少一个头部特征区域时,从所述至少一个头部特征区域中查找所述目标头部特征区域。
可选地,所述查找单元,还具体用于:
若所述至少一个头部特征区域中不存在所述目标头部特征区域,则确定没有查找到所述目标头部特征区域。
可选地,所述第二确定模块还包括:
选择子模块,用于从所述N帧视频画面中选择所述目标对象佩戴安全帽的视频画面,得到M帧视频画面,所述M为小于或等于N的正整数;
处理子模块,用于通过第二分类模型对所述M帧视频画面中每帧视频画面中的目标头部特征区域进行处理,所述第二分类模型是根据多张佩戴安全帽的头部图像和在每张头部图像中标定的安全帽颜色训练得到;
第五确定子模块,用于根据所述第二分类模型的输出结果,确定每帧视频画面中所述目标头部特征区域对应的安全帽颜色;
第六确定子模块,用于根据所述M帧视频画面中的每帧视频画面中所述目标头部特征区域对应的安全帽颜色,确定所述目标对象佩戴的安全帽的颜色。
可选地,所述第二确定模块还包括:
生成子模块,用于生成告警信息,用于提示所述目标对象需要佩戴安全帽。
第三方面,提供了一种安全帽检测装置,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行上述第一方面所述的任一项方法的步骤。
第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,所述指令被处理器执行时实现上述第一方面所述的任一方法的步骤。
根据本公开实施例的第五方面,提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面所述的任一方法的步骤。
本发明实施例提供的技术方案带来的有益效果是:
在本发明实施例中,当从当前时间拍摄的视频画面中确定需要进行安全帽检测的目标对象时,获取N帧视频画面,并根据N帧视频画面确定目标对象是否佩戴安全帽。其中,目标对象是指从视频画面中检测到的任一人体特征区域对应的对象,也即,在本发明实施例中,是通过检测人体特征区域来检测目标对象的,而不是根据头部特征区域来检测目标对象的。由于该人体特征区域是指描述人体整体结构特征或人体肩部结构特征的区域,因此当摄像机距离目标对象较远时,人体特征区域相对于头部特征区域更容易被检测到,避免出现由于检测不到头部特征区域而产生错误的判断结果的情况。另外,本发明实施例是根据N帧视频画面来综合判断目标对象是否佩戴安全帽,同样可以避免出现由于头部特征区域被遮挡而产生错误的判断结果的情况。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种安全帽检测方法流程图;
图2A是本发明实施例提供的一种安全帽检测装置框图;
图2B是本发明实施例提供的一种第二确定模块框图;
图2C是本发明实施例提供的一种第二确定子模块框图;
图3是本发明实施例提供的另一种安全帽检测装置框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
在对本发明实施例进行详细的解释说明之前,先对本发明实施例的应用场景予以介绍。目前,在诸如施工场地等场合中,容易出现高空坠落物砸伤到工作人员的情况发生,而安全帽可以对高空坠落物的冲击起到缓冲作用,因此,为了保护该场合中的工作人员的人身安全,需对该场合中的工作人员是否佩戴安全帽进行监管。本发明实施例提供的安全帽检测方法就应用于对该场合中的工作人员是否佩戴安全帽进行监管的场景。
图1是本发明实施例提供的一种安全帽检测方法流程图,应用于安全帽检测装置中,该安全帽检测装置可以为终端,也可以为服务器,本发明实施例在此不做具体限定。如图1所示,该方法包括如下步骤:
步骤101:从当前时间拍摄的视频画面中确定需要进行安全帽检测的目标对象,该目标对象是指从该视频画面中检测到的任一人体特征区域对应的对象,该人体特征区域是指描述人体整体结构特征或人体肩部结构特征的区域。
在本发明实施例中,为了提高从视频画面中检测到目标对象的准确率,将人体特征区域作为目标对象的检测目标,也即,当在视频画面中检测到目标对象的人体特征区域时,确定检测到该目标对象。
在一种可能的实现方式中,通过第一检测模型对该当前时间拍摄的视频画面进行处理,该第一检测模型是根据多张图像和在每张图像中标定的人体特征区域训练得到,当该第一检测模型的输出结果为至少一个人体特征区域时,将该至少一个人体特征区域中任一人体特征区域对应的对象确定为该目标对象。
也即,预先通过多张图像和在每张图像中标定的人体特征区域对第一检测模型进行训练,以使该第一检测模型可以识别出图像中的人体特征区域,因此,当将当前时间拍摄的视频画面作为该第一检测模型的输入时,第一检测模型将输出在该当前时间拍摄的视频画面中检测到的人体特征区域。若第一检测模型在该当前时间拍摄的视频画面中检测到至少一个人体特征区域,则将该至少一个人体特征区域中任一人体特征区域对应的对象确定为目标对象。
实际应用中,通过上述步骤101,可以分别将第一检测模型输出的至少一个人体特征区域中的每个人体特征区域进行标记,标记为不同的对象,对于该至少一个对象中的任一对象通过下述步骤102至步骤103确定该对象是否佩戴了安全帽。
比如,第一检测模型对该当前时间拍摄的视频画面处理之后,得到3个人体特征区域:人体特征区域1、人体特征区域2和人体特征区域3。此时,可以将人体特征区域1对应的对象标记为对象1,人体特征区域2对应的对象标记为对象2,人体特征区域3对应的对象标记为对象3。针对对象1、对象2和对象3中的任一对象,将该任一对象确定为目标对象,并通过下述步骤102和步骤103确定该目标对象是否佩戴了安全帽。
其中,该人体特征区域是指描述人体整体结构特征或人体肩部结构特征的区域。具体地,在不同的场景中,可以对该人体特征区域进行不同的设置。
在一种可能的实现方式中,若场合中基本不存在可能遮挡对象的建筑物,此时该场合中的对象的人体整体结构容易被检测到,此时可以将该人体整体结构特征确定为该人体特征区域。若场合中存在一些可能遮挡对象的建筑物,此时该场合中的对象的肩部结构更容易被检测到,可以将人体肩部结构特征作为人体特征区域。
也即,在实际应用中,可以根据需进行安全帽检测的场合中的具体场景的情况,将视频画面中的人体整体结构特征的区域或人体肩部结构特征的区域确定为人体特征区域。
需要说明的是,上述第一检测模型是基于深度学习技术确定的。实际应用中,还可以基于AdaBoost(一种迭代算法)技术确定,还可以基于DPM(defects per million,百万分缺陷数)技术确定,本发明实施例在此不做具体限定。
需要说明的是,在步骤101中,可以直接根据当前时间拍摄的视频画面的原图来确定目标对象。进一步地,可以将当前时间拍摄的视频画面的原图进行压缩,根据压缩之后的图像确定目标对象,以降低确定目标对象过程中的计算工作量,从而提高了从当前时间拍摄的视频画面中确定目标对象的效率。
步骤102:获取从当前时间开始的预设时长内拍摄的N帧视频画面,该N帧视频画面中均包括该目标对象,该N为大于1的正整数。
当通过步骤101在当前时间拍摄的视频画面中确定出目标对象时,为了避免由于该当前时间拍摄的视频画面中该目标对象的头部被遮挡而导致无法判断目标对象是否佩戴安全帽,需获取从当前时间开始的预设时长内拍摄的N帧视频画面,以根据该N帧视频画面综合判断目标对象是否佩戴安全帽。
其中,预设时长为预先设置的时长,另外,为了避免预设时长内该目标对象已走出拍摄区域,该预设时长不宜设置过大,也即,在该预设时长内,该目标对象仍在拍摄区域内,也即,该N帧视频画面中均包括该目标对象。
比如,该预设时长可以为预先10s、15s或20s等等。当该预设时长为10s时,若在摄像机录制的视频中,1s包括25帧视频画面,则此时N为250,也即,通过步骤102,获取到250帧视频画面。
步骤103:根据该N帧视频画面确定该目标对象是否佩戴安全帽。
步骤103的实现方式可以为:对每帧视频画面进行处理,得到与每帧视频画面对应的检测结果,该检测结果为佩戴安全帽、未佩戴安全帽和未检测到目标对象的头部特征区域中的一个。然后,根据该N帧视频画面中与每帧视频画面对应的检测结果,确定该目标对象是否佩戴安全帽。
由于N帧视频画面中,可能存在某些视频画面中该目标对象的头部被遮挡,因此在一种可能的实现方式中,当确定出与每帧视频画面对应的检测结果时,确定该N帧视频画面中检测结果为佩戴安全帽的视频画面的帧数与该N之间的比值;若确定出的比值大于预设数值,则确定该目标对象佩戴安全帽;若确定出的比值小于或等于该预设数值,则确定该目标对象没有佩戴安全帽。
也即,统计该N帧视频画面中每帧视频画面的检测结果,并根据统计的检测结果,综合确定该目标对象是否佩戴安全帽。
其中,预设数值为预先设置的数值,该预设数值可以为0.7、0.8或0.9等。
比如,该预设数值为0.7,当确定出的比值大于0.7时,表明该N帧视频画面中有70%的视频画面中该目标对象都佩戴了安全帽,此时,则可以确定该目标对象佩戴安全帽。
下面以该N帧视频画面中任一视频画面A为例说明对每帧视频画面进行处理的实现方式,具体地,对每帧视频画面进行处理可以通过以下4个步骤实现。
(1)根据该当前时间拍摄的视频画面中的该目标对象的人体特征区域,从该视频画面A包括的至少一个人体特征区域中确定目标人体特征区域,该目标人体特征区域与该当前时间拍摄的视频画面中的该目标对象的人体特征区域之间的相似度大于预设相似度。
由于目标对象是指从该视频画面中检测到的任一人体特征区域对应的对象,也即,在该当前时间拍摄的视频画面中已经确定出该目标对象的人体特征区域,因此,可以从视频画面A包括的至少一个人体特征区域中选择一个人体特征区域作为该目标对象的人体特征区域,也即,选择目标人体特征区域作为该目标对象的人体特征区域,以实现对该目标对象的追踪。
在一种可能的实现方式中,对于视频画面A包括的至少一个人体特征区域中的每个人体特征区域,确定该人体特征区域与当前时间拍摄的视频画面中的该目标对象的人体特征区域之间的相似度,得到该视频画面A包括的至少一个人体特征区域中的每个人体特征区域的相似度。并将相似度大于预设相似度对应的人体特征区域确定为目标人体特征区域,也即,将该目标人体特征区域作为该视频画面A中的目标对象的人体特征区域。
其中,预设相似度为预先设置的数值,该预设相似度可以为90%、95%或97%等。
比如,预设相似度为95%,视频画面A包括三个人体特征区域,该三个人体特征区域与当前时间拍摄的视频画面中的该目标对象的人体特征区域之间的相似度分别为20%、60%和95%。其中,95%的人体特征区域与当前时间拍摄的视频画面中的该目标对象的人体特征区域之间的相似度几乎完全相同,因此,95%的人体特征区域最有可能是视频画面A中目标对象的人体特征区域,也即,此时可以将95%的人体特征区域确定为目标人体特征区域。
需要说明的是,上述确定目标人体特征区域是通过特征匹配的方式确定的,实际应用中,还可以通过传统的粒子滤波技术或meanshift(聚类算法)技术确定,本发明实施例在此不再详细阐述。
另外,该视频画面A包括的至少一个人体特征区域是通过步骤101中的第一检测模型确定的,也即,通过第一检测模型对该视频画面A进行处理,将该第一检测模型输出的至少一个人体特征区域作为该视频画面A包括的至少一个人体特征区域。
(2)从该视频画面A中查找与该目标人体特征区域匹配的目标头部特征区域。
由于此时视频画面A中可能存在目标对象的头部特征区域,也可能不存在目标对象的头部特征区域,因此,当确定出视频画面A中的目标人体特征区域之后,还需查找与该目标人体特征区域匹配的目标头部特征区域,以使目标人体特征区域与目标头部特征区域进行关联,实现人体-头部结构化。
具体地,通过第二检测模型对该视频画面A进行处理,该第二检测模型是根据多张图像和在每张图像中标定的头部特征区域训练得到。
当该第二检测模型的输出结果为不存在头部特征区域时,确定没有查找到该目标头部特征区域。
当该第二检测模型的输出结果为至少一个头部特征区域时,从该至少一个头部特征区域中查找该目标头部特征区域。
其中,从该至少一个头部特征区域中查找该目标头部特征区域的实现方式可以为:在视频画面A中,根据目标人体特征区域所在的位置和目标人体特征区域的大小,同时考虑人体比例和摄像机的架构方式,确定一个目标区域,该目标区域是指与该目标人体区域匹配的头部特征区最有可能出现的区域。之后,将该至少一个头部特征区域中的每个头部特征区域与该目标区域进行比较,确定两者之间的重叠程度,并将重叠程度最大的头部特征区域确定为目标头部特征区域。
当然,从该至少一个头部特征区域中查找与该目标人体特征区域匹配的目标头部特征区域也可以通过其他方式来实现,比如,通过最近邻匹配、匈牙利关联等技术来实现,本发明实施例在此不再详细说明。
相应地,当从该至少一个头部特征区域中没有查找到该目标头部特征区域时,也即,若该至少一个头部特征区域中不存在该目标头部特征区域,此时,则确定没有查找到该目标头部特征区域。
在查找与该目标人体特征区域匹配的目标头部特征区域之后,若查找到该目标头部特征区域,则通过下述步骤(3)确定视频画面A的检测结果,若没有查找到该目标头部特征区域,则通过下述步骤(4)确定视频画面A的检测结果。
另外需要说明的是,实际应用中,步骤103中的第二检测模型和步骤101中的第一检测模型可以为同一个模型,也即,预先对多张图像和在每张图像中标定的人体特征区域和人头特征区域进行训练,以使训练之后的模型可以同时识别出视频画面中的人体特征区域和头部特征区域。
(3)若查找到该目标头部特征区域,则根据该目标头部特征区域确定该视频画面A中该目标对象是否佩戴安全帽。
在一种可能的实现方式中,通过第一分类模型对该目标头部特征区域进行处理,该第一分类模型是根据多张佩戴安全帽的头部图像和多张不佩戴安全帽的头部图像训练得到;当该第一分类模型的输出结果为佩戴安全帽时,确定该视频画面A中该目标对象佩戴安全帽;当该第一分类模型的输出结果为未佩戴安全帽时,确定该视频画面A中该目标对象未佩戴安全帽。
也即,预先通过多张佩戴安全帽的头部图像和多张不佩戴安全帽的头部图像训练得到第一分类模型,以使将该第一分类模型可以识别任何头部图像是否佩戴了安全帽。
需要说明的是,在步骤103中,可以直接根据视频画面A的原图确定视频画面A中的目标头部特征区域。当然,也可以将视频画面A的原图进行压缩,根据压缩之后的图像确定目标头部特征区域,此时,在确定出压缩之后的视频画面A中的目标头部特征区域之后,从该视频画面A的原图中查找与确定的目标头部特征区域匹配的原图区域,再通过第一分类模型根据查找到的原图区域确定视频画面A中目标对象未佩戴安全帽。
(4)若没有查找到该目标头部特征区域,则确定视频画面A中未检测到目标对象的头部特征区域。
由上述步骤(2)可知,在两种场景中将出现没有查找到该目标头部特征区域的情况,一种场景是该视频画面A中不存在任何头部特征区域,另一种场景是在视频画面A包括的至少一个头部特征区域中没有查找到匹配的目标头部特征区域,也即,在这两种场景中,可以确定视频画面A中未检测到目标对象的头部特征区域。
进一步地,在本发明实施例中,当在视频画面A中确定目标对象佩戴安全帽之后,还可以进一步确定在视频画面A中佩戴的安全帽的颜色,并根据视频画面A中佩戴的安全帽的颜色确定该目标对象佩戴的安全帽的颜色。
也即,在对每帧视频画面进行处理之后,从该N帧视频画面中选择该目标对象佩戴安全帽的视频画面,得到M帧视频画面,该M为小于或等于N的正整数。通过第二分类模型对该M帧视频画面中每帧视频画面中的目标头部特征区域进行处理,该第二分类模型是根据多张佩戴安全帽的头部图像和在每张头部图像中标定的安全帽颜色训练得到。根据该第二分类模型的输出结果,确定每帧视频画面中该目标头部特征区域对应的安全帽颜色。根据该M帧视频画面中的每帧视频画面中该目标头部特征区域对应的安全帽颜色,确定该目标对象佩戴的安全帽的颜色。
其中,根据该M帧视频画面中的每帧视频画面中该目标头部特征区域对应的安全帽颜色,确定该目标对象佩戴的安全帽的颜色的实现方式可以为:按照每帧视频画面中该目标头部特征区域对应的安全帽颜色的不同,对该M帧视频画面进行分类,得到各个安全帽颜色对应的视频画面集合,将包括的视频画面帧数最大的视频画面集合对应的安全帽颜色确定为该目标对象佩戴的安全帽的颜色。
值得注意的是,当各个安全帽颜色对应的视频画面集合中包括的视频画面帧数完全相同时,可以将预先设置的置信度最大的安全帽颜色确定为该目标对象佩戴的安全帽的颜色。
也即,预先针对不同的安全帽颜色设置对应的置信度,当各个安全帽颜色对应的视频画面集合中包括的视频画面帧数完全相同时,确定该各个安全帽颜色的置信度,并将该置信度最大的安全帽颜色确定为该目标对象佩戴的安全帽的颜色。
另外,当根据该N帧视频画面确定该目标对象没有佩戴安全帽之后,还可以生成告警信息,用于提示该目标对象需要佩戴安全帽。
在本发明实施例中,当从当前时间拍摄的视频画面中确定需要进行安全帽检测的目标对象时,获取N帧视频画面,并根据N帧视频画面确定目标对象是否佩戴安全帽。其中,目标对象是指从视频画面中检测到的任一人体特征区域对应的对象,也即,在本发明实施例中,是通过检测人体特征区域来检测目标对象的,而不是根据头部特征区域来检测目标对象的。由于该人体特征区域是指描述人体整体结构特征或人体肩部结构特征的区域,因此当摄像机距离目标对象较远时,人体特征区域相对于头部特征区域更容易被检测到,避免出现由于检测不到头部特征区域而产生错误的判断结果的情况。另外,本发明实施例是根据N帧视频画面来综合判断目标对象是否佩戴安全帽,同样可以避免出现由于头部特征区域被遮挡而产生错误的判断结果的情况。
如图2A所示,本发明实施例提供了一种安全帽检测装置200,该装置200包括第一确定模块201、获取模块202和第二确定模块203:
第一确定模块201,用于从当前时间拍摄的视频画面中确定需要进行安全帽检测的目标对象,该目标对象是指从该视频画面中检测到的任一人体特征区域对应的对象,该人体特征区域是指描述人体整体结构特征或人体肩部结构特征的区域;
获取模块202,用于获取从当前时间开始的预设时长内拍摄的N帧视频画面,该N帧视频画面中均包括该目标对象,该N为大于1的正整数;
第二确定模块203,用于根据该N帧视频画面确定该目标对象是否佩戴安全帽。
可选地,该第一确定模块201,具体用于:
通过第一检测模型对该当前时间拍摄的视频画面进行处理,该第一检测模型是根据多张图像和在每张图像中标定的人体特征区域训练得到;
当该第一检测模型的输出结果为至少一个人体特征区域时,将该至少一个人体特征区域中任一人体特征区域对应的对象确定为该目标对象。
可选地,参见图2B,该第二确定模块203包括第一确定子模块2031、第二确定子模块2032、第三确定子模块2033和第四确定子模块2034。
第一确定子模块2031,用于对每帧视频画面进行处理,得到与每帧视频画面对应的检测结果,该检测结果为佩戴安全帽、未佩戴安全帽和未检测到该目标对象的头部特征区域中的一个;
第二确定子模块2032,用于确定该N帧视频画面中检测结果为佩戴安全帽的视频画面的帧数与该N之间的比值;
第三确定子模块2033,用于若确定出的比值大于预设数值,则确定该目标对象佩戴安全帽;
第四确定子模块2034,用于若确定出的比值小于或等于该预设数值,则确定该目标对象没有佩戴安全帽。
可选地,参见图2C,该第一确定子模块2031包括第一确定单元20311、查找单元20312、第二确定单元20313和第三确定单元20314:
第一确定单元20311,用于对于该N帧视频画面中任一视频画面A,根据该当前时间拍摄的视频画面中的该目标对象的人体特征区域,从该视频画面A包括的至少一个人体特征区域中确定目标人体特征区域,该目标人体特征区域与该当前时间拍摄的视频画面中的该目标对象的人体特征区域之间的相似度大于预设相似度;
查找单元20312,用于从该视频画面A中查找与该目标人体特征区域匹配的目标头部特征区域;
第二确定单元20313,用于若查找到该目标头部特征区域,则根据该目标头部特征区域确定该视频画面A中该目标对象是否佩戴安全帽;
第三确定单元20314,用于若没有查找到该目标头部特征区域,则确定该视频画面A中未检测到该目标对象的头部特征区域。
可选地,该第二确定单元20313,具体用于:
通过第一分类模型对该目标头部特征区域进行处理,该第一分类模型是根据多张佩戴安全帽的头部图像和多张不佩戴安全帽的头部图像训练得到;
当该第一分类模型的输出结果为佩戴安全帽时,确定该视频画面A中该目标对象佩戴安全帽;
当该第一分类模型的输出结果为未佩戴安全帽时,确定该视频画面A中该目标对象未佩戴安全帽。
可选地,该查找单元20312,具体用于:
通过第二检测模型对该视频画面A进行处理,该第二检测模型是根据多张图像和在每张图像中标定的头部特征区域训练得到;
当该第二检测模型的输出结果为不存在头部特征区域时,确定没有查找到该目标头部特征区域;
当该第二检测模型的输出结果为至少一个头部特征区域时,从该至少一个头部特征区域中查找该目标头部特征区域。
可选地,该查找单元20312,还具体用于:
若该至少一个头部特征区域中不存在该目标头部特征区域,则确定没有查找到该目标头部特征区域。
可选地,该第二确定模块203还包括选择子模块、处理子模块、第五确定子模块和第六确定子模块:
选择子模块,用于从该N帧视频画面中选择该目标对象佩戴安全帽的视频画面,得到M帧视频画面,该M为小于或等于N的正整数;
处理子模块,用于通过第二分类模型对该M帧视频画面中每帧视频画面中的目标头部特征区域进行处理,该第二分类模型是根据多张佩戴安全帽的头部图像和在每张头部图像中标定的安全帽颜色训练得到;
第五确定子模块,用于根据该第二分类模型的输出结果,确定每帧视频画面中该目标头部特征区域对应的安全帽颜色;
第六确定子模块,用于根据该M帧视频画面中的每帧视频画面中该目标头部特征区域对应的安全帽颜色,确定该目标对象佩戴的安全帽的颜色。
可选地,该第二确定模块203还包括:
生成子模块,用于生成告警信息,用于提示该目标对象需要佩戴安全帽。
在本发明实施例中,当从当前时间拍摄的视频画面中确定需要进行安全帽检测的目标对象时,获取N帧视频画面,并根据N帧视频画面确定目标对象是否佩戴安全帽。其中,目标对象是指从视频画面中检测到的任一人体特征区域对应的对象,也即,在本发明实施例中,是通过检测人体特征区域来检测目标对象的,而不是根据头部特征区域来检测目标对象的。由于该人体特征区域是指描述人体整体结构特征或人体肩部结构特征的区域,因此当摄像机距离目标对象较远时,人体特征区域相对于头部特征区域更容易被检测到,避免出现由于检测不到头部特征区域而产生错误的判断结果的情况。另外,本发明实施例是根据N帧视频画面来综合判断目标对象是否佩戴安全帽,同样可以避免出现由于头部特征区域被遮挡而产生错误的判断结果的情况。
需要说明的是:上述实施例提供的安全帽检测装置在进行安全帽检测时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的安全帽检测的装置与安全帽检测的方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图3是本发明实施例提供的另一种安全帽检测装置,如图3所示,装置300包括中央处理单元(CPU)301、包括随机存取存储器(RAM)302和只读存储器(ROM)303的系统存储器304,以及连接系统存储器304和中央处理单元301的系统总线305。装置300还包括帮助计算机内的各个器件之间传输信息的基本输入/输出系统(I/O系统)306,和用于存储操作系统313、应用程序314和其他程序模块315的大容量存储设备307。
基本输入/输出系统306包括有用于显示信息的显示器308和用于用户输入信息的诸如鼠标、键盘之类的输入设备309。其中显示器308和输入设备309都通过连接到系统总线305的输入输出控制器310连接到中央处理单元301。基本输入/输出系统306还可以包括输入输出控制器310以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器310还提供输出到显示屏、打印机或其他类型的输出设备。
大容量存储设备307通过连接到系统总线305的大容量存储控制器(未示出)连接到中央处理单元301。大容量存储设备307及其相关联的计算机可读介质为装置300提供非易失性存储。也就是说,大容量存储设备307可以包括诸如硬盘或者CD-ROM驱动器之类的计算机可读介质(未示出)。
不失一般性,计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、EPROM、EEPROM、闪存或其他固态存储其技术,CD-ROM、DVD或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知计算机存储介质不局限于上述几种。上述的系统存储器304和大容量存储设备307可以统称为存储器。
根据本申请的各种实施例,装置300还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即装置300可以通过连接在系统总线305上的网络接口单元311连接到网络312,或者说,也可以使用网络接口单元311来连接到其他类型的网络或远程计算机系统(未示出)。
上述存储器还包括一个或者一个以上的程序,一个或者一个以上程序存储于存储器中,被配置由CPU执行。所述一个或者一个以上程序包含用于进行本申请实施例提供的上述安全帽检测的方法的指令。
本发明实施例还提供了一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行上述实施例所述的安全帽检测的方法。
本发明实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例所述的安全帽检测的方法。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,该的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上该仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (20)
1.一种安全帽检测方法,其特征在于,所述方法包括:
从当前时间拍摄的视频画面中确定需要进行安全帽检测的目标对象,所述目标对象是指从所述视频画面中检测到的任一人体特征区域对应的对象,所述人体特征区域是指描述人体整体结构特征或人体肩部结构特征的区域;
获取从当前时间开始的预设时长内拍摄的N帧视频画面,所述N帧视频画面中均包括所述目标对象,所述N为大于1的正整数;
根据所述N帧视频画面确定所述目标对象是否佩戴安全帽。
2.如权利要求1所述的方法,其特征在于,所述从当前时间拍摄的视频画面中确定需要进行安全帽检测的目标对象,包括:
通过第一检测模型对所述当前时间拍摄的视频画面进行处理,所述第一检测模型是根据多张图像和在每张图像中标定的人体特征区域训练得到;
当所述第一检测模型的输出结果为至少一个人体特征区域时,将所述至少一个人体特征区域中任一人体特征区域对应的对象确定为所述目标对象。
3.如权利要求1所述的方法,其特征在于,所述根据所述N帧视频画面确定所述目标对象是否佩戴安全帽,包括:
对每帧视频画面进行处理,得到与每帧视频画面对应的检测结果,所述检测结果为佩戴安全帽、未佩戴安全帽和未检测到所述目标对象的头部特征区域中的一个;
确定所述N帧视频画面中检测结果为佩戴安全帽的视频画面的帧数与所述N之间的比值;
若确定出的比值大于预设数值,则确定所述目标对象佩戴安全帽;
若确定出的比值小于或等于所述预设数值,则确定所述目标对象没有佩戴安全帽。
4.如权利要求3所述的方法,其特征在于,所述对每帧视频画面进行处理,包括:
对于所述N帧视频画面中任一视频画面A,根据所述当前时间拍摄的视频画面中的所述目标对象的人体特征区域,从所述视频画面A包括的至少一个人体特征区域中确定目标人体特征区域,所述目标人体特征区域与所述当前时间拍摄的视频画面中的所述目标对象的人体特征区域之间的相似度大于预设相似度;
从所述视频画面A中查找与所述目标人体特征区域匹配的目标头部特征区域;
若查找到所述目标头部特征区域,则根据所述目标头部特征区域确定所述视频画面A中所述目标对象是否佩戴安全帽;
若没有查找到所述目标头部特征区域,则确定所述视频画面A中未检测到所述目标对象的头部特征区域。
5.如权利要求4所述的方法,其特征在于,所述根据所述目标头部特征区域确定所述视频画面A中所述目标对象是否佩戴安全帽,包括:
通过第一分类模型对所述目标头部特征区域进行处理,所述第一分类模型是根据多张佩戴安全帽的头部图像和多张不佩戴安全帽的头部图像训练得到;
当所述第一分类模型的输出结果为佩戴安全帽时,确定所述视频画面A中所述目标对象佩戴安全帽;
当所述第一分类模型的输出结果为未佩戴安全帽时,确定所述视频画面A中所述目标对象未佩戴安全帽。
6.如权利要求4或5所述的方法,其特征在于,所述从所述视频画面A中查找与所述目标人体特征区域匹配的目标头部特征区域,包括:
通过第二检测模型对所述视频画面A进行处理,所述第二检测模型是根据多张图像和在每张图像中标定的头部特征区域训练得到;
当所述第二检测模型的输出结果为不存在头部特征区域时,确定没有查找到所述目标头部特征区域;
当所述第二检测模型的输出结果为至少一个头部特征区域时,从所述至少一个头部特征区域中查找所述目标头部特征区域。
7.如权利要求6所述的方法,其特征在于,所述从所述至少一个头部特征区域中查找所述目标头部特征区域之后,还包括:
若所述至少一个头部特征区域中不存在所述目标头部特征区域,则确定没有查找到所述目标头部特征区域。
8.如权利要求3所述的方法,其特征在于,所述对每帧视频画面进行处理之后,还包括:
从所述N帧视频画面中选择所述目标对象佩戴安全帽的视频画面,得到M帧视频画面,所述M为小于或等于N的正整数;
通过第二分类模型对所述M帧视频画面中每帧视频画面中的目标头部特征区域进行处理,所述第二分类模型是根据多张佩戴安全帽的头部图像和在每张头部图像中标定的安全帽颜色训练得到;
根据所述第二分类模型的输出结果,确定每帧视频画面中所述目标头部特征区域对应的安全帽颜色;
根据所述M帧视频画面中的每帧视频画面中所述目标头部特征区域对应的安全帽颜色,确定所述目标对象佩戴的安全帽的颜色。
9.如权利要求3所述的方法,其特征在于,所述确定所述目标对象没有佩戴安全帽之后,还包括:
生成告警信息,用于提示所述目标对象需要佩戴安全帽。
10.一种安全帽检测装置,其特征在于,所述装置包括:
第一确定模块,用于从当前时间拍摄的视频画面中确定需要进行安全帽检测的目标对象,所述目标对象是指从所述视频画面中检测到的任一人体特征区域对应的对象,所述人体特征区域是指描述人体整体结构特征或人体肩部结构特征的区域;
获取模块,用于获取从当前时间开始的预设时长内拍摄的N帧视频画面,所述N帧视频画面中均包括所述目标对象,所述N为大于1的正整数;
第二确定模块,用于根据所述N帧视频画面确定所述目标对象是否佩戴安全帽。
11.如权利要求10所述的装置,其特征在于,所述第一确定模块,具体用于:
通过第一检测模型对所述当前时间拍摄的视频画面进行处理,所述第一检测模型是根据多张图像和在每张图像中标定的人体特征区域训练得到;
当所述第一检测模型的输出结果为至少一个人体特征区域时,将所述至少一个人体特征区域中任一人体特征区域对应的对象确定为所述目标对象。
12.如权利要求10所述的装置,其特征在于,所述第二确定模块包括:
第一确定子模块,用于对每帧视频画面进行处理,得到与每帧视频画面对应的检测结果,所述检测结果为佩戴安全帽、未佩戴安全帽和未检测到所述目标对象的头部特征区域中的一个;
第二确定子模块,用于确定所述N帧视频画面中检测结果为佩戴安全帽的视频画面的帧数与所述N之间的比值;
第三确定子模块,用于若确定出的比值大于预设数值,则确定所述目标对象佩戴安全帽;
第四确定子模块,用于若确定出的比值小于或等于所述预设数值,则确定所述目标对象没有佩戴安全帽。
13.如权利要求12所述的装置,其特征在于,所述第一确定子模块包括:
第一确定单元,用于对于所述N帧视频画面中任一视频画面A,根据所述当前时间拍摄的视频画面中的所述目标对象的人体特征区域,从所述视频画面A包括的至少一个人体特征区域中确定目标人体特征区域,所述目标人体特征区域与所述当前时间拍摄的视频画面中的所述目标对象的人体特征区域之间的相似度大于预设相似度;
查找单元,用于从所述视频画面A中查找与所述目标人体特征区域匹配的目标头部特征区域;
第二确定单元,用于若查找到所述目标头部特征区域,则根据所述目标头部特征区域确定所述视频画面A中所述目标对象是否佩戴安全帽;
第三确定单元,用于若没有查找到所述目标头部特征区域,则确定所述视频画面A中未检测到所述目标对象的头部特征区域。
14.如权利要求13所述的装置,其特征在于,所述第二确定单元,具体用于:
通过第一分类模型对所述目标头部特征区域进行处理,所述第一分类模型是根据多张佩戴安全帽的头部图像和多张不佩戴安全帽的头部图像训练得到;
当所述第一分类模型的输出结果为佩戴安全帽时,确定所述视频画面A中所述目标对象佩戴安全帽;
当所述第一分类模型的输出结果为未佩戴安全帽时,确定所述视频画面A中所述目标对象未佩戴安全帽。
15.如权利要求13或14所述的装置,其特征在于,所述查找单元,具体用于:
通过第二检测模型对所述视频画面A进行处理,所述第二检测模型是根据多张图像和在每张图像中标定的头部特征区域训练得到;
当所述第二检测模型的输出结果为不存在头部特征区域时,确定没有查找到所述目标头部特征区域;
当所述第二检测模型的输出结果为至少一个头部特征区域时,从所述至少一个头部特征区域中查找所述目标头部特征区域。
16.如权利要求15所述的装置,其特征在于,所述查找单元,还具体用于:
若所述至少一个头部特征区域中不存在所述目标头部特征区域,则确定没有查找到所述目标头部特征区域。
17.如权利要求12所述的装置,其特征在于,所述第二确定模块还包括:
选择子模块,用于从所述N帧视频画面中选择所述目标对象佩戴安全帽的视频画面,得到M帧视频画面,所述M为小于或等于N的正整数;
处理子模块,用于通过第二分类模型对所述M帧视频画面中每帧视频画面中的目标头部特征区域进行处理,所述第二分类模型是根据多张佩戴安全帽的头部图像和在每张头部图像中标定的安全帽颜色训练得到;
第五确定子模块,用于根据所述第二分类模型的输出结果,确定每帧视频画面中所述目标头部特征区域对应的安全帽颜色;
第六确定子模块,用于根据所述M帧视频画面中的每帧视频画面中所述目标头部特征区域对应的安全帽颜色,确定所述目标对象佩戴的安全帽的颜色。
18.如权利要求12所述的装置,其特征在于,所述第二确定模块还包括:
生成子模块,用于生成告警信息,用于提示所述目标对象需要佩戴安全帽。
19.一种安全帽检测装置,其特征在于,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行权利要求1-9所述的任一项方法的步骤。
20.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于,所述指令被处理器执行时实现权利要求1-9所述的任一项方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810168615.3A CN110210274A (zh) | 2018-02-28 | 2018-02-28 | 安全帽检测方法、装置及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810168615.3A CN110210274A (zh) | 2018-02-28 | 2018-02-28 | 安全帽检测方法、装置及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110210274A true CN110210274A (zh) | 2019-09-06 |
Family
ID=67778756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810168615.3A Pending CN110210274A (zh) | 2018-02-28 | 2018-02-28 | 安全帽检测方法、装置及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110210274A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111178246A (zh) * | 2019-12-27 | 2020-05-19 | 深圳供电局有限公司 | 基于电力施工操作的远程监测方法、装置和计算机设备 |
CN111222420A (zh) * | 2019-12-24 | 2020-06-02 | 重庆市通信产业服务有限公司 | 一种基于ftp协议的低带宽要求的安全帽识别方法 |
CN111401278A (zh) * | 2020-03-20 | 2020-07-10 | 重庆紫光华山智安科技有限公司 | 安全帽识别方法、装置、电子设备及存储介质 |
CN111738147A (zh) * | 2020-06-22 | 2020-10-02 | 浙江大华技术股份有限公司 | 一种物品佩戴检测方法、装置、计算机设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150287200A1 (en) * | 2014-04-04 | 2015-10-08 | Fuji Electric Co., Ltd. | Safety control device and safety control system |
CN106295551A (zh) * | 2016-08-05 | 2017-01-04 | 南京理工大学 | 一种基于视频分析的人员安全帽佩戴情况实时检测方法 |
CN106372662A (zh) * | 2016-08-30 | 2017-02-01 | 腾讯科技(深圳)有限公司 | 安全帽佩戴的检测方法和装置、摄像头、服务器 |
CN106548131A (zh) * | 2016-10-14 | 2017-03-29 | 南京邮电大学 | 一种基于行人检测的施工人员安全帽实时检测方法 |
CN107103617A (zh) * | 2017-03-27 | 2017-08-29 | 国机智能科技有限公司 | 基于光流法的安全帽佩戴状态识别方法及系统 |
CN107153829A (zh) * | 2017-06-09 | 2017-09-12 | 南昌大学 | 基于深度图像的不良坐姿提醒方法和装置 |
CN107679524A (zh) * | 2017-10-31 | 2018-02-09 | 天津天地伟业信息系统集成有限公司 | 一种基于视频的安全帽佩戴情况的检测方法 |
-
2018
- 2018-02-28 CN CN201810168615.3A patent/CN110210274A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150287200A1 (en) * | 2014-04-04 | 2015-10-08 | Fuji Electric Co., Ltd. | Safety control device and safety control system |
CN106295551A (zh) * | 2016-08-05 | 2017-01-04 | 南京理工大学 | 一种基于视频分析的人员安全帽佩戴情况实时检测方法 |
CN106372662A (zh) * | 2016-08-30 | 2017-02-01 | 腾讯科技(深圳)有限公司 | 安全帽佩戴的检测方法和装置、摄像头、服务器 |
CN106548131A (zh) * | 2016-10-14 | 2017-03-29 | 南京邮电大学 | 一种基于行人检测的施工人员安全帽实时检测方法 |
CN107103617A (zh) * | 2017-03-27 | 2017-08-29 | 国机智能科技有限公司 | 基于光流法的安全帽佩戴状态识别方法及系统 |
CN107153829A (zh) * | 2017-06-09 | 2017-09-12 | 南昌大学 | 基于深度图像的不良坐姿提醒方法和装置 |
CN107679524A (zh) * | 2017-10-31 | 2018-02-09 | 天津天地伟业信息系统集成有限公司 | 一种基于视频的安全帽佩戴情况的检测方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111222420A (zh) * | 2019-12-24 | 2020-06-02 | 重庆市通信产业服务有限公司 | 一种基于ftp协议的低带宽要求的安全帽识别方法 |
CN111178246A (zh) * | 2019-12-27 | 2020-05-19 | 深圳供电局有限公司 | 基于电力施工操作的远程监测方法、装置和计算机设备 |
CN111178246B (zh) * | 2019-12-27 | 2024-02-09 | 深圳供电局有限公司 | 基于电力施工操作的远程监测方法、装置和计算机设备 |
CN111401278A (zh) * | 2020-03-20 | 2020-07-10 | 重庆紫光华山智安科技有限公司 | 安全帽识别方法、装置、电子设备及存储介质 |
CN111738147A (zh) * | 2020-06-22 | 2020-10-02 | 浙江大华技术股份有限公司 | 一种物品佩戴检测方法、装置、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10965886B2 (en) | System and method of generating a composite frame | |
CN110210274A (zh) | 安全帽检测方法、装置及计算机可读存储介质 | |
KR101180887B1 (ko) | 이상행위 검출장치 및 방법 | |
AU2009243442B2 (en) | Detection of abnormal behaviour in video objects | |
Long et al. | A c3d-based convolutional neural network for frame dropping detection in a single video shot | |
US10956753B2 (en) | Image processing system and image processing method | |
JP2011210238A (ja) | 広告効果測定装置及びコンピュータプログラム | |
WO2015045233A1 (ja) | 情報処理システム | |
CN108021846A (zh) | 一种人脸识别方法和装置 | |
EP2966591A1 (en) | Method and apparatus for identifying salient events by analyzing salient video segments identified by sensor information | |
CN114140745A (zh) | 施工现场人员属性检测方法、系统、装置及介质 | |
Eyiokur et al. | A survey on computer vision based human analysis in the COVID-19 era | |
Chen et al. | A lightweight face-assisted object detection model for welding helmet use | |
JP2011070629A (ja) | 広告効果測定システム及び広告効果測定装置 | |
JP2011070629A5 (zh) | ||
KR101270718B1 (ko) | 영상에서 화재를 검출하기 위한 영상처리 장치 및 방법 | |
US10783365B2 (en) | Image processing device and image processing system | |
TWI466070B (zh) | 眼睛搜尋方法及使用該方法的眼睛狀態檢測裝置與眼睛搜尋裝置 | |
CN108334811B (zh) | 一种人脸图像处理方法及装置 | |
CN113947795B (zh) | 口罩佩戴检测方法、装置、设备及存储介质 | |
WO2023273132A1 (zh) | 行为检测方法、装置、计算机设备、存储介质和程序 | |
CN106056042B (zh) | 产生视频数据变换表示以及分析视频数据的方法和系统 | |
Teja et al. | Man-on-man brutality identification on video data using Haar cascade algorithm | |
Liu et al. | Crowd gathering detection based on the foreground stillness model | |
Smith et al. | A c3d-based convolutional neural network for frame dropping detection in a single video shot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |