CN109117827B - 基于视频的工服工帽穿戴状态自动识别方法与报警系统 - Google Patents
基于视频的工服工帽穿戴状态自动识别方法与报警系统 Download PDFInfo
- Publication number
- CN109117827B CN109117827B CN201811032872.0A CN201811032872A CN109117827B CN 109117827 B CN109117827 B CN 109117827B CN 201811032872 A CN201811032872 A CN 201811032872A CN 109117827 B CN109117827 B CN 109117827B
- Authority
- CN
- China
- Prior art keywords
- target
- video
- image
- head
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 105
- 238000010276 construction Methods 0.000 claims abstract description 34
- 238000012544 monitoring process Methods 0.000 claims abstract description 28
- 238000012545 processing Methods 0.000 claims abstract description 26
- 230000002159 abnormal effect Effects 0.000 claims abstract description 12
- 238000004458 analytical method Methods 0.000 claims abstract description 11
- 238000001514 detection method Methods 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 15
- 230000011218 segmentation Effects 0.000 claims description 15
- 239000000203 mixture Substances 0.000 claims description 11
- 230000008859 change Effects 0.000 claims description 8
- 230000000737 periodic effect Effects 0.000 claims description 7
- 238000009826 distribution Methods 0.000 claims description 5
- 238000003860 storage Methods 0.000 claims description 5
- 230000007797 corrosion Effects 0.000 claims description 4
- 238000005260 corrosion Methods 0.000 claims description 4
- 230000000877 morphologic effect Effects 0.000 claims description 4
- 238000012805 post-processing Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 230000010354 integration Effects 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 2
- 230000008901 benefit Effects 0.000 abstract description 9
- 238000005516 engineering process Methods 0.000 abstract description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000009434 installation Methods 0.000 abstract description 3
- 238000012423 maintenance Methods 0.000 abstract description 3
- 210000003128 head Anatomy 0.000 description 42
- 238000007726 management method Methods 0.000 description 23
- 238000013528 artificial neural network Methods 0.000 description 10
- 239000003086 colorant Substances 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 6
- 238000011410 subtraction method Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 238000010191 image analysis Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 108090000765 processed proteins & peptides Proteins 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 210000001364 upper extremity Anatomy 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration by the use of local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G06T5/92—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Abstract
本发明属于图像处理技术领域,公开了一种基于视频的工服工帽穿戴状态自动识别方法与报警系统,基于视频流时间序列图像,采用时域差分和背景减除相结合,提取视频图像中的移动目标;根据所检测到的目标团块特征和团块外轮廓时间周期特征完成人体目标与其他目标的分类;对检测到的人体目标,进行头部和躯干部分的分割;在Lab颜色空间,分别对人体目标头部进行是否佩戴安全帽和躯干部分是否穿着工作服进行智能分析;如果发现安全防护异常,实时上报安全报警消息至管理人员,同时抓拍存档。本发明不必额外增加设备安装和维护费用;采用人工智能技术,实现工地工作人员工服工帽全天候监测,应用方便,成本低,具有较大的应用前景。
Description
技术领域
本发明属于图像处理技术领域,尤其涉及一种基于视频的工服工帽穿戴状态自动识别方法与报警系统。
背景技术
当前我国仍然处于大建设阶段,每年都有数十万个工地在施工建设。同时,又处于从粗放到集约转型阶段,各建设公司急需高效的现场管理手段,降低成本,提高效益,而安全管理可谓是施工现场管理的重中之重。现场安全管理涉及多方面的内容,当前仍然是以岗前教育和工作过程中人工监督为主。建筑工程施工各专业、各作业面在时间和空间上相互交错,且分布广,生产过程中的人工监督要做到面面俱到难度大,对人力的投入要求也很高。鉴于此,本发明运用视频监控的实时现场图像,采用图像分析与理解技术,实现目标提取、分类和识别,对施工现场工作人员工服工帽穿戴情况全天候监督,发现问题实时通知监督管理人员,同时抓拍现场照片存档,实现时间和空间上无死角监督。本发明的执行,还可大大降低人力成本。
基于视频的目标分类识别,从大的方面来讲可分为基于图像分析、理解的经典方法和基于深度学习的神经网络方法。经典方法基于图像本身进行处理分析,首先提取图像中的可能目标,然后提取每个可能目标的不变特征,最后与待识别目标特征进行比较,完成分类识别。其优点是每一个处理过程可以根据实际应用需要做特殊处理,因而其输出结果是可控的;而且可以不必有大量的训练样本,即可实现指定目标的识别。其劣势是在同样数据集下,经典方法综合性能表现要弱于现代深度学习的神经网络方法。基于深度学习的神经网络方法,其优点是在相同数据集下,综合性能优异。
但是,每个神经网络其功能和性能是由该网络模型和训练数据集决定的,如果检测目标有变化,则需要用相应的数据集重新训练神经网络,必要时还需重新设计网络模型。虽然神经网络训练过程一般需要较长时间,这个在离线进行,对应用的影响不大,但训练数据集的获取是一个长时间高成本的过程。而且,神经网络的处理过程,其中间结果开发者都无法控制。
施工工地现场环境复杂,不同工地环境也不相同,工地生命周期也短,训练数据的获取与标注在实际操作中有较大的困难。更重要的是,现实当中,各建设公司所使用的工作服和安全帽从颜色到样式,各种各样,而且不同时期,同一公司所使用的工服工帽也可能不同,这也对采用基于深度学习的神经网络分类识别方法不利。另外,对工地现成全天候监控过程中,单个摄像头,以每秒处理20帧计算,全天有1728000帧,虽然深度学习神经网络有较高的识别性能,但不可避免的误报是一个问题,却又不能有效的控制。
实际上,在对工地现场的全天候实时监控中,识别率并不是重要的目标,最重要的是,识别到的结果,一定是想要的,在此基础上争取更高的识别率,而深度学习神经网络无法保证这一点。如实际场景中,假如有工作人员没有完整穿戴工服工帽,其活动一定具有一个时间段,只要在该时间段中能够检测到一个正确结果即可达到监控的目的。
总之,本发明根据施工工地应用的特殊场景,采用经典图像分析、识别智能技术,较好地满足了智慧工地工作人员工服工帽穿戴自动监测需求,解决的问题主要有:
人工管理存在的问题。由于施工现场在空间上的广度大,各专业工种作业时间交叉,全天候都有工作人员作业,人工管理不仅成本高,而且无论空间还是时间上总是存在盲区,本发明基于视频监控的智能处理方法,可以全覆盖整个空间和时间维度,实现全天候无死角实时监控管理。
传统视频监控存在的问题。因为误报等问题,当前施工场地基于视频的施工现场工作人员工服工帽穿戴情况自动监测并不多见,基本上都是传统的人工监测。传统视频监控可以解决空间维度的问题,也能一定程度解决时间维度的问题。研究证明,人盯着屏幕注释20分钟以上不动,就对屏幕上的画面会视而不见。而且并不会降低人工成本。
误报警问题。误报警是现有智能监控系统所共有的难题,特别是在复杂环境下,直接决定了系统的应用。本发明针对施工现场对工服工帽穿戴状态监测的特定需求特点,首先采用时域三帧差法与混合高斯背景模型背景减除法相结合的方法检测视频图像中运动目标,其次采用人类运动周期性特点筛选出人体目标,再次,通过人体几何特征以及头部肤色检测检测人脸的存在进一步确定为人体目标,并保证其完整性。在保证人体目标检测正确性的前提下,用CIEDE2000颜色距离度量颜色差异,且用户可以根据实际需要控制差异度。利用对单帧检测率无要求的特定条件,从目标的正确性和相似度的可控性两方面共同保证检测结果的正确性,从而最大限度地避免误报
问题事件的现场警告、通知管理人员和存档实时处理。由于施工现场在空间上的广度大,各专业工种作业时间交叉,而且现场事件的处理要求及时,处理过程与结果要存档,使得现场管理实施难大。本发明通过现场网络音柱,在发现问题后,即刻发声警告工作人员改正问题,通过云端管理系统,将发现问题的现场照片和视频存档备份,且立刻通过手机APP消息,通知相关管理人员到事发现场监督。从而在第一时间完成事件处理,消除安全隐患。
解决上述技术问题的难度和意义:
理解视频监控图像中的内容是计算机视觉和人工智能中重要的内容,这个问题至今并没有很好的解决,一般都是针对具体问题和应用,采用具体的解决方案。本发明综合采用图像分析理解技术,智能监测视频监控区域内工作人员工服工帽未按要求穿戴的情况,实现全天候监测管理,同时将人力从简单枯燥的工作内容中释放出来,降低了人工成本,且提高了管理监测效率。
智能监控系统中,误报警是一个很难消除的问题,一个好的系统,误报警低是其必要特征之一。本发明针对发现施工现场工作人员工服工帽未按要求穿戴这一状态事件的检测需求,采用经典图像分析方法,多级排除的方式,确保最终的结果是想要的结果,且其中每一级的处理结果均具有可靠性。以牺牲单帧识别率为代价,最大限度地避免误报警发生。
本发明实现了发现问题、解决问题、资料存档的自动化,且实现了问题解决的实时性,将安全隐患在第一时间消除,对施工现场安全管理具有极强的现实意义。
基于工地现有视频监控设备,不必额外增加固定设备及其安装维护成本,全部软件后台执行,系统部署简便易行。
发明内容
针对现有技术存在的问题,本发明提供了一种基于视频的工服工帽穿戴状态自动识别方法与报警系统。
本发明是这样实现的,一种基于视频的工服工帽穿戴状态自动识别方法,包括:
基于视频流时间序列图像,采用时域差分和背景减除相结合,提取视频图像中的移动目标;
根据所检测到的目标团块特征和团块外轮廓时间周期特征完成人体目标与其他目标的分类;对检测到的人体目标,进行头部和躯干部分的分割;
在Lab颜色空间,分别对人体目标头部进行是否佩戴安全帽和躯干部分是否穿着工作服进行智能分析;发现安全防护异常,实时上报安全报警消息至管理部门,同时抓拍存档。
进一步,所述基于视频的工服工帽穿戴状态自动识别方法具体包括:
第一步,采用三帧差分和背景减除相结合的方法进行运动目标的检测;
第二步,分类,对检测到包含非人体目标的所有目标物中,进行分析并从待选目标中提取人体目标
第三步,人体头部躯干分割,检测人体目标之后,对人体目标的头部和躯干部分分别分析安全帽的佩戴状况和工作服穿着状况;
第四步,安全帽佩戴状态识别,对检测到的人体头部ROI区域,做安全帽佩戴识别;
第五步,工作服穿戴状态识别,对检测到的躯干ROI区域,做工作服穿戴情况识别;
第六步,照片和视频数据保存及异常信息上报,当检测到没有穿戴工服工帽时,抓拍当前照片,并开始对场景开始录像,保存现场状况证据;同时将异常消息同抓拍照片一起,通过网络实时上报到云端智慧工地服务管理系统,由云端智慧工地服务管理系统将报警消息和照片发送给相关管理部门,同时启用现场音柱进行语音报警;同时,云端智慧工地服务管理系统将视频数据上报的信息进行储存,备份。
进一步,第一步中,采用三帧差分法和背景减除相结合的方法进行运动目标的检测中,三帧差分法,用I(t)表示t时刻的一帧图像,I(x,y,t)表示t时刻图像中(x,y)处的像素值;用M2表示两帧图像间差异的度量;具体包括:
第一步:计算t与t-1时刻两帧图像的差异:
第二步:对第一步获取的差值图像用阈值做二值化处理,获取代表运动目标在两帧图像中差异性的二值模板;
其中,k1和k2为选取的阈值,且k1>k2;实际应用中,该值根据实际应用需要选取;
第三步:用第一步相同的方法计算t与t-2时刻两帧图像的差异,并计算二值模板;
第四步:计算三帧差法最终的差异图像和模板:
M(x,y,t)=
M2(x,y,t,t-1)·M2(x,y,t,t-2)
mask(x,y,t)=
mask2(x,y,t,t-1)·mask2(x,y,t,y-2)。
进一步,第一步中,采用三帧差分法和背景减除相结合的方法进行运动目标的检测中,还包括:
利用混合高斯模型对图像中每个像素在较长时间内的大量样本值进行统计估计,并假定像素间颜色信息互不相关,且对各像素点的处理相互独立;对于在序列图像中同一位置像素点值的变化作为随机过程,并用高斯分布描述每个像素点值的呈现规律;
三帧差分法与混合高斯模型检测结果的后处理和融合,包括:
对三帧差分法与混合高斯模型检测法检测的二值模板图像做形态学两次膨胀操作,一次腐蚀,使检测到的目标整体完整;
做基于大小的滤波处理,去除噪声;
以三帧差分法检测到目标的外接矩形为操作区域,与混合高斯模型检测的二值模板图像做逻辑“或”操作,获得最终的检测结果。
进一步,第二步中,具体包括:
1)基于团块几何特征进行初级分类;
2)基于目标外轮廓周期变化进行二级分类,包括:提取目标图像的剪影;第二步,对剪影分别在水平X方向和垂直方向Y方向做积分,分别得到X和Y方向上的投影直方图;对投影直方图做标准化处理;对最近N帧图像中同一目标标准化后的直方图做相关,对相关系数做周期性分析,判断是否为人体目标。
第三步中,分割方法包括:对人体目标剪影做垂直方向Y方向积分,获取投影直方图;对投影直方图,从人体头顶方向向下搜索,第一个局部最低点作为头部与躯体分界点;根据人体头身比,给定一定裕量,判断本次分割是否成功,如果不成功,中断本次识别过程,转入下一目标处理流程;如果分割成功,对头部ROI区域图像做基于肤色的人脸检测,进一步确定是否为人体目标;
第四步中,对检测到的人体头部ROI区域,做安全帽佩戴识别,具体包括:
将头部ROI区域局部图像和系统指定的安全帽颜色从RGB颜色空间转换到Lab颜色空间,如果安全帽颜色用图片给出,则将安全帽图像转换到Lab颜色空间后,求其均值和最值;
在Lab颜色空间,计算头部ROI区域内每个像素点与安全帽颜色之间的距离;
根据CIE标准,颜色距离小于等于2.3,人眼无法区分这两种颜色;设置阈值T=2.3*k,其中k由用户根据实际应用调节;统计头部ROI区域内小于阈值T的像素个数;超过指定阈值则佩戴有安全帽;
第五步中,对检测到的躯干ROI区域,做工作服穿戴情况识别,具体包括:将躯干ROI区域局部图像和系统指定的工作服颜色从RGB颜色空间转换到Lab颜色空间,如果工作服颜色用图片给出,则将工作服图像转换到Lab颜色空间后,求其均值和最值;
在Lab颜色空间,计算躯干ROI区域内每个像素点与工作服颜色之间的距离;
根据CIE标准,颜色距离小于等于2.3,人眼无法区分这两种颜色;设置阈值T=2.3*k,其中k由用户根据实际应用调节;统计躯干ROI区域内小于阈值T的像素个数;超过指定阈值则穿着有工作服。
本发明的另一目的在于提供一种计算机图像处理程序,所述计算机图像处理程序运行所述的基于视频的工服工帽穿戴状态自动识别方法。
本发明的另一目的在于提供一种终端,所述终端至少搭载实现所述基于视频的工服工帽穿戴状态自动识别方法的控制器。
本发明的另一目的在于提供一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行所述的基于视频的工服工帽穿戴状态自动识别方法。
本发明的另一目的在于提供一种实施所述基于视频的工服工帽穿戴状态自动识别方法的基于视频的工服工帽穿戴状态报警系统。
本发明的另一目的在于提供一种基于视频的工服工帽穿戴状态监控平台,所述基于视频的工服工帽穿戴状态监控平台至少搭载所述的基于视频的工服工帽穿戴状态报警系统。
综上所述,本发明的优点及积极效果为:
基于监控视频,无需现场增设其它设备,软件后台执行,系统部署简单方便。
本发明应用经典图像分析理解方法,多级分类、多条件筛选,确保检测结果的正确性,根据特定需求,以牺牲不必要的单帧识别率为代价,最大限度地降低了误报率,满足了实际引用的要求。
实现了事件发现、处理和资料存档的自动化,在发现的第一时间消除安全隐患。
本发明对工服工帽的类型和颜色没有限定,用户可按照实际需要,灵活设置于修改,适应不同用户不同工地的特别需求。
本发明基于视频流时间序列图像,采用时域差分和背景减除相结合,提取视频图像中的移动目标;根据所检测到的目标团块特征和团块外轮廓时间周期特征完成人体目标与其他目标的分类;对检测到的人体目标,进行头部和躯干部分的分割;在Lab颜色空间,分别对人体目标头部进行是否佩戴安全帽和躯干部分是否穿着工作服进行智能分析;如果发现安全防护异常,实时上报安全报警消息至管理人员,同时抓拍存档。本发明利用施工现场视频监控系统,不必额外增加设备安装和维护费用;基于视频图像,采用人工智能技术,实现工地工作人员工服工帽全天候监测,应用方便,成本低,具有较大的应用前景。
本发明的优点还有:
采用时域差分与背景减除法相结合的运动目标检测方法。获取视频图像中人体目标是完成本发明自动识别工作人员工服工帽穿戴自动识别功能的基础,实际场景中,工作人员在视频中表现为运动目标,要完成人体目标检测,前提是完成运动目标检测。一般来讲,视频流中运动目标提取主要有时域差分法,背景减除法以及光流法。时域差分法检测视频流图像中的运动目标简单有效,而且对动态环境也有很好的自适应性,但是只能较好地提取目标边缘部分的相关特征像素;背景减除法能够检测到目标大部分的完整像素数据,但对场景的动态变化,如光照、外部干扰等,非常敏感。光流法可以检测在摄像头移动情况下独立移动的目标,但其计算复杂,在没有硬件加速的情况下,无法实时处理视频流每帧图像。本发明综合发挥时域差分法检测目标的鲁棒性和准确性,背景减除法检测目标的完整性,可以准确完整地提取目标对象。
前景图像块特征与外轮廓特征相两级人体目标分类方法。视频图像中除了人体移动目标外,还可能包含其他目标,我们必须从检测到的运动目标中识别出人体目标。本发明采用目标团块几何特征和目标外轮廓周期特征两级分类,对目标从粗到精分析,提高了处理效率。站立行走的人体目标,其身高/肩宽需符合人体结构比例,利用该几何特征作为第一级分类标准,计算量小,判断简单有效,可以滤除大部分虚假目标。在第二级分类阶段,首先提取目标剪影,并做水平和垂直方向的投影并标准化。站立行走的人体目标在行走过程中,双腿跨步与双臂摆动,在外轮廓水平和垂直方向的投影上表现为周期变化,根据该特征,实现人体目标的精确分类。这种两级分类法,效率高,速度快。
对人体目标进行头部与躯干分割,分别对头部和躯干部分图像进行分析,待分析感兴趣区域更加精准,提高了识别正确率。本发明对工服和工帽穿戴状态的检测是基于颜色特征空间,而工服和工帽的实际颜色及其差别在现实中不受限制,因此,在实际检测中,分析区域的准确性直接影响分析结果的准确性。本发明对目标团块垂直方向积分法,检测人体颈部,实现人体目标头部和躯干分割,为进一步分析提供更准确的目标。
Lab颜色空间距离法实现头部安全帽和躯干工作服穿戴状态的检测。Lab颜色空间,也即一种颜色模型,是国际照明委员会(CIE)制定的颜色度量国际标准的基础上建立的,是一种与设备无关的颜色系统,也是一种基于生理特性的颜色系统,以数字化方式来描述人的视觉感应,此外,CIE也定义了度量颜色差异的计算方法。Lab颜色空间的特点是色域宽阔,人眼能感知到的色彩,都能通过Lab模型表现出来。本发明将RGB颜色空间图像转换到Lab颜色空间,采用CIE最新修订的CIEDE2000颜色差异度量标准,通过计算人体目标头部区域与指定工帽的颜色差异和躯干区域与指定工服颜色差异,判断检测到的人员是否按要求穿戴了工服工帽。
附图说明
图1是本发明实施例提供的基于视频的工服工帽穿戴状态自动识别方法示意图。
图2是本发明实施例提供的基于视频的工服工帽穿戴状态报警系统示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
现有技术中,没有基于视频流时间序列图像,采用时域差分和背景减除相结合,提取视频图像中的移动目标;不能对人体目标头部进行是否佩戴安全帽和躯干部分是否穿着工作服进行智能分析;不能及时发现安全防护异常,实时上报安全报警消息至管理人员,同时抓拍存档;造成现有技术中的工服工帽穿戴状态报警系统应用不方便,成本高。
图1,本发明实施例提供的基于视频的工服工帽穿戴状态自动识别方法,包括:
1、运动目标检测。本发明中运动目标检测,采用三帧差分和背景减除相结合的方法,同时具有差分法对运动背景、光照变化等自适应性的优点,又具有背景减除法获取运动目标较完整的优点。具体为。
1)三帧差分法。(参考文献:A.Selinger,L.Wixson.classifying moving objectsas rigid or non-rigid without correspondences.)用I(t)表示t时刻的一帧图像,I(x,y,t)表示t时刻图像中(x,y)处的像素值。用M2表示两帧图像间差异的度量。
第一步:计算t与t-1时刻两帧图像的差异:
第二步:对第一步获取的差值图像用阈值做二值化处理,获取代表运动目标在两帧图像中差异性的二值模板。
其中,k1和k2为选取的阈值,且k1>k2。实际应用中,该值根据实际应用需要选取。
第三步:用第一步相同的方法计算t与t-2时刻两帧图像的差异,及其二值模板。
第四步:计算三帧差法最终的差异图像及其模板:
M(x,y,t)=
M2(x,y,t,t-1)·M2(x,y,t,t-2)
mask(x,y,t)=
mask2(x,y,t,t-1)·mask2(x,y,t,t-2)
2)混合高斯模型背景减除法。(参考文献:Chris Stauffer,W.E.LGrimson.Adaptive background mixture models for real-time tracking.)。混合高斯模型对图像中每个像素在较长时间内的大量样本值进行统计估计,并假定像素间颜色信息互不相关,且对各像素点的处理相互独立。对于在序列图像中同一位置像素点值的变化看作一个随机过程,并用高斯分布来描述每个像素点值的呈现规律。混合高斯模型是多峰高斯分布模型。
3)三帧差与混合高斯模型检测结果的后处理和融合。首先对两种方法检测的二值模板图像做形态学两次“膨胀”操作,一次“腐蚀”,使检测到的目标整体更加完整,然后做基于大小的滤波处理,去除噪声。最后,以三帧差法所检测到目标的外接矩形为操作区域,与混合高斯模型检测的二值模板图像做逻辑“或”操作,获得的结果即为最终的检测结果。
2、分类。检测到的所有目标物中,可能包含非人体目标,目标分类就是要从所有这些待进一步分析的待选目标中提取人体(即工地工作人员)目标。具体方法为:
1)基于团块几何特征初级分类。根据统计(参考文献:AIST人体寸法データベース1991-92独立行政法人产业技术総合研究所河内まき子·持丸正明H16PRO287;ClaireC.Gordon,Thomas Churchill,Charles E.Clauser,Bruce Bradtmiller,JohnT.McConville,Ilse Tebbetts&Robert A.Walker(1989).1988Anthropometric Survey ofU.S.Army Personnel:Methods and Summary Statistics.NATICK/TR-89/044.Natick,Ma:U.S.Army Natick Research,Development,and Engineering Center.(ADA225094)),(最大肩宽/身高)×100,亚洲男性平均为26.62,亚洲女性平均为25.63;欧美男性平均为28.01,欧美女性平均为26.55。考虑到检测误差,如果目标最小外接矩形的高度大于宽度的2倍,则目标可能为人体,进入二级分类,否则为非人体目标。
2)基于目标外轮廓周期变化的二级分类。(参考文献:Ismail Haritaoglu博士论文.W4a real-time system for detection and tracking of people and monitoringtheir activities)。人类在移动过程中表现为一种周期性运动,分析序列图像中同一目标的周期性变化可以确定该目标人体还是其它。第一步,提取目标图像的剪影。第二步,对剪影分别在水平(X方向)和垂直方向(Y方向)做积分,分别得到X和Y方向上的投影直方图。第三步,对投影直方图做标准化处理。第四步,对最近N帧图像中同一目标标准化后的直方图做相关,对相关系数做周期性分析,判断是否为人体目标。
3、人体头部躯干分割。检测人体目标之后,需要对人体目标的头部和躯干部分分别分析安全帽的佩戴状况和工作服穿着状况。本发明分割方法为:第一步,对人体目标剪影做垂直方向(Y)方向积分,获取投影直方图。第二步,对投影直方图,从人体头顶方向向下搜索,第一个局部最低点作为头部与躯体分界点。第三步,根据人体头身比,给定一定裕量,判断本次分割是否成功,(头身比=身高/头全高:亚洲男性平均为7.18头身,亚洲女性平均为6.95头身;欧美男性平均为7.57头身,欧美女性平均为7.49头身。参考文献:AIST人体寸法データベース1991-92独立行政法人产业技术総合研究所河内まき子·持丸正明H16PRO287;Claire C.Gordon,Thomas Churchill,Charles E.Clauser,BruceBradtmiller,John T.McConville,Ilse Tebbetts&RobertA.Walker(1989).1988Anthropometric Survey of U.S.Army Personnel:Methods and SummaryStatistics.NATICK/TR-89/044.Natick,Ma:U.S.Army Natick Research,Development,and Engineering Center。(ADA225094))。如果不成功,中断本次识别过程,转入下一目标处理流程。第四步:如果分割成功,对头部ROI区域图像做基于肤色的人脸检测,进一步确定是否为人体目标。第四步的目的是为了消除因人体目标检测结果头部不完整,导致系统误判断为未佩戴安全的情况。
4、安全帽佩戴状态识别。对检测到的人体头部ROI区域,做安全帽佩戴识别。第一步:将头部ROI区域局部图像和系统指定的安全帽颜色从RGB颜色空间转换到Lab颜色空间,如果安全帽颜色用图片给出,则将安全帽图像转换到Lab颜色空间后,求其均值和最值。第二步:在Lab颜色空间,按照CIEDE2000标准计算头部ROI区域内每个像素点与安全帽颜色之间的距离。第三步:根据CIE标准,颜色距离小于等于2.3,人眼将无法区分;设置阈值T=2.3*k,其中k由用户根据实际应用调节;统计头部ROI区域内小于阈值T的像素个数;超过指定阈值则佩戴有安全帽。
5、工作服穿戴状态识别。对检测到的躯干ROI区域,做工作服穿戴情况识别。第一步:将躯干ROI区域局部图像和系统指定的工作服颜色从RGB颜色空间转换到Lab颜色空间,如果工作服颜色用图片给出,则将工作服图像转换到Lab颜色空间后,求其均值和最值。第二步:在Lab颜色空间,按照CIEDE2000标准计算躯干ROI区域内每个像素点与工作服颜色之间的距离。第三步:根据CIE标准,颜色距离小于等于2.3,人眼将无法区分;设置阈值T=2.3*k,其中k由用户根据实际应用调节;统计躯干ROI区域内小于阈值T的像素个数;超过指定阈值则穿着有工作服。
6、照片和视频数据保存及异常信息上报。当检测到有工作人员没有穿戴工服工帽时,抓拍当前照片,并开始对该场景开始录像,保存现场状况证据。同时将该异常消息同抓拍照片一起,通过网络实时上报到云端智慧工地服务管理系统,由管理系统将报警消息和照片发送给相关管理人员,同时启用现场音柱,警告工作人员应按要求穿戴工服工帽。在系统闲时,将视频数据均上报到云端,作为备份。
如图2,本发明实施例提供一种实施所述基于视频的工服工帽穿戴状态自动识别方法的基于视频的工服工帽穿戴状态报警系统。
下面结合具体实施例对本发明作进一步描述。
本发明的一个实施案例如下:
采用海康威视网络摄像机,型号为:DS-2CD3T26DWD-I3。视频图像采集帧率为25。为提高处理速度,检测过程中,将视频帧缩放到320*240标准大小。
1、运动目标检测。1)在三帧差法检测运动目标方法中,计算两帧图像差异时,N(x,y)邻域选取为3x3,常数值C取值为c++11标准库的宏FLT_EPSILON。Lab颜色空间两个像素点间颜色距离采用CIEDE2000距离算法标准。在对差异图像做二值化阈值处理获取模板图像中,取k1=10,k2=20。k1和k2的值为经验值,与摄像头自身有一定的关系,具体值可以在实际系统中调整。为避免光照瞬间剧烈变化等干扰因素,若模板图像目标区域大于整帧图像的50%,则丢弃该帧。2)混合高斯模型背景减除运动目标提取直接在RGB颜色空间中进行,本实施案例中,背景训练的帧数为50,高斯模型的个数为3,学习率为0.001,模板图像二值化的阈值选取10。3)对三帧差和混合高斯模型检测到的二值模板图像,分别做两次形态学“膨胀”操作和一次“腐蚀”操作,操作元素为5x5的矩形元素;对处理后的三帧差模板图像,在每个目标外接矩形区域内,与混合高斯模型后处理后的结果模板图像做像素间“或”操作,得到的二值模板图像即为最终的运动目标检测结果。
2、目标分类。统计表明,人类的肩宽与身高的比值小于0.3,考虑到人体上肢的摆动等误差,本实施案例中,选取为0.5,即目标体外接矩形的高度大于其宽度的两倍视为可能为人体。对可能为人体的待定目标剪影的投影直方做图标准化处理步骤中,水平方向投影直方图宽度映射到0-80范围,高度映射到0-120范围,垂直方向投影直方图宽度映射到0-120范围,高度映射到0-80范围。即在图像高度方向,归一化到其1/2范围,在图像宽度方向的投影,归一化到其1/4的范围。对序列图像中同一目标标准化后的投影直方图做相关,对序列相关系数进行能量谱分析。如存在大于平均能量3倍的谱线,则判定为存在周期性,即为人体运动目标,如果所有目标都不存在周期性,丢弃该帧。
3、对目标剪影垂直方向的投影直方图从上到下做局部极值检测,第一个最小值的位置,即为头部和躯干的分割位置。计算头身比值,本实施例中,在6.0-8.0之间均认为正确分割。如果正确分割,对头部部分的ROI区域,进行肤色检测,如果存在肤色,且肤色区域大于整个区域的10%,在确定为人体头部。如果所有目标都未能正确分割且确认为包含人体头部,则丢弃该帧。
4、安全帽佩戴状态识别。本实施例设置Lab空间颜色距离差值阈值为2.3*5.0,如果小于该值,则认为为同一颜色。如果人体头部图像中与安全帽相同颜色的面积大于整体面积的30%,则认为佩戴有安全帽。
5、工作服穿戴状态识别。本实施例设置Lab空间颜色距离差值阈值为2.3*5.0,如果小于该值,则认为为同一颜色。如果人体躯干图像中与工作服相同颜色的面积大于整体面积的30%,则认为穿着有工作服。
6、数据保存与消息上报。本实施例的抓拍照片和录像文件,以当前日期时间为文件名,保存在以当前日期为名字的文件中,该文件的父文件夹以摄像头id为名称。录像文件的大小为1000帧。报警消息和抓拍文件通过网络以http协议上报到云端管理系统。在录像完成后,再上传至云端。
7、云端智慧工地管理系统在收到上报报警消息后,调用现场对应外置的网络音柱,警告工作人员穿戴好工服工帽;同时将该消息发送到相关管理人员的手机App上,管理人员收到消息,现场跟踪该问题的实际解决。管理系统记录处理流程及其数据。
本实施例的测试方法是,让工作人员按要求穿戴好工服工帽,在摄像机监控区域内不停走动,期间摘掉安全帽,继续走动,然后戴回安全帽走动。本发明方法能够抓拍到工作人员未戴安全帽的照片,下图其中两张结果图片。因为该发明的应用场景对基于每帧的识别率没有要求,只要求对视频监控区域内工作人员工服工帽是否穿戴这一异常事件进行检测,实验证明,本发明能够检测出这种异常事件,具有较大的应用价值和前景。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用全部或部分地以计算机程序产品的形式实现,所述计算机程序产品包括一个或多个计算机指令。在计算机上加载或执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输)。所述计算机可读取存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘SolidState Disk(SSD))等。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于视频的工服工帽穿戴状态自动识别方法,其特征在于,所述基于视频的工服工帽穿戴状态自动识别方法包括:
基于视频流时间序列图像,采用时域差分和背景减除相结合,提取视频图像中的移动目标;
根据所检测到的目标团块特征和团块外轮廓时间周期特征完成人体目标与其他目标的分类;对检测到的人体目标,进行头部和躯干部分的分割;
在Lab颜色空间,分别对人体目标头部进行是否佩戴安全帽和躯干部分是否穿着工作服进行智能分析;发现安全防护异常,实时上报安全报警消息至管理部门,同时抓拍存档;
所述基于视频的工服工帽穿戴状态自动识别方法具体包括:
第一步,采用三帧差分和背景减除相结合的方法进行运动目标的检测;
第二步,分类:对检测到的所有目标物,进行分析并从中提取人体目标
第三步,人体头部躯干分割:检测到人体目标之后,对人体目标的头部和躯干部分分割,准备进一步分析安全帽的佩戴状况和工作服穿着状况;
第四步,安全帽佩戴状态识别:对检测到的人体头部ROI区域,做安全帽佩戴识别;
第五步,工作服穿戴状态识别:对检测到的躯干ROI区域,做工作服穿戴情况识别;
第六步,照片和视频数据保存及异常信息上报,当检测到没有穿戴工服工帽时,抓拍当前照片,并对场景开始录像,保存现场状况证据;同时将异常消息和所抓拍照片一起,通过网络实时上报到云端智慧工地服务管理系统,由云端智慧工地服务管理系统将报警消息和照片发送给相关管理部门,并启用现场音柱进行语音报警;同时,云端智慧工地服务管理系统将视频数据上报的信息进行储存,备份。
2.如权利要求1所述的基于视频的工服工帽穿戴状态自动识别方法,其特征在于,第一步中,采用三帧差分法和背景减除相结合的方法进行运动目标的检测中,包括:
利用混合高斯模型对图像中每个像素在较长时间内的大量样本值进行统计估计,并假定像素间颜色信息互不相关,且对各像素点的处理相互独立;对于在序列图像中同一位置像素点值的变化作为随机过程,并用高斯分布描述每个像素点值的呈现规律;
三帧差分法与混合高斯模型检测结果的后处理和融合,包括:
对三帧差分法与混合高斯模型检测法检测得到的二值模板图像分别做形态学两次膨胀操作,一次腐蚀,使检测到的目标整体完整;
做基于大小的滤波处理,去除噪声;
以三帧差分法检测到目标的外接矩形为操作区域,与混合高斯模型检测的二值模板图像做逻辑操作,获得最终的检测结果。
3.如权利要求1所述的基于视频的工服工帽穿戴状态自动识别方法,其特征在于,第二步中,具体包括:
1)基于团块几何特征进行初级分类;
2)基于目标外轮廓周期变化进行二级分类,包括:提取目标图像的剪影;对剪影分别在水平X方向和垂直方向Y方向做积分,分别得到X和Y方向上的投影直方图;对投影直方图做标准化处理;对最近N帧图像中同一目标标准化后的直方图做相关,对相关系数做周期性分析,判断是否为人体目标;
第三步中,分割方法包括:对人体目标剪影做垂直方向Y方向积分,获取投影直方图;对投影直方图,从人体头顶方向向下搜索,第一个局部最低点作为头部与躯体分界点;根据人体头身比,给定一定裕量,判断本次分割是否成功,如果不成功,中断本次识别过程,转入下一目标处理流程;如果分割成功,对头部ROI区域图像做基于肤色的人脸检测,进一步确定是否为人体目标;
第四步中,对检测到的人体头部ROI区域,做安全帽佩戴识别,具体包括:
将头部ROI区域局部图像和系统指定的安全帽颜色从RGB颜色空间转换到Lab颜色空间,如果安全帽颜色用图片给出,则将安全帽图像转换到Lab颜色空间后,求其均值和最值;
在Lab颜色空间,计算头部ROI区域内每个像素点与安全帽颜色之间的距离;
设置阈值T=2.3*k,其中k由用户根据实际应用调节;统计头部ROI区域内小于阈值T的像素个数;超过指定阈值则佩戴有安全帽;
第五步中,对检测到的躯干ROI区域,做工作服穿戴情况识别,具体包括:将躯干ROI区域局部图像和系统指定的工作服颜色从RGB颜色空间转换到Lab颜色空间,如果工作服颜色用图片给出,则将工作服图像转换到Lab颜色空间后,求其均值和最值;
在Lab颜色空间,计算躯干ROI区域内每个像素点与工作服颜色之间的距离;
设置阈值T=2.3*k,其中k由用户根据实际应用调节;统计躯干ROI区域内小于阈值T的像素个数;超过指定阈值则穿着有工作服。
4.一种计算机图像处理程序,其特征在于,所述计算机图像处理程序运行权利要求1~3任意一项所述的基于视频的工服工帽穿戴状态自动识别方法。
5.一种终端,其特征在于,所述终端至少搭载实现权利要求1~3任意一项所述基于视频的工服工帽穿戴状态自动识别方法的控制器。
6.一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行如权利要求1-3任意一项所述的基于视频的工服工帽穿戴状态自动识别方法。
7.一种实施权利要求1所述基于视频的工服工帽穿戴状态自动识别方法的基于视频的工服工帽穿戴状态报警系统。
8.一种基于视频的工服工帽穿戴状态监控平台,其特征在于,所述基于视频的工服工帽穿戴状态监控平台至少搭载权利要求7所述的基于视频的工服工帽穿戴状态报警系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811032872.0A CN109117827B (zh) | 2018-09-05 | 2018-09-05 | 基于视频的工服工帽穿戴状态自动识别方法与报警系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811032872.0A CN109117827B (zh) | 2018-09-05 | 2018-09-05 | 基于视频的工服工帽穿戴状态自动识别方法与报警系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109117827A CN109117827A (zh) | 2019-01-01 |
CN109117827B true CN109117827B (zh) | 2020-11-24 |
Family
ID=64858579
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811032872.0A Active CN109117827B (zh) | 2018-09-05 | 2018-09-05 | 基于视频的工服工帽穿戴状态自动识别方法与报警系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109117827B (zh) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008831A (zh) * | 2019-02-23 | 2019-07-12 | 晋能大土河热电有限公司 | 一种基于计算机视觉分析的智能化监控融合系统 |
CN109949289A (zh) * | 2019-03-18 | 2019-06-28 | 四川轻化工大学 | 一种基于人工智能的混凝土表面缺陷图像识别系统及方法 |
CN110046557A (zh) * | 2019-03-27 | 2019-07-23 | 北京好运达智创科技有限公司 | 基于深度神经网络判别的安全帽、安全带检测方法 |
CN110135290B (zh) * | 2019-04-28 | 2020-12-08 | 中国地质大学(武汉) | 一种基于SSD和AlphaPose的安全帽佩戴检测方法及系统 |
CN112016777A (zh) * | 2019-05-30 | 2020-12-01 | 上海若泰工程建设管理技术有限公司 | 铁路建设工程质量安全管理系统及方法 |
CN110334619A (zh) * | 2019-06-21 | 2019-10-15 | 上海翊视皓瞳信息科技有限公司 | 一种基于穿戴设备的安全监督系统及方法 |
CN110751125A (zh) * | 2019-10-29 | 2020-02-04 | 秒针信息技术有限公司 | 穿戴检测方法及装置 |
CN111091535A (zh) * | 2019-11-22 | 2020-05-01 | 三一重工股份有限公司 | 基于深度学习图像语义分割的工厂管理方法和系统 |
CN110909689A (zh) * | 2019-11-26 | 2020-03-24 | 浪潮软件股份有限公司 | 一种厨房监控方法及系统 |
CN112861576A (zh) * | 2019-11-27 | 2021-05-28 | 顺丰科技有限公司 | 员工形象检测方法、装置、计算机设备和存储介质 |
CN111083441A (zh) * | 2019-12-18 | 2020-04-28 | 广州穗能通能源科技有限责任公司 | 工地监控方法、装置、计算机设备和存储介质 |
CN111611439B (zh) * | 2020-03-31 | 2023-08-25 | 深圳奇迹智慧网络有限公司 | 消防安全监测方法、装置、计算机设备和存储介质 |
CN111597889B (zh) * | 2020-04-09 | 2022-11-18 | 苏宁云计算有限公司 | 一种视频中目标移动的检测方法、装置及系统 |
CN111507977B (zh) * | 2020-04-28 | 2024-04-02 | 同济大学 | 一种图像中钡剂信息提取方法 |
CN111639546A (zh) * | 2020-05-07 | 2020-09-08 | 金钱猫科技股份有限公司 | 一种基于神经网络的小尺度目标云计算识别方法和装置 |
CN111915643B (zh) * | 2020-05-20 | 2023-10-10 | 北京理工大学 | 基于zed视觉的游泳运动员出水高度的检测系统及方法 |
CN111709360B (zh) * | 2020-06-16 | 2023-04-07 | 上海大学 | 一种安全绳佩戴识别方法及系统 |
CN111966067A (zh) * | 2020-08-25 | 2020-11-20 | 浙江交投丽新矿业有限公司 | 一种砂石骨料厂人员安全管控系统 |
CN112307913B (zh) * | 2020-10-20 | 2021-09-28 | 江苏濠汉信息技术有限公司 | 一种基于无人机视觉的防护设备穿戴检测方法及装置 |
CN113392713A (zh) * | 2021-05-20 | 2021-09-14 | 上海可深信息科技有限公司 | 一种工衣工服穿戴识别方法 |
CN113343846B (zh) * | 2021-06-04 | 2024-03-15 | 温州大学 | 一种基于深浅层特征融合的反光衣检测系统 |
CN113283369A (zh) * | 2021-06-08 | 2021-08-20 | 苏州市伏泰信息科技股份有限公司 | 一种港口码头作业人员安全防护措施监控系统及方法 |
CN113553963A (zh) * | 2021-07-27 | 2021-10-26 | 广联达科技股份有限公司 | 安全帽的检测方法、装置、电子设备及可读存储介质 |
CN114359150A (zh) * | 2021-12-03 | 2022-04-15 | 深圳市宏电技术股份有限公司 | 一种基于边缘检测和直方图阈值设定的工服检测方法 |
CN113989858B (zh) * | 2021-12-28 | 2022-04-08 | 上海安维尔信息科技股份有限公司 | 一种工作服识别方法及系统 |
CN114743154B (zh) * | 2022-06-14 | 2022-09-20 | 广州英码信息科技有限公司 | 一种基于注册形式的工服识别方法及计算机可读介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100664370B1 (ko) * | 2006-06-14 | 2007-01-05 | 현대중공업 주식회사 | 선박 승선 인원 자동파악 및 안전관리 시스템 |
CN103108159A (zh) * | 2013-01-17 | 2013-05-15 | 新疆电力公司乌鲁木齐电业局 | 一种电力智能视频分析监控系统和方法 |
CN106846359A (zh) * | 2017-01-17 | 2017-06-13 | 湖南优象科技有限公司 | 基于视频序列的运动目标快速检测方法 |
CN106981163A (zh) * | 2017-03-26 | 2017-07-25 | 天津普达软件技术有限公司 | 一种人员入侵异常事件报警方法 |
CN107679524A (zh) * | 2017-10-31 | 2018-02-09 | 天津天地伟业信息系统集成有限公司 | 一种基于视频的安全帽佩戴情况的检测方法 |
CN108319934A (zh) * | 2018-03-20 | 2018-07-24 | 武汉倍特威视系统有限公司 | 基于视频流数据的安全帽佩戴情况检测方法 |
-
2018
- 2018-09-05 CN CN201811032872.0A patent/CN109117827B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100664370B1 (ko) * | 2006-06-14 | 2007-01-05 | 현대중공업 주식회사 | 선박 승선 인원 자동파악 및 안전관리 시스템 |
CN103108159A (zh) * | 2013-01-17 | 2013-05-15 | 新疆电力公司乌鲁木齐电业局 | 一种电力智能视频分析监控系统和方法 |
CN106846359A (zh) * | 2017-01-17 | 2017-06-13 | 湖南优象科技有限公司 | 基于视频序列的运动目标快速检测方法 |
CN106981163A (zh) * | 2017-03-26 | 2017-07-25 | 天津普达软件技术有限公司 | 一种人员入侵异常事件报警方法 |
CN107679524A (zh) * | 2017-10-31 | 2018-02-09 | 天津天地伟业信息系统集成有限公司 | 一种基于视频的安全帽佩戴情况的检测方法 |
CN108319934A (zh) * | 2018-03-20 | 2018-07-24 | 武汉倍特威视系统有限公司 | 基于视频流数据的安全帽佩戴情况检测方法 |
Non-Patent Citations (1)
Title |
---|
变电站视频中工作人员的识别;武爱敏;《中国优秀硕士学位论文全文数据库》;20180331;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109117827A (zh) | 2019-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109117827B (zh) | 基于视频的工服工帽穿戴状态自动识别方法与报警系统 | |
EP2801078B1 (en) | Context aware moving object detection | |
CN107679471B (zh) | 基于视频监控平台的室内人员空岗检测方法 | |
CN112396658B (zh) | 一种基于视频的室内人员定位方法及定位系统 | |
Ryan et al. | Crowd counting using group tracking and local features | |
CN113139521B (zh) | 一种用于电力监控的行人越界标监测方法 | |
Avgerinakis et al. | Recognition of activities of daily living for smart home environments | |
CN109145708B (zh) | 一种基于rgb和d信息融合的人流量统计方法 | |
CN111401311A (zh) | 一种基于图像检测的高空抛物识别方法 | |
CN104966304A (zh) | 基于卡尔曼滤波与非参数背景模型的多目标检测跟踪方法 | |
Salehi et al. | An automatic video-based drowning detection system for swimming pools using active contours | |
KR101868103B1 (ko) | 다중 이동 물체의 식별 및 추적을 위한 영상 감시 장치 및 방법 | |
CN112183472A (zh) | 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法 | |
CN110096945B (zh) | 基于机器学习的室内监控视频关键帧实时提取方法 | |
CN112287823A (zh) | 一种基于视频监控的面部口罩识别方法 | |
Zaidi et al. | Video anomaly detection and classification for human activity recognition | |
CN111476160A (zh) | 损失函数优化方法、模型训练方法、目标检测方法及介质 | |
Madhubala et al. | A vision based fall detection system for elderly people | |
CN114140745A (zh) | 施工现场人员属性检测方法、系统、装置及介质 | |
Furuya et al. | Road intersection monitoring from video with large perspective deformation | |
KR102019301B1 (ko) | 농축산 도난을 감지하는 영상 감시 장치 및 그 방법 | |
CN114885119A (zh) | 一种基于计算机视觉的智能监控报警系统及方法 | |
KR101547255B1 (ko) | 지능형 감시 시스템의 객체기반 검색방법 | |
JP5552946B2 (ja) | 顔画像サンプル採取装置、顔画像サンプル採取方法、プログラム | |
KR102584708B1 (ko) | 과소 및 과밀 환경을 지원하는 군중위험관리시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |