CN116152863A - 一种人员信息识别方法、装置、电子设备及存储介质 - Google Patents

一种人员信息识别方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN116152863A
CN116152863A CN202310420649.8A CN202310420649A CN116152863A CN 116152863 A CN116152863 A CN 116152863A CN 202310420649 A CN202310420649 A CN 202310420649A CN 116152863 A CN116152863 A CN 116152863A
Authority
CN
China
Prior art keywords
target object
image
frame
target
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310420649.8A
Other languages
English (en)
Other versions
CN116152863B (zh
Inventor
李永军
柴东元
温招洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Snegrid Electric Technology Co ltd
Original Assignee
Snegrid Electric Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Snegrid Electric Technology Co ltd filed Critical Snegrid Electric Technology Co ltd
Priority to CN202310420649.8A priority Critical patent/CN116152863B/zh
Publication of CN116152863A publication Critical patent/CN116152863A/zh
Application granted granted Critical
Publication of CN116152863B publication Critical patent/CN116152863B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种人员信息识别方法、装置、电子设备及存储介质,包括:获取施工场地的视频;基于视频各帧图像选取部分图像,将选取的图像中的目标对象标注外接矩形框,制作训练数据集;将所述外接矩形框的训练数据集输入至深度学习算法模型进行训练,以获得可描述各帧图像中目标对象表观特征的目标检测模型;将施工场地的视频各帧图像输入目标检测模型内,获取各帧图像中目标对象的表观特征;基于目标对象的表观特征,筛选出未佩戴安全帽的目标区域图;基于InsightFace算法识别目标区域图,输出特征向量,与信息库中特征向量比对,获取违章人员信息。施工监理人员只需提供施工场地的巡飞视频,即可快速实现违章定位,极大地降低了工作人员的工作强度。

Description

一种人员信息识别方法、装置、电子设备及存储介质
技术领域
本专利申请涉及违章识别技术领域,特别是涉及一种人员信息识别方法、装置、电子设备及存储介质。
背景技术
安全帽是各行各业安全生产工作者和高空作业人员必不可少的一种安全用具,每位作业人员都应该时刻牢记:不戴安全帽,不进施工现场;当作业人员头部受到坠落物的中击时,利用安全帽壳、帽衬在瞬间先将冲击力分解到头盖骨的整个面积然后利用安全帽的各个部位,从而起到保护作业人员的头部不受到伤害或降低伤害的作用。因此进入生产一线佩戴安全帽是极其重要的,然而,有些施工人员的安全意识不高,在进入施工区域后私自摘掉安全帽时有发生,安全专员人工监视,巡视点有限,仅依靠人力无法做到现场督查全覆盖,不能及时提醒纠正不安全作业行为。
在光伏电站建设过程中,光伏电站建设面积广,施工单位多人员多,需要区分施工人员及其所在单位,然而市面上常见的行为识别方法仅仅给出违章人员的位置,并没有识别出违章人员具体是谁,不能给出违章人员的具体信息,导致违章作业人员层出不穷,给施工带来安全风险。
发明内容
本发明旨在至少在一定程度上解决相关技术中技术问题之一,为此,本发明的第一个目的在于提出一种人员信息识别方法,施工监理人员只需提供施工现场视频,操作简便,相较于人工方法,效率提升3倍以上,极大地降低了监理人员的工作强度。
本发明的第二个目的在于提出一种人员信息识别装置。
本发明的第三个目的在于提出一种电子设备。
本发明的第四个目的在于提出一种存储介质。
为实现上述目的,本发明第一方面实施例提出了一种人员信息识别方法,包括:
获取施工场地的视频;
基于视频各帧图像选取部分图像,将选取的图像中的目标对象标注外接矩形框,制作训练数据集;
将所述外接矩形框的训练数据集输入至深度学习算法模型进行训练,以获得可描述各帧图像中目标对象表观特征的目标检测模型;
将施工场地的视频各帧图像输入目标检测模型内,获取各帧图像中目标对象的表观特征;
基于目标对象的表观特征,筛选出未佩戴安全帽的目标区域图;
基于InsightFace算法识别目标区域图,输出特征向量,与信息库中特征向量比对,获取违章人员信息。
作为本案优选地实施例,所述获取施工场地的视频,包括:
采用无人机上的云台相机拍摄施工场地区域的视频。
作为本案优选地实施例,所述基于视频各帧图像选取部分图像,将选取的图像中的目标对象标注外接矩形框,制作训练数据集,包括:
基于视频各帧图像选取部分图像,对图像中的目标对象标注外接矩形框,制作训练数据集,其中,外接矩形框是基于LabelImg图像标注软件,手动标注目标对象的外接矩形框,LabelImg图像标注软件自动生成xml格式文件并存储矩形框信息,外接矩形框的定义为:佩戴安全帽时,矩形框包含人头和安全帽区域;未佩戴安全帽时,矩形框包含人头区域;安全帽未戴在头部而是在手中、地面或其他附近位置时,矩形框包含安全帽区域。
作为本案优选地实施例,所述将所述外接矩形框的训练数据集输入至深度学习算法模型进行训练,以获得可描述各帧图像中目标对象表观特征的目标检测模型,包括:
将外接矩形框的训练数据集图像预处理后输入至yolov5深度学习算法模型中进行训练学习,yolov5深度学习算法模型包括Backbone模块、Neck模块和Head模块,Backbone模块提取特征并输出第一特征图,Neck模块对第一特征图进行特征融合并输出第二特征图,Head模块对第二特征图进行卷积,输出目标对象预测框的偏移量,采用NMS非极大值抑制,生成目标对象的目标检测模型,通过生成目标检测模型描述目标对象的表观特征,表观特征包括目标对象的类别及外接矩形坐标信息集合;
外接矩形坐标信息集合的计算公式如下:
Figure SMS_1
其中,
Figure SMS_2
是任一帧图像检测到目标对象的类别及坐标信息集合,/>
Figure SMS_3
是第i个目标对象的类别及坐标信息,/>
Figure SMS_4
的计算公式如下:
Figure SMS_5
其中,
Figure SMS_6
是目标对象的类别,/>
Figure SMS_7
取值0、1或2,0代表佩戴安全帽,1代表未佩戴安全帽,2代表安全帽本体,/>
Figure SMS_8
是目标对象外接矩形左上角x坐标值,/>
Figure SMS_9
是目标对象外接矩形左上角y坐标值,/>
Figure SMS_10
是目标对象外接矩形右下角x坐标值,/>
Figure SMS_11
是目标对象外接矩形右下角y坐标值。
作为本案优选地实施例,所述基于目标对象的表观特征,筛选出未佩戴安全帽的目标区域图,包括:
基于目标检测模型筛选出外接矩形坐标信息集合中
Figure SMS_12
的目标对象的集合,定义未佩戴安全帽的目标集合为/>
Figure SMS_13
,/>
Figure SMS_14
的计算公式如下:
Figure SMS_15
其中,
Figure SMS_16
是/>
Figure SMS_17
即未佩戴安全帽时第i个目标对象的坐标信息;
Figure SMS_18
其中,
Figure SMS_19
是目标对象外接矩形左上角x坐标值,/>
Figure SMS_20
是目标对象外接矩形左上角y坐标值,/>
Figure SMS_21
是目标对象外接矩形右下角x坐标值,/>
Figure SMS_22
是目标对象外接矩形右下角y坐标值。
作为本案优选地实施例,所述基于InsightFace算法识别目标区域图,输出特征向量,与信息库中特征向量比对,获取违章人员信息,包括:
建立施工人员的信息库,获取人脸的特征向量,确定人脸比对阈值;
基于目标区域图,确定未佩戴安全帽的目标区域图集合;
基于InsightFace算法识别目标区域图集合,输出人脸特征向量,与信息库中的特征向量比对,获取违章人员信息。
作为本案优选地实施例,所述建立施工人员的信息库,获取人脸的特征向量,确定人脸比对阈值,包括:
定义已知施工人员的信息库,定义公式如下:
Figure SMS_23
其中,
Figure SMS_24
为人员信息库,/>
Figure SMS_25
为某个施工人员的人员信息,
Figure SMS_26
,/>
Figure SMS_27
为施工人员姓名,/>
Figure SMS_28
为施工人员唯一编号,/>
Figure SMS_29
为施工人员所属单位名称,/>
Figure SMS_30
为通过事先录入施工人员图像库然后利用InsightFace算法识别得到的人脸特征向量;
基于目标区域图,确定未佩戴安全帽的目标区域图集合,包括:
定义未佩戴安全帽的目标区域图集合
Figure SMS_31
,/>
Figure SMS_32
,/>
Figure SMS_33
是指从图像中截取出的坐标范围为/>
Figure SMS_34
的矩形区域图;
基于InsightFace算法识别目标区域图集合,输出人脸特征向量,与信息库中的特征向量比对,获取违章人员信息,包括:
基于InsightFace算法识别目标区域图集合
Figure SMS_36
,输出人脸特征向量/>
Figure SMS_38
Figure SMS_41
,/>
Figure SMS_37
是/>
Figure SMS_40
中人脸区域的特征向量,依次计算/>
Figure SMS_42
中的/>
Figure SMS_44
和/>
Figure SMS_35
中的每个/>
Figure SMS_39
的欧氏距离/>
Figure SMS_43
,基于欧氏距离/>
Figure SMS_45
判定违章人员信息,判定标准为:
若欧氏距离
Figure SMS_46
小于人脸比对阈值,则匹配成功,获取/>
Figure SMS_47
中的人员姓名、唯一编号、所属单位;反之,则匹配失败,认为该人员为未知人员。
本发明第二方面实施例提出了一种人员信息识别装置,包括:
获取模块,用于获取施工场地的视频;
训练集制作模块,用于基于视频各帧图像选取部分图像,将选取的图像中的目标对象标注外接矩形框,制作训练数据集;
训练模块,用于将所述外接矩形框的训练数据集输入至深度学习算法模型进行训练,以获得可描述各帧图像中目标对象表观特征的目标检测模型;
执行模块,用于将施工场地的视频各帧图像输入目标检测模型内,获取各帧图像中目标对象的表观特征;
筛选模块,用于基于目标对象的表观特征,筛选出未佩戴安全帽的目标区域图;
比对模块,基于InsightFace算法识别目标区域图,输出特征向量,与信息库中特征向量比对,获取违章人员信息。
本发明第三方面实施例提出了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如本发明第一方面实施例提出的一种人员信息识别方法。
本发明第四方面实施例提出了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明第一方面实施例提出的一种人员信息识别方法。
与现有技术相比,本发明的有益效果是:本发明提出的一种人员信息识别方法,通过训练获得目标检测模型,通过目标检测模型获取施工场地视频中目标对象的表观特征,筛选出未佩戴安全帽的目标区域图,输出特征向量,与信息库中特征向量比对,获取违章人员信息,施工监理人员只需提供施工场地的巡飞视频,即可快速实现违章定位,极大地降低了工作人员的工作强度,操作简单,相较于人工巡查,效率提升3倍以上。
附图说明
图1为本申请一个实施例人员信息识别方法的流程示意图;
图2为本申请一个实施例步骤S6的流程示意图;
图3为本申请一个实施例中Mosaic图像增强技术原理图;
图4为本发明提供的电子设备的结构示意图。
具体实施方式
以下通过特定的具体实例说明本专利申请的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本专利申请的其他优点与功效。本专利申请还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本专利申请的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
下面结合附图,通过具体的实施例及其应用场景对本申请实施例提供的一种人员信息识别方法、装置、电子设备及存储介质进行详细地说明。
本申请实施例中,可以通过构建人员信息识别装置,在人员信息识别装置中,执行人员信息识别方法,通过训练获得目标检测模型,通过目标检测模型获取施工场地视频中目标对象的表观特征,筛选出未佩戴安全帽的目标区域图,输出特征向量,与信息库中特征向量比对,获取违章人员信息,施工监理人员只需提供施工场地的巡飞视频,即可快速实现违章定位,极大地降低了工作人员的工作强度,操作简单,相较于人工巡查,效率提升3倍以上。
人员信息识别装置可以包括获取模块、训练集制作模块、训练模块、执行模块、筛选模块和比对模块。
获取模块,用于获取施工场地的视频;
训练集制作模块,用于基于视频各帧图像选取部分图像,将选取的图像中的目标对象标注外接矩形框,制作训练数据集;
训练模块,用于将所述外接矩形框的训练数据集输入至深度学习算法模型进行训练,以获得可描述各帧图像中目标对象表观特征的目标检测模型;
执行模块,用于将施工场地的视频各帧图像输入目标检测模型内,获取各帧图像中目标对象的表观特征;
筛选模块,用于基于目标对象的表观特征,筛选出未佩戴安全帽的目标区域图;
比对模块,基于InsightFace算法识别目标区域图,输出特征向量,与信息库中特征向量比对,获取违章人员信息。
该装置可应用于终端,具体可由,终端中的硬件或软件执行。
该终端包括但不限于具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的移动电话或平板电脑等便携式通信设备。还应当理解的是,在某些实施例中,该终端可以不是便携式通信设备,而是具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的台式计算机。
以下各个实施例中,描述了包括显示器和触摸敏感表面的终端。然而,应当理解的是,终端可以包括诸如物理键盘、鼠标和控制杆的一个或多个其它物理用户接口设备。
本申请实施例提供的一种人员信息识别方法,该人员信息识别方法的执行主体可以为电子设备或者电子设备中能够实现该人员信息识别方法的功能模块或功能实体,本申请实施例提及的电子设备包括但不限于手机、平板电脑、电脑、相机和可穿戴设备等,下面以电子设备作为执行主体为例对本申请实施例提供的人员信息识别方法进行说明。
图1是本发明一个实施例的人员信息识别方法的流程图,如图1所示,识别方法包括:
S1、获取施工场地的视频;
可以理解的是,通过采用无人机上的相机拍摄获取施工区域的视频,具体的,依据施工场地的区域位置,无人机设定的飞行参数为:相机焦距调整至10倍焦距,飞行高度在30m,飞行速度为5m/s,以与地面呈60°夹角进行拍摄,视频的分辨率以清晰为原则,分辨率为5184*3888或更高。
S2、基于视频各帧图像选取部分图像,将选取的图像中的目标对象标注外接矩形框,制作训练数据集;
在该步骤中,在视频各帧图像中选取部分图像,对选取的图像中的目标对象标注外接矩形框,制作训练数据集,其中,外接矩形框是基于LabelImg图像标注软件,手动标注目标对象的外接矩形框,具体的,佩戴安全帽时,矩形框需包含人头和安全帽区域,矩形框的名称为“aqmzc”;未佩戴安全帽时,矩形框需包含人头区域,矩形框的名称为“wdaqm”;安全帽未戴在头部而是在手中、地面或其他附近位置时,矩形框需包含安全帽区域,矩形框名称为“aqmbt”,LabelImg图像标注软件自动生成xml格式文件并存储矩形框信息,一张图像对应1个xml文件。
S3、将所述外接矩形框的训练数据集输入至深度学习算法模型进行训练,以获得可描述各帧图像中目标对象表观特征的目标检测模型;
将外接矩形框的训练数据集图像预处理后输入至yolov5深度学习算法模型中进行训练学习,yolov5深度学习算法模型包括Backbone模块、Neck模块和Head模块,Backbone模块提取特征并输出第一特征图,Neck模块对第一特征图进行特征融合并输出第二特征图,Head模块对第二特征图进行卷积,输出目标对象预测框的偏移量,采用NMS非极大值抑制,生成目标对象的目标检测模型,通过生成目标检测模型描述目标对象的表观特征,表观特征包括目标对象的类别及外接矩形坐标信息集合;
外接矩形坐标信息集合的计算公式如下:
Figure SMS_48
,其中,
Figure SMS_49
是任一帧图像检测到目标对象的类别及坐标信息集合,/>
Figure SMS_50
是第i个目标对象的类别及坐标信息,/>
Figure SMS_51
的计算公式如下:
Figure SMS_52
,其中,/>
Figure SMS_53
是目标对象的类别,/>
Figure SMS_54
取值0、1或2,0代表佩戴安全帽,1代表未佩戴安全帽,2代表安全帽本体,/>
Figure SMS_55
是目标对象外接矩形左上角x坐标值,/>
Figure SMS_56
是目标对象外接矩形左上角y坐标值,/>
Figure SMS_57
是目标对象外接矩形右下角x坐标值,/>
Figure SMS_58
是目标对象外接矩形右下角y坐标值。
需要说明的是,训练学习的流程包括:yolov5深度学习算法读取训练数据集图像的数据,神经网络提取图像特征,根据特征进行识别,再根据损失函数计算识别误差,误差小于阈值时,完成模型训练,在训练时,一般选取10张图像作为训练数据集,其中,8张用于训练,2张用于测试。
根据本发明的一个实施例,以光伏电站中工作人员为目标图像、视频图像分辨率为5184*3888为例,由于分辨率过大,可能会造成显存爆炸,无法直接用于训练算法,手动裁剪包含人头目标的感兴趣区域,每个区域保存为分辨率为1920*1080的新图像,利用LabelImg标注软件标注图像,具体是标注图像中人头区域的外接矩形框,其中佩戴安全帽时,矩形框需包含佩戴安全帽的人头区域,矩形框的名称为“aqmzc”;未佩戴安全帽时,矩形框需包含人头区域,矩形框名称为“wdaqm”;安全帽未戴在头部而是在手中、地面等其它位置时,矩形框需包含安全帽本体区域,矩形框名称为“aqmbt”。将以上矩形框信息存储在xml文件中,1张图像对应1个xml。
外接矩形框的训练数据集预处理包括:设置图像输入尺寸为1440*1440,再利用Mosaic图像增强技术对人头数据集进行扩充。
需要说明的是,由于yolov5神经网络会将图像下采样到32倍,因此缩放尺寸必须是32的倍数;由于人头目标较小,原图像1920*1080缩放到1440*1440,不会丢失人头的关键特征信息,同时可以节省显存资源且提高训练速度。
Mosaic技术流程:如图3所示,首先构建一张尺寸为2880*2880的灰色(R通道值114,G通道值114,B通道值114)底图,在点A(720,720)和点B(2160,2160)限定的矩形内堆积选择一点C(cut_x,cut_y)作为拼接点,随机选择4张图像,根据拼接点分别裁剪区域拼接到底图中;将预处理后的数据集输入到yolov5神经网络的Backbone模块。
根据本发明的一个实施例,yolov5深度学习算法模型在训练时,首先在Backbone模块中通过卷积层、CSP1_X结构以及SPPF结构提取人头特征,并输出136*136*512、68*68*512、34*34*512三种尺度的第一特征图,接着在Neck模块通过上采样和下采样操作将三种尺度的第一特征图进行特征融合,并输出128*180*180、256*90*90、512*45*45三种尺度的第二特征图,最后在Head模块中通过1*1卷积核从三种第二特征图中输出人头预测框偏移量参数
Figure SMS_59
,其中,/>
Figure SMS_60
、/>
Figure SMS_61
分别是人头预测框相对先验框的宽度和高度的偏移量;/>
Figure SMS_62
是人头预测框的置信度;
Figure SMS_63
是人头预测的具体类别,0是佩戴安全帽的人头,1是未佩戴安全帽的人头;2是未佩戴在头上的安全帽。需要说明的是,根据以下公式计算出人头预测框的位置:
Figure SMS_64
Figure SMS_65
,/>
Figure SMS_66
Figure SMS_67
Figure SMS_69
是人头预测框中心点所在网格左上角坐标;/>
Figure SMS_72
是人头预测框中心坐标相对/>
Figure SMS_74
的偏移量;/>
Figure SMS_70
是人头预测框的中心点坐标;/>
Figure SMS_73
、/>
Figure SMS_75
分别是人头预测框的宽度和高度;/>
Figure SMS_76
是Sigmoid函数,将预测的偏移量限制在[0,1]之间,即预测的中心点不会超过对应的网格区域;/>
Figure SMS_68
、/>
Figure SMS_71
分别是先验框的宽度和高度。
根据
Figure SMS_77
值对所有人头预测框位置参数/>
Figure SMS_78
进行筛选与排序,将/>
Figure SMS_79
大于0.85的框作为预选框;
再采用NMS非极大值抑制,在
Figure SMS_80
的预选框中选取最大/>
Figure SMS_81
值的
Figure SMS_82
作为基准,计算它与其他/>
Figure SMS_83
的预选框的IOU,去除IOU大于0.75的框;重复该步骤,在剩下的预选框中选取新基准,并去除IOU大于0.75的框,直到没有IOU大于0.75的框;最后每一个基准代表一个佩戴安全帽的人头,从而得到其预测框;未佩戴安全帽的人头和未佩戴在头上的安全帽的预测框的获取步骤也一样。
其中,IOU是指人头预测框和真实框交集和并集的比值,计算公式为:
Figure SMS_84
Figure SMS_85
是指基准框,/>
Figure SMS_86
是指其他框,area是指面积。
定义损失函数并训练人头的目标检测模型;损失函数定义为定位损失、置信度损失和类别损失之和,计算公式如下:
Figure SMS_87
其中,K、
Figure SMS_90
、B分别为输出特征图、网格和每个网格上anchor box的数量,anchorbox为可能存在人头的矩形框;/>
Figure SMS_92
为对应项的权重,/>
Figure SMS_94
,/>
Figure SMS_89
,/>
Figure SMS_91
Figure SMS_93
表示第k个输出特征图,第i个网格,第j个anchor box是否是正样本,如果是则为1,反之为0;/>
Figure SMS_95
分别是预测框和真实框;/>
Figure SMS_88
用于平衡每个尺度的输出特征图的权重,取值为[4.0,1.0,0.4],依次对应180*180、90*90、45*45的输出特征图;
定位损失
Figure SMS_96
Figure SMS_97
,其中/>
Figure SMS_98
为预测框和真实框的中心点距离,
Figure SMS_99
为预测框和真实框的最小包围矩形的对角线长度,
V为预测框和真实框的宽高比相似度,
Figure SMS_100
为真实框的宽度,/>
Figure SMS_101
为真实框的高度,
Figure SMS_102
为预测框的宽度,
Figure SMS_103
为预测框的高度;
置信度损失
Figure SMS_104
,/>
Figure SMS_105
为人头预测框置信度,
Figure SMS_106
为人头预测框和真实框的IOU值,/>
Figure SMS_107
为二分类交叉熵损失,/>
Figure SMS_108
表示正样本的权重;
类别损失
Figure SMS_109
,/>
Figure SMS_110
为人头预测框类别,/>
Figure SMS_111
为人头真实框类别,/>
Figure SMS_112
为二分类交叉熵损失,/>
Figure SMS_113
表示人头类别的权重。
通过分析损失函数的结果值随着训练次数的变化,判断神经网络预测人头信息与真实人头信息的误差,预测信息越接近期望信息,损失函数越小,人头的目标检测模型准确率越高。
S4、将施工场地的视频各帧图像输入目标检测模型内,获取各帧图像中目标对象的表观特征;
S5、基于目标对象的表观特征,筛选出未佩戴安全帽的目标区域图;
在该步骤中,基于目标检测模型筛选出外接矩形坐标信息集合中
Figure SMS_114
的目标对象的集合,定义未佩戴安全帽的目标集合为/>
Figure SMS_115
,/>
Figure SMS_116
的计算公式如下:
Figure SMS_117
其中,
Figure SMS_118
是/>
Figure SMS_119
即未佩戴安全帽时第i个目标对象的坐标信息;
Figure SMS_120
,其中,/>
Figure SMS_121
是目标对象外接矩形左上角x坐标值,/>
Figure SMS_122
是目标对象外接矩形左上角y坐标值,/>
Figure SMS_123
是目标对象外接矩形右下角x坐标值,/>
Figure SMS_124
是目标对象外接矩形右下角y坐标值。
S6、基于InsightFace算法识别目标区域图,输出特征向量,与信息库中特征向量比对,获取违章人员信息,如图2所示,包括如下步骤:
S61、首先建立施工人员的信息库,获取人脸的特征向量,确定人脸比对阈值;
S62、基于目标区域图,确定未佩戴安全帽的目标区域图集合;
S63、基于InsightFace算法识别目标区域图集合,输出人脸特征向量,与信息库中的特征向量比对,获取违章人员信息。
需要说明的是,在步骤S61中,信息库确定施工人员的信息,定义公式为:
Figure SMS_126
,其中,
Figure SMS_128
为人员信息库,/>
Figure SMS_130
为某个施工人员的人员信息,
Figure SMS_127
,/>
Figure SMS_129
为施工人员姓名,/>
Figure SMS_131
为施工人员唯一编号,/>
Figure SMS_132
为施工人员所属单位名称,/>
Figure SMS_125
为通过事先录入施工人员图像库然后利用InsightFace算法识别得到的人脸特征向量。
需要说明的是,在步骤S62中,定义未佩戴安全帽的目标区域图集合
Figure SMS_133
,/>
Figure SMS_134
,/>
Figure SMS_135
是指从图像中截取出的坐标范围为/>
Figure SMS_136
的矩形区域图。
需要说明的是,在步骤S63中,基于InsightFace算法识别目标区域图集合
Figure SMS_137
,输出人脸特征向量/>
Figure SMS_138
,人脸特征向量/>
Figure SMS_139
的输出公式为:
Figure SMS_141
,/>
Figure SMS_145
是/>
Figure SMS_147
中人脸区域的512维特征向量,依次计算/>
Figure SMS_142
中的/>
Figure SMS_143
和/>
Figure SMS_146
中的每个/>
Figure SMS_148
的欧氏距离/>
Figure SMS_140
,基于欧氏距离/>
Figure SMS_144
判定违章人员信息,判定标准为:
若欧氏距离
Figure SMS_149
小于人脸比对阈值,则匹配成功,获取/>
Figure SMS_150
中的人员姓名、唯一编号、所属单位;反之,则匹配失败,认为该人员为未知人员。
需要说明的是,欧式距离的计算公式为:
Figure SMS_151
人脸比对阈值的取值为1.24,当欧式距离小于1.24,则匹配成功,获取
Figure SMS_152
中的人员姓名、唯一编号、所属单位;反之,则匹配失败,认为该人员为未知人员。
根据本发明的一个实施例,在人员信息识别装置中,获取模块是通过采用无人机上的相机拍摄施工区域的视频,具体的,依据光伏电站的区域位置,无人机设定的飞行参数为:无人机设定的飞行参数为:相机焦距调整至10倍焦距,飞行高度在30m,飞行速度为5m/s,以与地面呈60°夹角进行拍摄,视频的分辨率以清晰为原则,分辨率为5184*3888或更高。
训练集制作模块用于在视频各帧图像中选取部分图像,对选取的图像中的目标对象标注外接矩形框,制作训练数据集。
需要说明的是,外接矩形框是基于LabelImg图像标注软件,手动标注目标对象的外接矩形框,具体的,佩戴安全帽时,矩形框需包含人头和安全帽区域,矩形框的名称为“aqmzc”;未佩戴安全帽时,矩形框需包含人头区域,矩形框的名称为“wdaqm”;安全帽未戴在头部而是在手中、地面或其他附近位置时,矩形框需包含安全帽区域,矩形框名称为“aqmbt”,LabelImg图像标注软件自动生成xml格式文件并存储矩形框信息,一张图像对应1个xml文件。
训练模块是将外接矩形框的训练数据集图像输入至yolov5深度学习算法模型中进行训练学习,生成目标对象的目标检测模型,通过生成目标检测模型描述目标对象的表观特征,表观特征包括目标对象的类别及外接矩形坐标信息集合。
根据本发明的一个实施例,训练时,训练集的图像数据输入至yolov5深度学习算法中,算法读取图像数据,神经网络提取该图像特征,神经网络根据特征进行识别,再根据损失函数计算识别误差,当误差小于阈值时,完成模型训练。
执行模块是将施工场地的视频各帧图像输入目标检测模型内,获取各帧图像中目标对象的表观特征。
筛选模块是基于目标对象的表观特征,筛选出未佩戴安全帽的目标区域图。
比对模块是基于InsightFace算法识别目标区域图,输出特征向量,与信息库中特征向量比对,获取违章人员信息。
本申请实施例中的人员信息识别装置可以是电子设备,也可以是电子设备中的部件,例如集成电路或芯片。该电子设备可以是终端,也可以为除终端之外的其他设备。示例性的,电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、移动上网装置(Mobile Internet Device,MID)、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、机器人、可穿戴设备、超级移动个人计算机(ultra-mobilepersonal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等,还可以为服务器、网络附属存储器(Network Attached Storage,NAS)、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本申请实施例不作具体限定。
本申请实施例中的人员信息识别装置可以为具有操作系统的装置。该操作系统可以为安卓(Android)操作系统,可以为IOS操作系统,还可以为其他可能的操作系统,本申请实施例不作具体限定。
本申请实施例提供的人员信息识别装置能够实现图1至图2的方法实施例实现的各个过程,为避免重复,这里不再赘述。
在一些实施例中,如图4所示,本申请实施例还提供一种电子设备700,包括处理器701、存储器702及存储在存储器702上并可在处理器701上运行的计算机程序,该程序被处理器701执行时实现上述人员信息识别方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。需要说明的是,本申请实施例中的电子设备包括上述所述的移动电子设备和非移动电子设备。
本发明还提出了一种计算机可读存储介质,存储介质中存储有计算机程序,计算机程序被设置为运行时,实现如本发明实施例提出的人员信息识别方法。
需要说明的是,在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种人员信息识别方法,其特征在于,包括:
获取施工场地的视频;
基于视频各帧图像选取部分图像,将选取的图像中的目标对象标注外接矩形框,制作训练数据集;
将所述外接矩形框的训练数据集输入至深度学习算法模型进行训练,以获得可描述各帧图像中目标对象表观特征的目标检测模型;
将施工场地的视频各帧图像输入目标检测模型内,获取各帧图像中目标对象的表观特征;
基于目标对象的表观特征,筛选出未佩戴安全帽的目标区域图;
基于InsightFace算法识别目标区域图,输出特征向量,与信息库中特征向量比对,获取违章人员信息。
2.根据权利要求1所述的人员信息识别方法,其特征在于,所述获取施工场地的视频,包括:
采用无人机上的云台相机拍摄施工场地区域的视频。
3.根据权利要求1所述的人员信息识别方法,其特征在于,所述基于视频各帧图像选取部分图像,将选取的图像中的目标对象标注外接矩形框,制作训练数据集,包括:
基于视频各帧图像选取部分图像,对图像中的目标对象标注外接矩形框,制作训练数据集,其中,外接矩形框是基于LabelImg图像标注软件,手动标注目标对象的外接矩形框,LabelImg图像标注软件自动生成xml格式文件并存储矩形框信息,外接矩形框的定义为:佩戴安全帽时,矩形框包含人头和安全帽区域;未佩戴安全帽时,矩形框包含人头区域;安全帽未戴在头部而是在手中、地面或其他附近位置时,矩形框包含安全帽区域。
4.根据权利要求1所述的人员信息识别方法,其特征在于,所述将所述外接矩形框的训练数据集输入至深度学习算法模型进行训练,以获得可描述各帧图像中目标对象表观特征的目标检测模型,包括:
将外接矩形框的训练数据集图像预处理后输入至yolov5深度学习算法模型中进行训练学习,yolov5深度学习算法模型包括Backbone模块、Neck模块和Head模块,Backbone模块提取特征并输出第一特征图,Neck模块对第一特征图进行特征融合并输出第二特征图,Head模块对第二特征图进行卷积,输出目标对象预测框的偏移量,采用NMS非极大值抑制,生成目标对象的目标检测模型,通过生成目标检测模型描述目标对象的表观特征,表观特征包括目标对象的类别及外接矩形坐标信息集合;
外接矩形坐标信息集合的计算公式如下:
Figure QLYQS_1
其中,
Figure QLYQS_2
是任一帧图像检测到目标对象的类别及坐标信息集合,/>
Figure QLYQS_3
是第i个目标对象的类别及坐标信息,/>
Figure QLYQS_4
的计算公式如下:
Figure QLYQS_5
其中,
Figure QLYQS_6
是目标对象的类别,/>
Figure QLYQS_7
取值0、1或2,0代表佩戴安全帽,1代表未佩戴安全帽,2代表安全帽本体,/>
Figure QLYQS_8
是目标对象外接矩形左上角x坐标值,/>
Figure QLYQS_9
是目标对象外接矩形左上角y坐标值,/>
Figure QLYQS_10
是目标对象外接矩形右下角x坐标值,/>
Figure QLYQS_11
是目标对象外接矩形右下角y坐标值。
5.根据权利要求4所述的人员信息识别方法,其特征在于,所述基于目标对象的表观特征,筛选出未佩戴安全帽的目标区域图,包括:
基于目标检测模型筛选出外接矩形坐标信息集合中
Figure QLYQS_12
的目标对象的集合,定义未佩戴安全帽的目标集合为/>
Figure QLYQS_13
,/>
Figure QLYQS_14
的计算公式如下:
Figure QLYQS_15
其中,
Figure QLYQS_16
是/>
Figure QLYQS_17
即未佩戴安全帽时第i个目标对象的坐标信息;
Figure QLYQS_18
其中,
Figure QLYQS_19
是目标对象外接矩形左上角x坐标值,/>
Figure QLYQS_20
是目标对象外接矩形左上角y坐标值,/>
Figure QLYQS_21
是目标对象外接矩形右下角x坐标值,/>
Figure QLYQS_22
是目标对象外接矩形右下角y坐标值。
6.根据权利要求5所述的人员信息识别方法,其特征在于,所述基于InsightFace算法识别目标区域图,输出特征向量,与信息库中特征向量比对,获取违章人员信息,包括:
建立施工人员的信息库,获取人脸的特征向量,确定人脸比对阈值;
基于目标区域图,确定未佩戴安全帽的目标区域图集合;
基于InsightFace算法识别目标区域图集合,输出人脸特征向量,与信息库中的特征向量比对,获取违章人员信息。
7.根据权利要求6所述的人员信息识别方法,其特征在于,所述建立施工人员的信息库,获取人脸的特征向量,确定人脸比对阈值,包括:
定义已知施工人员的信息库,定义公式如下:
Figure QLYQS_23
其中,
Figure QLYQS_24
为人员信息库,/>
Figure QLYQS_25
为某个施工人员的人员信息,
Figure QLYQS_26
,/>
Figure QLYQS_27
为施工人员姓名,/>
Figure QLYQS_28
为施工人员唯一编号,/>
Figure QLYQS_29
为施工人员所属单位名称,/>
Figure QLYQS_30
为通过事先录入施工人员图像库然后利用InsightFace算法识别得到的人脸特征向量;
基于目标区域图,确定未佩戴安全帽的目标区域图集合,包括:
定义未佩戴安全帽的目标区域图集合
Figure QLYQS_31
,/>
Figure QLYQS_32
,/>
Figure QLYQS_33
是指从图像中截取出的坐标范围为/>
Figure QLYQS_34
的矩形区域图;
基于InsightFace算法识别目标区域图集合,输出人脸特征向量,与信息库中的特征向量比对,获取违章人员信息,包括:
基于InsightFace算法识别目标区域图集合
Figure QLYQS_37
,输出人脸特征向量/>
Figure QLYQS_39
Figure QLYQS_41
,/>
Figure QLYQS_36
是/>
Figure QLYQS_40
中人脸区域的特征向量,依次计算/>
Figure QLYQS_42
中的/>
Figure QLYQS_44
和/>
Figure QLYQS_35
中的每个/>
Figure QLYQS_38
的欧氏距离/>
Figure QLYQS_43
,基于欧氏距离/>
Figure QLYQS_45
判定违章人员信息,判定标准为:/>
若欧氏距离
Figure QLYQS_46
小于人脸比对阈值,则匹配成功,获取/>
Figure QLYQS_47
中的人员姓名、唯一编号、所属单位;反之,则匹配失败,认为该人员为未知人员。
8.一种人员信息识别装置,其特征在于,包括:
获取模块,用于获取施工场地的视频;
训练集制作模块,用于基于视频各帧图像选取部分图像,将选取的图像中的目标对象标注外接矩形框,制作训练数据集;
训练模块,用于将所述外接矩形框的训练数据集输入至深度学习算法模型进行训练,以获得可描述各帧图像中目标对象表观特征的目标检测模型;
执行模块,用于将施工场地的视频各帧图像输入目标检测模型内,获取各帧图像中目标对象的表观特征;
筛选模块,用于基于目标对象的表观特征,筛选出未佩戴安全帽的目标区域图;
比对模块,基于InsightFace算法识别目标区域图,输出特征向量,与信息库中特征向量比对,获取违章人员信息。
9.一种电子设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如权利要求1-7中任一项所述的人员信息识别方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一项所述的人员信息识别方法。
CN202310420649.8A 2023-04-19 2023-04-19 一种人员信息识别方法、装置、电子设备及存储介质 Active CN116152863B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310420649.8A CN116152863B (zh) 2023-04-19 2023-04-19 一种人员信息识别方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310420649.8A CN116152863B (zh) 2023-04-19 2023-04-19 一种人员信息识别方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN116152863A true CN116152863A (zh) 2023-05-23
CN116152863B CN116152863B (zh) 2023-07-21

Family

ID=86339273

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310420649.8A Active CN116152863B (zh) 2023-04-19 2023-04-19 一种人员信息识别方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN116152863B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116852382A (zh) * 2023-09-04 2023-10-10 青岛理工大学 一种轴孔装配机器人末端姿态快速调整系统和方法
CN116883951A (zh) * 2023-09-07 2023-10-13 杭州像素元科技有限公司 基于多源信息感知的高速施工员识别方法、装置及其应用
CN117610891A (zh) * 2024-01-22 2024-02-27 湖南小翅科技有限公司 一种基于大数据的灵活用工接单与风险控制系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111476064A (zh) * 2019-01-23 2020-07-31 北京奇虎科技有限公司 小目标检测方法、装置、计算机设备及存储介质
CN111914636A (zh) * 2019-11-25 2020-11-10 南京桂瑞得信息科技有限公司 一种检测行人是否佩戴安全帽的方法及装置
CN112861646A (zh) * 2021-01-18 2021-05-28 浙江大学 复杂环境小目标识别场景下的卸油工安全帽级联检测方法
CN114298138A (zh) * 2021-11-15 2022-04-08 深圳供电局有限公司 安全帽的佩戴识别方法、装置、计算机设备和存储介质
CN115862113A (zh) * 2022-12-20 2023-03-28 上海东普信息科技有限公司 陌生人异常识别方法、装置、设备及存储介质
CN115880231A (zh) * 2022-11-17 2023-03-31 广州长川科技有限公司 一种基于深度学习的输电线路隐患检测方法和系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111476064A (zh) * 2019-01-23 2020-07-31 北京奇虎科技有限公司 小目标检测方法、装置、计算机设备及存储介质
CN111914636A (zh) * 2019-11-25 2020-11-10 南京桂瑞得信息科技有限公司 一种检测行人是否佩戴安全帽的方法及装置
CN112861646A (zh) * 2021-01-18 2021-05-28 浙江大学 复杂环境小目标识别场景下的卸油工安全帽级联检测方法
CN114298138A (zh) * 2021-11-15 2022-04-08 深圳供电局有限公司 安全帽的佩戴识别方法、装置、计算机设备和存储介质
CN115880231A (zh) * 2022-11-17 2023-03-31 广州长川科技有限公司 一种基于深度学习的输电线路隐患检测方法和系统
CN115862113A (zh) * 2022-12-20 2023-03-28 上海东普信息科技有限公司 陌生人异常识别方法、装置、设备及存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116852382A (zh) * 2023-09-04 2023-10-10 青岛理工大学 一种轴孔装配机器人末端姿态快速调整系统和方法
CN116883951A (zh) * 2023-09-07 2023-10-13 杭州像素元科技有限公司 基于多源信息感知的高速施工员识别方法、装置及其应用
CN116883951B (zh) * 2023-09-07 2023-11-10 杭州像素元科技有限公司 基于多源信息感知的高速施工员识别方法、装置及其应用
CN117610891A (zh) * 2024-01-22 2024-02-27 湖南小翅科技有限公司 一种基于大数据的灵活用工接单与风险控制系统
CN117610891B (zh) * 2024-01-22 2024-04-02 湖南小翅科技有限公司 一种基于大数据的灵活用工接单与风险控制系统

Also Published As

Publication number Publication date
CN116152863B (zh) 2023-07-21

Similar Documents

Publication Publication Date Title
CN116152863B (zh) 一种人员信息识别方法、装置、电子设备及存储介质
Fang et al. Falls from heights: A computer vision-based approach for safety harness detection
CN108921159B (zh) 用于检测安全帽的佩戴情况的方法和装置
CN110660186B (zh) 基于雷达信号在视频图像中识别目标对象的方法及装置
CN111062429A (zh) 基于深度学习的厨师帽和口罩佩戴的检测方法
CN108304835A (zh) 文字检测方法和装置
US20150235092A1 (en) Parts based object tracking method and apparatus
CN111241989A (zh) 图像识别方法及装置、电子设备
CN113537180B (zh) 树障的识别方法、装置、计算机设备和存储介质
CN109766755A (zh) 人脸识别方法及相关产品
CN116128883A (zh) 一种光伏板数量统计方法、装置、电子设备及存储介质
CN112949457A (zh) 基于增强现实技术的维修方法、装置及系统
WO2023104557A1 (en) Machine-learning for safety rule violation determination
US11906441B2 (en) Inspection apparatus, control method, and program
CN114373162A (zh) 用于变电站视频监控的危险区域人员入侵检测方法及系统
WO2021250808A1 (ja) 画像処理装置、画像処理方法、及びプログラム
CN112800918A (zh) 一种非法运动目标的身份识别方法及装置
CN116524143A (zh) 一种gis地图构建方法
CN114565753A (zh) 一种基于改进YOLOv4网络的无人机小目标识别方法
CN114241354A (zh) 仓库人员行为识别方法、装置、计算机设备、存储介质
CN109978067A (zh) 一种基于卷积神经网络与尺度不变特征变换的商标检索方法以及装置
CN111460862A (zh) 基于神经网络的遥感图像地物提取方法及系统
CN116486438B (zh) 一种人员轨迹的检测方法、装置、系统、设备及存储介质
Kim et al. Small object detection (SOD) system for comprehensive construction site safety monitoring
KR102289550B1 (ko) 항공 영상 데이터와 gis 데이터의 매칭을 위한 이미지 학습을 이용한 ar 정보 제공 방법 및 시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant