CN112966618A - 着装识别方法、装置、设备及计算机可读介质 - Google Patents
着装识别方法、装置、设备及计算机可读介质 Download PDFInfo
- Publication number
- CN112966618A CN112966618A CN202110266662.3A CN202110266662A CN112966618A CN 112966618 A CN112966618 A CN 112966618A CN 202110266662 A CN202110266662 A CN 202110266662A CN 112966618 A CN112966618 A CN 112966618A
- Authority
- CN
- China
- Prior art keywords
- dressing
- recognition model
- operator
- recognition
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000004519 manufacturing process Methods 0.000 claims abstract description 27
- 238000012549 training Methods 0.000 claims description 67
- 238000012360 testing method Methods 0.000 claims description 39
- 238000004891 communication Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 12
- 238000002372 labelling Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 5
- 230000007306 turnover Effects 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 9
- 238000013135 deep learning Methods 0.000 abstract description 4
- 238000003062 neural network model Methods 0.000 abstract description 4
- 238000001514 detection method Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000009435 building construction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种着装识别方法、装置、设备及计算机可读介质。该方法包括:获取目标图像,目标图像为对作业人员的生产作业现场进行采集得到的,作业人员为需要按照生产作业现场的要求进行着装的人员;将目标图像输入第一识别模型,得到第一识别模型输出的识别结果,识别结果是对目标图像中作业人员的服饰区域的着装特征进行聚类得到的;根据识别结果确定作业人员的着装判别结果。本申请利用聚类算法更加精确地提取作业人员的着装特征,基于深度学习技术对着装特征进行识别,能够更加准确地识别作业人员是否安全作业,解决了人员着装识别准确率低的技术问题,且由于神经网络模型稳定性和鲁棒性较强,本申请技术方案的应用范围更加宽广。
Description
技术领域
本申请涉及深度学习技术领域,尤其涉及一种着装识别方法、装置、设备及计算机可读介质。
背景技术
工人在如隧道、矿井、楼房施工工地等生产作业现场中进行生产作业时,规范佩戴安全帽、穿戴安全服至关重要。为了保障工人的人身安全,需要对工人是否佩戴安全帽、穿戴安全服进行监管、警示。
目前,相关技术中,通过利用HOG(Histogram of Oriented Gradient,方向梯度直方图)算法进行行人检测,得到人体的感兴趣区域,将原始的RGB模型图像转化为HSV模型图像,再根据颜色阈值将HSV图像转化为二值图像;然后对二值图像进行一系列的形态学操作,通过二值图像中黑白像素点的分布和排列来判断人体是否佩戴安全帽和着安全服。相关技术应用受限,在光照、遮挡、模糊等因素影响时,识别准确率大大降低。
针对人员着装识别准确率低的技术问题,目前尚未提出有效且通用的解决方案。
发明内容
本申请提供了一种着装识别方法、装置、设备及计算机可读介质,以解决人员着装识别准确率低的技术问题。
根据本申请实施例的一个方面,本申请提供了一种着装识别方法,包括:获取目标图像,目标图像为对作业人员的生产作业现场进行采集得到的,作业人员为需要按照生产作业现场的要求进行着装的人员;将目标图像输入第一识别模型,得到第一识别模型输出的识别结果,识别结果是对目标图像中作业人员的服饰区域的着装特征进行聚类得到的;根据识别结果确定作业人员的着装判别结果。
可选地,得到第一识别模型输出的识别结果之前,该方法还包括按照如下方式提取着装特征:识别目标图像中作业人员的第一数量;在目标图像中生成与第一数量相同个数的候选框;采用聚类的方式调整候选框的位置,直至单个候选框的最终位置位于一个作业人员的服饰区域;将候选框中服饰区域的着装信息作为对应的作业人员的着装特征。
可选地,根据识别结果确定作业人员的着装判别结果包括:获取第一识别模型识别着装特征的标签信息和置信度,识别结果包括标签信息和置信度;在置信度大于或等于预设阈值的情况下,将标签信息确定为作业人员的着装判别结果,标签信息包括规范佩戴安全帽、未佩戴安全帽、规范穿戴安全服以及未穿戴安全服中的至少一种。
可选地,在利用第一识别模型识别作业人员的着装之前,该方法还包括按照如下方式训练得到第一识别模型:获取训练数据集和测试数据集;使用训练数据集迭代训练第二识别模型,直至训练次数达到预设次数阈值,第二识别模型为预训练模型;在第二识别模型对测试数据集的识别准确度达到准确度阈值的情况下,将第二识别模型作为第一识别模型;在第二识别模型对测试数据集的识别准确度未达到准确度阈值的情况下,继续使用训练数据集对第二识别模型进行训练,以继续调整第二识别模型内各网络层中的参数的数值,直至第二识别模型对测试数据集的识别准确度达到准确度阈值。
可选地,获取训练数据集和测试数据集包括:采集作业人员的生产作业现场的原始图像;在每一幅原始图像中对作业人员的着装特征进行标注,其中,标注数据中包括着装特征的两个对角位置的坐标信息和着装特征的类别信息,两个对角位置组成的标注框包围着装特征;对原始图像采用平移、翻转以及旋转中的至少一种方式扩充图像集,并对扩充的图像中作业人员的着装特征进行标注;将所有图像按照预设比例划分为训练数据集和测试数据集。
可选地,每次迭代中,使用训练数据集训练所述第二识别模型包括:在训练数据集上初始化候选框;采用聚类的方式移动候选框的位置,直至候选框与训练数据集中的标注框的重合度达到重合阈值;将候选框中的着装特征传递至第二识别模型中的卷积层,以训练第二识别模型对着装特征进行识别。
可选地,采用聚类的方式移动候选框的位置包括:将候选框的质心位置作为聚类中心;确定候选框与标注框的交并比,并将预设数值减交并比的值作为标注框与聚类中心的距离;将标注框分配至与标注框距离最近的聚类中心,生成目标簇;将聚类中心移动至目标簇的质心位置,以更新聚类中心的位置。
可选地,调整第二识别模型内各网络层中的参数的数值,直至第二识别模型对测试数据集的识别准确度达到准确度阈值包括:利用目标损失函数确定损失值,损失值用于表示第二识别模型对测试数据集的识别结果和测试数据集的实际标签之间的准确度的差异;利用损失值调整第二识别模型中卷积核的参数,直至第二识别模型的输出精度达到准确度阈值。
根据本申请实施例的另一方面,本申请提供了一种着装识别装置,包括:图像获取模块,用于获取目标图像,目标图像为对作业人员的生产作业现场进行采集得到的,作业人员为需要按照生产作业现场的要求进行着装的人员;识别模块,用于将目标图像输入第一识别模型,得到第一识别模型输出的识别结果,识别结果是对目标图像中作业人员的服饰区域的着装特征进行聚类得到的;着装判别模块,用于根据识别结果确定作业人员的着装判别结果。
根据本申请实施例的另一方面,本申请提供了一种电子设备,包括存储器、处理器、通信接口及通信总线,存储器中存储有可在处理器上运行的计算机程序,存储器、处理器通过通信总线和通信接口进行通信,处理器执行计算机程序时实现上述方法的步骤。
根据本申请实施例的另一方面,本申请还提供了一种具有处理器可执行的非易失的程序代码的计算机可读介质,程序代码使处理器执行上述的方法。
本申请实施例提供的上述技术方案与相关技术相比具有如下优点:
本申请技术方案为获取目标图像,目标图像为对作业人员的生产作业现场进行采集得到的,作业人员为需要按照生产作业现场的要求进行着装的人员;将目标图像输入第一识别模型,得到第一识别模型输出的识别结果,识别结果是对目标图像中作业人员的服饰区域的着装特征进行聚类得到的;根据识别结果确定作业人员的着装判别结果。本申请利用聚类算法更加精确地提取作业人员的着装特征,基于深度学习技术对着装特征进行识别,能够更加准确地识别作业人员是否安全作业,解决了人员着装识别准确率低的技术问题,且由于神经网络模型稳定性和鲁棒性较强,本申请技术方案的应用范围更加宽广。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
为了更清楚地说明本申请实施例或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为根据本申请实施例提供的一种可选的着装识别方法硬件环境示意图;
图2为根据本申请实施例提供的一种可选的着装识别方法流程图;
图3为根据本申请实施例提供的一种可选的着装识别装置框图;
图4为本申请实施例提供的一种可选的电子设备结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本申请的说明,其本身并没有特定的意义。因此,“模块”与“部件”可以混合地使用。
相关技术中,通过利用HOG(Histogram of Oriented Gradient,方向梯度直方图)算法进行行人检测,得到人体的感兴趣区域,将原始的RGB模型图像转化为HSV模型图像,再根据颜色阈值将HSV图像转化为二值图像;然后对二值图像进行一系列的形态学操作,通过二值图像中黑白像素点的分布和排列来判断人体是否佩戴安全帽和着安全服。相关技术应用受限,如在处理过程中需要人为设定分割阈值和颜色阈值,避免不了人为的干预,稳定性和鲁棒性较差,而且在背景复杂的室内,受光照、遮挡、模糊等因素的影响,识别率会大大降低。
为了解决背景技术中提及的问题,根据本申请实施例的一方面,提供了一种着装识别方法的实施例。
可选地,在本申请实施例中,上述着装识别方法可以应用于如图1所示的由终端101和服务器103所构成的硬件环境中。如图1所示,服务器103通过网络与终端101进行连接,可用于为终端或终端上安装的客户端提供服务,可在服务器上或独立于服务器设置数据库105,用于为服务器103提供数据存储服务,上述网络包括但不限于:广域网、城域网或局域网,终端101包括但不限于PC、手机、平板电脑等。
本申请实施例中的一种着装识别方法可以由服务器103来执行,还可以是由服务器103和终端101共同执行,如图2所示,该方法可以包括以下步骤:
步骤S202,获取目标图像,目标图像为对作业人员的生产作业现场进行采集得到的,作业人员为需要按照生产作业现场的要求进行着装的人员。
本申请实施例中,上述生产作业现场可以是隧道、矿井、楼房施工工地等,作业人员为施工人员,为了保障施工人员的人身安全,施工现场常常要求施工人员佩戴安全帽,穿戴安全服。目标图像可以是安装在上述生产作业现场中的图像采集设备从不同角度对生产作业现场进行图像采集得到的,图像采集设备可以包括摄像头、摄像机、相机、扫描仪及其他带有拍照功能的设备(手机、平板电脑等)。
步骤S204,将目标图像输入第一识别模型,得到第一识别模型输出的识别结果,识别结果是对目标图像中作业人员的服饰区域的着装特征进行聚类得到的。
本申请实施例中,第一识别模型可以是基于yolo-fastest模型构建的神经网络模型,yolo-fastest模型为基于YOLO-v4改进的轻量型网络。yolo-fastest模型的设计初衷是打破算力的瓶颈,以使得能在更多的低成本、低算力的边缘端设备实时运行目标检测算法。yolo-fastest算法只有约1.3MB,因此本申请技术方案可以非常容易的应用在低算力的移动设备上。
本申请实施例中,第一识别模型为了提高识别准确度,采用聚类算法来进行特征提取。可选地,从目标图像中提取作业人员的着装特征可以包括:识别目标图像中作业人员的第一数量;在目标图像中生成与第一数量相同个数的候选框;采用聚类的方式调整候选框的位置,直至单个候选框的最终位置位于一个作业人员的服饰区域;将候选框中服饰区域的着装信息作为对应的作业人员的着装特征。
本申请实施例中,可以通过目标检测算法初步确定目标图像中的作业人员的数量,从而生成相同数量的候选框,候选框用于提取作业人员的着装特征,通过聚类算法移动候选框,候选框最终的位置为服饰区域,即着装特征所在的位置。一个候选框可以框选一个作业人员的着装特征,如框选头部是否佩戴安全帽的特征和身体是否穿戴安全服的特征,还可以一个框框选部分着装特征,如一个框框选头部是否佩戴安全帽的特征,另一个框框选身体是否穿戴安全服的特征。上述聚类算法可以采用k-means算法,k值可以初始化为目标图像中作业人员的数量,生成k个候选框即生成了k个聚类中心,之后按照着装信息的所在位置(服饰区域)将多个作业人员的着装信息划分到距离最近的聚类中心,每个聚类中心及所述的着装信息组成簇。接着,再将簇的质心位置确定为新的聚类中心,即将上述聚类中心对应的候选框移动至簇的质心位置,迭代上述过程,直至候选框框选了一个作业人员的着装信息。在实际情况下,候选框最终的状态可以是框选作业人员的头部、上身等,因为头部为佩戴安全帽的部位,上身为穿戴安全服的部位,若下身也需要穿戴安全裤,则下身部位也需要设置候选框对应。
步骤S206,根据识别结果确定作业人员的着装判别结果。
可选地,根据识别结果确定作业人员的着装判别结果可以包括:获取第一识别模型识别着装特征的标签信息和置信度,识别结果包括标签信息和置信度;在置信度大于或等于预设阈值的情况下,将标签信息确定为作业人员的着装判别结果,标签信息包括规范佩戴安全帽、未佩戴安全帽、规范穿戴安全服以及未穿戴安全服中的至少一种。
本申请实施例中,第一识别模型的识别结果可以包括标签信息和置信度。标签信息为作业人员是否佩戴安全帽、是否穿戴安全服的分类标签,如规范佩戴安全帽、未佩戴安全帽、规范穿戴安全服以及未穿戴安全服。标签信息为第一识别模型预测的,置信度用于表示该作业人员的着装特征符合第一识别模型输出的分类标签的可信度,置信度越大,说明第一识别模型对其输出的分类标签越肯定,反之,置信度越小说明第一识别模型对其输出的分类标签越不确定。因此,在置信度大于预设阈值的情况下,标签信息即可作为该作业人员最终的着装判别结果,否则,还不能判定该作业人员是否佩戴安全帽、穿戴安全服。预设阈值可以根据实际情况设置,可以根据实际需要设置,还可以根据实验结果进行设置。一个作业人员最终的着装判别结果可以是:规范佩戴安全帽且规范穿戴安全服,规范佩戴安全帽但未穿戴安全服等。
通过上述步骤S202至S206,本申请技术方案利用聚类算法更加精确地提取作业人员的着装特征,基于深度学习技术对着装特征进行识别,能够更加准确地识别作业人员是否安全作业,解决了人员着装识别准确率低的技术问题,且神经网络模型稳定性和鲁棒性较强,本申请技术方案的应用范围更加宽广。由于yolo-fastest算法的轻量性,本申请技术方案也可以非常容易的应用在低算力的移动设备上。
本申请还提供一种第一识别模型的训练方法,下面对此进行说明。
可选地,在利用第一识别模型识别作业人员的着装之前,该方法还包括按照如下方式训练得到第一识别模型:
步骤S1,获取训练数据集和测试数据集。
本申请实施例中,获取训练数据集和测试数据集可以包括:采集作业人员的生产作业现场的原始图像;在每一幅原始图像中对作业人员的着装特征进行标注,其中,标注数据中包括着装特征的两个对角位置的坐标信息和着装特征的类别信息,两个对角位置组成的标注框包围着装特征;对原始图像采用平移、翻转以及旋转中的至少一种方式扩充图像集,并对扩充的图像中作业人员的着装特征进行标注;将所有图像按照预设比例划分为训练数据集和测试数据集。
本申请所采用的数据来源为实际施工现场对作业人员采集的图像,如通过图像采集设备从不同角度对施工现场进行图像采集得到,图像采集设备可以包括摄像头、摄像机、相机、扫描仪及其他带有拍照功能的设备(手机、平板电脑等)。图像采集之后,需要对图像中作业人员的着装特征进行标注,即标注上作业人员是否佩戴安全帽、是否穿戴安全服等。标注过程中对边缘被截断的人员不进行标注,从而只检测完整的人员,标注软件可以是LabelImg等。标注数据可以为XML格式,标注数据中至少包括每个标注目标(着装特征)的两个对角线位置的坐标信息和标注目标的类别信息。两个对角线位置能够组成矩形标注框,以标注所框选的内容为作业人员的着装特征。
要训练得到高效、准确的第一识别模型,需要大量的图像数据。为了解决图像数据量不足的问题,可以采用平移、翻转、旋转原始图像等数据增强方法进行数据扩充,再对扩充的图像进行标注,得到最终的所需图像数据。最后,将所有图像按照预设比例划分为训练数据集和测试数据集,该预设比例可以根据实际需要进行设置,如可以按照训练数据集比测试数据集为8比2进行设置。
步骤S2,使用训练数据集迭代训练第二识别模型,直至训练次数达到预设次数阈值,第二识别模型为预训练模型。
本申请实施例中,第二识别模型可以是经过预训练的图像识别模型,经过预训练后可以提高图像识别的准确率,进而可以优化训练结果。训练过程中,学习率可以设置为0.0013,衰减系数可以设置为0.1。可以设置使用训练数据集训练第二识别模型一定次数后结束训练,将所有训练数据集训练一遍为一次(即一个epoch),上述预设次数可以根据实际需要进行设置,如150次。每次训练后更新模型中各网络层的参数,迭代训练预设次数,使得最终得到的识别模型能够拥有尽可能高的识别准确度。
可选地,每次迭代中,使用训练数据集训练所述第二识别模型包括:在训练数据集上初始化候选框;采用聚类的方式移动候选框的位置,直至候选框与训练数据集中的标注框的重合度达到重合阈值;将候选框中的着装特征传递至第二识别模型中的卷积层,以训练第二识别模型对着装特征进行识别。
本申请实施例中,训练时将候选框采用聚类的方式进行移动,以使得候选框能够尽可能的与训练数据集上的标注框重合。在利用候选框提取了作业人员的着装特征后,将着装特征传递至第二识别模型的卷积层,以进一步提取规范佩戴安全帽、未佩戴安全帽、穿戴安全服以及未穿戴安全服的特征并进行识别。
可选地,采用聚类的方式移动候选框的位置包括:将候选框的质心位置作为聚类中心;确定候选框与标注框的交并比,并将预设数值减交并比的值作为标注框与聚类中心的距离;将标注框分配至与标注框距离最近的聚类中心,生成目标簇;将聚类中心移动至目标簇的质心位置,以更新聚类中心的位置。
本申请实施例中,交并比用IOU表示,预设数值可以设为1,交并比实际上即为重合度。由于聚类的目的是使得候选框与标注框能够更大范围的重合,从而能够更加准确的提取作业人员的着装特征,所以本申请可以采用1-IOU作为候选框与标注框的距离。聚类过程中,将初始化的候选框的质心位置作为聚类中心,计算各个标注框与候选框的交并比IOU,利用1-IOU得到距离,从而将各个标注框划分到距离最近的聚类中心,生成目标簇。接着计算该目标簇的质心,将候选框的质心与目标簇的质心重合,从而更新聚类中心的位置。重复上述步骤,迭代更新聚类中心,最终在各个标注框与对应的候选框的交并比(重合度)达到重合阈值时,停止聚类,得到最终的候选框的位置。此时候选框所框选的部分即为着装特征。
由于聚类的元素是标注框而非点,因此上述目标簇的质心可以通过计算该目标簇中所有标注框的高和宽的平均值获得。
在目标检测中,交并比是指两个矩形交集与并集的比值,值在[0,1]之间。显然,当IOU=0时,预测框与真值框的没有交集,此时结果最差;当IOU=1时,预测框与真值框重合,此时结果最好。
步骤S3,在第二识别模型对测试数据集的识别准确度达到准确度阈值的情况下,将第二识别模型作为第一识别模型;在第二识别模型对测试数据集的识别准确度未达到准确度阈值的情况下,继续使用训练数据集对第二识别模型进行训练,以继续调整第二识别模型内各网络层中的参数的数值,直至第二识别模型对测试数据集的识别准确度达到准确度阈值。
可选地,调整第二识别模型内各网络层中的参数的数值,直至第二识别模型对测试数据集的识别准确度达到准确度阈值包括:利用目标损失函数确定损失值,损失值用于表示第二识别模型对测试数据集的识别结果和测试数据集的实际标签之间的准确度的差异;利用损失值调整第二识别模型中卷积核的参数,直至第二识别模型的输出精度达到准确度阈值。
本申请实施例中,反向传播的作用是更新卷积核的参数,模型参数不断更新达到最优。上述目标损失函数可以是softmax函数,还可以是Relu函数等。上述损失值可以通过计算候选框与标注框的交并比,还可以由预测标签与实际标签获得。
本申请实施例中,利用训练结束后的第二识别模型对测试数据集进行测试。模型的评价指标可以选取mAp(mean average precision)。经过实验得知,最终在交并比为0.5时,模型测试的准确率为0.97,超过相关方案的识别率。
可选地,第二识别模型的输出还可以包括Bounding Box列表B及对应的位置置信度,第二识别模型进行分类前,首先需要进行目标检测。Bounding Box即为生成的候选框,用于目标检测,位置置信度表示Box范围为检测目标(着装特征)的可信度,列表B为所有候选框的信息。为了剔除与真实情况偏差较大的候选框,可以通过非极大值抑制来进行后处理,即选择具有最大位置置信度的候选框M,将其从B集合中移除并加入到最终的检测结果D中,然后将B中剩余候选框中与M的交并比大于阈值Nt的框从B中移除,重复这个过程,直到B为空,则D即为经过非极大值抑制后的最终检测结果。
根据本申请实施例的又一方面,如图3所示,提供了一种着装识别装置,包括:
图像获取模块301,用于获取目标图像,目标图像为对作业人员的生产作业现场进行采集得到的,作业人员为需要按照生产作业现场的要求进行着装的人员;
识别模块303,用于将目标图像输入第一识别模型,得到第一识别模型输出的识别结果,识别结果是对目标图像中作业人员的服饰区域的着装特征进行聚类得到的;
着装判别模块305,用于根据识别结果确定作业人员的着装判别结果。
需要说明的是,该实施例中的图像获取模块301可以用于执行本申请实施例中的步骤S202,该实施例中的识别模块303可以用于执行本申请实施例中的步骤S204,该实施例中的着装判别模块305可以用于执行本申请实施例中的步骤S206。
此处需要说明的是,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在如图1所示的硬件环境中,可以通过软件实现,也可以通过硬件实现。
可选地,该着装识别装置,还包括特征提取模块,用于:识别目标图像中作业人员的第一数量;在目标图像中生成与第一数量相同个数的候选框;采用聚类的方式调整候选框的位置,直至单个候选框的最终位置位于一个作业人员的服饰区域;将候选框中服饰区域的着装信息作为对应的作业人员的着装特征。
可选地,该着装判别模块,具体用于:获取第一识别模型识别着装特征的标签信息和置信度,识别结果包括标签信息和置信度;在置信度大于或等于预设阈值的情况下,将标签信息确定为作业人员的着装判别结果,标签信息包括规范佩戴安全帽、未佩戴安全帽、规范穿戴安全服以及未穿戴安全服中的至少一种。
可选地,该着装识别装置,还包括训练模块,用于:获取训练数据集和测试数据集;使用训练数据集迭代训练第二识别模型,直至训练次数达到预设次数阈值,第二识别模型为预训练模型;在第二识别模型对测试数据集的识别准确度达到准确度阈值的情况下,将第二识别模型作为第一识别模型;在第二识别模型对测试数据集的识别准确度未达到准确度阈值的情况下,继续使用训练数据集对第二识别模型进行训练,以继续调整第二识别模型内各网络层中的参数的数值,直至第二识别模型对测试数据集的识别准确度达到准确度阈值。
可选地,该训练模块,包括数据获取单元,用于:采集作业人员的生产作业现场的原始图像;在每一幅原始图像中对作业人员的着装特征进行标注,其中,标注数据中包括着装特征的两个对角位置的坐标信息和着装特征的类别信息,两个对角位置组成的标注框包围着装特征;对原始图像采用平移、翻转以及旋转中的至少一种方式扩充图像集,并对扩充的图像中作业人员的着装特征进行标注;将所有图像按照预设比例划分为训练数据集和测试数据集。
可选地,该训练模块,具体用于:在训练数据集上初始化候选框;采用聚类的方式移动候选框的位置,直至候选框与训练数据集中的标注框的重合度达到重合阈值;将候选框中的着装特征传递至第二识别模型中的卷积层,以训练第二识别模型对着装特征进行识别。
可选地,该训练模块,还用于:将候选框的质心位置作为聚类中心;确定候选框与标注框的交并比,并将预设数值减交并比的值作为标注框与聚类中心的距离;将标注框分配至与标注框距离最近的聚类中心,生成目标簇;将聚类中心移动至目标簇的质心位置,以更新聚类中心的位置。
可选地,该训练模块,还用于:利用目标损失函数确定损失值,损失值用于表示第二识别模型对测试数据集的识别结果和测试数据集的实际标签之间的准确度的差异;利用损失值调整第二识别模型中卷积核的参数,直至第二识别模型的输出精度达到准确度阈值。
根据本申请实施例的另一方面,本申请提供了一种电子设备,如图4所示,包括存储器401、处理器403、通信接口405及通信总线407,存储器401中存储有可在处理器403上运行的计算机程序,存储器401、处理器403通过通信接口405和通信总线407进行通信,处理器403执行计算机程序时实现上述方法的步骤。
上述电子设备中的存储器、处理器通过通信总线和通信接口进行通信。所述通信总线可以是外设部件互连标准(Peripheral Component Interconnect,简称PCI)总线或扩展工业标准结构(Extended Industry Standard Architecture,简称EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。
存储器可以包括随机存取存储器(Random Access Memory,简称RAM),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
根据本申请实施例的又一方面还提供了一种具有处理器可执行的非易失的程序代码的计算机可读介质。
可选地,在本申请实施例中,计算机可读介质被设置为存储用于所述处理器执行以下步骤的程序代码:
获取目标图像,目标图像为对作业人员的生产作业现场进行采集得到的,作业人员为需要按照生产作业现场的要求进行着装的人员;
将目标图像输入第一识别模型,得到第一识别模型输出的识别结果,识别结果是对目标图像中作业人员的服饰区域的着装特征进行聚类得到的;
根据识别结果确定作业人员的着装判别结果。
可选地,本实施例中的具体示例可以参考上述实施例中所描述的示例,本实施例在此不再赘述。
本申请实施例在具体实现时,可以参阅上述各个实施例,具有相应的技术效果。
可以理解的是,本文描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。对于硬件实现,处理单元可以实现在一个或多个专用集成电路(ApplicationSpecific Integrated Circuits,ASIC)、数字信号处理器(Digital Signal Processing,DSP)、数字信号处理设备(DSP Device,DSPD)、可编程逻辑设备(Programmable LogicDevice,PLD)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、通用处理器、控制器、微控制器、微处理器、用于执行本申请所述功能的其它电子单元或其组合中。
对于软件实现,可通过执行本文所述功能的单元来实现本文所述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本申请的具体实施方式,使本领域技术人员能够理解或实现本申请。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所申请的原理和新颖特点相一致的最宽的范围。
Claims (11)
1.一种着装识别方法,其特征在于,包括:
获取目标图像,其中,所述目标图像为对作业人员的生产作业现场进行采集得到的,所述作业人员为需要按照所述生产作业现场的要求进行着装的人员;
将所述目标图像输入第一识别模型,得到所述第一识别模型输出的识别结果,其中,所述识别结果是对所述目标图像中所述作业人员的服饰区域的着装特征进行聚类得到的;
根据所述识别结果确定所述作业人员的着装判别结果。
2.根据权利要求1所述的方法,其特征在于,得到所述第一识别模型输出的识别结果之前,所述方法还包括按照如下方式提取所述着装特征:
识别所述目标图像中所述作业人员的第一数量;
在所述目标图像中生成与所述第一数量相同个数的候选框;
采用聚类的方式调整所述候选框的位置,直至单个所述候选框的最终位置位于一个所述作业人员的所述服饰区域;
将所述候选框中所述服饰区域的着装信息作为对应的所述作业人员的所述着装特征。
3.根据权利要求2所述的方法,其特征在于,根据所述识别结果确定所述作业人员的着装判别结果包括:
获取所述第一识别模型识别所述着装特征的标签信息和置信度,其中,所述识别结果包括所述标签信息和所述置信度;
在所述置信度大于或等于预设阈值的情况下,将所述标签信息确定为所述作业人员的所述着装判别结果,其中,所述标签信息包括规范佩戴安全帽、未佩戴安全帽、规范穿戴安全服以及未穿戴安全服中的至少一种。
4.根据权利要求1至3任一所述的方法,其特征在于,在利用所述第一识别模型识别所述作业人员的着装之前,所述方法还包括按照如下方式训练得到所述第一识别模型:
获取训练数据集和测试数据集;
使用所述训练数据集迭代训练第二识别模型,直至训练次数达到预设次数阈值,其中,所述第二识别模型为预训练模型;
在所述第二识别模型对所述测试数据集的识别准确度达到准确度阈值的情况下,将所述第二识别模型作为所述第一识别模型;
在所述第二识别模型对所述测试数据集的识别准确度未达到所述准确度阈值的情况下,继续使用所述训练数据集对所述第二识别模型进行训练,以继续调整所述第二识别模型内各网络层中的参数的数值,直至所述第二识别模型对所述测试数据集的识别准确度达到所述准确度阈值。
5.根据权利要求4所述的方法,其特征在于,获取训练数据集和测试数据集包括:
采集所述作业人员的所述生产作业现场的原始图像;
在每一幅所述原始图像中对所述作业人员的所述着装特征进行标注,其中,标注数据中包括所述着装特征的两个对角位置的坐标信息和所述着装特征的类别信息,所述两个对角位置组成的标注框包围所述着装特征;
对所述原始图像采用平移、翻转以及旋转中的至少一种方式扩充图像集,并对扩充的图像中所述作业人员的所述着装特征进行标注;
将所有图像按照预设比例划分为所述训练数据集和所述测试数据集。
6.根据权利要求5所述的方法,其特征在于,每次迭代中,使用所述训练数据集训练所述第二识别模型包括:
在所述训练数据集上初始化候选框;
采用聚类的方式移动所述候选框的位置,直至所述候选框与所述训练数据集中的所述标注框的重合度达到重合阈值;
将所述候选框中的所述着装特征传递至所述第二识别模型中的卷积层,以训练所述第二识别模型对所述着装特征进行识别。
7.根据权利要求6所述的方法,其特征在于,采用聚类的方式移动所述候选框的位置包括:
将所述候选框的质心位置作为聚类中心;
确定所述候选框与所述标注框的交并比,并将预设数值减所述交并比的值作为所述标注框与所述聚类中心的距离;
将所述标注框分配至与所述标注框距离最近的所述聚类中心,生成目标簇;
将所述聚类中心移动至所述目标簇的质心位置,以更新所述聚类中心的位置。
8.根据权利要求6所述的方法,其特征在于,调整所述第二识别模型内各网络层中的参数的数值,直至所述第二识别模型对所述测试数据集的识别准确度达到所述准确度阈值包括:
利用目标损失函数确定损失值,其中,所述损失值用于表示所述第二识别模型对所述测试数据集的识别结果和所述测试数据集的实际标签之间的准确度的差异;
利用所述损失值调整所述第二识别模型中卷积核的参数,直至所述第二识别模型的输出精度达到所述准确度阈值。
9.一种着装识别装置,其特征在于,包括:
图像获取模块,用于获取目标图像,其中,所述目标图像为对作业人员的生产作业现场进行采集得到的,所述作业人员为需要按照所述生产作业现场的要求进行着装的人员;
识别模块,用于将所述目标图像输入第一识别模型,得到所述第一识别模型输出的识别结果,其中,所述识别结果是对所述目标图像中所述作业人员的服饰区域的着装特征进行聚类得到的;
着装判别模块,用于根据所述识别结果确定所述作业人员的着装判别结果。
10.一种电子设备,包括存储器、处理器、通信接口及通信总线,所述存储器中存储有可在所述处理器上运行的计算机程序,所述存储器、所述处理器通过所述通信总线和所述通信接口进行通信,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1至8任一项所述的方法的步骤。
11.一种具有处理器可执行的非易失的程序代码的计算机可读介质,其特征在于,所述程序代码使所述处理器执行所述权利要求1至8任一所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110266662.3A CN112966618B (zh) | 2021-03-11 | 2021-03-11 | 着装识别方法、装置、设备及计算机可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110266662.3A CN112966618B (zh) | 2021-03-11 | 2021-03-11 | 着装识别方法、装置、设备及计算机可读介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112966618A true CN112966618A (zh) | 2021-06-15 |
CN112966618B CN112966618B (zh) | 2024-02-09 |
Family
ID=76277284
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110266662.3A Active CN112966618B (zh) | 2021-03-11 | 2021-03-11 | 着装识别方法、装置、设备及计算机可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112966618B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114783000A (zh) * | 2022-06-15 | 2022-07-22 | 成都东方天呈智能科技有限公司 | 一种明厨亮灶场景下工作人员着装规范检测方法及装置 |
CN116883951A (zh) * | 2023-09-07 | 2023-10-13 | 杭州像素元科技有限公司 | 基于多源信息感知的高速施工员识别方法、装置及其应用 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108921159A (zh) * | 2018-07-26 | 2018-11-30 | 北京百度网讯科技有限公司 | 用于检测安全帽的佩戴情况的方法和装置 |
CN109635697A (zh) * | 2018-12-04 | 2019-04-16 | 国网浙江省电力有限公司电力科学研究院 | 基于YOLOv3目标检测的电力作业人员安全着装检测方法 |
CN110119686A (zh) * | 2019-04-17 | 2019-08-13 | 电子科技大学 | 一种基于卷积神经网络的安全帽实时检测方法 |
CN110287804A (zh) * | 2019-05-30 | 2019-09-27 | 广东电网有限责任公司 | 一种基于移动视频监控的电力作业人员着装识别方法 |
CN110781836A (zh) * | 2019-10-28 | 2020-02-11 | 深圳市赛为智能股份有限公司 | 人体识别方法、装置、计算机设备及存储介质 |
CN111062429A (zh) * | 2019-12-12 | 2020-04-24 | 上海点泽智能科技有限公司 | 基于深度学习的厨师帽和口罩佩戴的检测方法 |
WO2020114116A1 (zh) * | 2018-12-06 | 2020-06-11 | 深圳光启空间技术有限公司 | 一种基于密集人群的行人检测方法、存储介质及处理器 |
AU2020100711A4 (en) * | 2020-05-05 | 2020-06-11 | Chang, Cheng Mr | The retrieval system of wearing safety helmet based on deep learning |
CN111401314A (zh) * | 2020-04-10 | 2020-07-10 | 上海东普信息科技有限公司 | 着装信息检测方法、装置、设备及存储介质 |
WO2020164282A1 (zh) * | 2019-02-14 | 2020-08-20 | 平安科技(深圳)有限公司 | 基于yolo的图像目标识别方法、装置、电子设备和存储介质 |
CN111967393A (zh) * | 2020-08-18 | 2020-11-20 | 杭州师范大学 | 一种基于改进YOLOv4的安全帽佩戴检测方法 |
CN112149761A (zh) * | 2020-11-24 | 2020-12-29 | 江苏电力信息技术有限公司 | 一种基于YOLOv4改进算法的电力智慧工地违规行为检测方法 |
CN112149514A (zh) * | 2020-08-28 | 2020-12-29 | 中国地质大学(武汉) | 一种施工作业人员的安全着装检测方法及系统 |
CN112184773A (zh) * | 2020-09-30 | 2021-01-05 | 华中科技大学 | 一种基于深度学习的安全帽佩戴检测方法及系统 |
CN112307984A (zh) * | 2020-11-02 | 2021-02-02 | 安徽工业大学 | 基于神经网络的安全帽检测方法和装置 |
CN112347943A (zh) * | 2020-11-09 | 2021-02-09 | 哈尔滨理工大学 | 一种基于YOLOV4的anchor优化安全帽检测方法 |
-
2021
- 2021-03-11 CN CN202110266662.3A patent/CN112966618B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108921159A (zh) * | 2018-07-26 | 2018-11-30 | 北京百度网讯科技有限公司 | 用于检测安全帽的佩戴情况的方法和装置 |
CN109635697A (zh) * | 2018-12-04 | 2019-04-16 | 国网浙江省电力有限公司电力科学研究院 | 基于YOLOv3目标检测的电力作业人员安全着装检测方法 |
WO2020114116A1 (zh) * | 2018-12-06 | 2020-06-11 | 深圳光启空间技术有限公司 | 一种基于密集人群的行人检测方法、存储介质及处理器 |
WO2020164282A1 (zh) * | 2019-02-14 | 2020-08-20 | 平安科技(深圳)有限公司 | 基于yolo的图像目标识别方法、装置、电子设备和存储介质 |
CN110119686A (zh) * | 2019-04-17 | 2019-08-13 | 电子科技大学 | 一种基于卷积神经网络的安全帽实时检测方法 |
CN110287804A (zh) * | 2019-05-30 | 2019-09-27 | 广东电网有限责任公司 | 一种基于移动视频监控的电力作业人员着装识别方法 |
CN110781836A (zh) * | 2019-10-28 | 2020-02-11 | 深圳市赛为智能股份有限公司 | 人体识别方法、装置、计算机设备及存储介质 |
CN111062429A (zh) * | 2019-12-12 | 2020-04-24 | 上海点泽智能科技有限公司 | 基于深度学习的厨师帽和口罩佩戴的检测方法 |
CN111401314A (zh) * | 2020-04-10 | 2020-07-10 | 上海东普信息科技有限公司 | 着装信息检测方法、装置、设备及存储介质 |
AU2020100711A4 (en) * | 2020-05-05 | 2020-06-11 | Chang, Cheng Mr | The retrieval system of wearing safety helmet based on deep learning |
CN111967393A (zh) * | 2020-08-18 | 2020-11-20 | 杭州师范大学 | 一种基于改进YOLOv4的安全帽佩戴检测方法 |
CN112149514A (zh) * | 2020-08-28 | 2020-12-29 | 中国地质大学(武汉) | 一种施工作业人员的安全着装检测方法及系统 |
CN112184773A (zh) * | 2020-09-30 | 2021-01-05 | 华中科技大学 | 一种基于深度学习的安全帽佩戴检测方法及系统 |
CN112307984A (zh) * | 2020-11-02 | 2021-02-02 | 安徽工业大学 | 基于神经网络的安全帽检测方法和装置 |
CN112347943A (zh) * | 2020-11-09 | 2021-02-09 | 哈尔滨理工大学 | 一种基于YOLOV4的anchor优化安全帽检测方法 |
CN112149761A (zh) * | 2020-11-24 | 2020-12-29 | 江苏电力信息技术有限公司 | 一种基于YOLOv4改进算法的电力智慧工地违规行为检测方法 |
Non-Patent Citations (1)
Title |
---|
芦建文;: "基于深度学习的劳动防护用品佩戴检测系统", 包钢科技, no. 04, pages 78 - 80 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114783000A (zh) * | 2022-06-15 | 2022-07-22 | 成都东方天呈智能科技有限公司 | 一种明厨亮灶场景下工作人员着装规范检测方法及装置 |
CN116883951A (zh) * | 2023-09-07 | 2023-10-13 | 杭州像素元科技有限公司 | 基于多源信息感知的高速施工员识别方法、装置及其应用 |
CN116883951B (zh) * | 2023-09-07 | 2023-11-10 | 杭州像素元科技有限公司 | 基于多源信息感知的高速施工员识别方法、装置及其应用 |
Also Published As
Publication number | Publication date |
---|---|
CN112966618B (zh) | 2024-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fang et al. | Automated detection of workers and heavy equipment on construction sites: A convolutional neural network approach | |
Hamledari et al. | Automated computer vision-based detection of components of under-construction indoor partitions | |
Grand-Brochier et al. | Tree leaves extraction in natural images: Comparative study of preprocessing tools and segmentation methods | |
JP5325899B2 (ja) | 侵入警報ビデオ処理装置 | |
US10445602B2 (en) | Apparatus and method for recognizing traffic signs | |
Wang et al. | An effective method for plate number recognition | |
CN112149514B (zh) | 一种施工作业人员的安全着装检测方法及系统 | |
Do et al. | Automatic license plate recognition using mobile device | |
CN111274926B (zh) | 图像数据筛选方法、装置、计算机设备和存储介质 | |
CN104156693A (zh) | 一种基于多模态序列融合的动作识别方法 | |
CN112966618B (zh) | 着装识别方法、装置、设备及计算机可读介质 | |
CN111368682A (zh) | 一种基于faster RCNN台标检测与识别的方法及系统 | |
CN116168351B (zh) | 电力设备巡检方法及装置 | |
CN111680704A (zh) | 海洋红线新增人类活动斑块自动化快速提取方法和装置 | |
Geng et al. | An improved helmet detection method for YOLOv3 on an unbalanced dataset | |
US10140555B2 (en) | Processing system, processing method, and recording medium | |
Kakooei et al. | Shadow detection in very high resolution RGB images using a special thresholding on a new spectral–spatial index | |
Duan et al. | Real time road edges detection and road signs recognition | |
Chen et al. | Image segmentation based on mathematical morphological operator | |
CN113505704A (zh) | 图像识别的人员安全侦测方法、系统、设备及存储介质 | |
Agunbiade et al. | Enhancement performance of road recognition system of autonomous robots in shadow scenario | |
US20230196748A1 (en) | Method and system for training neural network for entity detection | |
CN115546824A (zh) | 禁忌图片识别方法、设备及存储介质 | |
CN113610026A (zh) | 基于掩膜注意力的行人重识别方法及重识别装置 | |
JP5845139B2 (ja) | 図形検出処理装置、図形検出処理方法及び図形検出処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 601, 6 / F, building 2, No. 18, Kechuang 11th Street, Daxing District, Beijing, 100176 Applicant after: Jingdong Technology Information Technology Co.,Ltd. Address before: 601, 6 / F, building 2, No. 18, Kechuang 11th Street, Daxing District, Beijing, 100176 Applicant before: Jingdong Shuke Haiyi Information Technology Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |