CN111860471A - 一种基于特征检索的工服穿戴识别方法及系统 - Google Patents

一种基于特征检索的工服穿戴识别方法及系统 Download PDF

Info

Publication number
CN111860471A
CN111860471A CN202010993035.5A CN202010993035A CN111860471A CN 111860471 A CN111860471 A CN 111860471A CN 202010993035 A CN202010993035 A CN 202010993035A CN 111860471 A CN111860471 A CN 111860471A
Authority
CN
China
Prior art keywords
feature
work clothes
pedestrian detection
retrieval
clothes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010993035.5A
Other languages
English (en)
Other versions
CN111860471B (zh
Inventor
章依依
徐晓刚
郑影
王军
黎晨阳
朱岳江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202010993035.5A priority Critical patent/CN111860471B/zh
Publication of CN111860471A publication Critical patent/CN111860471A/zh
Application granted granted Critical
Publication of CN111860471B publication Critical patent/CN111860471B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于特征检索的工服穿戴识别方法及系统,该方法包括特征检索库构建、行人检测、工服特征提取、工服检索识别四个步骤。人工选取不同类别工服中具有代表性的图像集,通过分类网络提取工服特征,构建特征检索库;将待测图像输入行人检测网络得到行人区域,裁剪图像中行人所在区域输入分类网络提取工服特征;将工服特征作为检索对象输入特征检索库,计算该对象与库中各特征的距离,最终输出该对象是否穿戴工服以及所穿工服的类别。本发明可通过简单的重建特征检索库实现对工服类别的灵活增减,有效避免重新训练模型的巨大成本,可用于工厂车间工服穿戴识别及警报系统。

Description

一种基于特征检索的工服穿戴识别方法及系统
技术领域
本发明涉及一种基于特征检索的工服穿戴识别方法及相关系统,属于工业人员安全监测技术领域。
背景技术
在工业生产和建设中,安全一直是永恒不变的主题。工服规范穿戴可在危险事故发生时为施工人员提供一定的防护,有效减少施工人员所受到的伤害。然而施工人员未规范穿戴工服的情况时有发生,造成了极大的安全隐患。传统的人工监管方式通常需要安排专门的工作人员通过摄像头画面对工厂、工地等环境中的施工人员进行实时监控。这种方式成本高、效率低。针对该问题,近年来研究人员将人工智能技术应用到工服穿戴智能识别领域。
针对工服的特性,目前已有的智能识别手段通常通过颜色标识进行判别。然而随着工服种类的增加、工厂光照环境的变化,单纯通过颜色进行工服判别的方法已经无法满足实际的需求。此外,上述方法未关注工服的纹理及形状特征,极易将与工服颜色相近的非工服误判为工服,不具备泛化性与鲁棒性。
目前深度学习在行人检测、物体分类等领域卓有成效,性能已超越了传统的机器学习算法。然而训练完成的深度神经网络往往只能识别已知物体,无法识别未知物体。在工服识别的实际应用场景中,若有新增的工服或工服发生替换,需要重新采集标注数据以及重新训练网络模型,时间与计算成本较高。此外,不同工种人员往往需要穿戴指定工服,如焊接车间内的施工人员需要穿戴焊接防护服,高空作业的施工人员需要穿戴绑有安全带的防护服,吊装车间的施工人员需要穿戴常规工服。因此模型不仅需要识别出是否穿戴工服,也要识别出工服的类别。
综上所述,发明一种高效、可靠且可灵活配置的穿戴识别方法,对未穿戴工服的人员进行告警提示,降低施工过程中的安全隐患,是目前本领域技术人员亟待解决的问题。
发明内容
本发明的目的在于针对现有技术的不足,提供了一种基于特征检索的工服穿戴识别方法,包括如下步骤:
步骤一:选取每类工服不同角度的行人图像输入至训练好的分类网络提取每种工服不同角度的特征向量,构建特征检索库;
步骤二:将待测图像输入至训练好的行人检测网络,根据获得的行人检测框对图像进行裁剪并输入至训练好的分类网络,获得待测图像中所有行人检测框的特征向量,计算每个行人检测框的特征向量与特征检索库中特征向量的特征距离;
步骤三:对每个行人检测框,若计算的与特征检索库中所有特征向量的特征距离均大于阈值,则判断为非工服;否则输出特征距离最小的工服类别。
进一步地,所述分类网络采用ResNet50、vgg16、AlexNet或GoogLeNet作为骨干网络。
进一步地,所述分类网络采用triplet loss三元组损失函数进行训练,损失函数表示为:
Figure 233395DEST_PATH_IMAGE001
其中,y表示第y个三元组,记为{A, P, N},A表示靶目标图片,B表示正例图片,N表示反例图片,f为分类网络的参数,α为超参数。
进一步地,所述行人检测网络采用darknet53作为骨干网络,基于YoloV3模型框架进行训练。
进一步地,所述步骤二中,行人检测网络训练时采用的预设锚框anchor 的尺寸由K-means聚类得到。
进一步地,所述步骤二中,所述特征距离为根据归一化后的特征向量计算的欧式距离、余弦距离或曼哈顿距离。
进一步地,所述步骤三中,具体包括如下子步骤:
(3.1)对每个行人检测框,采用KNN算法在特征检索库中选择与该行人检测框的特征向量最近的k个特征向量组成集合Top_k;
(3.2)统计集合Top_k中出现的每个类别的平均距离
Figure 619377DEST_PATH_IMAGE002
,n表示集合Top_k中 出现的类别种类,若
Figure 867956DEST_PATH_IMAGE003
大于阈值,则判断为非工服;否则输出特征距离最小 的工服类别。
本发明还提供了一种基于特征检索的工服穿戴识别系统,包括图像采集模块、工服特征提取模块、工服检索与识别模块、特征检索库和报警模块;
所述图像采集模块用于实时采集工作场景下出入口图像作为待测图像;
所述工服特征提取模块与所述图像采集模块连接,所述工服特征提取模块包括依次连接的行人检测网络和分类网络,其中,所述行人检测网络用于识别待测图像中的行人并根据获得的行人检测框对图像进行裁剪;所述分类网络用于提取每个行人检测框中工服的特征向量;
所述特征检索库由选取每类工服不同角度的行人图像输入至训练好的分类网络提取的每种工服不同角度的特征向量构成;
所述工服检索与识别模块与工服特征提取模块、特征检索库连接,用于计算所述工服特征提取模块提取的特征向量与特征检索库中的特征向量的特征距离,并对每个行人检测框进行判断,若行人检测框中所有特征距离均大于阈值,则判断为非工服;否则输出特征距离最小的工服类别。
所述报警模块与工服检索与识别模块连接,用于根据工服检索与识别模块的识别结果发出警报:若识别结果属于该工作场景下的指定工服,则安全,不发出警报,否则发出警报。
本发明的有益效果是:
1.将行人检测与工服分类分为两个模型独立训练,相比于直接用一个网络直接将行人所穿戴的工服类别识别出来,能显著提高行人检测的性能以及工服分类的性能。
2.采用三元组损失作为工服分类损失函数,可以更好地提取目标类别中具有区分性的特征,尤其可以区分特征相近的工服种类,能显著提高分类性能。
3.利用基于KNN搜索的特征检索算法,在需要增减类别的情况下只需更新特征检索库,无需重新训练网络模型,节省了大量时间和计算成本。
4.该方法支持灵活调整特征检索库,针对不同车间场地可配置不同的检索库类别及阈值,能适用于实际应用时复杂的场景条件。
附图说明
图1为本发明方法流程图;
图2是本发明训练网络和构建特征检索库的一优选方案流程图。
具体实施方式
如图1所示,本发明提供了一种基于特征检索的工服穿戴识别方法,包括如下步骤:
步骤一:选取每类工服不同角度的行人图像输入至训练好的分类网络提取每种工服不同角度的特征向量,构建特征检索库;
步骤二:将待测图像输入至训练好的行人检测网络,根据获得的行人检测框对图像进行裁剪并输入至训练好的分类网络,获得待测图像中所有行人检测框的特征向量,计算每个行人检测框的特征向量与特征检索库中特征向量的特征距离;
步骤三:对每个行人检测框,若计算的与特征检索库中所有特征向量的特征距离大于阈值,则判断为非工服;否则输出特征距离最小的工服类别。
本发明方法中,所述分类网络可以采用任意一种经训练后对图像具有分类功能的网络,例如vgg16、ResNet50、AlexNet、GoogLeNet等,所述分类网络可以采用triplet loss三元组损失函数进行训练。所述行人检测网络可以采用任意一种经训练后对图像中的目标对象进行框选的网络,例如YoloV3、FCOS、RetinaNet等。
行人检测网络训练时可以由K-means聚类得到多个预设边界框尺寸,以提高行人检测的准确率。
作为优选方案,分类网络、行人检测网络具体可以采用如下方法进行训练,其流程如图2所示:
步骤S1:建立训练数据集:
采集工厂摄像头监控视频,处理成图像数据集。每个图像样本标注出行人所在区域的目标框及所穿戴工服的类别,包括S种不同类型的工服以及未穿戴工服的负样本。本实例S取为4。由于负样本占数据集的比例较低,通过重复采样和裁剪缩放等数据增强技术增加负样本的训练数据。另外为避免模型过于关注服装的颜色特征,拍摄一批穿戴与工服颜色接近的非工服人员作为难分负样本。
步骤S2:训练行人检测网络:
S2.1 通过K-means聚类获得预设锚框
本实例采用YoloV3作为行人检测网络。将数据集图像预处理为(W×H),作为输入图像尺寸,本实例(W=416, H=416),预测的三个特征层大小分别是52、26、13。由于YoloV3的预设框通过聚类COCO数据集获得,包括大小不一的80类目标,而本实例只检测行人。因此在步骤一创建的数据集下采用K-means聚类得到合适的9个预设锚框Anchor的尺寸,以提高行人检测的准确率:如表1所示。
表1行人检测网络三层特征图大小及预设锚框尺寸
Figure 981274DEST_PATH_IMAGE005
2.2 行人检测网络训练
将步骤S1创建的训练数据集用来训练基于YoloV3网络架构的行人检测网络,其中无需用到服装分类标签。训练参数为:GPU个数为4,batch size为16,初始学习率设为0.01,随着epoch增加递减,直到epoch=300模型训练完成。行人检测精确度可以达到90%以上。
步骤S3:训练工服分类网络:
S3.1网络预训练
选择ResNet50作为骨干网络,使用ImageNet数据集预训练该网络以加快分类网络训练速度和分类网络的泛化能力。
S3.2数据预处理
根据数据集的标签,将原图中的行人按照目标框位置裁剪出来,分批次读入模型。在提取样本特征之前,将所有样本缩放到同一尺寸(W×H),本实施例采用W=224, H=224,并进行归一化操作,使每个批次的样本达到接近的分布,从而加快模型收敛速度。
S3.3 分类网络训练
将经过步骤S3.2处理的数据输入ResNet50骨干网络,最后通过一个全连接层输出一个5维的向量v:{v 0,v 1, v 2,v 3,v 4}。其中v 0代表非工服类别的概率,其余4项v 1~v 4代表4类工服的概率值。
不同于一般的分类网络采用交叉熵损失函数或者sigmoid函数,为了提高分类网络精细分类的能力,采用triplet loss三元组损失函数来指导分类网络的训练。分类网络的输入包含三张图片:靶目标(Anchor)、正例(Positive)、反例(Negative),记为三元组{A,P, N}。分类网络的参数f应满足以下条件:
Figure 467750DEST_PATH_IMAGE006
上述公式表示(A, P)的特征距离应小于(A, N)的特征距离,提供一个超参数α作为两项距离的边界margin,用来拉大两项的距离,本实例α取值为0.2。
Figure 759054DEST_PATH_IMAGE007
上述公式为单个三元组的损失函数,通过max函数保证计算得到的损失为正值。实际训练时,分类网络的输入包括K个三元组,损失函数计算如下:
Figure 511241DEST_PATH_IMAGE008
其中,y表示第y个三元组。
通过以上损失函数对网络进行训练,分类网络的精确度可达到95%以上。由此得到训练好的分类网络和行人检测网络。
作为另一优选方案,本发明中构建特征检索库可以采用下述方法,其流程如图2所示:
1.1 人工选择有代表性的图
针对每一种工服类别,从中挑选出不同角度拍摄的行人区域图像N张,构建涵盖S种工服的特征检索库,以L表示总的图像数目,其中L=S×N。由于检索库中包含各类工服在不同角度下的图像,因而可以有效减少穿戴工服的人员被误认为未穿戴工服false negtive的情况发生。本实例N取为100。
1.2 采用分类网络提取特征
将步骤1.1选择的代表图输入训练好的分类网络,去掉分类网络中的最后一层全连接 层,利用每张图获得的p维特征向量构建特征检索库Z:
Figure 178982DEST_PATH_IMAGE009
。其中l表示第l张 图,共有L张图。本实例p值为2048。
作为一优选实施方式,根据上述建立的特征检索库采用本发明方法对作业场景中工服穿戴识别,如图2所示,具体包括以下子步骤:
2.1 待测图像特征提取
将待测图像输入训练好的行人检测网络,根据获得的行人检测框对图像进行裁剪,并 经过步骤S3.2预处理后,输入分类网络提取所有行人检测框对应的特征向量Q:
Figure 51123DEST_PATH_IMAGE010
。其中g表示第g个行人检测框,共有G个行人检测框。
2.2 特征向量归一化处理
对步骤2.1提取的特征向量Q以及构建的特征检索库中的特征向量Z做归一化处理,从而使特征向量中每个维度的特征数值具有同等的重要性,避免某个维度的特征数值主导整个分类过程,具体为:取所有特征向量中每一维度的最大值减最小值,以下公式表示维度j计算得到的结果M j
Figure 778908DEST_PATH_IMAGE011
其中,x ij 表示第i个特征向量在第j维度的值,共有L+G个特征向量。将每个特征向量第j维度的特征值除以M j ,完成特征向量归一化。其计算公式如下:
Figure 454609DEST_PATH_IMAGE012
Figure 660462DEST_PATH_IMAGE013
其中,Q’为归一化后的Q,Z’为归一化后的Z。
2.3 计算特征距离
采用欧式距离作为距离度量方式,计算特征向量Q’与特征检索库中所有特征向量Z’的特征距离,计算公式如下所示:
Figure 652689DEST_PATH_IMAGE014
其中,Q’ g :(q g1, …,q gp )表示Q’中第g个特征向量,Z’ l :(z l1, …,z lp )表示Z’中第l个特征向量。
进一步地,通过K Nearest Neighbor(KNN) 算法在特征检索库Z’中选择与Q’特征距离最近的k个特征向量组成集合Top_k。k值过小容易造成过拟合,k值过大会造成重要信息损失,在本实例中k值为10。
为获得每个检测图像框与特征检索库之间的特征距离,需对Q’中每个特征向量进 行以下操作,以第g个检测图像框特征Q’ g 为例:统计Q’ g 与集合Top_k中出现的每个类别的平 均距离
Figure 305037DEST_PATH_IMAGE015
n表示集合Top_k中出现的类别种类。若
Figure 281083DEST_PATH_IMAGE016
大于阈值t, 则说明Q’ g 与特征检索库内的特征距离过大,判断为非工服,反之将
Figure 25048DEST_PATH_IMAGE016
对应 的工服类别作为分类结果,完成待测图像中行人的工服穿戴识别。并根据分类结果,确定是 否发出警报:若属于该工作场景下的指定工服,则安全,不发出警报,否则发出警报,提醒工 作人员更换。
进一步地,如需新增工服,只需要采集新增工服中最具有代表性的N张图,输入分类网络提取特征向量,加入到特征检索库。如需删除某类别的工服,则只需在特征检索库中删除属于该类别工服的所有特征向量。可以根据不同工业场景下的需求,对特征检索库内的工服类别进行适应性灵活调整,达到最佳效率。
为提高各个车间的检索速度,不同车间按照需求可灵活调整特征检索策略及相关参数。如若车间A的指定工服为工服S 1,该车间的待测图像提取出的行人检测框特征只需与特征检索库中S 1类别的特征计算特征距离,其他工服类别的特征不参与检索。针对不同车间场地可配置不同的特征检索库类别及阈值t,能适用于复杂的实际应用场景。
最后,本发明还提供了利用上述方法的工服穿戴识别系统,包括图像采集模块、工服特征提取模块、工服检索与识别模块、特征检索库和报警模块;
所述图像采集模块用于实时采集工作场景下出入口图像作为待测图像;
所述工服特征提取模块与所述图像采集模块连接,所述工服特征提取模块包括依次连接的行人检测网络和分类网络,其中,所述行人检测网络用于识别待测图像中的行人并根据获得的行人检测框对图像进行裁剪;所述分类网络用于提取每个行人检测框中工服的特征向量;
所述特征检索库由选取每类工服不同角度的行人图像输入至训练好的分类网络提取的每种工服不同角度的特征向量构成;
所述工服检索与识别模块与工服特征提取模块、特征检索库连接,用于计算所述工服特征提取模块提取的特征向量与特征检索库中的特征向量的特征距离,并对每个行人检测框进行判断,若行人检测框中所有特征距离均大于阈值,则判断为非工服;否则输出特征距离最小的工服类别。
所述报警模块与工服检索与识别模块连接,用于根据工服检索与识别模块的识别结果发出警报:若识别结果属于该工作场景下的指定工服,则安全,不发出警报,否则发出警报。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其他不同形式的变化或变动。这里无需也无法把所有的实施方式予以穷举。而由此所引申出的显而易见的变化或变动仍处于本发明的保护范围。

Claims (8)

1.一种基于特征检索的工服穿戴识别方法,其特征在于,包括如下步骤:
步骤一:选取每类工服不同角度的行人图像输入至训练好的分类网络提取每种工服不同角度的特征向量,构建特征检索库;
步骤二:将待测图像输入至训练好的行人检测网络,根据获得的行人检测框对图像进行裁剪并输入至训练好的分类网络,获得待测图像中所有行人检测框的特征向量,计算每个行人检测框的特征向量与特征检索库中特征向量的特征距离;
步骤三:对每个行人检测框,若计算的与特征检索库中所有特征向量的特征距离均大于阈值,则判断为非工服;否则输出特征距离最小的工服类别。
2.根据权利要求1所述的一种基于特征检索的工服穿戴识别方法,其特征在于,所述分类网络采用ResNet50、vgg16、AlexNet或GoogLeNet作为骨干网络。
3.根据权利要求1所述的一种基于特征检索的工服穿戴识别方法,其特征在于,所述分类网络采用triplet loss三元组损失函数进行训练,损失函数表示为:
Figure 120225DEST_PATH_IMAGE001
其中,y表示第y个三元组,记为{A, P, N},A表示靶目标图片,B表示正例图片,N表示反例图片,f为分类网络的参数,α为超参数。
4.根据权利要求1所述的一种基于特征检索的工服穿戴识别方法,其特征在于,所述行人检测网络采用darknet53作为骨干网络,基于YoloV3模型框架进行训练。
5.根据权利要求1所述的一种基于特征检索的工服穿戴识别方法,其特征在于,所述步骤二中,行人检测网络训练时采用的预设锚框anchor 的尺寸由K-means聚类得到。
6.根据权利要求1所述的一种基于特征检索的工服穿戴识别方法,其特征在于,所述步骤二中,所述特征距离为根据归一化后的特征向量计算的欧式距离、余弦距离或曼哈顿距离。
7.根据权利要求1所述的一种基于特征检索的工服穿戴识别方法,其特征在于,所述步骤三中,具体包括如下子步骤:
(3.1)对每个行人检测框,采用KNN算法在特征检索库中选择与该行人检测框的特征向量最近的k个特征向量组成集合Top_k;
(3.2)统计集合Top_k中出现的每个类别的平均距离
Figure 111184DEST_PATH_IMAGE002
,n表示集合Top_k中 出现的类别种类,若
Figure 43368DEST_PATH_IMAGE003
大于阈值,则判断为非工服;否则输出特征距离最小 的工服类别。
8.一种基于权利要求1所述工服穿戴识别方法的工服穿戴识别系统,其特征在于,包括图像采集模块、工服特征提取模块、工服检索与识别模块、特征检索库和报警模块;
所述图像采集模块用于实时采集工作场景下出入口图像作为待测图像;
所述工服特征提取模块与所述图像采集模块连接,所述工服特征提取模块包括依次连接的行人检测网络和分类网络,其中,所述行人检测网络用于识别待测图像中的行人并根据获得的行人检测框对图像进行裁剪;所述分类网络用于提取每个行人检测框中工服的特征向量;
所述特征检索库由选取每类工服不同角度的行人图像输入至训练好的分类网络提取的每种工服不同角度的特征向量构成;
所述工服检索与识别模块与工服特征提取模块、特征检索库连接,用于计算所述工服特征提取模块提取的特征向量与特征检索库中的特征向量的特征距离,并对每个行人检测框进行判断,若行人检测框中所有特征距离均大于阈值,则判断为非工服;否则输出特征距离最小的工服类别;
所述报警模块与工服检索与识别模块连接,用于根据工服检索与识别模块的识别结果发出警报:若识别结果属于该工作场景下的指定工服,则安全,不发出警报,否则发出警报。
CN202010993035.5A 2020-09-21 2020-09-21 一种基于特征检索的工服穿戴识别方法及系统 Active CN111860471B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010993035.5A CN111860471B (zh) 2020-09-21 2020-09-21 一种基于特征检索的工服穿戴识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010993035.5A CN111860471B (zh) 2020-09-21 2020-09-21 一种基于特征检索的工服穿戴识别方法及系统

Publications (2)

Publication Number Publication Date
CN111860471A true CN111860471A (zh) 2020-10-30
CN111860471B CN111860471B (zh) 2021-01-15

Family

ID=72967653

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010993035.5A Active CN111860471B (zh) 2020-09-21 2020-09-21 一种基于特征检索的工服穿戴识别方法及系统

Country Status (1)

Country Link
CN (1) CN111860471B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112597979A (zh) * 2021-03-03 2021-04-02 之江实验室 一种实时更新余弦夹角损失函数参数的人脸识别方法
CN112949606A (zh) * 2021-04-14 2021-06-11 浙江大华技术股份有限公司 工服穿戴状态检测方法、装置、存储介质及电子装置
CN114581959A (zh) * 2022-05-09 2022-06-03 南京安元科技有限公司 基于服装款式特征提取的工服穿戴检测方法
CN115082848A (zh) * 2022-05-18 2022-09-20 贝壳找房(北京)科技有限公司 工地工服穿着管理方法、装置、设备、介质及程序产品
CN117522454A (zh) * 2024-01-05 2024-02-06 北京文安智能技术股份有限公司 一种工作人员识别方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107784287A (zh) * 2017-10-27 2018-03-09 华润电力技术研究院有限公司 一种检测方法以及装置、计算机装置、可读存储介质
CN109635697A (zh) * 2018-12-04 2019-04-16 国网浙江省电力有限公司电力科学研究院 基于YOLOv3目标检测的电力作业人员安全着装检测方法
CN109672863A (zh) * 2018-12-24 2019-04-23 海安常州大学高新技术研发中心 一种基于图像识别的施工人员安全装备智能监测方法
CN110942034A (zh) * 2019-11-28 2020-03-31 中国科学院自动化研究所 用于检测多类型深度网络生成图像的方法、系统、装置
CN111461101A (zh) * 2020-04-20 2020-07-28 上海东普信息科技有限公司 工服标志的识别方法、装置、设备及存储介质
CN111461017A (zh) * 2020-04-01 2020-07-28 杭州视在科技有限公司 一种用于城市级规模的餐饮后厨工作服高精度识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107784287A (zh) * 2017-10-27 2018-03-09 华润电力技术研究院有限公司 一种检测方法以及装置、计算机装置、可读存储介质
CN109635697A (zh) * 2018-12-04 2019-04-16 国网浙江省电力有限公司电力科学研究院 基于YOLOv3目标检测的电力作业人员安全着装检测方法
CN109672863A (zh) * 2018-12-24 2019-04-23 海安常州大学高新技术研发中心 一种基于图像识别的施工人员安全装备智能监测方法
CN110942034A (zh) * 2019-11-28 2020-03-31 中国科学院自动化研究所 用于检测多类型深度网络生成图像的方法、系统、装置
CN111461017A (zh) * 2020-04-01 2020-07-28 杭州视在科技有限公司 一种用于城市级规模的餐饮后厨工作服高精度识别方法
CN111461101A (zh) * 2020-04-20 2020-07-28 上海东普信息科技有限公司 工服标志的识别方法、装置、设备及存储介质

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112597979A (zh) * 2021-03-03 2021-04-02 之江实验室 一种实时更新余弦夹角损失函数参数的人脸识别方法
CN112949606A (zh) * 2021-04-14 2021-06-11 浙江大华技术股份有限公司 工服穿戴状态检测方法、装置、存储介质及电子装置
CN112949606B (zh) * 2021-04-14 2024-05-10 浙江大华技术股份有限公司 工服穿戴状态检测方法、装置、存储介质及电子装置
CN114581959A (zh) * 2022-05-09 2022-06-03 南京安元科技有限公司 基于服装款式特征提取的工服穿戴检测方法
CN115082848A (zh) * 2022-05-18 2022-09-20 贝壳找房(北京)科技有限公司 工地工服穿着管理方法、装置、设备、介质及程序产品
CN117522454A (zh) * 2024-01-05 2024-02-06 北京文安智能技术股份有限公司 一种工作人员识别方法及系统
CN117522454B (zh) * 2024-01-05 2024-04-16 北京文安智能技术股份有限公司 一种工作人员识别方法及系统

Also Published As

Publication number Publication date
CN111860471B (zh) 2021-01-15

Similar Documents

Publication Publication Date Title
CN111860471B (zh) 一种基于特征检索的工服穿戴识别方法及系统
Racki et al. A compact convolutional neural network for textured surface anomaly detection
Xu et al. Fast method of detecting tomatoes in a complex scene for picking robots
US20230289979A1 (en) A method for video moving object detection based on relative statistical characteristics of image pixels
Han et al. A novel computer vision-based approach to automatic detection and severity assessment of crop diseases
CN112861635B (zh) 一种基于深度学习的火灾及烟雾实时检测方法
CN106778609A (zh) 一种电力施工现场人员制服穿着识别方法
CN111598066A (zh) 一种基于级联预测的安全帽佩戴识别方法
CN104198497B (zh) 一种基于视觉显著图和支持向量机的表面缺陷检测方法
Sabrol et al. Recent studies of image and soft computing techniques for plant disease recognition and classification
CN108846831B (zh) 基于统计特征和图像特征相结合的带钢表面缺陷分类方法
Seong et al. Vision-based safety vest detection in a construction scene
CN112464850B (zh) 图像处理方法、装置、计算机设备及介质
CN114937232B (zh) 医废处理人员防护用具穿戴检测方法、系统和设备
CN116452506A (zh) 一种基于机器学习的井下煤矸石智能视觉识别分选方法
CN114863464A (zh) 一种pid图纸图件信息的二阶识别方法
Abesinghe et al. Developing a selective tea plucking mechanism using image processing for a drone-based tea harvesting machine
CN111275058A (zh) 一种基于行人重识别的安全帽佩戴与颜色识别方法及装置
CN116416523A (zh) 一种基于机器学习的水稻生长阶段的识别系统和方法
Shireesha et al. Citrus fruit and leaf disease detection using DenseNet
CN113095332B (zh) 一种基于特征学习的显著性区域检测方法
Yang et al. Intelligent collection of rice disease images based on convolutional neural network and feature matching
CN113139946A (zh) 一种基于视觉的衬衫污渍定位设备
Shemshaki et al. Face detection based on fuzzy granulation and skin color segmentation
CN111639641B (zh) 一种针对未着装于人体的服装区域获取方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant