CN116311347A - 人员在岗检测方法、电子设备和计算机可读存储介质 - Google Patents
人员在岗检测方法、电子设备和计算机可读存储介质 Download PDFInfo
- Publication number
- CN116311347A CN116311347A CN202310029741.1A CN202310029741A CN116311347A CN 116311347 A CN116311347 A CN 116311347A CN 202310029741 A CN202310029741 A CN 202310029741A CN 116311347 A CN116311347 A CN 116311347A
- Authority
- CN
- China
- Prior art keywords
- identification
- identification feature
- features
- feature
- pedestrian
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 63
- 238000012545 processing Methods 0.000 claims abstract description 10
- 238000003062 neural network model Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 9
- 238000012937 correction Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 4
- 230000003993 interaction Effects 0.000 claims description 4
- 238000000034 method Methods 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 3
- 239000010410 layer Substances 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007717 exclusion Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000000546 chi-square test Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/52—Scale-space analysis, e.g. wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本申请公开一种人员在岗检测方法,包括:获取目标检测区域的图像;确定所述目标检测区域的图像中的行人图像;对所述行人图像进行识别,获取行人的第一标识特征集;对所述第一标识特征集进行处理,得到第二标识特征集,所述第二标识特征集为对应于所述第一标识特征集的高级语义特征集;根据标准特征集对所述第二标识特征集进行评分,当所述评分大于第一预定阈值时,判定所述行人为工作人员。本申请的技术方案,其可实现特定工作场景内提高在岗检测准确度和精确度。
Description
技术领域
本申请涉及计算机视觉技术领域,尤其涉及一种人员在岗检测方法、电子设备和计算机可读存储介质。
背景技术
随着计算机深度学习技术的发展,利用基于目标检测的技术进行人员的在岗检测可有效地减少对传统人工巡检或人工翻看监控的依赖,并提高检测效率。但现有的利用计算机技术进行人员在岗检测的方法主要是通过获取人身或头部的特征信息训练分类器对人员进行识别,并判断人员是否在岗,无法在特定场景下有效区分工作人员和普通人,存在检测不准确或无法判断的问题。所以,现在亟需提供一种解决方案,以针对特定场景工作人员在岗进行自动、快速检测,提升在岗检测的准确率。
发明内容
本申请实施例的主要目的在于提出一种人员在岗检测方法、电子设备和计算机可读存储介质,以提升在岗检测的准确率。
第一方面,本申请实施例提供一种人员在岗检测方法,包括:
获取目标检测区域的图像;
确定所述目标检测区域的图像中的行人图像;
对所述行人图像进行识别,获取行人的第一标识特征集;
对所述第一标识特征集进行处理,得到第二标识特征集,所述第二标识特征集为对应于所述第一标识特征集的高级语义特征集;
根据标准特征集对所述第二标识特征集进行评分,当所述评分大于第一预定阈值时,判定所述行人为工作人员。
可选地,所述第一标识特征集包括多个第一标识特征,所述第二标识特征集包括多个第二标识特征,所述对所述第一标识特征集进行处理,得到第二标识特征集,包括:
将所述行人图像划分为多个区域;
计算各个区域识别出的第一标识特征与各第二标识特征之间的相关性;
根据确定相关性确定与各个区域的第一个标识特征分别相对应的第二标识特征,并获得所述第二标识特征集。
可选地,所述将所述行人图像划分为多个区域,其中,所述多个区域包括:全身、头部、上身、下身、脚部五个区域。
可选地,所述计算各个区域识别出的第一标识特征与各第二标识特征之间的相关性,包括:
根据区域初步确定各个区域的第一标识特征所对应的第二标识特征子集,所述第二标识特征子集包括多个第二标识特征,不同区域对应的第二标识特征子集互不相同;
计算各个第一标识特征与其所对应的第二标识特征子集中的第二标识特征之间的相关性。
可选地,所述计算各个第一标识特征与其所对应的第二标识特征子集中的第二标识特征之间的相关性,包括:
根据sigmoid函数对所述第一标识特征进行评分,得到第一评分;
利用以下公式(1)计算第二评分;
其中,当存在高于第二预定阈值的第二分值高于第二预定阈值的第一标识特征时,将第二分值所对应的第二标识特征作为与当前的第一标识特征相对应的第二标识特征,
n是第一标识特征总数;
x i 是第i个第一标识特征的第一评分;
j是第j个第二标识特征的编号;
w ij 是第i个第一标识特征与第j个第二标识特征之间的相关性。
可选地,在所述根据标准特征集对所述第二标识特征集进行评分的步骤中,利用以下公式(2)对所述第二标识特征集进行评分:
其中,f j 是第j个第二标识特征的权重;
d是检测到的行人的第二标识特征的个数;
b为第二标识特征集的得分。
可选地,所述确定所述目标检测区域的图像中的行人图像,包括:
将目标检测区域的图像输入至第一神经网络模型中,确定所述区域的图像中的行人图像。
可选地,所述对所述行人图像进行识别,获取行人的第一标识特征集,包括:
将所述行人图像输入至第二神经网络模型中,确定行人的多个第一标识特征;
根据多个所述第一标识特征形成所述第一标识特征集。
第二个方面,本申请实施例提供一种电子设备,包括:
一个或多个处理器;
存储器,所述存储器有一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现根据第一个方面所述的人员在岗检测方法;
一个或多个I/O接口,连接在所述处理器与存储器之间,配置为实现所述处理器与存储器的信息交互。
第三个方面,本申请实施例提供一种计算机可读介质,所述计算机可读介质上存储有计算机程序,所述计算机程序被处理器执行时实现根据第一个方面所述的人员在岗检测方法。
在本申请中,根据对特殊场合的工作人员的着装要求建立了标准特征集。
在通过所述人员在岗检测方法进行工作人员的识别时,也是对行人的着装进行识别。其中,第一标识特征集是低级语义信息的集合,如颜色、几何形状、纹理特征等。第二标识特征集是高级语义信息的集合,是根据颜色、几何形状、纹理特征等推断出的衣服颜色、人物性别、衣服款式等。
上文中的“目标检测区域”是工作人员的工作区域。通过建立第一标识特征集、第二标识特征集,可以确定行人的着装情况。通过标准特征集与第二标识特征集可以判断出行人的着装是否为上文中所述的符合工作人员着装要求的标准着装。当所述评分大于第一预定阈值时,说明行人的着装为标准着装,这样就可以判定行人是工作人员,也就是说,此时的工作人员是在岗的。
在通过所述人员在岗检测方法检测人员是否在岗时,仅需要对行人图形进行识别,不需要人为去确认,提升了检测的效率和准确率。
附图说明
图1为本申请实施例提供的一种人员在岗检测方法的流程图;
图2为本申请实施例提供的一种人员在岗检测方法中部分步骤的流程图;
图3为本申请实施例提供的一种人员在岗检测方法中部分步骤的流程图;
图4为本申请实施例提供的一种人员在岗检测方法中部分步骤的流程图;
图5为本申请实施例提供的一种人员在岗检测方法中部分步骤的流程图;
图6为本申请实施例提供的一种电子设备的流程图;
图7为本申请实施例提供的一种计算机可读介质的流程图。
具体实施方式
为使本领域的技术人员更好地理解本申请的技术方案,下面结合附图对本申请提供的人员在岗检测方法进行详细描述。
在下文中将参考附图更充分地描述示例实施例,但是所述示例实施例可以以不同形式来体现且不应当被解释为限于本文阐述的实施例。反之,提供这些实施例的目的在于使本申请透彻和完整,并将使本领域技术人员充分理解本申请的范围。
如本文所使用的,术语“和/或”包括一个或多个相关列举条目的任何和所有组合。
本文所使用的术语仅用于描述特定实施例,且不意欲限制本申请。如本文所使用的,单数形式“一个”和“该”也意欲包括复数形式,除非上下文另外清楚指出。还将理解的是,当本说明书中使用术语“包括”和/或“由……制成”时,指定存在所述特征、整体、步骤、操作、元件和/或组件,但不排除存在或添加一个或多个其它特征、整体、步骤、操作、元件、组件和/或其群组。
除非另外限定,否则本文所用的所有术语(包括技术和科学术语)的含义与本领域普通技术人员通常理解的含义相同。还将理解,诸如那些在常用字典中限定的那些术语应当被解释为具有与其在相关技术以及本申请的背景下的含义一致的含义,且将不解释为具有理想化或过度形式上的含义,除非本文明确如此限定。
作为本申请的第一个方面,提供一种人员在岗检测方法,如图1所示,包括:
在步骤S110中,获取目标检测区域的图像;
在步骤S120中,确定所述目标检测区域的图像中的行人图像;
在步骤S130中,对所述行人图像进行识别,获取行人的第一标识特征集;
在步骤S140中,对所述第一标识特征集进行处理,得到第二标识特征集,所述第二标识特征集为对应于所述第一标识特征集的高级语义特征集;
在步骤S150中,根据标准特征集对所述第二标识特征集进行评分,当所述评分大于第一预定阈值时,判定所述行人为工作人员。
对于特殊场合的工作人员而言,是具有明显区别于行人的特征的。具体表现为,特殊场合的工作人员,有统一的着装要求,而普通行人通常是不满足上述着装要求的。
因此,在本申请中,根据对特殊场合的工作人员的着装要求建立了标准特征集。
在通过所述人员在岗检测方法进行工作人员的识别时,也是对行人的着装进行识别。其中,第一标识特征集是低级语义信息的集合,如颜色、几何形状、纹理特征等。第二标识特征集是高级语义信息的集合,是根据颜色、几何形状、纹理特征等推断出的衣服颜色、人物性别、衣服款式等。
上文中的“目标检测区域”是工作人员的工作区域。例如,对于公共铁路交通而言,所述工作区域是火车站台。通过执行步骤S120至步骤S140,可以确定行人的着装情况。通过步骤S150可以判断出行人的着装是否为上文中所述的符合工作人员着装要求的标准着装。当所述评分大于第一预定阈值时,说明行人的着装为标准着装,这样就可以判定行人是工作人员,也就是说,此时的工作人员是在岗的。
在本申请中,当评分低于第一预定阈值时,说明行人的着装不是所述标准着装,这样就可以判定工作人员不在岗。
在通过所述人员在岗检测方法检测人员是否在岗时,仅需要对行人图形进行识别,不需要人为去确认,提升了检测的效率和准确率。
在本申请中,第一标识特征集包括多个第一标识特征,第二标识特征集包括多个第二标识特征。第一标识特征还可以被称为行人的属性信息,第二标识特征还可以被称为行人的关键属性。
还需要指出的是,通过对获取的行人图像进行识别,可以获得丰富的语义信息,包括高级语义信息和低级语义信息。低级语义信息是对浅层特征的表达,如颜色、几何形状、纹理特征等,其主要产生在用于标识特征识别的深度神经网络的前几层;高级语义信息是高层特征的表达,其对分类产生重要的影响;其主要产生在深度神经网络的靠后层。
语义信息总是表现出语义或时间与空间关系上的相关性。通过这些相关性可以对行人图像进行分组,将视觉空间分成多个区域。例如,金发和黑发这两个标识特征不可能出现在同一个人身上,因为它们都与一个人的头肩部位有关,所以它们可以在同一区域中一起被识别。
本申请的构思是,为了进一步提高行人属性识别算法的准确度和精确度,将行人属性相关性和互斥性引入行人属性识别算法进行改进。可选地,行人属性识别可以采用基于多尺度注意力网络的识别算法。多尺度推理常用于改善语义分割结果,将图像缩放到多个不同尺度,再输入给同一个网络,再将结果取平均或最大值化;而某些尺度下的预测更能处理特定的语义信息,注意力机制能帮助网络学会在特定情况下倾向于这些尺度,以便更好地输出结果。所以,行人属性识别采用基于多尺度注意力网络的行人属性识别算法,在模型训练和属性预测上有较好结果。
在本申请中,第一标识特征集可以包括衣服款式,发型,携带物,颜色等;第二标识特征集可以包括年龄、性别、身高、体型等;目标检测区域为火车或地铁等轨道交通的站台以及候车大厅,银行或邮局等事业单位的办事大厅等。
在本申请中,对如何执行步骤S140不做特殊的限定,如上文中所述,所述第一标识特征集包括多个第一标识特征,所述第二标识特征集包括多个第二标识特征,相应地,所述对所述第一标识特征集进行处理,得到第二标识特征集,如图2所示,可以包括:
在步骤S141中,根据区域初步确定各个区域的第一标识特征所对应的第二标识特征子集,所述第二标识特征子集包括多个第二标识特征,不同区域对应的第二标识特征子集互不相同;
在步骤S142中,计算各个第一标识特征与其所对应的第二标识特征子集中的第二标识特征之间的相关性。
设置第二标识特征子集的目的就是避免互斥,将人体图像各标识特征根据需要进行划分。将行人图像划分区域时,应考虑到对行人的标识特征的需求不尽相同,有时需要有时需要局部的标识特征,有时需要全局的标识特征。因此在为行人图像划分区域时,应考虑到全局区域作为单独的分区存在。在本实施例中,将人体各标识特征划分为全身、头部、上身、下身、脚步五个区域。
比如说,头部对应的第二标识特征子集可以包括:帽子颜色、头发长度、头发颜色、帽子的形状等;
上身对应的第二标识特征子集可以包括:衣服颜色、扣子数量、扣子形状、衣服款式等;
下身对应的第二标识特征子集可以包括:裤子颜色、裤子款式、皮带颜色、皮带款式、口袋数量等;
脚部对应的第二标识特征子集可以包括:鞋子颜色、鞋子款式、袜子颜色、袜子款式等;
全身对应的第二标识特征子集可以包括:升高,肤色等。
在人像的不同位置处能够识别出相同的特征,根据特征所处的位置来确定具体对应哪个第二特征。
例如,在头部、上身、下身均识别出了深蓝色的像素。
对于深蓝色这一第一标识特征,可能对应的高级语义包括上衣、裤子、帽子。
头部区域的“深蓝色”这一第一标识特征对应的第二标识特征是帽子;
上身的“深蓝色”这一第一标识特征对应的第二标识特征是上衣;
下身的“深蓝色”这一第一标识特征对应的第二标识特征是裤子。
通过对行人图像进行划分区域,可以避免互斥特征的出现。
相关性计算采用统计学的一般方法,在本实施例中,采用卡方检验或Phi (φ)系数中任意一种,上述方法计算统计样本的实际观测值与理论推断值之间的偏离程度,即本实施例中,经过图像识别生成的第一标识特征和第二标识特征之间的相关性,该相关性可以反应行人不同标识特征之间的显性和隐形关系。因此,将上述相关性作为先验信息加入后续识别算法中,能有效提高标识特征识别的准确度和精确度。
在本申请中,对如何计算相关性不做特殊的限定。可选地,所述计算各个第一标识特征与其所对应的第二标识特征子集中的第二标识特征之间的相关性(即,步骤S142),如图3所示,可以包括:
在步骤S142a中,根据sigmoid函数对所述第一标识特征进行评分,得到第一评分;
在步骤S142b中,利用以下公式(1)计算第二评分;
n是第一标识特征总数;
x i 是第i个第一标识特征的第一评分;
j是第j个第二标识特征的编号
w ij 是第i个第一标识特征与第j个第二标识特征之间的相关性。
步骤S143可以被具体执行为:当存在高于第二预定阈值的第二分值高于第二预定阈值的第一标识特征时,将第二分值所对应的第二标识特征作为与当前的第一标识特征相对应的第二标识特征。
Sigmoid函数由于其反函数单增的性质,常被用作神经网络的激活函数。在本实施例中,sigmoid函数利用了其逻辑回归的特性,将直观或者复杂的变量映射到零和一的区间之内,作为后续属性识别的评估手段。对各个区域识别出的每一个第一标识特征进行sigmoid处理,得到相应分值x i 后,由行人相关性的先验信息进一步补偿各个属性的分值,如式(1)所示;
在本申请中,对如何执行步骤S150不做特殊的限定,可选地,所述根据标准特征集对所述第二标识特征集进行评分,当所述评分大于第一预定阈值时,判定所述行人为工作人员,如图4所示,可以包括:
在步骤S151中,利用以下公式(2)对所述第二标识特征集进行评分:
在步骤S152中,根据标准特征集对所述第二标识特征集进行筛选,并将属于标准特征集的各第二标识特征带入公式(2)中,得到评分b。
在步骤S153中,根据评分b是否大于第一预定阈值,判定所述行人是否为工作人员。
行人图像具备复杂的多种标识特征,而实际评判标识特征时,有意识的挑选出感兴趣的标识特征,赋予不同标识特征之间以不同的权重能够更客观地使标识特征用于反应行人。因此,将前述第二标识特征集中的各第二标识特征,根据实际情况逐一设置d个第二标识特征的权重f i ,对第二标识特征求取加权平均值,得到的计算结果评分b。将评分b与人为赋值的第一预定阈值进行比较,若评分大于第一预定阈值,则所述行人为工作人员。
在本申请中,对如何执行步骤S120不做特殊的限定,可选地,所述确定所述目标检测区域的图像中的行人图像,具体包括:
将目标检测区域的图像输入至第一神经网络模型中,确定所述区域的图像中的行人图像。
在本申请中,对第一神经网络模型的具体类型不做特殊的限定,可选地,所述第一神经网络模型为SSD、YOLO系列、Faster RCNN中的一种。
SSD、YOLO系列、Faster RCNN均为常见的目标检测算法。目前,经典的目标检测方法主要包括单阶段(one-stage)方法和多阶段(two-stage)方法,其中,单阶段方法包括YOLO、SSD、RetinaNet等;双阶段方法包括Fast RCNN、Faster RCNN、Cascade RCNN等。单阶段目标检测方法是指只需一次提取特征即可实现目标检测,其速度相比多阶段的算法快,一般精度稍微低一些;双阶段目标检测方法是指使用选择性搜索算法提取2000个左右的预选框,然后划归到统一的尺度进行CNN特征提取,最后用线性回归分类器进行分类。
在本申请中,对如何执行步骤S130不做特殊的限定,可选地,所述对所述行人图像进行识别,获取行人的第一标识特征集,如图5所示,可以包括:
在步骤S131中,将所述行人图像输入至第二神经网络模型中,确定行人的多个第一标识特征;
在步骤S132中,根据多个所述第一标识特征形成所述第一标识特征集。
在本申请中,对第二神经网络模型的具体类型不做特殊的限定,可选地,第二神经网络模型可以为多尺度注意力神经网络模型。
本申请使用多尺度神经网络结合注意力机制来为输入的行人图像匹配第一标识特征。与单层或多层CNN相比,多尺度神经网络是一种更有效的捕获不同粒度级别的抽象特征的方法;而另一方面,注意力机制是一整获得更多信息表示的较好策略,因此将多尺度注意力神经网络模型用于本申请在模型训练和属性预测时有较好的效果。
第二方面,参照图6,本申请实施例提供一种电子设备,其包括:
一个或多个处理器601;
存储器602,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述第一方面任意一项的人员在岗检测方法;
一个或多个I/O接口603,连接在处理器与存储器之间,配置为实现处理器与存储器的信息交互。
其中,处理器601为具有数据处理能力的器件,其包括但不限于中央处理器(CPU)等;存储器602为具有数据存储能力的器件,其包括但不限于随机存取存储器(RAM,更具体如SDRAM、DDR等)、只读存储器(ROM)、带电可擦可编程只读存储器(EEPROM)、闪存(FLASH);I/O接口(读写接口)603连接在处理器601与存储器602间,能实现处理器601与存储器602的信息交互,其包括但不限于数据总线(Bus)等。
在一些实施例中,处理器601、存储器602和I/O接口603通过总线相互连接,进而与计算设备的其它组件连接。
第三方面,本申请实施例提供一种计算机可读介质如图7所示,计算机可读介质上存储有计算机程序,计算机程序被处理器执行时实现上述第一方面任意一项人员在岗检测方法。
本申请采用以上技术方案,通过将行人标识特征之间的相关性和互斥性引入行人标识特征识别算法,进一步提高行人标识特征识别算法的准确性和精确度,能够更好地解决诸如铁路站台等特定场景,如何准确区分工作人员和普通行人,以提高在岗检测准确度的问题。
本领域普通技术人员可以理解,上文中所申请方法中的全部或某些步骤、系统、装置中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
在硬件实施方式中,在以上描述中提及的功能模块/单元之间的划分不一定对应于物理组件的划分;例如,一个物理组件可以具有多个功能,或者一个功能或步骤可以由若干物理组件合作执行。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其它数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其它存储器技术、CD-ROM、数字多功能盘(DVD)或其它光盘存储、磁盒、磁带、磁盘存储或其它磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其它的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其它传输机制之类的调制数据信号中的其它数据,并且可包括任何信息递送介质。
本文已经申请了示例实施例,并且虽然采用了具体术语,但它们仅用于并仅应当被解释为一般说明性含义,并且不用于限制的目的。在一些实例中,对本领域技术人员显而易见的是,除非另外明确指出,否则可单独使用与特定实施例相结合描述的特征、特性和/或元素,或可与其它实施例相结合描述的特征、特性和/或元件组合使用。因此,本领域技术人员将理解,在不脱离由所附的权利要求阐明的本申请的范围的情况下,可进行各种形式和细节上的改变。
Claims (10)
1.一种人员在岗检测方法,包括:
获取目标检测区域的图像;
确定所述目标检测区域的图像中的行人图像;
对所述行人图像进行识别,获取行人的第一标识特征集;
对所述第一标识特征集进行处理,得到第二标识特征集,所述第二标识特征集为对应于所述第一标识特征集的高级语义特征集;
根据标准特征集对所述第二标识特征集进行评分,当所述评分大于第一预定阈值时,判定所述行人为工作人员。
2.根据权利要求1所述的人员在岗检测方法,其中,所述第一标识特征集包括多个第一标识特征,所述第二标识特征集包括多个第二标识特征,所述对所述第一标识特征集进行处理,得到第二标识特征集,包括:
将所述行人图像划分为多个区域,根据特征所处的位置来确定与所述第一标识特征相对应的第二标识特征;
计算各个区域识别出的第一标识特征与各第二标识特征之间的相关性;
根据所述相关性确定与各个区域的第一个标识特征分别相对应的第二标识特征,并获得所述第二标识特征集。
3.根据权利要求2所述的人员在岗检测方法,其中,所述将所述行人图像划分为多个区域,其中,所述多个区域包括:全身、头部、上身、下身、脚部五个区域。
4.根据权利要求2所述的人员在岗检测方法,其中,所述计算各个区域识别出的第一标识特征与各第二标识特征之间的相关性,包括:
根据区域初步确定各个区域的第一标识特征所对应的第二标识特征子集,所述第二标识特征子集包括多个第二标识特征,不同区域对应的第二标识特征子集互不相同;
计算各个第一标识特征与其所对应的第二标识特征子集中的第二标识特征之间的相关性。
5.根据权利要求4所述的人员在岗检测方法,其中,所述计算各个第一标识特征与其所对应的第二标识特征子集中的第二标识特征之间的相关性,包括:
根据sigmoid函数对所述第一标识特征进行评分,得到第一评分;
利用以下公式(1)计算第二评分;
其中,当存在高于第二预定阈值的第二分值高于第二预定阈值的第一标识特征时,将第二分值所对应的第二标识特征作为与当前的第一标识特征相对应的第二标识特征,
n是第一标识特征所对应的第二标识特征子集中第二标识特征的总数;
x i 是第i个第一标识特征的第一评分;
j是第j个第二标识特征的编号;
w ij 是第i个第一标识特征与第j个第二标识特征之间的相关性。
7.根据权利要求1至5中任意一项所述的人员在岗检测方法,其中,所述确定所述目标检测区域的图像中的行人图像,包括:
将目标检测区域的图像输入至第一神经网络模型中,确定所述目标检测区域的图像中的行人图像。
8.根据权利要求1至5中任意一项所述的人员在岗检测方法,其中,所述对所述行人图像进行识别,获取行人的第一标识特征集,包括:
将所述行人图像输入至第二神经网络模型中,确定行人的多个第一标识特征;
根据多个所述第一标识特征形成所述第一标识特征集。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,所述存储器有一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现根据权利要求1-8任意一项所述的人员在岗检测方法;
一个或多个I/O接口,连接在所述处理器与存储器之间,配置为实现所述处理器与存储器的信息交互。
10.一种计算机可读介质,所述计算机可读介质上存储有计算机程序,所述计算机程序被处理器执行时实现根据权利要求1-8任意一项所述的人员在岗检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310029741.1A CN116311347A (zh) | 2023-01-09 | 2023-01-09 | 人员在岗检测方法、电子设备和计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310029741.1A CN116311347A (zh) | 2023-01-09 | 2023-01-09 | 人员在岗检测方法、电子设备和计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116311347A true CN116311347A (zh) | 2023-06-23 |
Family
ID=86802156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310029741.1A Pending CN116311347A (zh) | 2023-01-09 | 2023-01-09 | 人员在岗检测方法、电子设备和计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116311347A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117386451A (zh) * | 2023-10-12 | 2024-01-12 | 应急管理部大数据中心 | 用于矿区的盗采监测预警方法及系统 |
-
2023
- 2023-01-09 CN CN202310029741.1A patent/CN116311347A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117386451A (zh) * | 2023-10-12 | 2024-01-12 | 应急管理部大数据中心 | 用于矿区的盗采监测预警方法及系统 |
CN117386451B (zh) * | 2023-10-12 | 2024-03-26 | 应急管理部大数据中心 | 用于矿区的盗采监测预警方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108520226B (zh) | 一种基于躯体分解和显著性检测的行人重识别方法 | |
Dantcheva et al. | Bag of soft biometrics for person identification: New trends and challenges | |
Wang et al. | Human posture recognition based on images captured by the kinect sensor | |
CN110738101A (zh) | 行为识别方法、装置及计算机可读存储介质 | |
CN111126224A (zh) | 车辆检测方法及分类识别模型训练方法 | |
CN108932479A (zh) | 一种人体异常行为检测方法 | |
CN104063719A (zh) | 基于深度卷积网络的行人检测方法及装置 | |
CN111597870B (zh) | 一种基于注意力机制与多任务学习的人体属性识别方法 | |
BR102014023780B1 (pt) | Método para classificação multiclasse em cenários abertos e usos do mesmo | |
CN109472209A (zh) | 一种图像识别方法、装置和存储介质 | |
CN103150546A (zh) | 视频人脸识别方法和装置 | |
Avgerinakis et al. | Activity detection using sequential statistical boundary detection (ssbd) | |
CN111401343B (zh) | 识别图像中人的属性的方法、识别模型的训练方法和装置 | |
CN107818299A (zh) | 基于融合hog特征和深度信念网络的人脸识别算法 | |
CN110427912A (zh) | 一种基于深度学习的人脸检测方法及其相关装置 | |
CN116311347A (zh) | 人员在岗检测方法、电子设备和计算机可读存储介质 | |
CN110532838A (zh) | 对象检测装置和方法及存储介质 | |
US20160239682A1 (en) | Method and system of enforcing privacy policies for mobile sensory devices | |
CN113780145A (zh) | 精子形态检测方法、装置、计算机设备和存储介质 | |
US20130236065A1 (en) | Image semantic clothing attribute | |
CN107886060A (zh) | 基于视频的行人自动检测与跟踪方法 | |
CN112307894A (zh) | 一种社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法 | |
US20150347855A1 (en) | Clothing Stripe Detection Based on Line Segment Orientation | |
Mahmoodi et al. | SDD: A skin detection dataset for training and assessment of human skin classifiers | |
Xia et al. | Combining multi-layer integration algorithm with background prior and label propagation for saliency detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |