CN111553327A - 一种服饰识别方法、装置、设备和介质 - Google Patents

一种服饰识别方法、装置、设备和介质 Download PDF

Info

Publication number
CN111553327A
CN111553327A CN202010472594.1A CN202010472594A CN111553327A CN 111553327 A CN111553327 A CN 111553327A CN 202010472594 A CN202010472594 A CN 202010472594A CN 111553327 A CN111553327 A CN 111553327A
Authority
CN
China
Prior art keywords
image
uniform
target person
target
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010472594.1A
Other languages
English (en)
Other versions
CN111553327B (zh
Inventor
鲁文斌
方凌锐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Yitu Network Science and Technology Co Ltd
Original Assignee
Shanghai Yitu Network Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Yitu Network Science and Technology Co Ltd filed Critical Shanghai Yitu Network Science and Technology Co Ltd
Priority to CN202010472594.1A priority Critical patent/CN111553327B/zh
Publication of CN111553327A publication Critical patent/CN111553327A/zh
Application granted granted Critical
Publication of CN111553327B publication Critical patent/CN111553327B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30124Fabrics; Textile; Paper
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种服饰识别方法、装置、设备和介质,属于图像识别技术领域,该方法包括,接收针对待识别图像的服饰识别请求;对待识别图像进行人体检测,并根据检测结果,从待识别图像中分割出包含人像的目标人物图像;获取待识别部位信息,在目标人物图像中,分割出待识别部位信息对应的局部区域图像;将局部区域图像分别与获取的每一制服图像样本进行匹配,获得匹配的制服图像样本;将匹配的制服图像样本对应设置的制服类别,确定为服饰识别结果。这样,可以对用户的着装的指定部分进行服饰识别,提高了服饰识别的准确度,降低了人力成本。

Description

一种服饰识别方法、装置、设备和介质
技术领域
本申请涉及图像识别技术领域,尤其涉及一种服饰识别方法、装置、设备和介质。
背景技术
为规范员工行为,创造公司的企业文化,很多公司通常会为员工配备专门的制服。如,外卖人员的外卖制服。
现有技术中,为实现安全生产管理,通常需要人工检查员工是否按照规范要求穿戴制服,但是,这会耗费大量的人力成本。
由此,如何识别出用户是否穿戴规定的制服,降低成本,提高服饰识别的准确度是一个需要解决的问题。
发明内容
本申请实施例提供一种服饰识别方法、装置、设备和介质,用以在对用户着装进行检查时,降低人力成本,提高服饰识别的准确度。
一方面,提供一种服饰识别方法,包括:
接收针对待识别图像的服饰识别请求;
对待识别图像进行人体检测,并根据检测结果,从待识别图像中分割出包含人像的目标人物图像;
获取待识别部位信息,在目标人物图像中,分割出待识别部位信息对应的局部区域图像;
将局部区域图像分别与获取的每一制服图像样本进行匹配,获得匹配的制服图像样本;
将匹配的制服图像样本对应设置的制服类别,确定为服饰识别结果。
较佳的,在将匹配的制服图像样本对应设置的制服类别,确定为服饰识别结果之后,进一步包括:
获取待识别图像中包含的目标人物的行为轨迹,以及目标人物的制服类别对应设置的第一目的地集合;
确定目标人物的行为轨迹覆盖的第一地点集合;
根据第一地点集合与第一目的地集合的匹配结果,确定员工行为检测结果。
较佳的,在将匹配的制服图像样本对应设置的制服类别,确定为服饰识别结果之后,进一步包括:
根据符合预设图像条件的每一待识别图像中包含的目标人物的制服类别,筛选出指定制服类型的各目标人物;
获取筛选出的各目标人物的行为轨迹,以及指定制服类型对应设置的第二目的地集合;
确定筛选出的各目标人物的行为轨迹覆盖的第二地点集合;
根据第二地点集合和第二目的地集合之间的匹配结果,确定安全行为检测结果。
较佳的,进一步包括:
对待识别图像进行人脸检测,获得用户身份信息;
若根据用户身份信息,确定用户为指定注册用户,则将用户确定为目标人物。
较佳的,获取待识别部位信息,包括:
获取服饰识别请求中包含的待识别部位信息;或者,
分别检测预设时间段内接收的每一待识别图像中包含的部位,分别确定检测出的每一类部位的总数量,以及根据各总数量中的最大数量对应的部位,确定待识别部位信息。
较佳的,在分割出待识别部位信息对应的局部区域图像之前,进一步包括:
将不符合预设筛选条件的目标人物图像删除。
较佳的,预设筛选条件包含以下至少一种条件:
获取目标人物图像的人像高度,若人像高度不高于预设高度阈值,则去除目标人物图像;
采用预设的分类模型,对目标人物图像进行分类,若分类结果表示目标人物图像中包含至少两个人,则去除目标人物图像,其中,分类模型是根据深度神经网络生成的;
采用预设的识别模型,对目标人物图像进行识别,若识别结果表示目标人物图像中的人像被遮挡,则去除目标人物图像,其中,分类模型是根据深度神经网络生成的。
较佳的,在目标人物图像中,分割出待识别部位信息对应的局部区域图像,包括:
确定目标人物图像中的各人像关键点的坐标;
从各人像关键点的坐标中,筛选出待识别部位信息对应设置的目标关键点的目标坐标;
若各目标坐标符合预设分割条件,则根据各目标坐标,从目标人物图像中,分割出局部区域图像。
较佳的,若各目标坐标符合预设分割条件,则根据各目标坐标,从目标人物图像中,分割出局部区域图像,包括:
确定各目标关键点之间的相对位置,以及各目标关键点的数量;
若各目标关键点的相对位置符合预设位置规则,并且目标关键点的数量符合预设数量范围,则按照各目标坐标的连线形成的区域,从目标人物图像中,分割出局部区域图像。
较佳的,将局部区域图像分别与获取的每一制服图像样本进行匹配,获得匹配的制服图像样本,包括:
获取待识别部位信息对应设置的制服图像样本集合;
采用深度神经网络,分别提取局部区域图像和制服图像样本集合中的每一制服图像样本的特征向量;
根据特征向量,确定局部区域图像分别与制服图像样本集合中的每一制服图像样本之间的图像相似度;
将图像相似度符合预设匹配条件的制服图像样本,确定为局部区域图像匹配的制服图像样本。
较佳的,在获取待识别部位信息对应设置的制服图像样本集合之前,进一步包括:
获取待处理的制服图像;
从制服图像样本中分割出包含人像的目标人物图像;
从目标人物图像中,分割出待识别部位信息对应的局部区域图像;
将获得的局部区域图像,作为制服图像样本,添加到待识别部位信息对应的制服图像样本集合中。
一方面,提供一种服饰识别装置,包括:
接收单元,用于接收针对待识别图像的服饰识别请求;
第一分割单元,用于对待识别图像进行人体检测,并根据检测结果,从待识别图像中分割出包含人像的目标人物图像;
第二分割单元,用于获取待识别部位信息,在目标人物图像中,分割出待识别部位信息对应的局部区域图像;
匹配单元,用于将局部区域图像分别与获取的每一制服图像样本进行匹配,获得匹配的制服图像样本;
确定单元,用于将匹配的制服图像样本对应设置的制服类别,确定为服饰识别结果。
较佳的,确定单元还用于:
获取待识别图像中包含的目标人物的行为轨迹,以及目标人物的制服类别对应设置的第一目的地集合;
确定目标人物的行为轨迹覆盖的第一地点集合;
根据第一地点集合与第一目的地集合的匹配结果,确定员工行为检测结果。
较佳的,确定单元还用于:
根据符合预设图像条件的每一待识别图像中包含的目标人物的制服类别,筛选出指定制服类型的各目标人物;
获取筛选出的各目标人物的行为轨迹,以及指定制服类型对应设置的第二目的地集合;
确定筛选出的各目标人物的行为轨迹覆盖的第二地点集合;
根据第二地点集合和第二目的地集合之间的匹配结果,确定安全行为检测结果。
较佳的,确定单元还用于:
对待识别图像进行人脸检测,获得用户身份信息;
若根据用户身份信息,确定用户为指定注册用户,则将用户确定为目标人物。
较佳的,第二分割单元用于:
获取服饰识别请求中包含的待识别部位信息;或者,
分别检测预设时间段内接收的每一待识别图像中包含的部位,分别确定检测出的每一类部位的总数量,以及根据各总数量中的最大数量对应的部位,确定待识别部位信息。
较佳的,第二分割单元还用于:将不符合预设筛选条件的目标人物图像删除。
较佳的,预设筛选条件包含以下至少一种条件:
获取目标人物图像的人像高度,若人像高度不高于预设高度阈值,则去除目标人物图像;
采用预设的分类模型,对目标人物图像进行分类,若分类结果表示目标人物图像中包含至少两个人,则去除目标人物图像,其中,分类模型是根据深度神经网络生成的;
采用预设的识别模型,对目标人物图像进行识别,若识别结果表示目标人物图像中的人像被遮挡,则去除目标人物图像,其中,分类模型是根据深度神经网络生成的。
较佳的,第二分割单元用于:
确定目标人物图像中的各人像关键点的坐标;
从各人像关键点的坐标中,筛选出待识别部位信息对应设置的目标关键点的目标坐标;
若各目标坐标符合预设分割条件,则根据各目标坐标,从目标人物图像中,分割出局部区域图像。
较佳的,第二分割单元还用于:确定各目标关键点之间的相对位置,以及各目标关键点的数量;
若各目标关键点的相对位置符合预设位置规则,并且目标关键点的数量符合预设数量范围,则按照各目标坐标的连线形成的区域,从目标人物图像中,分割出局部区域图像。
较佳的,匹配单元用于:
获取待识别部位信息对应设置的制服图像样本集合;
采用深度神经网络,分别提取局部区域图像和制服图像样本集合中的每一制服图像样本的特征向量;
根据特征向量,确定局部区域图像分别与制服图像样本集合中的每一制服图像样本之间的图像相似度;
将图像相似度符合预设匹配条件的制服图像样本,确定为局部区域图像匹配的制服图像样本。
较佳的,匹配单元用于:
获取待处理的制服图像;
从制服图像样本中分割出包含人像的目标人物图像;
从目标人物图像中,分割出待识别部位信息对应的局部区域图像;
将获得的局部区域图像,作为制服图像样本,添加到待识别部位信息对应的制服图像样本集合中。
一方面,提供一种控制设备,包括:
至少一个存储器,用于存储程序指令;
至少一个处理器,用于调用存储器中存储的程序指令,按照获得的程序指令执行上述任一种服饰识别方法的步骤。
一方面,提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述任一种服饰识别方法的步骤。
本申请实施例提供的一种服饰识别方法、装置、设备和介质中,接收针对待识别图像的服饰识别请求;对待识别图像进行人体检测,并根据检测结果,从待识别图像中分割出包含人像的目标人物图像;获取待识别部位信息,在目标人物图像中,分割出待识别部位信息对应的局部区域图像;将局部区域图像分别与获取的每一制服图像样本进行匹配,获得匹配的制服图像样本;将匹配的制服图像样本对应设置的制服类别,确定为服饰识别结果。这样,可以对用户的着装的指定部分进行服饰识别,提高了服饰识别的准确度,降低了人力成本。
本申请的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请而了解。本申请的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请实施例方式中一种服饰识别方法的实施流程图;
图2为本申请实施例方式中一种待识别图像示例图;
图3为本申请实施例方式中一种目标人物图像示例图;
图4为本申请实施例方式中一种图像匹配示例图;
图5a为本申请实施例方式中一种制服图像样本集合生成方法的实施流程图;
图5b为本申请实施例方式中一种服饰识别流程的框架示意图;
图6为本申请实施例方式中一种服饰识别装置的结构示意图;
图7为本申请实施例方式中一种控制设备的结构示意图。
具体实施方式
为了使本申请的目的、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
为了在服饰识别时,降低人力成本,提高服饰识别准确度,本申请实施例提供了一种服饰识别方法、装置、设备和介质。
参阅图1所示,为本申请提供的一种服饰识别方法的实施流程图。该方法的具体实施流程如下:
步骤100:控制设备接收针对待识别图像的服饰识别请求。
具体的,控制设备接收用户通过其它终端设备发送的针对待识别图像的服饰识别请求,或者控制设备通过交应用互页面与用户进行交互,获得用户输入的针对待识别图像的服饰识别请求。然后,控制设备获取服饰识别请求中包含的待识别部位信息。
可选的,服饰识别请求中还可以包含待识别部位信息,待识别部位信息可以为帽子、上衣以及裤子中的任意一种或任意组合。进一步地,待识别部位信息还可以为待识别图像中包含的人像的其它位置信息,如,包,项链等配饰的位置信息。
控制设备可以为终端设备,也可以为服务器。待识别图像可以为一张包含人像的图片,也可以为视频中包含人像的一帧图像。待识别图像可以是控制设备从其它设备接收的,也可以是控制设备本地存储的。
例如,参阅图2所示,为一种待识别图像示例图。图2为一张包含两个人像的待识别图像。
其中,终端设备:可以是移动终端、固定终端或便携式终端,例如移动手机、站点、单元60、设备、多媒体计算机、多媒体平板、互联网节点、通信器、台式计算机、膝上型计算机、笔记本计算机、上网本计算机、平板计算机、个人通信系统设备、个人导航设备、个人数字助理、音频/视频播放器、数码相机/摄像机、定位设备、电视接收器、无线电广播接收器、电子书设备、游戏设备或者其任意组合,包括这些设备的配件和外设或者其任意组合。还可预见到的是,终端设备能够支持任意类型的针对用户的接口(例如可穿戴设备)等。
其中,服务器:可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务以及大数据和人工智能平台等基础云计算服务的云服务器。
步骤101:控制设备对待识别图像进行人体检测,并根据检测结果,从待识别图像中分割出包含人像的目标人物图像。
具体的,控制设备对待识别图像进行人像检测,获得待识别图像中包含的人像轮廓,并根据从待识别图像中检测出的人像轮廓,分割出包含人像的目标人物图像。
需要说明的是,由于待识别图像中可能仅包含一个人,也可能包含多个人像,因此,从待识别图像中可能分割出一个目标人物图像,也可能分割出多个目标人物图像。
例如,控制设备对图2进行人像检测,获得包含人像的矩形框,并按照矩形框对图2进行分割,获得包含人像的目标人物图像1和目标人物图像2。
这样,就可以分别获取每一人像对应的目标人物图像,以便后续分别针对每一人像进行服饰识别。
进一步地,控制设备还可以对待识别图像进行人脸检测,获得用户身份信息,若根据用户身份信息,确定用户为指定的目标人物,则根据从待识别图像中检测出的人像轮廓,分割出仅包含该用户的人像的目标人物图像。
其中,目标人物为预先设置的,这样,就可以仅针对特定的目标人物,进行服饰识别。如,仅针对公司内的保安进行服饰识别。
可选的,控制设备分割目标人物图像时,可以采用人像轮廓或任意多边形框(如,矩形)进行图像分割,在此不作限制。
也就是说,目标图像可以为包含人像的矩形图像、正方形图像以及人像轮廓图像。
进一步地,由于目标人物图像中可能会存在多个人像、图像分辨率较低或者人像被遮挡的问题,因此,控制设备还可以将不符合预设筛选条件的目标人物图像删除。
其中,预设筛选条件可以是目标人物图像中的以下因素中的至少一种确定的:人像高度,人像数量以及人像是否被遮挡。
具体的,预设筛选条件包含以下至少一种条件:
第一种方式为:控制设备获取目标人物图像的人像高度,若人像高度不高于预设高度阈值,则去除该目标人物图像。
其中,人像高度为目标人物图像中的人像的像素高度,像素高度可以采用像素点数量来表示。像素点是最小的图像单元一张图片由多个像素点组成。通过像素点可以确定图像的分辨率。
例如,一张图片的图片尺寸为500*338,表示该图片是由500*338的像素点矩阵构成的,图片的宽度是500个像素点的长度,高度是338个像素点的长度,共有500*338=149000个像素点。
实际应用中,预设高度阈值可以根据实际应用场景进行设置,如,预设高度阈值为100像素点,在此不作限制。
例如,预设高度阈值为100像素点,假设人像高度为120像素点,控制设备确定人像高度120高于预设高度阈值100,则判定目标人物图像的质量符合要求,不需要去除。假设人像高度为50像素点,控制设备确定人像高度50不高于预设高度阈值100,则判定目标人物图像的质量不符合要求,需要去除。
一种应用场景中,待识别图像为公路监控视频中的图像,由于摄像设备与行人之间的距离较远,待识别图像中的人通常较小,人像高度较低,即图像分辨率较低,因此,控制设备设置的预设高度阈值比较小。
一种应用场景中,待识别图像为安检监控视频中的图像,由于摄像设备与行人之间的距离较近,待识别图像中的人通常较大,人像高度较高,即图像分辨率较高,因此,控制设备设置的预设高度阈值比较大。
这样,就可以通过不同的预设高度阈值,对不同分辨率的待识别图像进行服饰识别,并去除分辨率较低的目标人物图像。
第二种方式为:控制设备采用预设的分类模型,对目标人物图像进行分类,若分类结果表示目标人物图像中包含至少两个人,则去除该目标人物图像。
其中,分类模型是根据深度神经网络生成的。深度神经网络可以理解为有很多隐藏层的神经网络,又被称为深度前馈网络,多层感知机。
一种实施方式中,控制设备根据仅包含一个人像的图像样本和包含至少一个人像的图像样本,对分类模型进行训练,获得训练后的分类模型。训练后的分类模型用于判断目标人物图像中是否仅包含一个人像。
这样,就可以去除包含多个人像的目标人物图像,以便在后续的步骤中,仅对包含一个人像的目标人物图像进行服饰识别,从而提高服饰识别的准确度。
第三种方式为:控制设备采用预设的识别模型,对目标人物图像进行识别,若识别结果表示目标人物图像中的人像被遮挡,则去除该目标人物图像。
具体的,根据识别模型,确定人像被遮挡的面积,当被遮挡的面积与人像面积的占比高于预设面积阈值时,确定目标人物图像中的人像被遮挡,则去除该目标人物图像。当该占比不高于预设面积阈值时,控制设备确定目标人物图像中的人像未被遮挡,符合质量要求,不需要去除。
其中,预设的识别模型是根据深度神经网络生成的。实际应用中,预设面积阈值可以根据实际应用场景进行设置,在此不做限制。
例如,预设面积阈值为0.8,假设目标人物图像被遮挡的面积与人像面积的占比为0.85,高于预设面积阈值0.8,则确定目标人物图像中的人像被遮挡,去除该目标人物图像。假设目标人物图像被遮挡的面积与人像面积的占比为0.85,高于预设面积阈值0.8,则确定目标人物图像中的人像被遮挡,去除该目标人物图像。
步骤102:控制设备获取待识别部位信息,并在目标人物图像中,分割出待识别部位信息对应的局部区域图像。
具体的,获取待识别部位信息时,可以采用以下任意一种方式:
第一种方式为:控制设备获取服饰识别请求中包含的待识别部位信息。
这样,用户就可以根据实际需求,对待识别部位信息进行个性化选择。
第二种方式为:控制设备分别检测预设时间段内接收的每一待识别图像中包含的部位,分别确定检测出的每一类部位的总数量,以及根据各总数量中的最大数量对应的部位,确定待识别部位信息。
实际应用中,预设时间段可以根据实际应用场景进行设置,如,1小时,在此不作限制。
例如,控制设备获取最近小时内接收的3张待识别图像,即图像1、图像2和图像3,控制设备对上述3张待识别图像进行部位检测,确定图像1和图像3中均仅包含一个上衣,图像2中包含一个上衣和一个裤子,则确定检测出3个上衣和1个裤子,并将上衣作为待识别部位信息。
进一步地,待识别部位信息还可以为预先设置的,在此不作限制。
其中,在目标人物图像中,分割出待识别部位信息对应的局部区域图像时,可以采用以下步骤:
S1021:控制设备确定目标人物图像中的各人像关键点的坐标。
其中,人像关键点是预先设置的人像中的位置的名称,例如,人像关键点可以为膝盖、手肘、头顶以及脚底等,在此不做限制。
实际应用中,人像关键点的位置和数量均可以根据实际应用场景进行设置,在此不作限制。
进一步地,由于目标人物图像中的人像可能会被部分遮挡,因此,控制设备还确定每一人像关键点的状态,该状态表示人像关键点在目标人物图像中是否可见。
S1022:控制设备从各人像关键点的坐标中,筛选出待识别部位信息对应设置的目标关键点的目标坐标。
具体的,控制设备获取待识别部位信息对应设置的关键点集合,并从各人像关键点的坐标中,筛选出关键点集合中包含的每一目标关键点的目标坐标。
其中,控制设备预先针对每一待识别部位信息设置相应的关键点集合。关键点集合为多个人像关键点的集合。
例如,假设待识别部位信息为裤子,则关键点集合中包含的关键点的位置可以为:腰两侧的位置,膝盖位置以及脚踝位置。
S1023:若各目标坐标符合预设分割条件,则控制设备按照各目标坐标,从目标人物图像中,分割出局部区域图像。
一种实施方式中,控制设备确定各目标关键点之间的相对位置,以及各目标关键点的数量。若各目标关键点的相对位置符合预设位置规则,并且目标关键点的数量符合预设数量范围,则控制设备按照各目标坐标的连线形成的区域,从目标人物图像中,分割出局部区域图像。
其中,局部区域图像可以为仅包含帽子、上衣、裤子或鞋子的图像。
例如,假设待识别部位信息为裤子,控制设备在图2的目标人物图像1中,分割出裤子对应的局部区域图像1,以及在图2的目标人物图像2中,分割出裤子对应的局部区域图像2。
又例如,参阅图3所示,为一种目标人物图像示例图。假设待识别部位信息为裤子,图3为一张目标人物图像,则控制设备获得图3的目标人物图像中的各目标关键点的目标坐标,并按照各目标坐标连线形成的区域,从目标人物图像中分割出局部区域图像。
执行S1023之前,控制设备预先设置位置规则和预设数量范围。预设位置规则用于限定各人像关键点的相对位置关系,可以包括不同人像关键点之间的上下关系、左右关系以及相对距离等。
例如,头部关键点高于其它的人像关键点,脚底关键点低于其它人像关键点,手部关键点高于膝盖关键点。
一种实施方式中,控制设备还可以获取各目标关键点的状态,该状态表示目标关键点是否可见。控制设备确定指定的目标关键点被遮挡时,则确定目标坐标符合预设切割条件。
实际应用中,相对位置关系、预设数量范围以及指定的目标关键点均可以根据实际应用场景进行设置,在此不作限制。
步骤103:控制设备将局部区域图像分别与每一制服图像样本进行匹配,获得匹配的制服图像样本。
具体的,执行步骤103时,可以采用以下步骤:
S1031:控制设备获取待识别部位信息对应设置的制服图像样本集合。
其中,执行步骤103之前,控制设备预先分别针对每一部位,设置相应的制服图像样本集合。制服图像样本集合中包含至少一张制服图像样本。控制设备还预先建立制服图像样本与制服类别之间的对应关系。区域图像集合可以是根据视频生成的,也可以是根据单个图片生成的,还可以是根据批量图像生成的。
S1032:控制设备确定局部区域图像分别与制服图像样本集合中的每一制服图像样本之间的图像相似度。
一种实施方式中,控制设备采用深度神经网络,分别提取局部区域图像和每一制服图像样本的特征向量,并根据特征向量,确定局部区域图像分别与每一制服图像样本之间的图像相似度。
可选的,图像相似度可以采用两个图像的特征向量的点积平均值,特征向量之间的余弦相似度,或误差绝对值和(Sum of absolute differences,SAD)的方式确定,也可以根据实际应用场景采用其它方式确定,在此不作限制。
其中,在数字图像处理中,SAD是图像块之间的相似度的量度,通过一个图像块中的每个像素与另一个图像块中相应像素之间的绝对差来计算。SAD越小,则图像相似度越高。
进一步地,为提高图像匹配效率,提高图像匹配的精确度,控制设备还可以采用以下方式:
控制设备采用哈希算法,确定局部区域图像的目标哈希值,以及每一制服图像样本的哈希值,并筛选出目标哈希值对应的制服图像样本,以及确定局部区域图像分别与筛选出的每一制服图像样本之间的图像相似度。
一种实施方式中,为提高图像匹配效率,还可以预先确定以及存储每一制服图像样本的哈希值。
其中,哈希算法用于根据一个输入,产生一个固定长度的输出。改变输入中的一个字符均会产生完全不同的哈希值。
可选的,哈希算法可以采用感知哈希算法,其中,感知哈希算法是一类哈希算法的总称,其作用在于生成每张图像的“指纹”字符串,比较不同图像的指纹信息来判断图像的相似性。结果越接近图像越相似。感知哈希算法包括均值哈希(aHash)、感知哈希(pHash)和差异值哈希(dHash)。aHash速度较快,但精确度较低;pHash则反其道而行之,精确度较高但速度较慢;dHash兼顾二者,精确度较高且速度较快。在得到64位hash值后,使用汉明距离量化两张图像的相似性。汉明距离越大,图像的相似度越小,汉明距离越小,图像的相似度越大。
这样,就可以采用哈希值,对各制服图像样本进行初步筛选,简化了图像匹配的复杂步骤,提高了图像匹配的效率。
S1033:控制设备将图像相似度符合预设匹配条件的制服图像样本,确定为局部区域图像匹配的制服图像样本。
一种实施方式中,控制设备确定各图像相似度中的最大图像相似度,若最大图像相似度高于预设相似度阈值,则将该最大图像相似度对应的制服图像样本,确定为局部区域图像匹配的制服图像样本,否则,不存在局部区域图像匹配的制服图像样本。
实际应用中,预设相似度阈值可以根据实际应用场景进行设置,如,预设相似度阈值为0.95,在此不作限制。
例如,预设相似度阈值为0.95,假设最大图像相似度为0.99,则控制设备将0.99对应的制服图像样本确定为局部区域图像匹配的制服图像样本。假设最大图像相似度为0.5,则控制设备确定不存在局部区域图像匹配的制服图像样本。
一种应用场景中,参阅图4所示,为一种图像匹配示例图,图4中分别包含帽子、上衣以及裤子对应的制服图像样本集合。每一制服图像样本集合中包含多个制服图像样本。假设待识别部位信息为裤子,则控制设备从图4中裤子对应的制服图像样本集合中的各制服图像样本中,确定局部区域图像匹配的制服图像样本。
步骤104:控制设备根据匹配的制服图像样本对应设置的制服类别,确定服饰识别结果。
具体的,执行步骤104之前,控制设备预先设置各制服图像样本与各制服类别之间的对应关系。一种实施方式中,为便于服饰识别,还可以预先获取制服图像样本的特征向量和制服类别,并将制服图像样本、特征向量和制服类别三者关联存储。
例如,制服类别可以为外卖制服、快递制服以及厨师制服等。
执行步骤104时,控制设备根据上述对应关系,确定局部区域图像匹配的制服图像样本对应的制服类别,并根据该制服类别,确定服饰识别结果。
进一步地,控制设备还可以根据确定出的一个部位的制服类别,或多个部位的制服类别,确定服饰识别结果。
一种实施方式中,控制设备获取指定的一个待识别部位信息的制服类别,当该制服类别为指定制服类别时,判定用户着装符合规范,否则,判定用户着装不符合规范,并记录该用户的身份信息。
一种实施方式中,控制设备获取指定多个待识别部位信息的制服类别,当各制服类别符合预设制服规范时,判定用户着装符合规范,否则,判定用户着装不符合规范,并记录该用户的身份信息。
一种实施方式中,预设制服规范可以采用以下方式:确定出的各制服类别相同,并且为指定制服类别。
这样,既可以仅针对指定的部位的制服类别,也可以通过各部位的制服类别,判断用户着装是否符合要求。
进一步地,若不存在匹配的制服图像样本,则判定匹配失败,不存在与局部区域图像匹配的制服类别。
本申请实施例可以应用于工厂、医院、学校以及公安等需要对用户的制服着装进行安全管理的场景。
进一步地,控制设备还可以根据员工的制服类别,以及员工的行为轨迹,判断用户的行为是否符合要求。
一种实施方式中,可以采用以下步骤:
S1041:控制设备获取待识别图像中包含的目标人物的行为轨迹,以及目标人物的制服类别对应设置的第一目的地集合。
一种实施方式中,目标人物的行为轨迹可以采用以下任意一种方式确定:
第一种方式为:获取包含目标人物的各图像,并分别获取每一图像的拍摄地点,将各拍摄地点作为目标人物的行为轨迹。
第二种方式为:对待识别图像中的目标人物进行人脸识别,获得目标人物的用户身份信息,并根据用户身份信息关联的线上行为信息,获取目标人物的行为轨迹。
其中,线上行为信息,可以为通过用户携带的电子设备、消费记录以及监控摄像等方式获得的。
进一步地,还可以执行以下步骤筛选出目标人物:
对待识别图像进行人脸检测,获得用户身份信息,若根据用户身份信息,确定用户为指定注册用户,则将用户确定为目标人物。
例如,控制设备确定用户为安保人员时,确定用户为目标人物。
这样,对用户预先进行注册,就可以仅对注册后的特定人员的行为进行监测,去除无关紧要的人员,减少耗费的系统资源。
其中,第一目的地集合为一个或多个目的地的集合,控制设备预先针对各制服类别设置相应的目的地集合。
例如,假设制服类别为保洁制服,则第一目的地集合为一个保洁人员需要进行保洁的地点的集合。
需要说明的是,本申请实施例中,仅以针对待识别图像中包含的一个目标人物为例进行说明,采用相同的原理,可以对其它目标人物进行员工行为检测,在此不再赘述。
S1042:控制设备确定目标人物的行为轨迹覆盖的第一地点集合。
例如,通过目标人物的行为轨迹,可以确定目标人物去过A小区和B小区。
这样,就可以根据用户的行为轨迹,确定用户去过的地点。
S1043:控制设备根据第一地点集合与第一目的地集合的匹配结果,确定员工行为检测结果。
具体的,若第一地点集合包含第一目的地集合,则控制设备确定目标人物符合员工行为要求,否则,确定目标人物不符合员工行为要求。
例如,假设目标人物为保洁人员,制服类别为保洁制服,需要分别对A小区和B小区(目的地)进行保洁,若目标人物均到达了A小区和B小区,则说明目标人物符合员工行为要求,否则,不符合员工行为要求。
这样,当用户的行为轨迹覆盖了目的地集合时,说明用户遵守了员工行为要求。
进一步地,控制设备还可以根据指定制服类型的多个目标人物的覆盖范围,判断多个目标人员(群体)的分布是否符合安全监测行为要求。
具体的,可以采用以下步骤:
S1044:控制设备根据符合预设图像条件的每一待识别图像中包含的目标人物的制服类别,筛选出指定制服类型的各目标人物。
具体的,预设图像条件可以根据实际应用场景进行设置,例如,预设图像条件可以为最近1小时内接收的待识别图像,在此不再赘述。
例如,各待识别图像依次为图像1、图像2和图像3,图像1中包含员工A,图像2中包含员工B,以及图像3中包含员工C,对应的制服类别依次为安保制服、保洁制服以及安保制服。假设指定制服类别为安保制服,则筛选出员工A和员工C。
这样,就可以在多个待识别图像包含的目标人物中,筛选出指定制服类别的一个或多个目标人物。
S1045:控制设备获取筛选出的各目标人物的行为轨迹,以及所述指定制服类型对应设置的第二目的地集合。
具体的,第二目的地集合为一个或多个目的地的集合。
S1046:控制设备确定筛选出的各目标人物的行为轨迹覆盖的第二地点集合。
具体的,第二地点集合为一个或多个地点的集合。
这样,就可以获取多个目标人物到达的地点。
S1047:控制设备根据第二地点集合和第二目的地集合之间的匹配结果,确定安全行为检测结果。
具体的,若第二地点集合包含第二目的地集合,则控制设备确定符合安全行为检测结果,否则,确定不符合安全行为检测结果。
例如,假设指定制服类别为安保制服,第二目的地集合为学校中的所有教学楼,用户1、用户2和用户3的制服类型均为安保制服,则用户1、用户2和用户3的行为轨迹若覆盖学校中的每一教学楼,则确定符合安全行为检测结果,否则,确定不符合安全行为检测结果。
这样,就可以根据指定制服类别的多个用户的分布,判断是否符合安全行为检测结果。
本申请实施例中,预先建立各部位对应的制服图像样本集合,在进行服饰识别时,可以通过人像关键点截取待识别图像中指定的人像部位的局部区域图像,并通过制服图像样本集合中与局部区域图像匹配的制服图像样本,确定服饰识别结果,实现对指定人像的部位的服饰识别,提高了识别准确率,降低了人力成本,还提高了识别效率,进一步地,控制设备还可以根据指定制服类别的单个人员的行为轨迹,或者指定类别的群体的覆盖范围,判断是否符合员工安全行为要求,提高了员工安全行为检测的效率和便利性,以及实现安全生产管理。
参阅图5a所示,为一种制服图像样本集合生成方法的实施流程图,在进行服饰识别之前,控制设备预先生成制服图像样本集合,该方法的具体流程如下:
步骤500:控制设备获取待处理的制服图像。
具体的,制服图像为包含人像的图片。制服图像可以为一张图片,也可以为多张图片,还可以为视频中的视频帧,即可以为一个也可以为多个。
步骤501:控制设备从制服图像中分割出包含人像的目标人物图像。
具体的,控制设备分别针对每一制服图像,从制服图像中分割出包含人像的目标人物图像。其中,目标人物图像分割的具体步骤参见上述步骤101。
其中,由于制服图像中可能包含一个人像,也可能包含多个人像,因此,分割出的目标人物图像可能为一个,也可能为多个。
步骤502:控制设备从目标人物图像中,分割出待识别部位信息对应的局部制服图像样本。
具体的,执行步骤502时,具体步骤可以参见上述步骤102。
其中,待识别部位信息可以为根据用户指令确定的,也可以为默认设置的。
一种实施方式中,当存在多张目标人物图像,并且各部位均为待识别部位信息时,控制设备分别针对每一目标人物图像,执行以下步骤:依次分割出每一部位对应的局部区域图像。
步骤503:控制设备将获得的局部区域图像作为制服图像样本,添加到待识别部位信息对应的制服图像样本集合中。
具体的,控制设备判断是否存在待识别部位信息对应的制服图像样本集合,若是,则将获得的局部区域图像作为制服图像样本,添加到待识别部位信息对应的制服图像样本集合中,否则,创建待识别部位信息对应的制服图像样本集合,并将获得的制服图像样本,添加到待识别部位信息对应的制服图像样本集合中。
本申请实施例中,仅以一张制服图像样本为例进行说明,实际应用中,可以采用相同的原理,将其它制服图像样本添加到相应的制服图像样本集合中,在此不再赘述。
需要说明的是,用户可以通过指令自定义待识别部位信息,从可以根据用户要求,生成相应的制服图像样本集合。
参阅图5b所示,为一种服饰识别流程的框架示意图。下面对制服图像样本集合的生成和服饰识别的流程框架进行说明。
由图5b可知,在生成制服图像样本集合时,控制设备针对获取的制服图像执行以下步骤:分割出目标人物图像,对目标人物图像进行筛选,获取目标人物图像中的人像关键点的坐标,根据坐标从目标人物图像中分割出待识别部位信息对应制服图像样本,提取制服图像样本的特征向量,将制服图像样本添加到待识别部位信息对应的制服图像样本集合中。
在进行服饰识别时,控制设备针对待识别图像执行以下步骤:分割出目标人物图像,对目标人物图像进行筛选,获取目标人物图像中的人像关键点的坐标,根据坐标从目标人物图像中分割出待识别部位信息对应局部区域图像,提取局部区域图像的特征向量,并根据特征向量,确定制服图像样本集合中与局部区域图像匹配的制服图像样本,根据匹配的制服图像样本的制服类别,确定服饰识别结果。
基于同一发明构思,本申请实施例中还提供了一种服饰识别装置,由于上述装置及设备解决问题的原理与一种服饰识别方法相似,因此,上述装置的实施可以参见方法的实施,重复之处不再赘述。
如图6所示,其为本申请实施例提供的一种服饰识别装置的结构示意图,包括:
接收单元601,用于接收针对待识别图像的服饰识别请求;
第一分割单元602,用于对待识别图像进行人体检测,并根据检测结果,从待识别图像中分割出包含人像的目标人物图像;
第二分割单元603,用于获取待识别部位信息,在目标人物图像中,分割出待识别部位信息对应的局部区域图像;
匹配单元604,用于将局部区域图像分别与获取的每一制服图像样本进行匹配,获得匹配的制服图像样本;
确定单元605,用于将匹配的制服图像样本对应设置的制服类别,确定为服饰识别结果。
较佳的,确定单元605还用于:
获取待识别图像中包含的目标人物的行为轨迹,以及目标人物的制服类别对应设置的第一目的地集合;
确定目标人物的行为轨迹覆盖的第一地点集合;
根据第一地点集合与第一目的地集合的匹配结果,确定员工行为检测结果。
较佳的,确定单元605还用于:
根据符合预设图像条件的每一待识别图像中包含的目标人物的制服类别,筛选出指定制服类型的各目标人物;
获取筛选出的各目标人物的行为轨迹,以及指定制服类型对应设置的第二目的地集合;
确定筛选出的各目标人物的行为轨迹覆盖的第二地点集合;
根据第二地点集合和第二目的地集合之间的匹配结果,确定安全行为检测结果。
较佳的,确定单元605还用于:
对待识别图像进行人脸检测,获得用户身份信息;
若根据用户身份信息,确定用户为指定注册用户,则将用户确定为目标人物。
较佳的,第二分割单元603用于:
获取服饰识别请求中包含的待识别部位信息;或者,
分别检测预设时间段内接收的每一待识别图像中包含的部位,分别确定检测出的每一类部位的总数量,以及根据各总数量中的最大数量对应的部位,确定待识别部位信息。
较佳的,第二分割单元603还用于:将不符合预设筛选条件的目标人物图像删除。
较佳的,预设筛选条件包含以下至少一种条件:
获取目标人物图像的人像高度,若人像高度不高于预设高度阈值,则去除目标人物图像;
采用预设的分类模型,对目标人物图像进行分类,若分类结果表示目标人物图像中包含至少两个人,则去除目标人物图像,其中,分类模型是根据深度神经网络生成的;
采用预设的识别模型,对目标人物图像进行识别,若识别结果表示目标人物图像中的人像被遮挡,则去除目标人物图像,其中,分类模型是根据深度神经网络生成的。
较佳的,第二分割单元603用于:
确定目标人物图像中的各人像关键点的坐标;
从各人像关键点的坐标中,筛选出待识别部位信息对应设置的目标关键点的目标坐标;
若各目标坐标符合预设分割条件,则根据各目标坐标,从目标人物图像中,分割出局部区域图像。
较佳的,第二分割单元603还用于:确定各目标关键点之间的相对位置,以及各目标关键点的数量;
若各目标关键点的相对位置符合预设位置规则,并且目标关键点的数量符合预设数量范围,则按照各目标坐标的连线形成的区域,从目标人物图像中,分割出局部区域图像。
较佳的,匹配单元604用于:
获取待识别部位信息对应设置的制服图像样本集合;
采用深度神经网络,分别提取局部区域图像和制服图像样本集合中的每一制服图像样本的特征向量;
根据特征向量,确定局部区域图像分别与制服图像样本集合中的每一制服图像样本之间的图像相似度;
将图像相似度符合预设匹配条件的制服图像样本,确定为局部区域图像匹配的制服图像样本。
较佳的,匹配单元604用于:
获取待处理的制服图像;
从制服图像样本中分割出包含人像的目标人物图像;
从目标人物图像中,分割出待识别部位信息对应的局部区域图像;
将获得的局部区域图像,作为制服图像样本,添加到待识别部位信息对应的制服图像样本集合中。
本申请实施例提供的一种服饰识别方法、装置、设备和介质中,接收针对待识别图像的服饰识别请求;对待识别图像进行人体检测,并根据检测结果,从待识别图像中分割出包含人像的目标人物图像;获取待识别部位信息,在目标人物图像中,分割出待识别部位信息对应的局部区域图像;将局部区域图像分别与获取的每一制服图像样本进行匹配,获得匹配的制服图像样本;将匹配的制服图像样本对应设置的制服类别,确定为服饰识别结果。这样,可以对用户的着装的指定部分进行服饰识别,提高了服饰识别的准确度,降低了人力成本。
为了描述的方便,以上各部分按照功能划分为各模块(或单元)分别描述。当然,在实施本申请时可以把各模块(或单元)的功能在同一个或多个软件或硬件中实现。
基于上述实施例,参阅图7所示,本申请实施例中,一种控制设备的结构示意图。
本申请实施例提供了一种控制设备,该控制设备可以包括处理器710(CenterProcessing Unit,CPU)、存储器720,还可以包括输入设备730和输出设备740等,输入设备730可以包括键盘、鼠标、触摸屏等,输出设备740可以包括显示设备,如液晶显示器(LiquidCrystal Display,LCD)、阴极射线管(Cathode Ray Tube,CRT)等。
存储器720可以包括只读存储器(ROM)和随机存取存储器(RAM),并向处理器710提供存储器720中存储的程序指令和数据。在本申请实施例中,存储器720可以用于存储本申请实施例中服饰识别的程序。
处理器710通过调用存储器720存储的程序指令,处理器710用于执行图1所示的实施例提供的一种服饰识别的方法。
本申请实施例中,还提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述任意方法实施例中的服饰识别的方法。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (10)

1.一种服饰识别方法,其特征在于,包括:
接收针对待识别图像的服饰识别请求;
对所述待识别图像进行人体检测,并根据检测结果,从所述待识别图像中分割出包含人像的目标人物图像;
获取待识别部位信息,在所述目标人物图像中,分割出所述待识别部位信息对应的局部区域图像;
将所述局部区域图像分别与获取的每一制服图像样本进行匹配,获得匹配的制服图像样本;
将所述匹配的制服图像样本对应设置的制服类别,确定为服饰识别结果。
2.如权利要求1所述的方法,其特征在于,在将所述匹配的制服图像样本对应设置的制服类别,确定为服饰识别结果之后,进一步包括:
获取所述待识别图像中包含的目标人物的行为轨迹,以及所述目标人物的制服类别对应设置的第一目的地集合;
确定所述目标人物的行为轨迹覆盖的第一地点集合;
根据所述第一地点集合与所述第一目的地集合的匹配结果,确定员工行为检测结果。
3.如权利要求1所述的方法,其特征在于,在将所述匹配的制服图像样本对应设置的制服类别,确定为服饰识别结果之后,进一步包括:
根据符合预设图像条件的每一待识别图像中包含的目标人物的制服类别,筛选出指定制服类型的各目标人物;
获取筛选出的各目标人物的行为轨迹,以及所述指定制服类型对应设置的第二目的地集合;
确定筛选出的各目标人物的行为轨迹覆盖的第二地点集合;
根据所述第二地点集合和所述第二目的地集合之间的匹配结果,确定安全行为检测结果。
4.如权利要求2或3所述的方法,其特征在于,进一步包括:
对所述待识别图像进行人脸检测,获得用户身份信息;
若根据用户身份信息,确定用户为指定注册用户,则将所述用户确定为目标人物。
5.如权利要求1所述的方法,其特征在于,获取待识别部位信息,包括:
获取所述服饰识别请求中包含的待识别部位信息;或者,
分别检测预设时间段内接收的每一待识别图像中包含的部位,分别确定检测出的每一类部位的总数量,以及根据各总数量中的最大数量对应的部位,确定待识别部位信息。
6.如权利要求1所述的方法,其特征在于,在分割出所述待识别部位信息对应的局部区域图像之前,进一步包括:
将不符合预设筛选条件的目标人物图像删除。
7.如权利要求6所述的方法,其特征在于,所述预设筛选条件包含以下至少一种条件:
获取所述目标人物图像的人像高度,若所述人像高度不高于预设高度阈值,则去除所述目标人物图像;
采用预设的分类模型,对所述目标人物图像进行分类,若分类结果表示所述目标人物图像中包含至少两个人,则去除所述目标人物图像,其中,所述分类模型是根据深度神经网络生成的;
采用预设的识别模型,对所述目标人物图像进行识别,若识别结果表示所述目标人物图像中的人像被遮挡,则去除所述目标人物图像,其中,所述分类模型是根据深度神经网络生成的。
8.一种服饰识别装置,其特征在于,包括:
接收单元,用于接收针对待识别图像的服饰识别请求;
第一分割单元,用于对所述待识别图像进行人体检测,并根据检测结果,从所述待识别图像中分割出包含人像的目标人物图像;
第二分割单元,用于获取待识别部位信息,在所述目标人物图像中,分割出所述待识别部位信息对应的局部区域图像;
匹配单元,用于将所述局部区域图像分别与获取的每一制服图像样本进行匹配,获得匹配的制服图像样本;
确定单元,用于将所述匹配的制服图像样本对应设置的制服类别,确定为服饰识别结果。
9.一种控制设备,其特征在于,包括:
至少一个存储器,用于存储程序指令;
至少一个处理器,用于调用所述存储器中存储的程序指令,按照获得的程序指令执行上述权利要求1-7任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1-7任一所述方法的步骤。
CN202010472594.1A 2020-05-29 2020-05-29 一种服饰识别方法、装置、设备和介质 Active CN111553327B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010472594.1A CN111553327B (zh) 2020-05-29 2020-05-29 一种服饰识别方法、装置、设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010472594.1A CN111553327B (zh) 2020-05-29 2020-05-29 一种服饰识别方法、装置、设备和介质

Publications (2)

Publication Number Publication Date
CN111553327A true CN111553327A (zh) 2020-08-18
CN111553327B CN111553327B (zh) 2023-10-27

Family

ID=72006798

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010472594.1A Active CN111553327B (zh) 2020-05-29 2020-05-29 一种服饰识别方法、装置、设备和介质

Country Status (1)

Country Link
CN (1) CN111553327B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111814763A (zh) * 2020-08-26 2020-10-23 长沙鹏阳信息技术有限公司 一种基于跟踪序列的无感考勤和制服识别方法
CN113536917A (zh) * 2021-06-10 2021-10-22 浙江大华技术股份有限公司 着装识别方法、系统、电子装置和存储介质
CN113723261A (zh) * 2021-08-24 2021-11-30 国网上海市电力公司 一种多行人目标识别方法及系统
CN118072359A (zh) * 2024-04-18 2024-05-24 浙江深象智能科技有限公司 行人服饰识别方法、装置及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101079109A (zh) * 2007-06-26 2007-11-28 北京中星微电子有限公司 基于制服特征的身份识别方法和系统
CN110879988A (zh) * 2019-11-22 2020-03-13 安徽小眯当家信息技术有限公司 一种信息合规检测的方法、客户端、装置、服务器及计算机可读介质
CN111079757A (zh) * 2018-10-19 2020-04-28 北京奇虎科技有限公司 服饰属性识别方法、装置及电子设备
WO2020103676A1 (zh) * 2018-11-23 2020-05-28 腾讯科技(深圳)有限公司 图像识别方法、装置、系统及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101079109A (zh) * 2007-06-26 2007-11-28 北京中星微电子有限公司 基于制服特征的身份识别方法和系统
CN111079757A (zh) * 2018-10-19 2020-04-28 北京奇虎科技有限公司 服饰属性识别方法、装置及电子设备
WO2020103676A1 (zh) * 2018-11-23 2020-05-28 腾讯科技(深圳)有限公司 图像识别方法、装置、系统及存储介质
CN110879988A (zh) * 2019-11-22 2020-03-13 安徽小眯当家信息技术有限公司 一种信息合规检测的方法、客户端、装置、服务器及计算机可读介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张蕾华;黄进;张涛;王生玉;: "视频侦查中人像智能分析应用及算法优化" *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111814763A (zh) * 2020-08-26 2020-10-23 长沙鹏阳信息技术有限公司 一种基于跟踪序列的无感考勤和制服识别方法
CN111814763B (zh) * 2020-08-26 2021-01-08 长沙鹏阳信息技术有限公司 一种基于跟踪序列的无感考勤和制服识别方法
CN113536917A (zh) * 2021-06-10 2021-10-22 浙江大华技术股份有限公司 着装识别方法、系统、电子装置和存储介质
CN113536917B (zh) * 2021-06-10 2024-06-07 浙江大华技术股份有限公司 着装识别方法、系统、电子装置和存储介质
CN113723261A (zh) * 2021-08-24 2021-11-30 国网上海市电力公司 一种多行人目标识别方法及系统
CN118072359A (zh) * 2024-04-18 2024-05-24 浙江深象智能科技有限公司 行人服饰识别方法、装置及设备

Also Published As

Publication number Publication date
CN111553327B (zh) 2023-10-27

Similar Documents

Publication Publication Date Title
CN111553327B (zh) 一种服饰识别方法、装置、设备和介质
CN110825765B (zh) 一种人脸识别的方法和装置
JP6853379B2 (ja) 対象人物の検索方法および装置、機器、プログラム製品ならびに媒体
WO2021139324A1 (zh) 图像识别方法、装置、计算机可读存储介质及电子设备
CN108229559B (zh) 服饰检测方法、装置、电子设备、程序和介质
CN112818149B (zh) 一种基于时空轨迹数据的人脸聚类方法、装置及存储介质
CN111738120B (zh) 人物识别方法、装置、电子设备及存储介质
CN111985360A (zh) 一种人脸识别的方法、装置、设备和介质
CN111931567B (zh) 人体识别的方法及装置、电子设备、存储介质
CN109426785A (zh) 一种人体目标身份识别方法及装置
CN111125390A (zh) 数据库更新方法和装置、电子设备、计算机存储介质
WO2019033567A1 (zh) 眼球动作捕捉方法、装置及存储介质
CN112915539B (zh) 一种虚拟对象检测方法、装置以及可读存储介质
CN109902550A (zh) 行人属性的识别方法和装置
CN109840885B (zh) 图像融合方法及相关产品
WO2019143137A1 (ko) 영상 전처리 방법, 장치 및 컴퓨터 프로그램
CN111783724A (zh) 一种目标对象识别方法和装置
CN114902299A (zh) 图像中关联对象的检测方法、装置、设备和存储介质
CN111767420A (zh) 一种生成服饰搭配数据的方法和装置
CN111914649A (zh) 人脸识别的方法及装置、电子设备、存储介质
CN111881740A (zh) 人脸识别方法、装置、电子设备及介质
CN113128526B (zh) 图像识别方法、装置、电子设备和计算机可读存储介质
CN108764232B (zh) 标签位置获取方法及装置
CN113763440A (zh) 一种图像处理方法、装置、设备及存储介质
CN113705310A (zh) 特征学习的方法、目标物体的识别方法和对应装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant