CN111967455A - 一种基于计算机视觉综合判定规定着装的方法 - Google Patents
一种基于计算机视觉综合判定规定着装的方法 Download PDFInfo
- Publication number
- CN111967455A CN111967455A CN202011147308.0A CN202011147308A CN111967455A CN 111967455 A CN111967455 A CN 111967455A CN 202011147308 A CN202011147308 A CN 202011147308A CN 111967455 A CN111967455 A CN 111967455A
- Authority
- CN
- China
- Prior art keywords
- frame
- human body
- clothes
- face
- recognition algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于计算机视觉综合判定规定着装的方法,对摄像机采集到的单帧图像通过人体识别算法、衣物识别算法、人脸识别算法进行检测,并将人体识别算法、衣物识别算法、人脸识别算法所获得的结果进行匹配,根据匹配结果判定是否符合规范着装;对于判定为未规范着装的人员,采用人体追踪算法进行追踪识别,并在摄像机采集的后续单帧图像继续对被追踪识别的人员进行是否符合规范着装的判定,若被追踪人员连续五次被判定为未规范着装,根据人脸识别算法匹配到的人脸信息进行上报。本发明通过上述设置提高了图像识别的精度。
Description
技术领域
本发明属于计算机图像识别技术领域,具体地说,涉及一种基于计算机视觉综合判断规定着装的方法。
背景技术
现有计算机视觉算法是通过单帧图像识别来检测被检测人员是否穿着规定服装,但在场景中出现走动、转身、弯腰或被遮挡的情况,则容易出现错误识别。特别在多人场景下,衣着容易错误匹配在其他人身上。识别率只能达到80%。现有计算机视觉中对是否穿着规定服装的检测只依赖图像识别算法模型的准确率,因为实际应用中摄像机拍摄的呈现的效果受相机拍摄角度、活动情况的影响。只进行单帧判断的话,效果非常不准确,存在大量的误报情况,影响使用。且在餐饮店等类似监控区域,人来人往,人流量大,干扰多,待检测职工和普通路人都会被进行监测,若不进行区分,则会造成大量干扰,同时,多人聚集在一个图像中,对于着装的判断也会产生干扰。
发明内容
本发明针对现有技术的上述缺点,提出了一种基于计算机视觉综合判断规定着装的方法,通过人脸识别算法、人体识别算法、衣物识别算法的结合,并运用人体追踪算法结合多帧图像进行识别,增加了图像识别的精确度。
本发明实现内容具体如下:
本发明提出了一种基于计算机视觉综合判定规定着装的方法,对摄像机采集到的单帧图像通过人体识别算法、衣物识别算法、人脸识别算法进行检测,并将人体识别算法、衣物识别算法、人脸识别算法所获得的结果进行匹配,根据匹配结果判定是否符合规范着装;对于判定为未规范着装的人员,采用人体追踪算法进行追踪识别,并在摄像机采集的后续单帧图像继续对被追踪识别的人员进行是否符合规范着装的判定,若被追踪人员连续五次被判定为未规范着装,根据人脸识别算法匹配到的人脸信息进行上报。
为了更好地实现本发明,进一步地,对摄像机采集到的单帧图像通过人体识别算法、衣物识别算法、人脸识别算法进行检测,并对应生成人体框、衣物框和人脸框;所述衣物识别算法包括口罩识别算法、衣服识别算法、帽子识别算法和手套识别算法;所述衣物框包括口罩框、衣服框、帽子框和手套框;
所述基于计算机视觉综合判定规定着装的方法具体包括以下步骤:
步骤1,对摄像机采集到的单帧图像通过人体识别算法、衣物识别算法、人脸识别算法进行检测,获得人体框、衣物框和人脸框;
步骤2,计算衣物框与人体框的重合系数,根据重合系数判断衣物框是否与人体框匹配成功;
步骤3,对于单帧图像监测出人体框与衣物框不匹配后,在接下来的连续的单帧图像中采用人体追踪算法对人体进行追踪,并继续进行人体框与衣物框的匹配判断,若接下来有连续5帧的单帧图像中人体框都依然没有与衣物框匹配成功,则认为被追踪人员没有规范着装;
步骤4,对于认定为没有规范着装的被追踪人员进行人脸框和人体检的匹配,计算人脸框与人体框的重合系数,根据重合系数判断人脸框是否与人体框匹配成功,若匹配成功,则将人脸框对应的人脸信息及匹配结果进行上报。
为了更好地实现本发明,进一步地,所述步骤2具体包括以下步骤:
步骤2.1,将衣物框与人体框进行重合系数计算;判断衣物框中的帽子框与人体框之间的重合系数是否大于0.6,除帽子框以外的衣物框与人体框之间的重合系数是否大于等于1;
步骤2.2,若帽子框与人体框之间的重合系数大于0.6且除帽子框以外的衣物框与人体框之间的重合系数大于等于1,则初步认定衣物框与人体框匹配成功,反之则失败;
步骤2.3,对于初步认定匹配成功的衣物框,进一步判断口罩框和帽子框是否位于人体框的上半部分位置,若不是,则认为衣物框与人体框匹配失败,若是,则进一步判断当前人体框是否与匹配中的衣物框相比于其他人体框距离最近,若是距离最近,则认为衣物框与当前人体框的确匹配成功,若不是距离最近,则认为衣物框与当前人体框匹配失败。
为了更好地实现本发明,进一步地,所述步骤4具体包括以下步骤:
步骤4.1,将人脸框与人体框进行重合系数计算;判断人脸框与人体框之间的重合系数是否大于等于1;
步骤4.2,若人脸框与人体框之间的重合系数大于等于1,则初步认定人脸框与人体框匹配成功,反之则失败;
步骤4.3,对于初步认定匹配成功的人脸框,进一步判断人脸框是否位于人体框的上半部分位置,若不是,则认为人脸框与人体框匹配失败,若是,则进一步判断当前人体框是否与匹配中的人脸框相比于其他人体框距离最近,若是距离最近,则认为人脸框与当前人体框的确匹配成功,即认为被检测人员身份识别成功,若不是距离最近,则认为人脸框与当前人体框匹配失败,即被检测人员身份未识别成功;
步骤4.4,人脸框匹配成功后,将人脸框对应的人员信息及人体框与衣物框的匹配信息等上报系统。
为了更好地实现本发明,进一步的,所述重合系数的计算方法为:
首先,设定人体框为A框,设定与人体框进行重合系数计算的人脸框或衣物框为B框;
然后,设定X A 为A框左上角横坐标值,Y A 为A框左上角纵坐标值,W A 为A框的宽度,H A 为A框的高度;设定X B 为B框左上角横坐标值,Y B 为B框左上角纵坐标值,W B 为B框的宽度,H B 为B框的高度;
接着,计算出A框和B框之间的高重合系数V H 和宽重合系数V W ;具体计算公式如下:
为了更好地实现本发明,进一步地,所述判断人脸框、口罩框或帽子框是否位于人体框上半部分的方法为:
然后,判断A框中心点纵坐标值MYA和B框中心点纵坐标值MYB的大小;当A框中心点纵坐标值MYA大于B框中心点纵坐标值MYB时,认定B框位于A框的上半部分。
为了更好地实现本发明,进一步地,判断与人体框进行匹配的人脸框、口罩框或帽子框是否相比于其他人体框距离最近的方法为:
设定当前匹配的人体框A框为A1框,其他人体框为A2框;然后计算A1框的中心点纵坐标值MY A1 、A1框中心点横坐标值MX A1 、A2框的中心点纵坐标值MY A2 、A2框中心点横坐标值MX A2 ,B框中心点纵坐标值MY B ,B框中心点横坐标值MX B ;具体计算公式如下:
然后,计算B框与A1框之间的距离系数VB A1 以及B框与A2框之间的距离系数VB A2 ,如果距离系数VB A1 小于距离系数VB A2 ,则认为B框与A1框之间的距离小于B框与A2框之间的距离;具体计算距离系数VBA1和距离系数VBA2的公式如下:
为了更好地实现本发明,进一步地,所述步骤3中,对于单帧图像监测出人体框与衣物框不匹配后,在接下来的连续的单帧图像中采用人体追踪算法对人体进行追踪,并继续进行人体框与衣物框的匹配判断,若有一次人体框与衣物框不匹配,则计数加1;若接下来有连续5帧的单帧图像中人体框都依然没有与衣物框匹配成功,计数连续累积到5,则认为被追踪人员没有规范着装;若计数未累积到5而中途出现衣物框与人体框匹配的情况,则将计数清零,重新进行计数。
为了更好地实现本发明,进一步地,其特征在于,所述人体追踪算法采用匈牙利算法和卡尔曼滤波算法组成的人体追踪算法。
为了更好地实现本发明,进一步地,所述人体识别算法和衣物识别算法都采用融合多感受野特征映射与高斯概率模型的检测算法,具体操作为:将输入图像通过三个不同扩张率的扩张卷积,得到三种不同尺度的中心点热图;再将三种不同尺度的中心点热图与高斯分布的标准差自适应的高斯概率模型相结合得到另外一种不同感受野的中心点热图,对上述四种不同感受野的中心点热图做加性融合构建多尺度感受野高斯加权结构,最终实现对人体和衣物的识别;
所述人脸识别算法采用基于retina face的人脸检测算法。
本发明与现有技术相比具有以下优点及有益效果:
(1)采用多帧图像结合进行判断,判断结果更加精准;
(2)采用人脸框进行辅助判断,避免无关的路人对特定着装职工的监测判断造成干扰;
(3)采用衣物、人体、人脸相结合的算法,比单独使用图像算法进行衣服识别等精度更高。
附图说明
图1为现有技术只对单帧图像进行图像衣服识别的准确率与本发明准确率对比图;
图2为人脸框/衣物框与人体框进行匹配的示意图;
图3为A框与B框的部分重合情况示意图;
图4为B框与A1框和A2框重合比较距离远近的示意图;
图5为本发明总流程示意图;
图6为检测出未穿规定衣服、帽子和口罩的检测上报结果示意图;
图7为检测出未戴口罩和手套的检测上报结果示意图。
具体实施方式
为了更清楚地说明本发明实施例的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,应当理解,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例,因此不应被看作是对保护范围的限定。基于本发明中的实施例,本领域普通技术工作人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:
一种基于计算机视觉综合判定规定着装的方法,如图1、图5、图6、图7所示,对摄像机采集到的单帧图像通过人体识别算法、衣物识别算法、人脸识别算法进行检测,并将人体识别算法、衣物识别算法、人脸识别算法所获得的结果进行匹配,根据匹配结果判定是否符合规范着装;对于判定为未规范着装的人员,采用人体追踪算法进行追踪识别,并在摄像机采集的后续单帧图像继续对被追踪识别的人员进行是否符合规范着装的判定,若被追踪人员连续五次被判定为未规范着装,根据人脸识别算法匹配到的人脸信息进行上报。
为了更好地实现本发明,进一步地,对摄像机采集到的单帧图像通过人体识别算法、衣物识别算法、人脸识别算法进行检测,并对应生成人体框、衣物框和人脸框;所述衣物识别算法包括口罩识别算法、衣服识别算法、帽子识别算法和手套识别算法;所述衣物框包括口罩框、衣服框、帽子框和手套框;
所述基于计算机视觉综合判定规定着装的方法具体包括以下步骤:
步骤1,对摄像机采集到的单帧图像通过人体识别算法、衣物识别算法、人脸识别算法进行检测,获得人体框、衣物框和人脸框;
步骤2,计算衣物框与人体框的重合系数,根据重合系数判断衣物框是否与人体框匹配成功;
步骤3,对于单帧图像监测出人体框与衣物框不匹配后,在接下来的连续的单帧图像中采用人体追踪算法对人体进行追踪,并继续进行人体框与衣物框的匹配判断,若接下来有连续5帧的单帧图像中人体框都依然没有与衣物框匹配成功,则认为被追踪人员没有规范着装;
步骤4,对于认定为没有规范着装的被追踪人员进行人脸框和人体检的匹配,计算人脸框与人体框的重合系数,根据重合系数判断人脸框是否与人体框匹配成功,若匹配成功,则将人脸框对应的人脸信息及匹配结果进行上报。
工作原理:对一帧画面依次进行人体检测、人脸检测和规定衣物检测,然后对人体、人脸和规定衣物按距离进行匹配,如果某个人体的匹配结果缺少某样规定衣物(衣服、帽子、手套、口罩),则认为这个人可能穿着不规范,没有穿着某一规定衣物。如果这时上报的话,极易因为人员活动,被遮挡等等情况,漏检某些规定衣物,造成误报的情况,所以我们会利用基于匈牙利算法加卡尔曼滤波共同组成的人体追踪算法实现对人体的追踪,因为考虑到对同一个人体的情况一直判断,当连续五次判断因没有穿戴某样规定着装时,并且能匹配到人脸框时,采用人脸框,可以将被检测的工作人员与普通的路人、客人等进行区分,将检测的未规范着装的工作人员筛选出来,予以上报。
实施例2:
本实施例在上述实施例1的基础上,为了更好地实现本发明,如图2所示,进一步地,所述步骤2具体包括以下步骤:
步骤2.1,将衣物框与人体框进行重合系数计算;判断衣物框中的帽子框与人体框之间的重合系数是否大于0.6,除帽子框以外的衣物框与人体框之间的重合系数是否大于等于1;
步骤2.2,若帽子框与人体框之间的重合系数大于0.6且除帽子框以外的衣物框与人体框之间的重合系数大于等于1,则初步认定衣物框与人体框匹配成功,反之则失败;
步骤2.3,对于初步认定匹配成功的衣物框,进一步判断口罩框和帽子框是否位于人体框的上半部分位置,若不是,则认为衣物框与人体框匹配失败,若是,则进一步判断当前人体框是否与匹配中的衣物框相比于其他人体框距离最近,若是距离最近,则认为衣物框与当前人体框的确匹配成功,若不是距离最近,则认为衣物框与当前人体框匹配失败。
为了更好地实现本发明,进一步地,所述步骤4具体包括以下步骤:
步骤4.1,将人脸框与人体框进行重合系数计算;判断人脸框与人体框之间的重合系数是否大于等于1;
步骤4.2,若人脸框与人体框之间的重合系数大于等于1,则初步认定人脸框与人体框匹配成功,反之则失败;
步骤4.3,对于初步认定匹配成功的人脸框,进一步判断人脸框是否位于人体框的上半部分位置,若不是,则认为人脸框与人体框匹配失败,若是,则进一步判断当前人体框是否与匹配中的人脸框相比于其他人体框距离最近,若是距离最近,则认为人脸框与当前人体框的确匹配成功,即认为被检测人员身份识别成功,若不是距离最近,则认为人脸框与当前人体框匹配失败,即被检测人员身份未识别成功;
步骤4.4,人脸框匹配成功后,将人脸框对应的人员信息及人体框与衣物框的匹配信息等上报系统。
工作原理:
本实施例的其他部分与上述实施例1相同,故不再赘述。
实施例3:
本实施例在上述实施例1-2任一项的基础上,为了更好地实现本发明,如图3所示,进一步地,所述重合系数的计算方法为:
首先,设定人体框为A框,设定与人体框进行重合系数计算的人脸框或衣物框为B框;
然后,设定X A 为A框左上角横坐标值,Y A 为A框左上角纵坐标值,W A 为A框的宽度,H A 为A框的高度;设定X B 为B框左上角横坐标值,Y B 为B框左上角纵坐标值,W B 为B框的宽度,H B 为B框的高度;
接着,计算出A框和B框之间的高重合系数V H 和宽重合系数V W ;具体计算公式如下:
工作原理:
本实施例的其他部分与上述实施例1-2任一项相同,故不再赘述。
实施例4:
本实施例在上述实施例1-3任一项的基础上,为了更好地实现本发明,进一步地,所述判断人脸框、口罩框或帽子框是否位于人体框上半部分的方法为:
首先,计算出A框中心点纵坐标值MY A 和B框中心点纵坐标值MY B ,具体计算方法为:
然后,判断A框中心点纵坐标值MY A 和B框中心点纵坐标值MY B 的大小;当A框中心点纵坐标值MY A 大于B框中心点纵坐标值MY B 时,认定B框位于A框的上半部分。
工作原理:
本实施例的其他部分与上述实施例1-3任一项相同,故不再赘述。
实施例5:
本实施例在上述实施例1-4任一项的基础上,为了更好地实现本发明,如图4所示,进一步地,判断与人体框进行匹配的人脸框、口罩框或帽子框是否相比于其他人体框距离最近的方法为:
设定当前匹配的人体框A框为A1框,其他人体框为A2框;然后计算A1框的中心点纵坐标值MYA 1 、A1框中心点横坐标值MXA 1 、A2框的中心点纵坐标值MYA 2 、A2框中心点横坐标值MXA 2 ,B框中心点纵坐标值MY B ,B框中心点横坐标值MX B ;具体计算公式如下:
然后,计算B框与A1框之间的距离系数VBA 1 以及B框与A2框之间的距离系数VBA 2 ,如果距离系数VBA 1 小于距离系数VBA 2 ,则认为B框与A1框之间的距离小于B框与A2框之间的距离;具体计算距离系数VBA 1 和距离系数VBA 2 的公式如下:
工作原理:
本实施例的其他部分与上述实施例1-4任一项相同,故不再赘述。
实施例6:
本实施例在上述实施例1-5任一项的基础上,为了更好地实现本发明,进一步地,所述步骤3中,对于单帧图像监测出人体框与衣物框不匹配后,在接下来的连续的单帧图像中采用人体追踪算法对人体进行追踪,并继续进行人体框与衣物框的匹配判断,若有一次人体框与衣物框不匹配,则计数加1;若接下来有连续5帧的单帧图像中人体框都依然没有与衣物框匹配成功,计数连续累积到5,则认为被追踪人员没有规范着装;若计数未累积到5而中途出现衣物框与人体框匹配的情况,则将计数清零,重新进行计数。
本实施例的其他部分与上述实施例1-5任一项相同,故不再赘述。
实施例7:
本实施例在上述实施例1-6任一项的基础上,为了更好地实现本发明,进一步地,所述人体追踪算法采用匈牙利算法和卡尔曼滤波算法组成的人体追踪算法。
所述人体识别算法和衣物识别算法都采用融合多感受野特征映射与高斯概率模型的检测算法,具体操作为:将输入图像通过三个不同扩张率的扩张卷积,得到三种不同尺度的中心点热图;再将三种不同尺度的中心点热图与高斯分布的标准差自适应的高斯概率模型相结合得到另外一种不同感受野的中心点热图,对上述四种不同感受野的中心点热图做加性融合构建多尺度感受野高斯加权结构,最终实现对人体和衣物的识别;
所述人脸识别算法采用基于retina face的人脸检测算法。
本实施例的其他部分与上述实施例1-6任一项相同,故不再赘述。
以上所述,仅是本发明的较佳实施例,并非对本发明做任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化,均落入本发明的保护范围之内。
Claims (10)
1.一种基于计算机视觉综合判定规定着装的方法,其特征在于,对摄像机采集到的单帧图像通过人体识别算法、衣物识别算法、人脸识别算法进行检测,并将人体识别算法、衣物识别算法、人脸识别算法所获得的结果进行匹配,根据匹配结果判定是否符合规范着装;对于判定为未规范着装的人员,采用人体追踪算法进行追踪识别,并在摄像机采集的后续单帧图像继续对被追踪识别的人员进行是否符合规范着装的判定,若被追踪人员连续五次被判定为未规范着装,根据人脸识别算法匹配到的人脸信息进行上报。
2.如权利要求1所述的一种基于计算机视觉综合判定规定着装的方法,其特征在于,对摄像机采集到的单帧图像通过人体识别算法、衣物识别算法、人脸识别算法进行检测,并对应生成人体框、衣物框和人脸框;所述衣物识别算法包括口罩识别算法、衣服识别算法、帽子识别算法和手套识别算法;所述衣物框包括口罩框、衣服框、帽子框和手套框;
所述基于计算机视觉综合判定规定着装的方法具体包括以下步骤:
步骤1,对摄像机采集到的单帧图像通过人体识别算法、衣物识别算法、人脸识别算法进行检测,获得人体框、衣物框和人脸框;
步骤2,计算衣物框与人体框的重合系数,根据重合系数判断衣物框是否与人体框匹配成功;
步骤3,对于单帧图像监测出人体框与衣物框不匹配后,在接下来的连续的单帧图像中采用人体追踪算法对人体进行追踪,并继续进行人体框与衣物框的匹配判断,若接下来有连续5帧的单帧图像中人体框都依然没有与衣物框匹配成功,则认为被追踪人员没有规范着装;
步骤4,对于认定为没有规范着装的被追踪人员进行人脸框和人体检的匹配,计算人脸框与人体框的重合系数,根据重合系数判断人脸框是否与人体框匹配成功,若匹配成功,则将人脸框对应的人脸信息及匹配结果进行上报。
3.如权利要求2所述的一种基于计算机视觉综合判定规定着装的方法,其特征在于,所述步骤2具体包括以下步骤:
步骤2.1,将衣物框与人体框进行重合系数计算;判断衣物框中的帽子框与人体框之间的重合系数是否大于0.6,除帽子框以外的衣物框与人体框之间的重合系数是否大于等于1;
步骤2.2,若帽子框与人体框之间的重合系数大于0.6且除帽子框以外的衣物框与人体框之间的重合系数大于等于1,则初步认定衣物框与人体框匹配成功,反之则失败;
步骤2.3,对于初步认定匹配成功的衣物框,进一步判断口罩框和帽子框是否位于人体框的上半部分位置,若不是,则认为衣物框与人体框匹配失败,若是,则进一步判断当前人体框是否与匹配中的衣物框相比于其他人体框距离最近,若是距离最近,则认为衣物框与当前人体框的确匹配成功,若不是距离最近,则认为衣物框与当前人体框匹配失败。
4.如权利要求2所述的一种基于计算机视觉综合判定规定着装的方法,其特征在于,所述步骤4具体包括以下步骤:
步骤4.1,将人脸框与人体框进行重合系数计算;判断人脸框与人体框之间的重合系数是否大于等于1;
步骤4.2,若人脸框与人体框之间的重合系数大于等于1,则初步认定人脸框与人体框匹配成功,反之则失败;
步骤4.3,对于初步认定匹配成功的人脸框,进一步判断人脸框是否位于人体框的上半部分位置,若不是,则认为人脸框与人体框匹配失败,若是,则进一步判断当前人体框是否与匹配中的人脸框相比于其他人体框距离最近,若是距离最近,则认为人脸框与当前人体框的确匹配成功,即认为被检测人员身份识别成功,若不是距离最近,则认为人脸框与当前人体框匹配失败,即被检测人员身份未识别成功;
步骤4.4,人脸框匹配成功后,将人脸框对应的人员信息及人体框与衣物框的匹配信息等上报系统。
7.如权利要求5所述的一种基于计算机视觉综合判定规定着装的方法,其特征在于,判断与人体框进行匹配的人脸框、口罩框或帽子框是否相比于其他人体框距离最近的方法为:
设定当前匹配的人体框A框为A1框,其他人体框为A2框;然后计算A1框的中心点纵坐标值MY A1 、A1框中心点横坐标值MX A1 、A2框的中心点纵坐标值MY A2 、A2框中心点横坐标值MX A2 ,B框中心点纵坐标值MY B ,B框中心点横坐标值MX B ;具体计算公式如下:
8.如权利要求2所述的一种基于计算机视觉综合判定规定着装的方法,其特征在于,所述步骤3中,对于单帧图像监测出人体框与衣物框不匹配后,在接下来的连续的单帧图像中采用人体追踪算法对人体进行追踪,并继续进行人体框与衣物框的匹配判断,若有一次人体框与衣物框不匹配,则计数加1;若接下来有连续5帧的单帧图像中人体框都依然没有与衣物框匹配成功,计数连续累积到5,则认为被追踪人员没有规范着装;若计数未累积到5而中途出现衣物框与人体框匹配的情况,则将计数清零,重新进行计数。
9.如权利要求1或2或3或4或8所述的一种基于计算机视觉综合判定规定着装的方法,其特征在于,所述人体追踪算法采用匈牙利算法和卡尔曼滤波算法组成的人体追踪算法。
10.如权利要求1或2或3或4或8所述的一种基于计算机视觉综合判定规定着装的方法,其特征在于,所述人体识别算法和衣物识别算法都采用融合多感受野特征映射与高斯概率模型的检测算法,具体操作为:将输入图像通过三个不同扩张率的扩张卷积,得到三种不同尺度的中心点热图;再将三种不同尺度的中心点热图与高斯分布的标准差自适应的高斯概率模型相结合得到另外一种不同感受野的中心点热图,对上述四种不同感受野的中心点热图做加性融合构建多尺度感受野高斯加权结构,最终实现对人体和衣物的识别;
所述人脸识别算法采用基于retina face的人脸检测算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011147308.0A CN111967455A (zh) | 2020-10-23 | 2020-10-23 | 一种基于计算机视觉综合判定规定着装的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011147308.0A CN111967455A (zh) | 2020-10-23 | 2020-10-23 | 一种基于计算机视觉综合判定规定着装的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111967455A true CN111967455A (zh) | 2020-11-20 |
Family
ID=73387236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011147308.0A Pending CN111967455A (zh) | 2020-10-23 | 2020-10-23 | 一种基于计算机视觉综合判定规定着装的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111967455A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112686214A (zh) * | 2021-01-26 | 2021-04-20 | 重庆大学 | 一种基于Retinaface算法的人脸口罩检测系统和方法 |
CN113553965A (zh) * | 2021-07-27 | 2021-10-26 | 重庆电子工程职业学院 | 一种结合人脸识别和人体识别的人物身份识别方法 |
CN113743197A (zh) * | 2021-07-23 | 2021-12-03 | 北京眼神智能科技有限公司 | 快速人脸检测方法、装置、电子设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105069466A (zh) * | 2015-07-24 | 2015-11-18 | 成都市高博汇科信息科技有限公司 | 基于数字图像处理的行人服饰颜色识别方法 |
CN107609544A (zh) * | 2017-10-27 | 2018-01-19 | 华润电力技术研究院有限公司 | 一种检测方法以及装置 |
CN109740516A (zh) * | 2018-12-29 | 2019-05-10 | 深圳市商汤科技有限公司 | 一种用户识别方法、装置、电子设备及存储介质 |
CN110046605A (zh) * | 2019-04-25 | 2019-07-23 | 大连海事大学 | 基于视觉追踪的多维信息校对机械加工现场管理系统 |
CN110738647A (zh) * | 2019-10-12 | 2020-01-31 | 成都考拉悠然科技有限公司 | 融合多感受野特征映射与高斯概率模型的老鼠检测方法 |
CN111325150A (zh) * | 2020-02-20 | 2020-06-23 | 中科智云科技有限公司 | 着装检测装置、方法及存储介质 |
CN111639552A (zh) * | 2020-05-14 | 2020-09-08 | 上海闪马智能科技有限公司 | 一种施工现场安全帽佩戴检测方法及系统 |
-
2020
- 2020-10-23 CN CN202011147308.0A patent/CN111967455A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105069466A (zh) * | 2015-07-24 | 2015-11-18 | 成都市高博汇科信息科技有限公司 | 基于数字图像处理的行人服饰颜色识别方法 |
CN107609544A (zh) * | 2017-10-27 | 2018-01-19 | 华润电力技术研究院有限公司 | 一种检测方法以及装置 |
CN109740516A (zh) * | 2018-12-29 | 2019-05-10 | 深圳市商汤科技有限公司 | 一种用户识别方法、装置、电子设备及存储介质 |
CN110046605A (zh) * | 2019-04-25 | 2019-07-23 | 大连海事大学 | 基于视觉追踪的多维信息校对机械加工现场管理系统 |
CN110738647A (zh) * | 2019-10-12 | 2020-01-31 | 成都考拉悠然科技有限公司 | 融合多感受野特征映射与高斯概率模型的老鼠检测方法 |
CN111325150A (zh) * | 2020-02-20 | 2020-06-23 | 中科智云科技有限公司 | 着装检测装置、方法及存储介质 |
CN111639552A (zh) * | 2020-05-14 | 2020-09-08 | 上海闪马智能科技有限公司 | 一种施工现场安全帽佩戴检测方法及系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112686214A (zh) * | 2021-01-26 | 2021-04-20 | 重庆大学 | 一种基于Retinaface算法的人脸口罩检测系统和方法 |
CN113743197A (zh) * | 2021-07-23 | 2021-12-03 | 北京眼神智能科技有限公司 | 快速人脸检测方法、装置、电子设备及存储介质 |
CN113553965A (zh) * | 2021-07-27 | 2021-10-26 | 重庆电子工程职业学院 | 一种结合人脸识别和人体识别的人物身份识别方法 |
CN113553965B (zh) * | 2021-07-27 | 2023-09-12 | 重庆电子工程职业学院 | 一种结合人脸识别和人体识别的人物身份识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111967455A (zh) | 一种基于计算机视觉综合判定规定着装的方法 | |
CN109919132B (zh) | 一种基于骨架检测的行人跌倒识别方法 | |
JP6549797B2 (ja) | 通行人の頭部識別方法及びシステム | |
Auvinet et al. | Multiple cameras fall dataset | |
CN104598896B (zh) | 基于Kinect骨架追踪的人体摔倒自动检测方法 | |
Liao et al. | Slip and fall event detection using Bayesian Belief Network | |
CN108256459A (zh) | 基于多摄像机融合的安检门人脸识别和人脸自动建库算法 | |
CN110321780B (zh) | 基于时空运动特性的异常摔倒行为检测方法 | |
CN111507317B (zh) | 一种基于视觉的旋转设备作业手套佩戴检测方法及系统 | |
CN110414400B (zh) | 一种施工现场安全帽穿戴自动检测方法及系统 | |
CN109766796B (zh) | 一种面向密集人群的深度行人检测方法 | |
CN109830078B (zh) | 适用于狭小空间的智能行为分析方法及智能行为分析设备 | |
Shoaib et al. | View-invariant fall detection for elderly in real home environment | |
JP7201072B2 (ja) | 監視装置、不審オブジェクト検出方法、およびプログラム | |
CN111539253A (zh) | 一种人脸检测方法、装置、终端及存储介质 | |
CN110472473A (zh) | 基于姿态估计检测扶梯上人跌倒的方法 | |
CN111931733A (zh) | 基于深度相机的人体姿态检测方法 | |
CN112541424A (zh) | 复杂环境下行人跌倒的实时检测方法 | |
CN111783702A (zh) | 一种基于图像增强算法和人体关键点定位的高效行人摔倒检测方法 | |
CN108805021A (zh) | 基于特征算子的实时个体跌倒行为检测报警方法 | |
CN110705520A (zh) | 目标检测方法、装置、计算机设备和计算机可读存储介质 | |
Abd et al. | Human fall down recognition using coordinates key points skeleton | |
JP2019109760A (ja) | 画像監視装置 | |
CN104463144A (zh) | 基于局部主方向与能量分析策略的图像中行人头肩检测方法及系统 | |
JP7263094B2 (ja) | 情報処理装置、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201120 |
|
RJ01 | Rejection of invention patent application after publication |