CN111738059B - 一种面向无感场景的人脸识别方法 - Google Patents

一种面向无感场景的人脸识别方法 Download PDF

Info

Publication number
CN111738059B
CN111738059B CN202010378421.3A CN202010378421A CN111738059B CN 111738059 B CN111738059 B CN 111738059B CN 202010378421 A CN202010378421 A CN 202010378421A CN 111738059 B CN111738059 B CN 111738059B
Authority
CN
China
Prior art keywords
face
vector
score
scene
photo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010378421.3A
Other languages
English (en)
Other versions
CN111738059A (zh
Inventor
李翔
李梦婷
印鉴
刘威
余建兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN202010378421.3A priority Critical patent/CN111738059B/zh
Publication of CN111738059A publication Critical patent/CN111738059A/zh
Application granted granted Critical
Publication of CN111738059B publication Critical patent/CN111738059B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种面向无感场景的人脸识别方法,该方法先通过对百万数量级的高质量的人脸识别数据的训练,得到人脸高维特征表述的方式,在实际场景中,再通过对上传人脸照片质量可量化的评估,结合高维特征向量和底库中其他特征向量的相似度,以及灵活动态调整参数阈值的方式,识别其真实身份,提高无感场景下的人脸识别率;本方法通过对抓拍照片的质量评估,结合高维度特征向量相似度的阈值设置等技术,可以在无感场景下大幅度提高人脸识别的准确率。

Description

一种面向无感场景的人脸识别方法
技术领域
本发明涉及图像处理算法领域,更具体地,涉及一种面向无感场景的人脸识别方法。
背景技术
人脸识别服务,比如刷脸门禁和刷脸支付等,在人们的日常生活中已经无处不在,可以给用户提供更好的体验。这些都属于有感人脸识别的范畴,需要人主动去配合摄像头去识别。但实际生活中,往往存在不需要人主动配合的场景,比如安全系统下的逃犯识别或者线下零售的客流系统等,摄像头通常设在店门口或者一些必经场所,这样人通过的时候,就可以大概率抓到人脸,通常这种场景下,人不会主动去看摄像头,那么拍到的照片大多数都不是比较正的脸,这样会严重影响人脸的识别准确率。本方法通过对抓拍照片的质量评估,结合高维度特征向量相似度的阈值设置等技术,可以在无感场景下大幅度提高人脸识别的准确率。
通常基于深度学习的人脸识别方法,都是通过训练,把人脸照片映射到一个高纬空间中,每张照片在这个空间中都可以用一个高纬向量来表示,并且在这个空间中,比较相似的照片之间的距离会比较小,不同的人的照片对应的向量的距离会比较大,长的越像,距离就越小。因此只需要设定一个阈值,当向量之间的距离小于这个阈值时,就意味着这两个向量代表的照片是属于同一个人的,也就是识别成功。另一方面,人的脸部特征包含了其身份信息,但角度比价偏的时候,比如俯视、仰视或者左右这种角度拍摄的照片,会大幅度减少其脸部特征的信息,这样就会严重影响到识别的准确率,比如很多人从左右方垂直角度拍的照片,相似度会非常高,这样如果还按照上述方式用一个阈值来判断其身份,就会出现识别错误的情况,所以大多数场景下要求人主动配合去识别才能保证一个合理的识别率。因此,为了提高无感场景的人脸识别率,本发明通过对上传人脸照片质量进行可量化的评估,结合高维特征向量和底库中其他特征向量的相似度,以及灵活动态调整参数阈值的方式,大幅度降低无感场景的误识率。
发明内容
本发明提供一种误识率较低的面向无感场景的人脸识别方法。
为了达到上述技术效果,本发明的技术方案如下:
一种面向无感场景的人脸识别方法,包括以下步骤:
S1:人脸向量计算并匹配底库;
S2:人脸照片质量评估和目标相似度结果判断;
S3:基于S2输出的评估结果,对照片进行不同的后续处理,如果是识别或者注册成功,则还要加入到一个临时队列中,对接下来照片进行宽松阈值的识别判断,从而降低一人由于多张不同角度照片造成识别错误的概率,将不同阶段的结果存储到对应表中。
进一步地,所述步骤S1的中,采用100层的卷积神经网络ResNet作为主干网络,使用百万人脸数据集MS1M进行人脸识别模型的训练,生成一个可以使用的深度人脸模型,这样每张人脸照片都可以生成一个高维度的向量;将得到的向量去人脸底库中进行计算匹配,通过向量计算找到和该向量最近的人脸向量。
进一步地,所述步骤S1的具体过程是:
S11:把通过人脸对齐后的照片以及对应的身份标注输入到100层的卷积神经网络ResNet中进行训练,训练结束后,一张人脸照片经过主干网络的计算,就可以得到一个512维的特征向量;
S12:基于大规模向量检索工具Faiss,匹配最相近的faceId,并输出匹配底库时计算到的分数。
进一步地,所述步骤S2中,基于S1生成的人脸向量,使用头部姿态估计计算人脸对应的三维立体值,根据不同的场景找到对应的阈值方案,对目标的相似度进行合理的评估。
进一步地,所述步骤S2的具体过程是:
S21:基于S11输出的高维向量,使用头部姿态估计计算人脸对应的三维立体值,并根据上下和左右的阈值来判断其接下来的流程:判定人脸上下角度阀值PITCH_REGISTER_RIGHT及PITCH_REGISTER_LEFT,在范围外则不满足注册条件,输出不能注册的参数,如果满足则判定人脸左右角度阀值YAW_REGISTER_RIGHT及YAW_REGISTER_LEFT,在范围外则不满足注册条件,输出不能注册的参数,否则输出当前照片可以注册的参数;
S22:当底库匹配分数小于THRESHOLD_SCORE_START时,为已有影像;当底库匹配分数小于THRESHOLD_SCORE_MID时,为特殊影像SPECIAL,则取疑似的faceId之前注册的特征记录,最大取10条,计算平均相似分数;
S23:如果S22输出的平均分数小于THRESHOLD_SCORE_START,该特殊影像判断为相同人,也就是识别成功,否则,判定为需要注册的新影像,当底库匹配分数大于上述所有阈值,为新影像,如果S21输出的参数是可以注册,则将新影响注册。
进一步地,所述步骤S3的具体过程是:
S31:如果S23输出的结果是识别成功或者新注册,则建立一个基于redis的一个缓存队列,设定的缓存时间10s,以业务门店为过滤范围(非底库),获取队列中所有缓存的图片,跟当前照片进行相似度匹配,这时可以结合场景设置一个相对比较宽松的阈值,如果比对成功,则整个识别流程链结束,比对失败,正常执行后续操作;
S32:对S31输出的结果,如果识别成功,则把照片存到对应faceid的历史照片库中;如果需要新注册,则把对应的向量以及照片加入到对应的底库当中。
与现有技术相比,本发明技术方案的有益效果是:
现有的比较成熟的人脸识别方法,主要面对的是刷脸支付这种有感场景,如果直接放在抓逃犯或者客流系统这种无感场景,误识率会大幅度增加,因此,本发明通过对上传照片质量进行可量化的评估,结合高维特征向量和底库中其他特征向量的相似度,以及灵活动态调整参数阈值的方式,大幅度降低无感场景的误识率。
附图说明
图1为本发明流程示意图;
图2为实施例1中的算法结构示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
如图1-2所示,一种面向无感场景的人脸识别方法,包括以下步骤:
S1:人脸向量计算并匹配底库;
S2:人脸照片质量评估和目标相似度结果判断;
S3:基于S2输出的评估结果,对照片进行不同的后续处理,如果是识别或者注册成功,则还要加入到一个临时队列中,对接下来照片进行宽松阈值的识别判断,从而降低一人由于多张不同角度照片造成识别错误的概率,将不同阶段的结果存储到对应表中。
步骤S1的中,采用100层的卷积神经网络ResNet作为主干网络,使用百万人脸数据集MS1M进行人脸识别模型的训练,生成一个可以使用的深度人脸模型,这样每张人脸照片都可以生成一个高维度的向量;将得到的向量去人脸底库中进行计算匹配,通过向量计算找到和该向量最近的人脸向量。
步骤S1的具体过程是:
S11:把通过人脸对齐后的照片以及对应的身份标注输入到100层的卷积神经网络ResNet中进行训练,训练结束后,一张人脸照片经过主干网络的计算,就可以得到一个512维的特征向量;
S12:基于大规模向量检索工具Faiss,匹配最相近的faceId,并输出匹配底库时计算到的分数。
步骤S2中,基于S1生成的人脸向量,使用头部姿态估计计算人脸对应的三维立体值,根据不同的场景找到对应的阈值方案,对目标的相似度进行合理的评估。
步骤S2的具体过程是:
S21:基于S11输出的高维向量,使用头部姿态估计计算人脸对应的三维立体值,并根据上下和左右的阈值来判断其接下来的流程:判定人脸上下角度阀值PITCH_REGISTER_RIGHT及PITCH_REGISTER_LEFT,在范围外则不满足注册条件,输出不能注册的参数,如果满足则判定人脸左右角度阀值YAW_REGISTER_RIGHT及YAW_REGISTER_LEFT,在范围外则不满足注册条件,输出不能注册的参数,否则输出当前照片可以注册的参数;
S22:当底库匹配分数小于THRESHOLD_SCORE_START时,为已有影像;当底库匹配分数小于THRESHOLD_SCORE_MID时,为特殊影像SPECIAL,则取疑似的faceId之前注册的特征记录,最大取10条,计算平均相似分数;
S23:如果S22输出的平均分数小于THRESHOLD_SCORE_START,该特殊影像判断为相同人,也就是识别成功,否则,判定为需要注册的新影像,当底库匹配分数大于上述所有阈值,为新影像,如果S21输出的参数是可以注册,则将新影响注册。
步骤S3的具体过程是:
S31:如果S23输出的结果是识别成功或者新注册,则建立一个基于redis的一个缓存队列,设定的缓存时间10s,以业务门店为过滤范围(非底库),获取队列中所有缓存的图片,跟当前照片进行相似度匹配,这时可以结合场景设置一个相对比较宽松的阈值,如果比对成功,则整个识别流程链结束,比对失败,正常执行后续操作;
S32:对S31输出的结果,如果识别成功,则把照片存到对应faceid的历史照片库中;如果需要新注册,则把对应的向量以及照片加入到对应的底库当中。
对于人脸高维度特征的提取,采用了微软公开的百万人脸数据集MS1M。除此之外,对数据集并没有特别的需求,当输入一张人脸照片后,就可以通过一系列的计算和比较,从而输出这张照片是识别成功还是注册成功的结果。
具体方法步骤如下:
1、基于MS1M数据集训练一个人脸识别的深度学习模型,模型的输入是一张照片,输出是一个高维向量。
2、一个人出现在摄像头面前,通过人脸检测方法将人脸照片上传到服务端,通过检测对齐裁剪等操作之后,把照片输入到上述的深度学习模型中,计算得到一个高维向量。
3、将向量输入到大规模高维向量检索工具Faiss中,计算得到和该向量距离最近的一个向量;同时使用头部姿态估计的方法,得到人脸照片对应的三维立体值。
4、如果三维立体值满足人脸上下角度阀值PITCH_REGISTER_RIGHT及PITCH_REGISTER_LEFT的限制,意味着这张人脸照片的角度比较好,满足注册的条件,如果不满足注册条件,则只走接下来识别的流程。
5、之后判断与最近向量计算的距离值,根据不同的阈值会有不同的处理逻辑。
6、假设识别阈值是0.3,如果距离值小于0.3,则可以判断其识别成功,返回的识别结果就是其最近的这个向量对应的身份。
7、假设注册阈值是0.4,如果这个最小距离大于0.4,则会进入新注册的流程。
8、如果距离在0.3和0.4之间,则取最近向量对应的最近的10条记录,计算和这10张照片的相似度,如果平均相似度小于上述阈值,则判断识别成功,否则进入新注册流程。
9、接下来会判断上边识别成功或者要进入注册流程的照片和一个基于redis的缓存队列中照片的相似度,假设当前队列中有一张照片,缓存时间为10s,相似度阈值判断为0.35,如果新的照片和队列中的照片相似度小于这个宽松阈值,则判断这两张照片属于同一个人,把新增的照片过滤,流程结束。如果大于这个宽松的阈值,则把新照片也加入到这个队列中,接下来对后续10秒加入的新照片进行相同的逻辑判断。上述阈值都可以跟随环境的变化灵活调大或调小
10、把加入该缓存队列中的照片进行后一步的处理,对于识别成功的返回识别到的身份并显示,对于新注册的结果,则在底库中新增这个对应的faceid并返回这个新的身份去展示。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (3)

1.一种面向无感场景的人脸识别方法,其特征在于,包括以下步骤:
S1:人脸向量计算并匹配底库;采用100层的卷积神经网络ResNet作为主干网络,使用百万人脸数据集MS1M进行人脸识别模型的训练,生成一个深度人脸模型,这样每张人脸照片都生成一个高维度的向量;将得到的向量去人脸底库中进行计算匹配,通过向量计算找到和该向量最近的人脸向量;
S2:人脸照片质量评估和目标相似度结果判断;具体过程是:
S21:基于S11输出的高维向量,使用头部姿态估计计算人脸对应的三维立体值,并根据上下和左右的阈值来判断其接下来的流程:判定人脸上下角度阀值PITCH_REGISTER_RIGHT及PITCH_REGISTER_LEFT,在范围外则不满足注册条件,输出不能注册的参数,如果满足则判定人脸左右角度阀值YAW_REGISTER_RIGHT及YAW_REGISTER_LEFT,在范围外则不满足注册条件,输出不能注册的参数,否则输出当前照片注册的参数;
S22:当底库匹配分数小于THRESHOLD_SCORE_START时,为已有影像;当底库匹配分数小于THRESHOLD_SCORE_MID时,为特殊影像SPECIAL,则取疑似的faceId之前注册的特征记录,最大取10条,计算平均相似分数;
S23:如果S22输出的平均分数小于THRESHOLD_SCORE_START,该特殊影像判断为相同人,也就是识别成功,否则,判定为需要注册的新影像,当底库匹配分数大于上述人脸上下左右角度阀值,为新影像,如果S21输出的参数是注册,则将新影响注册;
S3:基于S2输出的评估结果,对照片进行不同的后续处理,如果是识别或者注册成功,则还要加入到一个临时队列中,对接下来照片进行宽松阈值的识别判断,从而降低一人由于多张不同角度照片造成识别错误的概率,将不同阶段的结果存储到对应表中;具体过程是:
S31:如果S23输出的结果是识别成功或者新注册,则建立一个基于redis的一个缓存队列,设定的缓存时间10s,以业务门店为过滤范围,获取队列中所有缓存的图片,跟当前照片进行相似度匹配,这时结合场景设置一个相对比较宽松的阈值,如果比对成功,则整个识别流程链结束,比对失败,正常执行后续操作;
S32:对S31输出的结果,如果识别成功,则把照片存到对应faceid的历史照片库中;如果需要新注册,则把对应的向量以及照片加入到对应的底库当中。
2.根据权利要求1所述的面向无感场景的人脸识别方法,其特征在于,所述步骤S1的具体过程是:
S11:把通过人脸对齐后的照片以及对应的身份标注输入到100层的卷积神经网络ResNet中进行训练,训练结束后,一张人脸照片经过主干网络的计算,就得到一个512维的特征向量;
S12:基于大规模向量检索工具Faiss,匹配最相近的faceId,并输出匹配底库时计算到的分数。
3.根据权利要求2所述的面向无感场景的人脸识别方法,其特征在于,所述步骤S2中,基于S1生成的人脸向量,使用头部姿态估计计算人脸对应的三维立体值,根据不同的场景找到对应的阈值方案,对目标的相似度进行合理的评估。
CN202010378421.3A 2020-05-07 2020-05-07 一种面向无感场景的人脸识别方法 Active CN111738059B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010378421.3A CN111738059B (zh) 2020-05-07 2020-05-07 一种面向无感场景的人脸识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010378421.3A CN111738059B (zh) 2020-05-07 2020-05-07 一种面向无感场景的人脸识别方法

Publications (2)

Publication Number Publication Date
CN111738059A CN111738059A (zh) 2020-10-02
CN111738059B true CN111738059B (zh) 2024-03-29

Family

ID=72648186

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010378421.3A Active CN111738059B (zh) 2020-05-07 2020-05-07 一种面向无感场景的人脸识别方法

Country Status (1)

Country Link
CN (1) CN111738059B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113688708A (zh) * 2021-08-12 2021-11-23 北京数美时代科技有限公司 一种基于概率特征的人脸识别方法、系统及存储介质
CN113762106A (zh) * 2021-08-23 2021-12-07 深圳云天励飞技术股份有限公司 人脸识别方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103136533A (zh) * 2011-11-28 2013-06-05 汉王科技股份有限公司 基于动态阈值的人脸识别方法及装置
CN109086739A (zh) * 2018-08-23 2018-12-25 成都睿码科技有限责任公司 一种无人脸数据训练的人脸识别方法和系统
CN109117797A (zh) * 2018-08-17 2019-01-01 浙江捷尚视觉科技股份有限公司 一种基于人脸质量评价的人脸抓拍识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103136533A (zh) * 2011-11-28 2013-06-05 汉王科技股份有限公司 基于动态阈值的人脸识别方法及装置
CN109117797A (zh) * 2018-08-17 2019-01-01 浙江捷尚视觉科技股份有限公司 一种基于人脸质量评价的人脸抓拍识别方法
CN109086739A (zh) * 2018-08-23 2018-12-25 成都睿码科技有限责任公司 一种无人脸数据训练的人脸识别方法和系统

Also Published As

Publication number Publication date
CN111738059A (zh) 2020-10-02

Similar Documents

Publication Publication Date Title
US11188783B2 (en) Reverse neural network for object re-identification
US10402627B2 (en) Method and apparatus for determining identity identifier of face in face image, and terminal
JP5010905B2 (ja) 顔認証装置
Wang et al. Automatic eye detection and its validation
US10366595B2 (en) Surveillance method and system based on human behavior recognition
US20070230797A1 (en) Method, apparatus, and program for detecting sightlines
CN108416250A (zh) 人数统计方法及装置
CN107230267B (zh) 基于人脸识别算法的幼儿园智能签到方法
CN111626371B (zh) 一种图像分类方法、装置、设备及可读存储介质
US11126827B2 (en) Method and system for image identification
CN110348362B (zh) 标签生成、视频处理方法、装置、电子设备及存储介质
CN111738059B (zh) 一种面向无感场景的人脸识别方法
CN111611873A (zh) 人脸替换检测方法及装置、电子设备、计算机存储介质
CN108171138B (zh) 一种生物特征信息获取方法和装置
WO2020052275A1 (zh) 图像处理方法、装置、终端设备、服务器及系统
CN112818149A (zh) 一种基于时空轨迹数据的人脸聚类方法、装置及存储介质
CN112052746A (zh) 目标检测方法、装置、电子设备和可读存储介质
KR20210033940A (ko) 인간 안면 인식을 위하여 신경 네트워크를 트레이닝시키는 방법
CN110827432A (zh) 一种基于人脸识别的课堂考勤方法及系统
CN114783037B (zh) 目标重识别方法、目标重识别装置和计算机可读存储介质
CN110968719B (zh) 一种人脸聚类方法及装置
JP7438690B2 (ja) 情報処理装置、画像認識方法及び学習モデル生成方法
CN110378414B (zh) 基于进化策略的多模态生物特征融合的身份识别方法
Chandran et al. Pedestrian crowd level estimation by Head detection using bio-inspired retina model
CN115527168A (zh) 行人重识别方法、存储介质、数据库编辑方法、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant