CN111126346A - 脸部识别方法、分类模型的训练方法、装置和存储介质 - Google Patents

脸部识别方法、分类模型的训练方法、装置和存储介质 Download PDF

Info

Publication number
CN111126346A
CN111126346A CN202010010341.2A CN202010010341A CN111126346A CN 111126346 A CN111126346 A CN 111126346A CN 202010010341 A CN202010010341 A CN 202010010341A CN 111126346 A CN111126346 A CN 111126346A
Authority
CN
China
Prior art keywords
face
target object
image
classification model
sample image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010010341.2A
Other languages
English (en)
Inventor
叶泽雄
黎伟
肖万鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010010341.2A priority Critical patent/CN111126346A/zh
Publication of CN111126346A publication Critical patent/CN111126346A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种脸部识别方法、分类模型的训练方法、装置和存储介质,属于计算机技术领域,涉及人工智能和计算机视觉技术。本申请根据待识别图像的脸部特征,确定所述脸部特征对应于各目标对象的类别分数值,基于各目标对象分别对应的类别分数值,获得所述待识别图像的第一识别结果,该第一识别结果用于指示待识别图像对应的目标对象。由于每个目标对象对应一个类别,该目标对象的不同拍摄状态的脸部图像的脸部特征均属于该目标对象对应的类别,因此,在确定脸部特征对应于各目标对象的类别分数值时,可以根据不同拍摄状态的脸部图像的脸部特征,确定各个脸部特征对应于各目标对象的类别分数值,提高对设定的目标对象的识别准确率。

Description

脸部识别方法、分类模型的训练方法、装置和存储介质
技术领域
本申请涉及计算机技术领域,更具体地说,涉及一种脸部识别方法、分类模型的训练方法、装置和存储介质。
背景技术
随着计算机技术和互联网技术的迅速发展,脸部识别技术在不同领域得到广泛应用,例如,人脸识别技术可以应用于考勤、屏幕解锁、门禁、安防、公安以及支付领域等。
现有的脸部识别方法,通常采用相似度匹配的方式进行识别,预先获取并保存用户A的脸部图像作为种子,当针对用户A进行脸部识别时,从现场采集的待识别对象的脸部图像中提取特征,与作为种子的脸部图像进行特征对比。如果二者的相似度超过阈值,说明待识别对象是用户A;如果二者的相似度未达到阈值,说明待识别对象不是用户A。
目前,在通过上述方法进行脸部识别时,往往需要待识别对象主动配合,采集待识别对象在光照充足的场景的正脸图像,才可以识别出待识别对象的身份,而对于侧脸或拍摄距离较远的小脸图像,往往无法进行识别。而在安防等部分应用场景中,例如在寻找走失儿童或追踪逃犯的场景中,监控摄像头拍摄的图像中人物的姿态多种多样,存在较多的侧脸,同时,由于摄像头画质的差异或环境光照等因素的影响,拍摄的图像中还可能存在人物的脸部模糊的现象,采用这些图像进行脸部识别时,现有的脸部识别方法的识别准确率很低,往往无法正确识别出待查找的目标对象,导致多次错过待查找的目标对象。
发明内容
为解决现有存在的技术问题,本申请实施例提供一种脸部识别方法、分类模型的训练方法、装置和存储介质,可以提高对设定的目标对象的识别准确率,并提高识别出设定的目标对象的机率。
为达到上述目的,本申请实施例的技术方案是这样实现的:
第一方面,本申请实施例提供一种脸部识别方法,包括:
提取待识别图像的脸部特征;
根据待识别图像的脸部特征,确定所述脸部特征对应于各目标对象的类别分数值;
基于各目标对象分别对应的类别分数值,获得所述待识别图像的第一识别结果;所述第一识别结果用于指示所待识别图像中脸部特征对应的目标对象。
第二方面,本申请实施例提供一种分类模型的训练方法,所述分类模型应用于第一方面所述的脸部识别方法,所述训练方法包括:
从训练数据集中抽取脸部样本图像;所述训练数据集中包括正样本和负样本,所述正样本包括至少一个目标对象的脸部样本图像集,所述负样本包括非目标对象的脸部样本图像,每张脸部样本图像均标注有类别标签,正样本的类别标签用于指示该脸部样本图像对应的目标对象,负样本的类别标签用于指示该脸部样本图像不对应任何一个目标对象;
提取脸部样本图像的脸部特征;
将脸部样本图像的脸部特征输入分类模型,得到脸部样本图像的识别结果;
根据脸部样本图像的识别结果与脸部样本图像的类别标签,确定损失值;
根据损失值对所述分类模型的参数进行调整,直至所述损失值收敛至预设的期望值为止,得到已训练的分类模型。
在一种可选的实施例中,若所述分类模型为用于分类的卷积神经网络,所述脸部样本图像的识别结果为所述脸部特征匹配各个目标对象的类别分数值;
若所述分类模型为包括至少一个SVM分类器,所述脸部样本图像的识别结果为每个SVM分类器输出的判定结果,所述判定结果为所述脸部特征匹配该SVM分类器对应的目标对象的类别分数值。
在一种可选的实施例中,所述分类模型的训练过程,还包括:
若已训练的分类模型未达到预期效果,向所述训练数据集中添加正样本或负样本;添加的正样本为训练过程中被误识别为非目标对象的脸部样本图像,添加的负样本为训练过程中被误识别为目标对象的脸部样本图像;
采用添加样本后的训练数据集对所述分类模型继续进行训练。
第三方面,本申请实施例提供一种脸部识别装置,包括:
特征提取单元,用于提取待识别图像的脸部特征;
身份识别单元,用于根据待识别图像的脸部特征,确定所述脸部特征对应于各目标对象的类别分数值;基于各目标对象分别对应的类别分数值,获得所述待识别图像的第一识别结果;所述第一识别结果用于指示所待识别图像中脸部特征对应的目标对象。
在一种可选的实施例中,所述身份识别单元,还用于:
将所述脸部特征输入已训练的分类模型,得到所述分类模型输出的所述脸部特征对应于各目标对象的类别分数值,其中,所述分类模型是根据至少一个目标对象的脸部样本图像集训练得到的,每个目标对象的脸部样本图像集包括该目标对象在不同拍摄状态的多张脸部样本图像。
在一种可选的实施例中,所述身份识别单元,还用于:
将所述脸部特征与保存的各个脸部数据进行相似度比对,每个脸部数据对应一个候选对象;
根据相似度比对结果,获得所述待识别图像的第二识别结果,所述第二识别结果用于指示与所述脸部特征匹配的候选对象;以及
根据所述第一识别结果和所述第二识别结果,确定对所述待识别图像的脸部识别结果。
在一种可选的实施例中,所述身份识别单元,还用于:在确认所述第二识别结果指示的候选对象包括至少两个之后,将所述脸部特征输入已训练的分类模型;以及将所述第一识别结果作为对所述待识别图像的脸部识别结果。
在一种可选的实施例中,所述身份识别单元,还用于:在确认根据所述分类模型未获得所述脸部特征的分类类别之后,将所述脸部特征与待比对脸部数据进行相似度比对。
在一种可选的实施例中,所述分类模型为用于分类的卷积神经网络,或者,所述分类模型包括至少一个SVM分类器,每个SVM分类器对应一个目标对象,不同的SVM分类器对应不同的目标对象,每个所述SVM分类器用于根据输入的脸部特征输出判定结果,所述判定结果为所述脸部特征匹配该SVM分类器对应的目标对象的类别分数值。
在一种可选的实施例中,所述装置还包括模型训练单元,用于:
从训练数据集中抽取脸部样本图像;所述训练数据集中包括正样本和负样本,所述正样本包括至少一个目标对象的脸部样本图像集,所述负样本包括非目标对象的脸部样本图像;每张脸部样本图像均标注有类别标签,正样本的类别标签用于指示该脸部样本图像对应的目标对象,负样本的类别标签用于指示该脸部样本图像不对应任何一个目标对象;
提取脸部样本图像的脸部特征;
将脸部样本图像的脸部特征输入分类模型,得到脸部样本图像的识别结果;
根据脸部样本图像的识别结果与脸部样本图像的类别标签,确定损失值;
根据损失值对所述分类模型的参数进行调整,直至所述损失值收敛至预设的期望值为止,得到已训练的分类模型。
在一种可选的实施例中,若所述分类模型为用于分类的卷积神经网络,所述脸部样本图像的识别结果为所述脸部特征匹配各个目标对象的概率;
若所述分类模型为包括至少一个SVM分类器,所述脸部样本图像的识别结果为每个SVM分类器输出的判定结果。
在一种可选的实施例中,所述模型训练单元,还用于:
若已训练的分类模型未达到预期效果,向所述训练数据集中添加正样本或负样本;添加的正样本为训练过程中被误识别为非目标对象的脸部样本图像,添加的负样本为训练过程中被误识别为目标对象的脸部样本图像;
采用添加样本后的训练数据集对所述分类模型继续进行训练。
在一种可选的实施例中,所述模型训练单元,还用于:
若所述第二识别结果指示的候选对象与所述第一识别结果指示的目标对象不一致,根据所述待识别图像获得用于训练所述分类模型的脸部样本图像。
第四方面,本申请实施例提供一种分类模型的训练装置,所述分类模型应用于第一方面所述的脸部识别方法,所述训练装置包括:
样本获取单元,用于从训练数据集中抽取脸部样本图像;所述训练数据集中包括正样本和负样本,所述正样本包括至少一个目标对象的脸部样本图像集,所述负样本包括非目标对象的脸部样本图像,每张脸部样本图像均标注有类别标签,正样本的类别标签用于指示该脸部样本图像对应的目标对象,负样本的类别标签用于指示该脸部样本图像不对应任何一个目标对象;
训练单元,用于提取脸部样本图像的脸部特征;将脸部样本图像的脸部特征输入分类模型,得到脸部样本图像的识别结果;根据脸部样本图像的识别结果与脸部样本图像的类别标签,确定损失值;
参数调整单元,用于根据损失值对所述分类模型的参数进行调整,直至所述损失值收敛至预设的期望值为止,得到已训练的分类模型。
在一种可选的实施例中,若所述分类模型为用于分类的卷积神经网络,所述脸部样本图像的识别结果为所述脸部特征匹配各个目标对象的概率;
若所述分类模型为包括至少一个SVM分类器,所述脸部样本图像的识别结果为每个SVM分类器输出的判定结果。
在一种可选的实施例中,所述样本获取单元,还用于:
若已训练的分类模型未达到预期效果,向所述训练数据集中添加正样本或负样本;添加的正样本为训练过程中被误识别为非目标对象的脸部样本图像,添加的负样本为训练过程中被误识别为目标对象的脸部样本图像。
第五方面,本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时,实现第一方面的脸部识别方法或第二方面的分类模型的训练方法。
第六方面,本申请实施例还提供一种电子设备,包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的计算机程序,当所述计算机程序被所述处理器执行时,使得所述处理器实现第一方面的脸部识别方法或第二方面的分类模型的训练方法。
本申请实施例的脸部识别方法、分类模型的训练方法、装置和存储介质,根据待识别图像的脸部特征,确定脸部特征对应于各目标对象的类别分数值,基于各目标对象分别对应的类别分数值,获得待识别图像的第一识别结果,该第一识别结果用于指示待识别图像对应的目标对象。由于每个目标对象对应一个类别,该目标对象的不同拍摄状态的脸部图像的脸部特征均属于该目标对象对应的类别,因此,在确定脸部特征对应于各目标对象的类别分数值时,可以根据不同拍摄状态的脸部图像的脸部特征,确定各个脸部特征对应于各目标对象的类别分数值,提高对设定的目标对象的识别准确率。无论待识别图像中包含设定的目标对象的正脸、侧脸或远距离拍摄的小脸,均可以从待识别图像中识别出设定的目标对象,从而提高从待识别图像中识别出设定的目标对象的机率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种脸部识别方法的应用场景示意图;
图2为本申请实施例提供的一种脸部识别方法的执行过程示意图;
图3为本申请实施例提供的一种脸部识别方法的流程示意图;
图4为本申请实施例提供的另一种脸部识别方法的执行过程示意图;
图5为本申请实施例提供的另一种脸部识别方法的执行过程示意图;
图6为本申请实施例提供的另一种脸部识别方法的流程示意图;
图7为本申请实施例提供的另一种脸部识别方法的流程示意图;
图8为本申请实施例提供的一种分类模型的训练方法的流程示意图;
图9为本申请实施例提供的脸部识别方法与现有脸部识别方法的效果对比图;
图10为本申请实施例提供的一种脸部识别装置的结构示意图;
图11为本申请实施例提供的另一种脸部识别装置的结构示意图;
图12为本申请实施例提供的一种分类模型的训练装置的结构示意图;
图13为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
下文中所用的词语“示例性”的意思为“用作例子、实施例或说明性”。作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
文中的术语“第一”、“第二”仅用于描述目的,而不能理解为明示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征,在本申请实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
为了解决现有的脸部识别方法的识别准确率低,无法根据非正脸拍摄角度的脸部图像进行准确识别的问题,本申请实施例提供了一种脸部识别方法、分类模型的训练方法、装置和存储介质。本申请实施例涉及人工智能(Artificial Intelligence,AI)和机器学习技术,基于人工智能中的计算机视觉(Computer Vision,CV)技术和机器学习(MachineLearning,ML)而设计。
人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。人工智能技术主要包括计算机视觉技术、语音处理技术、以及机器学习/深度学习等几大方向。
随着人工智能技术研究和进步,人工智能在多个领域展开研究和应用,例如常见的智能家居、图像检索、视频监控、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗等,相信随着技术的发展,人工智能将在更多的领域得到应用,并发挥越来越重要的价值。
计算机视觉技术是人工智能的重要应用,其研究相关的理论和技术,试图建立能够从图像、视频或者多维数据中获取信息,以代替人的视觉判读的人工智能系统。典型的计算机视觉技术通常包括图像处理和视频分析。本申请实施例提供的脸部识别方法属于图像处理的一种方法。
机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习等技术。本申请实施例在脸部识别过程中,采用了基于机器学习或深度学习的分类模型根据每个目标对象的不同拍摄状态的脸部样本图像的脸部特征学习对不同的目标对象的脸部特征进行分类,从而根据待识别图像的脸部特征,确定该脸部特征对应的目标对象。
本申请实施例提供的脸部识别方法的一种应用场景可以参见图1所示,该应用场景中包括终端设备11和服务器12。终端设备11和服务器12之间可以通过通信网络进行通信。该通信网络可以是有线网络或无线网络。
其中,终端设备11为可以摄像头,也可以是计算机或手机、平板电脑、各类可穿戴设备、车载设备等移动终端,其中,计算机或移动终端上可以安装有摄像头。各终端设备11通过通信网络与服务器12连接,服务器12可以是用于进行图像处理的服务器,可以是一台服务器或由若干台服务器组成的服务器集群或云计算中心,或者是一个虚拟化平台。
终端设备11通过摄像头拍摄视频或图片,或者通过如网络下载等其它途径获取视频或图片,终端设备11将获取的视频或图片发送给服务器12,服务器12可以采用本申请提供的脸部识别方法,确定该视频或图片中是否包含目标对象的脸部。其中,目标对象可以是人,也可以是其它动物,本申请对此不作限定,本申请实施例中以人作为目标对象为例进行说明。
在一些实施例中,服务器12也可以通过其它途径获取待识别的视频或图片,例如,从用于采集图像数据的服务器或其它服务器获取待识别的视频或图片。
如图2所示,本申请实施例的脸部识别方法的实施过程大致为:获取待识别图像的脸部特征,根据待识别图像的脸部特征,确定所述脸部特征对应于各目标对象的类别分数值,基于各目标对象分别对应的类别分数值,获得待识别图像的第一识别结果,第一识别结果用于指示待识别图像中脸部特征对应的目标对象。
具体地说,将获取的脸部特征输入已训练的分类模型,得到分类模型输出的该脸部特征对应于各目标对象的类别分数值。其中,分类模型是根据至少一个目标对象的脸部样本图像集训练得到的,每个目标对象的脸部样本图像集包括该目标对象在不同拍摄状态的多张脸部样本图像。
通过每个目标对象在不同拍摄状态的多张脸部样本图像对分类模型进行训练,可以使得到的分类模型准确识别出设定的目标对象处于不同拍摄状态的脸部图像,提高对设定的目标对象的识别准确率。无论待识别图像中包含设定的目标对象的正脸、侧脸或远距离拍摄的小脸,分类模型均可以从待识别图像中识别出设定的目标对象,从而提高从待识别图像中识别出设定的目标对象的机率。
本申请实施例的脸部识别方法,可以应用于安防场景中。示例性地,在寻找走失儿童的应用场景中,为了防止走失儿童被亲人轻易认出,拐骗儿童的犯罪嫌疑人通常给儿童改变装束,更换衣着或改变发型。无论儿童的装束如何改变,其面部特征不会发生变化,因此,基于脸部识别技术,可以从人流中识别出该走失儿童。具体地说,可以请走失儿童的家长提供该走失儿童的不同拍摄状态的多张脸部样本图像,如不同拍摄角度或不同拍摄距离的脸部样本图像,甚至还可以是由于各种原因导致拍摄模糊的脸部样本图像等,获取的走失儿童的脸部样本图像越多越好,可以将走失儿童的多张脸部样本图像作为正样本,将获取的其它图像作为负样本,对分类模型进行训练,并通过训练好的分类模型对可收集到的待识别图像进行脸部识别。例如,火车站的监控摄像头将拍摄的待识别图像实时发送给服务器12,待识别图像中可能包含走失儿童的侧脸、远距离拍摄的小脸或匆匆行走时模糊的脸。服务器12通过本申请实施例提供的脸部识别方法,可以从待识别图像中准确识别出走失儿童,大幅度提高走失儿童被识别出的机率,有助于走失儿童得到及时解救,与家人早日团聚。
需要说明的是,本申请实施例提供的脸部识别方法除了可以应用于服务器12之外,还可以应用到客户端中,或者由终端设备11执行,或者由终端设备11和服务器12配合执行。本申请实施例以由服务器12执行该脸部识别方法进行说明,其它设备执行的具体实施过程与服务器12单独执行的过程类似,本文中不再赘述。
以下结合附图和具体实施方式详细介绍本申请实施例提供的脸部识别方法。需要说明的是,附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图3示出了本发明实施例所提供的一种脸部识别方法的流程图,如图3所示,该方法包括如下步骤:
步骤S301,提取待识别图像的脸部特征。
其中,待识别图像可以是视频中的图像帧,也可以是预设格式的图片,预设格式可以包括但不限于JPEG格式、PNG格式、BMP格式或者GIF格式等。服务器可以接收终端设备或其它服务器上传的待识别图像,如接收监控摄像头采集的交通路口、火车站大厅或机场大厅的现场图像作为待识别图像,待识别图像中可以包含多个脸部。在一些实施例中,也可以先对上述现场图像进行脸部关键点检测和图像分割,从现场图像中分割出多个待识别图像,每个待识别图像中包括一个脸部。根据待识别的目标对象的不同,待识别图像中的脸部可以是人脸,也可以是其他动物的脸。本申请实施例中以人脸为例进行说明。
可选地,可以采用训练好的特征提取网络提取待识别图像的脸部特征。将待识别图像输入特征提取网络,得到特征提取网络输出的脸部特征。特征提取网络可以仅提取全局脸部特征,也可以在提取全局脸部特征的同时,也提取局部脸部特征,如脸部的痣或斑等,在部分实施例中,这些局部脸部特征在进行脸部识别时,可以起到区分不同目标对象的关键作用。
上述的特征提取网络可以采用训练好的卷积网络实现,其网络结构可以是但不限于VGG、ResNet、ShuffleNet、InceptionNet等网络结构。特征提取网络也可以采用全卷积神经网络(Fully Convolutional Neuron networks,FCN)实现。全卷积神经网络可以包括至少一个卷积层和至少一个池化层。卷积层和池化层可以间隔设置,即相邻的池化层之间可以设置一个或多个卷积层。每个卷积层包括一个或多个用于从输入的待识别图像中提取特征信息的卷积核,用卷积核按照一定的步长遍历待识别图像的像素矩阵,得到至少一个特征值,由至少一个特征值组成卷积特征图。池化层用于将卷积层输出的卷积特征图进行降维处理,最后一个池化层输出从待识别图像中提取的脸部特征。
步骤S302,根据待识别图像的脸部特征,确定脸部特征对应于各目标对象的类别分数值。
每个目标对象对应一个类别,或者说,每个目标对象对应一个分类类别。同一目标对象的不同拍摄状态的脸部图像的脸部特征均属于该目标对象对应的分类类别。根据待识别图像的脸部特征,可以确定脸部特征对应于各目标对象的类别分数值。
例如,将脸部特征输入已训练的分类模型,得到分类模型输出的脸部特征对应于各目标对象的类别分数值。
其中,分类模型是根据至少一个目标对象的脸部样本图像集训练得到的,每个目标对象的脸部样本图像集包括该目标对象在不同拍摄状态的多张脸部样本图像,每个目标对象对应一个分类类别。
示例性地,在一个实施例中,目标对象的数量可以是三个,分别为目标对象A、目标对象B、目标对象C。分别获取每个目标对象在不同拍摄状态的多张脸部样本图像,组成该目标对象的脸部样本图像集,用于训练分类模型。其中,不同拍摄状态可以包括但不限于不同拍摄角度、不同拍摄距离、不同拍摄参数甚至部分遮挡状态或模糊状态。还可以根据目标对象的不同脸部图像构造该目标对象的更多脸部图像,以增加样本量,例如,可以使用对抗生成网络对目标对象的不同脸部图像进行学习,生成该目标对象的更多脸部图像,用于对分类模型进行训练。
训练得到的分类模型可以针对输入的每个脸部特征,输出对应于各目标对象的类别分数值,每个目标对象对应一个分类类别。例如,对目标对象A的一张侧脸图像进行特征提取,将提取的脸部特征输入分类模型,分类模型将输出该脸部特征属于每个分类类别的类别分数值,根据每个分类类别对应的类别分数值,可以确定该脸部特征所属的分类类别为第一类,第一类对应目标对象A;对目标对象B的一张小脸图像进行特征提取,将提取的脸部特征输入分类模型,根据分类模型的输出,可以确定该脸部特征所属的分类类别为第二类,第二类对应目标对象B;如果对其它对象(如对象D)的一张脸部图像进行特征提取,将提取的脸部特征输入分类模型,根据分类模型的输出,可以确定该脸部特征不属于任意一个分类类别,或该脸部特征不属于设定的目标对象。
在另一个实施例中,目标对象的数量可以是一个,此时,分类模型的输出对应于两个类别,一个类别是该脸部特征属于目标对象,另一个类别是该脸部特征不属于目标对象,可以理解为一个二分类问题。
例如,可以将一个走失儿童作为目标对象,获取该走失儿童的不同拍摄状态的多张脸部样本图像,如不同拍摄角度或不同拍摄距离的脸部样本图像,甚至还可以是由于各种原因导致拍摄模糊的脸部样本图像等。将获取的该走失儿童的多张脸部样本图像组成该走失儿童的脸部样本图像集,与获取的其它图像共同用于训练分类模型。如果对该走失儿童的侧脸或仰脸等不同拍摄角度的脸部图像进行特征提取,将获取的脸部特征输入训练得到的分类模型,分类模型将输出该脸部特征所属的分类类别为第一类,第一类对应该走失儿童。如果对其它对象的脸部图像进行特征提取,将提取的脸部特征输入分类模型,分类模型将输出该脸部特征不属于第一类,或该脸部特征不属于该走失儿童。对于监控摄像头拍摄的一张待识别图像,如果待识别图像中包括多个脸部,通过分类模型确定每一个脸部均不属于该走失儿童,则说明该待识别图像中没有该走失儿童。
步骤S303,基于各目标对象分别对应的类别分数值,获得所述待识别图像的第一识别结果。第一识别结果用于指示待识别图像的脸部特征对应的目标对象。
例如,在上述实施例中,设定的目标对象为三个,分别为目标对象A、目标对象B、目标对象C。对目标对象A的一张侧脸图像进行特征提取,将提取的脸部特征输入分类模型,分类模型将输出该脸部特征所属的分类类别为第一类,第一类对应目标对象A。根据脸部特征所属的分类类别,得到第一识别结果为脸部特征对应目标对象A。得到第一识别结果后,还可以在待识别图像中标记出目标对象A的位置。
通过上述脸部识别方法,可以确定待识别图像中是否包含设定的目标对象。其中,分类模型是根据至少一个目标对象的脸部样本图像集训练得到的,每个目标对象的脸部样本图像集包括该目标对象在不同拍摄状态的多张脸部样本图像。通过每个目标对象在不同拍摄状态的多张脸部样本图像对分类模型进行训练,可以使得到的分类模型准确识别出设定的目标对象处于不同拍摄状态的脸部图像,提高对设定的目标对象的识别准确率。无论待识别图像中包含设定的目标对象的正脸、侧脸或远距离拍摄的小脸,分类模型均可以从待识别图像中识别出设定的目标对象,从而提高从待识别图像中识别出设定的目标对象的机率。
在一种可选的实施例中,分类模型可以采用用于分类的卷积神经网络,如softmax分类器等。将待识别图像的脸部特征输入已训练的卷积神经网络,得到脸部特征匹配各个目标对象的概率,将概率满足设定条件的目标对象对应的分类类别,确定为脸部特征所属的分类类别。其中,对于任意一个目标对象,设定条件可以是:脸部特征匹配该目标对象的概率达到设定阈值,或者,脸部特征匹配该目标对象的概率达到设定阈值,且脸部特征匹配该目标对象的概率大于匹配其它目标对象的概率。根据实际需要,上述设定阈值可以设为80%或90%。
例如,在一种实施例中,设定的目标对象为三个,分别为目标对象A、目标对象B、目标对象C。将待识别图像的脸部特征输入已训练的卷积神经网络,得到该脸部特征匹配目标对象A的概率为98%,该脸部特征匹配目标对象B的概率为8%,该脸部特征匹配目标对象C的概率为2%。可见,该脸部特征匹配目标对象A的概率达到设定阈值,将目标对象A对应的分类类别确定为脸部特征所属的分类类别。如果卷积神经网络输出的脸部特征匹配各个目标对象的概率均未达到设定阈值,可以确定该脸部特征不属于任意一个分类类别,或者说,该脸部特征不属于任意一个目标对象。
在另一种可选的实施例中,分类模型可以包括一个或多个SVM分类器,每个SVM分类器对应一个目标对象,不同的SVM分类器对应不同的目标对象,每个SVM分类器用于根据输入的脸部特征输出判定结果,判定结果为脸部特征匹配该SVM分类器对应的目标对象的类别分数值,用于指示该脸部特征是否属于该SVM分类器对应的目标对象。如果判定结果为真,说明脸部特征属于该SVM分类器对应的目标对象;如果判定结果为假,说明脸部特征不属于该SVM分类器对应的目标对象。将脸部特征输入已训练的至少一个SVM分类器,得到每个SVM分类器输出的判定结果,根据每个SVM分类器输出的判定结果,确定脸部特征所属的分类类别。
例如,在一种实施例中,设定的目标对象为三个,分别为目标对象A、目标对象B、目标对象C。对应地,分类模型包括三个SVM分类器,每个SVM分类器对应一个目标对象。将待识别图像的脸部特征输入各个SVM分类器,得到对应于目标对象A的SVM分类器输出的判定结果为真,说明该脸部特征属于目标对象A,对应于目标对象B的SVM分类器输出的判定结果为假,说明该脸部特征不属于目标对象B,对应于目标对象C的SVM分类器输出的判定结果为假,说明该脸部特征不属于目标对象C。将判定结果为真的SVM分类器对应的分类类别-第一类,作为该脸部特征所属的分类类别。第一类对应目标对象A。
在另一种实施例中,设定的目标对象为一个,例如为目标对象S。分类模型包括一个SVM分类器,用于确定输入的脸部特征是否属于目标对象S。将待识别图像的脸部特征输入SVM分类器,如果SVM分类器输出的判定结果为真,说明该脸部特征属于目标对象S;如果SVM分类器输出的判定结果为假,说明该脸部特征不属于目标对象S。
本申请实施例所使用的特征提取网络及分类模型的训练过程将在下文中详细介绍。
本申请实施例所提供的分类模型在对较少量的目标对象进行脸部识别时,可以取得很好的识别效果。为了可以对更多的对象进行广泛的脸部识别,在另一实施例中,本申请实施例提供的脸部识别方法的执行过程可以如图4和图5所示,利用特征提取网络获取待识别图像的脸部特征之后,将得到的脸部特征分别进行两个分支的处理。
第一个分支为:将脸部特征输入已训练的分类模型,得到分类模型输出的脸部特征所属的分类类别,即脸部特征属于各个目标对象的概率,根据脸部特征所属的分类类别,获得待识别图像的第一识别结果,第一识别结果用于指示脸部特征对应的目标对象。其中,所述分类模型是根据较少数量设定的目标对象的脸部样本图像集训练得到的,该较少数量可以是一个、几个、数十个或数百个。
第二个分支为:将脸部特征与保存的各个脸部数据进行相似度比对,脸部数据也可以称为种子特征,每个脸部数据对应一个候选对象;根据相似度比对结果,获得待识别图像的第二识别结果,第二识别结果用于指示与脸部特征匹配的候选对象。具体地,可以预先保存较多数量的候选对象的脸部数据,将脸部特征与保存的各个脸部数据进行相似度比对,以确定与脸部特征匹配的候选对象。其中,较多数量可以是数千个或数万个。
在一个实施例中,将待识别图像的脸部特征与保存的各个脸部数据进行相似度比对,可以将相似度值达到设定相似度值的脸部数据对应的候选对象作为与待识别图像的脸部特征匹配的候选对象,在该实施例中,第二识别结果最多可以得到一个或多个与待识别图像的脸部特征匹配的候选对象。
在另一个实施例中,将待识别图像的脸部特征与保存的各个脸部数据进行相似度比对,可以将得到的所有相似度值中,相似度值最大且该最大相似度值达到设定相似度值的脸部数据对应的候选对象作为与待识别图像的脸部特征匹配的候选对象,在该实施例中,第二识别结果最多可以得到一个与待识别图像的脸部特征匹配的候选对象。
在另一个实施例中,还可以将待识别图像的脸部特征逐一与保存的各个脸部数据进行相似度比对,当得到的相似度值小于设定相似度值时,继续将待识别图像的脸部特征与下一个保存的脸部数据进行相似度比对;当得到的相似度值达到设定相似度值时,结束该相似度比对过程,将相似度值达到设定相似度值的脸部数据对应的候选对象作为与待识别图像的脸部特征匹配的候选对象,在该实施例中,第二识别结果可以得到一个与待识别图像的脸部特征匹配的候选对象。
获得第一识别结果和第二识别结果之后,可以根据第一识别结果和第二识别结果,确定对待识别图像的脸部识别结果。
在一种实施例中,第二分支中预先保存的候选对象的脸部数据中不包含用于训练分类模型的目标对象的脸部数据。对待识别图像的脸部识别结果可能是如下三种结果中的一种,第一种结果是:当第一识别结果确定存在脸部特征对应的目标对象时,第二识别结果确定不存在与脸部特征匹配的候选对象,此时,将第一识别结果作为对待识别图像的脸部识别结果;第二种结果是:当第一识别结果确定不存在脸部特征对应的目标对象时,第二识别结果确定存在与脸部特征匹配的候选对象,此时,将第二识别结果作为对待识别图像的脸部识别结果;第三种结果是:第一识别结果确定不存在脸部特征对应的目标对象,第二识别结果确定不存在与脸部特征匹配的候选对象,此时,确定对待识别图像的脸部识别结果为待识别图像中不包含设定的目标对象以及候选对象。
在另一种实施例中,第二分支中预先保存的候选对象的脸部数据中包含用于训练分类模型的目标对象的脸部数据。此时,可能存在第一识别结果指示的目标对象和第二识别结果指示的候选对象一致的情况,或者,第二识别结果指示存在多个与待识别图像的脸部特征匹配的候选对象,第一识别结果指示的目标对象属于上述多个候选对象之一。若第一识别结果指示的目标对象和第二识别结果指示的候选对象一致,将第一识别结果或第二识别结果作为对待识别图像的脸部识别结果。若第一识别结果指示的目标对象是第二识别结果指示的多个候选对象中的一个,将第一识别结果作为对待识别图像的脸部识别结果。该方法可以使两个分支相互验证识别结果的准确性。
在一些实施例中,若第二识别结果指示的候选对象与第一识别结果指示的目标对象不一致,还根据待识别图像获得用于训练分类模型的脸部样本图像。当第二识别结果指示的候选对象与第一识别结果指示的目标对象不一致时,可以人工确定待识别图像的脸部特征是否属于第一识别结果指示的目标对象,如果待识别图像的脸部特征不属于第一识别结果指示的目标对象,则说明第一识别结果错误,待识别图像的脸部特征不属于该目标对象,可以将待识别图像作为用于训练分类模型的负样本,或根据待识别图像生成用于训练分类模型的负样本。如果待识别图像的脸部特征属于第一识别结果指示的目标对象,则可以将待识别图像作为用于训练分类模型的正样本,或根据待识别图像生成用于训练分类模型的正样本。
作为本申请实施例的一种变型,脸部识别方法的执行过程还可以如图6所示,包括如下步骤:
步骤S601,提取待识别图像的脸部特征。
步骤S602,将脸部特征输入已训练的分类模型,得到分类模型输出的脸部特征所属的分类类别。
其中,分类模型是根据至少一个目标对象的脸部样本图像集训练得到的,每个目标对象的脸部样本图像集包括该目标对象在不同拍摄状态的多张脸部样本图像,每个目标对象对应一个分类类别。
步骤S603,根据脸部特征所属的分类类别,获得待识别图像的第一识别结果。
步骤S604,判断第一识别结果是否获得脸部特征对应的目标对象;若是,执行步骤S608,若否,执行步骤S605。
步骤S605,将脸部特征与保存的各个脸部数据进行相似度比对。
其中,每个脸部数据对应一个候选对象,可以预先保存多个候选对象的脸部数据。
步骤S606,根据相似度比对结果,获得待识别图像的第二识别结果。第二识别结果用于指示与待识别图像的脸部特征匹配的候选对象。
在一种可选的实施例中,保存的脸部数据可以是根据候选对象的人脸图像得到的脸部特征。可以直接计算待识别图像的脸部特征与保存的候选对象的脸部特征的相似度值,基于该相似度值,确定第二识别结果。例如,上述的待识别图像的脸部特征和候选对象的脸部特征均可以理解为特征向量。可以采用距离度量函数计算待识别图像的脸部特征与候选对象的脸部特征之间的相似度值。距离度量函数可以是但不限于欧式距离函数(如L2距离函数)、曼哈顿距离函数、夹角余弦函数、切比雪夫距离函数、汉明距离函数或马氏距离函数中的一种。如果得到的相似度值大于或等于设定相似度值,则认为待识别图像的脸部特征与该候选对象的脸部特征匹配。如果得到的相似度值小于设定相似度值,则认为待识别图像的脸部特征与该候选对象的脸部特征不匹配。示例性地,设定相似度值可以是80%或90%。
在另一种可选的实施例中,保存的脸部数据可以是根据候选对象的人脸图像,可以先通过特征提取网络对候选对象的人脸图像进行特征提取,得到候选对象的脸部特征,再计算待识别图像的脸部特征与该候选对象的脸部特征的相似度值,基于该相似度值,确定第二识别结果。
步骤S607,将第二识别结果作为对待识别图像的脸部识别结果。
若第一识别结果未获得待识别图像的脸部特征对应的目标对象,则将第二识别结果作为对待识别图像的脸部识别结果。若第二识别结果也未获得与待识别图像的脸部特征相对应的候选对象,则认为待识别图像中不包含设定的目标对象以及候选对象。
步骤S608,将第一识别结果作为对待识别图像的脸部识别结果。
若第一识别结果获得待识别图像的脸部特征对应的目标对象,则将第一识别结果作为对待识别图像的脸部识别结果。
作为本申请实施例的另一种变型,脸部识别方法的执行过程还可以如图7所示,包括如下步骤:
步骤S701,提取待识别图像的脸部特征。
步骤S702,将脸部特征与保存的各个脸部数据进行相似度比对。
其中,每个脸部数据对应一个候选对象,可以预先保存多个候选对象的脸部数据。
步骤S703,根据相似度比对结果,获得待识别图像的第二识别结果。
第二识别结果用于指示与待识别图像的脸部特征匹配的候选对象。具体地,可以将相似度值达到设定相似度值的脸部数据对应的候选对象作为与待识别图像的脸部特征匹配的候选对象,因此,第二识别结果可以包括一个或多个与待识别图像的脸部特征匹配的候选对象。
步骤S704,判断第二识别结果指示的候选对象是否多于一个;若是,执行步骤S705;若否,执行步骤S708。
步骤S705,将脸部特征输入已训练的分类模型,得到分类模型输出的脸部特征所属的分类类别。
若第二识别结果指示的候选对象包括至少两个,将脸部特征输入已训练的分类模型,分类模型是根据至少一个目标对象的脸部样本图像集训练得到的,每个目标对象的脸部样本图像集包括该目标对象在不同拍摄状态的多张脸部样本图像,每个目标对象对应一个分类类别。目标对象是从候选对象中选择的对象。
步骤S706,根据脸部特征所属的分类类别,获得待识别图像的第一识别结果。
步骤S707,将第一识别结果作为对待识别图像的脸部识别结果。
步骤S708,将第二识别结果作为对待识别图像的脸部识别结果。
若第二识别结果指示的候选对象仅包括一个或未获得与待识别图像的脸部特征匹配的候选对象,将第二识别结果作为对待识别图像的脸部识别结果。
为了使特征提取网络可以直接应用于脸部识别,从待识别图像中准确地提取出脸部特征,需要预先对特征提取网络进行训练。对特征提取网络进行训练的过程包括:获取大量的脸部图像作为训练图像,获取每一张训练图像的标注特征。将训练图像输入特征提取网络,得到训练图像对应的脸部特征。将训练图像对应的脸部特征和训练图像的标注特征进行对比,得到特征提取网络的损失值。基于损失值对全局特征提取网络的参数进行训练。
在上述训练过程中,计算损失值时使用的损失函数可以是但不限于多分类交叉熵损失函数、与度量学习相关的对比损失函数(contrastive Loss)或三元组损失函数(triplet Loss)等。
为了使分类模型能够针对设定的目标对象准确地进行分类,需要预先对分类模型进行训练。本申请实施例还提供了一种分类模型的训练方法。如图8所示,该训练方法包括如下步骤:
步骤S801,获取训练数据集。
训练数据集中包括正样本和负样本,正样本包括至少一个目标对象的脸部样本图像集,负样本包括非目标对象的脸部样本图像,每张脸部样本图像均标注有类别标签,正样本的类别标签用于指示该脸部样本图像对应的目标对象,负样本的类别标签用于指示该脸部样本图像不对应任何一个目标对象。
每个目标对象的脸部样本图像集包括该目标对象在不同拍摄状态的多张脸部样本图像,包括但不限于目标对象的侧脸、小脸或模糊状态的脸部图像。为了使正负样本更加均衡,在目标对象的脸部样本图像集中,可以增加根据目标对象的脸部图像生成的目标对象的脸部样本图像作为正样本。
为了提升分类模型区分目标对象与非目标对象的能力,使训练得到的分类模型分辨性更强,可以增加更具有针对性的负样本,例如,可以收集容易被其它脸部识别模型误识别为目标对象的非目标对象的脸部样本图像,添加至负样本中,或者根据容易被误识别为目标对象的脸部样本图像,生成非目标对象的脸部样本图像,添加至负样本中。
步骤S802,从训练数据集中随机抽取脸部样本图像。
步骤S803,提取脸部样本图像的脸部特征。
可以采用已训练的特征提取网络提取脸部样本图像的脸部特征。
步骤S804,将脸部样本图像的脸部特征输入分类模型,得到脸部样本图像的识别结果。该识别结果用于指示脸部样本图像的脸部特征对应的分类类别。
步骤S805,根据脸部样本图像的识别结果与脸部样本图像的类别标签,确定损失值。
在计算损失值时,损失函数可以采用Center Loss函数,不仅要有助于准确分类,而且不同类别之间要有一定距离,即类间距离大的同时,使类内距离小,从而提升每个目标对象的脸部特征的辨识度。
步骤S806,判断损失值是否收敛至预设的期望值;如果是,执行步骤S808;如果否,执行步骤S807。
步骤S807,根据损失值对分类模型的参数进行调整。
调整模型参数后,返回执行步骤S802,继续下一轮的训练过程。
步骤S808,将当前参数作为分类模型的参数,得到已训练的分类模型。
如果分类模型的损失值收敛至设定的期望值,则将当前参数作为分类模型的参数,得到已训练的分类模型。
在一些实施例中,分类模型为用于分类的卷积神经网络,步骤S804中的脸部样本图像的识别结果为所述脸部特征匹配各个目标对象的概率。将脸部样本图像的脸部特征输入卷积神经网络,可以得到脸部特征匹配各个目标对象的概率,作为脸部样本图像的识别结果。根据脸部样本图像的识别结果与脸部样本图像的类别标签,确定损失值。
在另一些实施例中,若分类模型为包括至少一个SVM分类器,步骤S704中的脸部样本图像的识别结果为每个SVM分类器输出的判定结果。
具体地,若设定的目标对象为一个,分类模型包括一个SVM分类器,可以获取目标对象的脸部样本图像集作为正样本,脸部样本图像集中包括在不同拍摄状态的多张脸部样本图像,并获取非目标对象的脸部样本图像作为负样本,正样本与负样本共同组成训练数据集。其中,正样本的类别标签用于指示该脸部样本图像属于目标对象,负样本的类别标签用于指示该脸部样本图像不属于目标对象。从训练数据集中随机抽取脸部样本图像,提取脸部样本图像的脸部特征,将脸部样本图像的脸部特征输入SVM分类器,得到SVM分类器输出的判定结果。该判定结果为真或假,判定结果为真,表示该脸部样本图像属于目标对象,判定结果为假,表示该脸部样本图像不属于目标对象。根据脸部样本图像的判定结果与脸部样本图像的类别标签,确定损失值,并根据损失值对分类模型的参数进行调整。
若设定的目标对象为多个,分类模型包括多个SVM分类器,每个SVM分类器的参数可能不同,可以单独对每个SVM分类器进行训练,也可以采用同一训练数据集对多个SVM分类器进行训练。例如,目标对象为三个,分别为目标对象A、目标对象B、目标对象C。分别获取每个目标对象在不同拍摄状态的多张脸部样本图像,组成该目标对象的脸部样本图像集,并获取非目标对象的脸部样本图像,共同组成训练数据集。即训练数据集中包括目标对象A的脸部样本图像集、目标对象B的脸部样本图像集、目标对象C的脸部样本图像集和非目标对象的脸部样本图像。
在对目标对象A对应的SVM分类器进行训练时,将目标对象A的脸部样本图像集中的脸部样本图像作为正样本,标注正样本的类别标签,将目标对象B的脸部样本图像集、目标对象C的脸部样本图像集以及非目标对象的脸部样本图像作为负样本,标注负样本的类别标签,对SVM分类器进行训练,得到目标对象A对应的SVM分类器。
在对目标对象B对应的SVM分类器进行训练时,将目标对象B的脸部样本图像集中的脸部样本图像作为正样本,标注正样本的类别标签,将目标对象A的脸部样本图像集、目标对象C的脸部样本图像集以及非目标对象的脸部样本图像作为负样本,标注负样本的类别标签,对SVM分类器进行训练,得到目标对象B对应的SVM分类器。
在对目标对象C对应的SVM分类器进行训练时,将目标对象C的脸部样本图像集中的脸部样本图像作为正样本,标注正样本的类别标签,将目标对象A的脸部样本图像集、目标对象B的脸部样本图像集以及非目标对象的脸部样本图像作为负样本,标注负样本的类别标签,对SVM分类器进行训练,得到目标对象C对应的SVM分类器。
在一些实施例中,当一轮分类模型的训练结束后,可以通过新闻图片等获取多张测试用脸部图像,并标注类别标签,用于对已训练的分类模型的识别效果进行检验,检验的具体过程可以是,将多张测试用脸部图像的脸部特征分别输入分类模型,得到分类模型输出的测试用脸部图像的识别结果。将得到的测试用脸部图像的识别结果与测试用脸部图像的类别标签进行对比,计算损失值,得到多个损失值,求取多个损失值的平均损失值,判断平均损失值是否小于或等于设定值,若是,说明分类模型达到预期效果,检验通过,若否,说明分类模型未达到预期效果,检验未通过。
如果分类模型未达到预期效果,可以向训练数据集中添加正样本或负样本,采用添加样本后的训练数据集对分类模型继续进行训练。添加的正样本可以是训练过程中被误识别的目标对象的脸部样本图像,即本来是目标对象的脸部图像,却被识别为不是目标对象的脸部图像。添加的负样本为训练过程中被误识别的非目标对象的脸部样本图像,即本来不是目标对象的脸部图像,却被识别为目标对象的脸部图像。添加被误识别的样本继续对分类模型进行训练,可以加速分类模型的收敛,并提高分类模型的辨识度及识别准确度。
在使用分类模型进行脸部识别的过程中,如果目标对象发生的变更,例如,增加了新的目标对象,或者某个目标对象被找到,可以删除该目标对象;可以根据变更后的目标对象重新对分类模型进行训练。还可以将使用过程中被分类模型误识别为目标对象的脸部图像作为负样本添加到训练数据集中,对分类模型进行训练。
利用获取的多张测试用脸部图像对本申请实施例提供的分类模型和现有技术的脸部识别模型的效果进行检验,得到两种模型对应的ROC(receiver operatingcharacteristic curve,受试者工作特征曲线)如图9所示。其中,横坐标表示假正例率,指被误识别为目标对象的脸部样本图像占所有被识别为目标对象的脸部样本图像的比率。纵坐标表示真正例率,指被正确识别为目标对象的脸部样本图像在所有目标对象的脸部样本图像中所占的比率。一般采用ROC曲线下的面积表示模型的识别准确度。依据ROC曲线下的面积,由图9可见,本申请实施例提供的分类模型与现有技术的脸部识别模型相比,其识别准确度提高明显。
需要说明的是,上述各个方法实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
与上述脸部识别方法的实施例相对应地,本申请实施例还提供了一种脸部识别装置。图10为本申请实施例的提供的脸部识别装置的结构示意图;如图10所示,该脸部识别装置包括特征提取单元101和身份识别单元102。其中,特征提取单元101,用于提取待识别图像的脸部特征;
身份识别单元102,用于根据待识别图像的脸部特征,确定所述脸部特征对应于各目标对象的类别分数值;基于各目标对象分别对应的类别分数值,获得所述待识别图像的第一识别结果;所述第一识别结果用于指示所待识别图像中脸部特征对应的目标对象。
在一种可选的实施例中,身份识别单元102,还可以用于:
将脸部特征输入已训练的分类模型,得到分类模型输出的所述脸部特征对应于各目标对象的类别分数值,其中,分类模型是根据至少一个目标对象的脸部样本图像集训练得到的,每个目标对象的脸部样本图像集包括该目标对象在不同拍摄状态的多张脸部样本图像。
在一种可选的实施例中,身份识别单元102,还可以用于:
将脸部特征与保存的各个脸部数据进行相似度比对,每个脸部数据对应一个候选对象;
根据相似度比对结果,获得待识别图像的第二识别结果,第二识别结果用于指示与脸部特征匹配的候选对象;以及
根据第一识别结果和第二识别结果,确定对待识别图像的脸部识别结果。
在一种可选的实施例中,身份识别单元102,还可以用于:在确认第二识别结果指示的候选对象包括至少两个之后,将脸部特征输入已训练的分类模型;以及将第一识别结果作为对待识别图像的脸部识别结果。
在一种可选的实施例中,身份识别单元102,还可以用于:在确认根据分类模型未获得脸部特征的分类类别之后,将脸部特征与待比对脸部数据进行相似度比对。
在一种可选的实施例中,分类模型为用于分类的卷积神经网络,或者,分类模型包括至少一个SVM分类器,每个SVM分类器对应一个目标对象,不同的SVM分类器对应不同的目标对象,每个SVM分类器用于根据输入的脸部特征输出判定结果,判定结果为脸部特征匹配该SVM分类器对应的目标对象的类别分数值。
在一种可选的实施例中,如图11所示,脸部识别装置还包括模型训练单元111,用于:
从训练数据集中抽取脸部样本图像;训练数据集中包括正样本和负样本,正样本包括至少一个目标对象的脸部样本图像集,负样本包括非目标对象的脸部样本图像;每张脸部样本图像均标注有类别标签,正样本的类别标签用于指示该脸部样本图像对应的目标对象,负样本的类别标签用于指示该脸部样本图像不对应任何一个目标对象;
提取脸部样本图像的脸部特征;
将脸部样本图像的脸部特征输入分类模型,得到脸部样本图像的识别结果;
根据脸部样本图像的识别结果与脸部样本图像的类别标签,确定损失值;
根据损失值对分类模型的参数进行调整,直至损失值收敛至预设的期望值为止,得到已训练的分类模型。
在一种可选的实施例中,若分类模型为用于分类的卷积神经网络,脸部样本图像的识别结果为脸部特征匹配各个目标对象的概率;
若分类模型为包括至少一个SVM分类器,脸部样本图像的识别结果为每个SVM分类器输出的判定结果。
在一种可选的实施例中,模型训练单元111,还可以用于:
若已训练的分类模型未达到预期效果,向训练数据集中添加正样本或负样本;添加的正样本为训练过程中被误识别为非目标对象的脸部样本图像,添加的负样本为训练过程中被误识别为目标对象的脸部样本图像;
采用添加样本后的训练数据集对分类模型继续进行训练。
在一种可选的实施例中,模型训练单元111,还可以用于:
若第二识别结果指示的候选对象与第一识别结果指示的目标对象不一致,根据待识别图像获得用于训练分类模型的脸部样本图像。
本申请实施例的脸部识别装置,将待识别图像的脸部特征输入已训练的分类模型,得到分类模型输出的该脸部特征所属的分类类别,根据脸部特征所属的分类类别,获得待识别图像的第一识别结果,该第一识别结果用于指示待识别图像对应的目标对象。其中,分类模型是根据至少一个目标对象的脸部样本图像集训练得到的,每个目标对象的脸部样本图像集包括该目标对象在不同拍摄状态的多张脸部样本图像。通过每个目标对象在不同拍摄状态的多张脸部样本图像对分类模型进行训练,可以使得到的分类模型准确识别出设定的目标对象处于不同拍摄状态的脸部图像,提高对设定的目标对象的识别准确率。无论待识别图像中包含设定的目标对象的正脸、侧脸或远距离拍摄的小脸,分类模型均可以从待识别图像中识别出设定的目标对象,从而提高从待识别图像中识别出设定的目标对象的机率。
与上述分类模型的训练方法的实施例相对应地,本申请实施例还提供了分类模型的训练装置,训练得到的分类模型可以应用于上述脸部识别方法的实施例中。图12为本申请实施例的提供的分类模型的训练装置的结构示意图;如图12所示,该分类模型的训练装置包括样本获取单元121、训练单元122和参数调整单元123。其中,
样本获取单元121,用于从训练数据集中抽取脸部样本图像;训练数据集中包括正样本和负样本,正样本包括至少一个目标对象的脸部样本图像集,负样本包括非目标对象的脸部样本图像,每张脸部样本图像均标注有类别标签,正样本的类别标签用于指示该脸部样本图像对应的目标对象,负样本的类别标签用于指示该脸部样本图像不对应任何一个目标对象;
训练单元122,用于提取脸部样本图像的脸部特征;将脸部样本图像的脸部特征输入分类模型,得到脸部样本图像的识别结果;根据脸部样本图像的识别结果与脸部样本图像的类别标签,确定损失值;
参数调整单元123,用于根据损失值对分类模型的参数进行调整,直至损失值收敛至预设的期望值为止,得到已训练的分类模型。
在一种可选的实施例中,若分类模型为用于分类的卷积神经网络,脸部样本图像的识别结果为脸部特征匹配各个目标对象的概率;
若分类模型为包括至少一个SVM分类器,脸部样本图像的识别结果为每个SVM分类器输出的判定结果。
在一种可选的实施例中,样本获取单元121,还可以用于:
若已训练的分类模型未达到预期效果,向训练数据集中添加正样本或负样本;添加的正样本为训练过程中被误识别为非目标对象的脸部样本图像,添加的负样本为训练过程中被误识别为目标对象的脸部样本图像。
与上述方法实施例相对应地,本申请实施例还提供了一种电子设备。该电子设备可以是服务器,如图1中所示的服务器12,也可以是移动终端或计算机等电子设备,该电子设备至少包括用于存储数据的存储器和用于数据处理的处理器。其中,对于用于数据处理的处理器而言,在执行处理时,可以采用微处理器、CPU、GPU(Graphics Processing Unit,图形处理单元)、DSP或FPGA实现。对于存储器来说,存储器中存储有操作指令,该操作指令可以为计算机可执行代码,通过该操作指令来实现上述本申请实施例的脸部识别方法或分类模型的训练方法的流程中的各个步骤。
图13为本申请实施例提供的一种电子设备的结构示意图;如图13所示,本申请实施例中该电子设备130包括:处理器131、显示器132、存储器133、输入设备136、总线135和通讯模块134;该处理器131、存储器133、输入设备136、显示器132和通讯模块134均通过总线135连接,该总线135用于该处理器131、存储器133、显示器132、通讯模块134和输入设备136之间传输数据。
其中,存储器133可用于存储软件程序以及模块,如本申请实施例中的脸部识别方法或分类模型的训练方法对应的程序指令/模块,处理器131通过运行存储在存储器133中的软件程序以及模块,从而执行电子设备130的各种功能应用以及数据处理,如本申请实施例提供的脸部识别方法。存储器133可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个应用的应用程序等;存储数据区可存储根据电子设备130的使用所创建的数据(比如待识别图像、训练好的网络模型等相关数据)等。此外,存储器133可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器131是电子设备130的控制中心,利用总线135以及各种接口和线路连接整个电子设备130的各个部分,通过运行或执行存储在存储器133内的软件程序和/或模块,以及调用存储在存储器133内的数据,执行电子设备130的各种功能和处理数据。可选的,处理器131可包括一个或多个处理单元,如CPU、GPU(Graphics Processing Unit,图形处理单元)、数字处理单元等。
本申请实施例中,处理器131将脸部识别的结果通过显示器132展示给用户。
处理器131还可以通过通讯模块134连接网络,获取待识别图像,如摄像头采集的现场图像等。
该输入设备136主要用于获得用户的输入操作,当该电子设备不同时,该输入设备136也可能不同。例如,当该电子设备为计算机时,该输入设备136可以为鼠标、键盘等输入设备;当该电子设备为智能手机、平板电脑等便携设备时,该输入设备136可以为触控屏。
本申请实施例还提供了一种计算机存储介质,该计算机存储介质中存储有计算机可执行指令,该计算机可执行指令用于实现本申请任一实施例所述的脸部识别方法。
本申请实施例还提供了一种计算机存储介质,该计算机存储介质中存储有计算机可执行指令,该计算机可执行指令用于实现本申请任一实施例所述的分类模型的训练方法。
在一些可能的实施方式中,本申请提供的脸部识别方法的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在计算机设备上运行时,所述程序代码用于使所述计算机设备执行本说明书上述描述的根据本申请各种示例性实施方式的脸部识别方法的步骤,例如,所述计算机设备可以执行如图3所示的步骤S301~S305中的脸部识别流程。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本申请各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。

Claims (15)

1.一种脸部识别方法,其特征在于,包括:
提取待识别图像的脸部特征;
根据待识别图像的脸部特征,确定所述脸部特征对应于各目标对象的类别分数值;
基于各目标对象分别对应的类别分数值,获得所述待识别图像的第一识别结果;所述第一识别结果用于指示所述待识别图像中脸部特征对应的目标对象。
2.根据权利要求1所述的方法,其特征在于,所述根据待识别图像的脸部特征,确定所述脸部特征对应于各目标对象的类别分数值,包括:
将所述脸部特征输入已训练的分类模型,得到所述分类模型输出的所述脸部特征对应于各目标对象的类别分数值,其中,所述分类模型是根据至少一个目标对象的脸部样本图像集训练得到的,每个目标对象的脸部样本图像集包括该目标对象在不同拍摄状态的多张脸部样本图像。
3.根据权利要求1所述的方法,其特征在于,所述提取待识别图像的脸部特征之后,所述方法还包括:
将所述脸部特征与保存的各个脸部数据进行相似度比对,每个脸部数据对应一个候选对象;
根据相似度比对结果,获得所述待识别图像的第二识别结果,所述第二识别结果用于指示与所述脸部特征匹配的候选对象;
所述获得所述待识别图像的第一识别结果之后,所述方法还包括:
根据所述第一识别结果和所述第二识别结果,确定对所述待识别图像的脸部识别结果。
4.根据权利要求3所述的方法,其特征在于,所述将所述脸部特征输入已训练的分类模型之前,所述方法还包括:
确认所述第二识别结果指示的候选对象包括至少两个;
所述根据所述第一识别结果和所述第二识别结果,确定对所述待识别图像的脸部识别结果,包括:
将所述第一识别结果作为对所述待识别图像的脸部识别结果。
5.根据权利要求3所述的方法,其特征在于,所述将所述脸部特征与待比对脸部数据进行相似度比对之前,所述方法还包括:
确认所述第一识别结果指示未获得所述脸部特征对应的目标对象。
6.根据权利要求3所述的方法,其特征在于,所述方法还包括:
若所述第二识别结果指示的候选对象与所述第一识别结果指示的目标对象不一致,根据所述待识别图像获得用于训练所述分类模型的脸部样本图像。
7.根据权利要求2~6任一项所述的方法,其特征在于,所述分类模型为用于分类的卷积神经网络,或者,所述分类模型包括至少一个SVM分类器,每个SVM分类器对应一个目标对象,不同的SVM分类器对应不同的目标对象,每个所述SVM分类器用于根据输入的脸部特征输出判定结果,所述判定结果为所述脸部特征匹配该SVM分类器对应的目标对象的类别分数值。
8.根据权利要求2~6任一项所述的方法,其特征在于,所述分类模型的训练过程,包括:
从训练数据集中抽取脸部样本图像;所述训练数据集中包括正样本和负样本,所述正样本包括至少一个目标对象的脸部样本图像集,所述负样本包括非目标对象的脸部样本图像;每张脸部样本图像均标注有类别标签,正样本的类别标签用于指示该脸部样本图像对应的目标对象,负样本的类别标签用于指示该脸部样本图像不对应任何一个目标对象;
提取脸部样本图像的脸部特征;
将脸部样本图像的脸部特征输入分类模型,得到脸部样本图像的识别结果;
根据脸部样本图像的识别结果与脸部样本图像的类别标签,确定损失值;
根据损失值对所述分类模型的参数进行调整,直至所述损失值收敛至预设的期望值为止,得到已训练的分类模型。
9.根据权利要求8所述的方法,其特征在于,若所述分类模型为用于分类的卷积神经网络,所述脸部样本图像的识别结果为所述脸部特征匹配各个目标对象的类别分数值;
若所述分类模型为包括至少一个SVM分类器,所述脸部样本图像的识别结果为每个SVM分类器输出的判定结果,所述判定结果为所述脸部特征匹配该SVM分类器对应的目标对象的类别分数值。
10.根据权利要求8所述的方法,其特征在于,所述分类模型的训练过程,还包括:
若已训练的分类模型未达到预期效果,向所述训练数据集中添加正样本或负样本;添加的正样本为训练过程中被误识别的目标对象的脸部样本图像,添加的负样本为训练过程中被误识别的非目标对象的脸部样本图像;
采用添加样本后的训练数据集对所述分类模型继续进行训练。
11.一种分类模型的训练方法,其特征在于,所述分类模型应用于权利要求1~7任一项所述的脸部识别方法,所述训练方法包括:
从训练数据集中抽取脸部样本图像;所述训练数据集中包括正样本和负样本,所述正样本包括至少一个目标对象的脸部样本图像集,每个目标对象的脸部样本图像集包括该目标对象在不同拍摄状态的多张脸部样本图像,所述负样本包括非目标对象的脸部样本图像,每张脸部样本图像均标注有类别标签,正样本的类别标签用于指示该脸部样本图像对应的目标对象,负样本的类别标签用于指示该脸部样本图像不对应任何一个目标对象;
提取脸部样本图像的脸部特征;
将脸部样本图像的脸部特征输入分类模型,得到脸部样本图像的识别结果;
根据脸部样本图像的识别结果与脸部样本图像的类别标签,确定损失值;
根据损失值对所述分类模型的参数进行调整,直至所述损失值收敛至预设的期望值为止,得到已训练的分类模型。
12.一种脸部识别装置,其特征在于,包括:
特征提取单元,用于提取待识别图像的脸部特征;
身份识别单元,用于根据待识别图像的脸部特征,确定所述脸部特征对应于各目标对象的类别分数值;基于各目标对象分别对应的类别分数值,获得所述待识别图像的第一识别结果;所述第一识别结果用于指示所待识别图像中脸部特征对应的目标对象。
13.一种分类模型的训练装置,其特征在于,所述分类模型应用于权利要求1~7任一项所述的脸部识别方法,所述训练装置包括:
样本获取单元,用于从训练数据集中抽取脸部样本图像;所述训练数据集中包括正样本和负样本,所述正样本包括至少一个目标对象的脸部样本图像集,所述负样本包括非目标对象的脸部样本图像,每张脸部样本图像均标注有类别标签,正样本的类别标签用于指示该脸部样本图像对应的目标对象,负样本的类别标签用于指示该脸部样本图像不对应任何一个目标对象;
训练单元,用于提取脸部样本图像的脸部特征;将脸部样本图像的脸部特征输入分类模型,得到脸部样本图像的识别结果;根据脸部样本图像的识别结果与脸部样本图像的类别标签,确定损失值;
参数调整单元,用于根据损失值对所述分类模型的参数进行调整,直至所述损失值收敛至预设的期望值为止,得到已训练的分类模型。
14.一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,其特征在于:所述计算机程序被处理器执行时,实现权利要求1~10任一项或权利要求11所述的方法。
15.一种电子设备,其特征在于,包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的计算机程序,当所述计算机程序被所述处理器执行时,使得所述处理器实现权利要求1~10任一项或权利要求11所述的方法。
CN202010010341.2A 2020-01-06 2020-01-06 脸部识别方法、分类模型的训练方法、装置和存储介质 Pending CN111126346A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010010341.2A CN111126346A (zh) 2020-01-06 2020-01-06 脸部识别方法、分类模型的训练方法、装置和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010010341.2A CN111126346A (zh) 2020-01-06 2020-01-06 脸部识别方法、分类模型的训练方法、装置和存储介质

Publications (1)

Publication Number Publication Date
CN111126346A true CN111126346A (zh) 2020-05-08

Family

ID=70486988

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010010341.2A Pending CN111126346A (zh) 2020-01-06 2020-01-06 脸部识别方法、分类模型的训练方法、装置和存储介质

Country Status (1)

Country Link
CN (1) CN111126346A (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111666838A (zh) * 2020-05-22 2020-09-15 吉林大学 一种改进的残差网络猪脸识别方法
CN111753757A (zh) * 2020-06-28 2020-10-09 浙江大华技术股份有限公司 一种图像识别处理方法及装置
CN111783718A (zh) * 2020-07-10 2020-10-16 浙江大华技术股份有限公司 目标对象状态识别方法、装置、存储介质及电子装置
CN111814810A (zh) * 2020-08-11 2020-10-23 Oppo广东移动通信有限公司 图像识别方法、装置、电子设备及存储介质
CN112257670A (zh) * 2020-11-16 2021-01-22 北京爱笔科技有限公司 一种图像处理模型、机器学习模型的训练方法及装置
CN112766351A (zh) * 2021-01-12 2021-05-07 云南电网有限责任公司电力科学研究院 一种图像质量的评估方法、系统、计算机设备和存储介质
CN112966724A (zh) * 2021-02-07 2021-06-15 惠州市博实结科技有限公司 一种图像单类别分类的方法及装置
CN113033689A (zh) * 2021-04-07 2021-06-25 新疆爱华盈通信息技术有限公司 图像分类方法、装置、电子设备及存储介质
CN113243018A (zh) * 2020-08-01 2021-08-10 商汤国际私人有限公司 目标对象的识别方法和装置
CN113420631A (zh) * 2021-06-17 2021-09-21 广联达科技股份有限公司 一种基于图像识别的安全报警方法及装置
CN113435311A (zh) * 2021-06-24 2021-09-24 平安国际智慧城市科技股份有限公司 动物识别方法、动物识别装置、计算机设备及存储介质
CN113780472A (zh) * 2021-09-29 2021-12-10 北京金山云网络技术有限公司 模型训练样本生成方法、装置、存储介质以及电子设备
CN113947701A (zh) * 2021-10-18 2022-01-18 北京百度网讯科技有限公司 训练方法、对象识别方法、装置、电子设备以及存储介质
CN114758530A (zh) * 2022-04-28 2022-07-15 浙江理工大学 一种婴幼儿面孔能力训练程序及训练方法
TWI794132B (zh) * 2022-09-19 2023-02-21 威盛電子股份有限公司 偵測誤判物件的系統

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101339607A (zh) * 2008-08-15 2009-01-07 北京中星微电子有限公司 人脸识别方法及系统、人脸识别模型训练方法及系统
CN106503687A (zh) * 2016-11-09 2017-03-15 合肥工业大学 融合人脸多角度特征的监控视频人物身份识别系统及其方法
CN109117801A (zh) * 2018-08-20 2019-01-01 深圳壹账通智能科技有限公司 人脸识别的方法、装置、终端及计算机可读存储介质
CN109190561A (zh) * 2018-09-04 2019-01-11 四川长虹电器股份有限公司 一种视频播放中的人脸识别方法及系统
CN109815801A (zh) * 2018-12-18 2019-05-28 北京英索科技发展有限公司 基于深度学习的人脸识别方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101339607A (zh) * 2008-08-15 2009-01-07 北京中星微电子有限公司 人脸识别方法及系统、人脸识别模型训练方法及系统
CN106503687A (zh) * 2016-11-09 2017-03-15 合肥工业大学 融合人脸多角度特征的监控视频人物身份识别系统及其方法
CN109117801A (zh) * 2018-08-20 2019-01-01 深圳壹账通智能科技有限公司 人脸识别的方法、装置、终端及计算机可读存储介质
CN109190561A (zh) * 2018-09-04 2019-01-11 四川长虹电器股份有限公司 一种视频播放中的人脸识别方法及系统
CN109815801A (zh) * 2018-12-18 2019-05-28 北京英索科技发展有限公司 基于深度学习的人脸识别方法及装置

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111666838B (zh) * 2020-05-22 2023-04-18 吉林大学 一种改进的残差网络猪脸识别方法
CN111666838A (zh) * 2020-05-22 2020-09-15 吉林大学 一种改进的残差网络猪脸识别方法
CN111753757A (zh) * 2020-06-28 2020-10-09 浙江大华技术股份有限公司 一种图像识别处理方法及装置
CN111753757B (zh) * 2020-06-28 2021-06-18 浙江大华技术股份有限公司 一种图像识别处理方法及装置
CN111783718A (zh) * 2020-07-10 2020-10-16 浙江大华技术股份有限公司 目标对象状态识别方法、装置、存储介质及电子装置
CN113243018A (zh) * 2020-08-01 2021-08-10 商汤国际私人有限公司 目标对象的识别方法和装置
CN111814810A (zh) * 2020-08-11 2020-10-23 Oppo广东移动通信有限公司 图像识别方法、装置、电子设备及存储介质
CN112257670A (zh) * 2020-11-16 2021-01-22 北京爱笔科技有限公司 一种图像处理模型、机器学习模型的训练方法及装置
CN112766351A (zh) * 2021-01-12 2021-05-07 云南电网有限责任公司电力科学研究院 一种图像质量的评估方法、系统、计算机设备和存储介质
CN112966724A (zh) * 2021-02-07 2021-06-15 惠州市博实结科技有限公司 一种图像单类别分类的方法及装置
CN112966724B (zh) * 2021-02-07 2024-04-09 惠州市博实结科技有限公司 一种图像单类别分类的方法及装置
CN113033689A (zh) * 2021-04-07 2021-06-25 新疆爱华盈通信息技术有限公司 图像分类方法、装置、电子设备及存储介质
CN113420631A (zh) * 2021-06-17 2021-09-21 广联达科技股份有限公司 一种基于图像识别的安全报警方法及装置
CN113435311B (zh) * 2021-06-24 2023-11-28 平安国际智慧城市科技股份有限公司 动物识别方法、动物识别装置、计算机设备及存储介质
CN113435311A (zh) * 2021-06-24 2021-09-24 平安国际智慧城市科技股份有限公司 动物识别方法、动物识别装置、计算机设备及存储介质
CN113780472A (zh) * 2021-09-29 2021-12-10 北京金山云网络技术有限公司 模型训练样本生成方法、装置、存储介质以及电子设备
CN113947701A (zh) * 2021-10-18 2022-01-18 北京百度网讯科技有限公司 训练方法、对象识别方法、装置、电子设备以及存储介质
CN113947701B (zh) * 2021-10-18 2024-02-23 北京百度网讯科技有限公司 训练方法、对象识别方法、装置、电子设备以及存储介质
CN114758530A (zh) * 2022-04-28 2022-07-15 浙江理工大学 一种婴幼儿面孔能力训练程序及训练方法
CN114758530B (zh) * 2022-04-28 2023-08-08 浙江理工大学 一种婴幼儿面孔能力训练程序及训练方法
TWI794132B (zh) * 2022-09-19 2023-02-21 威盛電子股份有限公司 偵測誤判物件的系統

Similar Documents

Publication Publication Date Title
CN111126346A (zh) 脸部识别方法、分类模型的训练方法、装置和存储介质
Jiao et al. A survey of deep learning-based object detection
He et al. Multi-scale FCN with cascaded instance aware segmentation for arbitrary oriented word spotting in the wild
US11188783B2 (en) Reverse neural network for object re-identification
Liu et al. Learning efficient spatial-temporal gait features with deep learning for human identification
CN108470332B (zh) 一种多目标跟踪方法及装置
Ding et al. Violence detection in video by using 3D convolutional neural networks
Nazir et al. Evaluating a bag-of-visual features approach using spatio-temporal features for action recognition
Murtaza et al. Multi‐view human action recognition using 2D motion templates based on MHIs and their HOG description
Jiang et al. Recognizing human actions by learning and matching shape-motion prototype trees
Hoang Ngan Le et al. Robust hand detection and classification in vehicles and in the wild
WO2021139324A1 (zh) 图像识别方法、装置、计算机可读存储介质及电子设备
Wang et al. Video event recognition with deep hierarchical context model
Wang et al. Hierarchical context modeling for video event recognition
Wang et al. Abnormal behavior detection in videos using deep learning
Dawar et al. Continuous detection and recognition of actions of interest among actions of non-interest using a depth camera
CN111291863B (zh) 换脸鉴别模型的训练方法、换脸鉴别方法、装置和设备
Vignesh et al. Abnormal event detection on BMTT-PETS 2017 surveillance challenge
Pan et al. Robust basketball sports recognition by leveraging motion block estimation
Sahoo et al. 3D Features for human action recognition with semi‐supervised learning
Naseer et al. Pixels to precision: features fusion and random forests over labelled-based segmentation
Jiang et al. A unified tree-based framework for joint action localization, recognition and segmentation
Weng et al. Action recognition using length-variable edge trajectory and spatio-temporal motion skeleton descriptor
El‐Henawy et al. Action recognition using fast HOG3D of integral videos and Smith–Waterman partial matching
CN114519863A (zh) 人体重识别方法、人体重识别装置、计算机设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination