CN109564618B - 用于面部图像分析的方法和系统 - Google Patents
用于面部图像分析的方法和系统 Download PDFInfo
- Publication number
- CN109564618B CN109564618B CN201780042954.0A CN201780042954A CN109564618B CN 109564618 B CN109564618 B CN 109564618B CN 201780042954 A CN201780042954 A CN 201780042954A CN 109564618 B CN109564618 B CN 109564618B
- Authority
- CN
- China
- Prior art keywords
- facial
- age
- input image
- image
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001815 facial effect Effects 0.000 title claims abstract description 303
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000010191 image analysis Methods 0.000 title claims description 44
- 238000012795 verification Methods 0.000 claims abstract description 59
- 238000013527 convolutional neural network Methods 0.000 claims description 81
- 238000012549 training Methods 0.000 claims description 25
- 210000001061 forehead Anatomy 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 description 56
- 230000006870 function Effects 0.000 description 25
- 238000004458 analytical method Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 18
- 238000004590 computer program Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 238000012706 support-vector machine Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000037303 wrinkles Effects 0.000 description 4
- 230000032683 aging Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000009758 senescence Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/175—Static expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/178—Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一个实施例提供了一种方法,该方法包括:接收第一输入图像和第二输入图像。每个输入图像包括个体的面部图像。对于每个输入图像,基于“基于学习的模型”来区分面部图像的第一面部区域集合与面部图像的第二面部区域集合。第一面部区域集合包括年龄不变面部特征,以及第二面部区域集合包括年龄敏感面部特征。该方法还包括:通过基于每个输入图像的第一面部区域集合执行面部验证来确定第一输入图像和第二输入图像是否包括相同个体的面部图像。
Description
技术领域
一个或多个实施例总体上涉及面部分析,且具体地涉及用于显著面部区域检测的学习模型。
背景技术
个体的面部图像传达了大量的人口统计面部信息,例如情绪、表情、身份、年龄、性别、种族等。因此,面部图像分析在多个领域的各种各样的应用中是重要的,例如安保、执法、娱乐、人机交互(HCI)系统和人工智能(AI)系统。
存在不同类型的面部图像分析任务,例如面部验证和年龄估计。与其他面部区域相比,一些面部区域对于一些面部图像分析任务可能更重要。例如,对于年龄估计,分析随年龄变化的面部区域。相比之下,对于面部验证,分析年龄不变面部区域(例如眼睛、鼻子、嘴等)。然而,随年龄变化的面部区域(例如,具有皱纹的前额等)对于面部验证是没有帮助的,因为在年龄和身份之间可能出现冲突的面部图案。在某些面部区域中表现出年龄变化的面部图像通常导致面部容貌的差异增加,由此增加了执行具有年龄变化的面部验证(即表现出较大年龄间隔的面部图像之间的面部匹配)的难度。用于改善跨年龄面部识别的一种传统解决方案是面部合成(即面部建模)。在面部合成中,输入的面部图像被合成到目标年龄。然而,如果衰老图案未知,则很难准确地合成和模拟不可预测的衰老进程。用于改善跨年龄面部识别的另一种传统解决方案是自动识别年龄不变面部区域。
发明内容
【技术问题】
传统上,由于某些面部区域的重要性对于不同的面部图像分析任务发生变化,所以利用不同的独特框架来执行不同的面部图像分析任务。不存在可以处理多个冲突的面部图像分析任务的现有框架。
附图说明
图1示出了一个或多个实施例中用于实现面部分析系统的示例计算架构;
图2A详细示出了一个或多个实施例中的初始化和训练系统;
图2B详细示出了一个或多个实施例中的面部分析系统;
图3示出了一个或多个实施例中的面部分析系统的示例深度神经网络;
图4示出了一个或多个实施例中的深度神经网络的示例配置;
图5示出了一个或多个实施例中的深度神经网络的另一示例配置;
图6示出了一个或多个实施例中的深度神经网络的另一示例配置;
图7示出了一个或多个实施例中的面部分析系统的另一示例框架;
图8是一个或多个实施例中用于执行冲突的面部图像分析任务的示例过程的流程图;以及
图9是示出了包括用于实现所公开的实施例的计算机系统在内的信息处理系统的高级框图。
具体实施方式
【最佳实施方式】
一个实施例提供了一种方法,该方法包括:接收第一输入图像和第二输入图像。每个输入图像包括个体的面部图像。对于每个输入图像,基于“基于学习的模型”来区分面部图像的第一面部区域集合与面部图像的第二面部区域集合。第一面部区域集合包括年龄不变面部特征,以及第二面部区域集合包括年龄敏感面部特征。该方法还包括:通过基于每个输入图像的第一面部区域集合执行面部验证来确定第一输入图像和第二输入图像是否包括相同个体的面部图像。
将参考下面的描述、所附权利要求和附图来理解一个或多个实施例的这些以及其他特征、方面和优点。
【具体实施方式】
下面的描述出于示出一个或多个实施例的一般原理的目的而做出,但不意味着限制本文中要求保护的发明构思。此外,本文中所描述的特定特征可以用各种可能的组合和排列中的每一种方式与其他描述的特征组合使用。除非本文中另外明确地定义,否则将给予所有术语它们最广泛的可能的解释,包括从说明书暗示的含义以及本领域技术人员理解和/或在字典、论文等中定义的含义。
在本说明书中,术语“年龄标签”用于一般地指代以下信息:基于从个体的面部图像的一个或多个年龄敏感面部区域中提取的一个或多个特征来指示个体的年龄的信息。可以将年龄标签分类为基于观察数据的实际/已知的年龄标签或基于信念数据的估计/预测的年龄标签。
在本说明书中,术语“面部验证”用于一般地指代比较个体的两个面部图像以确定面部图像是否捕捉相同个体的面部图像分析任务。
在本说明书中,术语“年龄估计”用于一般地指代确定在面部图像中捕捉的个体的估计/预测的年龄的面部图像分析任务。
在本说明书中,术语“跨面部年龄验证”用于一般地指代比较个体在不同年龄的两个面部图像以确定面部图像是否捕捉到相同个体的面部图像分析任务。
一个或多个实施例总体上涉及面部分析,且具体地涉及用于显著的面部区域检测的学习模型。一个实施例提供了一种方法,该方法包括:接收第一输入图像和第二输入图像。每个输入图像包括个体的面部图像。对于每个输入图像,基于“基于学习的模型”来区分面部图像的第一面部区域集合与面部图像的第二面部区域集合。第一面部区域集合包括年龄不变面部特征,以及第二面部区域集合包括年龄敏感面部特征。该方法还包括:通过基于每个输入图像的第一面部区域集合执行面部验证来确定第一输入图像和第二输入图像是否包括相同个体的面部图像。
由于某些面部区域的重要性对于不同的面部图像分析任务发生变化,所以一个实施例提供了一种可以用于冲突的面部图像分析任务的单个框架。该框架增强了不同面部图像分析任务(例如,面部验证、年龄估计、面部合成等)的性能。该框架提供端到端网络,用于从与给定的面部图像分析任务有关的一个或多个面部区域中提取具体的人口统计面部信息,并排除与该任务无关的一个或多个其他面部区域。端到端网络是被配置为执行不同的面部图像分析任务的自动流水线。例如,为了合成男性的面部图像,端到端网络专注于从男性的性别敏感面部区域中而不是从整个面部中提取面部信息。
在一个示例实现方式中,端到端网络利用学习面部特征的联合深度神经网络。对联合深度神经网络进行训练以同时学习相关学习任务集合。在训练之后,可以使用联合深度神经网络来解决冲突的面部图像分析任务,因为从某个学习任务中学习到的特征也可能与另一个学习任务有关。例如,可以将面部验证设置为主要任务,并且可以将年龄估计设置为辅助任务。在一个实施例中,端到端网络包括连体(Siamese)深度神经网络,连体深度神经网络包括共享相同的参数(例如权重)的两个耦合的深度卷积神经网络(CNN)。可以将对比损失用于面部验证,并且可以将soft-max函数用于年龄估计。
一个实施例提供了一种基于学习的模型,用于自动的显著面部区域检测。该基于学习的模型可以用于冲突的面部图像分析任务。基于学习的模型可以用于定位与具体的面部图像分析任务有关的显著的面部区域,由此增加人口统计面部信息感知的准确性。例如,对于面部验证,可以使用基于学习的模型从年龄不变面部区域中提取面部信息。相比之下,对于年龄估计,可以使用相同的基于学习的模型从年龄敏感面部区域(即,具有年龄变化的面部区域)中提取面部信息。
一个实施例提供了一种用于年龄估计和身份估计这二者的多任务框架。该框架可以对不同的面部衰老基准数据集(例如MORPH和FG-NET)来应用。考虑年龄变化的面部验证(即,在表现出大年龄间隔的面部图像之间进行面部匹配)可以具有广泛的应用,例如(但不限于)寻找失踪人员(例如,在很长一段时间之后识别被拐卖的儿童)和其他司法领域。
图1示出了一个或多个实施例中用于实现面部分析系统100的示例计算架构10。计算架构10包括初始化和训练系统40,该初始化和训练系统40包括计算硬件,例如(但不限于)一个或多个处理器设备41和一个或多个存储设备42。计算架构10还包括面部分析系统100,面部分析系统100包括计算硬件,例如(但不限于)一个或多个处理器设备110和一个或多个存储设备120。如稍后在本文中详细描述的,一个或多个应用可以在一个或多个处理器设备41上执行/操作,以创建、初始化和迭代地训练由面部分析系统100维护的基于学习的模型130(图2B)。基于学习的模型130提供可以用于冲突的面部图像分析任务的单个框架。
面部分析系统100被配置为接收输入图像50(例如,个体的面部图像、对象的图像等),并提供包括与输入图像50有关的信息在内的输出55(例如,在输入图像50中捕捉的个体的估计/预测的年龄等)。
在一个实施例中,计算架构10是集中式计算架构。在另一实施例中,计算架构10是分布式计算架构
在一个实施例中,在移动电子设备(例如平板电脑、智能电话、膝上型电脑等)上实现面部分析系统100。移动电子设备可以包括用于捕捉输入图像50的一个或多个传感器(例如相机等)。
图2A详细示出了一个或多个实施例中的初始化和训练系统40。如上所述,一个或多个应用可以在初始化和训练系统40的一个或多个处理器设备41(图1)上执行/操作。在一个实施例中,应用包括(但不限于)以下各项:(1)初始化单元45,被配置为利用面部分析系统100的计算硬件(例如,图1中所示出的一个或多个处理器设备110和/或一个或多个存储设备120)来创建和初始化面部分析系统100的基于学习的模型130(图2B),以及(2)训练单元46,被配置为迭代地训练基于学习的模型130。在一个实施例中,初始化和训练系统40的存储设备42维护一个或多个数据库。该数据库包括(但不限于)数据库集合47,其维护用于创建、初始化和训练基于学习的模型130的参数。
图2B详细示出了一个或多个实施例中的面部分析系统100。如上所述,面部分析系统100包括基于学习的模型130,其提供可以用于冲突的面部图像分析任务的单个框架。
在一个实施例中,基于学习的模型130包括端到端深度神经网络250(图3)。如稍后在本文中详细描述的,深度神经网络250包括一个或多个卷积神经网络(CNN),其中,每个CNN包括多个加权层,并且每个层包括经由多个突触连接来互连的多个神经元。每个层接受一个输入,并将输入变换为输出,输出被转发到后续层(如果有后续层的话)。该数据库集合47(图2A)维护用于创建、初始化和训练深度神经网络250的每个层的网络参数(例如权重等)。
在另一实施例中,基于学习的模型130包括一个或多个支持向量机(SVM)(图7)。
以下提供的表1包括识别本说明书中引用的不同参数的列表。
【表1】
图3示出了一个或多个实施例中的面部分析系统的示例深度神经网络250。在一个实施例中,深度神经网络250是包括两个耦合的深度CNN的连体深度神经网络。具体地,深度神经网络250包括第一CNN260A和第二CNN 260B。
在训练阶段中,训练深度神经网络250以同时学习任务集合T(例如回归、分类等)。为了利用集合T的任务之间的相关性来改善所有任务的推广性能,深度神经网络250实现了联合学习过程,以强制使对集合T中的一个任务的学习发生偏置,并强制通过对集合T中的一个或多个其他任务的学习来使其偏置,由此允许在任务之间传送有用的预测知识。在训练阶段之后,可以将深度神经网络250用于解决冲突的任务(例如,冲突的面部图像分析任务),因为在训练阶段期间从一个任务中学习到的特征也可能与另一任务有关。例如,如果集合T包括面部验证和年龄估计,则针对年龄估计所学习的指示年龄的人口统计面部信息可以对面部的感知有用,并且可以与面部验证有关。
在一个实施例中,根据以下提供的等式(1)来联合优化集合T的所有任务的损失函数:
其中,耦合项强制执行知识传送。不同的耦合项可以传达关于任务如何彼此有关的不同假设。如果针对集合T的每个任务对耦合项/>进行解耦,则对任务的学习也解耦,导致没有有效的知识传送。
以上所提供的等式(1)表示由深度神经网络250实现的多任务学习目标。
在训练阶段中,学习关注于集合T中被指定为主要任务的子集上;集合T的剩余子集被指定为辅助任务。可以基于若干因素(例如(但不限于)任务的数据的可用性、任务的描述符的可用性等)来确定关于将集合T的哪个任务指定为主要任务。例如,如果集合T包括面部验证,则可以将面部验证指定为主要任务,因为存在可用于面部验证的大量面部图像。相比之下,如果集合T包括跨年龄面部识别,则跨年龄面部识别不太可能被指定为主要任务,因为可用于跨年龄面部识别的数据是有限的,并且获得实际/已知的年龄标签是具有挑战性的。
每个CNN 260A、260B对应于集合T中的至少一个任务。例如,可以训练每个CNN260A、260B以学习主要任务(例如面部验证)和辅助任务(例如年龄估计)。
在部署阶段中,深度神经网络250被配置为:(1)接收一个或多个输入图像50和对应的元数据,(2)对接收到的一个或多个输入图像50执行集合T的一个或多个任务,以及(3)基于所执行的一个或多个任务,提供与接收到的一个或多个输入图像50有关的一个或多个输出55。如果集合T包括面部图像分析任务,则一个或多个输入图像50可以包括相同个体的不同面部图像(例如,捕捉相同个体在不同年龄的面部图像以表现年龄间隔)或不同个体的不同面部图像。对于每个面部图像,面部图像的对应元数据可以包括对应的真实信息,对应的真实信息包括指示面部图像中的个体的实际年龄的实际年龄标签。
所执行的任务的数量和所提供的输出55的数量各自基于接收到的输入图像50的数量。例如,如果仅将一个输入图像50馈送到深度神经网络250用于在部署阶段中处理,则深度神经网络250对输入图像50执行至少一个任务,并基于所执行的至少一个任务来提供与输入图像50有关的至少一个输出55。在一个示例实现方式中,深度神经网络250对输入图像50执行年龄估计,并提供包括在输入图像50中捕捉的个体的估计/预测的年龄在内的单个输出55。在另一示例实现方式中,深度神经网络250对输入图像50执行面部验证和年龄估计这二者,并提供两个不同的输出—指示输入图像50和预存储/缺省的图像是否捕捉相同个体的第一输出55和包括在输入图像50中捕捉的个体的估计/预测的年龄在内的第二输出55。
作为另一示例,如果将多个输入图像50馈送到深度神经网络250用于在部署阶段中处理,则深度神经网络250对输入图像50执行多个任务,并提供与输入图像50有关的多个不同的输出55。在一个示例实现方式中,如果输入图像50包括第一输入图像50和第二输入图像50,则深度神经网络250对第一输入图像50和第二输入图像50执行面部验证和年龄估计这二者,并提供三个不同的输出55—指示第一输入图像50和第二输入图像50是否捕捉相同个体的第一输出55、包括第一输入图像50中捕捉的个体的估计/预测的年龄在内的第二输出55和包括第二输入图像50中捕捉的个体的估计/预测的年龄在内的第三输出55。
即使可用于任务的数据是有限的,深度神经网络250也被配置为生成足够的训练数据,因为深度神经网络250是连体(Siamese)深度神经网络。例如,对于在输入图像中捕捉的个体/对象,深度神经网络250可以生成相应的正样本对集合和相应的负样本对集合。对于面部验证,正样本对可以包括相同个体/对象的一对面部图像,且负样本对可以包括不同的个体/对象的一对面部图像。
例如,如果集合T包括面部图像分析任务并且存在个体可用的n个不同面部图像,则深度神经网络250可以生成Cn2正样本对,其中,C是正整数。
在一个实施例中,可以最小化对比(即判别)损失函数以减小相同的个体/对象的图像之间的差异并增加不同的个体/对象的图像之间的差异。在一个实施例中,对于一对输入图像(i,j),可以根据以下提供的等式(2)来定义用于估计面部验证的损失的对比损失函数LF:
其中,m是正数,其中,Dij表示根据以下提供的等式(2.1)来定义的特征距离:
其中,根据以下提供的等式(2.2)来定义:
其中,对于不同的个体/对象,Zij=1(即,i和j是负样本对),以及对于相同的个体/对象,Zij=0(即,i和j是正样本对)。正数m用作余量(margin)以确保负样本对的能量函数比正样本对的能量函数大至少m。对比损失函数LF包括两个惩罚:(1)对相距太远的正样本对进行惩罚的第一惩罚ZijDij,以及(2)对比余量m近的负样本对进行惩罚的第二惩罚max(m-Dij,0)。如果负样本对已经分开了余量m,则针对该对没有惩罚。
在一个实施例中,每个CNN 260A、260B包括用于学习对于集合T来说共有的中级特征的公共中间层集合265。例如,在训练阶段中,训练每个CNN 260A、260B的每个公共中间层集合265以学习与主要任务和辅助任务均有关的中级特征。
在一个实施例中,每个CNN 260A、260B的每个公共中间层集合265共享网络参数(例如,第一公共中间层集合265的权重参数与第二公共中间层集合265的权重参数相同)。
在一个实施例中,每个CNN 260A、260B还包括不同的独立层集合266。每个独立层266对应于集合T的任务,并被训练以学习与对应的任务有关的特征。不同的独立层266不在集合T的不同任务之间共享。例如,在训练阶段,训练每个CNN 260A、260B的一个独立层266A以学习与主要任务(例如面部验证)有关的特征。此外,训练每个CNN 260A、260B的不同的独立层266B以学习与辅助任务(例如年龄估计)有关的特征。如图3所示,每个CNN 260A、260B的每个公共中间层集合265连接CNN 260A、260B的每个独立层266。
在部署阶段中,每个CNN 260A、260B的不同的独立层266提供不同的输出。具体地,每个CNN 260A、260B的每个独立层266提供与对应的任务有关的输出。例如,每个CNN 260A、260B的每个独立层266A提供与主要任务(例如面部验证)有关的输出55。每个CNN 260A、260B的每个独立层266B提供与辅助任务(例如年龄估计)有关的输出55。
在一个实施例中,每个CNN 260A、260B的独立层266A和266B具有不同的网络参数(例如,独立层266A的权重参数与独立层266B的权重参数不同)。在一个实施例中,每个CNN260A、260B的每个独立层266A共享网络参数(例如,CNN 260A的独立层266A的权重参数与CNN 260B的独立层266A的权重参数相同)。在一个实施例中,每个CNN 260A、260B的每个独立层266B共享网络参数(例如,CNN 260A的独立层266B的权重参数与CNN 260B的独立层266B的权重参数相同)。
除了不同的独立层266之外,第一CNN 260A和第二CNN 260B具有相同的网络架构并且彼此共享网络参数,以便于在集合T的任务之间传送有用的预测知识。
图4示出了一个或多个实施例中的深度神经网络250的示例配置270。假设集合T包括面部验证和年龄估计。在示例配置270中,面部验证被指定为主要任务,且年龄估计被指定为辅助任务。在一个实施例中,用于训练深度神经网络250的多任务学习目标可以根据以下提供的等式(3)来表示:
其中,α表示指示辅助任务的重要性的可调/可配置的参数,且α∈(0,1)。
每个CNN 260A、260B的每个公共中间层集合265包括一个或多个卷积层265A(例如,每个卷积层C1、C2)和一个或多个全连接层265B(例如,每个全连接层fc6、fc7)。如图4所示,每个CNN 260A、260B的每个公共中间层集合265共享网络参数(例如,每个卷积层C1的权重参数w1、每个卷积层C2的权重参数w2、每个全连接层fc6的权重参数w6、每个全连接层fc7的权重参数w7、每个全连接层fc8的权重参数w8、每个全连接层fc9的权重参数w9等)。
在训练阶段中,训练每个CNN 260A、260B的每个公共中间层集合265以学习对于学习任务的集合来说共有的中级特征。例如,在训练阶段中,训练每个CNN 260A、260B的每个公共中间层集合265以学习与面部验证和年龄估计均有关的中级特征。
在训练阶段中,训练每个CNN 260A、260B的每个独立层268(例如,每个全连接层fc8)以学习从与面部验证有关的年龄不变面部区域(例如眼睛、鼻子、嘴等)中提取的特征。此外,训练每个CNN 260A、260B的每个独立层269(例如,每个全连接层fc9)以学习从与年龄估计有关的年龄敏感面部区域(例如具有皱纹的前额等)中提取的特征。
对于特定的年龄范围(例如,20至29岁),一些面部区域可能不改变很大(例如,该年龄范围中的个体的前额可能没有皱纹)。在一个实施例中,对于该特定的年龄范围,针对面部验证来训练深度神经网络250以学习从这些面部区域中提取的特征。然而,对于不同的较老的年龄范围(例如,30至39岁),这些相同的面部区域可能改变很多(例如,在该不同的较老的年龄范围中的个体的前额可能有皱纹)。因此,对于这个不同的较老的年龄范围,不针对面部验证来训练深度神经网络250以学习从这些相同的面部区域中提取的特征。
在一个实施例中,深度神经网络250可以利用附加因素(例如人种、性别和环境因素(例如照明等))以改善性能。
在一个实施例中,对于集合T中的每个任务,深度神经网络250包括用于确定与任务有关的损失的相应独立层266。例如,如图4所示,利用每个独立层268来确定与面部验证有关的损失(例如对比损失),并利用每个独立层269来确定与年龄估计有关的损失(例如softmax函数)。
深度神经网络250的独立层268和269提供不同的输出。具体地,每个独立层268提供与面部验证有关的输出268A(验证损失)。每个独立层269提供与年龄估计有关的输出269A(年龄损失)。例如,响应于接收到用于在部署阶段中处理的第一输入图像50(图像1)和第二输入图像50(图像2),深度神经网络250提供三个不同的输出—指示第一输入图像50和第二输入图像50是否捕捉相同个体的第一输出268A、包括第一输入图像50(图像1)中捕捉的个体的估计/预测的年龄信息在内的第二输出269A、以及包括第二输入图像50(图像2)中捕捉的个体的估计/预测的年龄信息在内的第三输出269A。
在一个实施例中,对于由深度神经网络250处理的至少一个面部图像,由深度神经网络250提供的估计/预测的年龄信息可以包括面部图像中捕捉的个体的对应的估计/预测的年龄。例如,估计/预测的年龄信息可以包括以下至少一项:第一输入图像50(图像1)中捕捉的个体的第一估计/预测的年龄和第二输入图像50(图像2)中捕捉的个体的第二估计/预测的年龄。
在一个实施例中,如果一个输入图像50的真实信息(即实际年龄标签)被提供给/可用于深度神经网络250,则对于不同的输入图像50,由深度神经网络250提供的估计/预测的年龄信息可以包括不同的输入图像50中捕捉的个体的相应的估计/预测的年龄。例如,如果第一输入图像50的真实信息(即实际年龄标签)被提供给/可用于深度神经网络250,则对于第二输入图像50,估计/预测的年龄信息可以包括第二输入图像50中捕捉的个体的对应的估计/预测的年龄。
在一个实施例中,年龄估计被实现为分类问题。具体地,独立层269被配置为:(1)将每个实际/已知的年龄标签编码为表示年龄的排他性指示符的多维向量(例如,78维向量),(2)应用sigmoid函数以避免发生梯度溢出问题,以及(3)使用与年龄估计有关的损失(例如softmax损失)来测量估计/预测的年龄标签和真实信息(即实际年龄标签)之间的差异。
在一个实施例中,应用交叉熵函数来确定年龄分类的年龄损失。令i表示包括个体的面部图像在内的样本,且令yi表示个体的实际年龄。在一个实施例中,独立层269根据以下提供的等式(4)来确定指示个体的估计的年龄的估计/预测的年龄标签:
独立层269根据以下提供的等式(5)来确定用于年龄估计的损失函数LA:
针对多个年龄类别中的每个年龄类别,独立层269应用soft-max函数以向年龄类别分配概率。独立层269通过选择具有跨所有年龄类别的最高的分配概率的年龄类别来提供估计/预测的年龄标签作为输出。
除了独立层268和269之外,第一CNN 260A和第二CNN 260B具有相同的网络架构并彼此共享网络参数,以便于在面部验证和年龄估计之间传送有用的预测知识。将独立网络参数应用于独立层268。将独立网络参数/>应用于CNN 260B的独立层269。耦合项R({θF,θv})鼓励相应网络参数的相似值。在一个实施例中,耦合项R({θF,θv})可以根据以下提供的等式(6)来表达:
其中,β表示可配置的参数,其指示从年龄估计向面部验证传送的有用的预测信息的量。参数β还提供有效的正则化,以防止由CNN 260A和CNN 260B之间的自由度降低而导致的过度拟合问题。
基于以上提供的等式(3)和(6),深度神经网络250的多任务学习目标可以表达为以下提供的等式(7):
如果参数β→∞,则CNN 260A的第一公共中间层集合265与CNN 260B的第二公共中间层集合265相同(即,CNN 260A和CNN 260B的共享部分是相同的)。如果参数β→∞,则可以将等式(7)重写为以下提供的等式(8):
其中,θs表示用于年龄估计和面部验证这二者的共享网络参数(即,)。
一个实施例通过联合学习跨面部年龄验证和年龄估计来促进学习跨年龄面部验证。联合学习跨面部年龄验证和年龄估计可以有效地排除对可能无关的某些细粒度特征的学习。此外,联合学习跨面部年龄验证和年龄估计强调使用低级特征(例如一般面部特征)来获得每个任务在更高级的特征信息,由此在维护用于年龄估计的判别衰老的线索的同时成功地保留了用于面部验证的信息。
深度神经网络250可以被配置用于不同的应用用途。一些应用需要更稳健的面部验证系统,例如在执法时。例如,可能有必要在很长一段时间内跟踪罪犯。由于衰老,在该长时间段期间,罪犯的面部容貌可能会改变很多。对于这种以及其他类似的应用,深度神经网络250应用严格的面部验证来识别年龄不变面部区域。
一些应用是多媒体中更加一般的应用,例如电话中的面部验证。例如,由于特定电话的寿命通常少于五年,所以在电话的寿命期间,面部外观可能不改变很多。对于这种以及其他类似的应用,深度神经网络250代之以应用宽松的面部验证。
图5示出了一个或多个实施例中的深度神经网络250的另一示例配置280。假设集合T包括面部验证和表情识别。在示例配置280中,面部验证被指定为主要任务,且表情识别被指定为辅助任务。如图5所示,深度神经网络250的不同的独立层266包括用于对输入图像50中捕捉的面部表情进行分类的至少一个独立层281。每个独立层281提供与表情识别有关的输出281A(表情)。例如,响应于接收到用于在部署阶段中处理的第一输入图像50(图像1)和第二输入图像50(图像2),深度神经网络250提供三个不同的输出—指示第一输入图像50和第二输入图像50是否捕捉相同个体的第一输出268A、包括第一输入图像50(图像1)中捕捉的个体的估计/预测的面部表情分类的第二输出281A、以及包括第二输入图像50(图像2)中捕捉的个体的估计/预测的面部表情分类的第三输出281A。
图6示出了一个或多个实施例中的深度神经网络250的另一示例配置290。假设集合T包括对象识别和模糊检测。在示例配置290中,对象识别被指定为主要任务,且模糊检测被指定为辅助任务。如图6所示,深度神经网络250的不同的独立层266包括用于确定输入图像50是假阳性(FP)还是模糊的至少一个独立层291。每个独立层291提供与模糊检测有关的输出291A(FP/模糊)。例如,响应于接收到用于在部署阶段中处理的第一输入图像50(图像1)和第二输入图像50(图像2),深度神经网络250提供三个不同的输出—指示第一输入图像50和第二输入图像50是否捕捉相同的对象的第一输出268A、指示第一输入图像50(图像1)是FP还是模糊的第二输出291A、以及指示第二输入图像50(图像2)是FP还是模糊的第三输出291A。
在另一个实施例中,代替深度神经网络,基于学习的模型130(图2B)利用基于面部区块的分类器(facial patch based classifier)来提取显著的面部区域。图7示出了一个或多个实施例中用于面部分析系统100的另一示例框架300。基于学习的模型130包括一个或多个支持向量机(SVM)分类器310。在训练阶段中,训练SVM分类器310以从捕捉面部的输入图像中提取不同的面部区块。针对不同的面部区块来训练不同的SVM分类器310。每个面部区块具有被训练以学习面部区块的对应的SVM分类器310。
面部分析系统100的确定单元320被配置为针对每个面部区块应用交叉验证,以评估用于面部区块的对应的SVM分类器310的识别性能。基于由SVM分类器310导致的输出,面部分析系统100的置信度测量单元330被配置为评估不同的面部区块的重要性。例如,具体的面部区域可能与具体的任务有关,且基于具体任务的识别性能来对这些面部区域进行排名。面部分析系统100的输出单元340被配置为:基于被确定为与具体任务有关的排名最高的面部区域的组合,提供包括与具体任务有关的信息(例如身份、性别、人种、种族等)在内的最终输出。
图8是一个或多个实施例中用于执行冲突的面部图像分析任务的示例过程800的流程图。在处理框801中,接收第一输入图像和第二输入图像。在处理框802中,针对每个输入图像,基于“基于学习的模型”和输入图像的面部图像来区分面部图像的第一面部区域集合与面部图像的第二面部区域集合,其中,第一面部区域集合包括一个或多个年龄不变面部特征,且第二面部区域集合包括一个或多个年龄敏感面部特征。在处理框803中,基于至少一个面部区域集合来并发执行冲突的面部图像分析任务。例如,可以基于包括一个或多个年龄不变面部特征在内的每个面部区域集合和包括一个或多个年龄敏感面部特征在内的每个面部区域集合来并发执行面部验证和年龄估计。
在一个实施例中,过程框801~803可以由面部分析系统100来执行。
图9是示出了包括用于实现所公开的实施例的计算机系统600在内的信息处理系统的高级框图。可以在显示设备300或服务器设备210中并入每个系统40、100。计算机系统600包括一个或多个处理器601,并且还可以包括电子显示设备602(用于显示视频、图形、文本和其他数据)、主存储器603(例如,随机存取存储器(RAM))、存储设备604(例如,硬盘驱动器)、可移除存储设备605(例如可移除存储驱动器、可移除存储器模块、磁带驱动器、光盘驱动器、其中存储有计算机软件和/或数据的计算机可读介质)、查看器接口设备606(例如键盘、触摸屏、键区、指示设备)和通信接口607(例如调制解调器、网络接口(例如以太网卡)、通信端口或PCMCIA插槽和卡)。通信接口607允许在计算机系统和外部设备之间传送软件和数据。系统600还包括通信基础设施608(例如,通信总线、交叉棒(cross-over bar)或网络),前述设备/模块601至607连接到该通信基础设施608。
经由通信接口607传送的信息可以具有信号的形式,例如电信号、电磁信号、光学信号或能够经由通信链路通过通信接口607来接收的其他信号,该通信链路承载信号并且可以使用电线或电缆、光纤、电话线路、蜂窝电话链路、射频(RF)链路和/或其他通信信道来实现。表示本文中的框图和/或流程图的计算机程序指令可以被加载到计算机、可编程数据处理装置或处理设备上,以使得在其上执行一系列操作,以生成计算机实现的过程。
已经参考方法、装置(系统)和计算机程序产品的流程图图示和/或框图来描述实施例。这些图示/图中的每个框或其组合可以通过计算机程序指令来实现。当将其提供给处理器时,计算机程序指令产生机器,使得经由处理器执行的指令创建用于实现流程图和/或框图中规定的功能/操作的装置。流程图/框图中的每个框可以表示硬件和/或软件模块或逻辑。在备选的实现方式中,框中记录的功能可以不以图中所示的顺序发生、可以并发地发生等。
术语“计算机程序介质”、“计算机可用介质”、“计算机可读介质”和“计算机程序产品”一般用于指代诸如主存储器、辅存储器、可移除存储驱动器、安装在硬盘驱动器中的硬盘之类的介质和信号。这些计算机程序产品是用于向计算机系统提供软件的装置。计算机可读介质允许计算机系统从计算机可读介质读取数据、指令、消息或消息分组以及其他计算机可读信息。计算机可读介质例如可以包括非易失性存储器,例如软盘、ROM、闪存、磁盘驱动器存储器、CD-ROM和其他永久性存储。其例如用于在计算机系统之间传输诸如数据和计算机指令之类的信息。计算机程序指令可被存储在计算机可读介质中,计算机可读介质可以指导计算机、其他可编程数据处理装置或其他设备按照特定的方式作用,使得计算机可读介质中存储的指令产生制造物品,该制造物品包括实现流程图和/或一个或多个框图框中规定的功能/动作的指令。
本领域技术人员应认识到:实施例的各方面可以体现为系统、方法或计算机程序产品。因此,实施例的各方面可以采取全硬件实施例、全软件实施例(包括固件、驻留软件、微代码等)或组合了软件和硬件方面的实施例的形式,它们在本文中可以统称为“电路”、“模块”或“系统”。此外,实施例的各方面可以采取在一个或多个计算机可读介质中体现的计算机程序产品的形式,一个或多个计算机可读介质具有其上体现的计算机可读程序代码。
可以利用一个或多个计算机可读介质的任何组合。计算机可读介质可以是计算机可读存储介质。计算机可读存储介质可以是例如(但不限于)电、磁、光、电磁、红外或半导体系统、装置或设备、或者前述各项的任何合适的组合。计算机可读存储介质的更具体的示例(非穷尽性列表)将包括以下各项:具有一个或多个电线的电连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或闪存)、光纤、便携式高密度盘只读存储器(CD-ROM)、光学存储设备、磁存储设备、或前述各项的任何合适的组合。在本文档的上下文中,计算机可读存储介质可以是任何有形介质,该任何有形介质可以包含或存储由指令执行系统、装置或设备使用或与指令执行系统、装置或设备相关的程序。
可以用一种或多种编程语言的任何组合来编写用于执行一个或多个实施例的各方面的操作的计算机程序代码,该一种或多种编程语言包括面向对象的编程语言(例如Java、Smalltalk、C++等)以及传统的程序化编程语言(例如”C”编程语言或类似的编程语言)。程序代码可以完全在用户的计算机上执行,部分在用户的计算机上执行,作为独立软件包来执行,部分在用户计算机上且部分在远程计算机上执行,或完全在远程计算机或服务器上执行。在后一种情况下,远程计算机可以通过任何类型的网络(包括局域网(LAN)或广域网(WAN))连接到用户的计算机,或者可以与外部计算机(例如,通过使用互联网服务提供商的互联网)进行连接。
以上已经参考方法、装置(系统)和计算机程序产品的流程图图示和/或框图描述了一个或多个实施例的各方面。应当理解:流程图图示和/或框图中的每一个框、以及流程图图示和/或框图中的多个框的组合可以通过计算机程序指令来实现。可以将这些计算机程序指令提供给专用计算机或用来产生机器的其他可编程数据处理装置,使得该指令(经由计算机的处理器或其他可编程数据处理装置执行)创建用于实现流程图和/或一个或多个框图框中规定的功能/动作的装置。
也可以将这些计算机程序指令存储在计算机可读介质中,该计算机可读介质可以指导计算机、其他可编程数据处理装置或其他设备以按照特定的方式作用,使得在计算机可读介质中存储的指令来产生制造物品,该制造物品包括实现在流程图和/或一个或多个框图框中规定的功能/动作的指令。
也可以将计算机程序指令加载到计算机、其他可编程数据处理装置或其他设备上,以使得在计算机、其他可编程装置或其他设备上执行一系列操作步骤,以产生计算机实现的过程,使得在计算机或其他可编程装置上执行的指令提供用于实现流程图和/或一个或多个框图框中规定的功能/动作的过程。
附图中的各流程图和框图示出了根据各种实施例的系统、方法和计算机程序产品的可能实现方式的架构、功能和操作。关于这一点,流程图或框图中的每个框可以表示模块、段或指令的一部分,其包括用于实现规定的逻辑功能的一个或多个可执行指令。在一些备选实现方式中,框中记录的功能可以不以图中所示的顺序发生。例如,连续示出的两个框事实上可以是基本同时执行的,或者各框在某些时候会以相反的顺序执行,这取决于所涉及到的功能。还将注意到:框图和/或流程图图示中的每个框以及框图和/或流程图图示中框的组合可以由基于专用硬件的系统来实现,该系统执行指定的功能或动作,或执行专用硬件和计算机指令的组合。
除非明确地阐述,否则权利要求中对单数形式的元素的引用不旨在意指“一个且仅一个”,而是“一个或多个”。本领域普通技术人员目前已知的或者以后知晓的上述示例性实施例的元素的所有结构和功能等同物旨在被本权利要求所涵盖。除非使用短语“用于…的装置”或“用于…的步骤”来明确陈述元素,否则不应按照35U.S.C.第112条第六款的规定来解释本文中的权利要求元素。
本文中所使用的术语仅仅是出于描述特定实施例的目的,而不是旨在限制本发明。如本文中使用的,单数形式“一”,“一个”和“所述”旨在还包括复数形式,除非上下文明确地给出相反的指示。还应理解,术语“包括”和/或“包含”当在本说明书中使用时表明存在所声明的特征、整数、步骤、操作、元素和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元素、组件和/或其组合。
以下权利要求中的所有手段或步骤加功能元素的对应的结构、材料、动作和等同物旨在包括与具体要求保护的其它要求保护的元素相组合地执行该功能的任何结构、材料或动作。已经出于图示和描述的目的而呈现了对实施例的描述,但不旨在以所公开的形式穷举或限制本实施例。在不脱离本发明的范围和精神的情况下,许多修改和变化对于本领域普通技术人员是显而易见的。
尽管已经参考实施例的某些版本描述了实施例;但其它版本是可能的。因此,所附权利要求的精神和范围不应受限于本文中所包含的对优选版本的描述。
Claims (14)
1.一种用于面部图像分析的方法,包括:
接收第一输入图像和第二输入图像,其中,每个输入图像包括个体的面部图像;
对于每个输入图像:
根据基于学习的模型来确定所述面部图像的第一面部区域集合与所述面部图像的第二面部区域集合,其中所述基于学习的模型包括联合的第一卷积神经网络CNN和第二卷积神经网络CNN,并且所述基于学习的模型被训练为学习与不同面部图像分析任务相关的不同面部特征,并且其中,所述第一面部区域集合包括包含一个或多个年龄不变面部特征在内的至少一个面部区域,以及
所述第二面部区域集合包括包含一个或多个年龄敏感面部特征在内的至少一个其他面部区域;
针对面部验证,使用所述第一卷积神经网络CNN和所述包含一个或多个年龄不变面部特征在内的至少一个面部区域来执行第一面部图像分析任务;以及
针对年龄估计,使用所述第二卷积神经网络CNN和所述包含一个或多个年龄敏感面部特征在内的至少一个其他面部区域来执行第二面部图像分析任务,
其中所述第一卷积神经网络CNN和所述第二卷积神经网络CNN中的每个包括第一独立层和第二独立层,
其中所述第一独立层被训练为学习从所述面部图像的第一面部区域集合提取的特征,并且
其中所述第二独立层被训练为学习从所述面部图像的第二面部区域集合提取的特征。
2.根据权利要求1所述的方法,其中,
执行所述第一面部图像分析任务包括:通过基于从与每个输入图像相对应的每个第一面部区域集合提取的至少一个年龄不变面部特征执行面部验证,确定所述第一输入图像和所述第二输入图像是否包括相同个体的面部图像,并且
执行所述第二面部图像分析任务包括:对于每个输入图像,通过基于从与每个输入图像相对应的每个第二面部区域集合提取的至少一个年龄敏感面部特征执行年龄估计,估计在所述输入图像中捕捉的个体的年龄。
3.根据权利要求2所述的方法,其中,并发执行所述年龄估计和所述面部验证。
4.根据权利要求1所述的方法,其中,基于包括相同个体在不同年龄的面部图像在内的一对训练图像,同时训练所述基于学习的模型以区分所述包含一个或多个年龄敏感面部特征在内的至少一个面部区域和所述包含一个或多个年龄不变面部特征在内的至少一个其他面部区域。
5.根据权利要求1所述的方法,其中,包括一个或多个年龄不变面部特征在内的面部区域包括面部的包括眼睛、鼻子或嘴之一在内的区域。
6.根据权利要求1所述的方法,其中,包括一个或多个年龄敏感面部特征在内的面部区域包括面部的包括前额在内的区域。
7.一种用于面部图像分析的系统,包括:
至少一个处理器;以及
存储指令的非暂时性处理器可读存储器设备,所述指令在由所述至少一个处理器执行时使所述至少一个处理器执行包括以下各项在内的操作:
接收第一输入图像和第二输入图像,其中
每个输入图像包括个体的面部图像;
对于每个输入图像:
根据基于学习的模型,确定所述面部图像的第一面部区域集合与所述面部图像的第二面部区域集合,其中所述基于学习的模型包括联合的第一卷积神经网络CNN和第二卷积神经网络CNN,并且所述基于学习的模型被训练为学习与不同面部图像分析任务相关的不同面部特征,并且其中,所述第一面部区域集合包括包含一个或多个年龄不变面部特征在内的至少一个面部区域,以及
所述第二面部区域集合包括包含一个或多个年龄敏感面部特征在内的至少一个其他面部区域;
针对面部验证,使用所述第一卷积神经网络CNN和所述包含一个或多个年龄不变面部特征在内的至少一个面部区域来执行第一面部图像分析任务;以及
针对年龄估计,使用所述第二卷积神经网络CNN和所述包含一个或多个年龄敏感面部特征在内的至少一个其他面部区域来执行第二面部图像分析任务,
其中所述第一卷积神经网络CNN和所述第二卷积神经网络CNN中的每个包括第一独立层和第二独立层,
其中所述第一独立层被训练为学习从所述面部图像的第一面部区域集合提取的特征,并且
其中所述第二独立层被训练为学习从所述面部图像的第二面部区域集合提取的特征。
8.根据权利要求7所述的系统,其中:
执行所述第一面部图像分析任务包括:通过基于从与每个输入图像相对应的每个第一面部区域集合提取的至少一个年龄不变面部特征执行面部验证,确定所述第一输入图像和所述第二输入图像是否包括相同个体的面部图像,并且
执行所述第二面部图像分析任务包括:对于每个输入图像,通过基于从与每个输入图像相对应的每个第二面部区域集合提取的至少一个年龄敏感面部特征执行年龄估计,估计在所述输入图像中捕捉的个体的年龄。
9.根据权利要求8所述的系统,其中,并发执行所述年龄估计和所述面部验证。
10.根据权利要求7所述的系统,其中,基于包括相同个体在不同年龄的面部图像在内的一对训练图像,同时训练所述基于学习的模型以区分所述包含一个或多个年龄敏感面部特征在内的至少一个面部区域和所述包含一个或多个年龄不变面部特征在内的至少一个其他面部区域。
11.一种非暂时性计算机可读存储介质,包括用于执行方法的指令,所述方法包括:
接收第一输入图像和第二输入图像,其中,每个输入图像包括个体的面部图像;
对于每个输入图像:
根据基于学习的模型来确定所述面部图像的第一面部区域集合与所述面部图像的第二面部区域集合,其中所述基于学习的模型包括联合的第一卷积神经网络CNN和第二卷积神经网络CNN,并且所述基于学习的模型被训练为学习与不同面部图像分析任务相关的不同面部特征,并且其中,所述第一面部区域集合包括包含一个或多个年龄不变面部特征在内的至少一个面部区域,以及
所述第二面部区域集合包括包含一个或多个年龄敏感面部特征在内的至少一个其他面部区域;
针对面部验证,使用所述第一卷积神经网络CNN和所述包含一个或多个年龄不变面部特征在内的至少一个面部区域来执行第一面部图像分析任务;以及
针对年龄估计,使用所述第二卷积神经网络CNN和所述包含一个或多个年龄敏感面部特征在内的至少一个其他面部区域来执行第二面部图像分析任务,
其中所述第一卷积神经网络CNN和所述第二卷积神经网络CNN中的每个包括第一独立层和第二独立层,
其中所述第一独立层被训练为学习从所述面部图像的第一面部区域集合提取的特征,并且
其中所述第二独立层被训练为学习从所述面部图像的第二面部区域集合提取的特征。
12.根据权利要求11所述的计算机可读存储介质,其中,
执行所述第一面部图像分析任务包括:通过基于从与每个输入图像相对应的每个第一面部区域集合提取的至少一个年龄不变面部特征执行面部验证,确定所述第一输入图像和所述第二输入图像是否包括相同个体的面部图像,并且
执行所述第二面部图像分析任务包括:对于每个输入图像,通过基于从与每个输入图像相对应的每个第二面部区域集合提取的至少一个年龄敏感面部特征执行年龄估计,估计在所述输入图像中捕捉的个体的年龄。
13.根据权利要求12所述的计算机可读存储介质,其中,并发执行所述年龄估计和所述面部验证。
14.根据权利要求11所述的计算机可读存储介质,其中,基于包括相同个体在不同年龄的面部图像在内的一对训练图像,同时训练所述基于学习的模型以区分所述包含一个或多个年龄敏感面部特征在内的至少一个面部区域和所述包含一个或多个年龄不变面部特征在内的至少一个其他面部区域。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662346208P | 2016-06-06 | 2016-06-06 | |
US62/346,208 | 2016-06-06 | ||
US15/449,266 US10579860B2 (en) | 2016-06-06 | 2017-03-03 | Learning model for salient facial region detection |
US15/449,266 | 2017-03-03 | ||
PCT/KR2017/005862 WO2017213398A1 (en) | 2016-06-06 | 2017-06-05 | Learning model for salient facial region detection |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109564618A CN109564618A (zh) | 2019-04-02 |
CN109564618B true CN109564618B (zh) | 2023-11-24 |
Family
ID=60482288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780042954.0A Active CN109564618B (zh) | 2016-06-06 | 2017-06-05 | 用于面部图像分析的方法和系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10579860B2 (zh) |
EP (1) | EP3461290A4 (zh) |
CN (1) | CN109564618B (zh) |
WO (1) | WO2017213398A1 (zh) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013002903A2 (en) | 2011-06-29 | 2013-01-03 | Alclear, Llc | System and method for user enrollment in a secure biometric verification system |
US10424072B2 (en) | 2016-03-01 | 2019-09-24 | Samsung Electronics Co., Ltd. | Leveraging multi cues for fine-grained object classification |
US10748057B1 (en) | 2016-09-21 | 2020-08-18 | X Development Llc | Neural network modules |
US10552709B2 (en) * | 2016-10-05 | 2020-02-04 | Ecole Polytechnique Federale De Lausanne (Epfl) | Method, system, and device for learned invariant feature transform for computer images |
US10902243B2 (en) * | 2016-10-25 | 2021-01-26 | Deep North, Inc. | Vision based target tracking that distinguishes facial feature targets |
US10565433B2 (en) * | 2017-03-30 | 2020-02-18 | George Mason University | Age invariant face recognition using convolutional neural networks and set distances |
CN107679490B (zh) * | 2017-09-29 | 2019-06-28 | 百度在线网络技术(北京)有限公司 | 用于检测图像质量的方法和装置 |
US10789456B2 (en) * | 2017-12-28 | 2020-09-29 | Adobe Inc. | Facial expression recognition utilizing unsupervised learning |
CN108171209B (zh) * | 2018-01-18 | 2021-07-16 | 中科视拓(北京)科技有限公司 | 一种基于卷积神经网络进行度量学习的人脸年龄估计方法 |
CN110197099B (zh) * | 2018-02-26 | 2022-10-11 | 腾讯科技(深圳)有限公司 | 跨年龄人脸识别及其模型训练的方法和装置 |
CN110580102B (zh) * | 2018-04-12 | 2021-09-24 | Oppo广东移动通信有限公司 | 亮屏方法、装置、移动终端及存储介质 |
WO2019210951A1 (en) * | 2018-05-03 | 2019-11-07 | Telefonaktiebolaget Lm Ericsson (Publ) | Device enrollment using serialized application |
WO2019212568A1 (en) * | 2018-05-04 | 2019-11-07 | Google Llc | Selective detection of visual cues for automated assistants |
EP3608813A4 (en) * | 2018-05-29 | 2020-07-22 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | VERIFICATION SYSTEM, ELECTRONIC DEVICE, VERIFICATION PROCESS, STORAGE MEDIA READABLE BY COMPUTER AND COMPUTER DEVICE |
CN108846342A (zh) * | 2018-06-05 | 2018-11-20 | 四川大学 | 一种唇裂手术标志点识别系统 |
US11527107B1 (en) * | 2018-06-29 | 2022-12-13 | Apple Inc. | On the fly enrollment for facial recognition |
CN109740405B (zh) * | 2018-07-06 | 2021-08-27 | 博云视觉(北京)科技有限公司 | 一种非对齐相似车辆前窗差异信息检测方法 |
US10747989B2 (en) * | 2018-08-21 | 2020-08-18 | Software Ag | Systems and/or methods for accelerating facial feature vector matching with supervised machine learning |
CN110874632B (zh) * | 2018-08-31 | 2024-05-03 | 嘉楠明芯(北京)科技有限公司 | 图像识别处理方法和装置 |
CN109040605A (zh) * | 2018-11-05 | 2018-12-18 | 北京达佳互联信息技术有限公司 | 拍摄引导方法、装置及移动终端和存储介质 |
CN109768944A (zh) * | 2018-12-29 | 2019-05-17 | 苏州联讯仪器有限公司 | 一种基于卷积神经网络的信号调制码型识别方法 |
CN110084142B (zh) * | 2019-04-04 | 2021-09-28 | 广州大学 | 一种用于人脸识别的年龄隐私保护方法及系统 |
CN110321451B (zh) * | 2019-04-25 | 2022-08-05 | 吉林大学 | 基于分布熵增益损失函数的图像检索算法 |
US11636331B2 (en) | 2019-07-09 | 2023-04-25 | International Business Machines Corporation | User explanation guided machine learning |
US11880763B2 (en) * | 2019-09-06 | 2024-01-23 | Intel Corporation | Partially-frozen neural networks for efficient computer vision systems |
WO2021131031A1 (ja) * | 2019-12-27 | 2021-07-01 | 慎太郎 稲垣 | 興行ビジネス方法、興行システム及び認証装置 |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
CN113536871A (zh) * | 2020-04-17 | 2021-10-22 | 纽顿医学美容集团有限公司 | 图像预处理方法、面部皮肤年龄估计方法及电子设备 |
CN111461255B (zh) * | 2020-04-20 | 2022-07-05 | 武汉大学 | 一种基于间隔分布的Siamese网络图像识别方法及系统 |
CN111639535B (zh) * | 2020-04-29 | 2023-08-22 | 深圳英飞拓智能技术有限公司 | 基于深度学习的人脸识别方法及装置 |
CN111611877B (zh) * | 2020-04-30 | 2023-05-02 | 杭州电子科技大学 | 基于多时空信息融合的抗年龄干扰的人脸识别方法 |
CN113761985A (zh) * | 2020-06-05 | 2021-12-07 | 中国科学院上海营养与健康研究所 | 用于确定影响面部衰老程度的局部区域的方法和装置 |
CN111881721B (zh) * | 2020-06-10 | 2021-03-30 | 广东芯盾微电子科技有限公司 | 一种跨年龄的人脸识别方法、系统、装置及存储介质 |
CN111881722B (zh) * | 2020-06-10 | 2021-08-24 | 广东芯盾微电子科技有限公司 | 一种跨年龄人脸识别方法、系统、装置及存储介质 |
CN112101204B (zh) * | 2020-09-14 | 2024-01-23 | 北京百度网讯科技有限公司 | 生成式对抗网络的训练方法、图像处理方法、装置和设备 |
CN112163526B (zh) * | 2020-09-29 | 2022-10-21 | 重庆紫光华山智安科技有限公司 | 一种基于人脸信息进行年龄识别的方法、装置及电子设备 |
CN113327212B (zh) * | 2021-08-03 | 2021-11-12 | 北京奇艺世纪科技有限公司 | 人脸驱动、模型的训练方法、装置、电子设备及存储介质 |
CN115063862B (zh) * | 2022-06-24 | 2024-04-23 | 电子科技大学 | 一种基于特征对比损失的年龄估计方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103503029A (zh) * | 2011-04-11 | 2014-01-08 | 英特尔公司 | 检测面部特性的方法 |
CN104021373A (zh) * | 2014-05-27 | 2014-09-03 | 江苏大学 | 一种半监督语音特征可变因素分解方法 |
CN104537630A (zh) * | 2015-01-22 | 2015-04-22 | 厦门美图之家科技有限公司 | 一种基于年龄估计的图像美颜方法和装置 |
CN104616002A (zh) * | 2015-03-06 | 2015-05-13 | 李志刚 | 用于年龄段判断的面部识别设备 |
CN105574512A (zh) * | 2015-12-21 | 2016-05-11 | 小米科技有限责任公司 | 图像处理的方法和装置 |
Family Cites Families (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6301370B1 (en) | 1998-04-13 | 2001-10-09 | Eyematic Interfaces, Inc. | Face recognition from video images |
AUPQ896000A0 (en) | 2000-07-24 | 2000-08-17 | Seeing Machines Pty Ltd | Facial image processing system |
US7505621B1 (en) * | 2003-10-24 | 2009-03-17 | Videomining Corporation | Demographic classification using image components |
WO2006034256A2 (en) | 2004-09-17 | 2006-03-30 | Cyberextruder.Com, Inc. | System, method, and apparatus for generating a three-dimensional representation from one or more two-dimensional images |
US8732025B2 (en) | 2005-05-09 | 2014-05-20 | Google Inc. | System and method for enabling image recognition and searching of remote content on display |
WO2007035688A2 (en) | 2005-09-16 | 2007-03-29 | The Ohio State University | Method and apparatus for detecting intraventricular dyssynchrony |
US8111904B2 (en) | 2005-10-07 | 2012-02-07 | Cognex Technology And Investment Corp. | Methods and apparatus for practical 3D vision system |
WO2008026414A1 (fr) | 2006-08-31 | 2008-03-06 | Osaka Prefecture University Public Corporation | Procédé de reconnaissance d'image, dispositif de reconnaissance d'image et programme de reconnaissance d'image |
US20080260212A1 (en) | 2007-01-12 | 2008-10-23 | Moskal Michael D | System for indicating deceit and verity |
KR100876786B1 (ko) | 2007-05-09 | 2009-01-09 | 삼성전자주식회사 | 조명 마스크를 이용하는 사용자 얼굴 검증 시스템 및 방법 |
CN107066862B (zh) | 2007-09-24 | 2022-11-25 | 苹果公司 | 电子设备中的嵌入式验证系统 |
US8532344B2 (en) | 2008-01-09 | 2013-09-10 | International Business Machines Corporation | Methods and apparatus for generation of cancelable face template |
EP2224357A1 (en) | 2009-02-27 | 2010-09-01 | BRITISH TELECOMMUNICATIONS public limited company | Video segmentation |
US9208337B2 (en) | 2009-09-22 | 2015-12-08 | Denise G. Tayloe | Systems, methods, and software applications for providing and identity and age-appropriate verification registry |
DE102009049849B4 (de) | 2009-10-19 | 2020-09-24 | Apple Inc. | Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells |
EP2502184A4 (en) | 2009-11-19 | 2017-03-22 | Nokia Corporation | Method and apparatus for tracking and recognition with rotation invariant feature descriptors |
US8818034B2 (en) * | 2009-11-30 | 2014-08-26 | Hewlett-Packard Development Company, L.P. | Face recognition apparatus and methods |
US8526684B2 (en) * | 2009-12-14 | 2013-09-03 | Microsoft Corporation | Flexible image comparison and face matching application |
US8582807B2 (en) * | 2010-03-15 | 2013-11-12 | Nec Laboratories America, Inc. | Systems and methods for determining personal characteristics |
JP2011210139A (ja) | 2010-03-30 | 2011-10-20 | Sony Corp | 画像処理装置および方法、並びにプログラム |
EP2569721A4 (en) | 2010-05-14 | 2013-11-27 | Datalogic Adc Inc | SYSTEMS AND METHODS FOR OBJECT DETECTION USING A LARGE DATABASE |
US8351662B2 (en) | 2010-09-16 | 2013-01-08 | Seiko Epson Corporation | System and method for face verification using video sequence |
EP2437498A1 (en) | 2010-09-30 | 2012-04-04 | British Telecommunications Public Limited Company | Digital video fingerprinting |
US8401225B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Moving object segmentation using depth images |
JP4775515B1 (ja) | 2011-03-14 | 2011-09-21 | オムロン株式会社 | 画像照合装置、画像処理システム、画像照合プログラム、コンピュータ読み取り可能な記録媒体、および画像照合方法 |
WO2012146253A1 (en) | 2011-04-29 | 2012-11-01 | Scape Technologies A/S | Pose estimation and classification of objects from 3d point clouds |
JP5740210B2 (ja) * | 2011-06-06 | 2015-06-24 | 株式会社東芝 | 顔画像検索システム、及び顔画像検索方法 |
US8842163B2 (en) | 2011-06-07 | 2014-09-23 | International Business Machines Corporation | Estimation of object properties in 3D world |
US9336625B2 (en) | 2011-10-25 | 2016-05-10 | Microsoft Technology Licensing, Llc | Object refinement using many data sets |
JP5837232B2 (ja) | 2011-12-27 | 2015-12-24 | インテル・コーポレーション | チューリングテストに基づくユーザ認証ならびにユーザ存在検証のデバイス、および方法 |
US10452894B2 (en) | 2012-06-26 | 2019-10-22 | Qualcomm Incorporated | Systems and method for facial verification |
US9740917B2 (en) | 2012-09-07 | 2017-08-22 | Stone Lock Global, Inc. | Biometric identification systems and methods |
US9031317B2 (en) | 2012-09-18 | 2015-05-12 | Seiko Epson Corporation | Method and apparatus for improved training of object detecting system |
US9311564B2 (en) * | 2012-10-05 | 2016-04-12 | Carnegie Mellon University | Face age-estimation and methods, systems, and software therefor |
JP2014078052A (ja) | 2012-10-09 | 2014-05-01 | Sony Corp | 認証装置および方法、並びにプログラム |
US9237340B2 (en) | 2012-10-10 | 2016-01-12 | Texas Instruments Incorporated | Camera pose estimation |
DE102014103016A1 (de) | 2013-03-07 | 2014-09-11 | Aristotle International, Inc. | Globales Identifizierungs-(ID-) und Altersverifizierungssystem und -verfahren |
US9818150B2 (en) | 2013-04-05 | 2017-11-14 | Digimarc Corporation | Imagery and annotations |
US20140378810A1 (en) | 2013-04-18 | 2014-12-25 | Digimarc Corporation | Physiologic data acquisition and analysis |
FR3005365B1 (fr) | 2013-05-03 | 2015-06-05 | Morpho | Procede d'identification/authentification d'une personne par son reseau veineux |
GB2517775B (en) | 2013-08-30 | 2016-04-06 | Cylon Global Technology Inc | Apparatus and methods for identity verification |
US10297083B2 (en) | 2013-09-16 | 2019-05-21 | Apple Inc. | Method and system for determining a model of at least part of a real object |
US10776606B2 (en) | 2013-09-22 | 2020-09-15 | The Regents Of The University Of California | Methods for delineating cellular regions and classifying regions of histopathology and microanatomy |
GB2520338A (en) | 2013-11-19 | 2015-05-20 | Nokia Corp | Automatic scene parsing |
WO2015078018A1 (en) * | 2013-11-30 | 2015-06-04 | Xiaoou Tang | Method and system for face image recognition |
US9536177B2 (en) | 2013-12-01 | 2017-01-03 | University Of Florida Research Foundation, Inc. | Distributive hierarchical model for object recognition in video |
AU2014368997B2 (en) | 2013-12-19 | 2020-02-27 | Motorola Solutions, Inc. | System and method for identifying faces in unconstrained media |
WO2015127394A1 (en) * | 2014-02-23 | 2015-08-27 | Northeastern University | System for beauty, cosmetic, and fashion analysis |
CN103914874B (zh) | 2014-04-08 | 2017-02-01 | 中山大学 | 一种无特征提取的紧致sfm三维重建方法 |
JP6159489B2 (ja) | 2014-04-11 | 2017-07-05 | ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド | 顔認証方法およびシステム |
US9317785B1 (en) * | 2014-04-21 | 2016-04-19 | Video Mining Corporation | Method and system for determining ethnicity category of facial images based on multi-level primary and auxiliary classifiers |
US9710729B2 (en) | 2014-09-04 | 2017-07-18 | Xerox Corporation | Domain adaptation for image classification with class priors |
GB2532075A (en) | 2014-11-10 | 2016-05-11 | Lego As | System and method for toy recognition and detection based on convolutional neural networks |
US9928410B2 (en) * | 2014-11-24 | 2018-03-27 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing object, and method and apparatus for training recognizer |
US10346726B2 (en) | 2014-12-15 | 2019-07-09 | Samsung Electronics Co., Ltd. | Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image |
US9734436B2 (en) * | 2015-06-05 | 2017-08-15 | At&T Intellectual Property I, L.P. | Hash codes for images |
JP2017102671A (ja) * | 2015-12-01 | 2017-06-08 | キヤノン株式会社 | 識別装置、調整装置、情報処理方法及びプログラム |
US10424072B2 (en) | 2016-03-01 | 2019-09-24 | Samsung Electronics Co., Ltd. | Leveraging multi cues for fine-grained object classification |
KR102516112B1 (ko) * | 2016-06-03 | 2023-03-29 | 매직 립, 인코포레이티드 | 증강 현실 아이덴티티 검증 |
-
2017
- 2017-03-03 US US15/449,266 patent/US10579860B2/en active Active
- 2017-06-05 WO PCT/KR2017/005862 patent/WO2017213398A1/en unknown
- 2017-06-05 EP EP17810521.9A patent/EP3461290A4/en active Pending
- 2017-06-05 CN CN201780042954.0A patent/CN109564618B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103503029A (zh) * | 2011-04-11 | 2014-01-08 | 英特尔公司 | 检测面部特性的方法 |
CN104021373A (zh) * | 2014-05-27 | 2014-09-03 | 江苏大学 | 一种半监督语音特征可变因素分解方法 |
CN104537630A (zh) * | 2015-01-22 | 2015-04-22 | 厦门美图之家科技有限公司 | 一种基于年龄估计的图像美颜方法和装置 |
CN104616002A (zh) * | 2015-03-06 | 2015-05-13 | 李志刚 | 用于年龄段判断的面部识别设备 |
CN105574512A (zh) * | 2015-12-21 | 2016-05-11 | 小米科技有限责任公司 | 图像处理的方法和装置 |
Non-Patent Citations (1)
Title |
---|
CP-mtML: Coupled Projection multi-task Metric Learning for Large Scale Face Retrieval;BINOD BHATTARAI 等;《 IEEE Conference on Computer Vision and Pattern Recognition》;20160411;第1-10页 * |
Also Published As
Publication number | Publication date |
---|---|
EP3461290A4 (en) | 2019-07-03 |
US20170351905A1 (en) | 2017-12-07 |
US10579860B2 (en) | 2020-03-03 |
CN109564618A (zh) | 2019-04-02 |
WO2017213398A1 (en) | 2017-12-14 |
EP3461290A1 (en) | 2019-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109564618B (zh) | 用于面部图像分析的方法和系统 | |
US10599958B2 (en) | Method and system for classifying an object-of-interest using an artificial neural network | |
US11222196B2 (en) | Simultaneous recognition of facial attributes and identity in organizing photo albums | |
CN105631398B (zh) | 识别对象的方法和设备以及训练识别器的方法和设备 | |
US8948500B2 (en) | Method of automatically training a classifier hierarchy by dynamic grouping the training samples | |
WO2017024963A1 (zh) | 图像识别方法、度量学习方法、图像来源识别方法及装置 | |
CN110889312A (zh) | 活体检测方法和装置、电子设备、计算机可读存储介质 | |
KR20200010993A (ko) | 보완된 cnn을 통해 이미지 속 얼굴의 속성 및 신원을 인식하는 전자 장치. | |
US11854116B2 (en) | Task-based image masking | |
US20100111375A1 (en) | Method for Determining Atributes of Faces in Images | |
CN112912888A (zh) | 识别视频活动的设备和方法 | |
WO2020155790A1 (zh) | 理赔信息提取方法和装置、电子设备 | |
CN111652159A (zh) | 基于多层次特征联合的微表情识别方法及系统 | |
US11380133B2 (en) | Domain adaptation-based object recognition apparatus and method | |
CN110717401A (zh) | 年龄估计方法及装置、设备、存储介质 | |
US11423262B2 (en) | Automatically filtering out objects based on user preferences | |
Huerta et al. | Combining where and what in change detection for unsupervised foreground learning in surveillance | |
Chawla et al. | A comparative study on face detection techniques for security surveillance | |
Dong et al. | A supervised dictionary learning and discriminative weighting model for action recognition | |
Hahmann et al. | A shape consistency measure for improving the generalized Hough transform | |
Nikolaev | Multi-label Human activity recognition on image using deep learning | |
Perochon et al. | Unsupervised Action Segmentation of Untrimmed Egocentric Videos | |
Mishra et al. | ISL Recognition of Emergency Words Using MediaPipe, CNN and LSTM | |
Kim | Implementation of Access Control System based on Face Prediction and Face Tracking | |
Nawaz et al. | Emdedded Large Scale Face Recognition in the Wild |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |