CN105590091A - 一种面部识别方法及其系统 - Google Patents

一种面部识别方法及其系统 Download PDF

Info

Publication number
CN105590091A
CN105590091A CN201510745488.5A CN201510745488A CN105590091A CN 105590091 A CN105590091 A CN 105590091A CN 201510745488 A CN201510745488 A CN 201510745488A CN 105590091 A CN105590091 A CN 105590091A
Authority
CN
China
Prior art keywords
face
algorithm
weight
classifier
follows
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510745488.5A
Other languages
English (en)
Other versions
CN105590091B (zh
Inventor
迈克
汪灏泓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TCL Corp
Original Assignee
TCL Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TCL Corp filed Critical TCL Corp
Publication of CN105590091A publication Critical patent/CN105590091A/zh
Application granted granted Critical
Publication of CN105590091B publication Critical patent/CN105590091B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种面部识别方法及其系统。所述方法包括:将输入视频分割为若干不同的视频帧集合以及在输入视频的视频帧中检测面部。还包括,生成输入视频的面部轨迹。进一步的,应用基于鲁棒协同表示的分类算法,在具有复杂的遮挡及噪声、模糊影响的面部侧视样本中恢复清晰图像并进行分类。另外,输出具有已识别面部图像的视频。

Description

一种面部识别方法及其系统
技术领域
本发明涉及计算机处理技术领域,尤其涉及一种面部识别方法及其系统。
背景技术
面部识别系统在现今商业和娱乐产业中越发受到青睐。在视频中进行面部识别是一个以计算机视角,利用一系列包含有已知辨认特点的面部的给定图像,在一个视频序列中定位及辨认面部的技术问题。例如,由于其在发展应用中的巨大潜力,视频面部识别已经在多个领域中推动使用,包括视频保卫监控、现实增强、自动视频标记、医疗分析、质量控制以及视频课程评估。虽然对于人脑而言,面部识别是一项非常简单的任务,但由于目标的图像在方向、光照条件、形状以及遮挡情况上存在有多种变化,因此,其对于机器而言是一项挑战。
在使用现有的技术进行面部识别时仍存在许多的挑战。近来,使用基于稀疏表达的分类(SRC)及其相关拓展来进行面部识别(FR)已经被证明能够提供现有最佳的识别效果。其主要思想为:一个目标面部样本可以由在不同情况下(例如姿态、光照情况、遮挡情况等等)获取的同一目标的可使用图像的稀疏线性组合来表示。当面部图像在低维空间内,通过描述重要以及容易辨认的特征来表示时,上述思想也适用。为了进行稀疏表示,可以应用l1优化算法。然后,选出服从最小重构错误的面部类别用于分类或者辨认那些具有可使用的测试图像或者样本的目标。稀疏编码也已经被提出可协同用于解决模糊人脸识别以及盲图像复原的问题。
但是,应用l1优化算法来提升面部识别率仅能在某些特定的情况下取得成功。具体而言,基于稀疏表示的面部识别假设训练图像已经被有效的控制并且每个类别中均具有充足数量的样本。
从另外的角度来看,为了消除训练数据中的孤立像素点,可以引入面部图像的低秩结构。在图像属于不同光照情况下的一些凸朗伯体模型的假设下,相类似面部图像的低秩结构被展现。为了从包含有错误的数据中恢复子空间结构,可以采用例如鲁棒主成分分析(RobustPCA)以及低秩表示(LRR)的方法。然而,上述方法均为直推式并且无法有效的在新数据中清除噪声、模糊等的影响。理想的面部识别效果不仅在于能够从受到噪声、模糊等影响的训练数据中恢复清晰的图像,而且对于任何给定的测试样本,均能够在复杂的遮挡情况及噪声、模糊等影响的数据中恢复清晰的图像。
本发明公开的方法及其系统用于解决现有技术中的一个或者多个问题。
发明概述
本发明的一方面公开了一种面部识别方法。所述方法包括:将输入视频分割为若干不同的视频帧集合以及在输入视频的视频帧中检测面部。还包括,生成输入视频的面部轨迹。进一步的,应用基于鲁棒协同表示的分类算法,在具有复杂的遮挡及噪声、模糊影响的面部侧视样本中恢复清晰图像并进行分类。另外,输出具有已识别面部图像的视频。
本发明另一方面公开了一种面部识别系统。所述系统包括:面部检测模块,用于在输入视频的视频帧中自动定位面部;算法模块,用于通过改进的鲁邦主成分分析算法估算获得清晰图像从而初始化LRR-HQ-L1算法,并通过LRR-HQ-L1算法计算获得权重矩阵;面部分类器,用于使用鲁棒协同表示算法进行分类。字典,用于在数据库中存储面部图像;以及输出模块,输出具有已识别面部图像的视频。
本发明的其他方面,所属技术领域技术人员能够依据本发明的权利要求书,说明书,以及附图有效实施并充分公开。
附图简要说明
图1为本发明具体实施方式的工作环境示意图。
图2本发明具体实施方式的计算系统的结构框图。
图3为本发明具体实施方式的面部识别系统的结构框图。
图4为本发明具体实施方式的面部识别方法的方法流程图。
图5为本发明具体实施方式的视频流组成成分分割的示意图。
图6为本发明具体实施方式的鲁棒协同表示的示意图。
图7为本发明另一具体实施方式的鲁棒协同表示的示意图。
详细说明
附图中展示的部分将被引用以具体说明,阐述本发明具体技术实施方案。说明书中引用的数字代表附图的相应部分。
图1为本发明具体实施方式中的工作环境100。如图1所示,所述工作环境100包括:电视机102,遥控器104,服务器106,用户108,网络系统110。还可以包括其他合适的设备。
电视机102可以是任何合适类型的电视机,例如等离子电视,LCD电视,背投式电视,智能电视或者非智能电视。电视机102还可以包括一个计算系统,例如个人电脑,掌上电脑或者智能手机等。进一步的,所述电视机102还可以是任何内容演示的设备。所述设备由遥控器104控制,能够在一个到多个频道中演示多个节目。
所述遥控器104可以是任何合适类型的能够遥控操作电视机102的遥控器,例如配套的电视遥控器,通用电视遥控器,掌上电脑,智能手机或者其他能够实现遥控功能的智能设备。遥控器104还可以包括其他不同类型的设备,例如动作感应遥控设备,图像感应遥控设备以及其他一些简单输入设备,例如键盘,鼠标,声控输入设备等。
具体的,所述服务器106可以是任何用于提供个人信息内容给用户108的一个或者多个计算机服务器。所述服务器106还用于辅助遥控器104和电视机102之间进行通信连接,数据存储和数据处理。电视机102,遥控器104以及服务器106通过网络系统110,例如有线网络,手机网络,或者其他具体的网络建立通信连接。
用户108使用遥控器104控制电视机102播放不同的节目或者进行其他用户感兴趣的活动。如果电视机102配备有动作感应或者图像感应装置,用户还可以简单的使用手势动作进行控制。用户108可以是一个人也可以是多个,例如全部家庭成员在一起观看电视节目。
电视机102,遥控器104和/或服务器106在一个合适的电子计算平台实现其功能。图2是本发明具体实施方式中的一种可用于实现上述设备102、104和/或106的功能的计算系统200的结构框图。
如图2所示,所述计算系统包括一个处理器202,存储器204,播放器206,通信模块208,数据库210以及外围设备212。所述计算系统可以减省上述设备,也可以添加一些其他类型的设备,而不限于上述设备。
所述处理器202可以是任何合适的处理器或处理器组。具体的,所述处理器202为能够进行多线程处理的多核心处理器。存储器204可以是任何合适的存储设备,例如ROM,RAM,闪存或者大容量存储器,例如CD-ROM,硬盘等。存储器204用于存储为进行各种数据处理而预设的计算机运行程序。
所述外围设备212具体包括:各种类型的传感器以及输入,输出设备,例如键盘,鼠标。通信模块208具体包括:各类网络交互设备,用于在设备间通过网络系统建立连接。数据库210具体包括一到多个用于存储不同数据以及对数据进行一些处理,例如搜索数据的数据库。
在实际操作中,所示服务器106、电视机102和/或遥控器104可以为用户108执行面部识别程序。
图3为本发明具体实施例的面部识别系统300的功能框图。如图3所示,所述面部识别系统300包括输入视频302、面部检测模块304、运算模块306、面部分类模块308,、词典310以及输出模块312。上述系统可以减省所述设备,也可以添加一些其他类型的设备,而不限于所述设备。所述系统300具体可以由硬件实现其功能,也可以由软件实现其功能,还可以结合硬件和软件一起实现其功能。
所述输入视频302可以包括任何合适类型的资源的视频内容并且可以包含有多种不同的视频资源。源自于所述输入视频302的内容可以包括视频数据以及元数据。输入视频的一系列视频帧包含了输入视频302的内容并用于其他模块进行处理。当然,所述输入视频也可以是一幅单独的图片。所述输入视频还可以被分为多个不同的视频帧集合。
所述面部检测模块304可以用于一系列视频帧中定位面部。所述面部检测模块304可以内置在电视机102中,或者作为一个独立的模块设置在电视机102外。
所述运算模块306用于通过改进的鲁棒主成分分析算法(IRPCA)来初始化l1半二次的低秩表示算法(LRR-HQ-L1)并且通过所述l1半二次的低秩表示算法来计算获得所述权重矩阵,从而在复杂的遮挡及噪声、模糊的影响中恢复清晰的图像。
所述面部分类模块308用于通过鲁棒协同表示算法(RCR)进行分类操作并且给出选出的最终类别辨认特性。
具体的,所述字典310可以包括任何合适的数据库用于存储面部图像等。例如,一个存储有面部相关图像收集结果的本地或在线数据库。更具体的,对于在一部给定的电影以及对应的演员集合中进行面部识别,每个演员(如目标演员)的姓名以及电影名可以作为检索关键字,在字典中检索获得一系列图像,其中每个图像中均包含有一个或者多个演员的面部。
所述输出模块312用于输出已辨认面部。上述模块可以整合到一起或者减省,也可以添加一些其他功能模块。
图4为本发明具体实施例的在所述面部识别系统的各个模块中执行的面部识别程序400的方法流程图。
如图4所示,首先,将输入视频分割为若干不同的视频帧集合(S402)。由于视频是由一系列的视频帧组成,并且在现有常用的视频帧率(例如25帧/每秒)下,相邻视频帧的变化非常小。因此,可以使用一些聚类或者组合技术将整个视频分割为若干个由相似的视频帧组成的视频帧集合进行进一步的处理来替代原有独立的处理每一视频帧的处理方法。
例如,图5为将一个视频流分割为若干个不同的视频成分的示意图。如图5所示,一个视频流可以分割为若干个场景,一个场景可以分割为若干个镜头,并且一个镜头可以分割为若干个视频帧等。所述视频帧可以进一步分割为视频帧的目标及特征,所述目标及特征可以被提取用于进一步的处理。
继续参阅图4,在获取输入视频序列后,所述视频序列被简化为一个与通过记录在输入视频帧的每个摄像机参数设置,与初始摄像机参数设置对齐的已记录摄像机参数设置一致的视频帧序列(S404)。
典型的电影视频序列是由多个摄影镜头以交错形式组成,并且“摄像机获取的内容”是一个在给定的摄像机参数设置下连续的记录过程。在此使用术语“摄像机参数设置记录结果”(cameraregistration)表示采用不同摄像机拍摄的视频帧形成的某一视频序列或者视频流的摄像机参数设置记录结果。所述“摄像机参数设置记录结果”的概念源自于视频编辑中视频重构的“摄像机获取的内容”(cameratake)。
典型的视频序列是一个由多个镜头以交错形式组成,并且“摄像机获取的内容”是一个在给定的摄像机参数设置下连续的记录过程。通过记录输入视频帧的每一个摄像机参数设置,所述原始的镜头交错形式可以被分离为与初始摄像机参数设置对齐的“已记录摄像机参数设置”(registeredcamera)对应的一系列视频帧序列。
在定义摄像机获取的内容后,检测在视频中每一视频帧的面部(S406)。在每一视频帧中进行面部检测能够在进行面部识别之前有效的提供面部轨迹。这样的,可以在每个摄像机获取的内容中的每一视频帧中进行面部检测。所述面部检测能够自动的在一系列视频帧中定位面部的位置。
在同一个摄像机获取的内容中检测出的面部的集合可以作为面部轨迹。通过这种方式,可以生成在整个视频中的面部轨迹(S408)。具体的,一个新的面部轨迹通过在每一摄像机获取的内容中的第一个检测出的面部进行初始化。对于摄像机获取的内容中的其他视频帧,当来自于相邻视频帧之间的两个检测出的面部的距离超出预定的阈值时,生成一个新的面部轨迹。否则,将其加入到原有的面部轨迹中。
进一步的,使用基于鲁棒协同表示分类器,在具有复杂的遮挡及噪声、模糊影响的面部测试样本中恢复一个清晰的图像并进行分类(S410)。现有的孤立点检测算法及分类器能够方便的整合到一个鲁棒框架中用于协同表示。令表示测试样本,表示c个目标堆叠在列的样本集合的矩阵(如字典),其中表示第ith个目标的ni个样本集合从而令∑ini=n。
假设孤立点检测结果输入测试样本y以及面部字典T,并且形成权重对角矩阵W。这样的wy是一个具有权重的测试样本,其中孤立点部分(例如太阳眼镜的组成像素)被赋予较小的权重(接近0)。所述孤立点检测(OLD)的步骤通过如下算式表示:
W=OLD(y,T)(1)
令分类过程输入测试样本y、面部字典T以及权重对角矩阵W中,并输出分类结果索引,所述分类结果索引通过如下算式表示:
Identity(y)=CLF(y,T,W)(2)
算式1可以通过l1半二次(HalfQuardratic,HQ)最小化来求解,所述l1半二次优化方法已经被证明能够在遮挡和噪声、模糊等影响下保持鲁棒。
图6为本发明具体实施例的鲁棒协同表示方法的方法流程图。如图6所示,为了初始化用于半二次(HQ)最小化的W,通过改进的鲁棒主成分分析来获得一幅清晰的测试图像(S4102)。
若函数K由两组变量a和w所决定,函数k为半二次,从而使函数k为a的二次函数。所述改进的半二次函数k由一些非二次准则J组成,并可以由如下算式表示:
m i n W K ( a , w ) = J ( a ) , - - - ( 3 )
J(a)为重构函数,由如下算式定义:
J(a)=Φ(a)+Q(a).(4)
其中,Φ(a)和Q(a)分别定义如下:
Φ ( a ) = Σ i = 1 d φ ( δ i ) Q ( a ) = | | a | | 1 . - - - ( 5 )
φ(δi)的定义如下:
φ ( δ i ) = m i n w i 1 2 w i ( δ i ) 2 + ψ ( w i ) . - - - ( 6 )
依据算式(4),(5)和(6),K(a,w)由如下算式表示::
K ( a , w ) = | | W ( y - T a ) | | 2 2 + ψ ( w ) + λ | | a | | 1 - - - ( 7 )
其中,ψ可以通过凸对偶关系,由φ所定义。所述l1半二次问题通过a和w的交替迭代不断优化以达到最小值。
w ^ i ( t + 1 ) = φ ′ ( δ i t ) δ i t , i = 1 , ... , d - - - ( 8 )
a ( t + 1 ) = argmin a | | W t + 1 ( y - T a ) | | 2 2 + λ | | a | | 1 . - - - ( 9 )
选择使用的势函数φ以及其对应的权重函数w可以通过M估计法或者其他能够满足所述半二次势函数情况的函数所确定。
上述迭代算法是一种迭代重加权最小二乘法(IRLS)算法。因此,在半二次及重加权最小二乘之间具有清晰的联系。即使在某些情况下,对于任何初始值K(a,b)具有全局收敛性,但是半二次函数在l1框架中是否全局收敛仍然是不确定的。对于不同的初始值获得不同的W。选择恰当的初始值对于面部识别(FR)的效果非常重要。首先,列出两个最具潜力的初始值然后,初始化的求解过程具体如下:
1、该初始化可以是由测试样本减去平均字典图像。亦即 δ i 0 = [ Tα 0 - y ] i , 其中, a 0 = [ 1 n , ... , 1 n ] .
2、的另一个基于a0的可能解为a0的幼稚重构。亦即,a0=T/y。
第一种解的表示可能与测试样本的面部偏离很多,由于平均面部并不需要与测试样本相似并且存在非常多错误。因此,当包含有错误的平均面部进行初始化时,其会导致错误W。在测试样本和字典中的面部存在一些小的模糊及噪声影响时,第二种解的表示可以形成一个准确的W。在此时,在W中的所有元素均接近于0。但是,当测试样本中存在许多模糊及噪声影响时,该幼稚重构会使用完全错误的权重来初始化IRLS。
没有噪声及模糊影响的测试样本才是一个用于初始化IRLS的理想化样本。所述IRLS的初始化在面部识别(FR)中发挥重要的作用。由于理想化样本很难出现,因此可以通过低秩的IRPCA测算出的没有噪声及模糊影响的清晰面部来初始化上述算法。亦即,IRPCA能够用来重构一个接近的清晰面部来初始化残差图像其能够在较少的IRLS迭代次数内提供一个准确的W。
为了恢复一个IRPCA图像,首先,需要恢复一个低秩表示的面部字典。为了处理多个低秩子空间,称为低秩表示(LRR)的一般秩最小化问题具体可以通过如下算式表示:
min i m i z e Z , E | | Z | | * + λ | | E | | 2 , 1 s u b j e c t t o T = A Z + E . - - - ( 10 )
其中,λ>0为参数,并且Z为对于字典A的数据T的最低秩表示。为了恢复判别式字典,在LRR问题中突出类别矩阵之间的不一致性,具体定义如下:
min i m i z e Z , E | | Z i | | * + λ | | E i | | 2 , 1 + ζ 2 Σ i = 1 n | | ( A i Z i ) T A i Z i | | F 2 s u b j e c t t o T i = A i Z i + E i . - - - ( 11 )
其中,为对于字典Ai的数据Ti的最低秩表示i表示字典中的第i个面部类别,ζ为标量参数。
IRPCA的目标在于整合PCA和RPCA两者的优势。亦即,所述IRPCA不仅能处理带纯粹噪声及模糊影响的数据而且具有很好的处理新数据的方法。在获取没有噪声及模糊影响的清晰训练面部AZ来求解算式(11)后,低秩投影矩阵乘以在T中的任一面部。因此,上述方法形成了与AZ中相对应的清晰面部。在学习如何使用训练图像从清晰面部中去除噪声及模糊影响后,所有新的数据y均可以进行处理,并且执行操作Py来消除噪声及模糊影响。矩阵P可以定义如下:
min i m i z e P | | P | | * s u b j e c t t o A Z = P T . - - - ( 12 )
算式12为凸,但并非强凸。因此,其可能存在多个最优解。已经
证明算式12的最小值一般的可以唯一定义如下:
P*=AZT+(13)
在获得矩阵P后,即可获得清晰图像Py。由于矩阵P是一个用于学习如何消除噪声或者模糊影响的投影矩阵,基于训练数据,上述两组变量可以确定如下:
1、无需保证给出的新样本是否具有面部字典知晓的噪声或者模糊。例如,一个测试样本可能存在一个从未在训练样本的面部中出现的面部遮挡情况。
2、即使所述面部遮挡情况(例如太阳眼镜)出现在训练样本中,无需保证该面部遮挡情况是否与训练样本中的面部遮挡情况类似。因此,在P中学习的噪声或者模糊影响可能与训练样本中相对应的情况不相同。为了避免这一情况,所述方法需要平衡Py图像以及平均图像由此,所述清晰图像被引入并表示如下:
y c = θ P y + ( 1 - θ ) A Z ‾ , - - - ( 14 )
其中,0≤θ≤1.θ可以通过经验估计,并且对那些清晰的训练样本以及没有噪声及模糊影响可供学习的数据集合赋予较小的权重。
表格一为IRPCA初始化算法的具体实施例。由于用于计算矩阵P的所有步骤均为离线,所以无法加入分类操作的显著消耗。所述用于计算yc的算法可以总结为如表格一所示的算法1。
在获取清晰图像后,可以用来初始化l1半二次的低秩表示算法(LRR-HQ-L1)(S4104)。亦即,命名为LRR-HQ-L1算法的孤立点检测(OLD)方法如表格二中的算法2所示。
图7为本发明所述的鲁棒协同表示的另一具体实施例的方法流程图。如图7所示,第一行显示了一个源自于带有50%遮挡的AR面部数据测试的面部的实例以及对应的真实面部。所述第二行显示了一个使用算法1的重构面部yc。所述重构面部与理想定义类似(需要移除更多的噪声),而且其能够作为算法1初始化的良好候选。下一图像则显示了一个使用LRR-HQ-L1算法2的已学习权重面部。最后的两个图像分别显示了在经过分类后的重构面部以及在训练样本和字典样本之间的误差图像。在第三行中,第一个图像为平均图像Ta,其中,由训练样本计算获得。显然的,这一图像与理想定义不相似。第二个图像为权重图像。第三个图像显示了经过分类后的重构面部,而最后一个图像为训练样本与字典样本之间的误差。可以清楚的看到,该误差的计算结果明显好于由yc初始化的算法1计算获得的误差。
在获得权重矩阵W后,执行分类任务(S4106)。面部分类(CLF)可以使用l2协同表示来求解,因为l2协同表示在没有遮挡或者噪声、模糊影响的环境下可以提供比l1优化更好的识别率。由于已经给出孤立点检测任务W。因此,所述分类任务可以看作是一个没有遮挡或者噪声、模糊影响的任务。此处使用l1半二次最小化结合l2协同表示来进行分类。
用于分类的估计向量f被用来求解正则化最小二乘问题。
f = argmin f | | W ( y - T f ) | | 2 2 + λ | | f | | 2 2 , - - - ( 15 )
其中为估计向量。
在获得向量f后,通过与SRC相同的方式,可以形成面部类别的辨别特性。鲁棒协同表示算法总结如表格三的算法3所示。
l1最小值用于求解分类任务。所述方法确定鲁棒稀疏编码(RSC)以及l1HQ。通过选择使用l2约束来求解孤立点检测问题,所述方法利用l2来定义正则化鲁棒编码(RRC)。在RRC中,l1或者l2的最小化问题转换为一个包含有预定设计,用于鲁棒面部识别的权重函数的迭代重加权正则化鲁棒编码问题。
在无噪声或模糊影响的环境下,使用l1来求解分类问题并不是最优的选择。相类似的,对于孤立点检测算法,由于面部识别的线性系统通常是不充分的,选择l2来求解孤立点检测问题会造成数据过拟合并且导致错误的W和较差的面部识别表现。
由于面部识别可以分为两个部分,OLD以及CLF。因此,面部识别率可以通过整合多种孤立点检测及分类算法来得到提升。
进一步的,可以使用如下的主动鲁棒协同表达分类器(AECR-C)。其中,每一类别的残差可以定义如下:
e i ( y ) = Σ j = 1 k ξ j e i j ( y ) - - - ( 16 )
其中,表示第j个分类器的第i个分类的残差,其具体定义如下:
e i j ( y ) = | | W j ( y - T i f i j ) | | 2 , - - - ( 17 )
其中,Wj,及ξj分别表示孤立点检测权重矩阵、估计向量以及第j个分类器的权重。
不同的孤立点检测算法可以提供选择使用的不同的权重矩阵W。在算式(16)中,当k=2时,使用如算法1所描述的方法进行后续步骤,但其具有两个不同的初始值,亦即:以及其中 a 0 = [ 1 n , ... , 1 n ] .
假设权重矩阵来自第一个初始值Wlrr以及第二个初始值Wmean,所述目标的定义可以通过两个分类器来决定。
I d e n t i t y ( y ) = argmin i { ξ 1 e i l r r + ξ 2 e i m e a n } - - - ( 18 )
所述ARCR-C算法具体总结如表格四的算法4所述。
面部识别的效果取决于两个量度标准,识别率以及计算复杂度。由于具有一个正则化最小二乘问题形式相类似的解,用于分类的算法3是能够快速求解的。但是,孤立点检测算法是一个迭代算法并且在每次迭代中,均需要求解l1最小化问题。
可以看到,l1问题的估计支持在迭代中没有显著的改变。亦即,通过迭代,会选择相同的面部来重构测试样本。在第t次迭代后,该支持并未改变或者收敛于一个非常小的数字。若已知该t次迭代,所述方法能够获得上一次迭代中的支持并在下一次迭代中非常迅速的求解最小二乘问题。
依据经验,选择使用tc表示第t次迭代。在获取合适的支持后,所述迭代可以通过如下算式表示:
W ^ i ( t + 1 ) = φ ′ ( δ i τ ) δ i t , i = 1 , . . . , d - - - ( 19 )
a ( t + 1 ) = { min a | | W t + 1 ( y - T a ) | | 2 2 + &lambda; | | a | | 1 , i f t < t c min a | | W t + 1 ( y - T ~ a ) | | 2 2 , o t h e r w i s e - - - ( 20 )
其中,字典为:
T=TM(21)
其中,表示对角矩阵,其元素为i,i具体为
M i , i = { 0 , i f a ^ i ( t c - 1 ) = 0 1 , o t h e r w i s e . - - - ( 22 )
其中,为估计向量在tc-1次迭代中的第i个成分。
快速LRR-HQ-L1算法具体如表格五的算法5所示。
即使是较小的字典,每个图像可能仍需要若干秒来进行l1的估计。因此,l1最小化的最大的缺陷在于计算复杂度。
在另一方面,l2最小化是非常迅速的。进一步的,尽管l2最小化的解是密集的,但是其中的最优解与l1的解是相接近的,并且与测试图像辨认特征相吻合的训练图像相对应。l2具有与l1相接近的形状并且可以作为一个良好的估计值。其相关性很大程度取决于这样一个事实:在使用不同的度量约束时,相似的误差函数中均获得全局解。
可以使用结合正则化最小二乘问题的线性l2替代l1问题的方法来提高算法5的运算速度。然后,依据度量准则,可以将已获得的稠密向量的较小的系数压缩至0。上述L1估计方法具体由如下两个步骤所示:
1、求解正则化最小二乘问题
v = argmin v | | y - T v | | 2 2 + &lambda; | | a | | 2 2 , - - - ( 23 )
其中,
2、依据度量准则,将获得的向量V的系数压缩至0从而获得在算法5中的线性L2所需要的最终的估计向量
a ^ i = 0 , i f v ^ i < v &OverBar; v i , o t h e r w i s e - - - ( 24 )
其中,表示估计向量V的均值。
继续参阅图4,在视频中的面部识别完成后,输出具有已识别面部图像的视频(S412)。例如,所述具有已识别面部图像的视频可以向用户展示,或者提供给其他模块或者设备进行进一步操作。
通过使用上述具体实施例所述的方法及系统,还可以进一步的执行其他拓展应用。所述面部识别技术可以应用于新闻视频领域,当可以在视频中自动检测重要人物的面部并识别用于其他多种不同的管理任务,例如新闻视频的总结,检索以及浏览。
应当理解的是,本发明所述的面部识别模块不仅限于电视机使用场景。本发明所述的系统及方法可以应用于其他具有播放功能的设备中,例如智能手机、掌上电脑、个人电脑、智能手表等等。本发明所述的方法还可以应用于作为其他系统的核心功能,例如基于内容的视频推荐系统,基于内容的视频检索系统等等。
进一步的,本发明具体实施例所述的面部识别方法仅用于解释用途,相类似的想法和实现方法均可以应用于其他不同的识别系统中,将本发明所述系统和方法应用于不同领域,进行改进,替换,调整或者相当于本发明所公开的具体技术实施方案都是本领域普通技术人员不需要通过创造性劳动就能实现的。

Claims (15)

1.一种面部识别方法,其特征在于,包括如下步骤:
将输入视频分割为若干不同的视频帧集合;
在输入视频的视频帧中检测面部;
生成输入视频的面部轨迹;
应用基于鲁棒协同表示的分类算法,在具有复杂的遮挡及噪声、模糊影响的面部侧视样本中恢复清晰图像并进行分类;
输出具有已识别面部图像的视频。
2.根据权利要求1所述的面部识别方法,其特征在于,所述应用基于鲁棒协同表示的分类算法,在具有复杂的遮挡及噪声、模糊影响的面部侧视样本中恢复清晰图像并进行分类的步骤具体包括:
通过改进的鲁邦主成分分析算法估算获得清晰图像从而初始化LRR-HQ-L1算法;
通过LRR-HQ-L1算法计算获得权重矩阵;
使用鲁棒协同表示算法进行分类;
确定最终选择的分类定义。
3.根据权利要求2所述的面部识别方法,其特征在于,生成孤立点检测结果,将其输入测试样本y及面部字典T中并生成权重对角矩阵W,所述孤立点检测结果具体如下:
W=OLD(y,T)
其中,表示面部测试样本,表示c个目标的样本集合堆叠为列的矩阵,表示第i个目标的第ni个样本集合从而令∑ini=n。
4.根据权利要求2所述的面部识别方法,其特征在于,生成面部分类,将其输入测试样本y、面部字典T及权重对角矩阵W中,所述面部分类的索引具体如下:
Identity(y)=CLF(y,T,W)。
5.根据权利要求3所述的面部识别方法,其特征在于,所述清晰图像具体如下:
y c = &theta; P y + ( 1 - &theta; ) A Z &OverBar; ,
其中,0≤θ≤1,θ为经验估计值。
6.根据权利要求5所述的面部识别方法,其特征在于,给出一个用于分类的估计向量f具体定义如下:
f = argmin f | | W ( y - T f ) | | 2 2 + &lambda; | | f | | 2 2 ,
其中,为估计向量,为面部测试样本;表示c个目标的样本集合堆叠为列的矩阵,λ为大于0的参数,W为权重对角矩阵。
7.根据权利要求6所述的面部识别方法,其特征在于,给定一个主动的鲁棒协同表示分类算法输入到测试样本y及面部字典T中,每一面部的残留定义具体如下:
e i ( y ) = &Sigma; j = 1 k &xi; j e i j ( y ) ;
其中ξj为第j个分类器的权重,k为大于1的整数;表示第j个分类器的第i个分类的残留,其具体表示如下:
e i j ( y ) = | | W j ( y - T i f i j ) | | 2 , ;
其中,Wj孤立点检测权重矩阵,为估计向量,表示第i个目标的第ni个样本从而令∑ini=n。
8.根据权利要求6所述的面部识别方法,其特征在于,给定一个来自与第一初始值Wlrr和第二初始值Wmean的权重矩阵,目标的辨别特性具体定义如下:
I d e n t i t y ( y ) = argmin i { &xi; 1 e i l r r + &xi; 2 e i m e a n }
其中,表示面部测试样本,表示第一个分类器的第i个类别的残余;表示第二个分类器的第i个类别的残余;ξ1为第一个分类器的权重;ξ2为第二个分类器的权重。
9.一种面部识别系统,其特征在于,所述系统包括:
面部检测模块,用于在输入视频的视频帧中自动定位面部;
算法模块,用于通过改进的鲁邦主成分分析算法估算获得清晰图像从而初始化LRR-HQ-L1算法,并通过LRR-HQ-L1算法计算获得权重矩阵;
面部分类器,用于使用鲁棒协同表示算法进行分类
字典,用于在数据库中存储面部图像;以及
输出模块,输出具有已识别面部图像的视频。
10.根据权利要求9所述的面部识别系统,其特征在于,生成孤立点检测结果,将其输入测试样本y及面部字典T中并生成权重对角矩阵W,所述孤立点检测结果具体如下:
W=OLD(y,T)
其中,表示面部测试样本,表示目标c的样本集合堆叠为列的矩阵,表示第i个目标的第ni个样本集合从而令∑ini=n。
11.根据权利要求9所述的面部识别系统,其特征在于,生成面部分类,将其输入测试样本y、面部字典T及权重对角矩阵W中,所述面部分类的索引具体如下:
Identity(y)=CLF(y,T,W)。
12.根据权利要求10所述的面部识别系统,其特征在于,所述清晰图像具体如下:
y c = &theta; P y + ( 1 - &theta; ) A Z &OverBar; ,
其中,0≤θ≤1,θ为经验估计值。
13.根据权利要求12所述的面部识别系统,其特征在于,
f = argmin f | | W ( y - T f ) | | 2 2 + &lambda; | | f | | 2 2 ,
其中,为估计向量,为面部测试样本;表示目标c的样本集合堆叠为列的矩阵,λ为大于0的参数,W为权重对角矩阵。
14.根据权利要求13所述的面部识别系统,其特征在于,给定一个主动的鲁棒协同表示分类算法输入到测试样本y及面部字典T中,每一面部的残留定义具体如下:
e i ( y ) = &Sigma; j = 1 k &xi; j e i j ( y ) ;
其中ξj为第j个分类器的权重,k为大于1的整数;表示第j个分类器的第i个分类的残留,其具体表示如下:
e i j ( y ) = | | W j ( y - T i f i j ) | | 2 , ;
其中,Wj孤立点检测权重矩阵,为估计向量,表示第i个目标的第ni个样本从而令∑ini=n.。
15.根据权利要求14所述的面部识别系统,其特征在于,给定一个来自与第一初始值Wlrr和第二初始值Wmean的权重矩阵,目标的辨别特性具体定义如下:
I d e n t i t y ( y ) = argmin i { &xi; 1 e i l r r + &xi; 2 e i m e a n }
其中,表示面部测试样本,表示第一个分类器的第i个类别的残余;表示第二个分类器的第i个类别的残余;ξ1为第一个分类器的权重;ξ2为第二个分类器的权重。
CN201510745488.5A 2014-11-06 2015-11-03 一种面部识别方法及其系统 Active CN105590091B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/534,688 US9430694B2 (en) 2014-11-06 2014-11-06 Face recognition system and method
US14/534,688 2014-11-06

Publications (2)

Publication Number Publication Date
CN105590091A true CN105590091A (zh) 2016-05-18
CN105590091B CN105590091B (zh) 2020-02-07

Family

ID=55912433

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510745488.5A Active CN105590091B (zh) 2014-11-06 2015-11-03 一种面部识别方法及其系统

Country Status (2)

Country Link
US (1) US9430694B2 (zh)
CN (1) CN105590091B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107798272A (zh) * 2016-08-30 2018-03-13 佳能株式会社 快速多目标检测与跟踪系统
CN109711283A (zh) * 2018-12-10 2019-05-03 广东工业大学 一种联合双字典和误差矩阵的遮挡表情识别算法
CN110084883A (zh) * 2019-04-15 2019-08-02 昆明理工大学 一种诱发大脑活动重建面部图像的方法
CN113688673A (zh) * 2021-07-15 2021-11-23 电子科技大学 在线场景下心电信号的跨用户情感识别方法
CN115936136A (zh) * 2022-04-24 2023-04-07 中国人民解放军国防科技大学 一种基于低秩结构的数据复原方法与系统

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9875443B2 (en) * 2015-06-18 2018-01-23 TCL Research America Inc. Unified attractiveness prediction framework based on content impact factor
US10192103B2 (en) * 2016-01-15 2019-01-29 Stereovision Imaging, Inc. System and method for detecting and removing occlusions in a three-dimensional image
US11169661B2 (en) * 2017-05-31 2021-11-09 International Business Machines Corporation Thumbnail generation for digital images
CN108229322B (zh) * 2017-11-30 2021-02-12 北京市商汤科技开发有限公司 基于视频的人脸识别方法、装置、电子设备及存储介质
CN108664902B (zh) * 2018-04-23 2020-08-25 中国科学院自动化研究所 基于深度学习的端到端的视频拷贝检测方法及装置
EP3818693A4 (en) 2018-07-02 2021-10-13 Stowers Institute for Medical Research FACIAL IMAGE RECOGNITION USING PSEUDO-IMAGES
KR102366777B1 (ko) 2019-04-01 2022-02-24 한국전자통신연구원 도메인 적응 기반 객체 인식 장치 및 그 방법
CN111708914A (zh) 2020-06-11 2020-09-25 北京百度网讯科技有限公司 用于视频处理的方法、装置、电子设备和存储介质
CN112966554B (zh) * 2021-02-02 2022-07-01 重庆邮电大学 一种基于局部连续性的鲁棒性人脸识别方法及系统
KR102538209B1 (ko) * 2021-07-02 2023-05-30 가천대학교 산학협력단 얼굴 인식을 위한 심층 소프트맥스 협업 표현 분류 장치 및 그 방법
CN113807304B (zh) * 2021-09-27 2024-05-17 山西百和海盛科技有限公司 一种基于人脸的生物特征识别的装置
CN114049668B (zh) * 2021-11-15 2024-04-09 北京计算机技术及应用研究所 一种人脸识别方法
CN114093012B (zh) * 2022-01-18 2022-06-10 荣耀终端有限公司 人脸遮挡的检测方法和检测装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080170751A1 (en) * 2005-02-04 2008-07-17 Bangjun Lei Identifying Spurious Regions In A Video Frame
US20080279424A1 (en) * 2005-03-29 2008-11-13 France Telecom Method of Identifying Faces from Face Images and Corresponding Device and Computer Program
US20100266166A1 (en) * 2009-04-15 2010-10-21 Kabushiki Kaisha Toshiba Image processing apparatus, image processing method, and storage medium
WO2012139269A1 (en) * 2011-04-11 2012-10-18 Intel Corporation Tracking and recognition of faces using selected region classification
CN103116756A (zh) * 2013-01-23 2013-05-22 北京工商大学 一种人脸检测与跟踪方法及装置
CN104008370A (zh) * 2014-05-19 2014-08-27 清华大学 一种视频人脸识别方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6411209B1 (en) * 2000-12-06 2002-06-25 Koninklijke Philips Electronics N.V. Method and apparatus to select the best video frame to transmit to a remote station for CCTV based residential security monitoring
US6888960B2 (en) * 2001-03-28 2005-05-03 Nec Corporation Fast optimal linear approximation of the images of variably illuminated solid objects for recognition
US7515173B2 (en) * 2002-05-23 2009-04-07 Microsoft Corporation Head pose tracking system
WO2004004320A1 (en) * 2002-07-01 2004-01-08 The Regents Of The University Of California Digital processing of video images
US7227976B1 (en) * 2002-07-08 2007-06-05 Videomining Corporation Method and system for real-time facial image enhancement
US7454342B2 (en) * 2003-03-19 2008-11-18 Intel Corporation Coupled hidden Markov model (CHMM) for continuous audiovisual speech recognition
GB0502369D0 (en) * 2005-02-04 2005-03-16 British Telecomm Classifying an object in a video frame
EP1910977B1 (en) * 2005-07-29 2016-11-30 Telecom Italia S.p.A. Automatic biometric identification based on face recognition and support vector machines
US20070183634A1 (en) * 2006-01-27 2007-08-09 Dussich Jeffrey A Auto Individualization process based on a facial biometric anonymous ID Assignment
US20070288453A1 (en) * 2006-06-12 2007-12-13 D&S Consultants, Inc. System and Method for Searching Multimedia using Exemplar Images
US7724961B2 (en) * 2006-09-08 2010-05-25 Mitsubishi Electric Research Laboratories, Inc. Method for classifying data using an analytic manifold
WO2008073962A2 (en) * 2006-12-12 2008-06-19 Rutgers, The State University Of New Jersey System and method for detecting and tracking features in images
US8073287B1 (en) * 2007-02-26 2011-12-06 George Mason Intellectual Properties, Inc. Recognition by parts using adaptive and robust correlation filters
US8705810B2 (en) * 2007-12-28 2014-04-22 Intel Corporation Detecting and indexing characters of videos by NCuts and page ranking
WO2009134482A2 (en) * 2008-01-31 2009-11-05 The Board Of Trustees Of The University Of Illinois Recognition via high-dimensional data classification
US8037080B2 (en) * 2008-07-30 2011-10-11 At&T Intellectual Property Ii, Lp Recommender system utilizing collaborative filtering combining explicit and implicit feedback with both neighborhood and latent factor models
US8704767B2 (en) * 2009-01-29 2014-04-22 Microsoft Corporation Environmental gesture recognition
US8531478B2 (en) * 2009-03-19 2013-09-10 Cyberlink Corp. Method of browsing photos based on people
US20110243449A1 (en) * 2010-03-31 2011-10-06 Nokia Corporation Method and apparatus for object identification within a media file using device identification
US20110304541A1 (en) * 2010-06-11 2011-12-15 Navneet Dalal Method and system for detecting gestures
US8462191B2 (en) * 2010-12-06 2013-06-11 Cisco Technology, Inc. Automatic suppression of images of a video feed in a video call or videoconferencing system
US9014486B2 (en) * 2011-11-21 2015-04-21 Siemens Aktiengesellschaft Systems and methods for tracking with discrete texture traces
EP2608105A1 (en) * 2011-12-21 2013-06-26 Thomson Licensing Processing cluster and method for processing audio and video content
CN103034841B (zh) 2012-12-03 2016-09-21 Tcl集团股份有限公司 一种人脸追踪方法及系统
IN2013MU01192A (zh) * 2013-03-28 2015-04-24 Tata Consultancy Services Ltd
CN104680120B (zh) * 2013-12-02 2018-10-19 华为技术有限公司 一种人脸检测的强分类器的生成方法及装置
WO2016026135A1 (en) * 2014-08-22 2016-02-25 Microsoft Technology Licensing, Llc Face alignment with shape regression

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080170751A1 (en) * 2005-02-04 2008-07-17 Bangjun Lei Identifying Spurious Regions In A Video Frame
US20080279424A1 (en) * 2005-03-29 2008-11-13 France Telecom Method of Identifying Faces from Face Images and Corresponding Device and Computer Program
US20100266166A1 (en) * 2009-04-15 2010-10-21 Kabushiki Kaisha Toshiba Image processing apparatus, image processing method, and storage medium
WO2012139269A1 (en) * 2011-04-11 2012-10-18 Intel Corporation Tracking and recognition of faces using selected region classification
CN103116756A (zh) * 2013-01-23 2013-05-22 北京工商大学 一种人脸检测与跟踪方法及装置
CN104008370A (zh) * 2014-05-19 2014-08-27 清华大学 一种视频人脸识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BING-KUN BAO ETAL: "Inductive Robust Principal Component Analysis", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 *
熊承义 等: "基于稀疏低秩矩阵的有噪图像修复方法研究", 《中南民族大学学报( 自然科学版)》 *
胡正平 等: "基于低秩子空间恢复的联合稀疏表示人脸识别算法", 《电子学报》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107798272A (zh) * 2016-08-30 2018-03-13 佳能株式会社 快速多目标检测与跟踪系统
CN107798272B (zh) * 2016-08-30 2021-11-02 佳能株式会社 快速多目标检测与跟踪系统
CN109711283A (zh) * 2018-12-10 2019-05-03 广东工业大学 一种联合双字典和误差矩阵的遮挡表情识别算法
CN109711283B (zh) * 2018-12-10 2022-11-15 广东工业大学 一种联合双字典和误差矩阵的遮挡表情识别方法
CN110084883A (zh) * 2019-04-15 2019-08-02 昆明理工大学 一种诱发大脑活动重建面部图像的方法
CN113688673A (zh) * 2021-07-15 2021-11-23 电子科技大学 在线场景下心电信号的跨用户情感识别方法
CN113688673B (zh) * 2021-07-15 2023-05-30 电子科技大学 在线场景下心电信号的跨用户情感识别方法
CN115936136A (zh) * 2022-04-24 2023-04-07 中国人民解放军国防科技大学 一种基于低秩结构的数据复原方法与系统

Also Published As

Publication number Publication date
CN105590091B (zh) 2020-02-07
US9430694B2 (en) 2016-08-30
US20160132717A1 (en) 2016-05-12

Similar Documents

Publication Publication Date Title
CN105590091B (zh) 一种面部识别方法及其系统
Serrano et al. Fight recognition in video using hough forests and 2D convolutional neural network
Dang et al. RPCA-KFE: Key frame extraction for video using robust principal component analysis
Wang et al. A robust and efficient video representation for action recognition
Ge et al. An attention mechanism based convolutional LSTM network for video action recognition
Parkhi et al. Deep face recognition
Ding et al. Violence detection in video by using 3D convolutional neural networks
CN105100894B (zh) 面部自动标注方法及系统
CN106156693B (zh) 用于面部识别的基于多模型表示的鲁棒错误纠正方法
Motiian et al. Online human interaction detection and recognition with multiple cameras
Sobral et al. Comparison of matrix completion algorithms for background initialization in videos
Ye et al. Temporal order-preserving dynamic quantization for human action recognition from multimodal sensor streams
Elmadany et al. Multiview emotion recognition via multi-set locality preserving canonical correlation analysis
Cho et al. Self-supervised visual learning by variable playback speeds prediction of a video
Wang et al. A comprehensive survey of rgb-based and skeleton-based human action recognition
Masood et al. Classification of Deepfake videos using pre-trained convolutional neural networks
Abebe et al. A long short-term memory convolutional neural network for first-person vision activity recognition
Eltantawy et al. An accelerated sequential PCP-based method for ground-moving objects detection from aerial videos
Zhang et al. Low-rank and joint sparse representations for multi-modal recognition
Peng et al. Trajectory-aware body interaction transformer for multi-person pose forecasting
Kim et al. End-to-end lip synchronisation based on pattern classification
Gkalelis et al. View indepedent human movement recognition from multi-view video exploiting a circular invariant posture representation
Shetty et al. Movie review prediction system by real time analysis of facial expression
Bergaoui et al. Object-centric and memory-guided normality reconstruction for video anomaly detection
Wong et al. Multi-Camera Face Detection and Recognition in Unconstrained Environment

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant