CN107992846A - 遮挡人脸识别方法及装置 - Google Patents
遮挡人脸识别方法及装置 Download PDFInfo
- Publication number
- CN107992846A CN107992846A CN201711354272.1A CN201711354272A CN107992846A CN 107992846 A CN107992846 A CN 107992846A CN 201711354272 A CN201711354272 A CN 201711354272A CN 107992846 A CN107992846 A CN 107992846A
- Authority
- CN
- China
- Prior art keywords
- face
- face block
- block
- sparse representation
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000012549 training Methods 0.000 claims abstract description 43
- 238000012545 processing Methods 0.000 claims abstract description 14
- 230000000903 blocking effect Effects 0.000 claims abstract description 13
- 239000011159 matrix material Substances 0.000 claims description 44
- 239000013598 vector Substances 0.000 claims description 17
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 6
- 238000000638 solvent extraction Methods 0.000 claims description 5
- 239000006185 dispersion Substances 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 4
- 235000009508 confectionery Nutrition 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 2
- 230000007246 mechanism Effects 0.000 abstract description 3
- 230000001815 facial effect Effects 0.000 abstract 3
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000012512 characterization method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/259—Fusion by voting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/513—Sparse representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种遮挡人脸识别方法及装置,涉及数据处理技术领域。通过先对人脸图像进行分块,并通过人脸块鉴别训练集进行训练得到人脸块鉴别字典,使人脸块鉴别字典能够对具有遮挡的人脸图像的分类更加准确,同时通过动态股权投票的机制融合各个人脸块的分类结果,得到最终的人脸类别,可以提高对遮挡人脸图像识别的准确率。
Description
技术领域
本发明涉及数据处理领域,具体而言,涉及一种遮挡人脸识别方法及装置。
背景技术
在日常生活中,人们通过视觉、听觉、触觉、味觉及嗅觉进行信息获取。在获得的各种信息中,有一大半是视觉信息,即图像信息。而人脸图像是人类情感表达和交流中最重要、最直接的载体,它可反映出一个人的种族、年龄、个性、情绪状态,甚至是一个人的健康状况、身份和地位等信息。因此,从早期的绘画、雕像、表演等艺术领域到照相、摄影和电影电视等技术的出现,对人脸的描述和刻画一直受到人们的广泛关注。
人脸识别经过半个世纪的发展,在可控环境下,已经达到了实用的水平。但是在非可控环境下,面对诸如姿态、年龄变化,尤其是整形和遮挡时,人脸识别仍然存在巨大挑战。在实际应用的自然场景中,摄像装置拍摄的人脸往带有帽子、墨镜、围巾等遮挡,给人脸识别带了巨大困难。
发明内容
有鉴于此,本发明实施例的目的在于提供一种遮挡人脸识别方法及装置。
本发明提供的技术方案如下:
一种遮挡人脸识别方法,所述方法包括:
将获得的遮挡人脸图像按照预设规则分块,得到多个人脸块;
将采集得到的遮挡人脸图像和人脸块通过字典训练算法训练得到人脸块鉴别字典;
建立每个所述人脸块对应的人脸块稀疏表示模型,计算各个所述人脸块稀疏表示模型的稀疏表示系数;
根据各个所述人脸块稀疏表示模型的稀疏表示系数,对所述人脸块进行分类;
采用动态股权投票制融合各个人脸块的分类结果,得到最终的人脸类别。
进一步地,将获得的遮挡人脸图像按照预设规则分块,得到多个人脸块的步骤包括:
将每个遮挡人脸图像进行归一化处理;
将归一化处理后的遮挡人脸图像按照m行n列划分为m*n个人脸块;
将m*n个人脸块加上原始的完整的遮挡人脸图像,形成m*n+1个人脸块,其中,m、n为大于2的整数。
进一步地,将采集得到的遮挡人脸图像和人脸块通过字典训练算法训练得到人脸块鉴别字典的步骤包括:
构建人脸块鉴别字典学习模型,将获得的不同的遮挡人脸图像进行分块后分别得到的人脸块组成人脸块训练样本集,
根据所述人脸块训练样本集与所述初始人脸块识别字典表示预估训练集误差得到鉴别保真项;
设定所述人脸图像训练集的系数矩阵的稀疏约束项;
根据Fisher准则设定所述系数矩阵对应的鉴别约束项;
根据所述鉴别保真项、系数矩阵的稀疏约束项及鉴别约束项计算得到鉴别字典学习模型;
对所述鉴别字典学习模型进行训练得到所述人脸块鉴别字典。
进一步地,构建的人脸块鉴别字典学习模型为:
其中,r(A,D,X)为鉴别保真项,||X||1为稀疏约束项,f(X)为鉴别约束项,λ1,λ2为平衡因子参数。
进一步地,所述根据Fisher准则计算所述系数矩阵对应的鉴别约束项的步骤包括:
根据Fisher准则定义加权类间散布矩阵SB和加权类内散布矩阵SW;
其中,加权类间散布矩阵SB定义如下:
其中,C为类别数;pi为类i的先验概率;μi为第i类系数Xi的均值,μj为第j类系数的均值,w(i,j)为第i类和第j类的权值;
其中,
其中,n为向量的维数,μi(k),μj(k)分别表示第i,j类均值向量中第k个特征;γ(μi(k),μj(k))为第i类与第j类均值向量中第k个特征的关联系数,定义如下:
其中,加权类内散布矩阵SW定义如下:
其中,表示第i类中第j个样本系数;
其中,
其中,参数t为经验常数;
根据所述加权类间散布矩阵SB和加权类内散布矩阵SW计算得到所述鉴别约束项,所述鉴别约束项表示为:
其中,tr(·)表示矩阵的迹操作,η为常量参数,为添加的弹性项。
进一步地,建立每个所述人脸块对应的人脸块稀疏表示模型,并计算各个所述人脸块稀疏表示模型的稀疏表示系数的步骤包括:
建立每个所述人脸块的人脸块稀疏表示模型,所述人脸块稀疏表示模型如下:
其中,D为所述人脸块鉴别字典,y为人脸分块图像矩阵,x为稀疏表示系数矩阵;
计算各个所述人脸块稀疏表示模型的稀疏表示系数,具体计算步骤如下:
利用L1/2正则子的求解算法,求出所述人脸块稀疏表示模型的稀疏表示系数的解重写稀疏表示系数其中,系数向量对应于子字典Di。
进一步地,根据各个所述人脸块稀疏表示模型的稀疏表示系数,对所述人脸块进行分类的步骤包括:
根据定义每类的残差:
其中,为第i类的重构误差项,为稀疏表示系数与第i系数均值μi的距离,其中,系数均值μi在人脸块识别字典训练时计算得到,w为预设的平衡权值;
对所述残差进行排序,选取最小的残差所对应的类别确定为所述人脸块的类别。
进一步地,采用动态股权投票制融合各个人脸块的分类结果,得到最终的遮挡人脸类别的步骤包括:
确定每个所述人脸块的人脸块图像的重要程度、人脸块图像的熵和人脸块图像的稀疏度,具体为:
所述人脸块图像的重要程度为预先设定的各个人脸块对识别人脸的贡献率;
人脸块图像的熵为:
其中,I(x,y)为给定的人脸块,pi为第ith灰度级的概率,Ng为灰度级总数;
人脸块图像的稀疏度采用如下方式计算得到:
其中,k为类别数,x为所述稀疏表示系数矩阵,δi(x)为新的向量,其非0项选择与第i相对应的项,其它项全为0,||·||1为向量中非0元素的个数;
动态股权投票制中各个所述人脸块的动态股权采用以下公式计算:
其中,Il和El分别为人脸块图像的重要程度值和人脸块图像的熵值。
本发明还提供了一种遮挡人脸识别装置,包括:
分块模块,用于将获得的遮挡人脸图像按照预设规则分块,得到多个人脸块;
鉴别字典训练模块,用于将采集得到的遮挡人脸图像和人脸块通过字典训练算法训练得到人脸块鉴别字典;
稀疏表示系数计算模块,用于建立每个所述人脸块对应的人脸块稀疏表示模型,计算各个所述人脸块稀疏表示模型的稀疏表示系数;
分类模块,用于根据各个所述人脸块稀疏表示模型的稀疏表示系数,对所述人脸块进行分类;
融合模块,用于采用动态股权投票制融合各个人脸块的分类结果,得到最终的人脸类别。
进一步地,所述分块模块将获得的遮挡人脸图像按照预设规则分块,得到多个人脸块的方法包括:
将每个遮挡人脸图像进行归一化处理;
将归一化处理后的遮挡人脸图像按照m行n列划分为m*n个人脸块;
将m*n个人脸块加上原始的完整的遮挡人脸图像,形成m*n+1个人脸块,其中,m、n为大于2的整数。
本发明实施例通过先对人脸图像进行分块,并通过人脸块鉴别训练集进行训练得到人脸块鉴别字典,使人脸块鉴别字典能够对具有遮挡的人脸图像的分类更加准确,同时通过动态股权投票的机制融合各个人脸块的分类结果,得到最终的人脸类别,可以提高对遮挡人脸图像识别的准确率
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明较佳实施例提供的电子终端的方框示意图。
图2为本发明较佳实施例提供的遮挡人脸识别方法的流程图。
图3为本发明较佳实施例提供的遮挡人脸识别方法中的步骤S102的子步骤的流程图。
图4为本发明较佳实施例提供的遮挡人脸识别装置的功能模块示意图。
图标:100-电子终端;110-遮挡人脸识别装置;111-存储器;112-存储控制器;113-处理器;114-外设接口;115-输入输出单元;116-显示单元;1101-分块模块;1102-鉴别字典训练模块;1103-稀疏表示稀疏计算模块;1104-分类模块;1105-融合模块。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
如图1所示,是一电子终端100的方框示意图。所述电子终端100包括遮挡人脸识别装置110、存储器111、存储控制器112、处理器113、外设接口114、输入输出单元115、显示单元116。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对电子终端100的结构造成限定。例如,电子终端100还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。本实施例所述的电子终端100可以是个人计算机、图像处理服务器、或者移动电子设备等具有图像处理能力的计算设备。
所述存储器111、存储控制器112、处理器113、外设接口114、输入输出单元115及显示单元116各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。所述遮挡人脸识别装置110包括至少一个可以软件或固件(Firmware)的形式存储于所述存储器111中或固化在所述电子终端100的操作系统(Operating System,OS)中的软件功能模块。所述处理器113用于执行存储器中存储的可执行模块,例如所述遮挡人脸识别装置110包括的软件功能模块或计算机程序。
其中,所述存储器111可以是,但不限于,随机存取存储器(Random AccessMemory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(ProgrammableRead-Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read-OnlyMemory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-OnlyMemory,EEPROM)等。其中,存储器111用于存储程序,所述处理器113在接收到执行指令后,执行所述程序,本发明实施例任一实施例揭示的过程定义的电子终端100所执行的方法可以应用于处理器113中,或者由处理器113实现。
所述处理器113可能是一种集成电路芯片,具有信号的处理能力。上述的处理器113可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述外设接口114将各种输入/输入装置耦合至处理器113以及存储器111。在一些实施例中,外设接口114,处理器113以及存储控制器112可以在单个芯片中实现。在其他一些实例中,他们可以分别由独立的芯片实现。
所述输入输出单元115用于提供给用户输入数据。所述输入输出单元115可以是,但不限于,鼠标和键盘等。
所述显示单元116在所述电子终端100与用户之间提供一个交互界面(例如用户操作界面)或用于显示图像数据给用户参考。在本实施例中,所述显示单元可以是液晶显示器或触控显示器。若为触控显示器,其可为支持单点和多点触控操作的电容式触控屏或电阻式触控屏等。支持单点和多点触控操作是指触控显示器能感应到来自该触控显示器上一个或多个位置处同时产生的触控操作,并将该感应到的触控操作交由处理器进行计算和处理。
本申请实施例提供了一种遮挡人脸识别方法,如图2所示,所述方法包括以下步骤。
步骤S101,将获得的遮挡人脸图像按照预设规则分块,得到多个人脸块。
本申请实施例中,获得的遮挡人脸图像可以是通过其他设备采集得到的。分块的方法可以是,将每个遮挡人脸图像进行归一化处理;将归一化处理后的遮挡人脸图像按照m行n列划分为m*n个人脸块;再将m*n个人脸块加上原始的完整的遮挡人脸图像,形成m*n+1个人脸块。其中,m、n为大于2的整数。遮挡人脸图像可以是通过电子终端采集到的不同个人的不同遮挡形式的图像。
步骤S102,将采集得到的遮挡人脸图像和人脸块通过字典训练算法训练得到人脸块鉴别字典。
在一个实例中,还可以对采集到的遮挡人脸图像进行样本处理。例如,人脸库中有100个人,每个人包括10幅不同时期拍摄的人脸图像,共1000幅人脸样本。按照上述分块方法将每个遮挡人脸图像进行分块,每个人脸样本得到m×n+1个人脸块。针对1000个人脸样本,其共有m×n+1种类别的人脸块,每类人脸块共有1000个;共有1000×(m×n+1)个人脸块。针对每类人脸块,可以组成人脸块训练集A=[A1,A2,…,A100],表示有100个人脸类别,每个类别有10个人脸块样本。据此,将每类人脸块分为100类,每类包括10个训练样本。
如图3所示,构建人脸块鉴别字典可以通过以下子步骤实现。
子步骤S121,构建人脸块鉴别字典学习模型,将获得的不同的遮挡人脸图像进行分块后分类得到的人脸块组成人脸块训练样本集。
详细的,假设训练样本集A由字典D线性组合表示,其稀疏表示系数矩阵为X。则X可以改写为X=[X1,X2,…,X100],其中Xi为子集Ai的系数矩阵。为了使求取的字典D不但对样本集A具有很好的重建能力,同时还具有很强的鉴别能力。本申请实施例中构建的人脸块鉴别字典学习模型为:
其中,r(A,D,X)为鉴别保真项,||X||1为稀疏约束项,f(X)为鉴别约束项,λ1,λ2为平衡因子参数。
子步骤S122,根据所述人脸块训练样本集与所述初始人脸块识别字典表示预估训练集误差得到鉴别保真项。
详细的,对子集Ai的系数矩阵Xi进行改写,得到其中为Ai由子字典Dj线性组合表示的系数矩阵。首先,子集Ai应该被字典D很好表达:其次,由于Di对应第i类,期望Ai能够被Di很好的表达,而不是Dj(j≠i)。意味着占据大部分重要非0系数值,而接近全0项,从而导致和将非常小。因此,可以定义如下的鉴别保真项:
子步骤S123,设定所述人脸图像训练集的系数矩阵的稀疏约束项。
子步骤S124,根据Fisher准则设定所述系数矩阵对应的鉴别约束项。
详细的,为了使学习得到的字典D更有鉴别性,可以采用约束规范系数矩阵X的方式达到目的。本发明采用经典Fisher准则,并对其类间与类内散布矩阵加权以达到更佳效果。根据Fisher准则,定义加权类间散布矩阵SB和加权类内散布矩阵SW:
其中,C为类别数(这里为100),pi为类i的先验概率,一般都取1/C,μi为第i类系数Xi的均值,w(i,j)为第i类和第j类的权值,其目的是降低本来已经分得很开的类的权值,而让相近的类别得到更多的关注。本课题采用邓氏关联度计算两类均值之间的权值:
其中,n为向量的维数,μi(k),μj(k)分别表示第i,j类均值向量中第k个特征,γ(μi(k),μj(k))为第i类与第j类均值向量中第k个特征的关联系数,定义如下:
加权类内散布矩阵SW定义如下:
其中,表示第i类中第j个样本系数,加权函数w(j,k)定义为:
其中,参数t为经验常数。此处权值项的目的是降低同类中本来就很相近的样本对的权值,而让那些离得稍远的样本对得到更多关注。有了SB,SW,加权Fisher准则鉴别约束项为:
tr(·)表示矩阵的迹操作,η为常量参数,为添加的弹性项以保证f(X)的凸优化和稳定性。
子步骤S125,根据所述鉴别保真项、系数矩阵的稀疏约束项及鉴别约束项计算得到鉴别字典学习模型。
子步骤S126,对所述鉴别字典学习模型进行训练得到所述人脸块鉴别字典。
最终字典学习模型的目标函数求解可以通过交替迭代的方法分成两个子问题求解:1)固定字典D,更新系数矩阵X;2)固定系数矩阵X,更新字典D。如此交替迭代直到收敛为止。
步骤S103,建立每个所述人脸块对应的人脸块稀疏表示模型,并计算各个所述人脸块稀疏表示模型的稀疏表示系数。
详细的,对输入的测试人脸采用步骤S101中的所述方法进行分块,针对每个分块利用上述方法得到的人脸块鉴别字典D建立人脸块稀疏表示模型如下:
其中,y为输入的人脸分块图像矩阵,x是需要求解的稀疏表示系数矩阵。上式是一个非凸优化问题,其求解可以转化为加权L1正则子求解问题。具体为:
1)令t=0,设定最大迭代次数K,初始化x0=(1,…,1)T;
2)求解并令t=t+1;
3)当t<K时,转步骤2;当t=K时,输出xt。
上述算法中,步骤1设定了最大迭代次数K作为算法终止条件。由于在步骤1中设定了初始化解x0=(1,…,1)T,于是步骤2第一次迭代时对应求解一个L1正则子问题(即恰好产生Lasso解).而第二次迭代时,步骤2相当于求解一个加权L1正则子,通过简单的线性转换该问题仍然可以转换为L1正则子求解。应当注意到,当算法迭代第二次以后,参数xt中可能会出现0。为了保证算法可实施,在加权时,可采用替代ε为任意给定的一个正数。
有了L1/2正则子的求解算法,便可求出各人脸块稀疏表示模型的解系数
步骤S104,根据各个所述人脸块稀疏表示模型的稀疏表示系数,对所述人脸块进行分类。
详细的,首先,重写步骤(2)中得到人脸块稀疏表示系数其中,系数向量对应于子字典Di。
然后,根据定义每类的残差:
其中,第一项为第i类的重构误差项,第二项为稀疏表示系数与第i系数均值μi(在人脸块鉴别字典训练时得到)的距离,w为预设的平衡权值。对ei进行排序,选取最小的ei所对应的类别确定为人脸块的类别。
最后,融合各人脸分块的结果得到最终的人脸类别,本发明采用动态股权投票制方法融合每分块的结果得出最终结果。
步骤S105,采用动态股权投票制融合各个人脸块的分类结果,得到最终的人脸类别。
动态股权投票制由各分块的三个因子动态确定其股权,三个因子分别为:人脸块图像的重要程度(IDI)、人脸块图像的熵(Entropy)和人脸块图像的稀疏度(SCI)。
详细的,人脸块图像的重要程度IDI,指各人脸块图像在整个人脸图像中重要程度,根据人类进行人脸识别可知人脸的器官区域比脸颊区域更重要。因此,IDI可以根据人类的经验设定各分块对识别人脸贡献率。
对于给定的人脸分块I(x,y),其人脸块图像的熵Entropy为:
其中,pi为第ith灰度级的概率,Ng为灰度级总数;
人脸块图像的稀疏度SCI指各分块的稀疏度指标,计算如下:
其中,k为类别数,x是步骤S103中求解出的稀疏表示系数矩阵,δi(x)是一个新的向量,其非0项仅选择与第i相对应的项,其它项全为0,||·||1为向量中非0元素的个数。SCI指标由各分块的分类性能决定。如果SCI(x)=1,测试图像仅由某类的一个对象表示,表明具有很好的分类效果。如果SCI(x)=0,表征系数分布在整个训练集中,表明不能正确分类。如果某人脸块存在遮挡或是有较大的表情变化,那么它的表征系数必定是分散在各类中,即它相对应的稀疏度指数值必定很小(接近0)。也就是说某分块的SCI值越小,其对应的股权就越小。
因此,动态股权投票制中各分块的动态股权分配如下:
其中,Il和El分别为IDI和Entropy的值。
本发明实施例通过先对人脸图像进行分块,并通过人脸块鉴别训练集进行训练得到人脸块鉴别字典,使人脸块鉴别字典能够对具有遮挡的人脸图像的分类更加准确,同时通过动态股权投票的机制融合各个人脸块的分类结果,得到最终的人脸类别,可以提高对遮挡人脸图像识别的准确率。
本发明实施例还提供了一种遮挡人脸识别装置,如图4所示,包括:
分块模块1101,用于将获得的遮挡人脸图像按照预设规则分块,得到多个人脸块。
鉴别字典训练模块1102,用于将采集得到的遮挡人脸图像和人脸块通过字典训练算法训练得到人脸块鉴别字典。
稀疏表示系数计算模块1103,用于建立每个所述人脸块对应的人脸块稀疏表示模型,计算各个所述人脸块稀疏表示模型的稀疏表示系数。
分类模块1104,用于根据各个所述人脸块稀疏表示模型的稀疏表示系数,对所述人脸块进行分类。
融合模块1105,用于采用动态股权投票制融合各个人脸块的分类结果,得到最终的人脸类别。
详细的,可以参见上述方法实施例中的描述,这里不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种遮挡人脸识别方法,其特征在于,所述方法包括:
将获得的遮挡人脸图像按照预设规则分块,得到多个人脸块;
将采集得到的遮挡人脸图像和人脸块通过字典训练算法训练得到人脸块鉴别字典;
建立每个所述人脸块对应的人脸块稀疏表示模型,计算各个所述人脸块稀疏表示模型的稀疏表示系数;
根据各个所述人脸块稀疏表示模型的稀疏表示系数,对所述人脸块进行分类;
采用动态股权投票制融合各个人脸块的分类结果,得到最终的人脸类别。
2.根据权利要求1所述的遮挡人脸识别方法,其特征在于,将获得的遮挡人脸图像按照预设规则分块,得到多个人脸块的步骤包括:
将每个遮挡人脸图像进行归一化处理;
将归一化处理后的遮挡人脸图像按照m行n列划分为m*n个人脸块;
将m*n个人脸块加上原始的完整的遮挡人脸图像,形成m*n+1个人脸块,其中,m、n为大于2的整数。
3.根据权利要求1所述的遮挡人脸识别方法,其特征在于,将采集得到的遮挡人脸图像和人脸块通过字典训练算法训练得到人脸块鉴别字典的步骤包括:
构建人脸块鉴别字典学习模型,将获得的不同的遮挡人脸图像进行分块后分别得到的人脸块组成人脸块训练样本集,
根据所述人脸块训练样本集与初始人脸块识别字典表示预估训练集误差得到鉴别保真项;
设定所述人脸图像训练集的系数矩阵的稀疏性约束项;
根据Fisher准则设定所述系数矩阵对应的鉴别约束项;
根据所述鉴别保真项、系数矩阵的稀疏约束及鉴别约束项计算得到鉴别字典学习模型;
对所述鉴别字典学习模型进行训练得到所述人脸块鉴别字典。
4.根据权利要求3所述的遮挡人脸识别方法,其特征在于,构建的人脸块鉴别字典学习模型为:
<mrow>
<msub>
<mi>J</mi>
<mrow>
<mo>(</mo>
<mi>D</mi>
<mo>,</mo>
<mi>X</mi>
<mo>)</mo>
</mrow>
</msub>
<mo>=</mo>
<munder>
<mi>argmin</mi>
<mrow>
<mo>(</mo>
<mi>D</mi>
<mo>,</mo>
<mi>X</mi>
<mo>)</mo>
</mrow>
</munder>
<mo>{</mo>
<mi>r</mi>
<mrow>
<mo>(</mo>
<mi>A</mi>
<mo>,</mo>
<mi>D</mi>
<mo>,</mo>
<mi>X</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>&lambda;</mi>
<mn>1</mn>
</msub>
<mo>|</mo>
<mo>|</mo>
<mi>X</mi>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>1</mn>
</msub>
<mo>+</mo>
<msub>
<mi>&lambda;</mi>
<mn>2</mn>
</msub>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mo>)</mo>
</mrow>
<mo>}</mo>
</mrow>
其中,r(A,D,X)为鉴别保真项,||X||1为稀疏约束项,f(X)为鉴别约束项,λ1,λ2为平衡因子参数。
5.根据权利要求4所述的遮挡人脸识别方法,其特征在于,所述根据Fisher准则计算所述系数矩阵对应的鉴别约束项的步骤包括:
根据Fisher准则定义加权类间散布矩阵SB和加权类内散布矩阵SW;
其中,加权类间散布矩阵SB定义如下:
<mrow>
<msub>
<mi>S</mi>
<mi>B</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>C</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>i</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<msub>
<mi>p</mi>
<mi>i</mi>
</msub>
<msub>
<mi>p</mi>
<mi>j</mi>
</msub>
<mi>w</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
<mrow>
<mo>(</mo>
<msub>
<mi>&mu;</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>&mu;</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<mo>;</mo>
</mrow>
其中,C为类别数;pi为i类的先验概率;μi为第i类系数Xi的均值,μj为第j类系数的均值,w(i,j)为第i类和第j类的权值;
其中,
其中,n为向量的维数,μi(k),μj(k)分别表示第i,j类均值向量中第k个特征;γ(μi(k),μj(k))为第i类与第j类均值向量中第k个特征的关联系数,定义如下:
<mrow>
<mi>&gamma;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>&mu;</mi>
<mi>i</mi>
</msub>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
<mo>,</mo>
<msub>
<mi>&mu;</mi>
<mi>j</mi>
</msub>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<munder>
<mrow>
<mi>M</mi>
<mi>i</mi>
<mi>n</mi>
</mrow>
<mi>j</mi>
</munder>
<munder>
<mrow>
<mi>M</mi>
<mi>i</mi>
<mi>n</mi>
</mrow>
<mi>k</mi>
</munder>
<mo>|</mo>
<msub>
<mi>&mu;</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>|</mo>
<mo>+</mo>
<mi>&rho;</mi>
<munder>
<mrow>
<mi>M</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
<mi>j</mi>
</munder>
<munder>
<mrow>
<mi>M</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
<mi>k</mi>
</munder>
<mo>|</mo>
<msub>
<mi>&mu;</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>|</mo>
</mrow>
<mrow>
<mo>|</mo>
<msub>
<mi>&mu;</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>|</mo>
<mo>+</mo>
<mi>&rho;</mi>
<munder>
<mrow>
<mi>M</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
<mi>j</mi>
</munder>
<munder>
<mrow>
<mi>M</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
<mi>k</mi>
</munder>
<mo>|</mo>
<msub>
<mi>&mu;</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>|</mo>
</mrow>
</mfrac>
<mo>;</mo>
</mrow>
其中,加权类内散布矩阵SW定义如下:
<mrow>
<msub>
<mi>S</mi>
<mi>W</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<msub>
<mi>p</mi>
<mi>i</mi>
</msub>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<msub>
<mi>N</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<mn>1</mn>
</mrow>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mi>j</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>N</mi>
<mi>i</mi>
</msub>
</munderover>
<mi>w</mi>
<mrow>
<mo>(</mo>
<mi>j</mi>
<mo>,</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mrow>
<mo>(</mo>
<msubsup>
<mi>x</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>x</mi>
<mi>k</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>x</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>x</mi>
<mi>k</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<mo>;</mo>
</mrow>
其中,表示第i类中第j个样本系数;
其中,
其中,参数t为经验常数;
根据所述加权类间散布矩阵SB和加权类内散布矩阵SW计算得到所述鉴别约束项,所述鉴别约束项表示为:
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>t</mi>
<mi>r</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>S</mi>
<mi>W</mi>
</msub>
<mo>(</mo>
<mi>X</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>t</mi>
<mi>r</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>S</mi>
<mi>B</mi>
</msub>
<mo>(</mo>
<mi>X</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mi>&eta;</mi>
<mo>|</mo>
<mo>|</mo>
<mi>X</mi>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mi>F</mi>
<mn>2</mn>
</msubsup>
<mo>;</mo>
</mrow>
其中,tr(·)表示矩阵的迹操作,η为常量参数,为添加的弹性项。
6.根据权利要求1所述的遮挡人脸识别方法,其特征在于,建立每个所述人脸块对应的人脸块稀疏表示模型,并计算各个所述人脸块稀疏表示模型的稀疏表示系数的步骤包括:
建立每个所述人脸块的人脸块稀疏表示模型,所述人脸块稀疏表示模型如下:
<mrow>
<mover>
<mi>x</mi>
<mo>~</mo>
</mover>
<mo>=</mo>
<mi>arg</mi>
<mi> </mi>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
<mo>{</mo>
<mo>|</mo>
<mo>|</mo>
<mi>y</mi>
<mo>-</mo>
<mi>D</mi>
<mi>x</mi>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mn>2</mn>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mi>&gamma;</mi>
<mo>|</mo>
<mo>|</mo>
<mi>x</mi>
<mo>|</mo>
<msub>
<mo>|</mo>
<mrow>
<mn>1</mn>
<mo>/</mo>
<mn>2</mn>
</mrow>
</msub>
<mo>}</mo>
<mo>,</mo>
</mrow>
其中,D为所述人脸块鉴别字典,y为人脸分块图像矩阵,x为稀疏表示系数矩阵;
计算各个所述人脸块稀疏表示模型的稀疏表示系数,具体计算步骤如下:
利用L1/2正则子的求解算法,求出所述人脸块稀疏表示模型的稀疏表示系数的解重写稀疏表示系数其中,系数向量对应于子字典Di。
7.根据权利要求1所述的遮挡人脸识别方法,其特征在于,根据各个所述人脸块稀疏表示模型的稀疏表示系数,对所述人脸块进行分类的步骤包括:
根据定义每类的残差:
其中,为第i类的重构误差项,为稀疏表示系数与第i系数均值μi的距离,其中,系数均值μi在人脸块识别字典训练时计算得到,w为预设的平衡权值;
对所述残差进行排序,选取最小的残差所对应的类别确定为所述人脸块的类别。
8.根据权利要求1所述的遮挡人脸识别方法,其特征在于,采用动态股权投票制融合各个人脸块的分类结果,得到最终的人脸类别的步骤包括:
确定每个所述人脸块的人脸块图像的重要程度、人脸块图像的熵和人脸块图像的稀疏度,具体为:
所述人脸块图像的重要程度为预先设定的各个人脸块对识别人脸的贡献率;
人脸块图像的熵为:
其中,I(x,y)为给定的人脸块,pi为第ith灰度级的概率,Ng为灰度级总数;
人脸块图像的稀疏度采用如下方式计算得到:
<mrow>
<mi>S</mi>
<mi>C</mi>
<mi>I</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<mi>k</mi>
<mo>&CenterDot;</mo>
<msub>
<mi>max</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>&delta;</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>1</mn>
</msub>
<mo>/</mo>
<mo>|</mo>
<mo>|</mo>
<mi>x</mi>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>1</mn>
</msub>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mfrac>
<mo>&Element;</mo>
<mo>&lsqb;</mo>
<mn>0</mn>
<mo>,</mo>
<mn>1</mn>
<mo>&rsqb;</mo>
</mrow>
其中,k为类别数,x为所述稀疏表示系数矩阵,δi(x)为新的向量,其非0项选择与第i相对应的项,其它项全为0,||·||1为向量中非0元素的个数;
动态股权投票制中各个所述人脸块的动态股权采用以下公式计算:
<mrow>
<msub>
<mi>w</mi>
<mi>l</mi>
</msub>
<mo>=</mo>
<msub>
<mi>I</mi>
<mi>l</mi>
</msub>
<mo>&CenterDot;</mo>
<msub>
<mi>E</mi>
<mi>l</mi>
</msub>
<mo>&CenterDot;</mo>
<mi>S</mi>
<mi>C</mi>
<mi>I</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mi>l</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>I</mi>
<mi>l</mi>
</msub>
<mo>&CenterDot;</mo>
<msub>
<mi>E</mi>
<mi>l</mi>
</msub>
<mo>&CenterDot;</mo>
<mfrac>
<mrow>
<mi>k</mi>
<mo>&CenterDot;</mo>
<msub>
<mi>max</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>&delta;</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mi>l</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>1</mn>
</msub>
<mo>/</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>x</mi>
<mi>l</mi>
</msub>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>1</mn>
</msub>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mfrac>
<mo>;</mo>
</mrow>
其中,Il和El分别为人脸块图像的重要程度值和人脸块图像的熵值。
9.一种遮挡人脸识别装置,其特征在于,包括:
分块模块,用于将获得的遮挡人脸图像按照预设规则分块,得到多个人脸块;
鉴别字典训练模块,用于将采集得到的遮挡人脸图像和人脸块通过字典训练算法训练得到人脸块鉴别字典;
稀疏表示系数计算模块,用于建立每个所述人脸块对应的人脸块稀疏表示模型,计算各个所述人脸块稀疏表示模型的稀疏表示系数;
分类模块,用于根据各个所述人脸块稀疏表示模型的稀疏表示系数,对所述人脸块进行分类;
融合模块,用于采用动态股权投票制融合各个人脸块的分类结果,得到最终的人脸类别。
10.根据权利要求9所述的遮挡人脸识别装置,其特征在于,所述分块模块,将获得的遮挡人脸图像按照预设规则分块,得到多个人脸块的方法包括:
将每个遮挡人脸图像进行归一化处理;
将归一化处理后的遮挡人脸图像按照m行n列划分为m*n个人脸块;
将m*n个人脸块加上原始的完整的遮挡人脸图像,形成m*n+1个人脸块,其中,m、n为大于2的整数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711354272.1A CN107992846A (zh) | 2017-12-15 | 2017-12-15 | 遮挡人脸识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711354272.1A CN107992846A (zh) | 2017-12-15 | 2017-12-15 | 遮挡人脸识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107992846A true CN107992846A (zh) | 2018-05-04 |
Family
ID=62038784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711354272.1A Pending CN107992846A (zh) | 2017-12-15 | 2017-12-15 | 遮挡人脸识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107992846A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109033994A (zh) * | 2018-07-03 | 2018-12-18 | 辽宁工程技术大学 | 一种基于卷积神经网络的人脸表情识别方法 |
CN109145919A (zh) * | 2018-08-20 | 2019-01-04 | 贵州宜行智通科技有限公司 | 一种不文明标语检测方法及装置 |
CN109886167A (zh) * | 2019-02-01 | 2019-06-14 | 中国科学院信息工程研究所 | 一种遮挡人脸识别方法及装置 |
CN110110681A (zh) * | 2019-05-14 | 2019-08-09 | 哈尔滨理工大学 | 一种用于有遮挡的人脸识别方法 |
CN111783598A (zh) * | 2020-06-24 | 2020-10-16 | 北京百度网讯科技有限公司 | 一种人脸识别模型训练方法、装置、设备及介质 |
CN118196875A (zh) * | 2024-05-16 | 2024-06-14 | 深圳市博锐高科科技有限公司 | 一种补全人脸识别方法、芯片和终端 |
CN118196874A (zh) * | 2024-05-15 | 2024-06-14 | 深圳市博锐高科科技有限公司 | 一种局部缺失人脸识别方法、芯片和终端 |
CN118334732A (zh) * | 2024-06-13 | 2024-07-12 | 深圳市博锐高科科技有限公司 | 一种缺失人脸图像修补识别方法、芯片和终端 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2711892A2 (en) * | 2012-09-24 | 2014-03-26 | Vision Semantics Limited | Improvements in resolving video content |
CN104732186A (zh) * | 2013-12-18 | 2015-06-24 | 南京理工大学 | 基于局部子空间稀疏表示的单样本人脸识别方法 |
CN105335732A (zh) * | 2015-11-17 | 2016-02-17 | 西安电子科技大学 | 基于分块及鉴别非负矩阵分解的有遮挡人脸识别方法 |
CN106295609A (zh) * | 2016-08-22 | 2017-01-04 | 河海大学 | 基于块稀疏结构低秩表示的单样本人脸识别方法 |
CN107025444A (zh) * | 2017-04-08 | 2017-08-08 | 华南理工大学 | 分块协同表示嵌入核稀疏表示遮挡人脸识别方法和装置 |
CN107392134A (zh) * | 2017-07-14 | 2017-11-24 | 广州智慧城市发展研究院 | 一种基于联合分块的人脸识别方法及系统 |
-
2017
- 2017-12-15 CN CN201711354272.1A patent/CN107992846A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2711892A2 (en) * | 2012-09-24 | 2014-03-26 | Vision Semantics Limited | Improvements in resolving video content |
CN104732186A (zh) * | 2013-12-18 | 2015-06-24 | 南京理工大学 | 基于局部子空间稀疏表示的单样本人脸识别方法 |
CN105335732A (zh) * | 2015-11-17 | 2016-02-17 | 西安电子科技大学 | 基于分块及鉴别非负矩阵分解的有遮挡人脸识别方法 |
CN106295609A (zh) * | 2016-08-22 | 2017-01-04 | 河海大学 | 基于块稀疏结构低秩表示的单样本人脸识别方法 |
CN107025444A (zh) * | 2017-04-08 | 2017-08-08 | 华南理工大学 | 分块协同表示嵌入核稀疏表示遮挡人脸识别方法和装置 |
CN107392134A (zh) * | 2017-07-14 | 2017-11-24 | 广州智慧城市发展研究院 | 一种基于联合分块的人脸识别方法及系统 |
Non-Patent Citations (3)
Title |
---|
HAIBIN LIAO 等: "A new facial feature based on the fusion of texture and shape characteristics", 《ICMEW》 * |
MENG YANG等: "Fisher Discrimination Dictionary Learning for Sparse Representation", 《2011 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
巩知乐等: "因子分析判别准则的线性降维方法研究", 《计算机工程与应用》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109033994B (zh) * | 2018-07-03 | 2021-08-10 | 辽宁工程技术大学 | 一种基于卷积神经网络的人脸表情识别方法 |
CN109033994A (zh) * | 2018-07-03 | 2018-12-18 | 辽宁工程技术大学 | 一种基于卷积神经网络的人脸表情识别方法 |
CN109145919A (zh) * | 2018-08-20 | 2019-01-04 | 贵州宜行智通科技有限公司 | 一种不文明标语检测方法及装置 |
CN109886167A (zh) * | 2019-02-01 | 2019-06-14 | 中国科学院信息工程研究所 | 一种遮挡人脸识别方法及装置 |
CN110110681A (zh) * | 2019-05-14 | 2019-08-09 | 哈尔滨理工大学 | 一种用于有遮挡的人脸识别方法 |
CN111783598B (zh) * | 2020-06-24 | 2023-08-08 | 北京百度网讯科技有限公司 | 一种人脸识别模型训练方法、装置、设备及介质 |
CN111783598A (zh) * | 2020-06-24 | 2020-10-16 | 北京百度网讯科技有限公司 | 一种人脸识别模型训练方法、装置、设备及介质 |
CN118196874A (zh) * | 2024-05-15 | 2024-06-14 | 深圳市博锐高科科技有限公司 | 一种局部缺失人脸识别方法、芯片和终端 |
CN118196874B (zh) * | 2024-05-15 | 2024-09-13 | 深圳市博锐高科科技有限公司 | 一种局部缺失人脸识别方法、芯片和终端 |
CN118196875A (zh) * | 2024-05-16 | 2024-06-14 | 深圳市博锐高科科技有限公司 | 一种补全人脸识别方法、芯片和终端 |
CN118196875B (zh) * | 2024-05-16 | 2024-09-13 | 深圳市博锐高科科技有限公司 | 一种补全人脸识别方法、芯片和终端 |
CN118334732A (zh) * | 2024-06-13 | 2024-07-12 | 深圳市博锐高科科技有限公司 | 一种缺失人脸图像修补识别方法、芯片和终端 |
CN118334732B (zh) * | 2024-06-13 | 2024-08-30 | 深圳市博锐高科科技有限公司 | 一种缺失人脸图像修补识别方法、芯片和终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107992846A (zh) | 遮挡人脸识别方法及装置 | |
US12079696B2 (en) | Machine learning model training method and device, and expression image classification method and device | |
Wang et al. | Meta balanced network for fair face recognition | |
Xie et al. | Scut-fbp: A benchmark dataset for facial beauty perception | |
Li et al. | Nonlinear sufficient dimension reduction for functional data | |
Clavel et al. | Missing data estimation in morphometrics: how much is too much? | |
US11093800B2 (en) | Method and device for identifying object and computer readable storage medium | |
CN105225222B (zh) | 对不同图像集的感知视觉质量的自动评估 | |
Morgenstern et al. | An image-computable model of human visual shape similarity | |
CN105528620B (zh) | 一种联合鲁棒主成分特征学习与视觉分类方法及系统 | |
CN114419378B (zh) | 图像分类的方法、装置、电子设备及介质 | |
CN110390307B (zh) | 表情识别方法、表情识别模型训练方法及装置 | |
CN113762117B (zh) | 一种图像处理模型的训练方法、图像处理模型及计算机设备 | |
Kapelner et al. | Evaluating the effectiveness of personalized medicine with software | |
CN115222443A (zh) | 客户群体划分方法、装置、设备及存储介质 | |
CN114626626A (zh) | 一种模型训练方法、装置、存储介质和电子设备 | |
CN107729844A (zh) | 人脸属性识别方法及装置 | |
CN110991294A (zh) | 一种快速构建的人脸动作单元识别方法及系统 | |
CN111553250A (zh) | 一种基于人脸特征点的精准面瘫程度评测方法及装置 | |
CN111046786A (zh) | 年龄估计神经网络的生成方法、装置以及电子设备 | |
CN113850632B (zh) | 用户类别确定方法、装置、设备及存储介质 | |
JP6947460B1 (ja) | プログラム、情報処理装置、及び方法 | |
CN111553249B (zh) | 一种cv下基于h-b分级的精准面瘫程度评测方法及装置 | |
CN110458058B (zh) | 表情的识别方法和装置 | |
Zhang et al. | A dual Laplacian framework with effective graph learning for unified fair spectral clustering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180504 |
|
RJ01 | Rejection of invention patent application after publication |