CN106156693B - 用于面部识别的基于多模型表示的鲁棒错误纠正方法 - Google Patents
用于面部识别的基于多模型表示的鲁棒错误纠正方法 Download PDFInfo
- Publication number
- CN106156693B CN106156693B CN201510140285.3A CN201510140285A CN106156693B CN 106156693 B CN106156693 B CN 106156693B CN 201510140285 A CN201510140285 A CN 201510140285A CN 106156693 B CN106156693 B CN 106156693B
- Authority
- CN
- China
- Prior art keywords
- face
- test sample
- facial
- error
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 75
- 238000012937 correction Methods 0.000 title description 19
- 238000012360 testing method Methods 0.000 claims abstract description 57
- 230000001815 facial effect Effects 0.000 claims abstract description 47
- 238000012549 training Methods 0.000 claims abstract description 45
- 239000013598 vector Substances 0.000 claims abstract description 30
- 230000006870 function Effects 0.000 claims description 37
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000013500 data storage Methods 0.000 claims description 11
- 230000003628 erosive effect Effects 0.000 claims description 6
- 230000008921 facial expression Effects 0.000 claims description 3
- 230000000670 limiting effect Effects 0.000 claims description 3
- 150000001875 compounds Chemical class 0.000 claims 1
- 238000012545 processing Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000005457 optimization Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000004088 simulation Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000002939 conjugate gradient method Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 230000007850 degeneration Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000001373 regressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2136—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on sparsity criteria, e.g. with an overcomplete basis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Computer Security & Cryptography (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种面部识别方法。所述方法包括:预先存储一系列的面部训练图像,每一面部训练图像对应一个面部类别,每一面部类别包括一个或者多个面部训练图像;获取一个或者多个面部测试样本;采用表示模型表示面部测试样本,面部测试样本的表示模型的表示结果表示面部训练图像与错误项的结合,其中,每一面部训练图像与一系数向量对应;通过求解限制性最优解问题获得系数向量以及错误项;按面部类别计算残余错误,所述残余错误为面部测试样本与面部测试样本的表示模型之间的差别;所述面部测试样本的表示模型由面部类别中的训练图像形成。通过选出的,服从最低残余错误的面部类型来对面部测试样本进行分类;以及输出面部测试样本所属的面部类别。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及脸部识别技术。
背景技术
随着计算机及图像处理技术的发展,面部识别技术越来越多的应用于安防系统,视频交互应用,图像编辑及归档应用,以及计算机视频应用等等方面。举例来说,面部识别由其在主流发展应用中的巨大潜力所推动,包括有视频监视保卫、模拟现实、自动视频标记、药物分析、质量控制以及视频课程评估。虽然对于人类而言,面部识别是一项非常简单的任务,但对于机器来说,由于定义目标的图像时,其旋转、亮度、形状以及目标遮挡等多种情况的存在,面部识别是一项非常困难的任务。
面部识别面临的其中一项问题是通过给定的图像推导出某一物体的定义。在处理非可控制环境下的大规模面部识别实践系统上已经有一些研究成果。近来,基于协同表示的分类方法已经被全面研究,应用在识别给定的正视图具有多种形状及亮度或者是存在遮挡或者掩饰的人脸图像。现有的,应用在面部识别中基于协同表示的分类方法解出一个带稀疏或者非稀疏的参数的标准回归模型,该模型以一个面部图像可以由训练图像的线性组合表示的假设为前提,这一假设与基于稀疏表示的分类识别(SRC)相同。
SRC的主要思想在于:在不同的情况下,一个目标面部图像都可以由相同目标在不同情况下(例如,姿势,亮度,被遮挡等等)获取的可使用的图像的稀疏线性组合表示。上述思想原则也可以应用于一个面部图像由较低维度空间中描述的,重要及容易的可定义特征所表示的情况中。SRC首先编码一个测试样本作为所有训练样本的稀疏线性组合,然后通过计算哪一个类别能够实现最低的表示错误来对这些测试样本进行分类。所述SRC的回归模型是由密集噪声及一个可测量参数向量所组成。该参数向量是一个稀疏向量并且能够通过最优解方法获得。
尽管基于稀疏表示的分类方法获得了很大的成功,但是其必需通过最优解方法来提高面部识别率的方法仍然存在不足。研究人员通过使用许多相似图像实现对某一图像的协同表示来提升面部识别的效果,而不是规划系数最优解方法。进一步的,系数规划只有在一些特定情况下才能成功。
现有的多种面部识别方案中均提供了在模型化由一系列图像损坏类型所致的噪声特征时的鲁棒性。实施错误纠正的方法从而使回归模型在异常值时(如被遮挡时)更有鲁棒性。在错误纠正的方法中,在回归模型中添加一个辅助变量来定义那些总是与高斯分布不同的错误。需要一个错误的分布的在先假设来评价它与表示系数之间的连带关系。研究人员已经对错误的全部特征的用途进行了研究,从而特征化相同的遮挡情况。所述错误图像被假定是低秩并且被评估连带的表示系数。
尽管如此,大部分现有的方法基本是在噪声符合其错误模型的假定中进行测试的。例如,有些研究者认为噪声是低秩回归的,因此,在遮挡时可以成功的进行面部识别。同时,另外一些研究者则认为结合低秩和稀疏性,作为一个随机像素损坏,用以提升他们的识别率。矛盾的是,当损坏像素的百分比显著上升时,将不满足所述低秩的假设,识别率将极大的下降。
进一步的,在面部识别中,复杂的遮挡、图像变化情况,以及他们两者的结合可能同时出现在查询图像及训练例子中。具有一个在线分别的错误回归模型可能不足以特征化该错误。例如,如果面部图像具有不同的面部表情或者光线变化时,仅使用低秩可能不足以很好的描述这一错误,而采用低秩和稀疏性可以很好的表示。
本发明公开的方法及其系统用于解决现有技术中的一个或者多个问题。
发明内容
本发明的一方面公开了一种面部识别方法。所述方法包括:预先存储一系列面部训练图像,每一面部训练图像对应一个面部类别,每一面部类别包括一个或者多个面部训练图像。获取一个或者多个面部测试样本;采用表示模型表示面部测试样本,面部测试样本的表示模型的表示结果表示面部训练图像与错误项的结合,其中,每一面部训练图像与一系数向量对应。
通过求解限制性最优解问题获得系数向量以及错误项。按面部类别计算残余错误,所述残余错误为面部测试样本与面部测试样本的表示模型之间的差别。所述面部测试样本的表示模型由面部类别中的训练图像形成。通过选出的,服从最低残余错误的面部类型来对面部测试样本进行分类。以及输出面部测试样本所属的面部类别。
本发明另一方面公开了一种面部识别系统。所述系统包括:数据存储模块,.获取模块,计算模块以及输出模块。其中,数据存储模块用于,存储一系列面部训练图像,每个面部训练图像对应一个面部类别,每个面部类别包括一个或者多个面部训练图像.获取模块,用于获取一个或者多个面部测试样本。具体的,计算模块用于,采用表示模型表示面部测试样本,表示模型表示后的面部测试样本表示面部训练图像与错误项的结合,每一系数向量对应一个面部训练图像;通过求解限制性最优解问题获得系数向量以及错误项;按面部类别计算残余错误,所述残余错误为面部测试样本与面部测试样本的表示模型之间的错误;所述面部测试样本的表示模型由面部类别中的训练图像形成;通过选出的,服从最低残余错误的面部类型来对面部测试样本进行分类。更具体的,所述输出模块用于,输出面部测试样本所属的面部类别。
本发明的其他方面,所属技术领域技术人员能够依据本发明的权利要求书,说明书,以及附图有效实施并充分公开。
附图简要说明
图1为本发明具体实施方式中的一个具体工作系统200的示意图。
图2为本发明具体实施例的计算系统的示意图。
图3为本发明将视频流分割为不同视频部分的具体实施例的示意图。
图4为本发明面部识别系统的具体实施方式的结构框图。
图5为本发明面部识别方法的具体实施例的方法流程图。
图6为本发明基于多模型表示的鲁棒错误纠正方法的具体实施例的方法流程图。
图7为本发明基于多模型表示的鲁棒错误纠正方法中获取系数向量以及错误项的方法的示意图。
图8为本发明面部识别系统的另一具体实施例的示意图。
图9为本发明面部识别方法的另一具体实施例的示意图。
具体实施方式
附图中展示的部分将被引用以具体说明,阐述本发明具体技术实施方案。说明书中引用的数字代表附图的相应部分。
图1展示了本发明具体实施方式中的一个工作系统100。如图1所示,所述工作系统100可以包括:电视机(TV)102,遥控器104,服务器106、用户108,通信网络110,摄像机112,便携式存储设备114以及数据存储设备116。当然一些设备可以减省,还可以添加其他合适的设备。
电视机(TV)102可以是任何合适类型的电视机,例如等离子电视,LCD电视,背投式电视,智能电视或者非智能电视。电视机(TV)102还可以包括计算系统,例如个人电脑,掌上电脑或者智能手机等。进一步的,电视机(TV)102还可以是任何合适的,由遥控器104控制的,能够一个到多个频道中显示多个节目的内容显示设备。
所述遥控器104可以是任何合适类型的,能够遥控电视机(TV)102的遥控器,例如配套的电视遥控器,通用电视遥控器,掌上电脑,智能手机或者其他能够实现遥控功能的智能设备。遥控器104还可以包括其他不同类型的设备,例如动作感应遥控设备,图像感应遥控设备以及其他一些简单输入设备,例如键盘,鼠标,声控输入等。
所述用户108使用遥控器104以实现与电视机102的互动,如播放不同的节目或者进行其他用户感兴趣的活动。如果电视机102配备有动作感应或者图像感应装置,用户还可以简单的使用手势动作进行控制。用户108可以是一个人也可以是多个,例如可以是全部家庭成员在一起观看电视节目。
具体的,所述服务器106可以是任何用于提供视频内容给用户108的一个或者多个计算机服务器。所述服务器106还用于在遥控器104和电视机102之间进行通信连接,数据存储和数据处理。电视机102,遥控器104以及服务器106通过通信网络110,例如有线网络,手机网络,或者其他具体的网络等,来建立通信连接。
所述通信网络110可以包括任何数量的通信网络或者提供不同类型媒体,例如视频流、照片以及图像给服务器106的服务。
摄像机112可以是电视机102或者服务器106的内置摄像机,或者是与电视机通过无线网络或者有线连接的外置摄像机112.摄像机112可以向电视机102提供图像以及视频。
便携式存储装置114可以包括任何合适的便携式存储装置,例如记忆卡,闪存或者其他类型的可移动存储媒介,用于存储电视机102的图像或者视频。进一步的,数据存储装置116可以是内置或者外置的数据存储装置,例如用于为电视机102存储图像或者视频的硬盘或者数据库。
电视机102,遥控器104和/或服务器106在一个合适的电子计算平台实现其功能。在实际操作中,所述电子计算平台可以从摄像机112或者便携式存储装置114或者数据存储装置116,和/或通信网络110处获取图像和/或视频以及运行某些图像处理操作,例如在图像或者视频中进行面部识别。图2展示了本发明具体实施例的一种可用于实现上述电视机102、遥控器104和/或服务器106的功能的计算系统200的结构框图
如图2所示,所述计算系统200可以包括一个处理器202,存储器204,播放器206,通信模块208,数据库210、外围设备212以及图像单元220。所述计算系统可以减省上述设备,也可以添加一些其他类型的设备,而不限于上述设备。
所述处理器202可以是任何合适的处理器或处理器组。具体的,所述处理器202为能够进行多线程处理的多核心处理器。存储器204可以是任何合适的存储设备,例如ROM,RAM,闪存或者大容量机械式存储设备,例如CD-ROM,硬盘等。存储器204用于存储由处理器202执行的,为进行各种数据处理而预设的计算机运行程序。
进一步的,通信模块208可以包括一些用于通过连接网络建立通信连接的网络交互设备。数据库210可以包括一个或者多个数据库。所述数据库用于存储上述相关的数据并且可以对存储的数据执行某些操作,例如搜索数据库。
播放器206可以向用户或者电视机102的用户展示信息。播放器206可以包括任何类型的计算机播放设备或者电子播放设备(如基于CRT或者LCD的设备)所述外围设备212具体包括:各种类型的传感器以及输入,输出设备,例如键盘,鼠标。进一步的,外围设备212可以获取从图像单元220获取信息或者向图像单元传输信息。图像单元220可以包括任何合适的图像抓取组件,存储组件和/或与处理器202功能相似或者相互协作的处理器组件。
在操作中,计算系统200中,处理器202和/或图像单元200可以进行一些图像处理操作,处理来自不同资源的图像从而确定其中的感兴趣部分,并进一步提供到后端操作。例如,计算系统200可以回放视频并且在视频流的图像中进行面部识别操作。
也就是,在操作中,电视机102(或者服务器106,遥控器104等等)可以获取一段视频流,用于进行回放和/或其他图像/视频处理操作。所述视频流可以源自于本地存储的视频数据,经过通信网络从不同渠道获取的视频数据或者是从摄像机112或者其他外围设备212等输入的视频数据。
一个视频流可以分成多段不同的视频片段,如图3所示,一个视频流可以分成许多不同的场景,一个场景又可以进一步细分为许多不同的镜头,一个镜头可以分为多个视频帧。每个视频帧可以进一步分为不同的物体,并且将视频帧中的特征提取出来作进一步处理。所述面部识别可以在物体层次上运行从而定义一个或者多个预设物体,如,人。
图4为本发明具体实施例的面部识别系统400的结构框图。如图4所示,所述面部识别系统400包括视频402,面部检测模块404,计算模块406,面部分类器408,字典410以及输出模块412。可以省略一些模块,也可以增添其他一些模块。所述系统400(即系统中的多个模块)可以由软件,硬件或者软件,硬件结合实现其功能。
所述输入视频或者说视频402,可以包括任何类型的视频资源以及包括不同的视频资源。所述源自输入视频的视频402可以包括视频数据及元数据。多个视频帧之间可以通过视频内容联系并且提供给其他模块进行处理。当然,也可以包括单一的照片。所述输入视频可以被分割成多个一系列的视频帧。
所述面部识别模块404可以用于自动寻找在一系列视频帧中的面部位置。所述面部识别模块404可以内置在电视机102中,或者独立于电视机102外设置。
所述计算模块406可以用于执行错误纠正多模块表示算法来处理检测出的面部样本。面部分类器408可以用于通过鲁棒错误纠正多模块表示算法来进行分类并给予一个最终分类定义的决定。
进一步的,字典410可以包括任何类型的数据库,用于存储面部图像等等。例如,所述字典410可以包括一个收集有相关面部图像的内部或者在线数据库。
所述字典410可以用于询查以恢复特定的图像。例如,为了在给定的电影和一系列的演员中进行面部识别,将每个演员的姓名(如目标演员)及电影的名称作为关键词,在字典中进行询查从而恢复一系列的对应图像。该图像集合可以大部分为目标演员的图像以及一些其他演员的图像,而在每张图像中均包含有一个或者多个演员的面部图像。
所述输出模块412可以用于输出已经定义的面部图像。所述输出模块412可以输出以定义的面部图像用于向用户108演示或者供其他后端模块处理。所述模块可以合并或者省略并且其他模块也可以加入。
图5为本发明具体实施方式的面部识别方法500的流程图。所述方法可以在本发明面部识别系统的具体实施例中运行。
如图5所示,首先将一段输入视频分割为多个不同的视频帧集合(S502)。因为视频是由一系列连续的视频帧所组成,考虑到一般视频的标准码率(如25帧每秒),相邻视频帧之间的差别是非常小的。所以,采用一些组合或者聚类技术可以将整个视频分割为数个包含相类似视频帧的视频帧集合以供后端模块进行处理,而不是孤立的处理每一视频帧。
获取输入的视频序列后,将视频序列简化为与那些与初始摄像机拍摄设置相对应的已编码摄像机对应的视频序列,所述初始摄像机设置通过记录视频帧来源中的每一摄像机获得。(S504)。
一个典型的电影序列是由多个摄像机形成的镜头交叉组成。并且每一摄像机在给定的摄像机拍摄设置下,进行连续的拍摄。在此使用“摄像机编码”这一术语,表示对不同的摄像机进行编号,每一摄像机在视频序列或者视频流中抓取视频帧。“摄像机编码”的概念基于使用摄像机获取的视频来重构修订后的视频。一个典型的视频序列模式是由多个摄像机形成的镜头交叉组成。并且每一摄像机在给定的摄像机拍摄设置下,进行连续的拍摄。通过对输入视频帧的每一摄像机进行编码,原有的输入视频可以被分为一系列的视频帧序列,每一视频帧序列都与一个已编码摄像机对应。所述已编码摄像机则与初始摄像机拍摄设置相对应。
在定义摄像机获取的视频后,可以检测输入视频中的每一帧的面部(S506)。可以在未识别面部前,在输入视频中检测每一帧的面部用以追踪面部。亦即,面部检测可以应用于每一摄像机获取的视频中的每一帧。面部识别可以自动定位在一系列视频帧中的面部位置。
属于同一摄像机获取视频的已检测面部集合可以用于进行面部追踪。通过这种方式,在整个输入视频中进行面部追踪(S508)。具体的,所述面部追踪通过在每个摄像机获取视频中检测到的第一个面部进行初始化。对于摄像机获取视频中的其他视频帧,如果源自于两个相邻的视频帧中两个检测出的面部之间的距离超过预定的阈值。那么源自于面部追踪的面部图像可以在后端分类操作前进行预处理。其中,预处理方法可以包括对于一个面部追踪取平均值,进行编号以对齐在同一面部追踪中相同的面部,等等。
更具体的,在测试面部样本中应用基于多模块表示的鲁邦错误纠正分类并且进行分类(S510)。
所述面部识别可以利用,结合错误检测或者错误纠正方法的,基于表示的分类算法运行。基于稀疏表示,错误纠正以及错误检测的多种表示方法及计算方法应用于面部识别算法中。
在基于稀疏表示的分类(SRC)中,回归模型用如下算式表示:
y=Ta+噪声 (1)
其中,表示密集噪声,而表示可得的系数向量。在基于稀疏表示的分类(SRC)的模型(即算式(1))中,a是一个非零元素的稀疏向量,与一些在集合T中的样本对应。因此,测试样本可以通过集合T中的样本的线性组合所表示,所述线性组合的系数是稀疏的。通过求解下述最优解问题可以获得系数a:
错误纠正方法可以通过应用上述SRC模型使回归模型在异常值的情况下更为鲁棒(例如,受遮挡情况下)。在错误纠正方法中,增加一个辅助变量在回归模型来特征化那些分布与高斯分布不相符的错误。需要首先假定这些错误的分布类型,以便于确定其对应的表示系数。在所述的错误项目服从某一分布,例如拉普拉斯分布的假设下,相应的模型可以表示如下:
y=Ta+e+噪声 (3)
为了特征化连续的遮挡,可以利用错误的整体结构。假设该错误图像是低秩的,并且能够一同确定表示系数。在所述错误图像是低秩的假设下,最优解问题可以表示如下:
限制条件 y-Ta=e
限制条件 y-Ta=e
其中,λ1,λ2,λ3>0
所述错误检测方法可以用于统计方法中,结合稀疏性,从而获得一个在复杂的遮挡以及侵蚀情况下的图片的鲁棒性的结果。在错误检测方法中,一个罚分函数引入到最优解问题(2)中,以便于检测并移除那些异常像素值。因此该最优解问题可以表示如下:
其中,为一个对角权重矩阵。其中,所述矩阵中的元素被定义为Wi,i=wi。wi∈[0,1]是像素i依据特定权重函数计算获得的权重。通过如下两个步骤求解算式(7):首先、求出给定的错误||y-Ta||2的权重以及给定的W的权重。具体可以选择使用合适的函数Q(a)对系数a进行正则化,例如用函数Q(a)=||a||1与多个不同权重的函数的结合,实现或者保持非负的正则化项a≥0。
所述错误的分布可以通过迭代重加权最小二乘法(IRLS)反复迭代获得。赋予在预先重构的迭代中具有较小错误的残余图像的像素较大的权重,同时赋予在预先重构的迭代中具有较大错误的残余图像的像素较小的权重。因此,在下一次的迭代中,异常值像素在重建图像中不会占据太多的比重。并且在收敛结果中,像希望那样,所述已确定的错误会主要由那些异常值构成。在最后的一步迭代完成后,所述面部定义可以基于更新的系数提供的最小类别残留确定。
图6显示了本发明具体实施例的本发明基于多模型表示的鲁棒错误纠正方法的具体实施例。如图6所示,在获取输入的测试样本后,表示方法600通过求解限制性最优解问题来确定多模型表示模型的系数向量a(S602)。在一些实施例中,所述限制为多模型表示的噪声部分。然后,表示方法600可以计算每个面部类别的残余错误(S604)。最终,完成分类并且给出最终的分类定义(S606)。所述表示方法可以在S510中运行。
图7显示了本发明具体实施例的本发明基于多模型表示的鲁棒错误纠正方法中获取系数向量以及错误项的方法。所述最优解方法(S602)首先构建一个通用框架用于处理图像侵蚀,通过利用多模型表示的噪声项来形成优化方案(S702)。然后,所述最优解方法继续选择一个或者多个用以特征化这些错误项的潜在损失函数,并且选择进行正则化的方式(S704)。最后,所述最优解(优化)问题可以通过获得系数向量a来求解。具体的,可以使用交替方向乘子法(ADMM)来求解。
具体的,为确定系数a,构造函数J(a)如下:
其中函数Φk(x)具体为:
利用噪声项目的多模型表示来构造一个常规框架用以处理最多类型的图像侵蚀(S702)。通过这种方式,松弛所述模型的噪声限制并且提取自由度以便于噪声项可以通过非标准的分布描述以处理在抓取场景中的混合变动。在一些具体实施例中,两个潜在损失函数可以与算式(8)联立以更好的特征化错误项y-Ta。算式(8)中的函数可以重写为
而优化问题可以表示为:
依据算式(9),以及e=y-Ta并且引入辅助变量z=e,算式(12)中a的最小值可以通过一个限制性优化问题计算得出
限制条件 y-Ta=e,e=z
在算式(13)中使用的优化方法允许不同损失函数φk(·)之间通过他们的双重势函数隐含组合。(S704)在表格1中总结了可以使用的一些函数以及他们配对的模拟算子。当s为向量时,运算结果则在表格2中展示。
当φk由向量参数定义后,使用的模拟算子,例如φk≡φk(s)。TM是一个将向量参数转换为一个合适大小的矩阵的算子。并且Lλ(.)表示对应矩阵的奇异值分解(SVD)结果。
例如,可以选择Φ1和Φ2作为胡贝尔分布(Huber)以及核分布(Nuclear)。依据这样一些运算结果归纳、生成框架,这些公式化的模型(具体的表现形式是公式)都只是这个框架里的一种具体形式,同时应用上述具体、特定的,某一分布作为误差函数(模型)。在多种光照、形状变化以及遮挡,掩饰下的人脸识别率显示使用范数比稀疏编码模型更为鲁棒。因此,可以使用范数作为正则化矩阵(S704)。
具体的,算式(13)的解可以通过交替方向乘子法(ADMM)求得。所述ADMM算法目标在于利用该乘子法的强收敛性,融合双势函数上升段的各分解部分(S706)。在使用ADMM求解算式(13)的过程中,a,e以及z交替更新。因此,应用在目标函数以及乘数法中,ADMM包括如下四个步骤:获取系数e(S7062),获取系数z(S7064),获取系数a(S7066)以及更新双变量(S7068)。在该乘子法中,算式(13)可以写成拉格朗日参数形式。
其中,ρ>0为罚分参数,u1和u2为双变量。
所述ADMM属于迭代方法并且允许通过不断的交替来接近最终解。每个变量交替过程由对通过接近算子的每次迭代实现。在等距收缩的ADMM中,所述接近算子proxφk(s)可以定义如下:
在每次迭代中,ADMM中的交替其中一个变量,其他变量保持不变。因此,需要进行四个更新步骤以对应优化算法中的系数e,z,a以及等距变量y1,y2.所述优化步骤具体如下:
步骤1:更新e(S7062)
步骤2:更新z(S7064)
步骤3:更新a(S7066)
步骤4:更新乘子y1和y2
y1=y1+y-Ta-e (20)
y2=y2+e-z (21)
为了使应用ADMM的算式(13)的优化问题结果收敛,必须建立一个合适的终止标准以及相关参数。具体的,所述终止标准可以设置为:||y-Ta-e||∞≤ε和||e-z||∞≤ε,其中ε=10-7。
继续参阅图6,面部分类服从选出的最低重构错误从而分类或者定义项目。因此,可以计算出每个面部分类的残余误差(S604)。具体的,从测试样本y中部分追踪可检测错误e。通过计算各类别i的残余值来完成分类。计算公式具体如下所示:
其中ai是与类别i相联系的一部分。与传统的SRC相比,上述方法由于多方式协同表示,更为准确。
最终,展示分类结果并且给出类别的定义(S5106),具体的,定义y可以由下式表示:
Identity(y)=argmini{ei} (23)
所述多模型鲁棒错误纠正表示(REC-MM)方法的最后步骤在表格3中的算法1中总结并展示:
表格3:
所述REC-MM算法的计算复杂度为o(jk+jk+njk)。由于表示系数由L2范数正则化,因此分类器能够更有效的进行计算。由此,在迭代方案中只需要使用一次矩阵求逆。在现有技术中,求RRC的L1范数的计算复杂度(L1范数正则化鲁棒编码)为o(j2k2n)。求RCC的L2范数的计算复杂度(L1范数正则化鲁棒编码)为o(k1jkn)。(其中k1是在共轭梯度法中的迭代次数)并且相似分类器应用在核-L1范数联合回归的计算复杂度为o(jk2+n2+njk)。因此,在面部识别应用中,系数n,j,k满足特定条件(例如,jk≥10,jn≥10),所述REC-MM分类具有比RCC-L1以及RCC-L2更低的计算复杂度,并且也具有比相似分类器应用在核-L1范数联合回归更低的计算复杂度。
继续参阅图5,在进行分类(S510)后,将类别的定义展示给用户或者其他后端应用程序(S512)。
例如,一段视频可以生成数张包含待识别面部的图片。依据面部追踪结果在视频中的待识别面部中打上标签。用户可以自行改善对视频中项目的定义。视频中项目的定义也可以通过其他应用程序提供,并且所述应用程序提醒用户发生了某些特定事件,例如提醒用户观看其喜欢节目或者是安全保卫情况等等。
图8为本发明具体实施例的本发明面部识别系统的另一具体实施例。如图8所示,所述面部识别系统800包括传感器802、数据存储装置804、数据处理模块806以及用户定义分析模块808。所述系统可以增添一些组件,也可以减省一些组件。
所述传感器802可以是任何类型的能够获取图像数据供后端处理的物理或者虚拟设备。例如,所述传感器802可以包括物理传感器,如数码摄像机112,电视机102的内置摄像机,遥控器104的内置摄像机以及虚拟传感器,如通信网络110,便携式存储器114以及存储器116。传感器获取的数据可以包括任何表示面部的图像数据,例如图像以及视频。传感器802可以包括多个传感器,用于获取多种传感器数据。所述传感器802获取的数据可以存储在数据存储装置804中。
数据存储装置804可以存储传感器802获取的数据,面部训练图像或者用户定义的视频,用户行为,用户偏好以及依据用户定义的推荐内容。
进一步的,面部识别系统800还可以包括推荐引擎810。所述数据处理模块806,用户定义分析模块810依据从传感器802以及数据存储装置804获取的数据进行多种处理。例如,所述数据处理模块806可以对传感器302获取的视频或者图像进行预处理并且抓取面部样本用于进一步定义。数据处理模块806还可预处理用户的定义信息,例如预处理用户提供的,存储在数据存储装置804中的面部样本。
用户定义分析模块808可以用于处理数据从而依据训练面部样本以及传感器802获取的数据来决定当前用户。所述用户定义分析模块808可以用来执行鲁棒错误纠正多模型表示步骤600从而确定用户定义。
在实际操作中,当前用户108可以坐在电视机102前,使用遥控器104或者智能手机。亦即,传感器802激活并收集用户信息。源自同一项目的面部图像可能在不同的情况下获得(例如,不同的姿势,光照情况,遮挡等等)。数据处理模块806可以提取面部测试样本用于进一步处理。用户定义分析模块808可以依据从数据存储装置804获得的训练面部样本,分类并且决定当前用户定义。推荐引擎810可以依据用户定义向相应用户推荐个性化的内容,例如,依据用户的兴趣,提供相应的电视节目,新闻,网页,在线视频以及购物导航。
图9为本发明本发明面部识别方法的另一具体实施例。如图9所示,所述面部识别处理方法900包括:首先存储一系列训练面部图像(S902)。每一面部图像对应一个类别,并且每一类别中包含一个或者多个训练面部图像。当用户激活传感器后,所述处理方法900就从传感器中收集图像或者视频(S904)。例如,当用户使用带内置摄像机的遥控器时,所述摄像机可以抓取用户的面部图像。对所述面部图像数据进行处理,从视频帧或者图像中提取出面部测试样本(S906)。然后,在面部测试样本中应用基于多模型表示的鲁棒错误纠正模型并且定义用户(S908)。所述方法可以应用基于多模型表示鲁棒错误纠正方法600表示来决定用户定义。在用户定义决定后,向用户推荐相应的个性化推荐内容(S910)。
通过上述方法及系统,还可以实现许多其他方面有益的效用。本发明所述的面部识别技术可以应用于视频中,能够自动的检测在视频中的关键人物的面部并应用于完成其他多种多媒体管理任务,例如新闻视频摘要,推送以及修订。
应当说明的是,所述面部识别模型不仅限于电视机应用场景。所述方法及其系统也可以应用于任何具有显示功能的设备中,例如智能电话,平板电脑,个人电脑,智能手表等,所述方法还可以作为其他系统的核心工嗯呢该,例如基于内容的视频推荐系统,基于内容的视频修订系统等等。
将本发明所述系统和方法应用于不同领域,进行改进,替换,调整或者相当于本发明所公开的具体技术实施方案都是本领域普通技术人员不需要通过创造性劳动就能实现的。
Claims (15)
1.一种面部识别方法,其特征在于,包括如下步骤:
预先存储一系列的面部训练图像,每一面部训练图像对应一个面部类别,每一面部类别包括一个或者多个面部训练图像;
获取一个或者多个面部测试样本;
采用表示模型表示面部测试样本,面部测试样本的表示模型的表示结果表示面部训练图像与错误项的结合,其中,每一面部训练图像与一系数向量对应;
通过求解限制性最优解问题获得系数向量以及错误项;
按面部类别计算残余错误,所述残余错误为面部测试样本与面部测试样本的表示模型之间的差别;所述面部测试样本的表示模型由面部类别中的训练图像形成;
通过选出的服从最低残余错误的面部类型来对面部测试样本进行分类;以及输出面部测试样本所属的面部类别;
求解限制性最优解问题具体为依据下述获得系数向量a的最小值:
J(a)=Φk(y-Ta)+λθθ(a);
2.依据权利要求1所述的面部识别方法,其特征在于,将所述错误项特征化为图像侵蚀类型,所述图像侵蚀类型包括遮挡、伪装、面部表情变化和亮度变化中的一种或多种。
3.依据权利要求1所述的面部识别方法,其特征在于,所述通过求解限制性最优解问题获得系数向量以及错误项的步骤具体包括:
通过使用错误项的多模型表示形成的通用框架来构造所述限制性最优解问题;
选择一个或者多个特定应用潜在损失函数以特征化所述错误项;
选择正则化的方法;
求解所述限制性最优解问题。
4.依据权利要求1所述的面部识别方法,其特征在于,所述获取一个或者多个面部测试样本的步骤具体包括:
将一段输入视频分割成不同的视频帧集合;
检测输入视频的每一视频帧中的面部;
针对整个视频生成面部追踪路径,所述面部追踪路径为在同一摄像机拍摄下的已检测面部的集合,以及
获取已检测面部和面部追踪路径的信息;
所述输出面部测试样本所属的面部类别的步骤则具体包括:
依据面部追踪路径,在输入视频的已识别面部中添加标记,输出该视频。
5.依据权利要求1所述的面部识别方法,其特征在于,所述方法还包括:存储用户偏好以及与用户对应的面部训练图像;并且
在获取面部测试样本的面部分类结果后,依据用户偏好,向用户推荐个性化内容。
8.依据权利要求1所述的面部识别方法,其特征在于,
使用l2范数作为正则化方法。
9.依据权利要求7所述的面部识别方法,其特征在于,
从误差函数中选择Φ1和Φ2,所述误差函数包括反高斯分布模型、胡贝尔分布模型、核分布模型以及二次型分布模型。
11.一种面部识别系统,其特征在于,所述系统包括:
数据存储模块,用于存储一系列面部训练图像,每个面部训练图像对应一个面部类别,每个面部类别包括一个或者多个面部训练图像;
获取模块,用于获取一个或者多个面部测试样本;
计算模块,用于
采用表示模型表示面部测试样本,表示模型表示后的面部测试样本表示面部训练图像与错误项的结合,每一系数向量对应一个面部训练图像;
通过求解限制性最优解问题获得系数向量以及错误项;
按面部类别计算残余错误,所述残余错误为面部测试样本与面部测试样本的表示模型之间的错误;所述面部测试样本的表示模型由面部类别中的训练图像形成;
通过选出的,服从最低残余错误的面部类型来对面部测试样本进行分类;输出模块,用于输出面部测试样本所属的面部类别;
求解限制性最优解问题具体为依据下述获得系数向量a的最小值:
J(a)=Φk(y-Ta)+λθθ(a);
12.依据权利要求11所述的面部识别系统,其特征在于,所述错误项特征化为图像侵蚀类型,所述图像侵蚀类型包括:遮挡、伪装、面部表情变化以及亮度变化。
13.依据权利要求11所述的面部识别系统,其特征在于,所述计算模块具体用于:
通过使用错误项的多模型表示形成的通用框架来构造所述限制性最优解问题;
选择一个或者多个特定应用潜在损失函数以特征化所述错误项;
选择一个面部识别方式;
求解所述限制性最优解问题。
14.依据权利要求11所述的面部识别系统,其特征在于,
所述获取模块具体用于:
将一段输入视频分割成不同的视频帧集合;
检测输入视频的每一视频帧中的面部;
在整体视频中生成面部追踪路径,所述面部追踪路径为在同一摄像机拍摄下的已检测面部的集合,以及
获取已检测面部和面部追踪路径的信息;
所述输出面部测试样本所属的面部类别则具体包括:
依据面部追踪路径,在输入视频的已识别面部中添加标记,输出该视频。
15.依据权利要求11所述的面部识别系统,其特征在于,所述存储模块还用于,存储用户偏好以及与用户对应的面部训练图像;
所述输出模块还用于,在获取面部测试样本的面部分类结果后,依据用户偏好,向用户推荐个性化内容。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/587,562 | 2014-12-31 | ||
US14/587,562 US9576224B2 (en) | 2014-12-31 | 2014-12-31 | Robust error correction with multi-model representation for face recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106156693A CN106156693A (zh) | 2016-11-23 |
CN106156693B true CN106156693B (zh) | 2020-08-18 |
Family
ID=56164584
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510140285.3A Active CN106156693B (zh) | 2014-12-31 | 2015-03-27 | 用于面部识别的基于多模型表示的鲁棒错误纠正方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9576224B2 (zh) |
CN (1) | CN106156693B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9875443B2 (en) * | 2015-06-18 | 2018-01-23 | TCL Research America Inc. | Unified attractiveness prediction framework based on content impact factor |
US11164071B2 (en) * | 2017-04-18 | 2021-11-02 | Samsung Electronics Co., Ltd. | Method and apparatus for reducing computational complexity of convolutional neural networks |
EP3493120A1 (en) * | 2017-12-01 | 2019-06-05 | Koninklijke Philips N.V. | Training a neural network model |
CN108509843B (zh) * | 2018-02-06 | 2022-01-28 | 重庆邮电大学 | 一种基于加权的Huber约束稀疏编码的人脸识别方法 |
CN109472240B (zh) * | 2018-11-12 | 2020-02-28 | 北京影谱科技股份有限公司 | 人脸识别多模型自适应特征融合增强方法和装置 |
CN112889061B (zh) * | 2018-12-07 | 2024-08-02 | 北京比特大陆科技有限公司 | 人脸图像质量评估方法、装置、设备及存储介质 |
CN111652016B (zh) * | 2019-03-27 | 2023-06-30 | 上海铼锶信息技术有限公司 | 一种人脸识别训练数据的增广方法 |
CN112215034A (zh) * | 2019-07-10 | 2021-01-12 | 重庆邮电大学 | 一种基于矩阵分解和Gabor特征的鲁棒表示与分类的遮挡人脸识别方法 |
KR102618732B1 (ko) * | 2019-08-27 | 2023-12-27 | 엘지전자 주식회사 | 얼굴 인식 활용 단말기 및 얼굴 인식 활용 방법 |
CN111008291A (zh) * | 2019-10-23 | 2020-04-14 | 杭州屏行视界信息科技有限公司 | 一种基于图像特征提取的女性风格辨识方法 |
CN111914812B (zh) * | 2020-08-20 | 2022-09-16 | 腾讯科技(深圳)有限公司 | 图像处理模型训练方法、装置、设备及存储介质 |
CN112633399B (zh) * | 2020-12-30 | 2022-08-16 | 郑州轻工业大学 | 一种稀疏协同联合表示模式识别方法 |
CN112801762B (zh) * | 2021-04-13 | 2021-08-03 | 浙江大学 | 基于商品感知的多模态视频高光检测方法及其系统 |
KR102538209B1 (ko) * | 2021-07-02 | 2023-05-30 | 가천대학교 산학협력단 | 얼굴 인식을 위한 심층 소프트맥스 협업 표현 분류 장치 및 그 방법 |
CN116416656A (zh) * | 2021-12-29 | 2023-07-11 | 荣耀终端有限公司 | 基于屏下图像的图像处理方法、装置及存储介质 |
CN117422890B (zh) * | 2023-11-03 | 2024-08-02 | 厦门翼方健数信息科技有限公司 | 一种视觉深度学习模型的优化部署方法、系统和介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7881505B2 (en) * | 2006-09-29 | 2011-02-01 | Pittsburgh Pattern Recognition, Inc. | Video retrieval system for human face content |
CN102576259A (zh) * | 2009-11-06 | 2012-07-11 | 索尼公司 | 实时手跟踪、姿态分类和界面控制 |
CN103221965A (zh) * | 2010-11-18 | 2013-07-24 | 高通股份有限公司 | 用于稳健模式分类的系统和方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130156300A1 (en) * | 2011-12-20 | 2013-06-20 | Fatih Porikli | Multi-Class Classification Method |
US9658994B2 (en) * | 2013-05-20 | 2017-05-23 | Google Inc. | Rendering supplemental information concerning a scheduled event based on an identified entity in media content |
-
2014
- 2014-12-31 US US14/587,562 patent/US9576224B2/en active Active
-
2015
- 2015-03-27 CN CN201510140285.3A patent/CN106156693B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7881505B2 (en) * | 2006-09-29 | 2011-02-01 | Pittsburgh Pattern Recognition, Inc. | Video retrieval system for human face content |
CN102576259A (zh) * | 2009-11-06 | 2012-07-11 | 索尼公司 | 实时手跟踪、姿态分类和界面控制 |
CN103221965A (zh) * | 2010-11-18 | 2013-07-24 | 高通股份有限公司 | 用于稳健模式分类的系统和方法 |
Non-Patent Citations (1)
Title |
---|
l2,1 Regularized Correntropy for Robust Feature Selection;Ran He;《IEEE》;20120522;正文第1-8页 * |
Also Published As
Publication number | Publication date |
---|---|
CN106156693A (zh) | 2016-11-23 |
US9576224B2 (en) | 2017-02-21 |
US20160189006A1 (en) | 2016-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106156693B (zh) | 用于面部识别的基于多模型表示的鲁棒错误纠正方法 | |
US9430697B1 (en) | Method and system for face recognition using deep collaborative representation-based classification | |
JP7282851B2 (ja) | 装置、方法及びプログラム | |
US9176987B1 (en) | Automatic face annotation method and system | |
US9430694B2 (en) | Face recognition system and method | |
CN105069424B (zh) | 面部快速识别系统和方法 | |
Dang et al. | RPCA-KFE: Key frame extraction for video using robust principal component analysis | |
US20170060867A1 (en) | Video and image match searching | |
Ding et al. | Point cloud saliency detection by local and global feature fusion | |
WO2013145654A1 (en) | Information processing method to calculate a similarity between a posture model and posture data | |
CN104731964A (zh) | 基于人脸识别的人脸摘要方法、视频摘要方法及其装置 | |
Zhu et al. | Depth2action: Exploring embedded depth for large-scale action recognition | |
Lin et al. | Depth and skeleton associated action recognition without online accessible rgb-d cameras | |
EP2756473A1 (en) | Facilitating television based interaction with social networking tools | |
Yuan et al. | Contextualized spatio-temporal contrastive learning with self-supervision | |
Miniakhmetova et al. | An approach to personalized video summarization based on user preferences analysis | |
Zhou et al. | Modeling perspective effects in photographic composition | |
Deotale et al. | Optimized hybrid RNN model for human activity recognition in untrimmed video | |
US10580145B1 (en) | Motion-based feature correspondence | |
Li et al. | Multi-Sensor integration for key-frame extraction from first-person videos | |
Jeong et al. | Consumer video summarization based on image quality and representativeness measure | |
Mir et al. | Criminal action recognition using spatiotemporal human motion acceleration descriptor | |
Blat et al. | Big data analysis for media production | |
Ouyang et al. | Interactive key frame selection model | |
Orrite et al. | Image-based location recognition and scenario modelling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 516006 TCL technology building, No.17, Huifeng Third Road, Zhongkai high tech Zone, Huizhou City, Guangdong Province Applicant after: TCL Technology Group Co.,Ltd. Address before: TCL Technology Building No. 17 three road 516006 in Guangdong province Huizhou City Zhongkai high tech Development Zone Huifeng 23 floor Applicant before: TCL RESEARCH AMERICA Inc. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |