CN105718885B - 一种人脸特征点跟踪方法 - Google Patents

一种人脸特征点跟踪方法 Download PDF

Info

Publication number
CN105718885B
CN105718885B CN201610038361.4A CN201610038361A CN105718885B CN 105718885 B CN105718885 B CN 105718885B CN 201610038361 A CN201610038361 A CN 201610038361A CN 105718885 B CN105718885 B CN 105718885B
Authority
CN
China
Prior art keywords
face
vector
face sample
shape
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610038361.4A
Other languages
English (en)
Other versions
CN105718885A (zh
Inventor
杨敏
朱晓琪
荆晓远
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Post and Telecommunication University
Original Assignee
Nanjing Post and Telecommunication University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Post and Telecommunication University filed Critical Nanjing Post and Telecommunication University
Priority to CN201610038361.4A priority Critical patent/CN105718885B/zh
Publication of CN105718885A publication Critical patent/CN105718885A/zh
Application granted granted Critical
Publication of CN105718885B publication Critical patent/CN105718885B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种人脸特征点跟踪方法,首先,建立人脸训练样本库,从而消除不同国家的人脸结构差别造成的匹配精度的问题,然后,在测试树莓派平台上,基于人脸训练样本库,分别训练建立人脸形状模型和人脸表观模型,最后,在保证配准的精度的前提下,基于主动表观模型算法,采用快速反向合成算法,减小配准计算过程中的复杂度,加快程序运行的速度,克服了现有技术中的缺陷与不足,能够有效提高人脸的跟踪精度。

Description

一种人脸特征点跟踪方法
技术领域
本发明涉及一种人脸特征点跟踪方法,属于人脸图像跟踪技术领域。
背景技术
随着互联网信息技术的发展以及计算机的软硬件性能的显著提升,多媒体的应用变得越来越普及,更加友好更加人性化的人机交互技术不断涌现,并应用于日常生活当中。这些技术已经不再仅仅依赖于传统的键盘、鼠标、显示器等设备,而是开始向着多模态人机交互的方向发展,其中以视觉交流最为方便和易于接受。在计算机视觉研究领域中,与人脸相关的一系列研究课题,如人脸检测、人脸表情识别、人脸分析等方向,得到了很大的发展,已经在实际中取得了应用(如,在公安机关、人工智能、ATM识别认证等方面)。
非刚性的人脸追踪在计算机视觉领域中得到了广泛地应用,并且这些实现人脸追踪的工具都是基于PC的,这在移动终端飞速发展的今天自然是满足不了用户的需求。截止到目前为止,中国目前已有4.874亿手机用户,并且仍然在大踏步地发展与增长,根据中国信息产业部的数据,仅三月就新增了670万户,二月的数据为680万户。照这样的速度算来,6月份之后,中国很快将迎来第五亿手机用户(占中国总人口的38%,平均不到3人拥有一台手机)。移动终端的发展是有目共睹,近两年来,手机市场可以说竞争十分激烈,从普通手机到智能手机的普及也就在短短数年之间,智能手机平台和配置也在逐渐强大起来,无论是国内的品牌或者是国际的品牌都纷纷发力推出强悍性能的智能手机,目前少数手机的性能已超过普通电脑,这足以说明现在手机产品关注度一直在不断升高,消费者的需求也越来越高了,手机照相中的HDR、全景模式等功能,其实就是图像处理算法在终端上的实现,若能将手机应用与人脸图像应用结合在一起,将有十分巨大的发展前景。
发明内容
本发明所要解决的技术问题是提供一种基于主动表现模型,采用全新设计方法,能够有效提高人脸跟踪精度的人脸特征点跟踪方法。
本发明为了解决上述技术问题采用以下技术方案:本发明设计了一种人脸特征点跟踪方法,包括如下步骤:
步骤001.采集预设数量N张人脸样本图像,并分别针对各张人脸样本图像,按预设标记规则在人脸样本图像上标记出预设个数的特征点,然后进入步骤002;
步骤002.分别针对各张人脸样本图像,获得人脸样本图像上所标记各个特征点的坐标,将该人脸样本图像上各个特征点的坐标进行组合,构成该人脸样本图像的形状向量;进而分别获得N张人脸样本图像的形状向量,然后建立主动表现模型坐标框架,并进入步骤003;
步骤003.将N张人脸样本图像的形状向量对齐到该主动表现模型坐标框架中,并在该主动表现模型坐标框架中,针对该N张人脸样本图像的形状向量进行降维,然后进入步骤004;
步骤004.获得N张人脸样本图像的形状向量的平均人脸样本形状向量s0,并进入步骤005;
步骤005.获得平均人脸样本形状向量s0所对应的所有表情特征向量,并将该所有表情特征向量按其特征值由大至小进行排序,获得平均人脸样本形状向量s0所对应的预设前L个表情特征向量,进而获得如下人脸形状模型:
其中,skl表示主动表现模型坐标框架上所有人脸样本图像上特征点中所对应的任意人脸形状向量,k={1,…,K},pk表示第k个预设人脸形状向量参数,预设人脸形状向量参数的总个数为K,tl表示平均人脸形状向量所对应预设前L个表情特征向量中的第l个表情特征向量;然后进入步骤006;
步骤006.在主动表现模型坐标框架中,根据各张人脸样本图像的形状向量,获得如下人脸表观模型:
其中,Akm表示主动表现模型坐标框架上所有人脸样本图像上特征点中所对应的任意人脸纹理向量;A0表示平均人脸样本纹理向量;λk表示第k个预设人脸纹理向量参数,预设人脸纹理向量参数的总个数为K,vm表示平均人脸纹理向量所对应预设前M个表情纹理特征向量中的第m个表情纹理特征向量;然后进入步骤007;
步骤007.根据人脸形状模型,获得待比对人脸图像D(x)位于主动表现模型坐标框架中的位置W(x,pk),并获得待比对人脸图像D(x)纹理向量I(W(x,pk)),然后进入步骤008;
步骤008.定义k=1,进入步骤009;
步骤009.判断的值是否小于预设纹理差阈值,是则获得下一帧待比对人脸图像,作为待比对人脸图像D(x),并返回步骤007;否则进入步骤010;
步骤010.判断k是否等于K,是则重新建立主动表现模型坐标框架,并返回步骤003;否则用k+1的值更新k,并返回步骤009。
作为本发明的一种优选技术方案:所述步骤002中,分别针对各张人脸样本图像,获得人脸样本图像上所标记各个特征点的坐标,并按预设标记规则中的特征点标记顺序,将该人脸样本图像上各个特征点的坐标进行排序组合,构成该人脸样本图像的形状向量。
作为本发明的一种优选技术方案:所述步骤003中,采用Procrustes Analysis方法将N张人脸样本图像的形状向量对齐到该主动表现模型坐标框架中。
作为本发明的一种优选技术方案:所述步骤006中,根据各张人脸样本图像的形状向量,通过德劳内三角变换和仿射变换获得人脸表观模型。
作为本发明的一种优选技术方案:所述步骤006具体包括如下步骤:
步骤00601.在主动表现模型坐标框架中,分别针对各张人脸样本图像的形状向量,基于人脸样本图像的各个特征点坐标,针对该人脸样本图像进行三角剖割,并分别针对该人脸样本图像中的各个三角形,任意取三角形所对应的其中一个特征点,将该特征点的灰度值作为该三角形区域的灰度值;进而获得主动表现模型坐标框架中各张人脸样本图像分别所对应的各个三角形区域的灰度值,然后进入步骤00602;
步骤00602.在主动表现模型坐标框架中,针对平均人脸样本形状向量s0,基于平均人脸样本形状的各个特征点坐标,针对平均人脸样本形状进行三角剖割,并针对平均人脸样本形状中的各个三角形,根据该各个三角形区域与各张人脸样本图像中三角形区域的对应关系,获得平均人脸样本形状中各个三角形区域的灰度值,进而获得平均人脸样本形状所对应各三角形区域灰度值所组成的纹理向量,即平均人脸样本纹理向量A0;然后进入步骤00603;
步骤00603.获得平均人脸样本纹理向量A0所对应的所有表情纹理特征向量,并将该所有表情纹理特征向量按其特征值由大至小进行排序,获得平均人脸样本纹理向量A0所对应的预设前M个表情纹理特征向量,进而获得如下人脸表观模型:
其中,Akm表示主动表现模型坐标框架上所有人脸样本图像上特征点中所对应的任意人脸纹理向量,λk表示第k个预设人脸纹理向量参数,预设人脸纹理向量参数的总个数为K,vm表示平均人脸纹理向量所对应预设前M个表情纹理特征向量中的第m个表情纹理特征向量;然后进入步骤007。
作为本发明的一种优选技术方案:所述步骤007中,根据人脸形状模型,获得待比对人脸图像D(x)位于主动表现模型坐标框架中的位置W(x,pk),并针对待比对人脸图像D(x)进行灰度处理,获得待比对人脸图像D(x)的灰度值,构成待比对人脸图像D(x)纹理向量I(W(x,pk)),然后进入步骤008。
作为本发明的一种优选技术方案:所述人脸特征点跟踪方法应用于基于ARM的树莓派平台。
本发明所述一种基于人脸特征点跟踪方法采用以上技术方案与现有技术相比,具有以下技术效果:本发明所设计的人脸特征点跟踪方法,基于主动表现模型,采用全新设计方法,克服了现有技术中的缺陷与不足,能够有效提高人脸的跟踪精度,而且针对主动表现模型算法效果欠佳的情况,引入快速反向合成算法,进一步保证了人脸跟踪的精度。
附图说明
图1是本发明设计的人脸特征点跟踪方法的流程示意图;
图2是特征点的预设标记规则示意图;
图3是根据特征点进行德劳内(Delaunay)三角变换原理图;
图4是根据德劳内(Delaunay)三角剖割之后对三角形内特征点进行彷射变换原理图;
图5a是平均人脸样本形状向量示意图;
图5b、图5c、图5d均是平均人脸形状向量所对应预设前L个表情特征向量中部分表情特征向量示意图;
图6a是平均人脸样本纹理向量示意图;
图6b、图6c、图6d均是平均人脸纹理向量所对应预设前M个表情纹理特征向量中部分表情纹理特征向量示意图;
图7a和图7b是本发明设计人脸特征点跟踪方法实际应用效果图。
具体实施方式
下面结合说明书附图对本发明的具体实施方式作进一步详细的说明。
传统的主动表现模型算法(Active Appearance Model,简称AAM)作为一种可形变模板模型,由T.F.Cootes等人于1998年首次研究提出,其是对Snake模型以及主动形状模型(Active Shape Model,简称ASM)等传统的可形变模板模型的衍生改进,可以为任何物体形状建立模型,被广泛应用于语音识别、嘴唇轮廓和特征提取、人像和汽车图像的跟踪。
本发明所设计一种人脸特征点跟踪方法在实际应用过程当中,硬件平台为树莓派(Raspberry Pi)(B+),是基于ARM 11的开发板,内置GPU支持1080P高清视频硬解码,树莓派开发板分A/B/B+三个版本,面积与信用卡相差无几,它提供了以太网(B/B+版)、USB,HDMI接口,系统为基于Linux的操作系统。
树莓派平台上的实现,运行最终本发明所设计人脸特征点跟踪方法的可执行文件,将自动打开窗口运行,按下R键可实现重新初始化,捕捉人脸的第一帧图像,并初始化主动表现模型,按下Q键可推出程序运行,整个应用操作简单目标明确,实际应用过程中,如图1所示,具体包括如下步骤:
步骤001.针对人脸面部关键特征区域进行主动形状建模的第一步是选择合适的训练样本集,因此采集预设数量N张人脸样本图像,构成人脸训练样本库,并分别针对各张人脸样本图像,按预设标记规则在人脸样本图像上标记出预设个数的特征点,然后进入步骤002。
步骤002.分别针对各张人脸样本图像,获得人脸样本图像上所标记各个特征点的坐标,并根据图2所示,按预设标记规则中的特征点标记顺序,将该人脸样本图像上各个特征点的坐标进行排序组合,构成该人脸样本图像的形状向量;进而分别获得N张人脸样本图像的形状向量,然后建立主动表现模型坐标框架,并进入步骤003。
步骤003.采用Procrustes Analysis方法分别针对各张人脸样本图像进行旋转、平移以及缩放等操作,将N张人脸样本图像的形状向量对齐到该主动表现模型坐标框架中,并在该主动表现模型坐标框架中,针对该N张人脸样本图像的形状向量进行降维,然后进入步骤004。
形状是指去除平移、缩放和旋转变换作用后,目标物体保留下最本质的几何信息。
步骤004.获得N张人脸样本图像的形状向量的平均人脸样本形状向量s0,如图5a所示,并进入步骤005。
步骤005.获得平均人脸样本形状向量s0所对应的所有表情特征向量,并将该所有表情特征向量按其特征值由大至小进行排序,获得平均人脸样本形状向量s0所对应的预设前L个表情特征向量,进而获得如下人脸形状模型:
其中,skl表示主动表现模型坐标框架上所有人脸样本图像上特征点中所对应的任意人脸形状向量,k={1,…,K},pk表示第k个预设人脸形状向量参数,预设人脸形状向量参数的总个数为K,tl表示平均人脸形状向量所对应预设前L个表情特征向量中的第l个表情特征向量,如图5b、图5c、图5d所示;然后进入步骤006。
人脸图像的纹理信息是指整个图像的像素强度信息,纹理信息的获取需要使用统一的图像变换来得到。由于人脸图像的原始数据就包含形状向量信息,所以人脸图像的形状特征可以直接通过标记面部的关键特征点来获取,但是人脸图像的纹理特征并没有显性的表示在人脸图像中,这里就需要通过德劳内(Delaunay)三角变换和仿射变换来获取,如下所示。
步骤006.在主动表现模型坐标框架中,根据各张人脸样本图像的形状向量,如图3和图4所示,通过德劳内(Delaunay)三角变换和仿射变换获得人脸表观模型,具体包括如下步骤:
步骤00601.在主动表现模型坐标框架中,分别针对各张人脸样本图像的形状向量,基于人脸样本图像的各个特征点坐标,针对该人脸样本图像进行三角剖割,并分别针对该人脸样本图像中的各个三角形,任意取三角形所对应的其中一个特征点,将该特征点的灰度值作为该三角形区域的灰度值;进而获得主动表现模型坐标框架中各张人脸样本图像分别所对应的各个三角形区域的灰度值,然后进入步骤00602。
步骤00602.在主动表现模型坐标框架中,针对平均人脸样本形状向量s0,基于平均人脸样本形状的各个特征点坐标,针对平均人脸样本形状进行三角剖割,并针对平均人脸样本形状中的各个三角形,根据该各个三角形区域与各张人脸样本图像中三角形区域的对应关系,获得平均人脸样本形状中各个三角形区域的灰度值,进而获得平均人脸样本形状所对应各三角形区域灰度值所组成的纹理向量,即平均人脸样本纹理向量A0,如图6a所示;然后进入步骤00603。
步骤00603.获得平均人脸样本纹理向量A0所对应的所有表情纹理特征向量,并将该所有表情纹理特征向量按其特征值由大至小进行排序,获得平均人脸样本纹理向量A0所对应的预设前M个表情纹理特征向量,进而获得如下人脸表观模型:
其中,Akm表示主动表现模型坐标框架上所有人脸样本图像上特征点中所对应的任意人脸纹理向量,λk表示第k个预设人脸纹理向量参数,预设人脸纹理向量参数的总个数为K,vm表示平均人脸纹理向量所对应预设前M个表情纹理特征向量中的第m个表情纹理特征向量,如图6b、图6c、图6d所示;然后进入步骤007。
由于人脸检测的研究已经比较成熟,这里不再深入,所以直接调用Adaboosting人脸检测方法,来检测判断图像中是否含有人脸,来获得待比对人脸图像。
步骤007.根据人脸形状模型,获得待比对人脸图像D(x)位于主动表现模型坐标框架中的位置W(x,pk),并针对待比对人脸图像D(x)进行灰度处理,获得待比对人脸图像D(x)的灰度值,构成待比对人脸图像D(x)纹理向量I(W(x,pk)),然后进入步骤008。
接下来基于k={1,…,K},以k作为迭代节点进行如下迭代过程:
步骤008.定义k=1,进入步骤009。
步骤009.引入快速反向合成算法,计算获得的值,判断的值是否小于预设纹理差阈值,是则获得下一帧待比对人脸图像,作为待比对人脸图像D(x),并返回步骤007;否则进入步骤010。
步骤010.判断k是否等于K,是则重新建立主动表现模型坐标框架,并返回步骤003;否则用k+1的值更新k,并返回步骤009。
本发明所设计人脸特征点跟踪方法实际应用效果图如图7a和图7b所示,基于主动表现模型,采用全新设计方法,克服了现有技术中的缺陷与不足,能够有效提高人脸的跟踪精度,而且针对主动表现模型算法效果欠佳的情况,引入快速反向合成算法,进一步保证了人脸跟踪的精度。
上面结合附图对本发明的实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。

Claims (4)

1.一种人脸特征点跟踪方法,其特征在于,包括如下步骤:
步骤001.采集预设数量N张人脸样本图像,并分别针对各张人脸样本图像,按预设标记规则在人脸样本图像上标记出预设个数的特征点,然后进入步骤002;
步骤002.分别针对各张人脸样本图像,获得人脸样本图像上所标记各个特征点的坐标,并按预设标记规则中的特征点标记顺序,将该人脸样本图像上各个特征点的坐标进行排序组合,构成该人脸样本图像的形状向量;进而分别获得N张人脸样本图像的形状向量,然后建立主动表现模型坐标框架,并进入步骤003;
步骤003.将N张人脸样本图像的形状向量对齐到该主动表现模型坐标框架中,并在该主动表现模型坐标框架中,针对该N张人脸样本图像的形状向量进行降维,然后进入步骤004;
步骤004.获得N张人脸样本图像的形状向量的平均人脸样本形状向量s0,并进入步骤005;
步骤005.获得平均人脸样本形状向量s0所对应的所有表情特征向量,并将该所有表情特征向量按其特征值由大至小进行排序,获得平均人脸样本形状向量s0所对应的预设前L个表情特征向量,进而获得如下人脸形状模型:
其中,skl表示主动表现模型坐标框架上所有人脸样本图像上特征点中所对应的任意人脸形状向量,k={1,…,K},pk表示第k个预设人脸形状向量参数,预设人脸形状向量参数的总个数为K,tl表示平均人脸形状向量所对应预设前L个表情特征向量中的第l个表情特征向量;然后进入步骤006;
步骤006.在主动表现模型坐标框架中,根据各张人脸样本图像的形状向量,通过德劳内三角变换和仿射变换获得人脸表观模型,获得人脸表观模型,包括如下步骤:
步骤00601.在主动表现模型坐标框架中,分别针对各张人脸样本图像的形状向量,基于人脸样本图像的各个特征点坐标,针对该人脸样本图像进行三角剖割,并分别针对该人脸样本图像中的各个三角形,任意取三角形所对应的其中一个特征点,将该特征点的灰度值作为该三角形区域的灰度值;进而获得主动表现模型坐标框架中各张人脸样本图像分别所对应的各个三角形区域的灰度值,然后进入步骤00602;
步骤00602.在主动表现模型坐标框架中,针对平均人脸样本形状向量s0,基于平均人脸样本形状的各个特征点坐标,针对平均人脸样本形状进行三角剖割,并针对平均人脸样本形状中的各个三角形,根据该各个三角形区域与各张人脸样本图像中三角形区域的对应关系,获得平均人脸样本形状中各个三角形区域的灰度值,进而获得平均人脸样本形状所对应各三角形区域灰度值所组成的纹理向量,即平均人脸样本纹理向量A0;然后进入步骤00603;
步骤00603.获得平均人脸样本纹理向量A0所对应的所有表情纹理特征向量,并将该所有表情纹理特征向量按其特征值由大至小进行排序,获得平均人脸样本纹理向量A0所对应的预设前M个表情纹理特征向量,进而获得如下人脸表观模型:
其中,Akm表示主动表现模型坐标框架上所有人脸样本图像上特征点中所对应的任意人脸纹理向量,λk表示第k个预设人脸纹理向量参数,预设人脸纹理向量参数的总个数为K,vm表示平均人脸纹理向量所对应预设前M个表情纹理特征向量中的第m个表情纹理特征向量;然后进入步骤007;
步骤007.根据人脸形状模型,获得待比对人脸图像D(x)位于主动表现模型坐标框架中的位置W(x,pk),并获得待比对人脸图像D(x)纹理向量I(W(x,pk)),然后进入步骤008;
步骤008.定义k=1,进入步骤009;
步骤009.判断的值是否小于预设纹理差阈值,是则获得下一帧待比对人脸图像,作为待比对人脸图像D(x),并返回步骤007;否则进入步骤010;
步骤010.判断k是否等于K,是则重新建立主动表现模型坐标框架,并返回步骤003;否则用k+1的值更新k,并返回步骤009。
2.根据权利要求1所述一种人脸特征点跟踪方法,其特征在于:所述步骤003中,采用Procrustes Analysis方法将N张人脸样本图像的形状向量对齐到该主动表现模型坐标框架中。
3.根据权利要求1所述一种人脸特征点跟踪方法,其特征在于:所述步骤007中,根据人脸形状模型,获得待比对人脸图像D(x)位于主动表现模型坐标框架中的位置W(x,pk),并针对待比对人脸图像D(x)进行灰度处理,获得待比对人脸图像D(x)的灰度值,构成待比对人脸图像D(x)纹理向量I(W(x,pk)),然后进入步骤008。
4.根据权利要求1至3中任意一项所述一种人脸特征点跟踪方法,其特征在于:所述人脸特征点跟踪方法应用于基于ARM的树莓派平台。
CN201610038361.4A 2016-01-20 2016-01-20 一种人脸特征点跟踪方法 Active CN105718885B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610038361.4A CN105718885B (zh) 2016-01-20 2016-01-20 一种人脸特征点跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610038361.4A CN105718885B (zh) 2016-01-20 2016-01-20 一种人脸特征点跟踪方法

Publications (2)

Publication Number Publication Date
CN105718885A CN105718885A (zh) 2016-06-29
CN105718885B true CN105718885B (zh) 2018-11-09

Family

ID=56147350

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610038361.4A Active CN105718885B (zh) 2016-01-20 2016-01-20 一种人脸特征点跟踪方法

Country Status (1)

Country Link
CN (1) CN105718885B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106548521A (zh) * 2016-11-24 2017-03-29 北京三体高创科技有限公司 一种联合2d+3d主动外观模型的人脸对齐方法及系统
CN107009962B (zh) * 2017-02-23 2019-05-14 杭州电子科技大学 一种基于姿态识别的全景观测方法
CN106960203B (zh) * 2017-04-28 2021-04-20 北京搜狐新媒体信息技术有限公司 一种面部特征点跟踪方法及系统
CN107909019A (zh) * 2017-11-07 2018-04-13 重庆邮电大学 一种基于ti‑spca的人脸自动对齐及识别方法
CN109255337B (zh) * 2018-09-29 2020-04-28 北京字节跳动网络技术有限公司 人脸关键点检测方法和装置
CN112507247B (zh) * 2020-12-15 2022-09-23 重庆邮电大学 一种融合用户状态信息的跨社交网络用户对齐方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101000688A (zh) * 2007-01-15 2007-07-18 浙江大学 多张人脸照片自动合成方法
CN101770649A (zh) * 2008-12-30 2010-07-07 中国科学院自动化研究所 一种人脸图像自动合成方法
CN101819628A (zh) * 2010-04-02 2010-09-01 清华大学 结合形状特征的稀疏表示人脸识别方法
CN101833672A (zh) * 2010-04-02 2010-09-15 清华大学 基于约束采样与形状特征的稀疏表示人脸识别方法
CN102142082A (zh) * 2011-04-08 2011-08-03 南京邮电大学 用于人脸识别的基于虚拟样本的核鉴别方法
CN102663351A (zh) * 2012-03-16 2012-09-12 江南大学 基于条件外观模型的人脸特征点自动标定方法
CN103632129A (zh) * 2012-08-28 2014-03-12 腾讯科技(深圳)有限公司 一种人脸特征点定位方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100543707B1 (ko) * 2003-12-04 2006-01-20 삼성전자주식회사 서브그룹별 pca 학습을 이용한 얼굴인식방법 및 장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101000688A (zh) * 2007-01-15 2007-07-18 浙江大学 多张人脸照片自动合成方法
CN101770649A (zh) * 2008-12-30 2010-07-07 中国科学院自动化研究所 一种人脸图像自动合成方法
CN101819628A (zh) * 2010-04-02 2010-09-01 清华大学 结合形状特征的稀疏表示人脸识别方法
CN101833672A (zh) * 2010-04-02 2010-09-15 清华大学 基于约束采样与形状特征的稀疏表示人脸识别方法
CN102142082A (zh) * 2011-04-08 2011-08-03 南京邮电大学 用于人脸识别的基于虚拟样本的核鉴别方法
CN102663351A (zh) * 2012-03-16 2012-09-12 江南大学 基于条件外观模型的人脸特征点自动标定方法
CN103632129A (zh) * 2012-08-28 2014-03-12 腾讯科技(深圳)有限公司 一种人脸特征点定位方法及装置

Also Published As

Publication number Publication date
CN105718885A (zh) 2016-06-29

Similar Documents

Publication Publication Date Title
CN105718885B (zh) 一种人脸特征点跟踪方法
CN109359538B (zh) 卷积神经网络的训练方法、手势识别方法、装置及设备
CN105205475B (zh) 一种动态手势识别方法
CN105528794B (zh) 基于混合高斯模型与超像素分割的运动目标检测方法
CN103456010B (zh) 一种基于特征点定位的人脸卡通画生成方法
Premaratne et al. Hand gesture tracking and recognition system using Lucas–Kanade algorithms for control of consumer electronics
Nai et al. Fast hand posture classification using depth features extracted from random line segments
Li et al. Saliency model-based face segmentation and tracking in head-and-shoulder video sequences
Yuan et al. Mid-level features and spatio-temporal context for activity recognition
CN108898145A (zh) 一种结合深度学习的图像显著目标检测方法
KR101141643B1 (ko) 캐리커쳐 생성 기능을 갖는 이동통신 단말기 및 이를 이용한 생성 방법
CN108363973B (zh) 一种无约束的3d表情迁移方法
CN105426850A (zh) 一种基于人脸识别的关联信息推送设备及方法
CN106709931B (zh) 一种脸谱映射至人脸的方法、脸谱映射装置
CN102486868A (zh) 一种基于平均脸的美丽人脸合成方法
CN108197534A (zh) 一种人头部姿态检测方法、电子设备及存储介质
Rokade et al. Hand gesture recognition by thinning method
Deng et al. Lighting-aware face frontalization for unconstrained face recognition
CN109003224A (zh) 基于人脸的形变图像生成方法和装置
Mahmood et al. A Comparative study of a new hand recognition model based on line of features and other techniques
CN111046976A (zh) 一种基于深度学习的虚拟美甲试戴方法
Burande et al. Notice of Violation of IEEE Publication Principles: Advanced recognition techniques for human computer interaction
WO2022267653A1 (zh) 图像处理方法、电子设备及计算机可读存储介质
Song et al. Face recognition robust to left/right shadows; facial symmetry
Mei et al. Training more discriminative multi-class classifiers for hand detection

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant