CN105981075B - 利用在线形状回归方法的高效面部界标跟踪 - Google Patents
利用在线形状回归方法的高效面部界标跟踪 Download PDFInfo
- Publication number
- CN105981075B CN105981075B CN201480062521.8A CN201480062521A CN105981075B CN 105981075 B CN105981075 B CN 105981075B CN 201480062521 A CN201480062521 A CN 201480062521A CN 105981075 B CN105981075 B CN 105981075B
- Authority
- CN
- China
- Prior art keywords
- group
- facial landmark
- landmark point
- facial
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/755—Deformable models or variational models, e.g. snakes or active contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
Abstract
某些示例公开了对用于实时应用的形状回归技术的多种修改,以及利用得到的面部界标跟踪方法的方法、系统和机器可读介质。
Description
优先权申请
本申请要求提交于2013年12月13日的序列号为14/106,134的美国申请的优先权权益,其通过引用以其整体并入本文。
技术领域
实施例属于面部界标跟踪。某些实施例涉及利用在线形状回归的面部界标跟踪。
背景技术
准确地标识面部界标的位置(例如,眼、鼻、口或颏)对于面部表情识别、面部跟踪、3D建模等是重要的。例如,视频虚拟形象(avatar)聊天程序可使用制作的“虚拟形象”,其为计算机化的人物,模仿聊天参与者的面部移动。如果聊天中的人向右移动其头部,虚拟形象的头部也向右移动。虚拟形象可定义为图标或形象,表示计算机游戏、互联网论坛、视频聊天等中特定的人。该虚拟形象聊天程序利用面部界标检测来提取人的面部特征,然后使用该数据制作虚拟形象。
附图说明
在附图中,其不一定按比例绘制,相同数字可描述不同视图中的相似组件。具有不同的字母后缀的相同数字可表示相似组件的不同实例。总体上附图以示例的形式而非以限制的形式说明了本文档讨论的多种实施例。
图1为根据本公开在实时应用中利用形状回归技术的某些示例的方法的流程图。
图2示出了根据本公开某些示例的表示性跟踪结果的线型图。
图3为根据本公开某些示例的用于抑制轻微抖动和暂时漂移的基于面部组成部分的滤波的方法的流程图。
图4示出了根据本公开某些示例训练形状回归量的方法的流程图。
图5示出了根据本公开某些示例的通过两个SIIF的广义决策树的基于树的分区结构。
图6示出了根据本公开某些示例的表示形状回归结果的线型图。
图7A示出了根据本公开某些示例描述离线学习的方法的流程图。
图7B示出了根据本公开某些示例的注册方法的流程图。
图7C示出了根据本公开某些示例的在线重定位的方法的流程图。
图8示出了根据本公开某些示例的示例面部检测系统的示意图。
图9为说明根据本公开某些示例可实现一个或多个实施例的机器示例的框图。
具体实施方式
一种用于面部界标检测的方法可包括“显式形状回归”技术,描述于Xudong Cao,Yichen Wei,Fang Wen和Jian Sun的论文“显式形状回归的面部对齐”,2012年计算机视觉和模式识别(CVPR)的IEEE会议。总体而言,显式形状回归方法使用两级级联的方法以由粗到细的方式增量更新面部形状估计。最终回归量包含一组原始回归量并且通过以全局方式明确最小化训练数据中的对齐误差来学习-所有面部界标在向量输出中共同回归。为训练每个向量原始回归量,决策树(fern)用于划分训练数据的特征空间。为提高效率,形状索引图像特征(SIIF)在决策树中使用。一旦形状回归量被训练,给定新的面部图像(其中面部包围盒已知)和初始面部形状(例如,训练数据中的平均形状),最终形状可通过对初始面部形状和按序获取自查找各自原始回归量的每个形状增量进行求和来计算。
上述显式形状回归方法实际仅应用于静态图像,其中面部形状包围盒为可用(例如,通过手工标签)。该缺点防止方法直接使用于处理实时面部界标点跟踪,其在视频应用是关键的,诸如虚拟形象视频聊天。附加地,方法具有的问题是,当训练面部形状在每个原始回归量递增时,关联于训练样本的对齐误差落入决策树的一个特定箱(bin)(F个特征和各自阈值的结合-其中原始形状回归方法中为F=5),其直接作用于整个面部形状更新而不考虑决策树通常仅关联于面部形状中面部界标点的有限部分。决策树执行相对于每个特征和对应阈值的训练数据的二进制划分。即,在大的训练数据集(例如,上万个样本)利用决策树将仅获取粗略而非密集的特征空间的划分。该缺点限制了方法在多个应用的可用性。
公开了对形状回归技术的多种修改用于实时应用,以及利用得到的面部界标跟踪方法的方法,系统和机器可读介质。
在实时跟踪情况下利用形状回归
在某些示例公开了方法、系统和机器可读介质,其以合并方式利用几何和时间线索以执行上述形状回归算法,用于实时跟踪情况。在某些示例,在初始步骤期间用户的面部区域最初利用离线训练的面部分类器进行检测。在相对于面部界标点的空间布局结构调整检测的面部区域之后,几何和时间线索可共同用于使离线训练形状回归量能够在线实时跟踪面部界标点。对离线训练形状回归量的示例改进包括:利用离线训练面部分类器检测用户的面部区域,然后进一步根据面部界标点的空间布局结构修改面部区域;利用几何和时间线索在连续帧中保证面部界标点的精确跟踪;在变换后的面部形状空间运行离线训练形状回归量,后变换结果至原始图像空间;从时刻T-1的跟踪面部界标点直接推算时刻T的压缩面部形状区域,然后使用时刻T的离线训练形状回归量的开始值作为训练数据中面部界标点的平均位置。
现在转到图1,示出了根据本公开的某些示例的在实时应用中利用形状回归技术的方法1000的流程图。在操作1010中,离线训练面部分类器重复地运行直到其成功检测出现于图像的用户面部。训练自boosting(增压)算法的示例面部分类器包括来自开源计算机视觉库(Opencv)的面部分类器。例如,“haarcascade_frontalface_alt.xml”和“haarcascade_profileface.xml”。面部分类器输出包围盒,其表示面部位置。由于检测的面部区域不具有与正则化面部形状相同的几何结构(例如,其可被缩放、旋转、倾斜、部分遮挡等),直接使用离线训练形状回归量可能无法获取对面部界标点的精确检测。给定面部分类器和形状回归量,对检测的面部区域大小的固定调整通过统计其几何结构之间对应关系执行。为此,在操作1020,形状包围盒通过调整检测的面部区域被获取以填充检测的区域,以保证我们捕获整个面部。在操作1030,变换被计算以正则化形状包围盒中的面部以考虑大小变化和旋转。在操作1040,未正则化面部区域利用计算的变换被正则化。一旦面部被正则化,在操作1050,面部界标在正则化形状中利用离线形状回归量计算。在操作1060,原始图像中的界标点通过在输出自离线形状回归量的面部界标点上执行逆变换来获取。
当面部形状初始化完成时,检测的面部界标点位置然后用于计算下一帧中新的形状包围盒。该概念为,由于视频的最慢帧率为大约每秒20帧,超过1/20秒的面部运动是慢的,因此从一帧到下一帧的面部界标的位置和面部包围盒将较为接近。在操作1070,新的形状包围盒利用时刻T-1的跟踪结果计算。该过程类似地重复于图1右侧部分所示(操作1070-1110)的后续帧。时刻T的帧中新的形状包围盒被计算为时刻T-1的帧中跟踪的面部界标点的最小前向外接矩形。包围盒形状以相同的填充比率扩展用于当训练形状回归量时修剪面部形状样本。在操作1080,变换参数再次被计算至缩放、旋转和面部大小的因素。在操作1090,填充形状区域根据变换参数来变换,以生成正则化面部。例如,其被缩放以具有与正则化面部形状样本相同的大小。离线训练形状回归量然后在变换形状区域的操作1100使用,以检测该区域的面部界标点。在某些示例,在训练数据上计算的平均面部界标点位置作为时刻T的帧中的离线训练形状回归量的开始值。其抑制了当利用时刻T-1的帧中跟踪的面部界标点作为开始值时产生的可能的误差累积和突发漂移。在操作1110,时刻T的帧中最终界标点位置由缩放形状区域中的检测结果的逆变换获取。
在时刻T的帧,令(Wp,Hp)和(Wn,Hn)分别表示填充形状区域Sp和正则化面部形状Sn的宽度和高度,标量因子s计算为:
令(cxp,cyp)和(cxt,cyt)分别为Sp和变换后Sp的中心的坐标,令(pxt,Pyt)为变换Sp的界标点的检测坐标,Sp中对应坐标(pxp,Pyp)计算为:
在其它示例,精确度较低,但更直接的方法可被利用,其中离线训练形状回归量经由逆变换运行于填充形状区域。
通过在操作1120递增T至下一帧,在1070-1110的操作可被重复用于时刻T的后续帧,然后重复操作1070-1110直到面部界标跟踪完成。
在某些示例,形状回归跟踪器使用34个点形状回归量。该跟踪器在各种实时情况以及大量记录的视频数据被广泛测试。其性能特别出色。其可较好地处理常见的面部表情(例如,微笑和惊讶),较大的姿态变化(例如,约[-30,+30]度偏航角,[-15,30]度俯仰角和[-15,+15]度翻滚角)以及其他挑战性情况,诸如戴眼镜。图2示出了根据本公开某些示例的表示性跟踪结果的线型图。该线型图近似面部的屏幕快照,覆盖已检测的跟踪点。在图2,最初检测的面部界标点示出为“X”标记,而跟踪结果示出为点。
用于在线形状回归的基于面部组成部分的滤波
尽管以上公开的方法可在挑战性情况下跟踪面部界标点,当面部对象遇到少数表情或姿态变化时,两个连贯帧的结果可表现轻微抖动。某些面部界标点当其被部分地阻挡时还可暂时漂移(主要由于较大的姿态变化)。结果,动画交互可不够理想,其可降低在作为虚拟形象视频聊天的应用期间的用户体验质量。
在某些示例公开了用于降低该抖动的系统、机器可读介质和方法。该系统使用基于面部组成部分的滤波方法,其通过重要性驱动滤波过程递归地合并当前帧(在时刻T)和先前帧(在时刻T-1)中先前公开的在线形状回归算法的结果。在该方法,面部形状被划分为某些组成部分的组,其面部界标点通过测量在连续两帧之间的其几何相似性而独立地平滑。该方法示出了抑制轻微抖动和暂时漂移的较好的能力,并且为在面部界标应用中达到充分稳定的动画交互而打下坚实的基础。
特别地,该方法相关于空间相关性和跟踪稳定性将面部组成部分划分为不同的组。当过滤每个组的跟踪结果时,其利用连续两帧的跟踪的面部界标点位置之间的几何相似性来实现重要性驱动滤波。利用该方法,充分稳定的面部界标点跟踪可被持续提供。
通常使用的滤波方法诸如中值滤波和平均滤波通常使用包含于一组在前帧和在后帧的信息(总体上,做出精确预测不是一个简单任务)。然而,公开的方法仅使用包含于两个最相关帧的信息(称为时刻T的当前帧和时刻T-1的先前帧),因此其不需要预测。与将面部界标点共同处理的可用滤波方法完全相反,公开的方法的面部界标点被划分为某些组,并且连续两帧中的跟踪的面部界标点位置之间的几何相似性用于实现更鲁棒的滤波。该方法将作为改进的面部界标方法的不可缺少的模块,诸如改进的虚拟形象视频聊天系统。
该滤波方法在不同的面部组成部分的组独立地执行滤波。其当跟踪面部组成部分诸如眼和嘴的界标点时产生了更稳定的性能。在跟踪稳定性之外,组划分中面部组成部分的空间相关性被考虑。理论上,每个面部组成部分的组仅包含一个或某些邻近的面部组成部分。例如,在34个点的形状回归跟踪器中,面部界标点可划分为两个组(例如,嘴上的界标点和眉+眼+鼻的其他界标点)。
几何相似性可用于连续两帧中的跟踪的面部界标点位置之间,以实现重要性驱动滤波。给定面部组成部分的组S,令{PT(xi,yi)}i=1,...,N和{PT-1(xi,yi)}i=1,...,N为在时刻T和T-1的跟踪的界标点位置,各参考点位置(PT(Xr,Yr)和PT-1(Xr,Yr)被合适地确定,并且其用于测量几何相似性。在某些示例,参考点位置计算自组中最稳定界标点的位置。例如,在34个点的形状回归跟踪器中,参考点被选择为线段中点,其连接眼的两个内角点和嘴的两个角点。为测量{PT(xi,yi)}i=1,...,N和{PT-1(xi,yi)}i=1,...,N之间的全局几何相似性ρ,面部界标点到参考点的各个距离和首先根据下式计算:
然后ρ计算为
从以上等式,可以看出,全局几何相似性ρ具有清晰的物理意义。当ρ值较大时,其表示连续两帧之间的跟踪的界标点位置表现较小的变化(轻微抖动可能出现),否则变化较大(暂时漂移有时可发生)。根据以上分析,在面部组成部分的组S中界标点的位置滤波由下式执行:
PT(xi,yi)=aPT(xi,yi)+(1-a)PT-1(xi,yi)其中0≤a≤1
当ρ值小于给定阈值(例如,0.8)时,a的选择可大于0.5,暗示当前帧中的跟踪的面部界标点位置在滤波结果中比其在先前帧贡献更多的部分,否则a的选择可小于0.5。因此,重要性驱动滤波被实现。
在该方法中,仅当前帧(在时刻T)和先前帧(在时刻T-1)跟踪的最相关信息用于滤波。即,该方法不需要预测。面部界标点相对于空间相关性和跟踪稳定性被分类为某些组,每个组被独立地滤波。在滤波结果中,连续两帧中跟踪的面部界标点位置的贡献通过测量几何相似性来合适地确定。滤波还由重要性驱动。
图3为根据本公开某些示例用于抑制轻微抖动和暂时漂移的基于面部组成部分的滤波的方法3000的流程图。在操作3010,对于时刻T的当前帧,利用在线形状回归技术跟踪面部界标点。在操作3020,对于每个组成部分的组(例如,鼻、眼、耳等)参考点位置被计算。在操作3030,对每个组,界标点至参考点的距离和被计算。在操作3040,时刻T和T-1界标位置之间的几何相似性被计算。在操作3050,基于重要性的滤波被应用,其导致在当前帧中输出过滤的界标点位置。
用于形状回归的选择性更新和广义决策树
在线形状回归方法使用级联回归量以由粗到精方式增量更新面部形状(一组面部界标点)。然而,当在每个原始回归量训练面部形状增量时,关联于落入决策树的一个特定箱(bin)(F个特征和各阈值的结合,其中F=5用于传统模型)的训练样本的对齐误差直接作用于整个面部形状更新,而不考虑决策树通常仅与面部形状中面部界标点的有限部分相关的事实。此外,决策树相对于每个特征和对应阈值执行训练数据的二进制划分。即,在大的训练数据集(例如,上万个样本)利用决策树将仅获取粗略而不密集的特征空间划分。该缺点可直接影响原始方法的精确度。
为解决上述问题,公开了应用选择性更新和广义决策树来改进原始形状回归方法的精确度的方法、系统和机器可读介质。选择性更新引入更可靠的方式来计算每个原始回归量中的面部形状增量,避免由于整个面部形状更新的误差。广义决策树可灵活执行任何级别的训练数据集划分。该形状回归方法克服了原始方法的缺点,并在实时应用中表现良好,诸如虚拟形象视频聊天应用。
原始形状回归方法使用整个面部形状更新,其可容易引入不希望的对齐误差,因为每个原始回归量的决策树通常仅与面部形状中面部界标点的有限部分相关。此外,大量训练数据的密集划分无法被获取,因为决策树仅可相对于每个特征和决策树中的对应阈值来执行二进制划分。
本文公开的形状回归方法不仅通过利用选择性更新策略避免了上述误差,而且通过应用广义决策树执行大量训练数据集的充分密集划分。该技术特别用于改进原始方法的精确度。
显式形状回归的基本框架为两级级联回归。第一级回归以加法合并一组弱回归量{S1,S2,...,ST},设计以编码较大的面部形状变型。在第二级回归,每个弱回归量St定义为一组原始回归量{St1,St2,...,StK}的加法组合,意图编码少数面部形状变型。给定面部图像I和初始面部形状S0,最终回归的面部形状S可表示为:
其中Δ(Stk,I)表示运行原始回归量Stk的步骤中迭代获取的面部形状增量。给定训练数据集,原始回归量Stk的面部形状增量学习自通过F个形状索引图像特征(SIIF-关联于两个界标点的两个像素的亮度差)和各自阈值的结合而定义的决策树。决策树将训练数据集由基于树的二进制比较划分为2F个箱。在原始离线形状回归技术中,关于决策树的第i个箱的面部形状增量估计为:
其中Ai表示训练样本落入第i个箱,和Sj分别表示Ai中第j个训练样本的地面实况面部形状以及先前步骤估计的面部形状。从该等式,显然原始方法使用整个面部形状更新。然而,决策树通常仅与面部形状中的面部界标点的有限部分(例如,在先前的离线形状回归模型中,决策树仅包含5个像素对,因此其最多关联于10个面部界标点)相关。因此,不希望的误差可引入估计的面部形状增量Δ(Stk,I)。
在某些示例,为解决该问题,可使用包含选择性更新的技术。在该方法中,估计的面部形状增量主要包含关联于决策树的面部界标点的误差。理论上,仅关系到包含与决策树具有相关性的面部界标点的面部组成部分的界标点误差被编码于面部形状增量。如上所述,决策树包含5个像素对并且最多关联10个面部界标点。即,仅包含用于决策树的面部界标点的面部组成部分的界标点误差(计算自上述等式)是可靠的。其他所有都是不可靠的并且设置为零。
以这种方式,我们获取更精确的级联形状回归量。另一方面,给定SIIF和其阈值,决策树仅执行训练数据集的二进制划分。然而,关联于两个面部界标点的两个像素的亮度差可能落入多个间隔,因为训练数据集的较大变化,尤其在大量训练数据集上。在这种情况下,训练数据集的更密集的划分对实现更精确的面部形状增量估计是关键的。为此,公开了一种广义决策树,其可利用具有k个阈值而非单个阈值的SIIF执行训练数据集的密集划分(其中k>1)。给定SIIF,k个阈值可简单地相对于训练数据集中各亮度差的分布而确定。
总之,代替二进制比较(如在原始方法中),该方法利用k个阈值划分决策树。如前所述,在训练过程中,给定SIIF(关联唯一面部界标点对),训练数据集中每个面部界标点的平均亮度值首先被计算。如果我们用m1和m2表示得到的平均值,则阈值ti可简单地计算为ti=(m1-m2)*i/K,其中i=1,...,K。
图4示出了根据本公开某些示例训练形状回归量的方法4000的流程图。在操作4010,利用包括面部图像的训练数据、相应面部包围盒和地面实况形状,训练样本被正则化并且训练参数被设置。例如,T和K的值被设置。示例T值包括10。示例K值包括256。在操作4020,对于训练样本随机生成初始形状。在操作4030,执行基于相关性的特征选择过程以选择F个SIIF的T个组。在操作4040,每个原始回归量利用广义决策树和选择性更新来训练。操作4030和4040被重复,直到迭代的数量等于T*K。F个SIIF的每个组用于训练K个原始回归量。在操作4050,所有训练的原始回归量被按序分组以获取最终回归量。一旦最终形状回归量被训练,给定面部图像(其中面部包围盒为已知)和初始面部形状(我们选择其为训练数据中的平均形状),最终形状可通过将初始面部形状和按序获取自各原始回归量的查找的每个形状增量求和来计算。
图5示出了根据本公开某些示例的两个SIIF中广义决策树的基于树的划分结构。注意,训练数据集的任何级别的划分可由k值的改变而实现。最终,我们通过将选择性更新和广义决策树整合至原始方法而获取增强的形状回归方法。
在示例应用中,诸如虚拟形象视频聊天应用,可使用34个点形状回归量,其在包含数万个面部形状样本的大数据集中被训练。该形状回归量显示了有益的能力来处理部分遮挡,以及面部表情/姿态/光照变化。图6示出了线型图,显示了根据本公开某些示例的代表性形状回归结果。该线型图近似面部的屏幕快照,以检测的跟踪点覆盖。在图6,“X”标记置于检测的面部界标上方。
用于面部表情重定位的数据驱动方法
面部界标标识的一个示例实现为其面部界标的使用,以仿真制作的模型。例如,制作虚拟形象。先前解决方案需要高质量的基于标记的可视跟踪输出或使用特定用户规则以驱动虚拟形象制作。
在某些示例公开了方法、系统和机器可读介质,其使用基于照相机的无标记面部跟踪技术以重定位一般用户的表情至虚拟形象模型。该方法使用特别设计的数据驱动方法,以生成实时运行的稳定和高保真的面部动画。简言之,该方法利用训练数据集并学习从非语义跟踪参数到语义面部表情的鲁棒映射,成功地解决虚拟形象制作中的面部运动重定位问题。在某些示例,该系统利用包含一组具有不同面部形状的主体的典型面部表情的数据集。
该数据集可用于学习由于面部形状的人际差异以及由于面部表情的本人差异的距离度量。对于新用户,他或她的特定面部表情基在注册阶段被估计,而混合形状系数在面部表情重定位阶段基于预先学习的距离度量而预测。
该方法可在一般面部映射中生成鲁棒结果,即使在可视跟踪输出低维度和噪声的情况。附加地,由于大部分现有的解决方案主要基于特定用户规则,该系统通过简单的启动步骤对一般用户运行相当良好。新用户仅需要几秒在系统中注册中性面部。从此以后,系统可通过动画虚拟形象模仿用户的面部运动。
监督度量学习方法用于获取原始跟踪数据的最佳线性变换以及数据驱动模型以预测注册的用户的面部表情。附加地,制作者训练框架独立于潜在的面部跟踪器和可视跟踪输出。不需要来自跟踪引擎的任何跟踪语义,因为其通过采样数据集学习表情语义。
在离线学习期间,目标是学习两个距离度量,Mo和M1。Mo设计为用于测量人际差异,即区分不同的主体同时最小化其他因素。相反,M1设计为用于测量本人差异,即区分不同的面部表情同时去除其他变型。为学习Mo和M1,主体的组被收集并且其每个示出了一组预定义面部表情。我们令表示训练数据集中第j个主体的第i个表情的表情向量。特别地,i=0被保存用于中性面部表情。给定该数据集,标准度量学习方法可用于获得Mo和M1,例如,在我们的实现中,我们使用线性判别分析(LDA)。注意,Mo将在用户注册阶段扮演角色,同时M1将在在线面部表情重定位阶段扮演角色。
现在转到图7A,示出了根据本公开某些示例的描述离线学习的方法的流程图。在操作7010,具有预定义表情的一组主体的面部形状被收集。在操作7020,距离度量Mo被计算以区分不同的主体。在操作7030,距离度量M1可被计算。度量Mo和M1可通过监督距离度量学习方法计算,例如,线性判别分析(LDA)。
在制作之前,可能需要新用户捕获他/她的中性面部并且该形状被期望表示为凸面约束中的线性组合其中为训练集的中性面部形状,即
注意其为距离度量Mo下的约束的二次编程(QP)。一旦wj在注册阶段被求解,新用户的其他面部表情基可预测为:
在不充分和低质量数据采集的情况下,其中远离通过训练示例而跨越的线性空间,上述公式将无法给出合理的预测。作为可选的解决方案,径向基函数(RBF)可用于进行预测。RBF的基通过下式给定:
RBF回归通过利用训练集中已有的面部形状对每个面部表情基执行。结果,我们获得回归系数作用于第i个面部表情基的第j个RBF基。新用户的面部表情基将通过RBF回归函数预测:
通过约束线性回归的RBF回归的主要优点在于,准备训练数据集更具有灵活性。利用RBF回归框架,标记数据不需要一致,即不同的表情可来自不同的主体,只要中性表情包括于每个主体记录。
图7B示出了根据本公开某些示例的注册方法的流程图。在操作7040,新用户的中性面部被捕获。在操作7050,利用该中性面部和Mo,系统对新用户预测面部表情基。
一旦系统已学习,并且新用户被注册,系统可利用混合形状制作框架开始在线重定位。
其中P*为来自照相机的在线可视跟踪输入而bi为作用于面部表情基的混合系数。混合形状制作基础预先由艺术家定义并且执行的制作P*被期望利用约束的混合系数bi表达为P*的线性组合。该形式仍为二次编程(QP)形式,但提交至距离度量M1。
图7C示出了根据本公开某些示例的在线重定位的方法的流程图。在操作7060,系统收集当前面部形状P*的可视跟踪输出。在操作7070,利用P*、和M1,系统可利用受限的QP执行面部重定位。在操作7080,系统可执行在线重定位。
示例系统描述
图8示出了根据本公开某些示例的示例面部检测系统的示意图。面部图像的视频由图像捕获设备8010捕获。图像捕获设备8010可包括视频摄像机、网络照相机或其他图像捕获设备。图像捕获设备8010可集成于计算设备8020或显示器设备8080或(如所示出)可通信地耦合于任一者。计算设备8020可为能够配置以执行本文描述的方法的任何计算设备,示例计算设备包括桌面计算机、膝上型计算机、平板计算机、智能电话、蜂窝电话、上网本、超极本TM、混合设备等。计算设备8020可包括一个或多个模块。例如,计算系统可包含面部分类器模块8030,其可从视频捕获设备8010发送的视频帧检测面部区域,用于在线形状回归模块8040。在线形状回归模块8040可使用面部区域利用先前说明的离线训练的形状回归量检测图像中的面部界标点。抖动补偿模块8050可利用较早讨论的基于面部组成部分的滤波技术补偿抖动和暂时漂移。形状回归训练模块8060可利用较早讨论的方法训练离线形状回归模块。最终,面部表情重定位模块8070可转换面部界标为显示器8080上的表示,诸如制作的虚拟形象。
图9说明了示例机器9000的框图,其中本文讨论的技术(例如,方法)的任何一个或多个可在其上执行。在可选的实施例,机器9000可操作为独立设备或可连接(例如,网络化)于其他机器。在网络化部署中,机器9000可操作于服务器机器、客户端机器或服务器-客户端网络环境中的两者的能力。在一个示例中,机器9000可作为对等(P2P)(或其他分布式)网络环境中的对等机器。机器9000可为个人计算机(PC)、平板PC、机顶盒(STB)、个人数字助理(PDA)、移动电话、网络电器、网络路由器、开关或网桥或能够执行指定机器所采取的动作的指令(按序或其他方式)的任何机器。进一步,尽管仅说明了单个机器,术语“机器”还应视为包括任何机器集合,其单独或共同执行指令集(或多个指令集),以执行任何本文讨论的方法的一个或多个,诸如云计算、软件即服务(SaaS)、其他计算机集群配置。
如本文描述的示例可包括或可操作于逻辑或多个组件、模块或机构。模块为有形实体(例如,硬件),能够执行指定操作并可以特定方式配置或设置。在一个示例中,电路可以指定方式设置为模块(例如,在内部或相对于外部实体诸如其他电路)。在一个示例中,一个或多个计算机系统(例如,独立、客户端或服务器计算机系统)或一个或多个硬件处理器的整体或一部分可由固件或软件配置(例如,指令、应用部分或应用)为模块,其操作以执行指定操作。在一个示例中,软件可位于机器可读介质。在一个示例中,当由模块的底层硬件执行时,软件使硬件执行指定操作。
因此,术语“模块”理解为包含有形实体,即物理构造的实体,特别配置(例如,硬连线)或暂时(例如,暂态地)配置(例如,编程)为操作于指定方式或执行本文描述的任何操作的部分或全部。考虑模块被暂时配置的示例,每个模块不需要在任一时刻进行例示。例如,在模块包括利用软件配置的通用硬件处理器时,通用硬件处理器可在不同的时间配置为各自不同的模块。软件因此可将硬件处理器,例如配置为在一个时间实例组成特定模块并在不同的时间实例配置为组成不同的模块。
机器(例如,计算机系统)9000可包括硬件处理器9002(例如,中央处理单元(CPU)、图形处理单元(GPU)、硬件处理器核或任何其组合),主存储器9004和静态存储器9006,其某些或全部可经由互联(例如,总线)9008相互通信。机器9000在某些配置可包括一个或多个互链和一个或多个总线。机器9000可进一步包括显示器单元9010、字母数字输入设备9012(例如,键盘)和用户界面(UI)导航设备9014(例如,鼠标)。在一个示例中,显示器单元9010、输入设备9012和UI导航设备9014可为触摸屏幕显示器。机器9000可附加地包括存储设备(例如,驱动单元)9016、信号生成设备9018(例如,扬声器)、网络接口设备9020和一个或多个传感器9021,诸如全局定位系统(GPS)传感器、数字照相机(诸如视频照相机)、罗盘、加速度计或其他传感器。机器9000可包括输出控制器9028,诸如串行(例如,通用串行总线(USB)、并行或其他有线或无线(例如,红外(IR)、近场通信(NFC)等)连接以通信或控制一个或多个外围设备(例如,打印机、读卡器等)。
存储设备9016可包括机器可读介质9022,其上存储一组或多组数据结构或指令9024(例如,软件),实施或由本文描述的技术或功能的任一个或多个利用。指令9024还可在其由机器9000执行期间完全或至少部分地位于主存储器9004、静态存储器9006或硬件处理器9002。在一个示例中,硬件处理器9002、主存储器9004、静态存储器9006或存储设备9016的一个或任何组合可组成机器可读介质。
尽管机器可读介质9022说明为单个介质,术语“机器可读介质”可包括单个介质或多个介质(例如,中心式或分布式数据库和/或相关缓存和服务器),配置以存储一个或多个指令9024。
术语“机器可读介质”可包括能够存储、编码或携带由机器9000执行并使机器9000执行本公开任一个或多个技术或能够存储、编码或携带该指令使用或关联的数据结构的指令的任何介质。非限制机器可读介质示例可包括固态存储器和光学与磁性介质。在一个示例中,机器可读介质包括具有有静止质量的多种粒子的机器可读介质。特定的示例机器可读介质可包括:非易失性存储器,诸如半导体存储器设备(例如,电可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM))和闪存设备;磁盘,诸如内部硬盘和可移除磁盘;磁光盘;随机存取存储器(RAM);以及CD-ROM和DVD-ROM磁盘。
指令9024可进一步通过通信网络9026利用传输介质经由利用任意种传输协议(例如,帧中继、互联网协议(IP)、传输控制协议(TCP)、用户数据报协议(UDP)、超文本传输协议(HTTP)等)的网络接口设备9020传输或接收。示例通信网络可包括局域网(LAN)、广域网(WAN)、分组数据网络(例如,互联网)、移动电话网络(例如,蜂窝网络)、普通电话(POTS)网络和无线数据网络(例如,称为的电气和电子工程师协会(IEEE)802.11标准家族,称为的IEEE 802.16标准家族)、IEEE 802.15.4标准家族、对等(P2P)网络以及其他。在一个示例中,网络接口设备9020可包括一个或多个物理插口(例如,以太网、同轴或电话插口)或一个或多个天线,以连接至通信网络9026。在一个示例中,网络接口设备9020可包括多个天线,以利用单输入多输出(SIMO)、多输入多输出(MIMO)或多输入单输出(MISO)技术的至少一个来无线通信。术语“传输介质”用于包括任何无形的介质,其能够存储、编码或携带由机器9000执行的指令,并包括数字或模拟通信信号或其他无形的介质,以实现软件通信。
其他示例
如下为非限制示例。
示例1包括主题(诸如用于执行动作的方法、装置,包括用于检测面部界标点的指令的机器可读介质,其当由机器执行时,使该机器执行动作或配置成执行的装置)包括:利用面部分类器检测第一视频帧中的面部图像;通过应用第一变换至所检测的面部图像来正则化所检测的面部图像;利用训练的形状回归量检测正则化的面部图像的一组面部界标点;通过应用第二变换至该面部界标点来计算第一视频帧的一组最终面部界标点,第二变换为第一变换的逆变换。
在示例2,示例1的主题可选地包括利用来自第一视频帧的所计算的一组面部界标点计算第二视频帧的面部包围盒;通过应用第三变换至第二面部图像正则化第二视频帧的第二面部图像,第二面部图像包括该面部包围盒中的第二视频帧的图像;利用该训练的形状回归量检测所正则化的第二面部图像中的第二组面部界标点;以及通过应用第四变换至该面部界标点来计算第二视频帧的一组第二最终面部界标点,第四变换为第三变换的逆变换。
在示例3,根据示例1-2任一个的主题可选地包括以预定义量填充该面部包围盒。
在示例4,根据示例1-3任一个的主题可选地包括对两个面部组成部分的组的每一个:计算参考点位置;计算第二视频帧中该组面部界标点到该参考点位置的距离和;测量第二视频帧的第二组界标点和第一视频帧的该组界标点之间的几何相似性;以及应用重要性驱动滤波以生成面部界标点的抖动补偿集合。
在示例5,根据示例1-4任一个的主题可选地包括,其中应用重要性驱动滤波包括利用第一权重因子为第一视频帧的该界标点的位置加权并且利用第二权重因子为第二视频帧的界标点的位置加权,并且其中第一和第二权重因子基于所测量的几何相似性确定。
在示例6,根据示例1-5任一个的主题可选地包括通过建立广义决策树训练该训练的形状回归量以利用至少两个阈值划分训练数据集,其中该广义决策树是基于像素亮度的训练数据集的划分。
在示例7,根据示例1-6任一个的主题可选地包括利用该面部界标点制作图形虚拟形象。
在示例8,根据示例1-7任一个的主题可选地包括收集多个主体的面部形状信息,该多个主体中每个相应主体表达预定义表情;计算第一距离度量以描述该多个主体之间的差异;以及计算第二距离度量以描述该多个主体的不同表情之间的差异。
在示例9,根据示例1-8任一个的主题可选地包括捕获新用户的中性面部;利用第一距离度量确定新用户的面部表情基。
在示例10,根据示例1-9任一个的主题可选地包括,其中利用该面部界标点制作该图形虚拟形象包括使用第一和第二度量、该组面部界标点以及该新用户的面部表情基作为输入采用混合形状制作公式计算面部重定位。
在示例11,根据示例1-10任一个的主题可选地包括,其中第一变换为标量变换。
示例12包括或可选地合并于示例1-11任一个的主题,以包括用于检测面部界标点主题(诸如设备、装置或机器),包括:面部分类器模块,用于:检测第一视频帧中的面部图像;以及在线形状回归模块,用于:通过应用第一变换至检测的面部图像来正则化检测的面部图像;利用训练的形状回归量检测正则化的面部图像的一组面部界标点;通过应用第二变换至该面部界标点来计算第一视频帧的一组最终面部界标点,第二变换为第一变换的逆变换。
在示例13,根据示例1-12任一个的主题可选地包括,其中该在线形状回归模块用于:利用来自第一视频帧的所计算的一组面部界标点计算第二视频帧的面部包围盒;通过应用第三变换至第二面部图像而正则化第二视频帧的第二面部图像,第二面部图像包括该面部包围盒中的第二视频帧的图像;利用该训练的形状回归量检测所正则化的第二面部图像中的第二组面部界标点;以及通过应用第四变换至该面部界标点来计算第二视频帧的一组第二最终面部界标点,第四变换为第三变换的逆变换。
在示例14,根据示例1-13任一个的主题可选地包括,其中该在线形状回归模块配置成以预定义量填充该面部包围盒。
在示例15,根据示例1-14任一个的主题可选地包括抖动补偿模块,用于:对两个面部组成部分的组的每一个:计算参考点位置;计算第二视频帧中该组面部界标点到该参考点位置的距离和;测量第二视频帧的第二组界标点和第一视频帧的该组界标点之间的几何相似性;以及应用重要性驱动滤波以生成面部界标点的抖动补偿集合。
在示例16,根据示例1-15任一个的主题,可选地包括,其中抖动补偿模块配置以通过配置以至少利用第一权重因子为第一视频帧的该界标点的位置加权并利用第二权重因子为第二视频帧的界标点的位置加权而应用重要性驱动滤波,并且其中第一和第二权重因子基于所测量的几何相似性确定。
在示例17,根据示例1-16任一个的主题可选地包括形状回归训练模块,用于:通过建立广义决策树训练该训练形状回归量以利用至少两个阈值划分训练数据集,其中该广义决策树是基于像素亮度的训练数据集的划分。
在示例18,根据示例1-17任一个的主题可选地包括面部表情重定位模块,用于利用该面部界标点制作图形虚拟形象。
在示例19,根据示例1-16任一个的主题可选地包括,其中该面部表情重定位模块用于:收集多个主体的面部形状信息,该多个主体中每个相应主体表达预定义表情;计算第一距离度量以描述该多个主体之间的差异;以及计算第二距离度量以描述该多个主体的不同表情之间的差异。
在示例20,根据示例1-19任一个的主题可选地包括,其中该面部表情重定位模块配置成:捕获新用户的中性面部;以及利用第一距离度量确定新用户的面部表情基。
在示例21,根据示例1-20任一个的主题可选地包括,其中该面部表情重定位模块配置以利用第一和第二度量、该组面部界标点以及该新用户的面部表情基作为输入来使用混合形状制作公式。
在示例22,根据示例1-21任一个的主题可选地包括,其中第一变换为标量变换。
Claims (28)
1.一种用于检测面部界标点的方法,所述方法包括:
利用面部分类器检测第一视频帧中的面部图像;
通过应用第一变换至所检测到的面部图像来正则化所检测到的面部图像;
利用训练的形状回归量来检测正则化的面部图像的第一组面部界标点;
通过应用第二变换至所述第一组面部界标点来计算所述第一视频帧中的第一组最终面部界标点,所述第二变换为所述第一变换的逆变换;
利用来自所述第一视频帧的所计算的所述第一组最终面部界标点计算用于第二视频帧的面部包围盒;
通过应用第三变换至所述第二视频帧中的第二面部图像来正则化所述第二面部图像,所述第二面部图像包括所述面部包围盒中的所述第二视频帧的图像;
利用所训练的形状回归量来检测正则化的第二面部图像中的第二组面部界标点;以及
通过应用第四变换至所述第二组面部界标点来计算所述第二视频帧中的第二组最终面部界标点,所述第四变换为所述第三变换的逆变换。
2.根据权利要求1所述的方法,包括,以预定量填充所述面部包围盒。
3.根据权利要求1所述的方法,包括:对于所述第一组最终面部界标点和所述第二组最终面部界标点中的每一个:
计算参考点位置;
计算所述第二视频帧中的所述第二组最终面部界标点到所述参考点位置的距离和;
测量所述第二视频帧中的所述第二组最终面部界标点和所述第一视频帧中的所述第一组最终面部界标点之间的几何相似性;以及
应用重要性驱动滤波以生成面部界标点的抖动补偿集。
4.根据权利要求3所述的方法,其中应用重要性驱动滤波包括利用第一权重因子为所述第一视频帧中的所述第一组最终面部界标点的位置加权并且利用第二权重因子为所述第二视频帧中的所述第二组最终面部界标点的位置加权,并且其中所述第一和第二权重因子基于所测量的几何相似性来确定。
5.根据权利要求1所述的方法,包括:
通过建立广义决策树来训练所训练的形状回归量,以利用至少两个阈值来划分训练数据集,其中所述广义决策树为基于像素亮度的所述训练数据集的划分。
6.根据权利要求1所述的方法,包括:
利用所述第二组最终面部界标点制作图形虚拟形象。
7.根据权利要求6所述的方法,包括:
收集多个主体的面部形状信息,所述多个主体中每个相应主体表达预定义的表情;
计算第一距离度量以描述所述多个主体之间的差异;以及
计算第二距离度量以描述所述多个主体的不同表情之间的差异。
8.根据权利要求7所述的方法,包括:
捕获新用户的中性面部;
利用所述第一距离度量来确定所述新用户的面部表情基。
9.根据权利要求8所述的方法,其中利用所述第二组最终面部界标点制作所述图形虚拟形象包括:利用混合形状制作公式、第一和第二度量、所述第二组最终面部界标点和新用户的所述面部表情基作为输入来计算面部重定位。
10.根据权利要求1所述的方法,其中所述第一变换为标量变换。
11.一种机器可读介质,包括指令,其当由机器执行时,使所述机器执行权利要求1-10中的任一项所述的方法。
12.一种用于检测面部界标点的设备,所述设备包括:
用于利用面部分类器检测第一视频帧中的面部图像的部件;
用于通过应用第一变换至所检测到的面部图像来正则化所检测到的面部图像的部件;
用于利用训练的形状回归量来检测正则化的面部图像的第一组面部界标点的部件;
用于通过应用第二变换至所述第一组面部界标点来计算所述第一视频帧的第一组最终面部界标点的部件,所述第二变换为所述第一变换的逆变换;
用于利用来自所述第一视频帧的所计算的所述第一组最终面部界标点来计算第二视频帧的面部包围盒的部件;
用于通过应用第三变换至所述第二视频帧的第二面部图像来正则化所述第二面部图像的部件,所述第二面部图像包括所述面部包围盒中的所述第二视频帧的图像;
用于利用所训练的形状回归量来检测正则化的第二面部图像中的第二组面部界标点的部件;以及
用于通过应用第四变换至所述第二组面部界标点来计算所述第二视频帧中的第二组最终面部界标点的部件,所述第四变换为所述第三变换的逆变换。
13.根据权利要求12所述的设备,包括:
用于通过建立广义决策树来训练所训练的形状回归量以利用至少两个阈值划分训练数据集的部件,其中所述广义决策树为基于像素亮度的训练数据集的划分。
14.根据权利要求12所述的设备,包括:用于以预定量填充所述面部包围盒的部件。
15.根据权利要求12所述的设备,包括:
用于对于所述第一组最终面部界标点和所述第二组最终面部界标点中的每一个,计算参考点位置的部件;
用于对于所述第一组最终面部界标点和所述第二组最终面部界标点中的每一个,计算所述第二视频帧中的所述第二组最终面部界标点到所述参考点位置的距离和的部件;
用于对于所述第一组最终面部界标点和所述第二组最终面部界标点中的每一个,测量所述第二视频帧中的所述第二组最终面部界标点和所述第一视频帧中的所述第一组最终面部界标点之间的几何相似性的部件;以及
用于对于所述第一组最终面部界标点和所述第二组最终面部界标点中的每一个,应用重要性驱动滤波以生成面部界标点的抖动补偿集的部件。
16.根据权利要求15所述的设备,其中用于应用重要性驱动滤波的部件包括用于利用第一权重因子为所述第一视频帧中的所述第一组最终面部界标点的位置加权并且利用第二权重因子为所述第二视频帧中的所述第二组最终面部界标点的位置加权的部件,并且其中所述第一和第二权重因子基于所测量的几何相似性来确定。
17.根据权利要求12所述的设备,包括:
用于利用所述第二组最终面部界标点制作图形虚拟形象的部件。
18.根据权利要求17所述的设备,包括:
用于收集多个主体的面部形状信息的部件,所述多个主体中每个相应主体表达预定义的表情;
用于计算第一距离度量以描述所述多个主体之间的差异的部件;以及
用于计算第二距离度量以描述所述多个主体的不同表情之间的差异的部件。
19.根据权利要求18所述的设备,包括:
用于捕获新用户的中性面部的部件;
用于利用所述第一距离度量来确定所述新用户的面部表情基的部件。
20.根据权利要求19所述的设备,其中用于利用所述第二组最终面部界标点制作所述图形虚拟形象的部件包括:用于利用混合形状制作公式、第一和第二度量、所述第二组最终面部界标点和新用户的所述面部表情基作为输入来计算面部重定位的部件。
21.根据权利要求12所述的设备,其中所述第一变换为标量变换。
22.一种用于检测面部界标点的设备,所述设备包括:
面部分类器模块,用于:
检测第一视频帧中的面部图像;以及
在线形状回归模块,用于:
通过应用第一变换至所检测到的面部图像来正则化所检测到的面部图像;
利用所训练的形状回归量来检测正则化的面部图像的第一组面部界标点;
通过应用第二变换至所述第一组面部界标点来计算所述第一视频帧中的第一组最终面部界标点,所述第二变换为所述第一变换的逆变换;
利用来自所述第一视频帧的所计算的所述第一组最终面部界标点来计算用于第二视频帧的面部包围盒;
通过应用第三变换至所述第二视频帧中的第二面部图像来正则化所述第二面部图像,所述第二面部图像包括所述面部包围盒中的所述第二视频帧的图像;
利用所训练的形状回归量来检测正则化的第二面部图像中的第二组面部界标点;以及
通过应用第四变换至所述第二组面部界标点来计算所述第二视频帧中的第二组最终面部界标点,所述第四变换为所述第三变换的逆变换。
23.根据权利要求22所述的设备,包括:
抖动补偿模块,用于:
对所述第一组最终面部界标点和所述第二组最终面部界标点中的每一个:
计算参考点位置;
计算所述第二视频帧中的所述第二组最终面部界标点到所述参考点位置的距离和;
测量所述第二视频帧中的所述第二组最终面部界标点和所述第一视频帧中的所述第一组最终面部界标点之间的几何相似性;以及
应用重要性驱动滤波以生成面部界标点的抖动补偿集合。
24.根据权利要求23所述的设备,其中所述抖动补偿模块用于通过配置成以至少利用第一权重因子为所述第一视频帧中的所述第一组最终面部界标点的位置加权以及利用第二权重因子为所述第二视频帧的所述第二组最终面部界标点的位置加权,而应用重要性驱动滤波,并且其中所述第一和第二权重因子基于所测量的几何相似性来确定。
25.根据权利要求22-24中的任一项所述的设备,包括:
形状回归训练模块,用于:
通过建立广义决策树来训练所训练的形状回归量,以利用至少两个阈值划分训练数据集,其中所述广义决策树是基于像素亮度的所述训练数据集的划分。
26.根据权利要求25所述的设备,进一步包括面部表情重定位模块,用于:
收集多个主体的面部形状信息,所述多个主体中的每个相应主体表达预定义的表情;
计算第一距离度量以描述所述多个主体之间的差异;以及
计算第二距离度量以描述所述多个主体的不同表情之间的差异。
27.根据权利要求26所述的设备,其中所述面部表情重定位模块用于:
捕获新用户的中性面部;以及
利用所述第一距离度量确定所述新用户的面部表情基。
28.根据权利要求27所述的设备,其中所述面部表情重定位模块用于利用所述第一和第二度量、所述第二组最终面部界标点以及所述新用户的面部表情基作为输入来使用混合形状制作公式。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/106134 | 2013-12-13 | ||
US14/106,134 US9361510B2 (en) | 2013-12-13 | 2013-12-13 | Efficient facial landmark tracking using online shape regression method |
PCT/US2014/070083 WO2015089436A1 (en) | 2013-12-13 | 2014-12-12 | Efficient facial landmark tracking using online shape regression method |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105981075A CN105981075A (zh) | 2016-09-28 |
CN105981075B true CN105981075B (zh) | 2019-11-12 |
Family
ID=53368846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480062521.8A Active CN105981075B (zh) | 2013-12-13 | 2014-12-12 | 利用在线形状回归方法的高效面部界标跟踪 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9361510B2 (zh) |
EP (1) | EP3080779A4 (zh) |
CN (1) | CN105981075B (zh) |
WO (1) | WO2015089436A1 (zh) |
Families Citing this family (185)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9105014B2 (en) | 2009-02-03 | 2015-08-11 | International Business Machines Corporation | Interactive avatar in messaging environment |
WO2013166588A1 (en) | 2012-05-08 | 2013-11-14 | Bitstrips Inc. | System and method for adaptable avatars |
US9361510B2 (en) | 2013-12-13 | 2016-06-07 | Intel Corporation | Efficient facial landmark tracking using online shape regression method |
US9928405B2 (en) * | 2014-01-13 | 2018-03-27 | Carnegie Mellon University | System and method for detecting and tracking facial features in images |
US9659210B1 (en) * | 2014-01-13 | 2017-05-23 | Carnegie Mellon University | System and method for detecting and tracking facial features in images |
US9928874B2 (en) | 2014-02-05 | 2018-03-27 | Snap Inc. | Method for real-time video processing involving changing features of an object in the video |
WO2015164584A1 (en) * | 2014-04-23 | 2015-10-29 | Google Inc. | User interface control using gaze tracking |
US9204098B1 (en) | 2014-06-30 | 2015-12-01 | International Business Machines Corporation | Dynamic character substitution for web conferencing based on sentiment |
US9277180B2 (en) | 2014-06-30 | 2016-03-01 | International Business Machines Corporation | Dynamic facial feature substitution for video conferencing |
EP3183689A4 (en) * | 2014-08-22 | 2017-08-23 | Microsoft Technology Licensing, LLC | Face alignment with shape regression |
US20170278302A1 (en) * | 2014-08-29 | 2017-09-28 | Thomson Licensing | Method and device for registering an image to a model |
CN107251096B (zh) * | 2014-11-10 | 2022-02-11 | 英特尔公司 | 图像捕获装置和方法 |
US10528839B2 (en) | 2015-06-26 | 2020-01-07 | Intel Coporation | Combinatorial shape regression for face alignment in images |
EP3136289A1 (en) | 2015-08-28 | 2017-03-01 | Thomson Licensing | Method and device for classifying an object of an image and corresponding computer program product and computer-readable medium |
WO2017040519A1 (en) * | 2015-08-31 | 2017-03-09 | Sri International | Method and system for monitoring driving behaviors |
WO2017044499A1 (en) * | 2015-09-07 | 2017-03-16 | Sony Interactive Entertainment America Llc | Image regularization and retargeting system |
US11893671B2 (en) | 2015-09-07 | 2024-02-06 | Sony Interactive Entertainment LLC | Image regularization and retargeting system |
US10121055B1 (en) * | 2015-09-08 | 2018-11-06 | Carnegie Mellon University | Method and system for facial landmark localization |
WO2017041289A1 (en) | 2015-09-11 | 2017-03-16 | Intel Corporation | Scalable real-time face beautification of video images |
US10152778B2 (en) | 2015-09-11 | 2018-12-11 | Intel Corporation | Real-time face beautification features for video images |
US9633250B2 (en) * | 2015-09-21 | 2017-04-25 | Mitsubishi Electric Research Laboratories, Inc. | Method for estimating locations of facial landmarks in an image of a face using globally aligned regression |
CN105426870B (zh) * | 2015-12-15 | 2019-09-24 | 北京文安智能技术股份有限公司 | 一种人脸关键点定位方法及装置 |
US10096132B2 (en) * | 2016-01-27 | 2018-10-09 | Samsung Electronics Co., Ltd. | Method and apparatus for positioning feature point |
US10043058B2 (en) * | 2016-03-09 | 2018-08-07 | International Business Machines Corporation | Face detection, representation, and recognition |
US10339365B2 (en) * | 2016-03-31 | 2019-07-02 | Snap Inc. | Automated avatar generation |
US10474353B2 (en) | 2016-05-31 | 2019-11-12 | Snap Inc. | Application control using a gesture based trigger |
US10360708B2 (en) | 2016-06-30 | 2019-07-23 | Snap Inc. | Avatar based ideogram generation |
CN106201201B (zh) * | 2016-07-07 | 2019-08-13 | 广州视睿电子科技有限公司 | 视图调整方法和系统 |
WO2018010101A1 (en) | 2016-07-12 | 2018-01-18 | Microsoft Technology Licensing, Llc | Method, apparatus and system for 3d face tracking |
US10348662B2 (en) | 2016-07-19 | 2019-07-09 | Snap Inc. | Generating customized electronic messaging graphics |
US10140508B2 (en) * | 2016-08-26 | 2018-11-27 | Huawei Technologies Co. Ltd. | Method and apparatus for annotating a video stream comprising a sequence of frames |
US10395099B2 (en) * | 2016-09-19 | 2019-08-27 | L'oreal | Systems, devices, and methods for three-dimensional analysis of eyebags |
US10609036B1 (en) | 2016-10-10 | 2020-03-31 | Snap Inc. | Social media post subscribe requests for buffer user accounts |
US10198626B2 (en) * | 2016-10-19 | 2019-02-05 | Snap Inc. | Neural networks for facial modeling |
US10147023B1 (en) * | 2016-10-20 | 2018-12-04 | Disney Enterprises, Inc. | Markerless face tracking with synthetic priors |
US10593116B2 (en) | 2016-10-24 | 2020-03-17 | Snap Inc. | Augmented reality object manipulation |
US10432559B2 (en) | 2016-10-24 | 2019-10-01 | Snap Inc. | Generating and displaying customized avatars in electronic messages |
CN106682598B (zh) * | 2016-12-14 | 2021-02-19 | 华南理工大学 | 一种基于级联回归的多姿态的人脸特征点检测方法 |
US11616745B2 (en) | 2017-01-09 | 2023-03-28 | Snap Inc. | Contextual generation and selection of customized media content |
US10242503B2 (en) | 2017-01-09 | 2019-03-26 | Snap Inc. | Surface aware lens |
US10242477B1 (en) | 2017-01-16 | 2019-03-26 | Snap Inc. | Coded vision system |
US10951562B2 (en) | 2017-01-18 | 2021-03-16 | Snap. Inc. | Customized contextual media content item generation |
US10454857B1 (en) | 2017-01-23 | 2019-10-22 | Snap Inc. | Customized digital avatar accessories |
US10049260B1 (en) | 2017-01-27 | 2018-08-14 | Banuba Limited | Computer systems and computer-implemented methods specialized in processing electronic image data |
US10204438B2 (en) | 2017-04-18 | 2019-02-12 | Banuba Limited | Dynamic real-time generation of three-dimensional avatar models of users based on live visual input of users' appearance and computer systems and computer-implemented methods directed to thereof |
US11069103B1 (en) | 2017-04-20 | 2021-07-20 | Snap Inc. | Customized user interface for electronic communications |
WO2018197947A1 (en) * | 2017-04-26 | 2018-11-01 | Hushchyn Yury | Subject stabilisation based on the precisely detected face position in the visual input and computer systems and computer-implemented methods for implementing thereof |
CN110800018A (zh) | 2017-04-27 | 2020-02-14 | 斯纳普公司 | 用于社交媒体平台的朋友位置共享机制 |
US10212541B1 (en) | 2017-04-27 | 2019-02-19 | Snap Inc. | Selective location-based identity communication |
US11893647B2 (en) | 2017-04-27 | 2024-02-06 | Snap Inc. | Location-based virtual avatars |
US10679428B1 (en) | 2017-05-26 | 2020-06-09 | Snap Inc. | Neural network-based image stream modification |
US10832035B2 (en) * | 2017-06-22 | 2020-11-10 | Koninklijke Philips N.V. | Subject identification systems and methods |
US11122094B2 (en) | 2017-07-28 | 2021-09-14 | Snap Inc. | Software application manager for messaging applications |
CN107633207B (zh) * | 2017-08-17 | 2018-10-12 | 平安科技(深圳)有限公司 | Au特征识别方法、装置及存储介质 |
US10586368B2 (en) | 2017-10-26 | 2020-03-10 | Snap Inc. | Joint audio-video facial animation system |
US10657695B2 (en) | 2017-10-30 | 2020-05-19 | Snap Inc. | Animated chat presence |
US11460974B1 (en) | 2017-11-28 | 2022-10-04 | Snap Inc. | Content discovery refresh |
CN111386553A (zh) | 2017-11-29 | 2020-07-07 | 斯纳普公司 | 用于电子消息传递应用的图形渲染 |
CN114915606A (zh) | 2017-11-29 | 2022-08-16 | 斯纳普公司 | 电子消息传递应用中的组故事 |
CN108268840B (zh) * | 2018-01-10 | 2020-12-08 | 浙江大华技术股份有限公司 | 一种人脸跟踪方法及装置 |
US10949648B1 (en) | 2018-01-23 | 2021-03-16 | Snap Inc. | Region-based stabilized face tracking |
US10726603B1 (en) | 2018-02-28 | 2020-07-28 | Snap Inc. | Animated expressive icon |
US10979752B1 (en) | 2018-02-28 | 2021-04-13 | Snap Inc. | Generating media content items based on location information |
US11310176B2 (en) | 2018-04-13 | 2022-04-19 | Snap Inc. | Content suggestion system |
US10719968B2 (en) | 2018-04-18 | 2020-07-21 | Snap Inc. | Augmented expression system |
JP2021524768A (ja) * | 2018-05-10 | 2021-09-16 | スリーエム イノベイティブ プロパティズ カンパニー | リアルタイムでの拡張可視化によりシミュレートされる歯科矯正治療 |
CN110619339B (zh) * | 2018-06-19 | 2022-07-15 | 赛灵思电子科技(北京)有限公司 | 一种目标检测方法与装置 |
US11074675B2 (en) | 2018-07-31 | 2021-07-27 | Snap Inc. | Eye texture inpainting |
US11030813B2 (en) | 2018-08-30 | 2021-06-08 | Snap Inc. | Video clip object tracking |
US10896534B1 (en) | 2018-09-19 | 2021-01-19 | Snap Inc. | Avatar style transformation using neural networks |
US10895964B1 (en) | 2018-09-25 | 2021-01-19 | Snap Inc. | Interface to display shared user groups |
US11245658B2 (en) | 2018-09-28 | 2022-02-08 | Snap Inc. | System and method of generating private notifications between users in a communication session |
US10904181B2 (en) | 2018-09-28 | 2021-01-26 | Snap Inc. | Generating customized graphics having reactions to electronic message content |
US10698583B2 (en) | 2018-09-28 | 2020-06-30 | Snap Inc. | Collaborative achievement interface |
US11189070B2 (en) | 2018-09-28 | 2021-11-30 | Snap Inc. | System and method of generating targeted user lists using customizable avatar characteristics |
US10872451B2 (en) | 2018-10-31 | 2020-12-22 | Snap Inc. | 3D avatar rendering |
US11103795B1 (en) | 2018-10-31 | 2021-08-31 | Snap Inc. | Game drawer |
US11176737B2 (en) | 2018-11-27 | 2021-11-16 | Snap Inc. | Textured mesh building |
US10902661B1 (en) | 2018-11-28 | 2021-01-26 | Snap Inc. | Dynamic composite user identifier |
US11199957B1 (en) | 2018-11-30 | 2021-12-14 | Snap Inc. | Generating customized avatars based on location information |
US10861170B1 (en) | 2018-11-30 | 2020-12-08 | Snap Inc. | Efficient human pose tracking in videos |
US11055514B1 (en) | 2018-12-14 | 2021-07-06 | Snap Inc. | Image face manipulation |
US11516173B1 (en) | 2018-12-26 | 2022-11-29 | Snap Inc. | Message composition interface |
US10936178B2 (en) * | 2019-01-07 | 2021-03-02 | MemoryWeb, LLC | Systems and methods for analyzing and organizing digital photos and videos |
US11032670B1 (en) | 2019-01-14 | 2021-06-08 | Snap Inc. | Destination sharing in location sharing system |
US10939246B1 (en) | 2019-01-16 | 2021-03-02 | Snap Inc. | Location-based context information sharing in a messaging system |
US20220114836A1 (en) * | 2019-01-30 | 2022-04-14 | Samsung Electronics Co., Ltd. | Method for processing image, and apparatus therefor |
US11294936B1 (en) | 2019-01-30 | 2022-04-05 | Snap Inc. | Adaptive spatial density based clustering |
US10984575B2 (en) | 2019-02-06 | 2021-04-20 | Snap Inc. | Body pose estimation |
US10656797B1 (en) | 2019-02-06 | 2020-05-19 | Snap Inc. | Global event-based avatar |
US10936066B1 (en) | 2019-02-13 | 2021-03-02 | Snap Inc. | Sleep detection in a location sharing system |
US10964082B2 (en) | 2019-02-26 | 2021-03-30 | Snap Inc. | Avatar based on weather |
US10852918B1 (en) | 2019-03-08 | 2020-12-01 | Snap Inc. | Contextual information in chat |
US11868414B1 (en) | 2019-03-14 | 2024-01-09 | Snap Inc. | Graph-based prediction for contact suggestion in a location sharing system |
WO2020183706A1 (ja) * | 2019-03-14 | 2020-09-17 | 日本電気株式会社 | 学習画像の教師データ修正方法、教師データ修正装置及びプログラム |
US11852554B1 (en) | 2019-03-21 | 2023-12-26 | Snap Inc. | Barometer calibration in a location sharing system |
US11568645B2 (en) * | 2019-03-21 | 2023-01-31 | Samsung Electronics Co., Ltd. | Electronic device and controlling method thereof |
US10674311B1 (en) | 2019-03-28 | 2020-06-02 | Snap Inc. | Points of interest in a location sharing system |
US11166123B1 (en) | 2019-03-28 | 2021-11-02 | Snap Inc. | Grouped transmission of location data in a location sharing system |
US10992619B2 (en) | 2019-04-30 | 2021-04-27 | Snap Inc. | Messaging system with avatar generation |
USD916809S1 (en) | 2019-05-28 | 2021-04-20 | Snap Inc. | Display screen or portion thereof with a transitional graphical user interface |
USD916872S1 (en) | 2019-05-28 | 2021-04-20 | Snap Inc. | Display screen or portion thereof with a graphical user interface |
USD916811S1 (en) | 2019-05-28 | 2021-04-20 | Snap Inc. | Display screen or portion thereof with a transitional graphical user interface |
USD916871S1 (en) | 2019-05-28 | 2021-04-20 | Snap Inc. | Display screen or portion thereof with a transitional graphical user interface |
USD916810S1 (en) | 2019-05-28 | 2021-04-20 | Snap Inc. | Display screen or portion thereof with a graphical user interface |
US10893385B1 (en) | 2019-06-07 | 2021-01-12 | Snap Inc. | Detection of a physical collision between two client devices in a location sharing system |
CN113924603A (zh) * | 2019-06-11 | 2022-01-11 | Oppo广东移动通信有限公司 | 使用面部组分特定局部细化于面部界标检测的方法及系统 |
CN110276785B (zh) * | 2019-06-24 | 2023-03-31 | 电子科技大学 | 一种抗遮挡红外目标跟踪方法 |
WO2020263277A1 (en) | 2019-06-28 | 2020-12-30 | 1Hewlett-Packard Development Company, L. P. | Landmark temporal smoothing |
US11189098B2 (en) | 2019-06-28 | 2021-11-30 | Snap Inc. | 3D object camera customization system |
US11188190B2 (en) | 2019-06-28 | 2021-11-30 | Snap Inc. | Generating animation overlays in a communication session |
US11676199B2 (en) | 2019-06-28 | 2023-06-13 | Snap Inc. | Generating customizable avatar outfits |
US11307747B2 (en) | 2019-07-11 | 2022-04-19 | Snap Inc. | Edge gesture interface with smart interactions |
US11455081B2 (en) | 2019-08-05 | 2022-09-27 | Snap Inc. | Message thread prioritization interface |
US10911387B1 (en) | 2019-08-12 | 2021-02-02 | Snap Inc. | Message reminder interface |
US11320969B2 (en) | 2019-09-16 | 2022-05-03 | Snap Inc. | Messaging system with battery level sharing |
US11425062B2 (en) | 2019-09-27 | 2022-08-23 | Snap Inc. | Recommended content viewed by friends |
US11080917B2 (en) | 2019-09-30 | 2021-08-03 | Snap Inc. | Dynamic parameterized user avatar stories |
US11218838B2 (en) | 2019-10-31 | 2022-01-04 | Snap Inc. | Focused map-based context information surfacing |
US11063891B2 (en) | 2019-12-03 | 2021-07-13 | Snap Inc. | Personalized avatar notification |
US11128586B2 (en) | 2019-12-09 | 2021-09-21 | Snap Inc. | Context sensitive avatar captions |
US11036989B1 (en) | 2019-12-11 | 2021-06-15 | Snap Inc. | Skeletal tracking using previous frames |
US11263817B1 (en) | 2019-12-19 | 2022-03-01 | Snap Inc. | 3D captions with face tracking |
US11227442B1 (en) | 2019-12-19 | 2022-01-18 | Snap Inc. | 3D captions with semantic graphical elements |
US11140515B1 (en) | 2019-12-30 | 2021-10-05 | Snap Inc. | Interfaces for relative device positioning |
US11128715B1 (en) | 2019-12-30 | 2021-09-21 | Snap Inc. | Physical friend proximity in chat |
US11169658B2 (en) | 2019-12-31 | 2021-11-09 | Snap Inc. | Combined map icon with action indicator |
US11356720B2 (en) | 2020-01-30 | 2022-06-07 | Snap Inc. | Video generation system to render frames on demand |
US11036781B1 (en) | 2020-01-30 | 2021-06-15 | Snap Inc. | Video generation system to render frames on demand using a fleet of servers |
US11284144B2 (en) | 2020-01-30 | 2022-03-22 | Snap Inc. | Video generation system to render frames on demand using a fleet of GPUs |
CN115175748A (zh) | 2020-01-30 | 2022-10-11 | 斯纳普公司 | 用于按需生成媒体内容项的系统 |
US11619501B2 (en) | 2020-03-11 | 2023-04-04 | Snap Inc. | Avatar based on trip |
US11217020B2 (en) | 2020-03-16 | 2022-01-04 | Snap Inc. | 3D cutout image modification |
CN111428661A (zh) * | 2020-03-28 | 2020-07-17 | 北京工业大学 | 一种基于智能化人机交互进行人脸图像处理的方法 |
US11818286B2 (en) | 2020-03-30 | 2023-11-14 | Snap Inc. | Avatar recommendation and reply |
US11625873B2 (en) | 2020-03-30 | 2023-04-11 | Snap Inc. | Personalized media overlay recommendation |
US11956190B2 (en) | 2020-05-08 | 2024-04-09 | Snap Inc. | Messaging system with a carousel of related entities |
US11543939B2 (en) | 2020-06-08 | 2023-01-03 | Snap Inc. | Encoded image based messaging system |
US11922010B2 (en) | 2020-06-08 | 2024-03-05 | Snap Inc. | Providing contextual information with keyboard interface for messaging system |
US11356392B2 (en) | 2020-06-10 | 2022-06-07 | Snap Inc. | Messaging system including an external-resource dock and drawer |
USD947243S1 (en) * | 2020-06-19 | 2022-03-29 | Apple Inc. | Display screen or portion thereof with graphical user interface |
US11580682B1 (en) | 2020-06-30 | 2023-02-14 | Snap Inc. | Messaging system with augmented reality makeup |
US11863513B2 (en) | 2020-08-31 | 2024-01-02 | Snap Inc. | Media content playback and comments management |
US11360733B2 (en) | 2020-09-10 | 2022-06-14 | Snap Inc. | Colocated shared augmented reality without shared backend |
US11452939B2 (en) | 2020-09-21 | 2022-09-27 | Snap Inc. | Graphical marker generation system for synchronizing users |
US11470025B2 (en) | 2020-09-21 | 2022-10-11 | Snap Inc. | Chats with micro sound clips |
US11910269B2 (en) | 2020-09-25 | 2024-02-20 | Snap Inc. | Augmented reality content items including user avatar to share location |
US11615592B2 (en) | 2020-10-27 | 2023-03-28 | Snap Inc. | Side-by-side character animation from realtime 3D body motion capture |
US11660022B2 (en) | 2020-10-27 | 2023-05-30 | Snap Inc. | Adaptive skeletal joint smoothing |
US11748931B2 (en) | 2020-11-18 | 2023-09-05 | Snap Inc. | Body animation sharing and remixing |
US11450051B2 (en) | 2020-11-18 | 2022-09-20 | Snap Inc. | Personalized avatar real-time motion capture |
US11734894B2 (en) | 2020-11-18 | 2023-08-22 | Snap Inc. | Real-time motion transfer for prosthetic limbs |
US11790531B2 (en) | 2021-02-24 | 2023-10-17 | Snap Inc. | Whole body segmentation |
US11908243B2 (en) | 2021-03-16 | 2024-02-20 | Snap Inc. | Menu hierarchy navigation on electronic mirroring devices |
US11809633B2 (en) | 2021-03-16 | 2023-11-07 | Snap Inc. | Mirroring device with pointing based navigation |
US11798201B2 (en) | 2021-03-16 | 2023-10-24 | Snap Inc. | Mirroring device with whole-body outfits |
US11734959B2 (en) | 2021-03-16 | 2023-08-22 | Snap Inc. | Activating hands-free mode on mirroring device |
US11544885B2 (en) | 2021-03-19 | 2023-01-03 | Snap Inc. | Augmented reality experience based on physical items |
US11562548B2 (en) | 2021-03-22 | 2023-01-24 | Snap Inc. | True size eyewear in real time |
US11636654B2 (en) | 2021-05-19 | 2023-04-25 | Snap Inc. | AR-based connected portal shopping |
US11941227B2 (en) | 2021-06-30 | 2024-03-26 | Snap Inc. | Hybrid search system for customizable media |
US11854069B2 (en) | 2021-07-16 | 2023-12-26 | Snap Inc. | Personalized try-on ads |
US20230035282A1 (en) * | 2021-07-23 | 2023-02-02 | Qualcomm Incorporated | Adaptive bounding for three-dimensional morphable models |
US11908083B2 (en) | 2021-08-31 | 2024-02-20 | Snap Inc. | Deforming custom mesh based on body mesh |
US11670059B2 (en) | 2021-09-01 | 2023-06-06 | Snap Inc. | Controlling interactive fashion based on body gestures |
US11673054B2 (en) | 2021-09-07 | 2023-06-13 | Snap Inc. | Controlling AR games on fashion items |
US11663792B2 (en) | 2021-09-08 | 2023-05-30 | Snap Inc. | Body fitted accessory with physics simulation |
US11900506B2 (en) | 2021-09-09 | 2024-02-13 | Snap Inc. | Controlling interactive fashion based on facial expressions |
US11734866B2 (en) | 2021-09-13 | 2023-08-22 | Snap Inc. | Controlling interactive fashion based on voice |
US11798238B2 (en) | 2021-09-14 | 2023-10-24 | Snap Inc. | Blending body mesh into external mesh |
US11836866B2 (en) | 2021-09-20 | 2023-12-05 | Snap Inc. | Deforming real-world object using an external mesh |
US11636662B2 (en) | 2021-09-30 | 2023-04-25 | Snap Inc. | Body normal network light and rendering control |
US11790614B2 (en) | 2021-10-11 | 2023-10-17 | Snap Inc. | Inferring intent from pose and speech input |
US11651572B2 (en) | 2021-10-11 | 2023-05-16 | Snap Inc. | Light and rendering of garments |
US11836862B2 (en) | 2021-10-11 | 2023-12-05 | Snap Inc. | External mesh with vertex attributes |
US11763481B2 (en) | 2021-10-20 | 2023-09-19 | Snap Inc. | Mirror-based augmented reality experience |
US11748958B2 (en) | 2021-12-07 | 2023-09-05 | Snap Inc. | Augmented reality unboxing experience |
US11960784B2 (en) | 2021-12-07 | 2024-04-16 | Snap Inc. | Shared augmented reality unboxing experience |
US11880947B2 (en) | 2021-12-21 | 2024-01-23 | Snap Inc. | Real-time upper-body garment exchange |
US11887260B2 (en) | 2021-12-30 | 2024-01-30 | Snap Inc. | AR position indicator |
US11928783B2 (en) | 2021-12-30 | 2024-03-12 | Snap Inc. | AR position and orientation along a plane |
US11823346B2 (en) | 2022-01-17 | 2023-11-21 | Snap Inc. | AR body part tracking system |
US11954762B2 (en) | 2022-01-19 | 2024-04-09 | Snap Inc. | Object replacement system |
US11870745B1 (en) | 2022-06-28 | 2024-01-09 | Snap Inc. | Media gallery sharing and management |
US11893166B1 (en) | 2022-11-08 | 2024-02-06 | Snap Inc. | User avatar movement control using an augmented reality eyewear device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5802220A (en) * | 1995-12-15 | 1998-09-01 | Xerox Corporation | Apparatus and method for tracking facial motion through a sequence of images |
CN103260036A (zh) * | 2012-02-16 | 2013-08-21 | 卡西欧计算机株式会社 | 图像处理装置、图像处理方法、存储介质以及图像处理系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7391889B2 (en) * | 2002-10-15 | 2008-06-24 | Samsung Electronics Co., Ltd. | Method and apparatus for extracting feature vector used for face recognition and retrieval |
US20080187213A1 (en) * | 2007-02-06 | 2008-08-07 | Microsoft Corporation | Fast Landmark Detection Using Regression Methods |
KR101081494B1 (ko) | 2008-08-28 | 2011-11-09 | 동명대학교산학협력단 | 얼굴인식을 이용한 얼굴관상정보 및 얼굴 아바타 생성 방법 및 그 생성시스템 |
JP2010186216A (ja) * | 2009-02-10 | 2010-08-26 | Seiko Epson Corp | 顔画像における特徴部位の位置の特定 |
KR101681096B1 (ko) | 2010-07-13 | 2016-12-01 | 삼성전자주식회사 | 얼굴 애니메이션 시스템 및 방법 |
US20140185924A1 (en) * | 2012-12-27 | 2014-07-03 | Microsoft Corporation | Face Alignment by Explicit Shape Regression |
US9361510B2 (en) | 2013-12-13 | 2016-06-07 | Intel Corporation | Efficient facial landmark tracking using online shape regression method |
-
2013
- 2013-12-13 US US14/106,134 patent/US9361510B2/en active Active
-
2014
- 2014-12-12 CN CN201480062521.8A patent/CN105981075B/zh active Active
- 2014-12-12 WO PCT/US2014/070083 patent/WO2015089436A1/en active Application Filing
- 2014-12-12 EP EP14869103.3A patent/EP3080779A4/en not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5802220A (en) * | 1995-12-15 | 1998-09-01 | Xerox Corporation | Apparatus and method for tracking facial motion through a sequence of images |
CN103260036A (zh) * | 2012-02-16 | 2013-08-21 | 卡西欧计算机株式会社 | 图像处理装置、图像处理方法、存储介质以及图像处理系统 |
Non-Patent Citations (1)
Title |
---|
3D Shape Regression for Real-time Facial Animation;Chen Cao等;《ACM Transactions on Graphics(TOG)- Siggraph 2013 Conference Proceedings》;20130731;第32卷(第4期);第1-10页 * |
Also Published As
Publication number | Publication date |
---|---|
US20150169938A1 (en) | 2015-06-18 |
EP3080779A1 (en) | 2016-10-19 |
US9361510B2 (en) | 2016-06-07 |
CN105981075A (zh) | 2016-09-28 |
WO2015089436A1 (en) | 2015-06-18 |
EP3080779A4 (en) | 2017-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105981075B (zh) | 利用在线形状回归方法的高效面部界标跟踪 | |
US10254845B2 (en) | Hand gesture recognition for cursor control | |
CN108154550B (zh) | 基于rgbd相机的人脸实时三维重建方法 | |
US10354129B2 (en) | Hand gesture recognition for virtual reality and augmented reality devices | |
US9361723B2 (en) | Method for real-time face animation based on single video camera | |
Wang et al. | Video-based hand manipulation capture through composite motion control | |
KR20150108888A (ko) | 제스처 인식을 위한 부분 및 상태 검출 | |
US10565791B2 (en) | Tracking rigged polygon-mesh models of articulated objects | |
WO2023071964A1 (zh) | 数据处理方法, 装置, 电子设备及计算机可读存储介质 | |
CN110503686A (zh) | 基于深度学习的物体位姿估计方法及电子设备 | |
CN109035415B (zh) | 虚拟模型的处理方法、装置、设备和计算机可读存储介质 | |
WO2021183309A1 (en) | Real time styling of motion for virtual environments | |
CN108510520A (zh) | 一种图像处理方法、装置及ar设备 | |
CN111080671B (zh) | 一种基于深度神经网络的运动预测方法和智能终端 | |
CN114422832A (zh) | 主播虚拟形象生成方法及装置 | |
WO2021010342A1 (ja) | 行動認識装置、行動認識方法、及び行動認識プログラム | |
CN115482556A (zh) | 关键点检测模型训练及虚拟角色驱动的方法和对应的装置 | |
CN105096343B (zh) | 一种移动目标跟踪方法及装置 | |
Eom et al. | Data‐Driven Reconstruction of Human Locomotion Using a Single Smartphone | |
CN109531578B (zh) | 仿人机械手臂体感控制方法及装置 | |
JP2017033556A (ja) | 画像処理方法及び電子機器 | |
KR101868520B1 (ko) | 손 제스처 인식 방법 및 그 장치 | |
KR101643690B1 (ko) | 휴대 단말 기반의 보행 자세 복원 장치 및 방법 | |
KR20140095601A (ko) | 자세 분류 장치 및 자세 분류 방법 | |
CN103116901A (zh) | 基于运动特征的人体运动插值计算方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |