CN107209953A - 用于渲染3d模型化身的略图选择 - Google Patents

用于渲染3d模型化身的略图选择 Download PDF

Info

Publication number
CN107209953A
CN107209953A CN201480083626.1A CN201480083626A CN107209953A CN 107209953 A CN107209953 A CN 107209953A CN 201480083626 A CN201480083626 A CN 201480083626A CN 107209953 A CN107209953 A CN 107209953A
Authority
CN
China
Prior art keywords
sketch map
map image
selection
user
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201480083626.1A
Other languages
English (en)
Inventor
童晓峰
Q.E.李
杜杨洲
李文龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of CN107209953A publication Critical patent/CN107209953A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本文总体描述了用于使用略图图像选择进行三维模型定制以用于化身动画的系统和方法的示例。一种用于渲染三维模型的方法可以包括:在用户界面上向用户呈现多个略图图像;以及接收从所述多个略图图像中对略图图像的选择以构成面部。该方法可以包括将面部渲染为三维模型,该三维模型用于用作化身。

Description

用于渲染3D模型化身的略图选择
背景技术
移动设备的用户具有对文本消息传递、图像消息传递、视频和电话呼叫的访问权。但是对于那些用户,在消息中表达情绪或身体动画是困难的。模仿用户面部的化身被用于模拟用户的人类表情。然而,化身不能够支持由用户进行的定制。现今使用中的动画方法未能允许用户使用略图图像来定制化身。动画方法也不支持移动设备上的化身定制。
附图说明
在不必按比例绘制的各图中,相似标号可以描述不同视图中的类似组件。具有不同字母后缀的相似标号可以表示类似组件的不同实例。各图一般作为示例而非作为限制来图示本文档中讨论的各种实施例。
图1A-1C是图示了根据实施例的面部特征的略图图像的图;
图2是图示了根据实施例的用于动画绘制的三维化身的图;
图3是图示了根据实施例的用于从略图图像渲染三维模型以用于动画绘制为化身的方法的流程图;
图4是图示了根据实施例的其上可部署本文所描述的配置和技术的移动设备的图;以及
图5是根据实施例的本文所讨论的技术(例如方法)中的任何一个或多个可在其上执行的机器的框图。
具体实施方式
作为用户在虚拟世界中的图形表示,化身是社交网络中的流行选项。随着计算机视觉和移动设备的进步,由面部表情、话音或文本驱动的动态化身现在是可行的。然而,由内容或服务提供商预先创建的化身给用户留下定制或编辑化身的极少自由。方法可以包括使用略图图像,诸如二维(2D)略图图像以供用户创建和定制三维(3D)模型以用作化身。化身可以与面部姿态驱动的化身系统一起使用以对化身进行动画绘制。
在示例中,用户可以例如通过将面部调节成圆形的、平坦的、方形的等或者将鼻子调节成更高、更大、更小、不太直等或将眼睛集合调节成更圆、更窄、更大、具有睫毛等,来定制和调节3D模型以用作化身。可使用略图图像完成以渲染3D模型的定制的其它示例包括改变前额、头发、耳朵、嘴巴、肤色、眼睛颜色、嘴唇颜色、舌头、牙齿等的各方面。
图1A-1C是图示了根据实施例的面部特征的略图图像的图。图1A示出了略图图像的头部略图图像显示100,该略图图像诸如是所选头部略图图像104和未选头部略图图像102。图1B示出了具有眼睛的略图图像的眼睛略图图像显示106。图1C示出了具有嘴巴的略图图像的嘴巴略图图像显示108。头部略图图像显示100、眼睛略图图像显示106和嘴巴略图图像显示108是可向用户示出以用于选择各种面部特征的基本形状的略图图像的示例。一旦用户选择基本形状(例如略图),用户然后就可以选择基本形状的尺寸。所选略图图像可以用于渲染3D模型以用作化身。为了渲染3D模型,可以将面部表情融合形自动转换成对应于所选基本形状的新的所定制的形状。可以对化身进行动画绘制,包括对由用户选择的基本形状的各方面进行动画绘制。融合形可以被用在面部追踪驱动的化身动画中。
在示例中,可以根据从向用户呈现的多个略图图像中对略图图像的选择来渲染3D模型。略图图像可以是2D,并对应于3D形状。可以使用3D参数将2D略图图像映射到3D形状。当用户选择略图时,系统可以生成对应的3D模型。由于小屏幕尺寸以及触摸交互的不敏感性,直接操纵移动设备上的3D模型可能比选择2D略图图像更加困难。
图2是图示了根据实施例的用于动画绘制的3D化身的图。在示例中,系统200可以包括具有用于显示化身204的用户界面的移动设备202。化身204可以是3D模型且可以被动画绘制。系统200可以包括处理模块以从面部数据库创建3D模型。面部数据库可以包括面部样本,其具有相同的顶点数目、三角形数目和连接拓扑。面部样本可以包括可进行建模和动画绘制的面部特征的基本形状。例如,顶点数目可以定义模型上的点的3D空间坐标,并且三角形数目可以定义顶点连接拓扑。可以使用基本形状来对化身204的3D模型进行动画绘制,诸如利用以下等式:
其中是动画矢量,是用于基本形状的均值向量(例如,所有向量的平均值),是第i个特征向量,并且是针对对应特征向量的第i个特征值。
在示例中,利用不同参数设置,可以生成不同面部形状。可以定义测量面部形状的量度,诸如圆度、高度、宽度等,并且可以定义典型面部形状。可以从典型面部形状和量度生成面部样本,诸如通过调节可表示典型面部形状的特征向量的特征值(例如量度)的系数。系数可以是在主成分分析(PCA)空间中调节的。PCA可以用于使用正交变换将系数转换成线性不相关的系数。主成分是线性不相关的系数。从面部样本,可以生成数据对,包括用于特征值的系数的一个因子以及用于对应面部形状的另一因子。使用该数据对,可以从略图图像渲染3D模型。
在另一示例中,可以定义典型面部和基本形状。基本形状可以对应于参数组(例如,PCA特征值的系数)。略图示例可以被用于表示每一个典型面部或基本形状,诸如图1A-1C中的略图图像显示。略图可以包括2D线,并允许面部形状的简单且直接的表示。
在示例中,略图图像可以给出面部形状的简单、直接且可视的表示。用户可以选择略图图像,并且3D模型可以变形到具有对应参数的期望形状。所定制的基本形状可以包括整个面部形状、眼睛、眉毛、嘴巴等。使用所定制的基本形状,可以生成所定制的面部形状,并且可以渲染3D模型以用作动画中的化身。当面部形状被选择并且3D模型被渲染时,还可以渲染对应的融合形。可以基于均值形状来制作标准融合形。在面部形状和对应的融合形被渲染之后,它们可以用于将3D模型动画绘制为化身。
图3是图示了根据实施例的用于从略图图像渲染3D模型以用于动画绘制为化身的方法300的流程图。略图图像可以是3D模型的2D投影,或者可以是3D模型的2D表示。略图图像可以包括面部的组件形状部分,诸如头部形状、嘴巴形状、鼻子形状、眼睛形状、耳朵形状、头发形状等。在示例中,略图图像可以包括面部的组件形状部分的组合(例如眼睛和鼻子、两只耳朵、头发和胡须等)。在另一示例中,略图图像可以包括面部配饰的形状部分,诸如眼镜、化妆、耳环、其它穿孔、纹身等。面部配饰的形状部分可以或可以不在从略图图像渲染3D模型且对其进行动画绘制之后被动画绘制。例如,耳环可以随耳朵移动,眼镜可以不随眼睛移动等。
方法300可以包括在用户界面上向用户呈现多个略图图像的操作302。用户界面可以包括显示设备(诸如移动设备)上的用户界面。所述多个略图图像可以在列表或网格中向用户呈现,以供用户从所述多个略图图像中选择略图图像。在示例中,方法300包括接收从所述多个略图图像中对略图图像的选择以构成面部的操作304。选择可以包括用于不同面部特征(例如头部形状、眼睛、耳朵、嘴巴、鼻子等)的不同略图图像的选择。不同略图图像的选择可以包括少于所有略图图像(例如,少于所有所呈现的略图图像,少于所有可能的略图图像,或者少于所有所述多个略图图像)的选择。如果用户未选择充足数目的略图图像以渲染3D模型,可以自动选择略图图像的默认集合。在另一示例中,当用户未选择用于一个或多个典型面部特征的略图图像时,可以在没有所述一个或多个典型面部特征的情况下渲染3D模型。例如,用户可能决定不选择鼻子或耳朵,并且,可以在没有鼻子或耳朵的情况下渲染3D模型。可以选择不同模式以自动地填入默认或随机的略图或者在没有一个或多个典型面部特征的情况下渲染3D模型。方法300可以包括接收从所述多个略图图像中对略图图像的选择以构成面部。
在示例中,方法300可以在显示屏处显示用户界面。显示屏可以是电容式触摸屏。显示屏可以在移动设备上。在示例中,用户界面在具有电容式触摸屏的移动设备上,并且用户可以通过触摸用户界面上的期望略图图像来选择略图图像。方法300可以包括从电容式触摸屏接收指示。指示可以包括所选略图图像。
在另一示例中,方法300可以包括接收用于面部的面部特征的基本形状的选择。例如,用于面部的面部特征的基本形状可以包括用于面部的头部的基本形状、用于面部的眼睛的基本形状、用于面部的耳朵的基本形状等。基本形状的选择可以是从映射到基本形状的略图图像的选择的用户指示接收的。在另一示例中,基本形状的选择可以是在处理略图图像的选择之后接收的。面部特征可以包括头部、眼睛、耳朵、鼻子、嘴巴、头发等。基本形状例如可以包括用于头部的圆形形状、睁得大大的眼睛、闭合在一起的眼睛、鼻子形状、尖耳朵等。方法300可以包括接收基本形状的尺寸的选择。例如,基本形状的尺寸的选择可以包括眼睛之间的距离、头部侧面上的耳朵的高度、鼻子尺寸、嘴巴宽度、嘴唇尺寸、胡子厚度等。基本形状的尺寸的选择可以被包括在用于面部的面部特征的基本形状的选择中,诸如通过用户一起选择二者。在另一示例中,可以分离地接收尺寸的选择和基本形状的选择(例如,分离地接收鼻子基本形状和鼻子的尺寸)。基本形状可以对应于特征向量,并且基本形状的尺寸可以对应于针对特征向量的特征值。在示例中,基本形状可以对应于多个特征向量,并且基本形状的尺寸可以对应于针对特征向量的多个特征值。在另一示例中,基本形状可以包括面部特征的部分(例如单根睫毛、上嘴唇、多根头发等)。面部特征的该部分可以对应于特征向量。例如,特征向量可以用于多根睫毛中的每一根睫毛,或者特征向量可以用于上嘴唇和下嘴唇中的每一个等。在另一示例中,特征向量可以用于整个面部特征,诸如鼻子、耳朵等。
方法300可以包括使用略图图像的选择将面部渲染为三维模型的操作306,其中三维模型是化身。在示例中,略图图像可以映射到3D模型的一方面。例如,该方法可以包括使用来自略图图像的信息来查询数据库以及响应于该查询而接收3D模型的一方面。在另一示例中,略图图像可以有条件地映射到3D模型的一方面,其中条件涉及其它所选略图图像。例如,略图图像可以包括眼睛集合,并且另一所选略图图像可以包括睫毛集合。可以从该眼睛集合渲染用于3D模型的眼睛集合,并且可以从该睫毛集合渲染用于3D模型的睫毛集合。可以一起或顺序地从这两个略图图像渲染用于3D模型的组合的眼睛集合和睫毛集合。在示例中,如果渲染一起(例如,有条件的映射)或顺序地完成,则从两个略图图像渲染组合的集合可以造成不同的3D模型。在另一示例中,所渲染的3D模型可以相同,无论渲染是一起完成还是顺序地完成。
为了渲染面部,方法300可以包括渲染用于3D模型上的动画的特定点,诸如,可在3D模型上移动的点(例如,眼睛、鼻子、嘴巴等周围的点)。可以从3D模型的区中排除可能不移动或接近于密集点集群的点。方法300可以包括接收编辑3D模型的请求,诸如编辑3D模型的用户指示。方法300可以包括响应于编辑3D模型的请求而向用户呈现所述多个略图图像和略图图像的选择以用于编辑。例如,可以在用户界面上显示所述多个略图图像的列表或网格,其中所选略图图像被高亮或指示为被选择。方法300可以包括接收对面部的面部特征的基本版本进行修改的用户输入。方法300可以包括接收用于面部特征的参数化值,诸如尺寸。例如,用户可以选择面部特征的新的基本版本,修改尺寸或改变面部特征的基本版本的一方面,或者二者都进行。参数化值可以包括面部特征的基本版本的一个或多个方面的尺寸。例如,基本版本可以包括鼻子,并且参数化值可以包括对鼻子进行拉伸的尺寸。
方法300可以包括:在图像捕获设备处捕获用户的一系列图像;计算用于该一系列图像中的图像中的每一个的面部运动数据;以及使用面部运动数据来对化身进行动画绘制。图像捕获设备可以包括相机。在示例中,3D模型是可被动画绘制的化身。对化身进行动画绘制可以包括模仿用户的面部运动。在示例中,对化身进行动画绘制包括对3D模型的各方面进行动画绘制,其中3D模型的各方面映射到略图图像。略图图像可以是用户选择的2D略图图像。略图图像的选择可以包括基本形状和基本形状的尺寸的选择。基本形状和基本形状的尺寸可以被编译且被渲染为3D模型。可以对从基本形状和基本形状的尺寸渲染的3D模型进行动画绘制。对化身进行动画绘制可以包括对以上描述的特定点进行动画绘制。
图4是图示了根据实施例的其上可部署本文所描述的配置和技术的移动设备400的图。图4提供了移动设备400的示例图示,移动设备400诸如是用户设备(UE)、移动台(MS)、移动无线设备、移动通信设备、平板、手机或其它类型的移动无线计算设备。移动设备400可以包括外壳402内的一个或多个天线408,其被配置成与热点、基站(BS)、eNB或者其它类型的WLAN或WWAN接入点通信。移动设备可以被配置成使用多个无线通信标准进行通信,该多个无线通信标准包括从3GPP LTE、WiMAX、高速分组接入(HSPA)、蓝牙和Wi-Fi标准定义中选择的标准。移动设备400可以使用用于每一个无线通信标准的分离天线或用于多个无线通信标准的共享天线进行通信。移动设备400可以在WLAN、WPAN和/或WWAN中通信。
图4还提供了可以用于来自移动设备400的音频输入和输出的麦克风420和一个或多个扬声器412的图示。显示屏404可以是液晶显示器(LCD)屏幕或其它类型的显示屏,诸如有机发光二极管(OLED)显示器。显示屏404可以被配置为触摸屏。触摸屏可以使用电容式、电阻式或另一类型的触摸屏技术。应用处理器414和图形处理器可以耦合到内部存储器416以提供处理和显示能力。非易失性存储器端口410也可以用于向用户提供数据输入/输出选项。非易失性存储器端口410还可以用于扩展移动设备400的存储器能力。键盘406可以与移动设备400集成或者无线连接到移动设备400以提供附加的用户输入。还可以使用触摸屏来提供虚拟键盘。位于移动设备400的前(显示屏)侧或后侧上的相机422也可以集成到移动设备400的外壳402中。
在示例中,移动设备400可以包括图像捕获模块424、处理模块426或动画模块418。
处理模块426可以接收从多个略图图像中对略图图像的选择以构成面部。选择可以是用户选择。处理模块426可以基于略图图像的选择将面部渲染为三维模型。3D模块可以被用作化身。化身可以被动画绘制,且可以模仿用户的面部动作。处理模块426可以接收对面部的面部特征的基本版本(诸如眼睛、眉毛、鼻子、嘴巴、头发、耳朵、下巴、面部形状等)进行修改的用户输入。用户输入可以包括用于面部特征的参数化值,诸如面部特征的基本版本中的改变或尺寸。用户输入可以包括显示屏404上的手指触摸以选择面部特征的基本版本,且包括手指的拖拽以指示面部特征的基本版本中的改变或尺寸。处理模块426可以从电容式触摸屏(例如显示屏404)接收指示。
显示屏404可以显示用户界面。用户界面可以向用户呈现多个略图图像。略图图像的选择(诸如用户从所述多个略图图像中选择的图像)可以包括用于面部的面部特征的基本形状的选择。略图图像的选择可以包括基本形状的尺寸的选择。在示例中,基本形状可以对应于特征向量,并且基本形状的尺寸可以对应于针对特征向量的特征值。
处理模块426可以接收编辑三维模型的请求。响应于接收到编辑三维模型的请求,处理模块426可以在用户界面上向用户呈现略图图像的选择和多个略图图像以用于编辑。例如,用户界面可以示出所述多个略图图像,并高亮或以其它方式指示略图图像的当前所选的选择。用户可以改变选择,诸如通过选择面部特征的不同基本版本或面部特征的基本版本的一方面的尺寸中的改变或者这二者。处理模块426可以使用用户编辑来渲染新的三维模型。处理模块426可以渲染用于三维模型上的动画的特定点。
图像捕获模块424可以捕获用户的一系列图像,处理模块426可以使用该一系列图像以计算针对该一系列图像中的图像中的每一个的面部运动数据。动画模块418可以使用面部运动数据来对化身进行动画绘制。动画模块418可以对由处理模块426在三维模块上渲染的特定点进行动画绘制。
图5是根据实施例的本文所讨论的技术(例如方法)中的任何一个或多个可在其上执行的机器500的框图。在可替换的实施例中,机器500可以操作为独立设备,或者可以连接(例如联网)到其它机器。在联网部署中,机器500可以以服务器机器、客户端机器或二者的容量操作在服务器-客户端网络环境中。在示例中,机器500可以充当对等(P2P)(或其它分布式)网络环境中的对等端机器。机器500可以是个人计算机(PC)、平板PC、机顶盒(STB)、个人数字助理(PDA)、移动电话、web器具、网络路由器、交换机或桥接器、或者能够执行指定要由该机器采取的动作的指令(顺序或以其它方式)的任何机器。另外,虽然仅图示了单个机器,但是术语“机器”还应当被理解成包括单独地或联合地执行指令集(或多个指令集)以执行本文所讨论的方法中的任何一个或多个的机器的任何集合,该方法诸如是云计算、软件即服务(SaaS)、其它计算机集群配置。
如本文所描述,示例可以包括逻辑或者数个组件、模块或机构,或者可以在其上操作。模块是当操作时能够执行指定操作的有形实体(例如硬件)。模块包括硬件。在示例中,硬件可以具体地被配置成实施特定操作(例如硬连线)。在示例中,硬件可以包括可配置执行单元(例如晶体管、电路等)和包含指令的计算机可读介质,其中指令将执行单元配置成当处于操作中时实施特定操作。配置可以在执行单元或加载机构的引导之下发生。相应地,当设备正在操作时,执行单元通信耦合到计算机可读介质。在该示例中,执行单元可以是多于一个模块的成员。例如,在操作之下,执行单元可以被第一指令集配置成在一个时间点处实现第一模块,且被第二指令集重配置成实现第二模块。
机器(例如计算机系统)500可以包括硬件处理器502(例如中央处理单元(CPU)、图形处理单元(GPU)、硬件处理器核或其任何组合)、主存储器504和静态存储器506,其中的一些或全部可以经由相互链接(例如总线)508与彼此通信。机器500可以进一步包括显示单元510、字母数字输入设备512(例如键盘)和用户界面(UI)导航设备514(例如鼠标)。在示例中,显示单元510、字母数字输入设备512和UI导航设备514可以是触摸屏显示器。机器500可以附加地包括储存设备(例如驱动单元)516、信号生成设备518(例如扬声器)、网络接口设备520和一个或多个传感器521,诸如全球定位系统(GPS)传感器、罗盘、加速度计或其它传感器。机器500可以包括输出控制器528,诸如用于通信或控制一个或多个外围设备(例如打印机、读卡器等)的串行(例如通用串行总线(USB))、并行或其它有线或无线(例如红外(IR)、近场通信(NFC)等)连接。
储存设备516可以包括非暂时性的机器可读介质522,其上存储体现本文所描述的技术或功能中的任何一个或多个或由其利用的数据结构或指令524(例如软件)的一个或多个集合。指令524还可以在其被机器500执行期间完全或至少部分地驻留在主存储器504内、在静态存储器506内或在硬件处理器502内。在示例中,硬件处理器502、主存储器504、静态存储器506或储存设备516之一或其任何组合可以构成机器可读介质。
虽然机器可读介质522被图示为单个介质,但是术语“机器可读介质”可以包括被配置成存储该一个或多个指令524的单个介质或多个介质(例如集中式或分布式数据库和/或关联的高速缓存和服务器)。
术语“机器可读介质”可以包括下述任何介质:其能够存储、编码或承载供机器500执行的指令且使机器500执行本公开的技术中的任何一个或多个,或者能够存储、编码或承载由这样的指令使用或与这样的指令相关联的数据结构。非限制性机器可读介质示例可以包括固态存储器以及光学和磁介质。在示例中,聚集机器可读介质包括具有多个粒子的机器可读介质,该多个粒子具有不变(例如,静)质量。相应地,聚集机器可读介质不是暂时性传播的信号。聚集机器可读介质的具体示例可以包括:非易失性存储器,诸如半导体存储器设备(例如电可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM))和闪速存储器设备;磁盘,诸如内部硬盘和可移除盘;磁光盘;以及CD-ROM和DVD-ROM盘。指令524可以进一步通过通信网络526、使用传输介质、经由网络接口设备520而发射或接收,网络接口设备520利用数个传送协议(例如帧中继、互联网协议(IP)、传输控制协议(TCP)、用户数据报协议(UDP)、超文本传送协议(HTTP)等)中的任一个。除了其它以外,示例通信网络可以包括局域网(LAN)、广域网(WAN)、分组数据网络(例如因特网)、移动电话网络(例如蜂窝网络)、普通老式电话(POTS)网络和无线数据网络(例如,被称为Wi-Fi®的电气与电子工程师学会(IEEE)802.11标准族、被称为WiMax®的IEEE 802.16标准族)、IEEE 802.15.4标准族、对等(P2P)网络。在示例中,网络接口设备520可以包括一个或多个物理插孔(例如以太网、同轴或电话插孔)或者一个或多个天线以连接到通信网络526。在示例中,网络接口设备520可以包括多个天线以使用以下各项中的至少一个进行无线通信:单输入多输出(SIMO)、多输入多输出(MIMO)或多输入单输出(MISO)技术。术语“传输介质”应当被理解成包括能够存储、编码或承载供机器500执行的指令的任何有形介质,且包括数字或模拟通信信号或其它非有形介质以促进这样的软件的传送。
各种注释和示例
这些非限制性示例中的每一个可以独立存在,或者可以以各种排列或组合而与其它示例中的一个或多个组合。
示例1包括由一种用于渲染三维模型的系统体现的主题,所述系统包括:用户界面,其向用户呈现多个略图图像;以及处理模块,其:接收从所述多个略图图像中对略图图像的选择以构成面部,并基于略图图像的选择将面部渲染为三维模型,其中三维模型是化身。
在示例2中,示例1的主题可以可选地包括,其中处理模块要接收对面部的面部特征的基本版本进行修改的用户输入。
在示例3中,示例1-2之一或其任何组合的主题可以可选地包括,其中为了接收对面部特征的基本版本进行修改的用户输入,处理模块要接收用于面部特征的参数化值。
在示例4中,示例1-3之一或其任何组合的主题可以可选地包括,进一步包括:显示屏,其显示用户界面。
在示例5中,示例1-4之一或其任何组合的主题可以可选地包括,其中显示屏是电容式触摸屏。
在示例6中,示例1-5之一或其任何组合的主题可以可选地包括,其中为了接收略图图像的选择,处理模块要从电容式触摸屏接收指示。
在示例7中,示例1-6之一或其任何组合的主题可以可选地包括,进一步包括:图像捕获模块,其捕获用户的一系列图像,其中处理模块要计算针对所述一系列图像中的每一个图像的面部运动数据;以及动画模块,其使用面部运动数据对化身进行动画绘制。
在示例8中,示例1-7之一或其任何组合的主题可以可选地包括,其中为了将面部渲染为三维模型,处理模块要渲染用于三维模型上的动画的特定点。
在示例9中,示例1-8之一或其任何组合的主题可以可选地包括,其中动画模块要对特定点进行动画绘制。
在示例10中,示例1-9之一或其任何组合的主题可以可选地包括,其中处理模块要接收编辑三维模型的请求。
在示例11中,示例1-10之一或其任何组合的主题可以可选地包括,其中用户界面要响应于编辑三维模型的请求而向用户呈现略图图像的选择和所述多个略图图像以用于编辑。
在示例12中,示例1-11之一或其任何组合的主题可以可选地包括,其中略图图像的选择包括用于面部的面部特征的基本形状的选择。
在示例13中,示例1-12之一或其任何组合的主题可以可选地包括,其中略图图像的选择包括基本形状的尺寸的选择。
在示例14中,示例1-13之一或其任何组合的主题可以可选地包括,其中基本形状对应于特征向量,并且基本形状的尺寸对应于针对特征向量的特征值。
示例15包括由一种用于渲染三维模型的方法体现的主题,所述方法包括:在用户界面上向用户呈现多个略图图像;接收从所述多个略图图像中对略图图像的选择以构成面部;以及使用略图图像的选择将面部渲染为三维模型,其中三维模型是化身。
在示例16中,示例15的主题可以可选地包括,进一步包括接收对面部的面部特征的基本版本进行修改的用户输入。
在示例17中,示例15-16之一或其任何组合的主题可以可选地包括,其中接收对面部特征的基本版本进行修改的用户输入包括接收用于面部特征的参数化值。
在示例18中,示例15-17之一或其任何组合的主题可以可选地包括,进一步包括在显示屏处显示用户界面。
在示例19中,示例15-18之一或其任何组合的主题可以可选地包括,其中显示屏是电容式触摸屏。
在示例20中,示例15-19之一或其任何组合的主题可以可选地包括,其中接收略图图像的选择包括从电容式触摸屏接收指示。
在示例21中,示例15-20之一或其任何组合的主题可以可选地包括,在图像捕获设备处捕获用户的一系列图像,计算针对所述一系列图像中的每一个图像的面部运动数据,以及使用面部运动数据对化身进行动画绘制。
在示例22中,示例15-21之一或其任何组合的主题可以可选地包括,其中将面部渲染为三维模型包括渲染用于三维模型上的动画的特定点。
在示例23中,示例15-22之一或其任何组合的主题可以可选地包括,进一步包括对特定点进行动画绘制。
在示例24中,示例15-23之一或其任何组合的主题可以可选地包括,进一步包括接收编辑三维模型的请求。
在示例25中,示例15-24之一或其任何组合的主题可以可选地包括,进一步包括响应于编辑三维模型的请求而向用户呈现略图图像的选择和所述多个略图图像以用于编辑。
在示例26中,示例15-25之一或其任何组合的主题可以可选地包括,其中接收略图图像的选择包括接收用于面部的面部特征的基本形状的选择。
在示例27中,示例15-26之一或其任何组合的主题可以可选地包括,其中接收略图图像的选择包括接收基本形状的尺寸的选择。
在示例28中,示例15-27之一或其任何组合的主题可以可选地包括,其中基本形状对应于特征向量,并且基本形状的尺寸对应于针对特征向量的特征值。
示例29包括至少一个机器可读介质,其包括用于接收信息的指令,所述指令在由机器执行时使机器执行示例15-28的方法中的任一个。
示例30包括一种装置,其包括用于执行示例15-28的方法中的任一个的部件。
示例31包括由一种用于渲染三维模型的装置体现的主题,所述装置包括:用于在用户界面上向用户呈现多个略图图像的部件;用于接收从所述多个略图图像中对略图图像的选择以构成面部的部件;以及用于使用略图图像的选择将面部渲染为三维模型的部件,其中三维模型是化身。
在示例32中,示例31的主题可以可选地包括,进一步包括用于接收对面部的面部特征的基本版本进行修改的用户输入的部件。
在示例33中,示例31-32之一或其任何组合的主题可以可选地包括,其中用于接收对面部特征的基本版本进行修改的用户输入的部件包括用于接收用于面部特征的参数化值的部件。
在示例34中,示例31-33之一或其任何组合的主题可以可选地包括,进一步包括用于在显示屏处显示用户界面的部件。
在示例35中,示例31-34之一或其任何组合的主题可以可选地包括,其中显示屏是电容式触摸屏。
在示例36中,示例31-35之一或其任何组合的主题可以可选地包括,其中用于接收略图图像的选择的部件包括用于从电容式触摸屏接收指示的部件。
在示例37中,示例31-36之一或其任何组合的主题可以可选地包括,用于在图像捕获设备处捕获用户的一系列图像的部件,用于计算针对所述一系列图像中的每一个图像的面部运动数据的部件,以及用于使用面部运动数据对化身进行动画绘制的部件。
在示例38中,示例31-37之一或其任何组合的主题可以可选地包括,其中用于将面部渲染为三维模型的部件包括用于渲染用于三维模型上的动画的部件的特定点。
在示例39中,示例31-38之一或其任何组合的主题可以可选地包括,进一步包括用于对特定点进行动画绘制的部件。
在示例40中,示例31-39之一或其任何组合的主题可以可选地包括,进一步包括用于接收编辑三维模型的请求的部件。
在示例41中,示例31-40之一或其任何组合的主题可以可选地包括,进一步包括用于响应于编辑三维模型的请求而向用户呈现略图图像的选择和所述多个略图图像以用于编辑的部件。
在示例42中,示例31-41之一或其任何组合的主题可以可选地包括,其中用于接收略图图像的选择的部件包括用于接收用于面部的面部特征的基本形状的选择的部件。
在示例43中,示例31-42之一或其任何组合的主题可以可选地包括,其中用于接收略图图像的选择的部件包括用于接收基本形状的尺寸的选择的部件。
在示例44中,示例31-43之一或其任何组合的主题可以可选地包括,其中基本形状对应于特征向量,并且基本形状的尺寸对应于针对特征向量的特征值。
以上详细描述包括对形成详细描述的部分的附图的参照。各图通过图示的方式示出了其中可实践本发明的具体实施例。这些实施例在本文中还称为“示例”。这样的示例可以包括除所示出或描述的那些元件外的元件。然而,本发明人还设想到其中仅提供所示出或描述的那些元件的示例。而且,本发明人还设想到使用所示出或描述的那些元件(或者其一个或多个方面)关于特定示例(或者其一个或多个方面)或关于本文示出或描述的其它示例(或者其一个或多个方面)的任何组合或排列的示例。
在本文档中,如专利文档中常见的那样,使用术语“一”或“一个”,以包括一个或多于一个,而与“至少一个”或“一个或多个”的任何其它实例或使用无关。在本文档中,术语“或”用于指代非排他性的或,使得“A或B”包括“A而非B”、“B而非A”和“A和B”,除非以其它方式指示。在本文档中,术语“包含”和“在其中”被用作相应术语“包括”和“其中”的直白英语等同物。而且,在随附权利要求中,术语“包含”和“包括”是开放式的,也就是说,包括除在权利要求中的这样的术语之后列出的那些要素外的要素的系统、设备、制品、组成、公式或过程仍被视为落在该权利要求的范围内。而且,在随附权利要求中,术语“第一”、“第二”和“第三”等仅仅被用作标签,而不意图对其对象强加数值要求。
本文所描述的方法示例可以至少部分地是机器或计算机实现的。一些示例可以包括利用下述指令而编码的计算机可读介质或机器可读介质:该指令可操作以将电子设备配置成执行如在以上示例中描述的方法。这样的方法的实现方式可以包括代码,诸如微代码、汇编语言代码、较高级语言代码等。这样的代码可以包括用于执行各种方法的计算机可读指令。代码可以形成计算机程序产品的部分。另外,在示例中,代码可以有形地存储在一个或多个易失性、非暂时性或非易失性有形计算机可读介质上,诸如在执行期间或在其它时间处。这些有形计算机可读介质的示例可以包括但不限于硬盘、可移除磁盘、可移除光盘(例如致密盘和数字视频盘)、磁带盒、存储器卡或棒、随机存取存储器(RAM)、只读存储器(ROM)等。
以上描述意图是说明性而非限制性的。例如,以上描述的示例(或者其一个或多个方面)可以与彼此组合地使用。可以使用其它实施例,诸如由本领域普通技术人员在回顾以上描述时。摘要被提供以符合37 C.F.R.§1.72(b),以便允许读者快速查明技术公开内容的实质。摘要是在以下理解下主张的:其将不用于解释或限制权利要求的范围或含义。而且,在以上具体实施方式中,各种特征可以被成组在一起以精简本公开。这不应当被解释为意图未要求保护的公开特征对任何权利要求来说必要。相反,发明主题可以在于特定所公开的实施例的少于全部的特征。因此,随附权利要求作为示例或实施例而特此并入到具体实施方式中,其中每一个权利要求独立作为单独的实施例,并且设想到,这样的实施例可以以各种组合或排列而与彼此组合。

Claims (25)

1.一种用于渲染三维模型的系统,所述系统包括:
用户界面,其向用户呈现多个略图图像;以及
处理模块,其:
接收从所述多个略图图像中对略图图像的选择以构成面部;并且
基于略图图像的选择将面部渲染为三维模型,其中三维模型是化身。
2.权利要求1所述的系统,其中处理模块要接收对面部的面部特征的基本版本进行修改的用户输入。
3.权利要求2所述的系统,其中为了接收对面部特征的基本版本进行修改的用户输入,处理模块要接收用于面部特征的参数化值。
4.权利要求1所述的系统,进一步包括:显示屏,其显示用户界面。
5.权利要求4所述的系统,其中显示屏是电容式触摸屏。
6.权利要求5所述的系统,其中为了接收略图图像的选择,处理模块要从电容式触摸屏接收指示。
7.权利要求1所述的系统,进一步包括:
图像捕获模块,其捕获用户的一系列图像,其中处理模块要计算针对所述一系列图像中的每一个图像的面部运动数据;以及
动画模块,其使用面部运动数据对化身进行动画绘制。
8.权利要求7所述的系统,其中为了将面部渲染为三维模型,处理模块要渲染用于三维模型上的动画的特定点。
9.权利要求8所述的系统,其中动画模块要对特定点进行动画绘制。
10.权利要求1所述的系统,其中处理模块要接收编辑三维模型的请求。
11.权利要求10所述的系统,其中用户界面要响应于编辑三维模型的请求而向用户呈现略图图像的选择和所述多个略图图像以用于编辑。
12.权利要求1所述的系统,其中略图图像的选择包括用于面部的面部特征的基本形状的选择。
13.权利要求12所述的系统,其中略图图像的选择包括基本形状的尺寸的选择。
14.权利要求13所述的系统,其中基本形状对应于特征向量,并且基本形状的尺寸对应于针对特征向量的特征值。
15.一种用于渲染三维模型的方法,所述方法包括:
在用户界面上向用户呈现多个略图图像;
接收从所述多个略图图像中对略图图像的选择以构成面部;以及
使用略图图像的选择将面部渲染为三维模型,其中三维模型是化身。
16.权利要求15所述的方法,进一步包括接收对面部的面部特征的基本版本进行修改的用户输入。
17.权利要求16所述的方法,其中接收对面部特征的基本版本进行修改的用户输入包括接收用于面部特征的参数化值。
18.权利要求15所述的方法,进一步包括在显示屏处显示用户界面。
19.权利要求18所述的方法,其中显示屏是电容式触摸屏。
20.权利要求19所述的方法,其中接收略图图像的选择包括从电容式触摸屏接收指示。
21.权利要求15所述的方法,进一步包括:
在图像捕获设备处捕获用户的一系列图像;
计算针对所述一系列图像中的每一个图像的面部运动数据;以及
使用面部运动数据对化身进行动画绘制。
22.权利要求21所述的方法,其中将面部渲染为三维模型包括渲染用于三维模型上的动画的特定点。
23.权利要求22所述的方法,进一步包括对特定点进行动画绘制。
24.包括用于接收信息的指令的至少一个机器可读介质,所述指令在由机器执行时使机器执行权利要求15-23所述的方法中的任一个。
25.一种装置,包括用于执行权利要求15-23所述的方法中的任一个的部件。
CN201480083626.1A 2014-12-23 2014-12-23 用于渲染3d模型化身的略图选择 Pending CN107209953A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2014/094602 WO2016101124A1 (en) 2014-12-23 2014-12-23 Sketch selection for rendering 3d model avatar

Publications (1)

Publication Number Publication Date
CN107209953A true CN107209953A (zh) 2017-09-26

Family

ID=56148866

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480083626.1A Pending CN107209953A (zh) 2014-12-23 2014-12-23 用于渲染3d模型化身的略图选择

Country Status (4)

Country Link
US (1) US9824502B2 (zh)
EP (1) EP3241187A4 (zh)
CN (1) CN107209953A (zh)
WO (1) WO2016101124A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11295502B2 (en) 2014-12-23 2022-04-05 Intel Corporation Augmented facial animation
US11303850B2 (en) 2012-04-09 2022-04-12 Intel Corporation Communication using interactive avatars
US11887231B2 (en) 2015-12-18 2024-01-30 Tahoe Research, Ltd. Avatar animation system

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8584031B2 (en) 2008-11-19 2013-11-12 Apple Inc. Portable touch screen device, method, and graphical user interface for using emoji characters
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
CN107209953A (zh) 2014-12-23 2017-09-26 英特尔公司 用于渲染3d模型化身的略图选择
WO2016101132A1 (en) 2014-12-23 2016-06-30 Intel Corporation Facial gesture driven animation of non-facial features
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
US10445425B2 (en) 2015-09-15 2019-10-15 Apple Inc. Emoji and canned responses
US10339367B2 (en) * 2016-03-29 2019-07-02 Microsoft Technology Licensing, Llc Recognizing a face and providing feedback on the face-recognition process
US11580608B2 (en) 2016-06-12 2023-02-14 Apple Inc. Managing contact information for communication applications
DK179471B1 (en) 2016-09-23 2018-11-26 Apple Inc. IMAGE DATA FOR ENHANCED USER INTERACTIONS
KR102210150B1 (ko) 2016-09-23 2021-02-02 애플 인크. 아바타 생성 및 편집
DK179948B1 (en) 2017-05-16 2019-10-22 Apple Inc. Recording and sending Emoji
US10521948B2 (en) 2017-05-16 2019-12-31 Apple Inc. Emoji recording and sending
US10691724B2 (en) * 2017-06-03 2020-06-23 Doreen Quansah Virtual integration command system
DK180212B1 (en) 2018-05-07 2020-08-19 Apple Inc USER INTERFACE FOR CREATING AVATAR
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
DK179992B1 (en) 2018-05-07 2020-01-14 Apple Inc. DISPLAY OF USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
DK201970531A1 (en) 2019-05-06 2021-07-09 Apple Inc Avatar integration with multiple applications
US10943371B1 (en) * 2020-03-31 2021-03-09 Snap Inc. Customizing soundtracks and hairstyles in modifiable videos of multimedia messaging application
DK202070624A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
CN112419487B (zh) * 2020-12-02 2023-08-22 网易(杭州)网络有限公司 毛发三维重建方法、装置、电子设备及存储介质
US11714536B2 (en) 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
FR3123484A1 (fr) * 2021-05-31 2022-12-02 L'oreal Procédé et dispositif pour simuler un maquillage à partir d’un avatar
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120079377A1 (en) * 2010-09-28 2012-03-29 Apple Inc. Systems, methods, and computer-readable media for placing an asset on a three-dimensional model
WO2014194439A1 (en) * 2013-06-04 2014-12-11 Intel Corporation Avatar-based video encoding

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004509391A (ja) 2000-07-24 2004-03-25 アイマティック・インターフェイシズ・インコーポレイテッド 無表情顔面画像を利用したアバター動画変換方法及び装置
JP2002283261A (ja) 2001-03-27 2002-10-03 Sony Corp ロボット装置及びその制御方法、並びに記憶媒体
KR100523742B1 (ko) * 2002-03-26 2005-10-26 김소운 3차원 안경 시뮬레이션 시스템 및 방법
JP4172793B2 (ja) 2004-06-08 2008-10-29 株式会社東芝 ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置
US7804997B2 (en) * 2004-06-10 2010-09-28 Technest Holdings, Inc. Method and system for a three dimensional facial recognition system
US20060294465A1 (en) 2005-06-22 2006-12-28 Comverse, Inc. Method and system for creating and distributing mobile avatars
US8963926B2 (en) 2006-07-11 2015-02-24 Pandoodle Corporation User customized animated video and method for making the same
CN100527170C (zh) 2006-09-20 2009-08-12 清华大学 一种复杂表情仿真系统及其实现方法
JP5219184B2 (ja) 2007-04-24 2013-06-26 任天堂株式会社 トレーニングプログラム、トレーニング装置、トレーニングシステムおよびトレーニング方法
FR2917931A1 (fr) 2007-06-22 2008-12-26 France Telecom Procede et systeme de mise en relation entre des personnes dans un systeme de telecommunications.
CN101499128B (zh) 2008-01-30 2011-06-29 中国科学院自动化研究所 基于视频流的三维人脸动作检测和跟踪方法
USH2253H1 (en) 2008-06-26 2011-05-03 Pixar Multiple personality articulation for animated characters
CN101354795A (zh) 2008-08-28 2009-01-28 北京中星微电子有限公司 基于视频的三维人脸动画驱动方法和系统
US8224652B2 (en) 2008-09-26 2012-07-17 Microsoft Corporation Speech and text driven HMM-based body animation synthesis
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US8692830B2 (en) * 2010-06-01 2014-04-08 Apple Inc. Automatic avatar creation
US20110304629A1 (en) 2010-06-09 2011-12-15 Microsoft Corporation Real-time animation of facial expressions
US8830226B2 (en) 2010-09-28 2014-09-09 Apple Inc. Systems, methods, and computer-readable media for integrating a three-dimensional asset with a three-dimensional model
KR20120059994A (ko) * 2010-12-01 2012-06-11 삼성전자주식회사 표정 제어점을 이용한 아바타 제어 장치 및 방법
DE102011015730A1 (de) * 2011-03-31 2012-10-04 Land Rheinland-Pfalz, vertreten durch das Landeskriminalamt Rheinland-Pfalz Phantombilddatenbank (3D)
US9330483B2 (en) 2011-04-11 2016-05-03 Intel Corporation Avatar facial expression techniques
CN102157007A (zh) 2011-04-11 2011-08-17 北京中星微电子有限公司 一种表演驱动的制作人脸动画的方法和装置
CN102509333B (zh) 2011-12-07 2014-05-07 浙江大学 基于动作捕获数据驱动的二维卡通表情动画制作方法
CN104205171A (zh) 2012-04-09 2014-12-10 英特尔公司 用于化身生成、渲染和动画的系统和方法
US20130286161A1 (en) * 2012-04-25 2013-10-31 Futurewei Technologies, Inc. Three-dimensional face recognition for mobile devices
US9314692B2 (en) 2012-09-21 2016-04-19 Luxand, Inc. Method of creating avatar from user submitted image
US8970656B2 (en) 2012-12-20 2015-03-03 Verizon Patent And Licensing Inc. Static and dynamic video calling avatars
CN103093490B (zh) 2013-02-02 2015-08-26 浙江大学 基于单个视频摄像机的实时人脸动画方法
US9378576B2 (en) 2013-06-07 2016-06-28 Faceshift Ag Online modeling for real-time facial animation
US9576175B2 (en) 2014-05-16 2017-02-21 Verizon Patent And Licensing Inc. Generating emoticons based on an image of a face
WO2016101132A1 (en) 2014-12-23 2016-06-30 Intel Corporation Facial gesture driven animation of non-facial features
WO2016101131A1 (en) 2014-12-23 2016-06-30 Intel Corporation Augmented facial animation
CN107209953A (zh) 2014-12-23 2017-09-26 英特尔公司 用于渲染3d模型化身的略图选择

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120079377A1 (en) * 2010-09-28 2012-03-29 Apple Inc. Systems, methods, and computer-readable media for placing an asset on a three-dimensional model
WO2014194439A1 (en) * 2013-06-04 2014-12-11 Intel Corporation Avatar-based video encoding

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11303850B2 (en) 2012-04-09 2022-04-12 Intel Corporation Communication using interactive avatars
US11595617B2 (en) 2012-04-09 2023-02-28 Intel Corporation Communication using interactive avatars
US11295502B2 (en) 2014-12-23 2022-04-05 Intel Corporation Augmented facial animation
US11887231B2 (en) 2015-12-18 2024-01-30 Tahoe Research, Ltd. Avatar animation system

Also Published As

Publication number Publication date
WO2016101124A1 (en) 2016-06-30
EP3241187A4 (en) 2018-11-21
EP3241187A1 (en) 2017-11-08
US20160328886A1 (en) 2016-11-10
US9824502B2 (en) 2017-11-21

Similar Documents

Publication Publication Date Title
CN107209953A (zh) 用于渲染3d模型化身的略图选择
US11587279B2 (en) Augmented facial animation
CN107247548B (zh) 图像显示方法、图像处理方法及装置
US11908243B2 (en) Menu hierarchy navigation on electronic mirroring devices
CN105278885B (zh) 移动终端及其控制方法
CN107004288B (zh) 非面部特征的面部动作驱动的动画
EP4309024A1 (en) Activating a hands-free mode of operating an electronic mirroring device
CN104769538B (zh) 在移动装置上显示模拟媒体内容项增强
KR20210119438A (ko) 얼굴 재연을 위한 시스템 및 방법
CN109427083A (zh) 三维虚拟形象的显示方法、装置、终端及存储介质
KR102624635B1 (ko) 메시징 시스템에서의 3d 데이터 생성
CN108780389A (zh) 用于计算设备的图像检索
EP4200745A1 (en) Cross-domain neural networks for synthesizing image with fake hair combined with real image
US11797162B2 (en) 3D painting on an eyewear device
WO2022140117A1 (en) 3d painting on an eyewear device
US20220319059A1 (en) User-defined contextual spaces
CN114904268A (zh) 一种虚拟形象的调整方法、装置、电子设备及存储介质
EP4315281A1 (en) True size eyewear in real time
US20230154084A1 (en) Messaging system with augmented reality makeup
WO2022135272A1 (zh) 三维模型重建方法、设备和存储介质
EP4314999A1 (en) User-defined contextual spaces
US20220319124A1 (en) Auto-filling virtual content
TWI592894B (zh) 傳送排程人形玩偶圖像和信息的傳送端裝置、伺服器、系統和方法
KR20240093792A (ko) 머신 학습을 위한 실측 정보 생성
CN116645449A (zh) 表情包生成方法及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20170926

RJ01 Rejection of invention patent application after publication