CN111523395B - 面部动作驱动的动画通信系统 - Google Patents
面部动作驱动的动画通信系统 Download PDFInfo
- Publication number
- CN111523395B CN111523395B CN202010236882.7A CN202010236882A CN111523395B CN 111523395 B CN111523395 B CN 111523395B CN 202010236882 A CN202010236882 A CN 202010236882A CN 111523395 B CN111523395 B CN 111523395B
- Authority
- CN
- China
- Prior art keywords
- avatar
- animation
- image
- motion data
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 118
- 230000001815 facial effect Effects 0.000 title claims abstract description 108
- 238000004891 communication Methods 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 claims description 36
- 238000009877 rendering Methods 0.000 claims 12
- 230000009471 action Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 230000015654 memory Effects 0.000 description 13
- 230000005057 finger movement Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开涉及面部动作驱动的动画通信系统。系统可以包括用于捕捉一系列面部图像的图像捕捉设备,用于计算该系列图像中的每个图像的面部运动数据的面部识别模块,以及用于将面部运动数据发送至动画设备的通信模块,其中动画设备使用面部运动数据来在该动画设备上动画绘制化身。
Description
分案说明
本申请是申请日为2014年09月24日、申请号为201480081245.X、题为“面部动作驱动的动画通信系统”的发明专利申请的分案申请。
技术领域
本公开总体涉及通信领域,更具体地,涉及面部动作驱动的动画通信系统和方法。
背景技术
包括即时通讯服务和电子邮件在内的通讯服务除了其他以外向用户提供了许多不同类型的表情符号或表情图标,以明确地表达情绪。表情符号可以包括动画,其中一系列图像一起用来创建视频或动画。表情符号可由用户选择,甚至通常可由用户定制。然而,这些方式会限制用户的创造性并将动画的可定制性限制于已被创建的表情符号。
发明内容
本公开的一方面提供了一种用于面部动作驱动的动画通信的系统,所述系统包括:图像捕捉设备,用于捕捉面部的一系列图像;面部识别模块,用于针对该系列图像中的每个图像计算面部运动数据;以及通信模块,用于将所述面部运动数据发送至动画设备,其中所述动画设备使用所述面部运动数据来在所述动画设备上动画绘制化身。
本公开的一方面提供了一种用于对化身进行动画绘制的系统,所述系统包括:通信模块,用于接收来自捕捉设备的面部运动数据,其中所述捕捉设备捕捉面部的一系列图像并针对该系列图像中的每个图像计算所述面部运动数据;以及动画模块,用于使用所述面部运动数据来动画绘制所述化身。
本公开的一方面提供了一种用于面部动作驱动的动画通信的方法,所述方法包括:在图像捕捉设备处捕捉面部的一系列图像;针对该系列图像中的每个图像计算面部运动数据;以及将所述面部运动数据发送至动画设备,其中所述动画设备使用所述面部运动数据来在所述动画设备上动画绘制化身。
本公开的一方面提供了至少一种包括用于改变化身的指令的机器可读介质,所述指令在被机器运行时,使得所述机器执行上述方法。
本公开的一方面提供了一种设备,包括:用于在图像捕捉设备处捕捉面部的一系列图像的装置;用于针对该系列图像中的每个图像计算面部运动数据的装置;以及用于将所述面部运动数据发送至动画设备的装置,其中所述动画设备使用所述面部运动数据来在所述动画设备上动画绘制化身。
附图说明
在附图中,相似的标号可以描述不同视图中的类似组件,其中附图不一定按照比例绘制。具有不同字母后缀的相似标号可以表示类似组件的不同实例。附图通过示例的方式,而非限制的方式一般地示出了本文件所论述的各种实施例。
图1是根据实施例示出动画化身的示意图。
图2是根据实施例示出用于发送面部运动数据的系统的框图。
图3是示出用于在第一设备处显示与第二设备上的内容相对应的化身的系统的示意图。
图4是根据实施例示出用于动画绘制与电视节目相对应的化身的方法的流程图。
图5A和5B是根据实施例示出用于使用面部运动数据来动画绘制化身的产品的示意图。
图6A和6B是根据实施例示出用于动画绘制化身并选择背景的产品的示意图。
图7是根据实施例示出用于使用手指动作来动画绘制化身的产品的示意图。
图8是根据实施例示出用于将化身的动画与背景图像相结合的方法的流程图。
图9是可在其上实现一个或多个实施例的机器的框图。
具体实施方式
现有方法通常将用户局限于预定义的表情符号和动画。这里所描述的各种系统和技术向用户提供了用于创建面部动作驱动的动画的选项。
图1是根据实施例示出动画化身(avatar)的示意图。化身是能够表示用户的面部特征的图形化表示。化身图形化表示或动画快照102、104、106、108和110表示由用户的面部动作所驱动的不同的动画图像。例如,动画快照106表示用户在张开他或她的嘴时该用户的面部,而动画快照104表示用户在闭合他或她的嘴时该用户的面部。一系列动画快照102-110可以被组合来形成化身的动画。化身可以包括图1中未包括的其他特征,例如躯干、手臂、手、腿、脚、尾巴等等。这些其他特征可以使用面部动作、其他动作、其他输入等等来进行动画绘制。
图2是根据实施例示出用于发送面部运动数据的系统200的框图。系统200包括用来捕捉一系列面部图像的图像捕捉设备202。在示例中,图像捕捉设备202可以是照相机。系统200还包括用于针对该系列图像中的每个图像计算面部运动数据的面部识别模块204。系统200还包括用于将面部运动数据发送至动画设备208的通信模块206,其中动画设备208可以被配置为使用面部运动数据来在该动画设备208上动画绘制化身。
在示例中,面部运动数据可以是面部坐标的集合、关于面部活动的信息等等。在示例中,由图像捕捉设备202(例如,照相机)捕捉图像。例如,用户可以使用手机、平板、计算机等上的照相机来拍摄照片。面部识别模块204(也被称作面部动作引擎)用于捕捉用户的面部特征。用户可以拍摄一系列图像,诸如他或她的面部的视频。该一系列图像可由面部识别模块204用来确定该系列图像中的每个图像的面部运动数据。用户可以从各种化身的库中选择化身。针对不同类型的化身可以存在不同的库或子库,例如与电视节目相对应的化身或基于位置的化身或不同的化身部分,例如将被用于动画绘制面部特征、其他特征或其他输入等等。动画或动画的部分可被存储在其他库中。在示例中,可以访问转换表,其将动作映射至具体的动画(例如,如果用户在一系列图像中眨眼,则在动画中可将尾巴动画绘制成左右移动)。
在示例中,动画创建模块可以被配置为通过使用捕捉的面部动作或面部运动数据来动画绘制选择的化身。例如,面部动作可以被映射至化身的面部运动数据以创建一系列图像,并且这些图像可以被打包在一起以创建动画。面部运动数据还可以独立于化身或动画来被保存,并且面部运动数据可以被发送至动画设备208。动画设备208可以访问面部运动数据并通过使用面部运动数据来利用化身创建动画。该方法可以节省网络带宽,这是因为发送了较少的数据,例如发送坐标数据并忽略图像数据。
在示例中,可以使用应用(或者App,像是在论及移动设备上的应用时通常所指的那样)来选择化身。应用可以允许用户选择化身、访问设备上的照相机、以及记录一系列面部动作图像。应用可以被配置为向用户呈现选择屏幕,在选择屏幕处用户能够从化身存储库中选择化身。选择屏幕可以通过描述(例如,名称)或图像(例如,缩略图)来提供化身列表。选择屏幕还可以提供浏览器或打开对话界面,从而用户能够从任意位置打开特定的化身文件。然后,应用可以根据一系列面部动作图像来确定面部运动数据,并使用这些面部运动数据来动画绘制选定的化身。应用还可以被用户用于将面部运动数据发送至动画设备。用户还可以指定向动画设备发送的多个其他选项,例如,化身或化身标识符(针对具体化身的唯一标识符)、其他动作命令、其他输入命令、或音频。面部运动数据可以通过短距离或长距离网络或直接(例如,通过使用有线串行连接、通用串行总线(USB)驱动、点对点连接(例如,近场通信))、或以其他方式被发送至动画设备。
动画设备208可以包括应用或客户端应用,它们可以接收面部运动数据或其他数据。动画设备208可以使用面部运动数据来动画绘制化身并将动画显示在动画设备上或其他地方。
可以使用化身的动画来创建个性化动画快照图像。快照图像可以被用作包含动画的动画文件的缩略图。动画可以被本地存储或远程存储,从而用户可以在稍后的时间访问和重用该动画。面部运动数据或化身或化身标识符可以被本地存储或远程存储,从而用户可以在稍后的时间组合使用或单独使用它们。可以使用二维或三维图形来表示化身。
图3是示出用于在第一设备处显示与第二设备上的内容相对应的化身的系统的示意图。在图3中,用户302在第二设备306上查看内容的同时,利用移动设备304进行第二屏幕使用。例如,所述内容可以是赛事、演出、电视节目、电影、视频游戏等等。
在示例中,用户302可以使用移动设备304来识别内容。然后,移动设备304可以向用户呈现化身,从而化身源于内容或与内容具有某种联系。该联系不限于直接表示内容的化身,但还可以包括用户在查看内容时可以理解用途的任意化身。例如,如果用户正在观看关于棒球历史的电视节目,那么即便在该电视节目中没有出现队伍或吉祥物,也可以向用户呈现表示该队伍的吉祥物的化身。在另一示例中,如果用户正在观看卡通电视节目,则可以向用户呈现出自该卡通或其他卡通的角色。在示例中,可以向正在查看内容的用户呈现化身,并且可以向观看不同内容的同一用户或不同用户呈现该化身。例如,如果第二设备306正在播放赛事(例如,体育赛事),则可以向用户呈现表示正在进行体育赛事的队伍的吉祥物的化身或该队伍中运动员的化身。针对关于棒球历史的电视节目以及体育赛事可以呈现表示吉祥物的化身。
在示例中,用户可以使用移动设备304来拍摄第二设备306的显示内容的图像。可以通过使用图像和图像匹配程序来获取内容的身份。移动设备304可以在接收输入(例如,软件按键、电话摇动、语音命令等等)之后拍摄第二设备306的图像。在另一示例中,图像可以直接从第二设备306被上传至云端,或者图像可以从第二设备306被发送至移动设备304,然后被发送至云端。
在识别出内容之后,可以向用户呈现化身。可以使用缩略图、化身的动画等来呈现化身。化身可以被本地存储在移动设备304处。化身可以被下载至移动设备304。还可以向用户呈现化身的语音声调参数,或者在用户选择化身时,可以激活化身的语音声调参数。在另一示例中,可以使用移动设备304获取的音频来识别内容。在又一示例中,用户可以手动识别电视节目。
移动设备304可以使用与第二设备306上的内容相对应的化身的化身标识符和面部运动数据来显示动画。移动设备304所显示的动画可以使用与内容相对应的化身,或者它可以使用本地存储的或下载的其他化身。
用户可以选择要在动画中使用的化身(例如,与内容相对应的化身)。用户可以将动画或面部运动数据以及与内容相对应的化身的化身标识符发送至动画设备。动画设备可以使用面部运动数据和化身标识符来生成使用与内容相对应的化身的动画。
在另一示例中,用户302可以使用移动设备304识别来自图像捕捉设备所拍摄的图像的内容。图像捕捉设备可以是移动设备304。用户302可以使用图像捕捉设备来拍摄赛事、演出的图像。例如,用户302可以出席直播体育赛事、剧场演出等,并使用图像捕捉设备来拍摄图像。与直播体育赛事、剧场演出等相对应的化身可以被呈现给用户。在该示例中,可以在不使用第二设备306的情况下向用户302呈现化身。
图4是根据实施例示出用于对与电视节目相对应的化身进行动画绘制的方法400的流程图。方法400可以包括捕捉与电视节目相对应的图像(402),识别电视节目(404),以及使用电视节目的身份来生成电视化身(406)。方法400可以包括选择电视化身(408)并动画绘制电视化身(410)。图4中的方法400是用于面部动作驱动的动画通信的方法的示例,该方法可以包括在图像捕捉设备处捕捉一系列面部图像,针对该系列图像中的每个图像计算面部运动数据,以及将面部运动数据发送至动画设备,其中动画设备可以被配置为使用面部运动数据来在该动画设备上动画绘制化身。在示例中,图像捕捉设备可以捕捉与内容相对应的图像,诸如与电视节目相对应的图像(方框402)。可以使用与内容相对应的图像来识别内容(例如,通过识别电视节目)。在示例中,可以使用内容的身份来生成第二化身,其中第二化身与内容相对应。例如,第二化身可以是电视化身(方框406)。动画设备可以被配置为动画绘制第二化身,例如电视化身(方框410)。第二化身可以是与此前所讨论的任意内容相对应的化身。
图5A和图5B是根据实施例示出使用面部运动数据来动画绘制化身的产品的示意图。例如,图5A示出了嘴巴闭合的用户,以及在表示用户在将其嘴巴闭合时该用户的面部的状态下的化身。图5B示出了嘴巴张开的用户,以及在表示用户将其嘴巴张开时该用户的面部的状态下的化身。
图6A和图6B是根据实施例示出用于动画绘制化身并选择背景的产品的示意图。
图7是根据实施例示出使用手指动作来动画绘制化身的产品的示意图。尽管没有示出,但是可以根据手指动作(例如,由图7中用户做出的手指动作)来动画绘制化身。在示例中,用户的面部动作和手指动作可以被用来创建面部运动数据和手指动作。面部运动数据和手指动作可以被用来动画绘制化身(例如,图7中的化身)。例如,图7中用户的手指动作可以被用来张开螃蟹的蟹钳(图7中的化身)。
在示例中,近距离手指动作检测可被用于确定用户手指的手指动作。然后,手指动作可以被用来动画绘制化身。在另一示例中,传感器可以被用来生成物理输入命令,该物理输入命令可被用于动画绘制化身。例如,用户可以摇动图3的移动设备304并且该运动可以被存储为一组物理输入命令。该物理输入命令可以被用于动画绘制化身。例如,用户摇动移动设备304可被用于动画绘制化身的尾巴(未示出)。
在示例中,可以包括以下技术:捕捉一系列手指图像,针对手指图像中的每个图像计算一组手指动作,以及将该组手指动作发送至动画设备。动画设备可以包括使用该组手指动作来动画绘制化身并显示该动画。
图8是根据实施例示出用于将化身的动画与背景图像相结合的方法800的流程图。在示例中,在方框802处,用户选择化身。在方框804处,使用化身来生成背景图像。在替代的实施例中,用户可以手动选择或改变背景图像。在方框806处,使用背景图像和化身连同面部运动数据一起动画绘制化身。在方框808处,将背景图像和动画相结合。在替代的实施例中,化身和面部运动数据用来动画绘制化身,并且在动画绘制化身之后可以添加背景图像。例如,如果用户选择螃蟹作为化身,则包括沙滩或海洋的图像可被用作背景图像。背景图像还可以使用用户当前位置的图像或从一系列用户面部的图像中取得的背景图像。在另一实施例中,背景图像被选择和用来动画绘制化身。
在示例中,可以使用基于位置的信息来向用户呈现化身或背景。例如,如果用户或设备被确定为靠近特定的商店,则可以向该用户呈现看起来像是在该特定的商店中出售的商品的化身。例如,如果用户在出售泰迪熊的商店附近,则可以向该用户呈现泰迪熊化身。还可以向用户呈现与特定位置有关的背景图像。例如,如果用户在法国巴黎,则可以向该用户呈现以埃菲尔铁塔为特点的背景图像。
图9是可在其上实施一个或多个实施例的机器900的框图。在替代的实施例中,机器900可以作为独立设备进行操作或者可以被连接(例如,联网)到其他机器。在联网部署中,机器900可以作为服务器-客户端网络环境中的服务器机器、客户端机器或它们二者进行操作。在示例中,机器900可以作为对等(P2P)网络环境(或分布式网络环境)中的对等机。机器900可以是个人计算机(PC)、平板PC、机顶盒(STB)、个人数字助理(PDA)、移动电话、web设备、网络路由器、交换机或桥、或能够运行指定要被机器采取的动作的指令(顺序或以其他方式)的任意机器。此外,虽然只示出了单个机器,但术语“机器”也应当被理解为包括单独地或联合地运行一组(或多组)指令以执行本文所论述的任意一个或多个方法(例如,云计算、软件即服务(SaaS)、其他计算机集群配置)的机器的任意集合。
本文所述的示例可以包括逻辑、或多个组件、模块、或机制,或者可以在逻辑、或多个组件、模块、或机制上运作。模块是在操作时能够执行指定操作的有形实体(例如,硬件)。模块包括硬件。在示例中,硬件可以以指定的方式被配置为执行具体操作(例如,硬连线的)。在示例中,硬件可以包括可配置的执行单元(例如,晶体管、电路等)以及包含指令的计算机可读介质,其中指令对执行单元进行配置以在运行时执行特定操作。配置可以在执行单元或加载机制的指导下发生。因此,当设备操作时,执行单元以通信方式耦合到计算机可读介质。在本示例中,执行单元可以是不止一个模块中的一员。例如,在操作中,执行单元可以由第一组指令配置来在一时间点实现第一模块,并且可以由第二组指令重配置来实现第二模块。
机器(例如,计算机系统)900可以包括硬件处理器902(例如,中央处理单元(CPU)、图形处理单元(GPU)、硬件处理器核心、或它们的任意组合)、主存储器904和静态存储器906,它们中的一些或全部可以通过互连(例如,总线)908彼此通信。机器900还可以包括显示单元910、字母数字输入设备912(例如,键盘)以及用户界面(UI)导航设备914(例如,鼠标)。在示例中,显示单元910、字母数字输入设备912和UI导航设备914可以是触摸屏显示器。机器900可以附加地包括存储设备(例如,驱动单元)916、信号生成设备918(例如,扬声器)、网络接口设备920、以及一个或多个传感器921(例如,全球定位系统(GPS)传感器、罗盘、加速度计、或其他传感器)。机器900可以包括输出控制器928(例如,串行(例如,通用串行总线(USB))、并行、或其他有线或无线(例如,红外(IR)、近场通信(NFC)等)连接),以控制一个或多个外围设备(例如,打印机、读卡器等)或与之通信。
存储设备916可以包括非暂态机器可读介质922,在机器可读介质922上存储有实施本文所描述的技术或功能中的任何一个或多个的(或由本文所描述的技术或功能中的任何一个或多个利用的)一组或多组数据结构或指令924(例如,软件)。指令924在由机器900执行期间还可以完全地或至少部分地驻留在主存储器904内、在静态存储器906内、或者在硬件处理器902内。在示例中,硬件处理器902、主存储器904、静态存储器906、或存储设备916中的一个或任意组合可以构成机器可读介质。
尽管机器可读介质922被示出为单一介质,但术语“机器可读介质”可以包括被配置为存储一个或多个指令924的单一介质或多个介质(例如,集中式数据库或分布式数据库、或相关联的缓存器和服务器)。
术语“机器可读介质”可以包括能够进行以下操作的任何介质:存储、编码或携带供机器900执行的指令,并且这些指令使得机器900执行本公开的任意一种或多种技术;或存储、编码或携带由这样的指令所使用的或与这样的指令相关联的数据结构。非限制性的机器可读介质示例可以包括固态存储器、以及光介质和磁介质。在示例中,大容量机器可读介质包括具有大量粒子的机器可读介质,这些粒子具有不变的(例如,静止的)质量。因此,大容量机器可读介质不是暂时传播的信号。大容量机器可读介质的具体示例可以包括:诸如半导体存储器设备(例如,电可编程只读存储器(EPROM)、或电可擦除可编程只读存储器(EEPROM))和闪存设备之类的非易失性存储器;诸如内部硬盘和可移动盘之类的磁盘;磁光盘;以及CD-ROM盘和DVD-ROM盘。
指令924还可以通过通信网络926、使用传输介质、经由网络接口设备920、利用多个传输协议(例如,帧中继、互联网协议(IP)、传输控制协议(TCP)、用户数据报协议(UDP)、超文本传输协议(HTTP)等)中的任一个被发送或接收。示例通信网络可以包括局域网(LAN)、广域网(WAN)、分组数据网络(例如,互联网)、移动电话网络(例如,蜂窝网络)、普通老式电话(POTS)网络、以及无线数据网络(例如,电气与电子工程师协会(IEEE)802.11标准族(称为)、IEEE 802.16标准族(称为/>))、IEEE 802.15.4标准族、和对等(P2P)网络及其他。在示例中,网络接口设备920可以包括一个或多个物理插口(例如,以太网、同轴或电话插口)或一个或多个天线以连接到通信网络926。在示例中,网络接口设备920可以包括多个天线以使用单输入多输出(SIMO)、多输入多输出(MIMO)或多输入单输出(MISO)技术中的至少一者来进行无线通信。术语“传输介质”应当被认为包括能够存储、编码或携带供机器900运行的指令的任何无形介质,并且包括数字通信信号或模拟通信信号或其他无形介质以促进这类软件的通信。
附加注释和示例
示例1包括由用于面部动作驱动的动画通信的系统体现的主题,包括:用于面部动作驱动的动画通信的系统,该系统包括:图像捕捉设备,用于捕捉面部的一系列图像;面部识别模块,用于计算该系列图像中的每个图像的面部运动数据;以及通信模块,用于将面部运动数据发送至动画设备,其中动画设备使用面部运动数据来在该动画设备上动画绘制化身。
在示例2中,示例1的主题可选择地包括,其中动画设备动画绘制用户选定的化身。
在示例3中,示例1-2的任一者或任意组合的主题可选择地包括,其中,图像捕捉设备捕捉与内容相对应的图像,还包括内容模块,该内容模块用于:使用与内容相对应的图像来识别内容,以及使用内容的身份来生成第二化身,该第二化身与内容相对应。
在示例4中,示例1-3的任一者或任意组合的主题可选择地包括,其中,通信模块将与第二化身相对应的化身标识发送至动画设备。
在示例5中,示例1-4的任一者或任意组合的主题可选择地包括,其中,动画设备通过对第二化身进行动画绘制来动画绘制化身。
在示例6中,示例1-5的任一者或任意组合的主题可选择地包括,其中,图像捕捉设备捕捉一系列手指图像,并且还包括手指识别模块,该手指识别模块针对每个手指图像计算一组手指动作。
在示例7中,示例1-6的任一者或任意组合的主题可选择地包括,其中,通信模块将该组手指动作发送至动画设备,并且其中动画设备进一步使用该组手指动作来在该动画设备上动画绘制化身。
在示例8中,示例1-7的任一者或任意组合的主题可选择地包括,还包括用于生成背景图像的背景模块,并且其中动画设备在对化身进行动画绘制时使用背景图像。
在示例9中,示例1-8的任一者或任意组合的主题可选择地包括,其中,背景模块使用化身来生成背景图像。
在示例10中,示例1-9的任一者或任意组合的主题可选择地包括,其中,通信模块将背景图像发送至动画设备。
在示例11中,示例1-10的任一者或任意组合的主题可选择地包括,还包括用于确定图像捕捉设备的位置的位置模块,以及使用图像捕捉设备的位置来生成基于位置的化身的化身确定模块。
在示例12中,示例1-11的任一者或任意组合的主题可选择地包括,其中动画设备通过对基于位置的化身进行动画绘制来动画绘制化身。
在示例13中,示例1-12的任一者或任意组合的主题可选择地包括,还包括:物理输入捕捉设备,用于捕捉一系列物理输入;物理输入模块,用于针对该系列物理输入计算一组物理输入命令;并且其中通信模块将该组物理输入命令发送至动画设备,并且其中动画设备使用该组物理输入命令来在动画设备上动画绘制化身。
在示例14中,示例1-13的任一者或任意组合的主题可选择地包括,其中,化身是二维化身。
在示例15中,示例1-14的任一者或任意组合的主题可选择地包括,其中,化身是三维化身。
在示例16中,示例1-15的任一者或任意组合的主题可选择地包括,还包括用于从内容捕捉音频的音频捕捉设备,还包括内容模块,该内容模块使用音频来识别内容,并使用内容的身份来生成第二化身。
在示例17中,示例1-16的任一者或任意组合的主题可选择地包括,其中,通信模块将与第二化身相对应的化身标识发送至动画设备。
在示例18中,示例1-17的任一者或任意组合的主题可选择地包括,其中,动画设备通过对第二化身进行动画绘制来动画绘制化身。
在示例19中,示例1-18的任一者或任意组合的主题可选择地包括,还包括显示模块,用于使用面部运动数据来动画绘制化身并将该化身显示给本地用户。
在示例20中,示例1-19的任一者或任意组合的主题可选择地包括,其中,通信模块将基于位置的化身发送至动画设备。
示例21包括由用于对化身进行动画绘制的系统体现的主题,该系统包括:通信模块,用于接收来自捕捉设备的面部运动数据,其中捕捉设备捕捉面部的一系列图像,并且针对该系列图像中的每个图像计算面部运动数据;以及动画模块,用于使用面部运动数据来动画绘制化身。
在示例22中,示例21的主题可选择地包括,其中,通信模块还接收与电视化身相对应的化身标识,并且其中动画模块通过对电视化身进行动画绘制来动画绘制化身。
在示例23中,示例21-22的任一者或任意组合的主题可选择地包括,其中,通信模块还接收来自捕捉设备的一组手指动作,其中捕捉设备捕捉一系列手指图像并且针对该系列手指图像中的每个手指图像计算该组手指动作,并且其中动画模块进一步使用该组手指动作来动画绘制化身。
在示例24中,示例21-23的任一者或任意组合的主题可选择地包括,其中,通信模块接收来自捕捉设备的背景图像,其中捕捉设备还使用化身来确定背景图像。
在示例25中,示例21-24的任一者或任意组合的主题可选择地包括,其中,通信模块还接收来自捕捉设备的基于位置的化身,其中捕捉设备确定捕捉设备的位置,并且捕捉设备使用图像捕捉设备的位置来生成基于位置的化身,并且其中动画模块通过对基于位置的化身进行动画绘制来动画绘制所述化身。
在示例26中,示例21-25的任一者或任意组合的主题可选择地包括,还包括背景模块,该背景模块使用背景图像来生成背景图像。
在示例27中,示例21-26的任一者或任意组合的主题可选择地包括,其中化身是二维化身。
在示例28中,示例21-27的任一者或任意组合的主题可选择地包括,其中化身是三维化身。
在示例29中,示例21-28的任一者或任意组合的主题可选择地包括,其中动画模块对与化身标识相对应的化身进行动画绘制来动画绘制化身。
在示例30中,示例21-29的任一者或任意组合的主题可选择地包括,其中动画模块还使用背景图像来动画绘制化身。
在示例31中,示例21-30的任一者或任意组合的主题可选择地包括,其中通信模块还接收捕捉设备的位置,并且使用捕捉设备的位置来生成基于位置的化身。
在示例32中,示例21-31的任一者或任意组合的主题可选择地包括,其中动画模块对基于位置的化身进行动画绘制来动画绘制化身。
在示例33中,示例21-32的任一者或任意组合的主题可选择地包括,其中,通信模块从捕捉设备接收一组物理输入命令,其中捕捉设备捕捉一系列物理输入并且针对该系列物理输入计算该组物理输入命令。
在示例34中,示例21-33的任一者或任意组合的主题可选择地包括,其中,动画模块还使用该组物理输入命令来动画绘制化身。
在示例35中,示例21-34的任一者或任意组合的主题可选择地包括,其中,动画模块动画绘制用户选定的化身。
示例36包括由包含用于改变化身的指令的机器可读介质体现的主题,所述指令在被机器运行时,使得机器进行以下各项操作:捕捉面部的一系列图像,针对该系列图像中的每个图像计算面部运动数据,以及将面部运动数据发送至动画设备,其中动画设备被配置为使用面部运动数据来在动画上动画绘制化身。
在示例37中,示例36的主题可选择地包括,其中,动画设备使用面部运动数据来动画绘制二维化身。
在示例38中,示例36-37的任一者或任意组合的主题可选择地包括,其中,动画设备使用面部运动数据来动画绘制三维化身。
在示例39中,示例36-38的任一者或任意组合的主题可选择地包括,其中,捕捉图像包括捕捉与内容相对应的图像,还包括如下指令,该指令在被机器执行时,使得机器进行以下操作:使用与内容相对应的图像来识别内容,以及使用内容的身份来生成第二化身,第二化身与内容相对应。
在示例40中,示例36-39的任一者或任意组合的主题可选择地包括,其中,发送步骤包括将与第二化身相对应的化身标识发送至动画设备。
在示例41中,示例36-40的任一者或任意组合的主题可选择地包括,其中,动画设备使用面部运动数据来动画绘制第二化身。
在示例42中,示例36-41的任一者或任意组合的主题可选择地包括,还包括如下指令,该指令在被机器运行时,使得机器进行以下操作:使用音频捕捉设备从内容捕捉音频,使用音频识别内容,以及使用内容的身份来生成第二化身,第二化身与内容相对应。
在示例43中,示例36-42的任一者或任意组合的主题可选择地包括,其中发送步骤包括将与第二化身相对应的化身标识发送至动画设备。
在示例44中,示例36-43的任一者或任意组合的主题可选择地包括,其中动画设备使用面部运动数据来动画绘制第二化身。
在示例45中,示例36-44的任一者或任意组合的主题可选择地包括,还包括如下指令,该指令在被机器运行时,使得机器捕捉一系列手指图像。
在示例46中,示例36-45的任一者或任意组合的主题可选择地包括,还包括如下指令,该指令在被机器运行时,使得机器针对每个手指图像计算一组手指动作。
在示例47中,示例36-46的任一者或任意组合的主题可选择地包括,其中发送步骤包括将该组手指动作发送至动画设备,并且其中动画设备进一步使用该组手指动作来在该动画设备上动画绘制化身。
在示例48中,示例36-47的任一者或任意组合的主题可选择地包括,还包括如下指令,该指令在被机器运行时,使得机器生成背景图像,并且其中动画设备在对化身进行动画绘制时使用背景图像。
在示例49中,示例36-48的任一者或任意组合的主题可选择地包括,其中,生成背景图像包括使用化身来生成背景图像。
在示例50中,示例36-49的任一者或任意组合的主题可选择地包括,其中发送步骤包括将背景图像发送至动画设备。
在示例51中,示例36-50的任一者或任意组合的主题可选择地包括,还包括如下指令,该指令在被机器运行时,使得机器确定图像捕捉设备处的位置,并且使用图像捕捉设备处的位置来生成基于位置的化身。
在示例52中,示例36-51的任一者或任意组合的主题可选择地包括,其中发送步骤包括将基于位置的化身发送至动画设备。
在示例53中,示例36-52的任一者或任意组合的主题可选择地包括,其中动画设备使用面部运动数据来动画绘制基于位置的化身。
在示例54中,示例36-53的任一者或任意组合的主题可选择地包括,还包括如下指令,该指令在被机器运行时,使得机器:在物理输入捕捉设备处捕捉一系列物理输入,针对该系列物理输入计算一组物理输入命令,并且其中发送步骤包括将该组物理输入命令发送至动画设备,并且其中动画设备使用该组物理输入命令来在动画设备上动画绘制化身。
示例54包括用于对化身进行动画绘制的主题,包括用于面部动作驱动的动画通信的方法,该方法包括:在图像捕捉设备处捕捉面部的一系列图像,针对该系列图像中的每个图像计算面部运动数据,以及将面部运动数据发送至动画设备,其中动画设备使用面部运动数据来在该动画设备上动画绘制化身。
在示例55中,示例54的主题可选择地包括,其中,捕捉图像包括捕捉与内容相对应的图像,还包括:使用与内容相对应的图像来识别内容,以及使用内容的身份来生成第二化身,第二化身与内容相对应,其中动画设备使用面部运动数据来动画绘制第二化身。
在示例56中,示例54-55的任一者或任意组合的主题可选择地包括,还包括:捕捉一系列手指图像,针对每个手指图像计算一组手指动作,其中发送步骤包括将该组手指动作发送至动画设备,并且其中动画设备进一步使用该组手指动作来在该动画设备上动画绘制化身。
在示例57中,示例54-56的任一者或任意组合的主题可选择地包括,还包括:确定图像捕捉设备处的位置,使用图像捕捉设备处的位置来生成基于位置的化身,其中发送步骤包括将基于位置的化身发送至动画设备,并且其中动画设备使用面部运动数据来动画绘制基于位置的化身。
在示例58中,示例54-57的任一者或任意组合的主题可选择地包括,还包括:生成背景图像,其中动画设备在对化身进行动画绘制时使用背景图像,其中生成背景图像包括使用化身,并且其中发送步骤包括将背景图像发送至动画设备。
在示例59中,示例54-58的任一者或任意组合的主题可选择地包括,其中,动画设备使用面部运动数据来动画绘制二维化身。
在示例60中,示例54-59的任一者或任意组合的主题可选择地包括,其中,动画设备使用面部运动数据来动画绘制三维化身。
在示例61中,示例54-60的任一者或任意组合的主题可选择地包括,其中,发送步骤包括将与第二化身相对应的化身标识发送至动画设备。
在示例62中,示例54-61的任一者或任意组合的主题可选择地包括,还包括使用音频捕捉设备从内容捕捉音频,使用音频识别内容,以及使用内容的身份来生成第二化身。
在示例63中,示例54-62的任一者或任意组合的主题可选择地包括,其中,发送步骤包括将与第二化身相对应的化身标识发送至动画设备。
在示例64中,示例54-63的任一者或任意组合的主题可选择地包括,其中,动画设备使用面部运动数据来动画绘制第二化身。
在示例65中,示例54-64的任一者或任意组合的主题可选择地包括,还包括:在物理输入捕捉设备处捕捉一系列物理输入,针对该系列物理输入计算一组物理输入命令,并且其中发送步骤包括将该组物理输入命令发送至动画设备,并且其中动画设备使用该组物理输入命令来在动画设备上动画绘制化身。
在示例66中,示例54-65的任一者或任意组合的主题可选择地包括,其中,动画设备动画绘制用户选定的化身。
在示例67中,示例54-66的任一者或任意组合的主题可选择地包括包含用于改变化身的指令的机器可读介质,该指令在被机器运行时,使得机器执行示例54-66中任一项所述的方法。
在示例68中,示例54-67的任一者或任意组合的主题可选择地包括设备,该设备包括用于执行示例54-66中任一项所述的方法的装置。
示例69包括用于对化身进行动画绘制的主题,包括用于显示化身动画的方法,该方法包括:在动画设备处接收来自捕捉设备的面部运动数据,其中捕捉设备捕捉面部的一系列图像,并针对该系列图像中的每个图像计算面部运动数据,以及使用面部运动数据来在动画设备处动画绘制化身。
在示例70中,示例69的主题可选择地包括,其中,捕捉设备使用面部运动数据来动画绘制二维化身。
在示例71中,示例69-70的任一者或任意组合的主题可选择地包括,其中,捕捉设备使用面部运动数据来动画绘制三维化身。
在示例72中,示例69-71的任一者或任意组合的主题可选择地包括,其中,接收步骤包括接收化身标识。
在示例73中,示例69-72的任一者或任意组合的主题可选择地包括,其中,动画绘制化身包括动画绘制与化身标识相对应的化身。
在示例74中,示例69-73的任一者或任意组合的主题可选择地包括,其中,化身标识与第二化身相对应,第二化身与捕捉设备所识别的内容相对应。
在示例75中,示例69-74的任一者或任意组合的主题可选择地包括,其中,动画绘制化身包括动画绘制第二化身。
在示例76中,示例69-75的任一者或任意组合的主题可选择地包括,其中,接收步骤包括从捕捉设备接收一组手指动作,并且其中捕捉设备捕捉一系列手指图像并针对该系列手指图像中的每个手指图像计算该组手指动作。
在示例77中,示例69-76的任一者或任意组合的主题可选择地包括,还包括使用该组手指动作来动画绘制化身。
在示例78中,示例69-77的任一者或任意组合的主题可选择地包括,其中,接收步骤包括从捕捉设备接收背景图像,并且其中捕捉设备还确定背景图像。
在示例79中,示例69-78的任一者或任意组合的主题可选择地包括,其中,动画绘制化身包括使用背景图像动画绘制化身。
在示例80中,示例69-79的任一者或任意组合的主题可选择地包括,还包括在动画设备处生成背景图像。
在示例81中,示例69-80的任一者或任意组合的主题可选择地包括,其中,动画绘制化身包括使用背景图像动画绘制化身。
在示例82中,示例69-81的任一者或任意组合的主题可选择地包括,其中,接收步骤包括从捕捉设备接收基于位置的化身,其中捕捉设备确定该捕捉设备的位置,并且捕捉设备使用图像捕捉设备的位置来生成基于位置的化身。
在示例83中,示例69-82的任一者或任意组合的主题可选择地包括,其中,动画绘制化身包括动画绘制基于位置的化身。
在示例84中,示例69-83的任一者或任意组合的主题可选择地包括,其中,接收步骤包括接收捕捉设备的位置,并且还包括使用捕捉设备的位置来生成基于位置的化身。
在示例85中,示例69-84的任一者或任意组合的主题可选择地包括,其中,动画绘制化身包括动画绘制基于位置的化身。
在示例86中,示例69-85的任一者或任意组合的主题可选择地包括,其中,接收步骤包括从捕捉设备接收一组物理输入命令,并且其中捕捉设备捕捉一系列物理输入并针对该系列物理输入计算该组物理输入命令。
在示例87中,示例69-86的任一者或任意组合的主题可选择地包括,其中,动画绘制化身包括使用该组物理输入命令来动画绘制化身。
在示例88中,示例69-87的任一者或任意组合的主题可选择地包括,其中,动画绘制化身包括动画绘制用户选定的化身。
在示例89中,示例69-88的任一者或任意组合的主题可选择地包括包含用于改变化身的指令的机器可读介质,该指令在被机器运行时,使得机器执行示例69-88中任一项所述的方法。
在示例90中,示例69-89的任一者或任意组合的主题可选择地包括设备,该设备包括用于执行示例69-88中任一项所述的方法的装置。
示例91包括用于对化身进行动画绘制的主题,包括设备,该设备包括:用于捕捉面部的一系列图像的装置,用于针对该系列图像中的每个图像计算面部运动数据的装置,以及用于将面部运动数据发送至动画设备的装置,其中动画设备使用面部运动数据来在动画设备上动画绘制化身。
示例92包括用于对化身进行动画绘制的主题,包括包含用于改变化身的指令的机器可读介质,该指令在被机器运行时,使得机器进行以下各项操作:在动画设备处接收来自捕捉设备的面部运动数据,其中捕捉设备捕捉面部的一系列图像,并针对该系列图像中的每个图像计算面部运动数据,以及使用面部运动数据来在动画设备处动画绘制化身。
示例93包括用于对化身进行动画绘制的主题,该主题包括设备,该设备包括:用于在动画设备处接收来自捕捉设备的面部运动数据的装置,其中捕捉设备捕捉面部的一系列图像,并针对该系列图像中的每个图像计算面部运动数据,以及用于使用面部运动数据来在动画设备处动画绘制化身的装置。
这些非限制性示例中的每个示例均可以独立存在,或者可以采用各种排列或组合方式与其他示例中的一个或多个示例进行组合。
以上具体实施方式包括对附图的参考,所述附图形成具体实施方式的一部分。附图通过说明示出了本发明可被实施于的具体的实施例。这些实施例在本文中也被称为“示例”。这样的示例可以包括除了所示出或所描述的元素以外的元素。然而,本发明的发明人还考虑到了在其中仅提供了那些示出或描述的元素的示例。此外,无论是针对本文所示出或描述的特定示例(或它们的一个或多个方面)还是针对其他示例(或它们的一个或多个方面),本发明的发明人还考虑到了使用那些所示出或描述的元素(或者它们的一个或者多个方面)的任何组合或排列的示例。
如果本文件与通过引用并入本文的那些文件之间的使用不一致,则以本文件中的使用为准。
在本文件中,如在专利文件中常见的,词语“一”或“一个”被用来包括一个或不止一个,而独立于“至少一个”或“一个或多个”的任何其他实例或用法。在本文件中,除非另有说明,否则词语“或”用于指非排他性的或,从而使得“A或B”包括“A非B”、“B非A”以及“A与B”。在本文件中,词语“包括”和“其中”分别被用作词语“包含”和“在其中”的字面英语的等同用法。另外,在所附权利要求中,词语“包括”和“包含”是开放式的,即,除了权利要求中在这类词语后面所列出的那些元素之外还包括其他元素的系统、设备、物品、合成物、构成或处理也被认为落入权利要求的范围之内。此外,在所附权利要求中,词语“第一”、“第二”和“第三”等仅仅被用作标记,并非意图对它们的对象强加数值要求。
本文描述的方法示例可以是至少部分地机器或计算机实现的。一些示例可以包括被编码有指令的计算机可读介质或机器可读介质,所述指令可操作以将电子设备配置为执行如上述示例中所描述的方法。这样的方法的实现可以包括代码,诸如微代码、汇编语言代码、更高级语言代码等。这样的代码可以包括用于执行各种方法的计算机可读指令。代码可以形成计算机程序产品的部分。另外,在示例中,代码可以例如在执行期间或在其他时间有形地存储在一个或多个易失性、非暂时性或非易失性有形计算机可读介质上。这些有形计算机可读介质的示例可以包括但不限于硬盘、可移动磁盘、可移动光盘(例如,光盘和数字视频盘)、磁带盒、存储卡或棒、随机存取存储器(RAM)、只读存储器(ROM)等。
上面的描述意在是说明性的,而非限制性的。例如,上述示例(或者它们的一个或者多个方面)可以彼此组合来使用。例如,本领域的普通技术人员在查阅了上面的描述之后可以使用其他实施例。摘要被提供以符合37C.F.R.中的1.72(b)节的规定,以允许读者快速地确定本技术公开的本质。它的递交将被理解为不被用来解释或限制权利要求的范围或含义。另外,在上面的具体实施方式中,各种特征可以被归并在一起以精简本公开。这不应该被解释为意味着所公开但未包含在权利要求中的特征对任何权利要求来说是必要的。相反,发明主题可以包括比特定公开的实施例的所有特征少的特征。因此,所附权利要求被并入具体实施方式中作为示例或实施例,其中每项权利要求独立作为单独的实施例存在,并且可以想到的是,这样的实施例可以采用各种组合或排列方式彼此进行组合。本发明的范围应当根据所附权利要求、以及这些权利要求所享有的等同物的全部范围来确定。
Claims (6)
1.一种化身动画绘制方法,包括:
在移动设备的显示器上呈现选择屏幕,所述选择屏幕包括多个化身;
响应于用户的选择,从所述多个化身中标识出所选化身;
在所述显示器上呈现一个或多个图像;
响应于用户的选择,从所述一个或多个图像中标识出所选图像作为背景图像;
由与所述移动设备耦合的图像捕捉设备捕捉所述用户的面部的一系列图像;
针对该系列图像中的每个图像计算面部运动数据;
将所述面部运动数据、所选化身、以及所述背景图像发送至动画设备,其中,所述动画设备用于使用所述面部运动数据和所述背景图像来在所述动画设备上动画绘制所选化身;
确定所述移动设备的位置;以及
基于所述移动设备的位置提供反映所述移动设备的位置的第一特征的图像或者反映所述移动设备的位置的第二特征的化身,以使得所述一个或多个图像中的至少一个图像是所述反映所述移动设备的位置的第一特征的图像,或者所述多个化身中的至少一个化身是所述反映所述移动设备的位置的第二特征的化身,其中,反映所述移动设备的位置的第一特征的图像是以所述移动设备的位置处的标志性建筑物为特点的图像,并且反映所述移动设备的位置的第二特征的化身是所述移动设备的位置处存在的具体事物的化身。
2.根据权利要求1所述的化身动画绘制方法,还包括:
基于所述面部运动数据和所述背景图像来动画绘制所选化身;以及
在所述移动设备的显示器上显示经动画绘制的所选化身。
3.至少一种机器可读介质,其存储用于计算系统的操作的指令,所述指令当由机器执行时,使得所述机器执行如权利要求1或2所述的方法的操作。
4.一种化身动画绘制设备,包括用于执行权利要求1或2所述的方法的装置。
5.一种化身动画绘制装置,包括:
用户界面,用于:
向用户呈现多个化身;
响应于所述用户的选择,从所述多个化身中标识出所选化身;
呈现一个或多个图像;以及
响应于所述用户的选择,标识出所选图像作为背景图像;
图像捕捉设备,用于捕捉所述用户的面部的一系列图像;以及
面部识别模块,用于针对该系列图像中的每个图像计算面部运动数据;
通信模块,用于将所述面部运动数据、所选化身、以及所述背景图像发送至动画设备,其中,所述动画设备用于使用所述面部运动数据和所述背景图像来在所述动画设备上动画绘制所选化身;以及
位置模块,用于确定所述化身动画绘制装置的位置;
其中,所述用户界面被配置以基于所述化身动画绘制装置的位置提供反映所述化身动画绘制装置的位置的第一特征的化身或者反映所述化身动画绘制装置的位置的第二特征的图像,以使得所述多个化身包括所述反映所述化身动画绘制装置的位置的第一特征的化身,或者所述一个或多个图像中的至少一个图像是所述反映所述化身动画绘制装置的位置的第二特征的图像,并且其中,反映所述化身动画绘制装置的位置的第一特征的化身是所述化身动画绘制装置的位置处存在的具体事物的化身,并且反映所述化身动画绘制装置的位置的第二特征的图像是以所述化身动画绘制装置的位置处的标志性建筑物为特点的图像。
6.根据权利要求5所述的化身动画绘制装置,还包括动画模块,所述动画模块用于基于所述面部运动数据和所述背景图像来动画绘制所选化身,其中,所述用户界面还用于显示经动画绘制的所选化身。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010236882.7A CN111523395B (zh) | 2014-09-24 | 2014-09-24 | 面部动作驱动的动画通信系统 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010236882.7A CN111523395B (zh) | 2014-09-24 | 2014-09-24 | 面部动作驱动的动画通信系统 |
CN201480081245.XA CN106575446B (zh) | 2014-09-24 | 2014-09-24 | 面部动作驱动的动画通信系统 |
PCT/CN2014/087280 WO2016045010A1 (en) | 2014-09-24 | 2014-09-24 | Facial gesture driven animation communication system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480081245.XA Division CN106575446B (zh) | 2014-09-24 | 2014-09-24 | 面部动作驱动的动画通信系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111523395A CN111523395A (zh) | 2020-08-11 |
CN111523395B true CN111523395B (zh) | 2024-01-23 |
Family
ID=55580058
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480081245.XA Active CN106575446B (zh) | 2014-09-24 | 2014-09-24 | 面部动作驱动的动画通信系统 |
CN202010236882.7A Active CN111523395B (zh) | 2014-09-24 | 2014-09-24 | 面部动作驱动的动画通信系统 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480081245.XA Active CN106575446B (zh) | 2014-09-24 | 2014-09-24 | 面部动作驱动的动画通信系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9984487B2 (zh) |
EP (1) | EP3198561A4 (zh) |
CN (2) | CN106575446B (zh) |
WO (1) | WO2016045010A1 (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8584031B2 (en) | 2008-11-19 | 2013-11-12 | Apple Inc. | Portable touch screen device, method, and graphical user interface for using emoji characters |
EP3198561A4 (en) | 2014-09-24 | 2018-04-18 | Intel Corporation | Facial gesture driven animation communication system |
US9940637B2 (en) | 2015-06-05 | 2018-04-10 | Apple Inc. | User interface for loyalty accounts and private label accounts |
US10445425B2 (en) | 2015-09-15 | 2019-10-15 | Apple Inc. | Emoji and canned responses |
US11580608B2 (en) | 2016-06-12 | 2023-02-14 | Apple Inc. | Managing contact information for communication applications |
DK179978B1 (en) | 2016-09-23 | 2019-11-27 | Apple Inc. | IMAGE DATA FOR ENHANCED USER INTERACTIONS |
DK179948B1 (en) * | 2017-05-16 | 2019-10-22 | Apple Inc. | Recording and sending Emoji |
KR102439054B1 (ko) | 2017-05-16 | 2022-09-02 | 애플 인크. | 이모지 레코딩 및 전송 |
WO2018227349A1 (zh) * | 2017-06-12 | 2018-12-20 | 美的集团股份有限公司 | 控制方法、控制器、智能镜子和计算机可读存储介质 |
US10586368B2 (en) * | 2017-10-26 | 2020-03-10 | Snap Inc. | Joint audio-video facial animation system |
KR102081947B1 (ko) * | 2018-04-24 | 2020-02-26 | 주식회사 엘지생활건강 | 이동 단말기 및 화장품 자동인식 시스템 |
DK201870378A1 (en) | 2018-05-07 | 2020-01-13 | Apple Inc. | DISPLAYING USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES |
DK180212B1 (en) | 2018-05-07 | 2020-08-19 | Apple Inc | USER INTERFACE FOR CREATING AVATAR |
US20200019242A1 (en) * | 2018-07-12 | 2020-01-16 | Microsoft Technology Licensing, Llc | Digital personal expression via wearable device |
US11107261B2 (en) | 2019-01-18 | 2021-08-31 | Apple Inc. | Virtual avatar animation based on facial feature movement |
DK201970531A1 (en) | 2019-05-06 | 2021-07-09 | Apple Inc | Avatar integration with multiple applications |
KR20230003154A (ko) | 2020-06-08 | 2023-01-05 | 애플 인크. | 3차원 환경들에서 아바타들의 제시 |
WO2022115040A1 (en) * | 2020-11-27 | 2022-06-02 | Resmed Inc. | Systems and methods for generating image data associated with a sleep-related event |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101437195A (zh) * | 2002-11-04 | 2009-05-20 | 摩托罗拉公司(在特拉华州注册的公司) | 使用通信设备的化身控制 |
CN102201099A (zh) * | 2010-04-01 | 2011-09-28 | 微软公司 | 基于运动的交互式购物环境 |
CN102934144A (zh) * | 2010-06-09 | 2013-02-13 | 微软公司 | 脸部表情的实时动画 |
CN103430218A (zh) * | 2011-03-21 | 2013-12-04 | 英特尔公司 | 用3d脸部建模和地标对齐扩增造型的方法 |
CN103562952A (zh) * | 2011-05-27 | 2014-02-05 | 微软公司 | 不同游戏中的化身之间的通信 |
CN103842977A (zh) * | 2011-10-13 | 2014-06-04 | 索尼公司 | 信息处理系统、信息处理方法和程序 |
CN104011738A (zh) * | 2011-12-29 | 2014-08-27 | 英特尔公司 | 用于使用交互式化身进行通信的系统和方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6400374B2 (en) * | 1996-09-18 | 2002-06-04 | Eyematic Interfaces, Inc. | Video superposition system and method |
AU2002232928A1 (en) * | 2000-11-03 | 2002-05-15 | Zoesis, Inc. | Interactive character system |
US8111281B2 (en) * | 2007-06-29 | 2012-02-07 | Sony Ericsson Mobile Communications Ab | Methods and terminals that control avatars during videoconferencing and other communications |
US8170957B2 (en) * | 2007-08-08 | 2012-05-01 | Sinart Points Technology, Inc. | System and method for managing digital interactions |
US20100306685A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | User movement feedback via on-screen avatars |
US9009612B2 (en) * | 2009-06-07 | 2015-04-14 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
US9700804B2 (en) * | 2009-09-29 | 2017-07-11 | International Business Machines Corporation | Method and system for accurate rating of avatars in a virtual environment |
CN103207745B (zh) | 2012-01-16 | 2016-04-13 | 上海那里信息科技有限公司 | 虚拟化身交互系统和方法 |
CN103366782B (zh) | 2012-04-06 | 2014-09-10 | 腾讯科技(深圳)有限公司 | 在虚拟形象上自动播放表情的方法和装置 |
US10469886B2 (en) * | 2012-04-06 | 2019-11-05 | Minerva Networks, Inc. | System and methods of synchronizing program reproduction on multiple geographically remote display systems |
CN103631370B (zh) | 2012-08-28 | 2019-01-25 | 腾讯科技(深圳)有限公司 | 一种控制虚拟形象的方法及装置 |
US9075462B2 (en) * | 2012-12-10 | 2015-07-07 | Sap Se | Finger-specific input on touchscreen devices |
CN104782120B (zh) * | 2012-12-17 | 2018-08-10 | 英特尔公司 | 化身动画制作方法、计算设备和存储介质 |
US8970656B2 (en) * | 2012-12-20 | 2015-03-03 | Verizon Patent And Licensing Inc. | Static and dynamic video calling avatars |
EP3198561A4 (en) | 2014-09-24 | 2018-04-18 | Intel Corporation | Facial gesture driven animation communication system |
-
2014
- 2014-09-24 EP EP14902447.3A patent/EP3198561A4/en not_active Ceased
- 2014-09-24 WO PCT/CN2014/087280 patent/WO2016045010A1/en active Application Filing
- 2014-09-24 US US14/773,911 patent/US9984487B2/en active Active
- 2014-09-24 CN CN201480081245.XA patent/CN106575446B/zh active Active
- 2014-09-24 CN CN202010236882.7A patent/CN111523395B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101437195A (zh) * | 2002-11-04 | 2009-05-20 | 摩托罗拉公司(在特拉华州注册的公司) | 使用通信设备的化身控制 |
CN102201099A (zh) * | 2010-04-01 | 2011-09-28 | 微软公司 | 基于运动的交互式购物环境 |
CN102934144A (zh) * | 2010-06-09 | 2013-02-13 | 微软公司 | 脸部表情的实时动画 |
CN103430218A (zh) * | 2011-03-21 | 2013-12-04 | 英特尔公司 | 用3d脸部建模和地标对齐扩增造型的方法 |
CN103562952A (zh) * | 2011-05-27 | 2014-02-05 | 微软公司 | 不同游戏中的化身之间的通信 |
CN103842977A (zh) * | 2011-10-13 | 2014-06-04 | 索尼公司 | 信息处理系统、信息处理方法和程序 |
CN104011738A (zh) * | 2011-12-29 | 2014-08-27 | 英特尔公司 | 用于使用交互式化身进行通信的系统和方法 |
Non-Patent Citations (2)
Title |
---|
Avatar-Model Interaction in Virtual Worlds Improves Distributed Team Collaboration through Issue Discovery;Anne Anderson等;Computing in Civil and Building Engineering;793-800 * |
交互式智能虚拟化身行为模型研究与应用;陈煜;中国优秀硕士学位论文全文数据库 信息科技辑;I138-1302 * |
Also Published As
Publication number | Publication date |
---|---|
CN106575446A (zh) | 2017-04-19 |
EP3198561A1 (en) | 2017-08-02 |
US9984487B2 (en) | 2018-05-29 |
EP3198561A4 (en) | 2018-04-18 |
CN111523395A (zh) | 2020-08-11 |
CN106575446B (zh) | 2020-04-21 |
US20160292901A1 (en) | 2016-10-06 |
WO2016045010A1 (en) | 2016-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111523395B (zh) | 面部动作驱动的动画通信系统 | |
US11587279B2 (en) | Augmented facial animation | |
KR102649272B1 (ko) | 신체 자세 추정 | |
US10540800B2 (en) | Facial gesture driven animation of non-facial features | |
KR102521790B1 (ko) | 비동기 미디어 콘텐츠를 갖는 대화형 메시지들의 생성 | |
KR102207721B1 (ko) | 비디오 스트림에서 객체 모델링 및 대체 | |
US20160292903A1 (en) | Avatar audio communication systems and techniques | |
JP6637650B2 (ja) | ゲームプログラム、コンピュータの制御方法、情報処理装置、画像出力装置、画像出力方法および画像出力プログラム | |
JP6716563B2 (ja) | マルチユーザセンサベースインタラクション | |
KR20210143289A (ko) | 제3자 게임들을 위한 3d 아바타 플러그인 | |
CN109937393B (zh) | 支持增强现实软件应用 | |
CN112891943B (zh) | 一种镜头处理方法、设备以及可读存储介质 | |
US20240087257A1 (en) | Transferring objects from 2d video to 3d ar | |
KR20230125818A (ko) | 생성형 대립 네트워크 조작 이미지 효과들 | |
CN115562480A (zh) | 用于增强现实的方法及装置 | |
KR20230153474A (ko) | 비디오 내의 객체의 검출된 모션에 대응하는 시각적 또는 청각적 효과를 추가하기 위한 자동화된 비디오 편집 | |
CN116669823A (zh) | 具有离线同步的多用户ar体验 | |
US20240114219A1 (en) | Mixed reality media content | |
CN117222456A (zh) | 使用第二客户端装置指导第一客户端装置的游戏内模式 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |