CN113924601A - 用于使人体的单个图像成动画并应用效果的娱乐性移动应用程序 - Google Patents
用于使人体的单个图像成动画并应用效果的娱乐性移动应用程序 Download PDFInfo
- Publication number
- CN113924601A CN113924601A CN202080041856.7A CN202080041856A CN113924601A CN 113924601 A CN113924601 A CN 113924601A CN 202080041856 A CN202080041856 A CN 202080041856A CN 113924601 A CN113924601 A CN 113924601A
- Authority
- CN
- China
- Prior art keywords
- video
- generating
- person
- motion
- computing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/16—Cloth
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
Abstract
提供了用于使人体的单个图像成动画并应用效果的系统和方法。一种示例方法包括:由计算机装置提供运动数据库;由计算装置接收输入图像,输入图像包括人的身体;由计算装置接收包括从运动数据库中选择的运动的用户输入;由计算装置将输入图像分割成身体部分和背景部分;由计算装置并基于身体部分和选择的运动,生成以重复选择的运动的人的身体为特征的视频;以及由计算装置显示生成的视频;由计算机装置接收包括衣服、场景、照明效果和附加对象的另一个用户输入;并且,在生成视频时,基于另一个用户输入修改视频的帧。
Description
技术领域
本公开通常涉及数字图像处理。更具体地说,本公开涉及用于使人体的单个图像成动画并应用效果的方法、系统和移动应用程序。
背景技术
身体动画可用于许多应用,如广告、娱乐节目、社交媒体网络、计算机游戏、视频、视频对话、虚拟现实、增强现实等。基于单个照片的人体动画可以在各种应用中特别有用。例如,照片上的人可以通过执行类似于真实视频的动作来“活过来”(例如,跳舞、表演杂技、打架等等)。基于一张照片的人的身体动画需要创建一个特定人的身体的真实模型,并让模型在场景中执行动作或交互。
发明内容
以简化形式提供此部分来介绍一系列概念,一系列概念将在以下的具体实施方式部分进行进一步描述。此发明内容不旨在标识要求保护的主题的关键特征或必要特征,也不旨在用于帮助确定要求保护的主题的范围。
根据本公开的一个实施例,提供了一种用于使人体的单个图像成动画并应用效果的方法。该方法可以包括由计算机装置提供运动数据库。该方法可以允许由计算装置接收输入图像。输入图像包括人的身体。该方法可以包括由计算装置接收包括从运动数据库中选择的运动的用户输入。该方法可以包括由计算装置将输入图像分割成身体部分和背景部分。身体部分包括与人的身体相对应的输入图像的像素。该方法可以包括由计算装置并基于身体部分和所选择的运动来生成以重复所选择的运动的人的身体为特征的视频。该方法可以包括由计算装置显示所生成的视频。
该方法还可以包括由计算装置接收另一个用户输入。另一个输入可包括至少一个社交网络的名称。该方法可以包括由计算装置在至少一个社交网络中的计算装置的用户的时间线上发布所生成的视频。
该方法可包括在生成视频之前,由计算装置接收另一个用户输入。另一个用户输入可以包括从列表中选择的衣服。该方法可以包括,在生成视频时,将视频的帧中的人的衣服替换为所选择的衣服。
该方法可包括在生成视频之前,由计算装置接收另一个用户输入。另一个用户输入可以包括从场景列表中选择的场景。该方法可以包括,在生成视频时,将视频的帧的背景替换为所选择的场景。
该方法可包括在生成视频之前,由计算装置接收另一个用户输入。另一个用户输入可以包括从照明效果列表中选择的照明效果。该方法可以包括,在生成视频时,将照明效果应用于视频的帧。
该方法可包括在生成视频之前,由计算装置接收另一个用户输入,该另一个用户输入包括从对象列表中选择的对象。该方法可以包括,在生成视频时,将所选择的对象添加到视频的帧中。添加所选择的对象可以包括将所选择的对象附加到人的手。
该方法可包括在生成视频之前,将身体部分适配到头发模型。该方法可以包括,在生成视频时,检测视频的帧中与人的头部相关联的关键点的位置,并基于关键点的位置和头发模型生成人的头发的图像。该方法可以包括在帧中插入头发的图像。
该方法可以包括由计算装置捕获执行自定义运动的人的自定义视频。该方法可以包括基于自定义视频确定表示自定义运动的一组参数。该方法可以包括将一组参数作为新的运动添加到运动数据库中。
在生成视频时,该方法可包括确定已生成视频的预定数量的帧,其中,该预定数量小于所生成的视频中的帧的总数量。该方法还可以包括在生成视频的其余帧时显示视频的预定数量的帧。
视频的生成可以包括从所选择的运动中生成采用至少一个姿势的人的身体的图像。视频的生成可进一步包括基于背景部分和图像生成帧。视频的生成可进一步包括通过应用一个或多个视觉效果来修改帧。视觉效果可以包括照明效果、背景替换、衣服替换和环境对象的插入。
视频的生成可包括生成采用来自所选择的运动的姿势的人的身体的一组图像。视频的生成还可以包括将每组图像与来自一组预生成的背景场景的背景场景叠加以生成帧。可以通过将一个或多个视觉效果应用于背景场景来修改一组预生成背景场景的每个背景场景。视觉效果可以包括照明效果、背景替换、衣服替换和环境对象的插入。
根据另一实施例,提供了一种用于使人体的单个图像成动画并应用效果的系统。该系统可以包括至少一个处理器和存储处理器可执行代码的存储器,其中,该至少一个处理器可以被配置为实现上述方法的操作,用于使人体的单个图像成动画并在执行处理器可执行代码时应用效果。
根据本公开的又一个方面,提供了一种存储处理器可读指令的非瞬时处理器可读介质。当处理器可读指令由处理器执行时,它们使处理器实现上述用于使人体的单个图像成动画并应用效果的方法。
示例的附加目的、优点和新颖特征将部分地在下面的描述中阐述,并且通过检查以下描述和附图,对于本领域技术人员将部分变得显而易见,或者可以通过示例的生产或操作而获知。概念的目的和优点可以通过在所附权利要求中特别指出的方法、工具和组合来实现和获取。
附图说明
在附图的各图中以示例及非限制的方式示出实施例,其中相同的参考标记表示相似的元件。
图1示出了根据一些实施例的示例环境,其中,可以实践用于使人体的单个图像成动画并应用效果的方法。
图2是示出根据一些实施例的用于实现使人体的单个图像成动画并应用效果的方法的示例计算装置的框图。
图3是示出根据一些示例实施例的用于人的基于单个图像的动画和应用效果的应用程序的模块的框图。
图4是示出根据示例实施例的用于使人体的单个图像成动画并应用效果的库的模块的框图。
图5示出了根据示例实施例的包括表示手510的关节点的骨架的一部分。
图6示出了输入图像、头发掩模、翘曲到输入图像的头发掩模的图像和应用到输入图像的头发掩模的图像。
图7示出了根据示例实施例的示例三角形网格和一组示例控制点。
图8至图12B示出了根据一些示例实施例的用于使人的单个图像成动画并应用效果的应用程序的示例用户界面的屏幕。
图13是示出根据一个示例实施例的用于使人体的单个图像成动画并应用效果的方法的流程图。
图14示出了可用于实现在此描述的方法的示例计算系统。
具体实施方式
实施例的以下详细说明包括对附图的参考,附图形成详细说明的一部分。此部分中描述的方法不是权利要求的现有技术且通过包含在此部分中而不被承认为现有技术。附图示出根据示例性实施例的例示。这些示例性实施例(在本文中也被称为“示例”)被足够详细地描述以使所属领域中的技术人员能够实践本主题。在不背离要求保护的范围的条件下,可对实施例进行组合,可利用其他实施例或者可进行结构、逻辑及操作上的改变。因此,以下详细说明不应被视为具有限制性意义且范围由所附权利要求及其等效内容界定。
就本专利文件的目的而言,除非另有说明或在其使用上下文中另有明确的意图,否则用语“或(or)”和“及(and)”应指“及/或(and/or)”。除非另有说明或者使用“一个或多个”明显不合适,否则用语“一个(a)”应指“一个或多个(one or more)”。用语“包括(comprise)”、“包括(comprising)”、“包括(include)”及“包括(including)”是可互换的而并非旨在进行限制。例如,用语“包括(including)”应被解释为“包括但不限于”。
本公开涉及用于使人体的单个图像成动画并应用效果的方法、系统和移动应用程序。本公开的方法和系统可以被设计成在移动装置(例如智能手机、平板计算机或移动电话)上实时地工作,而无需连接到互联网或需要使用服务器端计算资源,尽管实施例可以扩展到涉及web服务或基于云的资源的方法。虽然将参考移动装置的操作来描述本技术的一些实施例,但是本技术可以使用各种技术在诸如个人计算机、服务器、网络节点等的其他计算装置上实施。例如,本文所描述的方法可以通过在计算机系统上运行的软件和/或通过利用微处理器或其他特定设计的专用集成电路(ASIC)、可编程逻辑器件的组合或其任何组合的硬件来实现。特别地,这里描述的方法可以通过驻留在诸如磁盘驱动器或计算机可读介质的非瞬时存储介质上的一系列计算机可执行指令来实现。
本公开的一些实施例可以允许人的身体的单个图像的实时动画并应用效果。在一些实施例中,提供了一种应用程序。该应用程序可以接收人的图像并执行图像的分割和姿势估计。图像的分割可以包括确定表示人在图像中的区域的像素的“掩模”。可以使用第一专门训练的神经网络来执行分割。第二神经网络可以用来检测人的“骨架”,即表示头部、肩膀、胸部、腿、手等的一组关键的关键点。
表示图像中人的面积和骨架的像素的“掩模”可用于由应用程序生成人的近似(通用)模型。可以使用第三神经网络来执行通用模型的生成。该通用模型可以以三维(3D)网格的形式与一组姿势和形状参数的形式生成。姿势和形状参数可以进一步用于动画。
应用程序可以进一步调整通用模型,以获取完美适配人的轮廓和形状的重构模型。该应用程序可以从输入图像中提取纹理并生成纹理映射以对该人进行着装。或者,该应用程序可以允许用户利用表示其他所期望的衣服的另一纹理映射来替换该纹理映射。
应用程序可以进一步允许用户从运动数据库中选择运动。运动可以用一系列姿势参数来表示。接下来,应用程序可以通过将一系列姿势参数传递给重构模型以生成输出视频,从而基于选择的运动对重构模型进行动画处理。可以使用先前创建的纹理映射来修饰重构模型。该应用程序还可以允许选择一个特殊的场景或背景。应用程序可以在选择的场景或背景中插入重构模型。该应用程序可以允许通过社交媒体网络保存输出视频或分享输出视频。
现在参照附图描述示例性实施例。附图是理想化示例性实施例的示意性例示。因此,本文中所论述的示例性实施例不应被理解为限制于本文中呈现的特定例示,相反,这些示例性实施例可包括偏差且不同于本文中呈现的例示,对于所属领域中的技术人员来说应显而易见。
图1示出了示例环境100,其中,可以实践用于使人体的单个图像成动画并应用效果的方法。环境100可以包括计算装置105和用户130。计算装置105可以包括相机115和图形显示系统120。计算装置105可以指移动装置,例如移动电话、智能电话或平板计算机。然而,在其他实施例中,计算装置105可以指代个人计算机、膝上型计算机、上网本、机顶盒、电视装置、多媒体装置、个人数字助理、游戏控制台、娱乐系统或任何其他计算装置。
在某些实施例中,计算装置105可被配置为经由例如相机115捕获人130的输入图像125。输入图像125可以包括身体部分140和背景部分145。身体部分140可以包括表示输入图像中的人130的身体的输入图像125的像素。在一些其他实施例中,人的图像可以存储在计算装置105的存储器中或存储在计算装置105通信连接到的基于云的计算资源中。
在本公开的一些实施例中,计算装置105可被配置为允许从运动数据库中选择运动。计算装置100还可以基于所选择的运动和输入图像125生成视频155。视频155可以包括重复所选择的运动的人130的图像。视频155可以使用图形显示系统120显示,存储在计算装置105的存储器中或存储在计算装置105通信连接到的基于云的计算资源中。计算装置105可被配置为允许选择社交媒体网络的类型并经由社交媒体网络分享视频155。
在图2所示的示例中,计算装置105可以包括硬件组件和软件组件两者。具体地,计算装置105可以包括相机115和可选的深度相机215以获取数字图像。计算装置105还可以包括一个或多个处理器210和存储器215,用于存储软件组件和处理器可读(机器可读)指令或代码,当由处理器210执行时,这些指令或代码使计算装置105执行用于如本文所述的使人体的单个图像成动画和应用效果的方法的至少一些步骤。在一些实施例中,存储器215可以包括用于对人进行基于单个图像成动画和应用效果的应用程序220。在一些实施例中,处理器210可以包括图像处理器(例如,图形处理单元)。
图形显示系统120可以被配置为提供用户图形界面。在一些实施例中,与图形显示系统120相关联的触摸屏可用于接收来自用户的输入。一旦用户触摸屏幕,可以通过图标或文本按钮将这些选项提供给用户。
通信模块230可包括可操作以经由数据网络在计算装置105和远程计算资源之间传送数据的模块。远程计算资源可以提供对一个或多个社交媒体网络的访问。在各种实施例中,通信模块230可包括蓝牙TM模块、红外(IR)模块、Wi-Fi模块等。
图3是示出根据一些示例实施例的应用程序220的模块的框图,该模块用于对人进行基于单个图像的成动画并应用效果。应用程序220可以包括库310,库310包括用于使人体的单个图像成动画和应用效果的模块,以及用于与用户交互的用户界面305。
图4是示出根据示例实施例的用于使人体的单个图像成动画并应用效果的库310的模块的框图。库310可以包括分割和姿势估计模块405、通用模型适配模块410、重构模块415、装配和蒙皮模块420、纹理模块425、运动数据库430和动画模块445。模块405、410、415、420、425、430和435在美国申请第16/434,185号中详细描述,该申请作为参考全文并入本文。库310还可以包括头发动画模块435、自定义运动捕获模块450和效果应用模块440。
分割和姿势估计模块405可以被配置为接收输入图像125。输入图像125可以包括表示人的身体部分140的图像的像素。模块405可被配置为生成分割掩模。分割掩模可以是显示输入图像125上的人的轮廓的图像。分割掩模可以进一步提供给重构模块415和纹理模块425。
模块405还可以基于输入图像125确定输入图像125中的身体姿势。姿势可以以图形的形式确定。该图形可以包括一组关键点和连接一些关键点的边缘。
通用模型适配模块410可被配置为基于输入图像和关键点的图形生成通用模型。通用模型可以表示一般人的外貌和该人的姿势。通用模型可以包括形状参数。形状参数可以包括表示人的身体形状的3D点的向量。该通用模型还可以包括姿势参数的向量,其中,每个姿势参数确定身体的至少一个关节的轴角旋转。身体的关节可以对应于关键点图形中的关键点。在一些实施例中,通用模型可用于生成表示人的身体的网格。
可将通用模型设计得足够复杂,以涵盖人的各种形状以及姿势。通用模型在计算方面并不复杂。通用模型可以是固定零模型的参数化函数、形状参数及姿势参数。通用模式可表示真人可执行的各种不同形状及姿势的人体。将通用模型表示为参数化函数可使得能够节省计算装置的存储器,且可使得能够使用优化的矩阵计算来计算运动,以提高计算速度。
在一些实施例中,由通用模型学习的参数可包括蒙皮权重、形状系数、姿势参数及关节回归因子。蒙皮权重可表示用于确定每一个关节如何影响与通用模型相关联的网格的每一个顶点的值。网格可表示人的身体的形状。可使用蒙皮权重对网格进行动画绘制。蒙皮权重可由Njoints×Nvertices矩阵表示,其中,Njoints是关节的数量,且Nvertices是网格中的顶点的数量。形状系数可用于使用形状参数变更初始通用模型,以使通用模型在身高、体重、腰围、低臀围等方面适当成形。关节回归因子可包括用于确定人的关节相对于人的形状的初始位置的值。关节回归因子可由与蒙皮权重的矩阵相似的矩阵来表示。在训练之后,通用模型可基于一组形状参数及一组姿势参数生成人体的形状及姿势。可以使用神经网络将通用模型适配到输入图像125。可以将通用模型提供给重构模块415。
重构模块415可被配置为基于通用模型和分割掩模生成将在动画中使用的3D模型。该通用模型可以描述有限空间的人体形状。通用模型可能不表示人的衣服、头发和其他特定细节。通用模型可用于创建3D模型。3D模型可以描绘特定人的形状的尽可能多的细节。具体地说,3D模型可以被构造成基本上精确地适配输入图像中的人的轮廓。换句话说,可以构造3D模型以覆盖分割掩模中的轮廓。在进一步的实施例中,3D模型可以被构造成覆盖输入图像上的头发和衣服,以使3D模型的动画看起来逼真。
3D模型可以包括由3D空间中的一组关节点表示的骨架。关节点可以指示身体中关节的位置。骨架可以由专业的3D装配工和动画师建造。骨架可以允许支持大范围的运动,捕获运动中的所有细微之处。骨架可以包括比在模块410中生成的通用模型的关键点的图形更多的点。例如,骨架可能包括脊椎和四肢区域的关节点,尤其是手掌。因此,骨架可以允许表达比通用模型的关键点的图形更复杂的运动。
图5示出了根据示例实施例的包括表示手510的关节点的骨架520的一部分。
返回图4,模块415可进一步基于3D模型生成重构网格。重构网格可以包括不同于通用模型的网格的3D点的3D点。重构网格的每个点都可以被分配一组蒙皮权重。每个蒙皮权重可以与至少一个关节点相关联。3D模型可进一步用于在重构网格上生成纹理。
装配和蒙皮模块420可以确定由模块415生成的重构网格中顶点的蒙皮权重。关节点的蒙皮权重和位置可以进一步用于使网格成动画。
纹理模块425可以为重构网格生成纹理映射。可以使用输入图像和分割掩模来生成纹理映射。纹理映射的生成可以包括重构网格的UV展开以获取UV纹理映射。纹理映射可以以这样的方式设计,即所有其他重构网格具有相同的UV纹理映射,即使其他重构网格因轮廓、顶点数量和面而不同。这可以允许将纹理从为输入图像和分割掩模生成的一个重构网格转移到为相同输入图像和相同分割掩模生成的另一个重构网格。这也允许修改纹理映射以改变例如输入图像中的颜色和衣服。
UV展开可以定义为将3D对象的表面展平为2D表面的过程。U和V是2D表面上的点的顶点的坐标(也称为纹理坐标)。
动画模块435可以基于一系列多组姿势参数来生成以输入图像中的人的运动为特征的输出视频的帧。一系列多组姿势参数可以存储在运动数据库430中。一系列多组姿势参数可以表示至少一个运动。一系列多组姿势参数中的每一组可用于生成输出视频的一帧。可以使用由真实演员执行的移动的运动捕获并将该移动数字化来获取一系列多组姿势参数。在一些实施例中,移动的捕获可以包括借助带有传感器的特殊手套捕获专业人员手指的移动。
在一些实施例中,一系列多组姿势参数可以由在编辑器中利用通用模型操作的3D运动设计器人工生成。运动数据库430可以包括表示不同预定运动的不同系列多组姿势参数。预定运动可以包括舞蹈、杂技、与环境场景和对象的交互等等。
输出视频的每一帧可以通过使用对应于姿势的一组姿势参数重新计算3D模型来生成。结果,可以使用纹理映射生成重构网格的顶点在3D空间中的新位置并进行纹理化,以生成采用该姿势的人的身体的图像。人的身体的图像可以插入到帧中。
在生成输出视频的帧之后,可以使用图形显示系统显示输出视频。在一些实施例中,可以在未完全生成输出视频时开始播放输出视频。到那个时候完全渲染的每一帧都可以在渲染输出视频的其余帧完成之前显示。这可以减少用户等待时间。
效果应用模块440可将一个或多个效果应用于输出视频的帧。可以在动画模块445生成视频时将效果应用于帧。效果可以包括,例如,在输入图像中替换人的衣服、场景的改变和场景的照明、在场景中添加另一对象等。可以通过用户界面305选择效果。
可以使用至少两种方法来执行应用效果,包括例如照明、背景替换、衣服替换、环境对象的插入。第一种方法可以包括用人的身体的渲染图像和显示效果的背景场景渲染每一帧的整体。第二种方法可以包括与显示效果的背景场景的图像分开渲染人的身体的图像。此后,第二种方法可以继续用效果叠加人的身体的图像和背景场景的图像,以生成视频的帧。第二种方法可能是优选的,因为它允许预先计算视频中场景的某些部分,并因此生成复杂的和真实感的场景。然而,第二种方法可能需要将预处理图像下载到计算装置105。用于生成视频的第一种方法不需要向计算装置105下载额外数据,并且允许生成比第二种方法更多的与背景场景的交互。然而,第一种方法比第二种方法计算开销更大,耗时更长。
自定义运动捕获模块450可以允许记录具有执行自定义运动的人的视频。模块450还可以基于视频确定与人的自定义运动相对应的一系列多组姿势参数,并将一系列多组姿势参数作为新的运动添加到运动数据库430中。
头发动画模块435可以生成输入图像中的人的头发模型,并在输出视频的帧中使头发模型成动画。头发模型可以基于人的头部的移动和旋转来生成动画。
头发动画模块435可以执行以下步骤:对发型进行分类、修改头发的外观、修剪头发以及使头发成动画。当头发不完全在人的输入图像的内部时,头发的动画是很重要的。
头发的分类可能包括确定以下发型:“直的”、“波浪的”、“卷曲的”、“长的”和“短的”。分类是发型和头发的物理参数选择所需要的。用户界面可以允许用户修改头发颜色和发型。头发颜色和发型的改变可以通过调整颜色统计或为头发选择另一个纹理来进行。对于长发,可以通过使用翘曲变换增加发量,让头发看起来更有魅力。
为了在动画中获取更好的视觉头发外观,头发不应该具有任何形状伪像,如单个发丝的分离、分割错误或与其他对象或输入图像边框重叠的头发。头发可以通过适配参考掩模来修剪,以避免形状伪影。
图6示出了根据示例实施例的输入图像605、头发掩模610、翘曲到输入图像605的头发掩模的图像615和应用到输入图像605的头发掩模610的图像620。
可以从准备好的集合中选择适合用户发型的掩模。然后可以翘曲选择的掩模以调整输入图像上的头发。头发也可以变换,看起来更匀称。用户可以选择另一种发型来使头发变长或变短,或者将头发修剪或翘曲成另一种形状。对于头发的动画,三角形网格和一组控制点可以用于头发模型的动画。
图7示出了根据示例实施例的示例三角形网格710和一组示例控制点。控制点的移动可以使用自定义物理引擎基于头部740的移动来计算。控制点可以包括固定的控制点720和移动控制点730。固定的控制点720可以放置在面部的边界上,以防止面部附近的头发过度移动。移动控制点730可以放置在头发上。移动控制点730可以用作头发动画的输入。
移动控制点730的放置以及移动控制点730相对于彼此和相对于固定的控制点720的相对位置可以取决于发型。对于典型的长直发,移动控制点730可以放置在发丝上并以链的形式相互绑定。根控制点750可以绑定到头部。对于其他发型,移动控制点730可以不同地放置。移动控制点730可以以特殊的方式放置以创建复杂的效果。复杂的效果可能包括头发在风中吹动的效果。
在动画期间,每个移动控制点730相对于其父控制点朝向其最合适的位置移动。移动控制点A的父控制点是来自链的移动控制点B,使得移动控制点B位于比移动控制点A更靠近头部的位置。移动控制点730的最合适位置可以受重力向量和头发长度的设定参数的影响。控制点的移动向量受最合适的位置和存储的速度比例、加速度因子和头发长度压缩的设定参数的影响。
当头部740移动或旋转时,根控制点750与头部740一起移动,因为根控制点750固定在头部上。根控制点750的位置确定链中所有其他移动控制点730的最合适位置的变化。三角形网格710的每个点依次基于移动控制点的移动而移动。因此,移动控制点730的移动启动头发动画。
通过使用得到的网格对头发图像进行翘曲,可以获取用于帧的最终头发图像。用户界面可以允许用户在场景中变更物理参数,以创建不同的效果,如风、零重力或湿发效果。自定义头发动画的另一个选择是创建虚拟头部运动。在动画过程中,头发可以跟随虚拟头部移动,而视觉头部位置不变。这种效果对于生成头发比头部晃动得更快或更慢的视频是有用的。
图8示出了根据示例实施例的应用程序220的示例用户界面的屏幕800。屏幕800包括要被变为动画的人的输入图像125、相机图标805、运动选择图标810、衣服选择图标815、照明设置图标820、用于选择对象的图标825、背景(场景)选择图标830和视频导出图标835。
用户界面可以允许用户通过选择相机图标805来拍摄照片。这张照片可以用来创建一个新的3D动画模型。可选地,用户界面还可以允许用户选择基于之前拍摄的照片生成并由应用程序220保存在计算装置105的存储器中的现有3D模型中的一个。
在图8的示例中,选择背景选择图标830。用户界面提供背景(场景)的列表840。每个场景都可以以小图像片段或短视频的形式呈现在用户界面中。用户可以选择用于渲染视频的场景。场景可以包括背景,并且可选地包括一些周围的对象。用户可以选择生成具有与输入图像125中的背景相同的背景的视频。用户界面还可以允许用户通过上传或制作将用作背景的照片来添加自定义场景。
用户界面还可以允许经由衣服选择图标815、照明设置图标820、用于选择手中的对象的图标825和背景(场景)选择图标830选择设置。然后,用户界面可以调用库310的模块,以基于所选择的设置来生成和处理输出视频的帧。
图9示出了根据示例实施例的应用程序220的示例用户界面的屏幕900。屏幕900包括要被变为动画的人的输入图像125、相机图标805、运动选择图标810、衣服选择图标815、照明设置图标820、用于选择对象的图标825、背景(场景)选择图标830和视频导出图标835。
在图9的示例中,选择用于选择对象的图标825。用户界面提供了对象的列表910,这些对象可以在以执行所选择的运动的人为特征的输出视频的帧生成期间添加到人的模型的手上。每个对象都可以在用户界面中以一个小图像片段的形式呈现。
在生成的视频的帧中,可以将对象添加到执行运动的人的手上。对象可以以一种看起来自然的方式插入到手中。在一些实施例中,帧可能以与周围场景中的其他对象一起操作的人为特征。例如,帧可能以一个人用激光剑战斗为特征。对象的插入可以通过建立整体3D场景来进行,其中,在执行舞蹈或其他运动时放置人的模型,然后渲染整个场景。
图10示出了根据示例实施例的应用程序220的示例用户界面的屏幕1000。屏幕1000包括生成的输出视频的帧1005、相机图标805、运动选择图标810、衣服选择图标815、照明设置图标820、用于选择对象的图标825、背景(场景)选择图标830、发型选择图标830和视频导出图标835。在图10的示例中,选择视频导出图标835。用户界面提供用于通过社交媒体网络保存视频或分享视频的选项列表1010。
社交媒体网络可以是目前市场上可用的社交媒体网络之一。然而,对于本领域的技术人员来说应该是显而易见的,图2和图3中所示的应用程序220可以被实现为独立的社交媒体平台,用于生成和分享视频、场景、自定义移动、自定义背景场景、场景照明的自定义效果、衣服和发型、背景和消息等。
图11示出了根据示例实施例的应用程序220的示例用户界面的屏幕1100。屏幕1100包括生成的输出视频的帧1105、相机图标805、运动选择图标810、衣服选择图标815、照明设置图标820、用于选择对象的图标825、背景(场景)选择图标830、视频导出图标835和发型选择图标1110。在图11的示例中,选择发型选择图标1110。用户界面提供用于为视频中的人的模型选择发型的选项列表1115。帧1105还示出将人的衣服替换为用户选择的其他衣服。此外,照明效果和动态被添加到输出视频的帧中。
用户界面可以允许用户将输入图像中的人穿着的衣服替换为来自集合的任何其他衣服或服装。改变衣服的选项通过衣服选择图标815提供。服装的集合可以包括传统服装、铁人的服装、圣诞老人服装等。用户可以为所选择的场景或所选择的运动场景选择适当的衣服。可以通过改变图4中描述的纹理模块425中的纹理映射来执行衣服的替换。改变衣服的选项可用作虚拟衣柜;也就是说,用户可以选择并检查特定服装是否适合视频中的人的模型。
帧1105还显示了场景上的照明发生了变化并且动态被添加到视频中。用户界面可以允许用户从预定效果的集合中选择用于照明和动态的效果。可以通过照明设置图标820提供用于选择照明和动态效果的选项。
选择适当的照明效果可以允许生成以发生在黄昏或迪斯科闪电中的场景为特征的视频,同时该人表演舞蹈。通过为输出视频中的每一帧设置光点和光强度,可以通过适当的渲染器调整来实现这种效果。此外,通过对渲染器应用调整,可以针对每一帧改变相机的位置,以向动画添加动态效果。
图12A示出了根据示例实施例的应用程序220的示例用户界面的屏幕1210。屏幕1210包括生成的输出视频的帧1205、相机图标805、运动选择图标810、衣服选择图标815、照明设置图标820、用于选择手中对象的图标825、背景(场景)选择图标830、视频导出图标835和发型选择图标1110。
在图12A的示例中,选择运动选择图标810。用户界面提供了通过图标1210浏览运动、通过图标1215选择运动和通过图标1220捕获自定义运动的附加选项。用户界面还提供来自图4所示的运动数据库430的预定运动的列表1225。
图12B示出了根据示例实施例的应用程序220的示例用户界面的屏幕1210。应用程序220包括自定义运动捕获模块450(在图4中示出),允许用户界面捕获自定义运动。自定义运动捕获模块450可以确定由计算装置的相机捕获的图像中的人的轮廓1230的边界。然后,用户可以触摸“捕获运动”按钮1235以记录执行自定义运动的人的视频。自定义运动捕获模块450还可以确定与自定义运动相对应的一系列多组姿势参数,并将一系列多组姿势参数作为新的运动添加到运动数据库430。用户可以与运动数据库中的其他预定运动相同的方式进一步使用新的运动来使不同的输入图像成动画(即,将它们应用于不同的模型)。新的运动可以与其他用户分享(例如,通过社交媒体网络),因此其他用户可以将新的运动应用于他们的输入图像。
图13是示出根据一个示例实施例的用于使人体的单个图像成动画并应用效果的方法1300的流程图。方法1300可以由计算装置105执行。
在框1305中,方法1300可以开始于由计算机装置提供运动数据库。
在框1310中,方法1300可包括由计算装置接收输入图像,该输入图像包括人的身体。
在框1315中,方法1300可包括由计算装置接收用户输入,该用户输入包括从运动数据库中选择的运动。
在框1320中,方法1300可包括由计算装置将输入图像分割成身体部分和背景部分。身体部分可以包括对应于人的身体的像素。
在框1325中,方法1300可包括由计算装置并基于身体部分和所选择的运动来生成以重复所选择的运动的人的身体为特征的视频。生成视频可包括基于身体部分生成人的身体的3D模型,以及基于一系列姿势参数渲染3D模型。一系列姿势参数由所选择的运动来定义。
在框1330中,方法1300可包括由计算装置显示所生成的视频。
图14示出了可用于实现在此描述的方法的示例计算系统1400。计算系统1400可以在诸如计算装置105的上下文中实现。
如图14所示,计算系统1400的硬件组件可以包括一个或多个处理器1410和存储器1420。存储器1420部分存储由处理器1410执行的指令和数据。当系统1400在操作中时,存储器1420可以存储可执行代码。系统1400还可以包括可选的大容量存储装置1430、可选的便携式存储介质驱动器1440、一个或多个可选的输出装置1450、一个或多个可选的输入装置1460、可选的网络接口1470和一个或多个可选的外围装置1480。计算系统1400还可以包括一个或多个软件组件1495(例如,可以实现如本文所述的用于肖像动画的方法的软件组件)。
图14中所示的组件被描绘为经由单个总线1490连接。组件可以通过一个或多个数据传输装置或数据网络连接。处理器1410和存储器1420可以经由本地微处理器总线连接,并且大容量存储装置1430、外围装置1480、便携式存储装置1440和网络接口1470可以经由一个或多个输入/输出(I/O)总线连接。
可以用磁盘驱动器、固态磁盘驱动器或光盘驱动器实现的大容量存储装置1430是用于存储供处理器1410使用的数据和指令的非易失性存储装置。大容量存储装置1430可以存储用于实现本文描述的实施例的系统软件(例如,软件组件1495)。
便携式存储介质驱动器1440与便携式非易失性存储介质(例如压缩盘(CD)或数字视频盘(DVD))结合操作,以向计算系统1400输入和输出数据和代码。用于实现本文描述的实施例的系统软件(例如,软件组件1495)可以存储在这样的便携式介质上,并经由便携式存储介质驱动器1440输入到计算系统600。
可选的输入装置1460提供用户界面的一部分。输入装置1460可以包括用于输入字母数字和其他信息的字母数字小键盘,例如键盘,或者指向装置,例如鼠标、轨迹球、触笔或光标方向键。输入装置1460还可以包括相机或扫描仪。另外,如图14所示的系统1400包括可选的输出装置1450。合适的输出装置包括扬声器、打印机、网络接口和监视器。
网络接口1470可用于经由一个或多个通信网络(诸如一个或多个有线、无线或光学网络,包括例如因特网、内联网、LAN、WAN、蜂窝电话网络、蓝牙无线电和基于IEEE 802.11的射频网络等)与外部装置、外部计算装置、服务器和联网系统通信。网络接口1470可以是网络接口卡,例如以太网卡、光收发器、射频收发器或任何其他类型的能够发送和接收信息的装置。可选的外围装置1480可以包括任何类型的计算机支持装置,以向计算机系统添加附加功能。
包含在计算系统1400中的组件旨在表示计算机组件的广泛类别。因此,计算系统1400可以是服务器、个人计算机、手持计算装置、电话、移动计算装置、工作站、小型机、大型计算机、网络节点或任何其他计算装置。计算系统1400还可以包括不同的总线配置、联网平台、多处理器平台等。可以使用各种操作系统(OS),包括UNIX、Linux、Windows、MacintoshOS、Palm OS和其他合适的操作系统。
上述功能中的一些功能可由存储在存储介质(例如,计算机可读介质或处理器可读介质)上的指令组成。指令可由处理器检索及执行。存储介质的一些示例是存储器装置、磁带、磁盘等。当由处理器执行时,指令可进行操作以指导处理器根据本发明进行操作。所属领域中的技术人员熟悉指令、处理器及存储介质。
值得注意的是,适合执行本文中描述的处理的任何硬件平台均合适与本发明一起使用。本文中使用的用语“计算机可读存储介质(computer-readable storage medium)”及“计算机可读存储介质(computer-readable storage media)”是指参与向处理器提供指令以供执行的任何介质。此种介质可采取多种形式,包括但不限于非易失性介质、易失性介质及传输介质。非易失性介质包括例如光盘或磁盘,例如固定盘。易失性介质包括动态存储器,例如系统随机存取存储器(RAM)。传输介质包括同轴电缆、铜配线及光纤等,包括包含总线的一个实施例的配线。传输介质也可采用声波或光波的形式,例如在射频(RF)及红外(IR)数据通信期间生成的声波或光波。计算机可读介质的常见形式包括例如软磁盘、软盘、硬盘、磁带、任何其他磁介质、光盘只读存储器(ROM)盘、DVD、任何其他光学介质、具有标记或孔图案的任何其他物理介质、RAM、可编程只读存储器(PROM)、电可编程只读存储器(EPROM)、电可擦可编程只读存储器(EEPROM)、任何其他存储芯片或盒式磁盘、载波或计算机可读取的任何其他介质。
在将一个或多个指令的一个或多个序列传送到处理器以供执行时,可涉及各种形式的计算机可读介质。总线将数据传送到系统RAM,处理器从系统RAM检索并执行指令。系统处理器接收到的指令可在处理器执行之前或之后可选地存储在固定磁盘上。
因此,已描述用于基于单个图像的实时身体动画的方法及系统。尽管已参照具体的示例性实施例描述了实施例,然而显而易见的是,在不背离本申请的更广泛的精神及范围的条件下,可对这些示例性实施例进行各种修改及改变。因此,说明书及附图被认为是示例性的而不是限制性的。
Claims (24)
1.一种用于使人体的单个图像成动画并应用效果的方法,所述方法包括:
由计算装置提供运动数据库;
由所述计算装置接收输入图像,所述输入图像包括人的身体;
由所述计算装置接收用户输入,所述用户输入包括从所述运动数据库中选择的运动;
由所述计算装置将所述输入图像分割成身体部分和背景部分,其中,所述身体部分包括所述输入图像的像素,所述像素对应于所述人的身体;
由所述计算装置并基于所述身体部分和选择的所述运动,生成以重复选择的所述运动的所述人的身体为特征的视频;以及
由所述计算装置显示生成的所述视频。
2.根据权利要求1所述的方法,进一步包括:
由所述计算装置接收另一个用户输入,所述另一个输入包括至少一个社交网络的名称;以及
由所述计算装置在至少一个所述社交网络中的所述用户的时间线上发布生成的所述视频。
3.根据权利要求1所述的方法,进一步包括:
在生成所述视频之前,由所述计算装置接收另一个用户输入,所述另一个用户输入包括从列表中选择的衣服;以及
在生成所述视频时,将所述视频的帧中的所述人的衣服替换为选择的所述衣服。
4.根据权利要求1所述的方法,进一步包括:
在生成所述视频之前,由所述计算装置接收另一个用户输入,所述另一个用户输入包括从场景列表中选择的场景;以及
在生成所述视频时,将所述视频的帧的背景替换为选择的所述场景。
5.根据权利要求1所述的方法,进一步包括:
在生成所述视频之前,由所述计算装置接收另一个用户输入,所述另一个用户输入包括从照明效果列表中选择的照明效果;以及
在生成所述视频时,将所述照明效果应用于所述视频的帧。
6.根据权利要求1所述的方法,进一步包括:
在生成所述视频之前,由所述计算装置接收另一个用户输入,所述另一个用户输入包括从对象列表中选择的对象;以及
在生成所述视频时,将选择的所述对象添加到所述视频的帧中。
7.根据权利要求6所述的方法,其中,选择的所述对象的添加包括将选择的所述对象附加到所述人的手。
8.根据权利要求1所述的方法,进一步包括:
在生成所述视频之前:
将所述身体部分适配到头发模型;
在生成所述视频时:
检测与所述视频的帧中的所述人的头部相关联的关键点的位置;
基于所述关键点的位置和所述头发模型生成所述人的头发的图像;以及
在所述帧中插入所述头发的图像。
9.根据权利要求1所述的方法,进一步包括:
由所述计算装置捕获执行自定义运动的所述人的自定义视频;
基于所述自定义视频确定表示所述自定义运动的一组参数;以及
将一组所述参数作为新的运动添加到所述运动数据库中。
10.根据权利要求1所述的方法,其中,显示生成视频包括:
确定所述视频的预定数量的帧已经生成,所述预定数量小于生成的所述视频中的帧的总数量;以及
在所述视频的其余帧正在生成时显示所述视频的预定数量的帧。
11.根据权利要求1所述的方法,其中,生成所述视频包括:
从选择的所述运动中生成采用至少一个姿势的人的所述身体的图像;
基于所述背景部分和所述图像生成帧;以及
通过应用一个或多个视觉效果来修改所述帧,其中,一个或多个所述视觉效果包括照明效果、背景替换、衣服替换和环境对象的插入。
12.根据权利要求1所述的方法,其中,生成所述视频包括:
从选择的所述运动中生成采用姿势的人的所述身体的一组图像;以及
将一组所述图像中的每一个与来自一组预生成的背景场景的背景场景叠加以生成一系列帧,其中,通过应用一个或多个视觉效果来修改一组预生成的所述背景场景中的每一个,其中,一个或多个所述视觉效果包括照明效果、背景替换、衣服替换和环境对象的插入。
13.一种用于使人体的单个图像成动画并应用效果的系统,所述系统包括至少一个处理器和存储处理器可执行代码的存储器,其中,至少一个处理器被配置为在执行所述处理器可执行代码时实现以下操作:
提供运动数据库;
接收输入图像,所述输入图像包括人的身体;
接收用户输入,所述用户输入包括从所述运动数据库中选择的运动;
将所述输入图像分割成身体部分和背景部分,其中,所述身体部分包括所述输入图像的像素,所述像素对应于所述人的身体;
基于所述身体部分和选择的所述运动,生成以重复选择的所述运动的所述人的身体为特征的视频;以及
显示生成的所述视频。
14.根据权利要求13所述的系统,进一步包括:
接收另一个用户输入,所述另一个输入包括至少一个社交网络的名称;以及
在至少一个所述社交网络中的所述用户的时间线上发布生成的所述视频。
15.根据权利要求13所述的系统,进一步包括:
在生成所述视频之前,接收另一个用户输入,所述另一个用户输入包括从列表中选择的衣服;以及
在生成所述视频时,将所述视频的帧中的所述人的衣服替换为选择的所述衣服。
16.根据权利要求13所述的系统,进一步包括:
在生成所述视频之前,接收另一个用户输入,所述另一个用户输入包括从场景列表中选择的场景;以及
在生成所述视频时,将所述视频的帧的背景替换为选择的所述场景。
17.根据权利要求13所述的系统,进一步包括:
在生成所述视频之前,接收另一个用户输入,所述另一个用户输入包括从照明效果列表中选择的照明效果;以及
在生成所述视频时,将所述照明效果应用于所述视频的帧。
18.根据权利要求13所述的系统,进一步包括:
在生成所述视频之前,接收另一个用户输入,所述另一个用户输入包括从对象列表中选择的对象;以及
在生成所述视频时,通过将选择的所述对象附加到所述人的手而将选择的所述对象添加到所述视频的帧中。
19.根据权利要求13所述的系统,进一步包括:
在生成所述视频之前:
将所述身体部分适配到头发模型;以及
在生成所述视频时:
检测与所述视频的帧中的所述人的头部相关联的关键点的位置;
基于所述关键点的位置和所述头发模型生成所述人的头发的图像;以及
将所述头发的图像插入到所述帧中。
20.根据权利要求13所述的系统,进一步包括:
由计算装置捕获执行自定义运动的所述人的自定义视频;
基于所述自定义视频确定表示所述自定义运动的一组参数;以及
将一组所述参数作为新的运动添加到所述运动数据库中。
21.根据权利要求13所述的方法,其中,显示生成视频包括:
确定所述视频的预定数量的帧已经生成,所述预定数量小于生成的所述视频中的帧的总数量;以及
在所述视频的其余帧正在生成时显示所述视频的预定数量的帧。
22.根据权利要求13所述的系统,其中,生成所述视频包括:
从选择的所述运动中生成采用至少一个姿势的人的所述身体的图像;
基于所述背景部分和所述图像生成帧;以及
通过应用一个或多个视觉效果来修改所述帧,其中,一个或多个所述视觉效果包括照明效果、背景替换、衣服替换和环境对象的插入。
23.根据权利要求13所述的系统,其中,生成所述视频包括:
从选择的所述运动中生成采用姿势的人的所述身体的一组图像;以及
将一组所述图像中的每一个与来自一组预生成的背景场景的背景场景叠加以生成一系列帧,其中,通过应用一个或多个视觉效果来修改一组预生成的所述背景场景中的每一个,其中,一个或多个所述视觉效果包括照明效果、背景替换、衣服替换和环境对象的插入。
24.一种非瞬时处理器可读介质,具有存储在所述非瞬时处理器可读介质上的指令,当由一个或多个处理器执行时,所述指令使一个或多个所述处理器实现用于使人体的单个图像成动画并应用效果的方法,所述方法包括:
提供运动数据库;
接收输入图像,所述输入图像包括人的身体;
接收用户输入,所述用户输入包括从所述运动数据库中选择的运动;
将所述输入图像分割成身体部分和背景部分,其中,所述身体部分包括所述输入图像的像素,所述像素对应于所述人的身体;
基于所述身体部分和选择的所述运动,生成以重复选择的所述运动的所述人的身体为特征的视频;以及
显示生成的所述视频。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/434,185 | 2019-06-07 | ||
US16/434,185 US10839586B1 (en) | 2019-06-07 | 2019-06-07 | Single image-based real-time body animation |
US16/551,756 US10776981B1 (en) | 2019-06-07 | 2019-08-27 | Entertaining mobile application for animating a single image of a human body and applying effects |
US16/551,756 | 2019-08-27 | ||
PCT/US2020/033752 WO2020247175A1 (en) | 2019-06-07 | 2020-05-20 | Entertaining mobile application for animating a single image of a human body and applying effects |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113924601A true CN113924601A (zh) | 2022-01-11 |
Family
ID=70978705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080041856.7A Pending CN113924601A (zh) | 2019-06-07 | 2020-05-20 | 用于使人体的单个图像成动画并应用效果的娱乐性移动应用程序 |
Country Status (5)
Country | Link |
---|---|
US (3) | US10776981B1 (zh) |
EP (1) | EP3980973A1 (zh) |
KR (1) | KR20220017903A (zh) |
CN (1) | CN113924601A (zh) |
WO (1) | WO2020247175A1 (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10203855B2 (en) * | 2016-12-09 | 2019-02-12 | Snap Inc. | Customized user-controlled media overlays |
US11481941B2 (en) * | 2020-08-03 | 2022-10-25 | Google Llc | Display responsive communication system and method |
US11360733B2 (en) | 2020-09-10 | 2022-06-14 | Snap Inc. | Colocated shared augmented reality without shared backend |
US11354860B1 (en) * | 2021-01-26 | 2022-06-07 | Qualcomm Incorporated | Object reconstruction using media data |
KR102490225B1 (ko) * | 2021-02-24 | 2023-01-19 | 이화여자대학교 산학협력단 | 게임 캐릭터와 연동되는 코스튬을 스트레처블 디스플레이 의류에 표현하는 방법, 이를 수행하기 위한 기록 매체 및 장치 |
CN113012282B (zh) * | 2021-03-31 | 2023-05-19 | 深圳市慧鲤科技有限公司 | 三维人体重建方法、装置、设备及存储介质 |
AU2021452086A1 (en) * | 2021-06-22 | 2024-02-08 | Hinge Health, Inc. | Mechanical weight index maps for mesh rigging |
USD976924S1 (en) * | 2021-07-06 | 2023-01-31 | Snap Inc. | Display screen or portion thereof with a graphical user interface |
USD976944S1 (en) * | 2021-07-06 | 2023-01-31 | Snap Inc. | Display screen or portion thereof with a graphical user interface |
USD976927S1 (en) * | 2021-07-06 | 2023-01-31 | Snap Inc. | Display screen or portion thereof with a graphical user interface |
USD976926S1 (en) * | 2021-07-06 | 2023-01-31 | Snap Inc. | Display screen or portion thereof with a graphical user interface |
USD976925S1 (en) * | 2021-07-06 | 2023-01-31 | Snap Inc. | Display screen or portion thereof with a graphical user interface |
WO2023086524A2 (en) * | 2021-11-12 | 2023-05-19 | Animax Designs, Inc. | Systems and methods for real-time control of a robot using a robot animation system |
US20240037858A1 (en) * | 2022-07-28 | 2024-02-01 | Snap Inc. | Virtual wardrobe ar experience |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6738065B1 (en) * | 1999-08-10 | 2004-05-18 | Oshri Even-Zohar | Customizable animation system |
US8135209B2 (en) * | 2005-07-19 | 2012-03-13 | Nec Corporation | Articulated object position and posture estimation device, method and program |
JP5060551B2 (ja) * | 2006-06-22 | 2012-10-31 | センター ナショナル ド ラ ルシェルシュ サイエンティフィーク | 頭髪の少なくとも一部の合成画像を生成するための方法及びシステム |
BRPI0917864A2 (pt) * | 2008-08-15 | 2015-11-24 | Univ Brown | aparelho e método para estimativa da forma corporal |
US8565479B2 (en) * | 2009-08-13 | 2013-10-22 | Primesense Ltd. | Extraction of skeletons from 3D maps |
US9240067B2 (en) | 2009-10-15 | 2016-01-19 | Yeda Research & Development Co. Ltd. | Animation of photo-images via fitting of combined models |
US9191579B2 (en) * | 2010-11-29 | 2015-11-17 | Max-Planck-Gesellschaft Zur Forderung Der Wissenschaften | Computer-implemented method and apparatus for tracking and reshaping a human shaped figure in a digital world video |
US9002099B2 (en) * | 2011-09-11 | 2015-04-07 | Apple Inc. | Learning-based estimation of hand and finger pose |
WO2013120851A1 (en) | 2012-02-13 | 2013-08-22 | Mach-3D Sàrl | Method for sharing emotions through the creation of three-dimensional avatars and their interaction through a cloud-based platform |
US9781223B2 (en) * | 2012-12-28 | 2017-10-03 | Facebook, Inc. | Conserving battery and data usage |
US9424811B2 (en) | 2013-03-15 | 2016-08-23 | Crayola Llc | Digital collage creation kit |
US9177410B2 (en) | 2013-08-09 | 2015-11-03 | Ayla Mandel | System and method for creating avatars or animated sequences using human body features extracted from a still image |
KR101711488B1 (ko) * | 2015-01-28 | 2017-03-03 | 한국전자통신연구원 | 동작 기반 인터랙티브 서비스 방법 및 시스템 |
WO2017137948A1 (en) | 2016-02-10 | 2017-08-17 | Vats Nitin | Producing realistic body movement using body images |
US10469768B2 (en) | 2017-10-13 | 2019-11-05 | Fyusion, Inc. | Skeleton-based effects and background replacement |
-
2019
- 2019-08-27 US US16/551,756 patent/US10776981B1/en active Active
-
2020
- 2020-05-20 WO PCT/US2020/033752 patent/WO2020247175A1/en active Application Filing
- 2020-05-20 CN CN202080041856.7A patent/CN113924601A/zh active Pending
- 2020-05-20 EP EP20730940.2A patent/EP3980973A1/en active Pending
- 2020-05-20 KR KR1020217038806A patent/KR20220017903A/ko unknown
- 2020-09-14 US US17/019,875 patent/US11410365B2/en active Active
-
2022
- 2022-07-21 US US17/869,799 patent/US20220358707A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
KR20220017903A (ko) | 2022-02-14 |
US10776981B1 (en) | 2020-09-15 |
US20220358707A1 (en) | 2022-11-10 |
US20200410735A1 (en) | 2020-12-31 |
WO2020247175A1 (en) | 2020-12-10 |
EP3980973A1 (en) | 2022-04-13 |
US11410365B2 (en) | 2022-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113924601A (zh) | 用于使人体的单个图像成动画并应用效果的娱乐性移动应用程序 | |
KR102658960B1 (ko) | 얼굴 재연을 위한 시스템 및 방법 | |
KR102296906B1 (ko) | 이미지 또는 비디오 데이터로부터의 가상 캐릭터 생성 | |
KR102616010B1 (ko) | 포토리얼리스틱 실시간 인물 애니메이션을 위한 시스템 및 방법 | |
KR101514327B1 (ko) | 얼굴 아바타 생성 장치 및 방법 | |
CN113924600A (zh) | 基于单个图像的实时身体动画 | |
EP3091510B1 (en) | Method and system for producing output images | |
US9811937B2 (en) | Coordinated gesture and locomotion for virtual pedestrians | |
KR102374307B1 (ko) | 애니메이팅된 캐릭터의 수정 | |
WO2023044151A1 (en) | Deforming real-world object using an external mesh | |
Apostolakis et al. | RAAT-The reverie avatar authoring tool | |
CN114026524A (zh) | 利用纹理操作的动画化人脸 | |
Sanchez-Riera et al. | AVATAR: Blender add-on for fast creation of 3D human models | |
WO2022164758A1 (en) | Automatic creation of a photorealistic customized animated garmented avatar | |
Huang et al. | A process for the semi-automated generation of life-sized, interactive 3D character models for holographic projection | |
Wang | A Framework for Realistic Clothed Avatar Reconstruction and Animation | |
KR20240071398A (ko) | 외부 메시를 사용한 현실 세계 객체의 변형 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |