CN118119977A - 具有顶点属性的外部网格 - Google Patents
具有顶点属性的外部网格 Download PDFInfo
- Publication number
- CN118119977A CN118119977A CN202280068248.4A CN202280068248A CN118119977A CN 118119977 A CN118119977 A CN 118119977A CN 202280068248 A CN202280068248 A CN 202280068248A CN 118119977 A CN118119977 A CN 118119977A
- Authority
- CN
- China
- Prior art keywords
- external
- mesh
- deformation
- video
- grid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 105
- 230000033001 locomotion Effects 0.000 claims abstract description 66
- 230000003190 augmentative effect Effects 0.000 claims abstract description 6
- 238000004088 simulation Methods 0.000 claims description 45
- 230000015654 memory Effects 0.000 claims description 36
- 230000004044 response Effects 0.000 claims description 32
- 230000008859 change Effects 0.000 claims description 17
- 239000004744 fabric Substances 0.000 claims description 17
- 230000006870 function Effects 0.000 description 53
- 230000004048 modification Effects 0.000 description 43
- 238000012986 modification Methods 0.000 description 43
- 238000004891 communication Methods 0.000 description 35
- 238000012549 training Methods 0.000 description 26
- 238000012545 processing Methods 0.000 description 24
- 238000010801 machine learning Methods 0.000 description 23
- 230000009466 transformation Effects 0.000 description 22
- 230000000007 visual effect Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 230000000694 effects Effects 0.000 description 14
- 230000005540 biological transmission Effects 0.000 description 11
- 230000005484 gravity Effects 0.000 description 11
- 210000002414 leg Anatomy 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 210000000988 bone and bone Anatomy 0.000 description 7
- 230000006855 networking Effects 0.000 description 7
- 230000037237 body shape Effects 0.000 description 6
- 230000008878 coupling Effects 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 6
- 238000005859 coupling reaction Methods 0.000 description 6
- 239000000463 material Substances 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 6
- 230000001131 transforming effect Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000008602 contraction Effects 0.000 description 5
- 239000008186 active pharmaceutical agent Substances 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 4
- 210000001624 hip Anatomy 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000000844 transformation Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 3
- 239000007789 gas Substances 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000000704 physical effect Effects 0.000 description 3
- 238000010079 rubber tapping Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241000283973 Oryctolagus cuniculus Species 0.000 description 1
- 241000282320 Panthera leo Species 0.000 description 1
- 240000007711 Peperomia pellucida Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000356 contaminant Substances 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- GVVPGTZRZFNKDS-JXMROGBWSA-N geranyl diphosphate Chemical compound CC(C)=CCC\C(C)=C\CO[P@](O)(=O)OP(O)(O)=O GVVPGTZRZFNKDS-JXMROGBWSA-N 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 210000004394 hip joint Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000008261 resistance mechanism Effects 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000004266 retinal recognition Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000000323 shoulder joint Anatomy 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
- G06T17/205—Re-meshing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2021—Shape modification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
Abstract
公开了用于执行使外部网格变形的操作的方法和系统。所述操作包括接收视频,该视频包括对现实世界对象的描绘。所述操作包括生成与现实世界对象相关联的三维(3D)身体网格,该3D身体网格跟踪现实世界对象在视频的帧之间的移动。所述操作包括获得与增强现实(AR)元素相关联的外部网格。所述操作包括访问与外部网格相关联的多个变形属性,其中每个属性对应于不同的变形模型。所述操作包括基于相应的变形模型来使外部网格的第一部分和外部网格的第二部分分别变形。所述操作包括修改视频以包括对基于外部网格的分别变形的第一部分和第二部分的AR元素的显示。
Description
优先权申明
本申请要求于2021年10月11日提交的序列号为17/498,394的美国专利申请的优先权的权益,该美国专利申请通过引用整体并入本文。
技术领域
本公开内容总体上涉及使用消息收发应用来提供增强现实(AR)体验。
背景技术
增强现实(AR)是对虚拟环境的修改。例如,在虚拟现实(VR)中,用户完全沉浸在虚拟世界中,而在AR中,用户沉浸在将虚拟对象与现实世界组合或将虚拟对象叠加在现实世界上的世界中。AR系统旨在生成并呈现与现实世界环境真实地交互并且彼此之间进行交互的虚拟对象。AR应用的示例可以包括单个玩家或多个玩家视频游戏、即时消息收发系统等。
附图说明
在附图(其不一定按比例绘制)中,相同的附图标记可以在不同视图中描述类似部件。为了容易地标识对任何特定元素或动作的讨论,附图标记中的一个或多个最高有效数字是指该元素被首次引入时所在的图号。在附图中示出了一些非限制性示例,在附图中:
图1是根据一些示例的可以在其中部署本公开内容的联网环境的图解表示。
图2是根据一些示例的消息收发客户端应用的图解表示。
图3是根据一些示例的如在数据库中维护的数据结构的图解表示。
图4是根据一些示例的消息的图解表示。
图5是示出根据一些示例的示例外部网格变形系统的框图。
图6、图7和图8是根据一些示例的外部网格变形系统的输出的图解表示。
图9是示出根据一些示例的外部网格变形系统的示例操作的流程图。
图10是根据一些示例的呈计算机系统形式的机器的图解表示,在该机器内可以执行一组指令以使该机器执行本文讨论的方法中的任何一种或更多种方法。
图11是示出可以在其中实现示例的软件架构的框图。
具体实施方式
下面的描述包括体现本公开内容的说明性示例的系统、方法、技术、指令序列和计算机器程序产品。在以下描述中,出于说明的目的,阐述了许多具体细节以便提供对各种示例的理解。然而,对于本领域技术人员而言明显的是,可以在没有这些具体细节的情况下实践示例。通常,不需要详细示出公知的指令实例、协议、结构和技术。
通常,VR和AR系统通过捕获给定用户的图像并另外地使用深度传感器获得在图像中描绘的现实世界身体的深度图来显示表示用户的图像。通过一起处理深度图和图像,VR和AR系统可以检测用户在图像中的定位,并且可以适当地修改图像中的用户或背景。虽然这样的系统工作良好,但对深度传感器的需求限制了它们的应用范围。这是因为出于修改图像的目的向用户设备添加深度传感器增加了设备的总成本和复杂度,从而使得这些设备的吸引力降低。
某些系统不需要使用深度传感器来修改图像。例如,某些系统允许用户替换其中检测到用户的面部的视频会议中的背景。具体地,这样的系统可以使用被优化用于识别用户的面部的专门技术来标识描绘用户面部的图像中的背景。然后,这些系统可以仅替换描绘背景的那些像素,使得在图像中利用替选背景替换现实世界的背景。然而,这样的系统通常不能识别用户的全身。因此,如果用户距摄像装置大于阈值距离,使得不仅仅是用户的面部被摄像装置捕获,则利用替选背景替换背景失败。在这种情况下,图像质量受到严重影响,并且用户的面部和身体中的多个部分可能被系统无意地移除,因为系统错误地将这样的部分标识为属于图像的背景而不是前景。此外,当在图像或视频馈送中描绘多于一个用户时,这样的系统无法适当地替换背景。因为这样的系统通常不能将图像中的用户的全身与背景区分开,因此这些系统也不能将视觉效果应用于用户身体的某些部分,例如衣服制品或时尚配饰(例如,珠宝、手提包、钱包等)。
一些AR系统允许将AR图形添加至图像或视频,以提供吸引人的AR体验。这样的系统可以从设计者接收AR图形,并且可以在图像或视频内对AR图形进行缩放和定位。为了改进AR图形在图像或视频中描绘的人上的放置和定位,这样的系统检测图像或视频中描绘的人,并且生成表示人的骨的骨架(rig)。然后,该骨架被用于基于骨架的移动的改变来调整AR图形。虽然这样的方法通常工作良好,但需要实时生成人的骨架以调整AR图形的放置,从而增加了处理复杂度以及电力和内存需求。这使得这样的系统为低效的,或者不能在不牺牲计算资源或处理速度的情况下在小规模移动设备上运行。此外,骨架仅表示图像或视频中的人的骨骼结构或骨结构的移动,并且不考虑人的任何种类的外部物理性质,例如密度、重量、皮肤属性等。因此,这些系统中的任何AR图形均可以在比例和定位上被调整,但不能基于人的其他物理性质进行变形。此外,AR图形设计者通常需要为其AR图形或AR时尚物品创建兼容的骨架。
所公开的技术通过生成图像中所描绘的对象(例如人)的身体网格并且使外部网格与身体网格对应地变形来提高电子设备的效率。通过基于所描绘的对象的身体网格的变化来使外部网格变形,所公开的技术可以在不需要生成所描绘的对象的骨架或骨结构的情况下以更高效的方式将一个或更多个视觉效果与图像或视频中描绘的人相关联地应用于图像或视频。特别地,所公开的技术可以将一个或更多个AR元素应用于图像或视频中描绘的人或对象,并且然后基于通过对象的身体网格的变化所确定的对象的移动来修改一个或更多个AR元素。
所公开的技术还可以基于与AR元素的不同部分相关联的不同标准或属性,来分别使这些部分变形或对其进行修改。例如,可以基于对象的三维(3D)身体网格的变化使附接于所描绘的对象或与所描绘的对象交叠的AR元素的第一部分(例如,钱包的带子)变形或对其进行修改。AR元素的第二部分可以延伸到所描绘的对象和/或AR元素的第一部分之外并从所描绘的对象和/或AR元素的第一部分悬垂,并且可以基于与外力模型(例如,物理模拟模型、碰撞模拟模型、链式物理(chain physics)、布料模拟模型(cloth simulationmodel)、重力位移等)相关联的信息而与第一部分(一起、同时和/或分别)变形。在示例中,所公开的技术可以获取关于AR元素的每个部分的属性信息。基于属性信息,所公开的技术可以选择用于使AR元素的相应部分变形的变形模型。以这种方式,可以基于针对AR元素的不同部分所指定的属性,分别地并使用不同变形模型使这些部分发生变形。在示例中,属性信息可以包括服装位置度量、服装宽松度度量、身体网格密度阈值或距离阈值的任何组合。变形模型可以包括外力模型和/或现实世界身体移动模型的任何组合。
这简化了将AR图形添加至图像或视频的过程,从而显著地减少了生成这样的AR图形的设计约束和成本,并且降低了处理复杂度以及电力和内存需求的量。这也改善了AR图形是在描绘对象的图像或视频中所描绘的现实世界环境的一部分的错觉。这使得能够在小规模移动设备上实时地将AR图形无缝且高效地添加至底层图像或视频。所公开的技术可以专门或主要应用于移动设备,而不需要移动设备将图像/视频发送至服务器。在其他示例中,所公开的技术专门或主要应用于远程服务器,或者可以在移动设备与服务器之间进行分配。
此外,所公开的技术使得AR图形设计者能够针对其AR图形生成外部网格而无需为AR图形创建兼容的骨架,这节省了时间、精力并使创建复杂度降低。所公开的技术通过创建身体网格与AR图形或AR时尚物品的外部网格之间的对应关系,使得AR图形(AR时尚物品)能够随着用户的外形(体重、身高、体形等)进行变形。所公开的技术还使得设计者能够指定AR时尚物品的属性,以基于外力模型而不是基于身体网格和/或与身体网格移动信息相结合来(通过使相关联的外部网格变形)使AR图形的某些部分被修改或发生变形。例如,设计者可以指定:使AR连衣裙的距身体躯干大于一定阈值距离的部分基于外力模型而变形;并且使连衣裙的在一定阈值距离内的第二部分根据第二部分被置于其上的3D身体网格部分的移动而变形。在实现方式中,外力模型可以利用与身体网格模型的移动相关联的信息来计算针对外部网格中与外力模型相关联的部分(以及相关联的AR图形)的修改和变形。
作为结果,可以提供逼真显示,该逼真显示示出穿戴AR时尚物品的用户,同时以对于用户进行交互和选择而言直观的方式基于用户的三维(3D)移动(包括身体形状、身体状态、身体性质、位置和旋转的改变)使AR时尚物品变形。如本文所使用的,“衣服制品”、“时尚物品”和“服装”可互换地使用,并且应当被理解为具有相同含义。这改善了用户在使用电子设备时的总体体验。此外,通过在不使用深度传感器的情况下提供这样的AR体验,减少了完成任务所需的系统资源的总量。
联网计算环境
图1是示出用于通过网络交换数据(例如,消息和相关联的内容)的示例消息收发系统100的框图。消息收发系统100包括客户端设备102的多个实例,所述多个实例中的每个实例托管包括消息收发客户端104和其他外部应用109(例如,第三方应用)的若干应用。每个消息收发客户端104经由网络112(例如,因特网)通信地耦接至(例如,托管在相应的其他客户端设备102上的)消息收发客户端104的其他实例、消息收发服务器系统108以及外部应用服务器110。消息收发客户端104还可以使用应用程序接口(API)与本地托管的第三方应用例如外部应用109通信。
消息收发客户端104能够经由网络112与其他消息收发客户端104和消息收发服务器系统108进行通信并且交换数据。在消息收发客户端104之间以及在消息收发客户端104与消息收发服务器系统108之间交换的数据包括功能(例如,用于激活功能的命令)以及净荷数据(例如,文本、音频、视频或其他多媒体数据)。
消息收发服务器系统108经由网络112向特定消息收发客户端104提供服务器侧功能。虽然消息收发系统100的某些功能在本文被描述为由消息收发客户端104或由消息收发服务器系统108执行,但是某些功能的位置是在消息收发客户端104内还是在消息收发服务器系统108内可以是设计选择。例如,在技术上可能优选的是,最初将某些技术和功能部署在消息收发服务器系统108内,但是后面将该技术和功能迁移至客户端设备102具有足够处理能力的消息收发客户端104。
消息收发服务器系统108支持向消息收发客户端104提供的各种服务和操作。这样的操作包括向消息收发客户端104发送数据、从消息收发客户端104接收数据以及对由消息收发客户端104生成的数据进行处理。作为示例,该数据可以包括消息内容、客户端设备信息、地理位置信息、媒体增强和覆盖、消息内容持久化条件、社交网络信息和现场事件信息。通过经由消息收发客户端104的用户界面(UI)可用的功能来激活和控制消息收发系统100内的数据交换。
现在具体地转至消息收发服务器系统108,API服务器116耦接至应用服务器114并且向应用服务器114提供编程接口。应用服务器114通信地耦接至数据库服务器120,数据库服务器120有助于对数据库126进行访问,数据库126存储与由应用服务器114处理的消息相关联的数据。类似地,web服务器128耦接至应用服务器114,并且向应用服务器114提供基于web的接口。为此,web服务器128通过超文本传输协议(HTTP)和若干其他相关协议处理传入的网络请求。
API服务器116在客户端设备102与应用服务器114之间接收和发送消息数据(例如,命令和消息净荷)。具体地,API服务器116提供一组接口(例如,例程和协议),该组接口可以由消息收发客户端104调用或查询以激活应用服务器114的功能。API服务器116公开由应用服务器114支持的各种功能,包括:帐户注册;登录功能;经由应用服务器114将消息从特定消息收发客户端104发送至另一消息收发客户端104;将媒体文件(例如,图像或视频)从消息收发客户端104发送至消息收发服务器118并用于由另一消息收发客户端104进行的可能访问;设置媒体数据集合(例如,故事);检索客户端设备102的用户的朋友列表;检索这样的集合;检索消息和内容;在实体图(例如,社交图)中添加和删除实体(例如,朋友);在社交图内定位朋友;以及打开(例如,与消息收发客户端104相关的)应用事件。
应用服务器114托管若干服务器应用和子系统,包括例如消息收发服务器118、图像处理服务器122和社交网络服务器124。消息收发服务器118实现若干消息处理技术和功能,特别是与从消息收发客户端104的多个实例接收到的消息中包括的内容(例如,文本和多媒体内容)的汇总和其他处理相关的消息处理技术和功能。如将进一步详细描述的,来自多个源的文本和媒体内容可以被汇总为内容的集合(例如,称为故事或图库)。然后,使这些集合对消息收发客户端104可用。鉴于数据的其他处理器和存储器密集型处理的硬件要求,还可以由消息收发服务器118在服务器侧执行这样的处理。
应用服务器114还包括图像处理服务器122,图像处理服务器122专用于执行各种图像处理操作,通常针对在从消息收发服务器118处发送或在消息收发服务器118处接收的消息的净荷内的图像或视频来执行各种图像处理操作。
图像处理服务器122用于实现增强系统208(图2中所示)的扫描功能。扫描功能包括当由客户端设备102捕获到图像时在客户端设备102上激活并提供一个或更多个AR体验。具体地,客户端设备102上的消息收发客户端104可以用于激活摄像装置。摄像装置向用户显示一个或更多个实时图像或视频以及一个或更多个AR体验的一个或更多个图标或标识符。用户可以选择标识符中的给定标识符来启动对应的AR体验或执行所期望的图像修改(例如,替换视频中的用户穿着的服装或者为视频中的用户穿着的服装重新着色或者基于由用户执行的姿势修改服装)。
社交网络服务器124支持各种社交联网功能和服务,并且使这些功能和服务对消息收发服务器118可用。为此,社交网络服务器124维持并且访问数据库126内的实体图308(如图3所示)。由社交网络服务器124支持的功能和服务的示例包括标识消息收发系统100中与特定用户有关系或该特定用户正“关注”的其他用户,并且还标识特定用户的兴趣和其他实体。
返回至消息收发客户端104,外部资源(例如,第三方应用109或小程序)的特征和功能经由消息收发客户端104的接口对用户可用。消息收发客户端104接收对用于启动或访问外部资源(例如,第三方资源)诸如外部应用109的特征的选项的用户选择。外部资源可以是安装在客户端设备102上的第三方应用(外部应用109)(例如,“本地应用”),或者托管在客户端设备102上或者位于客户端设备102的远端(例如,在第三方服务器110上)的第三方应用的小规模版本(例如,“小程序”)。第三方应用的小规模版本包括第三方应用(例如,第三方独立应用的全规模本地版本)的特征和功能的子集并且使用标记语言文档来实现。在一个示例中,第三方应用的小规模版本(例如,“小程序”)是第三方应用的基于web的标记语言版本,并且嵌入在消息收发客户端104中。除了使用标记语言文档(例如,.*ml文件)之外,小程序可以包括脚本语言(例如,.*js文件或.json文件)和样式表(例如,.*ss文件)。
响应于接收到对用于启动或访问外部资源(外部应用109)的特征的选项的用户选择,消息收发客户端104确定所选择的外部资源是基于web的外部资源还是本地安装的外部应用。在一些情况下,本地安装在客户端设备102上的外部应用109可以例如通过在客户端设备102的主页画面上选择与外部应用109对应的图标而独立于消息收发客户端104并且与消息收发客户端104分开地启动。这样的外部应用的小规模版本可以经由消息收发客户端104启动或访问,并且在一些示例中,小规模外部应用的任何部分都不能或者有限部分才可以在消息收发客户端104之外被访问。可以通过消息收发客户端104从外部应用服务器110接收与小规模外部应用相关联的标记语言文档并对这样的文档进行处理来启动小规模外部应用。
响应于确定外部资源是本地安装的外部应用109,消息收发客户端104指示客户端设备102通过执行与外部应用109对应的本地存储的代码来启动外部应用109。响应于确定外部资源是基于web的资源,消息收发客户端104与外部应用服务器110进行通信以获得与所选择的资源对应的标记语言文档。消息收发客户端104然后处理所获得的标记语言文档以在消息收发客户端104的用户界面内呈现基于web的外部资源。
消息收发客户端104可以向客户端设备102的用户或与这样的用户相关的其他用户(例如,“朋友”)通知在一个或更多个外部资源中发生的活动。例如,消息收发客户端104可以向消息收发客户端104中的对话(例如,聊天会话)中的参与者提供与一组用户中的一个或更多个成员当前或最近使用外部资源相关的通知。可以邀请一个或更多个用户加入活动的外部资源或者启动(在该组朋友中)最近使用过但当前不活动的外部资源。外部资源可以向对话中的各自使用相应的消息收发客户端104的参与者提供与进入聊天会话中的用户组中的一个或更多个成员分享外部资源中的项、状况、状态或位置的能力。共享项可以是交互式聊天卡,聊天的成员可以利用该交互式聊天卡进行交互,以例如启动对应的外部资源、查看外部资源内的特定信息或者将聊天的成员带到外部资源内的特定位置或状态。在给定的外部资源内,可以向消息收发客户端104上的用户发送响应消息。外部资源可以基于外部资源的当前上下文在响应中选择性地包括不同的媒体项。
消息收发客户端104可以向用户呈现可用的外部资源(例如,第三方或外部应用109或小程序)的列表以启动或访问给定的外部资源。该列表可以被呈现在上下文相关菜单中。例如,表示外部应用109(或小程序)中的不同外部应用的图标可以基于用户如何启动(例如,从对话界面或从非对话界面启动)菜单而变化。
消息收发客户端104可以向用户呈现一个或更多个AR体验。作为示例,消息收发客户端104可以检测由客户端设备102捕获的图像或视频中的人。消息收发客户端104可以为图像或视频中描绘的人生成身体网格。身体网格可以是3D网格或多边形网格,其包括限定图像或视频中描绘的多面体对象的形状的顶点、边和面的集合。网格可以是若干封闭面的集合。在数学矢量代数意义(这对计算而言可能是重要的)上,网格可以是组织成若干矩阵的数字的集合。在几何描述中,网格可以由点组成,所述点通过线段连接在一起并且通过多边形表面化(surfaced)。
消息收发客户端104可以接收对AR图形的用户选择以将AR图形添加至图像或视频。消息收发客户端104可以获得与AR图形相关联的外部网格。AR图形可以表示具有下述部分的时尚配饰或其他物品:第一部分,其附接至所描绘的对象,例如人;以及第二部分,其从所描绘的对象的第一部分自由悬挂或悬垂,或者在该第二部分中整个时尚物品从所描绘的现实世界对象自由悬垂。例如,AR图形可以表示耳环,该耳环附接至人的耳朵或其他身体部位并且具有自由悬垂在空中的部分。例如,AR图形可以表示皮带,该皮带缠绕在人的腰部或其他身体部位周围并且具有自由悬垂在空中的部分。例如,AR图形可以表示发带,该发带缠绕在人的头发或其他身体部位上并且具有自由悬垂在空中的部分。例如,AR图形可以表示虚幻物品或对象(例如AR尾部、额外的四肢、额外的头部、长毛等),该虚幻物品或对象附接至人的身体或其他身体部位并且具有自由悬垂在空中的部分。AR图形可以表示兔耳,该兔耳一端附接至人并且另一端自由悬垂。AR图形可以表示钱包或手提包,该钱包或手提包具有与图像或视频中描绘的人的身体交叠或附接的带子,并且具有从该带子自由悬垂的容器部分(钱包)。AR图形可以表示衬衫或其他服装,所述其他服装具有指示当其被所描绘的人穿着时的松紧程度的第一宽松度度量。AR图形可以表示衬衫或其他服装,所述其他服装具有大于(指示更松)或小于(指示更紧)第一宽松度度量的第二宽松度度量。AR图形可以表示连衣裙,该连衣裙具有:第一部分,其靠近图像中描绘的人的躯干、具有第一宽松度度量(例如,在人上是紧的);以及第二部分,其靠近腿部并且距躯干大于阈值、具有第二宽松度度量(例如,在腿部周围是宽松的)。
与AR图形相关联的外部网格可以包括不同的部分,这些部分基于是与图像或视频中描绘的对象附接或与之相关联还是从图像或视频中描绘的对象自由悬垂而分别变形。不同的部分可以与不同的变形属性相关联,所述变形属性可以由AR图形的设计者指定。每个不同的变形属性限定了用于使AR图形的对应部分变形的变形模型。作为示例,多个变形属性可以对应于服装位置度量、服装宽松度度量、身体网格密度阈值或距离阈值中的至少之一,并且变形模型可以包括外力模型或现实世界身体移动模型(例如,身体移动模型)。
消息收发客户端104可以自动地建立身体网格(例如,3D身体网格)与外部网格之间的对应关系。消息收发客户端104可以在图像或视频内将外部网格定位的3D身体网格上或者相对于该3D身体网格来定位外部网格。消息收发客户端104可以(基于与外部网格相关联的放置信息)确定第一部分或第一组部分,该第一部分或第一组部分基于与3D身体网格相关联的移动信息、例如基于与第一部分或第一组部分相关联的第一变形属性而变形。消息收发客户端104可以(基于与外部网格相关联的放置信息)确定第二部分或第二组部分,该第二部分或第二组部分基于外力模拟、例如基于与第二部分或第二组部分相关联的第二变形属性而变形,该变形与第一部分或第一组部分基于与3D身体网格相关联的移动信息而发生的变形分别进行。
消息收发客户端104然后可以在图像或视频内显示AR图形(该AR图形已基于外部网格的变形属性发生了变形)。这为用户提供了将人与所选AR图形相结合的图像或视频描绘的逼真显示,该AR图形具有以不同的方式(基于人的移动或者外力例如重力、布料模拟或碰撞的施加)进行移动的不同部分。在示例中,AR图形可以是诸如衬衫、裤子、短裙、连衣裙、珠宝、钱包、家具物品、家居物品、护目镜、镜片、AR徽标、AR徽章的时尚物品或任何其他合适的物品或对象。虽然关于添加至图像或视频的AR连衣裙(或客户端设备102的用户)讨论了所公开的示例,但类似的技术可以应用于任何其他AR物品或衣服制品或时尚物品,例如钱包、裤子、短裤、短裙、夹克、T恤、上衣、眼镜、珠宝、耳环、兔耳、帽子、耳罩等。
以这种方式,消息收发客户端104可以基于与图像或视频中描绘的对象例如人相关联的身体网格的移动和其他改变(例如,身体形状、位置、旋转和比例的改变)并且基于外力的施加,实时地调整外部网格(以及因此调整与外部网格相关联的AR图形)。这提供了关于AR图形实际上被包括在图像或视频中所描绘的现实世界环境中的错觉,这改善了整体用户体验。下文结合图5提供了外部网格相对于身体网格和外力的变形的另外的细节。
系统架构
图2是示出根据一些示例的关于消息收发系统100的另外的细节的框图。具体地,消息收发系统100被示为包括消息收发客户端104和应用服务器114。消息收发系统100包含若干子系统,所述子系统在客户端侧由消息收发客户端104支持并且在服务器侧由应用服务器114支持。这些子系统包括例如短时定时器系统202、集合管理系统204、增强系统208、地图系统210、游戏系统212和外部资源系统220。
短时定时器系统202负责实施消息客户端104和消息服务器118对内容的临时或时间受限的访问。短时定时器系统202包含若干定时器,所述定时器基于与消息或消息的集合(例如,故事)相关联的持续时间和显示参数,选择性地实现经由消息收发客户端104访问(例如,用于呈现和显示)消息和相关联的内容。下面提供关于短时定时器系统202的操作的另外的细节。
集合管理系统204负责管理媒体的合集或集合(例如,文本、图像视频和音频数据的集合)。内容(例如,消息,包括图像、视频、文本和音频)的集合可以被组织为“事件图库”或“事件故事”。可以使这样的集合在指定时间段(例如在与内容相关的事件的持续时间)内可用。例如,可以使与音乐会相关的内容在该音乐会的持续时间内作为“故事”可用。集合管理系统204还可以负责向消息收发客户端104的用户界面发布提供对存在特定集合的通知的图标。
集合管理系统204还包括策展接口206,策展接口206允许集合管理者管理和策展特定内容集合。例如,策展接口206使得事件组织者能够策展与特定事件相关的内容的集合(例如,删除不适当的内容或冗余消息)。附加地,集合管理系统204采用机器视觉(或图像识别技术)和内容规则来自动地策展内容集合。在某些示例中,可以针对将用户生成的内容包括到集合中而向用户支付补偿。在这样的情况下,集合管理系统204进行操作以自动地向这样的用户进行支付以使用其内容。
增强系统208提供使得用户能够增强(例如,注解或以其他方式修改或编辑)与消息相关联的媒体内容的各种功能。例如,增强系统208提供与生成和发布针对由消息收发系统100处理的消息的媒体覆盖有关的功能。增强系统208基于客户端设备102的地理位置可操作地向消息收发客户端104供应媒体覆盖或增强(例如,图像过滤器)。在另一示例中,增强系统208基于诸如客户端设备102的用户的社交网络信息的其他信息可操作地向消息收发客户端104供应媒体覆盖。媒体覆盖可以包括音频内容和视觉内容以及视觉效果。音频内容和视觉内容的示例包括图片、文本、徽标、动画和声音效果。视觉效果的示例包括颜色覆盖。音频内容和视觉内容或视觉效果可以被应用于客户端设备102处的媒体内容项(例如,照片)。例如,媒体覆盖可以包括可以覆盖在由客户端设备102拍摄的照片上的文本、图形元素或图像。在另一示例中,媒体覆盖包括位置标识覆盖(例如,威尼斯海滩)、现场事件的名称或商家名称覆盖(例如,海滩咖啡馆)。在另一示例中,增强系统208使用客户端设备102的地理位置来标识包括客户端设备102的地理位置处的商家名称的媒体覆盖。媒体覆盖可以包括与商家相关联的其他标记。媒体覆盖可以被存储在数据库126中并且通过数据库服务器120进行访问。
在一些示例中,增强系统208提供基于用户的发布平台,该基于用户的发布平台使得用户能够在地图上选择地理位置并且上传与所选择的地理位置相关联的内容。用户还可以指定特定媒体覆盖应当被提供给其他用户的环境。增强系统208生成包括所上传的内容并且将所上传的内容与所选择的地理位置相关联的媒体覆盖。
在其他示例中,增强系统208提供基于商家的发布平台,该基于商家的发布平台使得商家能够经由出价过程选择与地理位置相关联的特定媒体覆盖。例如,增强系统208使最高出价商家的媒体覆盖与对应地理位置相关联持续预定时间量。增强系统208与图像处理服务器122通信以获得AR体验,并且在一个或更多个用户界面中呈现这样的体验的标识符(例如,作为实时图像或视频上的图标,或作为专用于所呈现的AR体验的标识符的界面中的缩略图或图标)。一旦选择了AR体验,则一个或更多个图像、视频或AR图形元素会被检索并被呈现为在由客户端设备102捕获的图像或视频上的覆盖。在一些情况下,摄像装置被切换至正面视角(例如,客户端设备102的前置摄像装置响应于特定AR体验的激活而被激活),并且来自客户端设备102的前置摄像装置而不是客户端设备102的后置摄像装置的图像开始显示在客户端设备102上。一个或更多个图像、视频或AR图形元素被检索并呈现为在由客户端设备102的前置摄像装置捕获和显示的图像上的覆盖。
在其他示例中,增强系统208能够经由网络112与另一客户端设备102上的另一增强系统208以及服务器通信并交换数据。交换的数据可以包括:标识共享AR会话的会话标识符;第一客户端设备102与第二客户端设备102(例如,包括第一设备和第二设备的多个客户端设备102)之间的变换,该变换用于将共享AR会话对准至共同原点;共同坐标系;功能(例如,用于激活命令的命令)以及其他净荷数据(例如,文本、音频、视频或其他多媒体数据)。
增强系统208将变换发送至第二客户端设备102,使得第二客户端设备102可以基于该变换来调整AR坐标系。以这种方式,第一客户端设备102和第二客户端设备102将它们的坐标系(coordinate systems and frames)同步以显示AR会话中的内容。具体地,增强系统208计算第二客户端设备102在第一客户端设备102的坐标系中的原点。然后,增强系统208可以基于从第二客户端设备102的角度来看的该原点在第二客户端设备102的坐标系中的位置来确定第二客户端设备102的坐标系中的偏移量。该偏移量用于生成变换,使得第二客户端设备102根据与第一客户端设备102的共同坐标系生成AR内容。
增强系统208可以与客户端设备102通信,以建立单独或共享的AR会话。增强系统208还可以耦接至消息收发服务器118以在共享AR会话中为客户端设备102建立电子群组通信会话(例如,群组聊天、即时消息收发)。可以使电子群组通信会话与由客户端设备102提供的会话标识符相关联,以获得对电子群组通信会话和共享AR会话的访问权限。在一个示例中,客户端设备102首先获得对电子群组通信会话的访问权限,并且然后在电子群组通信会话中获得允许客户端设备102访问共享AR会话的会话标识符。在一些示例中,客户端设备102能够在无需应用服务器114中的增强系统208的帮助或与应用服务器114中的增强系统208通信的情况下访问共享AR会话。
地图系统210提供各种地理位置功能,并且支持由消息收发客户端104呈现基于地图的媒体内容和消息。例如,地图系统210使得能够在地图上显示(例如,存储在简档数据316中的)用户图标或化身,以在地图的上下文内指示用户的“朋友”的当前或过去位置,以及由这样的朋友生成的媒体内容(例如,包括照片和视频的消息的集合)。例如,可以在消息收发客户端104的地图界面上将用户从特定地理位置发布到消息收发系统100的消息在地图的该特殊位置的上下文内显示给特定用户的“朋友”。用户还可以经由消息收发客户端104与消息收发系统100的其他用户(例如,使用适当的状况化身)共享他或她的位置和状况信息,其中该位置和状况信息在消息收发客户端104的地图界面的上下文内被类似地显示给选定用户。
游戏系统212在消息收发客户端104的上下文内提供各种游戏功能。消息客户端104提供游戏界面,该游戏界面提供可用游戏(例如,基于web的游戏或基于web的应用)的列表,所述游戏可以由用户在消息客户端104的上下文内启动并且与消息系统100的其他用户一起玩。消息收发系统100还使得特定用户能够通过从消息收发客户端104向其他用户发出邀请来邀请这样的其他用户参与玩特定游戏。消息收发客户端104还支持在玩游戏的上下文内进行语音消息收发和文本消息收发(例如,聊天)二者,针对游戏提供排行榜,并且还支持提供游戏内奖励(例如,游戏币和物品)。
外部资源系统220向消息收发客户端104提供用于与外部应用服务器110通信以启动或访问外部资源的接口。每个外部资源(应用)服务器110托管例如基于标记语言(例如,HTML5)的应用或外部应用的小规模版本(例如,在消息收发客户端104外部的游戏、实用程序、支付或骑乘共享应用)。消息收发客户端104可以通过从与基于web的资源(例如,应用)相关联的外部资源(应用)服务器110访问HTML5文件来启动该基于web的资源。在某些示例中,利用由消息收发服务器118提供的软件开发工具包(SDK)以JavaScript对由外部资源服务器110托管的应用进行编程。SDK包括具有可以由基于web的应用调用或激活的功能的API。在某些示例中,消息收发服务器118包括JavaScript库,该JavaScript库向给定第三方资源提供对消息收发客户端104的某些用户数据的访问。HTML5被用作用于对游戏进行编程的示例技术,但是可以使用基于其他技术编程的应用和资源。
为了将SDK的功能集成到基于web的资源中,由外部资源(应用)服务器110从消息收发服务器118下载SDK或者由外部资源(应用)服务器110以其他方式接收SDK。一旦被下载或接收,SDK就被包括为基于web的外部资源的应用代码的一部分。基于web的资源的代码然后可以调用或激活SDK的某些功能以将消息收发客户端104的特征集成至基于web的资源中。
存储在消息收发服务器118上的SDK有效地提供了外部资源(例如,第三方或外部应用109或小程序)与消息收发客户端104之间的桥接。这为用户提供了与消息收发客户端104上的其他用户通信的无缝体验,同时还保留了消息收发客户端104的外观和感觉。为了桥接外部资源与消息收发客户端104之间的通信,在某些示例中,SDK促进外部资源服务器110与消息收发客户端104之间的通信。在某些示例中,在客户端设备102上运行的WebViewJavaScriptBridge在外部资源与消息收发客户端104之间建立两个单向通信信道。在外部资源与消息收发客户端104之间经由这些通信信道异步地发送消息。每个SDK功能激活被作为消息和回调发送。每个SDK功能通过构造唯一回调标识符并发送具有该回调标识符的消息来实现。
通过使用SDK,并非所有来自消息收发客户端104的信息都与外部资源服务器110共享。SDK基于外部资源的需求来限制共享哪些信息。在某些示例中,每个外部资源服务器110将与基于web的外部资源对应的HTML5文件提供给消息收发服务器118。消息收发服务器118可以在消息收发客户端104中添加基于web的外部资源的视觉表示(例如,盒设计(boxart)或其他图形)。一旦用户通过消息收发客户端104的GUI选择该视觉表示或指示消息收发客户端104访问基于web的外部资源的特征,消息收发客户端104就获得HTML5文件并且使访问基于web的外部资源的特征所需的资源实例化。
消息收发客户端104呈现用于外部资源的图形用户界面(例如,登陆页面或标题画面)。在呈现登陆页面或标题画面期间、之前或之后,消息收发客户端104确定所启动的外部资源是否先前已经被授权访问消息收发客户端104的用户数据。响应于确定所启动的外部资源先前已经被授权访问消息收发客户端104的用户数据,消息收发客户端104呈现包括外部资源的功能和特征的外部资源的另一图形用户界面。响应于确定所启动的外部资源先前未被授权访问消息收发客户端104的用户数据,在显示外部资源的登陆页面或标题画面的阈值时间段(例如,3秒)之后,消息收发客户端104向上滑动用于授权外部资源访问用户数据的菜单(例如,将菜单动画化为从画面底部浮现至画面的中间或其他部分)。该菜单标识外部资源将被授权使用的用户数据的类型。响应于接收到对接受选项的用户选择,消息收发客户端104将外部资源添加至已授权外部资源的列表,并且使得外部资源能够访问来自消息收发客户端104的用户数据。在一些示例中,由消息收发客户端104根据OAuth 2框架来授权外部资源访问用户数据。
消息收发客户端104基于被授权的外部资源的类型来控制与外部资源共享的用户数据的类型。例如,向包括全规模外部应用(例如,第三方或外部应用109)的外部资源提供对第一类型的用户数据(例如,具有或不具有不同化身特性的用户的仅二维(2D)化身)的访问。作为另一示例,向包括外部应用的小规模版本(例如,第三方应用的基于web的版本)的外部资源提供对第二类型的用户数据(例如,支付信息、用户的2D化身、用户的3D化身、以及具有各种化身特性的化身)的访问。化身特性包括用于定制化身的外观(例如,不同姿态、面部特征、衣服等)的不同方式。
外部网格变形系统224基于图像或视频中描绘的对象的3D/2D身体网格的实时变化并且基于外力模拟模型(外力模型)来使外部网格变形。在示例中,外部网格变形系统224基于第一变形模型,例如基于与身体网格相关联的移动信息,来使外部网格的与第一变形属性相关联的第一部分变形。外部网格变形系统224基于第二变形模型,例如基于外力模拟模型,来使外部网格的与第二变形属性相关联的第二部分变形。在示例中,响应于基于不同变形模型使外部网格的不同部分变形,外部网格变形系统224可以在图像或视频中呈现与外部网格相关联的AR图形,例如通过呈现适合图像(或视频)中描绘的用户的时尚物品或在图像(或视频)中描绘的多个用户上呈现多个AR时尚物品来进行呈现,其中AR时尚物品或图形的不同部分以不同方式移动(一些部分根据现实世界对象的移动而移动,其他部分基于外力模型例如碰撞或布料模拟或重力而移动)。在一些示例中,外部网格变形系统224可以向AR图形添加附加的视觉效果,例如颗粒或火花,所述视觉效果基于外力模拟模型以类似于AR图形移动的方式进行移动。下文结合图5示出并描述外部网格变形系统224的示意性实现方式。
具体地,外部网格变形系统224是可以由在客户端设备102上实现的AR/VR应用访问的部件。AR/VR应用使用RGB摄像装置来捕获用户的单目图像。AR/VR应用在所捕获的用户的图像上应用各种经训练的机器学习技术,以生成表示图像中描绘的用户的3D身体网格,并且通过使与AR视觉效果相关联的一个或更多个外部网格变形,来将一个或更多个AR视觉效果应用于所捕获的图像。在一些实现方式中,AR/VR应用实时地或定期地连续捕获用户的图像并且更新3D身体网格和外部网格,以连续地或定期地更新所应用的一个或更多个视觉效果。这使得用户能够在现实世界中四处移动并且实时地看到一个或更多个视觉效果更新。在一些示例中,外部网格变形系统224在运行之前(例如,在AR图形被呈现给用户之前)自动地在外部网格与3D身体网格之间建立一次对应关系,并且然后在运行期间使外部网格和3D身体网格相对于彼此变形,以更新与外部网格相关联的AR图形的显示。在其他示例中,可以在运行期间连续地更新和生成自动化对应关系,同时还使外部网格变形。
在训练中,外部网格变形系统224获得包括对具有不同的体型和特性的一个或更多个用户的描绘的第一多个输入训练图像。这些训练图像还提供了基准真实值(groundtruth)信息,该基准真实值信息包括与每个图像中描绘的一个或更多个用户对应的身体网格。基于多个训练图像的特征来训练机器学习技术(例如,深度神经网络)。具体地,机器学习技术从给定的训练图像中提取一个或更多个特征,并且估计给定的训练图像中描绘的用户的3D身体网格。机器学习技术获得与训练图像对应的包括3D身体网格的基准真实值信息,并且调整或更新一个或更多个系数或参数以改进对身体网格的后续估计。
数据架构
图3是示出根据某些示例的可以存储在消息收发服务器系统108的数据库126中的数据结构300的示意图。虽然数据库126的内容被示为包括若干表,但是将认识到,数据可以以其他类型的数据结构进行存储(例如,作为面向对象的数据库)。
数据库126包括存储在消息表302内的消息数据。对于任何特定的一个消息,该消息数据至少包括消息发送方数据、消息接收方(或接收者)数据和净荷。下面参照图4描述关于可以被包括在消息中并且被包括在存储在消息表302中的消息数据内的信息的另外的细节。
实体表306存储实体数据,并且(例如,以参考的方式)链接至实体图308和简档数据316。其记录被维持在实体表306内的实体可以包括个人、公司实体、组织、对象、地点、事件等。与实体类型无关地,消息收发服务器系统108存储关于其的数据的任何实体可以是被识别的实体。每个实体被提供独特的标识符以及实体类型标识符(未示出)。
实体图308存储关于实体之间的关系和关联的信息。仅作为示例,这样的关系可以是社交的、职业的(例如,在共同的公司或组织工作)、基于兴趣的或基于活动的。
简档数据316存储关于特定实体的多种类型的简档数据。基于由特定实体指定的隐私设置,简档数据316可以被选择性地使用并呈现给消息收发系统100的其他用户。在实体是个人的情况下,简档数据316包括例如用户名、电话号码、地址、设置(例如,通知和隐私设置)以及用户选择的化身表示(或这样的化身表示的集合)。然后,特定用户可以将这些化身表示中的一个或更多个选择性地包括在经由消息收发系统100传送的消息的内容内以及由消息收发客户端104向其他用户显示的地图界面上。化身表示的集合可以包括“状况化身”,其呈现用户可以选择在特定时间传送的状况或活动的图形表示。
在实体是团体的情况下,除了团体名称、成员以及针对相关团体的各种设置(例如,通知)之外,针对团体的简档数据316还可以类似地包括与团体相关联的一个或更多个化身表示。
数据库126还在增强表310中存储增强数据,例如覆盖或过滤器。增强数据与视频(针对其的数据被存储在视频表304中)和图像(针对其的数据被存储在图像表312中)相关联并且被应用于视频和图像。
数据库126还可以存储与单独的AR会话和共享的AR会话有关的数据。该数据可以包括在第一客户端设备102的AR会话客户端控制器与第二客户端设备102的另一AR会话客户端控制器之间传送的数据,以及在AR会话客户端控制器与增强系统208之间传送的数据。数据可以包括用于建立以下各项的数据:共享AR场景的共同坐标系;设备之间的变换;会话标识符;描绘身体的图像;骨骼关节位置;腕关节位置;脚等。
在一个示例中,过滤器是在向接收方用户呈现期间被显示为覆盖在图像或视频上的覆盖。过滤器可以是各种类型的,包括当发送用户正在编写消息时由消息收发客户端104呈现给发送用户的一组过滤器中的用户选择的过滤器。其他类型的过滤器包括地理位置过滤器(也称为地理过滤器),可以基于地理位置将其呈现给发送用户。例如,可以基于由客户端设备102的全球定位系统(GPS)单元确定的地理位置信息,由消息收发客户端104在用户界面内呈现特定于附近或特殊位置的地理位置过滤器。
另一类型的过滤器是数据过滤器,消息收发客户端104可以基于由客户端设备102在消息创建过程期间收集的其他输入或信息,将该数据过滤器选择性地呈现给发送用户。数据过滤器的示例包括特定位置处的当前温度、发送用户行进的当前速度、客户端设备102的电池寿命或当前时间。
可以被存储在图像表312内的其他增强数据包括AR内容项(例如,与应用AR体验对应)。AR内容项或AR项可以是可以被添加至图像或视频的实时特殊效果和声音。
如上所述,增强数据包括AR内容项、覆盖物、图像变换、AR图像、AR徽标或徽章、以及涉及可以应用于图像数据(例如,视频或图像)的修改的类似项。这包括实时修改,所述实时修改在使用客户端设备102的设备传感器(例如,一个或多个摄像装置)捕获到图像时对图像进行修改并且然后在客户端设备102的屏幕上显示具有所述修改的图像。这还包括对所存储的内容(例如,图库中可以被修改的视频剪辑)的修改。例如,在具有对多个AR内容项的访问权限的客户端设备102中,用户可以将单个视频剪辑与多个AR内容项一起使用来查看不同的AR内容项将如何修改所存储的剪辑。例如,通过为内容选择不同的AR内容项,可以将应用不同伪随机移动模型的多个AR内容项应用于相同内容。类似地,可以将实时视频捕获与示出的修改一起使用,以示出客户端设备102的传感器当前正捕获的视频图像将如何修改所捕获的数据。这样的数据可以仅在屏幕上显示而不存储在存储器中,或者由设备传感器捕获的内容可以在进行或不进行修改的情况(或者在这两种情况)下被记录并存储在存储器中。在一些系统中,预览特征可以同时示出不同的AR内容项在显示器中的不同窗口内看起来如何。这可以例如使得能够同时在显示器上查看具有不同伪随机动画的多个窗口。
因此,使用AR内容项的数据以及各种系统或使用该数据来修改内容的其他这样的变换系统可以涉及:检测视频帧中的现实世界对象(例如,面部、手、身体、猫、狗、表面、对象等);在这样的对象离开视场、进入视场以及在视场四处移动时对其进行跟踪;以及在跟踪这样的对象时对其进行修改或变换。在各种示例中,可以使用用于实现这样的变换的不同方法。一些示例可以涉及:生成一个或多个对象的3D网格模型,以及在视频内使用模型的变换和动画纹理来实现变换。在其他示例中,可以利用对对象上的点进行跟踪来将图像或纹理(其可以是2D或3D的)放置在跟踪位置处。在又一示例中,可以使用对视频帧的神经网络分析来将图像、模型或纹理放置在内容(例如,图像或视频的帧)中。因此,AR内容项或元素涉及以下两者:用于创建内容中的变换的图像、模型和纹理,以及利用对象检测、跟踪和放置来实现这样的变换所需的附加建模和分析信息。
可以利用保存在任何类型的计算机化系统的存储器中的任何类型的视频数据(例如,视频流、视频文件等)来执行实时视频处理。例如,用户可以加载视频文件并将其保存在设备的存储器中,或者可以使用设备的传感器来生成视频流。附加地,可以使用计算机动画模型来处理任何对象,例如人的面部和人体部位、动物,或者无生命物例如,椅子、汽车或其他对象。
在一些示例中,当特定修改与要变换的内容被一起选择时,由计算设备来标识要变换的元素,并且然后如果所述元素存在于视频的帧中,则对其进行检测和跟踪。根据修改请求来修改对象的元素,从而变换视频流的帧。可以通过用于不同类型的变换的不同方法来执行视频流的帧的变换。例如,对于主要涉及对象的元素的变化形式的帧变换,计算针对对象的每个元素的特征点(例如,使用主动形状模型(ASM)或其他已知方法)。然后,针对对象的至少一个元素中的每个元素生成基于特性点的网格。该网格被用于跟踪视频流中的对象的元素的后续阶段。在跟踪过程中,将所提及的用于每个元素的网格与每个元素的位置对准。然后,在网格上生成附加点。基于修改请求针对每个元素生成第一组第一点,并且基于该组第一点和修改请求针对每个元素生成一组第二点。然后,可以通过基于该组第一点和该组第二点以及网格修改对象的元素来变换视频流的帧。在这样的方法中,也可以通过跟踪和修改背景来使所修改对象的背景改变或扭曲。
在一些示例中,使用对象的元素来改变对象的一些区域的变换可以通过计算对象的每个元素的特性点并基于所计算的特性点生成网格来执行。在网格上生成点,并且然后生成基于所述点的各种区域。然后,通过将针对每个元素的区域与针对至少一个元素中的每个元素的位置对准来跟踪对象的元素,并且可以基于修改请求来修改区域的属性,从而对视频流的帧进行变换。根据具体的修改请求,可以以不同的方式变换所提及区域的属性。这样的修改可以涉及:改变区域的颜色;从视频流的帧中移除区域的至少某部分;将一个或更多个新对象包括在基于修改请求的区域中;以及修改区域或对象的元素或使之扭曲。在各种示例中,可以使用这样的修改或其他类似修改的任何组合。对于要被动画化的某些模型,可以选择一些特性点作为要用于确定针对模型动画化的选项的整个状态空间的控制点。
在一些示例中,可以生成与不同对象相关联的两个网格并且使其彼此对应地变形。第一网格(也被称为身体网格或3D身体网格)可以与图像或视频中描绘的现实世界对象(例如,人)相关联并且表示该现实世界对象的移动。第二网格(也被称为外部网格)可以与要应用于现实世界对象的AR图形或效果相关联。第二网格可以与放置信息相关联,该放置信息指定如何相对于第一网格在3D空间中放置或定位第二网格。放置信息可以基于第一网格的一个或更多个顶点与第二网格的一个或更多个顶点之间的接近度(通过最小或最大距离阈值或控制顶点的数目来控制)来捕获自动生成的对应关系信息。放置信息也可以按照UV空间信息来指定,该UV空间信息指示相对于第一网格的UV坐标在UV空间中放置第二网格的远近程度。放置信息还可以指定变形属性,例如,指示第一组部分基于第一变形模型(例如,基于对应的第一网格的移动)而变形以及第二组部分基于第二变形模型(例如,外力模拟模型)而变形。变形属性可以用于选择第二网格的不同部分以及控制如何使所选择的部分相对于第一网格移动。随着第一网格在图像或视频的捕获期间实时变形,第二网格的第一组部分和第二组部分类似地变形(基于第一网格的改变和/或外力模拟模型的输出),以实现对被渲染以供在图像或视频中显示的对应AR图形的改变。
在使用身体/人检测来变换图像数据的计算机动画模型的一些示例中,在使用特定的身体/人检测算法(例如,3D人姿态估计和网格重建处理)的情况下在图像上检测身体/人。然后,将ASM算法应用于图像的身体/人区域以检测身体/人特征参考点。
可以使用适于身体/人检测的其他方法和算法。例如,在一些示例中,使用界标来定位特征,该界标表示存在于所考虑的大多数图像中的可区分点。例如,对于身体/人界标,可以使用左臂的位置。如果初始界标不可识别,则可以使用次级界标。这样的界标识别过程可以用于任何这样的对象。在一些示例中,一组界标形成形状。可以使用形状中的点的坐标将形状表示为矢量。利用使形状点之间的平均欧几里德距离(mean Euclidean distance)最小化的相似性变换(允许平移、缩放和旋转)将一个形状与另一个形状对准。平均形状(mean shape)是经对准的训练形状的平均值。
在一些示例中,从与由全局身体/人检测器确定的身体/人的位置和大小对准的平均形状开始搜索界标。然后,这样的搜索重复以下步骤:通过对每个点周围的图像纹理进行模板匹配以调整形状点的位置来建议暂定形状,并且然后使暂定形状符合全局形状模型,直到发生收敛。在一些系统中,单独的模板匹配是不可靠的,并且形状模型对弱模板匹配的结果进行池化,以形成较强的整体分类器。在从粗分辨率到细分辨率的图像金字塔中的每一级处重复整个搜索。
变换系统可以在客户端设备(例如,客户端设备102)上捕获图像或视频流,并且在维持合适的用户体验、计算时间和功耗的同时,在客户端设备102上本地执行复杂的图像操纵。复杂的图像操纵可以包括大小和形状改变、情绪转变(例如,将面部从皱眉改变为微笑)、状态转变(例如,使被摄体变老、减小外表年龄、改变性别)、风格转变、图形元素应用、3D人姿态估计、3D身体网格重建、以及由已经被配置成在客户端设备102上高效地执行的卷积神经网络实现的任何其他合适的图像或视频操纵。
在一些示例中,用于变换图像数据的计算机动画模型可以由下述系统使用:在该系统中,用户可以使用具有神经网络的客户端设备102来捕获用户的图像或视频流(例如,自拍),该神经网络作为在客户端设备102上操作的消息收发客户端104的一部分来操作。在消息收发客户端104内操作的变换系统确定图像或视频流内的身体/人的存在,并且提供与用于变换图像数据的计算机动画模型相关联的修改图标,或者计算机动画模型可以与本文描述的界面相关联地存在。修改图标包括下述改变,所述改变可以是作为修改操作的一部分的用于修改图像或视频流内的用户的身体/人的基础。一旦选择了修改图标,则变换系统发起转换用户的图像以反映所选择的修改图标(例如,为用户生成微笑面部)的处理。一旦图像或视频流被捕获并且指定的修改被选择,则经修改的图像或视频流可以呈现在客户端设备102上显示的图形用户界面中。变换系统可以对图像或视频流的一部分实施复杂的卷积神经网络,以生成并应用所选择的修改。也就是说,用户可以捕获图像或视频流,并且一旦选择了修改图标,就可以实时或接近实时地向用户呈现修改后的结果。此外,在正捕获视频流并且所选择的修改图标保持切换时,修改可以是持久的。机器教导的神经网络可以用于实现这样的修改。
呈现由变换系统执行的修改的图形用户界面可以为用户供应附加的交互选项。这样的选项可以基于用于发起对特定计算机动画模型的选择和内容捕获的接口(例如,从内容创建者用户界面发起)。在各种示例中,在最初选择了修改图标之后,修改可以是持续的。用户可以通过轻击或以其他方式选择正由变换系统修改的身体/人来将修改切换为开启或关闭,并将其存储以供以后观看或浏览到成像应用的其他区域。在由变换系统修改了多个面部的情况下,用户可以通过轻击或选择在图形用户界面内修改和显示的单个身体/人来全局地将修改切换为开启或关闭。在一些示例中,可以单独修改一组多个身体/人中的各个身体/人,或者可以通过轻击或选择图形用户界面内显示的单个身体/人或一系列单独的身体/人来单独地切换这样的修改。
故事表314存储与消息和相关联的图像、视频或音频数据的集合有关的数据,这些消息和相关联的图像、视频或音频数据被汇编成集合(例如,故事或图库)。特定集合的创建可以由特定用户(例如,其记录被维持在实体表306中的每个用户)发起。用户可以创建呈已经由该用户创建和发送/广播的内容的集合的形式的“个人故事”。为此,消息收发客户端104的用户界面可以包括用户可选择的图标,以使得发送用户能够将特定内容添加至他或她的个人故事。
集合还可以构成“实况故事”,该“实况故事”是手动地、自动地或使用手动技术和自动技术的组合创建的来自多个用户的内容的集合。例如,“实况故事”可以构成来自各种位置和事件的用户提交的内容的策展流。其客户端设备启用了位置服务并且在特定时间处于共同位置事件处的用户可以例如经由消息收发客户端104的用户界面而被呈现将内容贡献给特定实况故事的选项。可以由消息收发客户端104基于用户的位置向他或她标识实况故事。最终结果是从社区角度讲述的“实况故事”。
另外类型的内容集合被称为“位置故事”,该“位置故事”使得其客户端设备102位于特定地理位置(例如,在学院或大学校园)内的用户能够对特定集合做出贡献。在一些示例中,对位置故事的贡献可能需要二级认证,以验证最终用户属于特定的组织或其他实体(例如,是大学校园的学生)。
如以上提及的,视频表304存储视频数据,在一个示例中,该视频数据与其记录被维持在消息表302内的消息相关联。类似地,图像表312存储与消息数据被存储在实体表306中的消息相关联的图像数据。实体表306可以使来自增强表310的各种增强与存储在图像表312和视频表304中的各种图像和视频相关联。
经训练的机器学习技术307存储在外部网格变形系统224的训练期间已训练的参数。例如,经训练的机器学习技术307存储一个或更多个神经网络机器学习技术的经训练的参数。
数据通信架构
图4是示出根据一些示例的消息400的结构的示意图,消息400由消息收发客户端104生成,以用于传送至另外的消息收发客户端104或消息收发服务器118。特定消息400的内容用于填充存储在可由消息收发服务器118访问的数据库126内的消息表302。类似地,消息400的内容作为客户端设备102或应用服务器114的“运输中(in-transit)”或“飞行中(in-flight)”数据存储在存储器中。消息400被示出为包括以下示例组成部分:
·消息标识符402:标识消息400的唯一标识符。
·消息文本净荷404:要由用户经由客户端设备102的用户界面生成并且包括在消息400中的文本。
·消息图像净荷406:由客户端设备102的摄像装置部件捕获或从客户端设备102的存储器部件检索并且包括在消息400中的图像数据。针对发送或接收的消息400的图像数据可以存储在图像表312中。
·消息视频净荷408:由摄像装置部件捕获或从客户端设备102的存储器部件检索并且包括在消息400中的视频数据。针对发送或接收的消息400的视频数据可以存储在视频表304中。
·消息音频净荷410:由麦克风捕获或从客户端设备102的存储器部件检索并且包括在消息400中的音频数据。
·消息增强数据412:表示要应用于消息400的消息图像净荷406、消息视频净荷408或消息音频净荷410的增强的增强数据(例如,过滤器、标贴或其他标注或增强)。针对发送或接收的消息400的增强数据可以存储在增强表310中。
·消息持续时间参数414:以秒为单位指示消息的内容(例如,消息图像净荷406、消息视频净荷408、消息音频净荷410)要经由消息收发客户端104呈现给用户或使其对于用户可访问的时间量的参数值。
·消息地理位置参数416:与消息的内容净荷相关联的地理位置数据(例如,纬度坐标和经度坐标)。多个消息地理位置参数416值可以被包括在净荷中,这些参数值中的每个参数值与包括在内容中的内容项(例如,消息图像净荷406内的特定图像、或消息视频净荷408中的特定视频)相关联。
·消息故事标识符418:标识其与消息400的消息图像净荷406中的特定内容项相关联的一个或更多个内容集合(例如,在故事表314中标识的“故事”)的标识符值。例如,可以使用标识符值将消息图像净荷406内的多个图像各自与多个内容集合相关联。
·消息标签420:每个消息400可以用多个标签来标记,所述多个标签中的每个指示消息净荷中包括的内容的主题。例如,在消息图像净荷406中包括的特定图像描绘动物(例如,狮子)的情况下,指示相关动物的标签值可以被包括在消息标签420内。标签值可以基于用户输入手动地生成,或者可以使用例如图像识别自动地生成。
·消息发送方标识符422:指示在其上生成消息400以及从其发送消息400的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
·消息接收方标识符424:指示消息400寻址到的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
消息400的各个组成部分的内容(例如,值)可以是指向在其内存储内容数据值的表中的位置的指针。例如,消息图像净荷406中的图像值可以是指向图像表312内的位置的指针(或图像表312内的位置的地址)。类似地,消息视频净荷408内的值可以指向存储在视频表304内的数据,存储在消息增强数据412内的值可以指向存储在增强表310中的数据,存储在消息故事标识符418内的值可以指向存储在故事表314中的数据,以及存储在消息发送方标识符422和消息接收方标识符424内的值可以指向存储在实体表306内的用户记录。
外部网格变形系统
图5是示出根据示例性示例的示例外部网格变形系统224的框图。外部网格变形系统224包括一组部件510,该组部件510对一组输入数据(例如,描绘现实世界对象例如人或训练数据的单目图像)进行操作。该组输入数据是在训练阶段期间从一个或更多个数据库(图3)获得的,并且是在例如由消息收发客户端104使用AR/VR应用时从客户端设备102的RGB摄像装置获得的。外部网格变形系统224包括机器学习技术模块512、骨骼关键点模块511、身体网格模块514、图像修改模块518、AR效果模块519、外部网格模块530、变形模型选择模块532、3D身体跟踪模块513、全身分割模块515和图像显示模块520。
在训练期间,外部网格变形系统224从训练数据501接收给定的训练图像或视频。外部网格变形系统224使用机器学习技术模块512将一个或更多个机器学习技术应用于给定的训练图像或视频。机器学习技术模块512从给定的训练图像或视频中提取一个或更多个特征以估计图像或视频中描绘的人或用户的3D身体网格。
机器学习技术模块512检索与给定的训练图像或视频相关联的3D身体网格信息。机器学习技术模块512将所估计的3D身体网格与作为训练数据502的一部分提供的基准真实值服装3D身体网格进行比较。基于所述比较的差异阈值或偏差,机器学习技术模块512更新一个或更多个系数或参数并获得一个或更多个附加的训练图像或视频。在处理了指定数目时期(epoch)或批次(batch)的训练图像之后以及/或者当差异阈值或偏差达到指定值时,机器学习技术模块512完成训练并且机器学习技术模块512的参数和系数被存储在经训练的机器学习技术307中。
在一些示例中,在训练期间,机器学习技术模块512从骨骼关键点模块511接收2D骨骼关节信息。骨骼关键点模块511跟踪给定的训练图像中描绘的用户的骨骼关键点(例如,头部关节、肩关节、髋关节、腿关节等),并且提供骨骼关键点的2D或3D坐标。该信息被机器学习技术模块512用于识别训练图像中描绘的用户的区别属性并且生成3D身体网格。
由机器学习技术模块512生成的3D身体网格被提供给身体网格模块514。身体网格模块514可以跟踪图像或视频中描绘的对象,并且更新与该对象相关联的3D身体网格。在示例中,身体网格模块514可以基于由3D身体跟踪模块513提供的3D身体跟踪信息来跟踪对象。身体网格模块514可以在3D中更新3D身体网格,并且可以调整3D身体网格的位置、体型、旋转或任何其他参数。
图6是根据一些示例的外部网格变形系统224的输出的图解表示。具体地,图6示出了由身体网格模块514生成并跟踪的3D身体网格600。在一个示例中,身体网格模块514可以跟踪3D身体网格在视频的帧之间的变化。身体网格模块514可以向外部网格模块530提供3D身体网格的变化,以更新外部网格的与和身体移动变形模型对应的变形属性相关联的一个或更多个部分并使其变形。作为示例,该一个或更多个部分可以附接至3D身体网格或与3D身体网格交叠,并且可以基于3D身体网格的变化而被调整或变形。
外部网格模块530可以基于相应的变形属性来标识外部网格中要变形的不同部分。例如,第一变形属性可以对应于服装位置度量。服装位置度量可以用于基于外部网格的一组特定部分相对于3D身体网格的一个或更多个界标的位置来将该组特定部分与给定变形模型相关联。具体地,服装位置度量可以标识3D身体网格上的界标,例如3D身体网格的腿部区域、躯干区域或头部区域。服装位置度量还可以指定距所标识的界标的最小距离或最大距离。外部网格模块530可以基于外部网格的与服装位置度量对应的一组顶点最初如何被放置或对准或与3D身体网格对应来确定该组顶点。
在一个示例中,服装位置度量可以将腿部区域标识为3D身体网格的指定界标。在这样的情况下,外部网格模块530可以确定外部网格的第一组顶点或第一部分与3D身体网格的腿部区域交叠。作为响应,外部网格模块530可以确定针对外部网格的第一组顶点或第一部分的服装位置度量满足服装位置度量。外部网格模块530然后可以与变形模型选择模块532通信,以获得第一变形模型并将其应用于外部网格的第一组顶点或第一部分。变形模型选择模块532可以标识与满足服装位置度量相关联的第一变形模型。变形模型选择模块532然后可以将第一变形模型(例如,外力模型)应用于外部网格的第一组顶点或第一部分。
外部网格模块530可以确定外部网格的第二组顶点或第二部分被放置在距指定界标诸如3D身体网格的腿部区域大于阈值距离的地方。作为响应,外部网格模块530可以确定针对外部网格的第二组顶点或第二部分的服装位置度量不满足服装位置度量。外部网格模块530然后可以与变形模型选择模块532通信,以获得第二变形模型并将其应用于外部网格的与不满足服装位置度量的部分对应的第二组顶点或第二部分。变形模型选择模块532可以标识与不满足服装位置度量相关联的第二变形模型。变形模型选择模块532然后可以将第二变形模型(例如,身体移动模型)应用于外部网格的第二组顶点或第二部分。
外部网格模块530可以确定外部网格的第三组顶点或第三部分被放置在距另一界标诸如3D身体网格的躯干区域大于阈值距离的地方。作为响应,外部网格模块530可以确定针对外部网格的第三组顶点或第三部分的服装位置度量满足服装位置度量。外部网格模块530然后可以与变形模型选择模块532通信,以获得第三变形模型并将其应用于外部网格的第三组顶点或第三部分。变形模型选择模块532可以标识与服装位置度量相关联的第三变形模型。变形模型选择模块532然后可以将第三变形模型(例如,布料模拟模型)应用于外部网格的第三组顶点或第三部分。
当与外部网格相关联的现实世界对象在视频中移动时,由外部网格模块530标识的部分可以随时间推移而改变以与不同的变形模型相关联。也就是说,在第一时间点处,外部网格的第一部分可以被确定成满足第一变形属性。在这样的情况下,第一部分可以基于第一变形模型而变形。随后,在第二时间点处,现实世界对象可以移动或旋转,从而引起外部网格的移动。作为结果,现在可以确定第一部分不再满足第一变形属性,并且作为响应,第一部分可以在第二时间点处基于第二变形模型而不是第一变形模型而变形。
在一些情况下,可以对不同的变形属性进行排名或加权,以控制向外部网格的对应区域应用多大程度的变形以及哪种类型的变形。也就是说,在一些实现方式中,变形模型选择模块532可以确定外部网格的同一组顶点或第一部分与多个变形属性相关联并满足这多个变形属性。在这样的情况下,变形模型选择模块532可以确定变形属性的排名,并且仅将与最高排名相关联的一个变形模型应用于该组顶点或第一部分。在一些实现方式中,变形模型选择模块532可以获得与所满足的多个变形属性或者与外部网格的该组顶点或第一部分相关联的多个变形属性相关联的权重。变形模型选择模块532然后可以以混合方式将多个变形模型应用于外部网格的该组顶点或第一部分,使得通过每个变形模型施加的变形的量和与对应变形属性相关联的权重对应。例如,可以使外部网格的该组顶点或第一部分与第一变形属性和第二变形属性相关联,其中第一变形属性与权重0.3相关联,并且第二变形属性与权重0.7相关联。在这样的情况下,变形模型选择模块532可以以使第二变形模型与第二变形属性相关联的混合方式,将与第一变形属性相关联的第一变形模型应用于外部网格的该组顶点或第一部分。也就是说,变形模型选择模块532可以基于第一变形模型使该组顶点或第一部分变形的量为0.3,并且基于第二变形模型使该组顶点或第一部分变形的量为0.7。
作为另一示例,第二变形属性可以对应于服装宽松度度量。服装宽松度度量可以用于基于外部网格的一组特定部分的宽松度来将该组特定部分与给定的变形模型相关联。具体地,服装宽松度度量可以标识服装的特定区域或每个区域的宽松度。
在一个示例中,服装宽松度度量可以标识外部网格的与第一宽松度相关联的第一组顶点或第一部分。作为响应,外部网格模块530可以基于第一宽松度确定外部网格的第一部分满足服装宽松度度量。外部网格模块530然后可以与变形模型选择模块532通信,以获得第一变形模型并将其应用于外部网格的第一部分。变形模型选择模块532可以标识与满足服装宽松度度量相关联的第一变形模型。变形模型选择模块532然后可以将第一变形模型(例如,外力模型)应用于外部网格的第一部分。类似地,外部网格模块530可以确定外部网格的第二部分与第二宽松度相关联。作为响应,外部网格模块530可以确定对于第二部分而言不满足服装宽松度度量。外部网格模块530然后可以与变形模型选择模块532通信,以获得第二变形模型并将其应用于外部网格的与不满足服装宽松度度量的部分对应的第二部分。变形模型选择模块532可以标识与不满足服装宽松度度量相关联的第二变形模型。变形模型选择模块532然后可以将第二变形模型(例如,身体移动模型)应用于外部网格的第二部分。
例如,第三变形属性可以对应于身体网格密度阈值。服装宽松度度量可以用于基于3D身体网格的一个或更多个界标的身体密度,将外部网格的一组特定部分与给定的变形模型相关联。可以通过获得图像或视频中描绘的与3D身体网格相关联的现实世界对象的权重并且将该权重除以给定区域中像素的数量来计算身体密度。较大密度表示用权重除以给定区域中像素的数量得到较小值,而较小密度表示用权重除以给定区域中像素的数量得到较大值。外部网格模块530可以通过基于现实世界对象的权重计算第一区域中像素的密度,来确定外部网格的与身体网格密度阈值对应的一组顶点。外部网格模块530可以标识:第一部分,其具有低于身体网格密度阈值的密度(例如,第一部分满足身体网格密度阈值);以及第二部分,其具有大于身体网格密度阈值的密度(例如,第二部分超过身体网格密度阈值)。
外部网格模块530然后可以与变形模型选择模块532通信,以获得第一变形模型并将其应用于外部网格的第一部分以及获得第二变形模型并将其应用于第二部分。变形模型选择模块532可以标识与满足身体网格密度阈值相关联的第一变形模型,并且可以标识与超过身体网格密度阈值相关联的第二变形模型。变形模型选择模块532然后可以将第一变形模型应用于外部网格的第一部分,并且将第二变形模型应用于外部网格的第二部分。
例如,第四变形属性可以对应于距离阈值。距离阈值可以用于基于外部网格的一组特定部分相对于3D身体网格的不同部分的距离来将这样的部分与给定变形模型相关联。在示例中,外部网格模块530可以标识外部网格的第一部分,该第一部分具有距对应3D身体网格的边缘大于阈值距离的顶点。例如,外部网格模块530可以选择外部网格的与3D身体网格的腿部部分对应的顶点。外部网格模块530可以计算外部网格的与腿部部分对应的一个或一组顶点和腿部部分的一个或一组边缘之间的距离。外部网格模块530可以将所计算的距离与距离阈值进行比较以确定距离阈值被满足还是被未满足。在距离大于距离阈值的这种情况下,外部网格模块530可以确定第一部分不满足距离阈值。外部网格模块530然后可以与变形模型选择模块532通信,以获得第一变形模型并将其应用于外部网格的第一部分。
作为另一示例,第五变形属性可以对应于用户标记的顶点属性。用户标记的顶点属性可以用于基于外部网格创建者附接至外部网格的顶点的标记,来将外部网格的一组特定部分与给定变形模型相关联。具体地,外部网格的创建者可以将诸如数字或颜色的标识符附接或关联至外部网格的一个或一组顶点的属性。外部网格模块530可以检测该标识符,并且使用该标识符来选择要应用于所述一个或一组顶点的特定变形模型。
在另一示例中,外部网格模块530可以标识外部网格的第二部分,该第二部分具有距对应3D身体网格的边缘小于阈值距离的顶点。例如,外部网格模块530可以选择外部网格的与3D身体网格的躯干部分对应的顶点。外部网格模块530可以计算外部网格的与躯干部分对应的一个或一组顶点和躯干部分的一个或一组边缘之间的距离。外部网格模块530可以将所计算的距离与距离阈值进行比较以确定距离阈值被满足还是未被满足。在距离小于距离阈值的这种情况下,外部网格模块530可以确定第二部分满足距离阈值。外部网格模块530然后可以与变形模型选择模块532通信,以获得第二变形模型并将其应用于外部网格的第二部分。
在一个示例中,应用于外部网格的给定部分的变形模型是身体移动模型。在这样的情况下,外部网格模块530可以向变形模型选择模块532提供3D身体网格的移动信息。变形模型选择模块532可以基于3D身体网格的变形或移动信息,使外部网格的所标识部分(与其他部分分别地)变形。例如,外部网格模块530可以接收对3D身体网格的移动、位移或旋转方向的指示或者对3D身体网格的形状、大小或位置的调整的指示,并且然后可以在外部网格的所标识部分与移动变形模型相关联的这种情况下基于接收到的指示使所标识部分变形。
在示例中,身体网格模块514可以针对视频各帧中的第一帧确定3D身体网格在法线-切线空间中的第一组坐标,并且可以针对视频各帧中的第二帧确定3D身体网格在法线-切线空间中的第二组坐标。身体网格模块514可以实时地计算法线-切线空间中第一组坐标与第二组坐标之间的变化,并且可以将法线-切线空间中第一组坐标与第二组坐标的变化传递至外部网格。具体地,外部网格模块530可以基于法线-切线空间中第一组坐标与第二组坐标之间的变化,来更新和调整与身体移动变形模型相关联的外部网格部分的3D位置和3D取向。以这种方式,外部网格模块530可以在不需要使用现实世界对象的骨架或骨信息的情况下使外部网格的与AR图形相关联的部分变形。
在示例中,外部网格模块530可以计算法线-切线空间(或任何其他合适的空间)中第一组坐标变成第二组坐标的速率。外部网格模块530可以基于外力模型使外部网格的其他部分变形,该外力模型表示法线-切线空间(或任何其他合适的空间)中第一组坐标变成第二组坐标的速率。例如,如果图像或视频中描绘的人以特定的速率或速度转动或扭转,则身体网格模块514可以计算表示人转动或扭转的方向和速度的第一速率。该第一速率被提供给外部网格模块530,外部网格模块530然后基于该第一速率使外部网格的自由悬挂或悬垂部分改变或变形。在示例中,第一速率可以包括第一值,在这样的情况下,外部网格的第二部分以与人转动或扭转的速度相同的速度在与人转动或扭转的方向相反的方向上沿z轴移动。
外部网格模块530可以接收来自AR效果模块519的对AR图形的指示。AR效果模块519可以接收选择给定AR图形(例如,AR钱包、AR项链、AR布臂带、AR皮带等)以实时添加至底层图像或视频的用户输入。外部网格模块530可以访问数据库,并且在数据库中搜索与给定AR图形相关联的外部网格。外部网格模块530可以获得关于外部网格的放置信息。放置信息可以指定关于或相对于现实世界对象将AR图形放置在图像或视频中何处,以及基于哪种变形模型(例如,基于现实世界对象的移动或者基于外力模拟(例如,风、碰撞、物理、重力等))来使AR图形的哪些部分变形。
在一个示例中,放置信息可以指定与现实世界图形对应的3D身体网格的附接至外部网格的第一部分或与外部网格的第一部分交叠的边缘或身体部位(例如,左臂、右臂、头部等)。放置信息还可以指定对应AR图形(外部网格的第一部分)的边缘与其可以被渲染以供显示的边缘或身体部位之间的最小距离。作为响应,外部网格模块530可以遍及多个视频帧将外部网格(和对应AR图形)的位置维持在距身体网格的边缘或身体部分至少最小距离处。同时,外部网格的第二部分基于变形模型选择模块532的输出而移动、移位和变形。
在一个示例中,放置信息可以指定与现实世界图形对应的身体网格的附接至外部网格的第一部分或与外部网格的第一部分交叠的边缘或身体部位(例如,左臂、右臂、头部等)。放置信息还可以指定对应AR图形(外部网格)的边缘距其可以被渲染以供显示的边缘或身体部位之间的最大距离。作为响应,外部网格模块530可以遍及多个视频帧将外部网格(和对应AR图形)的位置维持在距身体网格的边缘或身体部位至多最大距离处。同时,外部网格的第二部分基于变形模型选择模块532的输出而移动、移位和变形。
在一个示例中,放置信息可以指定与现实世界图形对应的身体网格的附接至外部网格的第一部分或与外部网格的第一部分交叠的边缘或身体部位(例如,左臂、右臂、头部等)。放置信息还可以指定对应AR图形(外部网格)的边缘距其可以被渲染以供显示的边缘或身体部位之间的距离范围。作为响应,外部网格模块530可以遍及多个视频帧将外部网格(和对应AR图形)的位置维持在距身体网格的边缘或身体部位的距离范围的最小值与最大值之间。同时,外部网格的第二部分基于变形模型选择模块532的输出而移动、移位和变形。
在一个示例中,放置信息可以指定附接至外部网格的第一部分或与外部网格的第一部分交叠的3D身体网格的相对UV通道坐标。相对UV通道坐标可以用于将外部网格(和对应AR图形)维护并放置在描绘对象的图像或视频内。在这种情况下,外部网格模块530可以获得与图像或视频中描绘的现实世界对象对应的身体网格的UV通道坐标。外部网格模块530还可以基于与3D身体网格相关联的UV坐标和放置信息中的相对UV通道坐标来计算外部网格的第一部分的一组UV通道坐标。例如,放置信息可以指定距可以放置外部网格的第一部分的3D身体网格的特定UV通道坐标的最小或最大距离。作为响应,外部网格模块530可以将外部网格放置在处于距3D身体网格的UV坐标最小或最大距离内的一组UV通道坐标处。作为结果,在与该组UV坐标对应的位置处、与外部网格相关联的对应AR图形被添加至图像或视频。同时,外部网格的第二部分基于变形模型选择模块532的输出而移动、移位和变形。也就是说,外部网格模块530可以标识外部网格的第二部分,该第二部分附接至外部网格的第一部分或邻近第一部分而未附接至3D身体网格。该第二部分可以基于从变形模型选择模块532接收到的信息而变形和移动。
放置信息可以指定外部网格的哪些顶点、像素、UV坐标或位置与3D身体网格相关联、附接至3D身体网格和/或与3D身体网格交叠。放置信息可以指定外部网格的哪些顶点、像素、UV坐标或位置相对于3D身体网格自由悬垂。对于这些第二部分,放置信息包括对基于由变形模型选择模块532提供的计算和变形来使外部网格变形的指示。在一个示例中,放置信息可以包括外力细节,所述外力细节指定用于计算第二部分的对应变形的外力函数。外力函数可以包括物理模拟、碰撞模拟、链式物理、布料模拟和/或其他合适的外力模拟函数。
基于针对3D身体网格检测到的改变和放置信息,外部网格模块530可以与3D身体网格中检测到的改变对应地使外部网格的第一部分变形。在一个示例中,可以响应于检测到3D身体网格的3D位置的改变,使外部网格变形以改变相对于3D身体网格的3D位置。例如,如果确定3D身体网格沿第一轴移动了第一量,则使外部网格类似地沿第一轴移动第一量(或被计算为第一量的因子的一些其他量)。外部网格的第二部分可以基于从变形模型选择模块532接收到的外力模拟信息沿第二轴移动。作为另一示例,可以使外部网格以与3D身体网格对应的方式旋转或扭转。具体地,如果确定3D身体网格沿旋转轴旋转了第二量,则使外部网格类似地沿旋转轴旋转第二量(或被计算为第二量的因子的一些其他量)。
作为另一示例,可以基于身体形状、身体状态或身体性质在图像或视频的各个帧之间的改变,使外部网格的第一部分变形,而无需使外部网格的第二部分变形。具体地,如果3D身体网格的一部分在尺寸上缩减(例如,腰部由于外力(例如手放置在腰部上)而缩进指定量),则外部网格的对应部分也按相同量或其他指定量在尺寸上缩减或在3D空间中被重新定位。也就是说,如果外部网格与覆盖在图像或视频中描绘的人之上的AR钱包带相关联,则作为3D身体网格在尺寸上缩减或缩进的结果,钱包的AR带(与钱包的AR带相关联的外部网格的与腰部对应的部分)在尺寸上缩减或缩进。在另一示例中,3D身体网格可以基于图像中描绘的人的呼吸循环而周期性地扩张和收缩3D身体网格的胸部部分(或上身部分)。在这样的情况下,被置于3D身体网格的胸部或上身部分(而不是外部网格的任何其他部分)上的对应部分会发生变形,以根据呼吸循环在尺寸上扩张和收缩。
在示例中,身体网格模块514可以计算对应对象的法线-切线空间的变化。也就是说,身体网格模块514可以确定3D身体网格在法线-切线空间中的移动,并且可以将对该移动的指示提供给外部网格模块530。外部网格模块530可以基于法线-切线空间中的移动使外部网格发生改变。在一些情况下,外部网格模块530可以使外部网格的第一部分变形以反映法线-切线空间中的相同移动。在一些情况下,外部网格模块530可以使外部网格的第一部分变形,作为法线-切线空间中移动的因素。同时,外部网格模块530可以使外部网格的第二部分基于对应对象在法线-切线空间中变化的速率而变形。也就是说,可以使外部网格的第一部分变形以反映3D身体网格在法线-切线空间中的变化,同时可以使外部网格的第二部分根据这样的变化发生的速率而变形。
变形模型选择模块532可以实现包括一个或更多个外力模拟模型的多个不同的变形模型,并且可以将这些模型的输出进行组合以生成关于外部网格的相应部分的移动和变形信息。例如,变形模型选择模块532可以实现重力模拟模型,该重力模拟模型基于与图像或视频中描绘的给定对象相关联的运动信息来计算外部网格的对应部分(例如,外部网格的被确定为具有与重力模拟变形模型相关联的变形属性的部分)的新轨迹。重力模拟模型接收以下各项作为输入:对象的当前位置、对象的过去位置、对象的移动矢量、对象的取向、当对象处于过去位置时外部网格的第二部分的位置、以及定向重力函数(directionalgravity function)。重力模拟模型基于将定向重力函数应用于对象的当前位置、对象的过去位置、对象的移动矢量、对象的取向、或当对象处于过去位置时外部网格的第二部分的位置,来输出与对象的当前位置对应的外部网格的第二部分的一组新坐标和位置。外部网格的第二部分的该组新坐标和位置被提供给外部网格模块530,然后外部网格模块530基于先前位置、外部网格的第二部分的该组新坐标和位置、以及3D身体网格的相对位置来使对应部分变形。
作为另一示例,变形模型选择模块532可以实现布料模拟模型,该布模拟模型基于与图像或视频中描绘的给定对象相关联的运动信息以及与和外部网格对应的AR元素相关联的布料或材料类型,来计算外部网格的对应部分(例如,外部网格的被确定为具有与布料模拟变形模型相关联的变形属性的部分)的新轨迹。布模拟模型接收以下各项作为输入:对象的当前位置、对象的过去位置、对象的移动矢量、对象的取向、当对象处于过去位置时外部网格的对应部分的位置、与外部网格的对应部分相关联的材料或布料类型、以及布料模拟函数。布料模拟模型基于将布料模拟函数应用于对象的当前位置、对象的过去位置、对象的移动矢量、对象的取向、对应部分的布料或材料类型、或当对象处于过去位置时外部网格的第二部分的位置,来输出与对象的当前位置对应的外部网格的对应部分的一组新坐标和位置。外部网格的对应部分的该组新坐标和位置被提供给外部网格模块530,然后外部网格模块530基于先前位置、外部网格的第二部分的该组新坐标和位置、布料或材料类型、以及3D身体网格的相对位置来使对应部分变形。
作为另一示例,变形模型选择模块532可以实现链式物理模拟模型,该链式物理模拟模型基于与图像或视频中描绘的给定对象相关联的运动信息,来计算外部网格的对应部分(例如,外部网格的被确定为具有与链式物理模拟变形模型相关联的变形属性的部分)的新轨迹。链式物理模拟模型接收以下各项作为输入:对象的当前位置、对象的过去位置、对象的移动矢量、对象的取向、当对象处于过去位置时外部网格的对应部分的位置、以及链式物理函数。链式物理模拟模型基于将链式物理函数应用于对象的当前位置、对象的过去位置、对象的移动矢量、对象的取向、或当对象处于过去位置时外部网格的第二部分的位置,来输出与对象的当前位置对应的外部网格的对应部分的一组新坐标和位置。外部网格的对应部分的该组新坐标和位置被提供给外部网格模块530,然后外部网格模块530基于先前位置、外部网格的第二部分的该组新坐标和位置、以及3D身体网格的相对位置来使对应部分变形。
作为另一示例,变形模型选择模块532可以实现碰撞模拟模型,该碰撞模拟模型基于与图像或视频中描绘的给定对象相关联的运动信息,来计算外部网格的对应部分(例如,外部网格的被确定为具有与碰撞模拟变形模型相关联的变形属性的部分)的新轨迹。碰撞模拟模型接收以下各项作为输入:对象的当前位置、对象的过去位置、对象的移动矢量、对象的取向、当对象处于过去位置时外部网格的对应部分的位置、以及碰撞函数。碰撞模拟模型基于将碰撞函数应用于对象的当前位置、对象的过去位置、对象的移动矢量、对象的取向、或当对象处于过去位置时外部网格的对应部分的位置,来输出针对与对象的当前位置对应的外部网格的对应部分的扩张或收缩的量。例如,如果通过碰撞模拟模型确定外部网格的对应部分以第一速率与对象的边缘碰撞或交叠,则扩张或收缩的量被计算为第一值。第一值也可以是由外部网格表示的AR元素的材料或类型以及/或者对象的材料或类型的因子(factor)。如果通过碰撞模拟模型确定外部网格的对应部分以第二速率(大于第一速率)与对象的边缘碰撞或交叠,则扩张或收缩的量被计算为第二值,其中第二值大于第一值。外部网格的对应部分的扩张或收缩的量被提供给外部网格模块530,然后外部网格模块530基于先前位置、外部网格的对应部分的一组新坐标和位置、3D身体网格的相对位置以及扩张或收缩的量来使对应部分变形。以这种方式,外部网格的一个部分可以基于碰撞模拟而扩张或收缩,而外部网格的其他部分仅基于3D身体网格的移动而变形并且可能不一定进行扩张或收缩。
在示例中,AR效果选择模块519基于从身体网格模块514接收到的与对象相关联的身体网格,选择一个或更多个AR元素或图形并将其应用于图像或视频中描绘的对象。与图像或视频中描绘的现实世界对象组合的这些AR图形被提供给图像修改模块518,以用于对描绘穿戴AR对象例如AR钱包或耳环的人的图像或视频进行渲染。
图像修改模块518可以基于由视觉效果选择模块519选择的AR效果来调整由摄像装置捕获的图像。图像修改模块518例如通过基于用户的3D身体网格的变化和外力模拟来改变AR服装或时尚配饰的物理性质(变形)以及应用一个或更多个AR元素(AR图形元素),来调整在图像或视频中呈现被放置在图像或视频中所描绘的用户或人身上的AR服装或时尚配饰的方式。图像显示模块520将由图像修改模块518进行的调整组合到所接收的描绘用户身体的单目图像或视频中。该图像或视频由图像显示模块520提供给客户端设备102,并且然后可以被发送至另一用户或者被存储以供以后访问和显示。
在一些示例中,图像修改模块518和/或外部网格模块530从3D身体跟踪模块513接收表示图像中描绘的用户的3D位置的3D身体跟踪信息。3D身体跟踪模块513通过使用附加的机器学习技术对训练数据501进行处理来生成3D身体跟踪信息。图像修改模块518还可以通过另一机器学习技术来接收全身分割,该全身分割表示图像中哪些像素与用户的全身对应。可以从全身分割模块515接收全身分割。全身分割模块515通过使用机器学习技术对训练数据501进行处理来生成全身分割。
在一个示例中,如图7所示,AR效果选择模块519可以使用外部网格720将一个或更多个AR效果应用于在图像或视频700中描绘的与由客户端设备102捕获的3D身体网格710对应的对象。外部网格720可以包括与第一变形属性相关联的第一部分750以及与第二变形属性相关联的第二部分752。在示例中,第一部分750可以包括连衣裙的紧密贴合在人的躯干周围的部分,并且第二部分752可以包括连衣裙的宽松地贴合在人的腿部周围的底部。
外部网格模块530可以接收3D身体网格710,并且还可以例如从存储设备获得与AR图形730(例如,AR连衣裙)相关联的外部网格720。外部网格模块530可以获得与外部网格720相关联的放置信息740。放置信息740可以指定接近度参数742、UV通道坐标744和/或变形参数746。基于放置信息740,外部网格模块530可以指定将外部网格720(和对应的AR图形730)放置和定位在图像或视频700中何处。基于放置信息740,外部网格模块530可以标识AR图形730的不同部分(例如,满足一个或更多个变形属性的第一部分750以及满足一个或更多个其他变形属性的第二部分752),并且指示变形模型选择模块532将不同的变形模型应用于AR图形730的不同部分。
在示例中,外部网格模块530可以计算外部网格720的第一部分750与3D身体网格710之间的对应关系722。对应关系722可以用于基于使3D身体网格710变形的方式(例如,基于移动模型)来使外部网格720的第一部分750沿一个或更多个轴线724在3D中变形。当外部网格模块530使外部网格720的第一部分750变形时,基于放置信息740,对应AR图形730类似地变形并被渲染以供在图像或视频内显示。外部网格模块530可以获得关于第二部分752的变形信息,并且可以基于外力变形模型来使第二部分752(独立于第一部分750、与第一部分750分别地以及/或者与第一部分750一起)变形。
在一个示例中,为了生成放置信息740,可以在客户端设备102上向AR图形设计者提供参考3D身体网格。AR图形设计者可以将图形设计者与AR图形相关联地创建的外部网格(例如,外部网格720)拖放至参考3D身体网格上。AR图形设计者可以输入相对放置参数,例如接近度参数和UV通道坐标,或者客户端设备102可以基于外部网格的不同边缘或像素相对于3D身体网格的不同边缘、像素或身体部位的远近程度而自动地计算放置参数。使用这些信息,与AR图形相关联地生成并存储放置信息740。在一些情况下,自动地创建放置信息740并将其呈现给AR设计者。AR设计者可以为外部网格的每个边缘或者一个或更多个边缘或像素或体素指定范围、最小值或最大值。外部网格模块530使用这些范围、最小值或最大值以基于图像或视频中描绘的对象的3D身体网格来控制外部网格(和对应的AR图形)在图像或视频内的放置和定位。
还可以为AR图形设计者提供用于输入变形属性746的图形用户界面。AR图形设计者还可以指定变形属性746的坐标、UV坐标、体素位置、和/或放置位置。AR图形设计者可以输入自定义变形函数例如外力函数,并且/或者可以选择要应用的外力函数的子集。
如图8所示,在基于3D身体网格710的变形信息和移动使外部网格变形之后,将对应的AR图形730进行渲染以供在图像或视频上显示。具体地,图像或视频800包括对用户或人810以及已经基于3D身体网格的移动而变形的AR图形730(例如,AR连衣裙)的描绘。图像或视频800包括对用户或人810以及已经基于由变形模型选择模块532提供的外力进行的计算而变形的变形AR图形822(例如,AR连衣裙)的描绘。
图9是根据一些示例的由外部网格变形系统224执行的过程900的流程图。尽管流程图可以将操作描述为顺序过程,但是这些操作中的许多操作可以并行或同时执行。此外,可以重新布置操作的顺序。当过程的操作完成时,过程被终止。过程可以对应于方法、程序等。方法的步骤可以全部或部分地执行,可以结合其他方法中的步骤中的一些或全部步骤来执行,并且可以由任何数目的不同系统或其任何部分(例如,包括在系统中的任何系统中的处理器)来执行。
在操作901处,如以上所讨论的,外部网格变形系统224(例如,客户端设备102或服务器)接收视频,该视频包括对现实世界对象的描绘。
在操作902处,如以上所讨论的,外部网格变形系统224生成与现实世界对象相关联的3D身体网格,该3D身体网格跟踪现实世界对象在视频各帧之间的移动。
在操作903处,如以上所讨论的,外部网格变形系统224获得与AR元素相关联的外部网格。
在操作904处,如以上所讨论的,外部网格变形系统224访问与外部网格相关联的多个变形属性,所述多个变形属性中的每个变形属性对应于不同的变形模型。
在操作905处,如以上所讨论的,外部网格变形系统224基于相应的变形模型,使外部网格的与多个变形属性中的第一变形属性相关联的第一部分以及外部网格的与多个变形属性中的第二变形属性相关联的第二部分分别变形。
在操作906处,如以上所讨论的,外部网格变形系统224修改视频以包括对基于外部网格的分别变形的第一部分和第二部分的AR元素的显示。
机器架构
图10是机器1000的图解表示,在机器1000内可以执行用于使机器1000执行本文讨论的方法中的任何一种或更多种方法的指令1008(例如,软件、程序、应用、小程序、app或其他可执行代码)。例如,指令1008可以使机器1000执行本文描述的方法中的任何一种或更多种方法。指令1008将通用的未经编程的机器1000转换成被编程为以所描述的方式执行所描述和所示出的功能的特定机器1000。机器1000可以作为独立设备操作或者可以耦接(例如,联网)至其他机器。在联网部署中,机器1000可以在服务器客户端网络环境中以服务器机器或客户端机器的身份操作,或者在对等(或分布式)网络环境中作为对等机器操作。机器1000可以包括但不限于:服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、机顶盒(STB)、个人数字助理(PDA)、娱乐媒体系统、蜂窝电话、智能电话、移动设备、可穿戴设备(例如,智能手表)、智能家居设备(例如,智能电器)、其他智能设备、web装置、网络路由器、网络交换机、网络桥接器或者能够顺序地或以其他方式执行指定要由机器1000采取的动作的指令1008的任何机器。此外,虽然仅示出了单个机器1000,但是术语“机器”还应被认为包括单独地或联合地执行指令1008以执行本文讨论的方法中的任何一种或更多种方法的机器的集合。例如,机器1000可以包括客户端设备102或形成消息收发服务器系统108的一部分的若干服务器设备中的任何一个。在一些示例中,机器1000还可以包括客户端系统和服务器系统二者,其中特定方法或算法的某些操作在服务器侧执行,并且特定方法或算法的某些操作在客户端侧执行。
机器1000可以包括可以被配置成经由总线1040彼此通信的处理器1002、存储器1004和输入/输出(I/O)部件1038。在示例中,处理器1002(例如,中央处理单元(CPU)、精简指令集计算(RISC)处理器、复杂指令集计算(CISC)处理器、图形处理单元(GPU)、数字信号处理器(DSP)、专用集成电路(ASIC)、射频集成电路(RFIC)、另外的处理器或其任何合适的组合)可以包括例如执行指令1008的处理器1006和处理器1010。术语“处理器”旨在包括多核处理器,所述多核处理器可以包括可以同时执行指令的两个或更多个独立处理器(有时被称为“核”)。尽管图10示出了多个处理器1002,但是机器1000可以包括具有单个核的单个处理器、具有多个核的单个处理器(例如,多核处理器)、具有单个核的多个处理器、具有多个核的多个处理器、或者其任何组合。
存储器1004包括主存储器1012、静态存储器1014和存储单元1016,其均可由处理器1002经由总线1040访问。主存储器1004、静态存储器1014和存储单元1016存储体现本文描述的方法或功能中的任何一种或更多种方法或功能的指令1008。指令1008在其由机器1000执行期间还可以完全地或部分地驻留在主存储器1012内、静态存储器1014内、存储单元1016内的机器可读介质内、处理器1002中的至少一个处理器内(例如,处理器的高速缓存存储器内)或者其任何合适的组合内。
I/O部件1038可以包括用于接收输入、提供输出、产生输出、发送信息、交换信息、捕获测量结果等的各种部件。特定机器中包括的特定I/O部件1038将取决于机器的类型。例如,诸如移动电话的便携式机器可以包括触摸输入设备或其他这样的输入机构,而无头服务器机器将不太可能包括这样的触摸输入设备。将认识到,I/O部件1038可以包括图10中未示出的许多其他部件。在各种示例中,I/O部件1038可以包括用户输出部件1024和用户输入部件1026。用户输出部件1024可以包括视觉部件(例如,诸如等离子显示面板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪或阴极射线管(CRT)的显示器)、声学部件(例如,扬声器)、触觉部件(例如,振动马达、阻力机构)、其他信号发生器等。用户输入部件1026可以包括字母数字输入部件(例如,键盘、被配置成接收字母数字输入的触摸屏、光电键盘、或其他字母数字输入部件)、基于指向的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器、或另一指向仪器)、触觉输入部件(例如,物理按钮、提供触摸或触摸姿势的位置和力的触摸屏、或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
在另外的示例中,I/O部件1038可以包括生物计量部件1028、运动部件1030、环境部件1032、或定位部件1034以及各种其他部件。例如,生物计量部件1028包括用于检测表达(例如,手部表达、面部表达、声音表达、身体姿势或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、排汗或脑波)、识别人(例如,声音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件1030包括加速度传感器部件(例如,加速度计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)。
环境部件1032包括:例如一个或更多个摄像装置(具有静止图像/照片和视频能力)、照明传感器部件(例如,光度计)、温度传感器部件(例如,检测环境温度的一个或更多个温度计)、湿度传感器部件、压力传感器部件(例如,气压计)、声学传感器部件(例如,检测背景噪声的一个或更多个麦克风)、接近度传感器部件(例如,检测附近对象的红外传感器)、气体传感器(例如,为了安全而检测危险气体的浓度或者测量大气中的污染物的气体检测传感器),或者可以提供与周围物理环境对应的指示、测量或信号的其他部件。
关于摄像装置,客户端设备102可以具有摄像装置系统,该摄像装置系统包括例如在客户端设备102的前表面上的前置摄像装置以及在客户端设备102的后表面上的后置摄像装置。前置摄像装置可以例如用于捕获客户端设备102的用户的静止图像和视频(例如,“自拍”),该静止图像和视频然后可以用上面描述的增强数据(例如,过滤器)进行增强。后置摄像装置可以例如用于以更常规的摄像装置模式捕获静止图像和视频,类似地使用增强数据对这些图像进行增强。除了前置摄像装置和后置摄像装置之外,客户端设备102还可以包括用于捕获360°照片和视频的360°摄像装置。
此外,客户端设备102的摄像装置系统可以包括双后置摄像装置(例如,主摄像装置以及深度感测摄像装置),或者甚至在客户端设备102的前侧和后侧包括三后置摄像装置配置、四后置摄像装置配置或五后置摄像装置配置。例如,这些多个摄像装置系统可以包括广角摄像装置、超广角摄像装置、长焦摄像装置、微距摄像装置和深度传感器。
定位部件1034包括位置传感器部件(例如,GPS接收器部件)、海拔高度传感器部件(例如,检测气压的高度计或气压计,根据气压可以得到海拔高度)、取向传感器部件(例如,磁力计)等。
可以使用各种技术来实现通信。I/O部件1038还包括通信部件1036,通信部件1036可操作成经由相应的耦接或连接将机器1000耦接至网络1020或设备1022。例如,通信部件1036可以包括与网络1020对接的网络接口部件或另一合适的设备。在另外的示例中,通信部件1036可以包括有线通信部件、无线通信部件、蜂窝通信部件、近场通信(NFC)部件、部件(例如,/>低功耗)、/>部件以及经由其他模态提供通信的其他通信部件。设备1022可以是另一机器或各种外围设备中的任何外围设备(例如,经由USB耦接的外围设备)。
此外,通信部件1036可以检测标识符或者包括可操作成检测标识符的部件。例如,通信部件1036可以包括射频标识(RFID)标签阅读器部件、NFC智能标签检测部件、光学阅读器部件(例如,用于检测诸如通用产品代码(UPC)条形码的一维条形码、诸如快速反应(QR)码的多维条形码、Aztec码、数据矩阵(Data Matrix)、数据符号(Dataglyph)、最大码(MaxiCode)、PDF417、超码(Ultra Code)、UCC RSS-2D条形码和其他光学码的光学传感器)或声学检测部件(例如,用于识别所标记的音频信号的麦克风)。此外,可以经由通信部件1036得到各种信息,例如经由因特网协议(IP)地理位置得到位置、经由信号三角测量得到位置、经由检测可以指示特定位置的NFC信标信号得到位置等。
各种存储器(例如,主存储器1012、静态存储器1014和处理器1002的存储器)以及存储单元1016可以存储由本文描述的方法或功能中的任何一种或更多种方法或功能实现或使用的一组或更多组指令和数据结构(例如,软件)。这些指令(例如,指令1008)在由处理器1002执行时使各种操作实现所公开的示例。
可以使用传输介质并且使用若干公知的传输协议中的任何一种传输协议(例如,HTTP)经由网络接口设备(例如,通信部件1036中包括的网络接口部件),通过网络1020来发送或接收指令1008。类似地,可以使用传输介质经由到设备1022的耦接(例如,对等耦接)来发送或接收指令1008。
软件架构
图11是示出软件架构1104的框图1100,软件架构1104可以安装在本文描述的设备中的任何一个或更多个设备上。软件架构1104由硬件支持,该硬件例如是包括处理器1120、存储器1126和I/O部件1138的机器1102。在该示例中,软件架构1104可以被概念化为层的堆栈,其中每个层提供特定功能。软件架构1104包括诸如操作系统1112、库1110、框架1108和应用的层。在操作上,应用1106通过软件堆栈来激活API调用1150并且响应于API而调用1150接收消息1152。
操作系统1112管理硬件资源并且提供公共服务。操作系统1112包括例如:核1114、服务1116和驱动器1122。核1114充当硬件层与其他软件层之间的抽象层。例如,核1114提供存储器管理、处理器管理(例如,调度)、部件管理、联网和安全设置等功能。服务1116可以为其他软件层提供其他公共服务。驱动器1122负责控制底层硬件或与底层硬件对接。例如,驱动器1122可以包括显示驱动器、摄像装置驱动器、或低功耗驱动器、闪存驱动器、串行通信驱动器(例如,USB驱动器)、驱动器、音频驱动器、电力管理驱动器等。
库1110提供由应用1106使用的公共低级基础设施。库1110可以包括系统库1118(例如,C标准库),系统库1118提供诸如存储器分配功能、字符串操纵功能、数学功能等的功能。此外,库1110可以包括API库1124,例如媒体库(例如,用于支持各种媒体格式的呈现和操纵的库,所述各种媒体格式例如运动图像专家组-4(MPEG4)、高级视频编码(H.264或AVC)、运动图像专家组层-3(MP3)、高级音频编码(AAC)、自适应多速率(AMR)音频编解码器、联合图像专家组(JPEG或JPG)或便携式网络图形(PNG))、图形库(例如,用于在显示器上的图形内容中以2D和3D进行渲染的OpenGL框架)、数据库库(例如,提供各种关系数据库功能的SQLite)、web库(例如,提供web浏览功能的WebKit)等。库1110还可以包括用于向应用1106提供许多其他API的各种其他库1128。
框架1108提供由应用1106使用的公共高级基础设施。例如,框架1108提供各种图形用户界面功能、高级资源管理和高级定位服务。框架1108可以提供可以由应用1106使用的广泛的其他API,所述其他API中的一些API可以专用于特定的操作系统或平台。
在示例中,应用1106可以包括家庭应用1136、联系人应用1130、浏览器应用1132、书籍阅读器应用1134、位置应用1142、媒体应用1144、消息收发应用1146、游戏应用1148以及诸如外部应用1140的各种其他应用。应用1106是执行程序中限定的功能的程序。可以采用各种编程语言来创建以各种方式构造的应用1106中的一个或更多个,所述编程语言例如面向对象的编程语言(例如,Objective-C、Java或C++)或过程编程语言(例如,C语言或汇编语言)。在具体的示例中,外部应用1140(例如,由特定平台的供应商以外的实体使用ANDROIDTM或IOSTMSDK开发的应用)可以是在移动操作系统例如IOSTM、ANDROIDTM、Phone或其他移动操作系统上运行的移动软件。在该示例中,外部应用1140可以激活由操作系统1112提供的API调用1150以促进本文描述的功能。
术语表
“载波信号”是指能够存储、编码或携载用于由机器执行的指令的任何无形介质,并且包括数字或模拟通信信号或其他无形介质以促进这样的指令的传送。可以经由网络接口设备使用传输介质通过网络来发送或接收指令。
“客户端设备”是指与通信网络对接以从一个或更多个服务器系统或其他客户端设备获得资源的任何机器。客户端设备可以是但不限于移动电话、桌上型计算机、膝上型计算机、PDA、智能电话、平板计算机、超级本、上网本、笔记本电脑、多处理器系统、基于微处理器或可编程消费电子产品、游戏控制台、机顶盒或用户可以用于访问网络的任何其他通信设备。
“通信网络”是指网络的一个或更多个部分,该网络可以是自组织网络、内联网、外联网、虚拟专用网络(VPN)、局域网(LAN)、无线LAN(WLAN)、广域网(WAN)、无线WAN(WWAN)、城域网(MAN)、因特网、因特网的一部分、公共交换电话网(PSTN)的一部分、普通老式电话服务(POTS)网络、蜂窝电话网络、无线网络、网络、其他类型的网络、或两个或更多个这样的网络的组合。例如,网络或网络的一部分可以包括无线网络或蜂窝网络,并且耦接可以是码分多址(CDMA)连接、全局移动通信系统(GSM)连接或其他类型的蜂窝或无线耦接。在该示例中,耦接可以实现各种类型的数据传输技术中的任何数据传输技术,例如单载波无线电传输技术(1xRTT)、演进数据优化(EVDO)技术、通用分组无线电服务(GPRS)技术、GSM演进的增强数据速率(EDGE)技术、包括3G的第三代合作伙伴计划(3GPP)、第四代无线(4G)网络、通用移动通讯系统(UMTS)、高速分组接入(HSPA)、全球微波接入互操作性(WiMAX)、长期演进(LTE)标准、由各种标准设置组织定义的其他数据传输技术、其他长距离协议或其他数据传输技术。
“部件”是指具有边界的设备、物理实体或逻辑,该边界由功能或子例程调用、分支点、API或者对特定处理或控制功能提供分区或模块化的其他技术限定。部件可以经由其接口与其他部件组合以执行机器处理。部件可以是被设计用于与其他部件一起使用的经封装的功能硬件单元,并且是通常执行相关功能中的特定功能的程序的一部分。
部件可以构成软件组件(例如,在机器可读介质上实施的代码)或硬件部件。“硬件部件”是能够执行某些操作并且可以以某种物理方式来配置或布置的有形单元。在各种示例中,可以通过软件(例如,应用或应用部分)将一个或更多个计算机系统(例如,独立计算机系统、客户端计算机系统或服务器计算机系统)或者计算机系统的一个或更多个硬件部件(例如,处理器或处理器组)配置为进行操作以执行本文描述的某些操作的硬件部件。
也可以机械地、电子地或其任何合适的组合来实现硬件部件。例如,硬件部件可以包括被永久地配置成执行某些操作的专用电路系统或逻辑。硬件部件可以是专用处理器,例如现场可编程门阵列(FPGA)或ASIC。硬件部件还可以包括通过软件被临时配置成执行某些操作的可编程逻辑或电路系统。例如,硬件部件可以包括由通用处理器或其他可编程处理器执行的软件。一旦通过这样的软件进行配置,硬件部件就成为被独特地定制成执行所配置功能的特定机器(或机器的特定部件),而不再是通用处理器。将认识到,可以出于成本和时间考虑来决定是机械地在专用且永久配置的电路系统中实现硬件部件还是在临时配置(例如,通过软件进行配置)的电路系统中实现硬件部件。因此,短语“硬件部件”(或“硬件实现的部件”)应当被理解成包含有形实体,即被物理构造、永久配置(例如,被硬连线)或临时配置(例如,被编程)成以某种方式进行操作或者执行本文描述的某些操作的实体。
考虑硬件部件被临时配置(例如,被编程)的示例,无需在任一时刻对硬件部件中的每个硬件部件进行配置或实例化。例如,在硬件部件包括通过软件进行配置而变成专用处理器的通用处理器的情况下,可以在不同时间处将该通用处理器分别配置成不同的专用处理器(例如,包括不同的硬件部件)。软件相应地配置一个或多个特定处理器,以例如在一个时刻处构成特定硬件部件并且在不同时刻处构成不同的硬件部件。
硬件部件可以向其他硬件部件提供信息并且从其他硬件部件接收信息。因此,所描述的硬件部件可以被认为是通信地耦接的。在同时存在多个硬件部件的情况下,可以通过在硬件部件中的两个或更多个硬件部件之间或之中的信号传输(例如,通过适当的电路和总线)来实现通信。在多个硬件部件在不同时间处被配置或被实例化的示例中,可以例如通过将信息存储在多个硬件部件具有访问权限的存储器结构中并且在该存储器结构中检索信息来实现这样的硬件部件之间的通信。例如,一个硬件部件可以执行操作并且将该操作的输出存储在与其通信地耦接的存储器设备中。然后,另外的硬件部件可以在随后的时间处访问该存储器设备以检索所存储的输出并对其进行处理。硬件部件还可以发起与输入设备或输出设备的通信,并且可以对资源(例如,信息的集合)进行操作。
本文描述的示例方法的各种操作可以至少部分地由被临时配置(例如,通过软件)或被永久配置成执行相关操作的一个或更多个处理器来执行。无论是被临时配置还是被永久配置,这样的处理器可以构成进行操作以执行本文描述的一个或更多个操作或功能的处理器实现的部件。如本文所使用的,“处理器实现的部件”是指使用一个或更多个处理器实现的硬件部件。类似地,本文描述的方法可以至少部分地由处理器实现,其中特定的一个或多个处理器是硬件的示例。例如,方法的操作中的至少一些可以由一个或更多个处理器1002或处理器实现的部件来执行。此外,一个或更多个处理器还可以进行操作以支持“云计算”环境中的相关操作的执行或者作为“软件即服务”(SaaS)操作。例如,操作中的至少一些可以由一组计算机(作为包括处理器的机器的示例)来执行,其中这些操作可以经由网络(例如,因特网)并且经由一个或更多个适当的接口(例如,API)来访问。某些操作的执行可以分布在处理器之间,不是仅驻留在单个机器内,而是被跨若干机器部署。在一些示例中,处理器或处理器实现的部件可以位于单个地理位置(例如,在家庭环境、办公室环境或服务器群内)。在其他示例中,处理器或处理器实现的部件可以跨若干地理位置分布。
“计算机可读存储介质”是指机器存储介质和传输介质二者。因此,术语包括存储设备/介质和载波/调制数据信号二者。术语“机器可读介质”、“计算机可读介质”和“设备可读介质”意指相同的事物,并且可以在本公开内容中互换使用。
“短时消息”是指可访问达有时限持续时间的消息。短时消息可以是文本、图像、视频等。短时消息的访问时间可以由消息发送方设置。替选地,访问时间可以是默认设置或者由接收方指定的设置。无论设置技术如何,该消息都是暂时的。
“机器存储介质”是指存储可执行指令、例程和数据的单个或多个存储设备和介质(例如,集中式或分布式数据库,以及相关联的高速缓存和服务器)。因此,该术语应被视为包括但不限于固态存储器以及光学和磁介质,包括处理器内部或外部的存储器。机器存储介质、计算机存储介质和设备存储介质的具体示例包括:非易失性存储器,包括例如半导体存储器设备,例如可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、FPGA和闪存设备;磁盘,例如内部硬盘和可移除磁盘;磁光盘;以及CD-ROM和DVD-ROM盘。术语“机器存储介质”、“设备存储介质”、“计算机存储介质”意指相同的事物,并且在本公开内容中可以互换使用。术语“机器存储介质”、“计算机存储介质”和“设备存储介质”明确地排除了载波、调制数据信号和其他这样的介质,其中的至少一些被涵盖在术语“信号介质”中。
“非暂态计算机可读存储介质”是指能够存储、编码或携载由机器执行的指令的有形介质。
“信号介质”是指能够存储、编码或携载由机器执行的指令的任何无形介质,并且包括数字或模拟通信信号或利于软件或数据的通信的其他无形介质。术语“信号介质”应当被视为包括任何形式的调制数据信号、载波等。术语“调制数据信号”意指其一个或更多个特性被以下述方式来设置或改变的信号:将信息编码在该信号中。术语“传输介质”和“信号介质”意指相同的事物,并且可以在本公开内容中互换使用。
在不脱离本公开内容的范围的情况下,可以对所公开的示例进行改变和修改。这些以及其他改变或修改旨在包括在如所附权利要求书中所表达的本公开内容的范围内。
Claims (20)
1.一种方法,包括:
由客户端设备的一个或更多个处理器接收视频,所述视频包括对现实世界对象的描绘;
由所述一个或更多个处理器生成与所述现实世界对象相关联的三维(3D)身体网格,所述3D身体网格跟踪所述现实世界对象在所述视频的帧之间的移动;
获得与增强现实(AR)元素相关联的外部网格;
获取与所述外部网格相关联的多个变形属性,所述多个变形属性中的每个变形属性对应于不同的变形模型;
基于相应的变形模型,使所述外部网格的与所述多个变形属性中的第一变形属性相关联的第一部分以及所述外部网格的与所述多个变形属性中的第二变形属性相关联的第二部分分别变形;以及
根据所述3D身体网格来修改所述视频,以包括对基于所述外部网格的分别变形的第一部分和第二部分的所述AR元素的显示。
2.根据权利要求1所述的方法,还包括:
确定所述外部网格的第一部分与所述多个变形属性中的第一变形属性相关联;以及
确定所述外部网格的第二部分与所述多个变形属性中的第二变形属性相关联。
3.根据权利要求1至2中任一项所述的方法,还包括:
自动建立与所述现实世界对象相关联的3D身体网格和所述外部网格之间的对应关系,其中,所述现实世界对象包括人;并且
其中,所述3D身体网格表示在所述视频中描绘的所述人的全身。
4.根据权利要求3所述的方法,其中,所述多个变形属性中的第一变形属性包括距离阈值,所述方法还包括:
计算所述外部网格的第一部分中的顶点与所述3D身体网格的和所述外部网格的第一部分对应的边缘之间的距离;
确定所述外部网格的第一部分中的顶点与所述3D身体网格的所述边缘之间的距离超过所述距离阈值;以及
响应于确定所述外部网格的第一部分中的顶点与所述3D身体网格的所述边缘之间的距离超过所述距离阈值,基于所述变形模型中的第一变形模型使所述第一部分变形。
5.根据权利要求3至4中任一项所述的方法,还包括:
计算所述外部网格的第二部分中的顶点与所述3D身体网格的和所述外部网格的第二部分对应的给定边缘之间的距离;
确定所述外部网格的第二部分中的顶点与所述3D身体网格的所述给定边缘之间的距离小于所述距离阈值;以及
响应于确定所述外部网格的第二部分中的顶点与所述3D身体网格的所述给定边缘之间的距离小于所述距离阈值,基于所述变形模型中的第二变形模型使所述第二部分变形。
6.根据权利要求3至5中任一项所述的方法,其中,所述变形模型中的第一变形模型包括外力模型,并且其中,所述变形模型中的第二变形模型包括表示所述3D身体网格的移动的移动模型。
7.根据权利要求3至6中任一项所述的方法,其中,所述外力模型通过物理模拟、碰撞模拟、链式物理或布料模拟中的至少一者限定。
8.根据权利要求3至7中任一项所述的方法,其中,所述多个变形属性中的第一变形属性包括身体网格密度阈值,所述方法还包括:
计算所述3D身体网格中与所述外部网格的第一部分对应的部分内的像素的密度;
确定所述像素的密度超过所述身体网格密度阈值;以及
响应于确定所述像素的密度超过所述身体网格密度阈值,基于所述变形模型中的第一变形模型使所述第一部分变形。
9.根据权利要求3至8中任一项所述的方法,还包括:
计算所述3D身体网格中与所述外部网格的第二部分对应的第二部分内的像素的密度;
确定所述第二部分内的像素的密度小于所述身体网格密度阈值;以及
响应于确定所述第二部分内的像素的密度小于所述身体网格密度阈值,基于所述变形模型中的第二变形模型使所述第二部分变形。
10.根据权利要求3至9中任一项所述的方法,其中,所述变形模型中的第一变形模型包括表示所述3D身体网格的移动的移动模型,并且其中,所述变形模型中的第二变形模型包括外力模型。
11.根据权利要求1至10中任一项所述的方法,其中,所述多个变形属性中的第一变形属性对应于服装宽松度度量,其中,响应于确定所述外部网格的第一部分满足所述服装宽松度度量,基于外力模型使所述外部网格的第一部分变形。
12.根据权利要求1至11中任一项所述的方法,其中,所述多个变形属性中的第一变形属性对应于服装位置度量,其中,响应于确定所述外部网格的第一部分满足所述服装位置度量,基于外力模型使所述外部网格的第一部分变形,其中,响应于确定所述外部网格的第二部分不满足所述服装位置度量,基于身体移动模型使所述外部网格的第二部分变形。
13.根据权利要求12所述的方法,其中,响应于确定所述外部网格的第一部分对应于所述3D身体网格的第一部分,所述服装位置度量得到满足,并且其中,响应于确定所述外部网格的第一部分对应于所述3D身体网格的第二部分,所述第二部分不满足所述服装位置度量。
14.根据权利要求12至13中任一项所述的方法,其中,所述3D身体网格的第一部分包括腿部,并且其中,所述3D身体网格的第二部分包括躯干。
15.根据权利要求12至14中任一项所述的方法,其中,所述服装位置度量表示所述外部网格的给定部分相对于所述3D身体网格的躯干部分的距离。
16.根据权利要求1至15中任一项所述的方法,其中:
所述多个变形属性中的第一变形属性对应于服装位置度量、服装宽松度度量、身体网格密度阈值或距离阈值中的至少一者;并且
所述多个变形属性中的第二变形属性对应于所述服装位置度量、所述服装宽松度度量、所述身体网格密度阈值或所述距离阈值中的至少不同者。
17.根据权利要求1至16中任一项所述的方法,还包括获得关于所述外部网格的放置信息,所述放置信息描述指示所述外部网格的哪些部分基于所述现实世界对象的移动而变形以及所述外部网格的哪些部分基于外力模型而变形或被控制的多个属性。
18.根据权利要求1至17中任一项所述的方法,还包括:
针对所述视频的帧中的第一帧,确定所述3D身体网格在法线-切线空间中的第一组坐标;
针对所述视频的帧中的第二帧,确定所述3D身体网格在所述法线-切线空间中的第二组坐标;
实时计算所述法线-切线空间中所述第一组坐标与所述第二组坐标之间的变化;以及
将所述法线-切线空间中所述第一组坐标与所述第二组坐标之间的变化传送至所述外部网格的第一部分或第二部分。
19.一种系统,包括:
客户端设备的处理器;以及
存储器部件,所述存储器部件上存储有指令,所述指令在由所述处理器执行时使所述处理器执行操作,所述操作包括:
接收视频,所述视频包括对现实世界对象的描绘;
生成与所述现实世界对象相关联的三维(3D)身体网格,所述3D身体网格跟踪所述现实世界对象在所述视频的帧之间的移动;
获得与增强现实(AR)元素相关联的外部网格;
获取与所述外部网格相关联的多个变形属性,所述多个变形属性中的每个变形属性对应于不同的变形模型;
基于相应的变形模型,使所述外部网格的与所述多个变形属性中的第一变形属性相关联的第一部分以及所述外部网格的与所述多个变形属性中的第二变形属性相关联的第二部分分别变形;以及
根据所述3D身体网格来修改所述视频,以包括对基于所述外部网格的分别变形的第一部分和第二部分的所述AR元素的显示。
20.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质上存储有指令,所述指令在由客户端设备的处理器执行时使所述处理器执行操作,所述操作包括:
接收视频,所述视频包括对现实世界对象的描绘;
由所述处理器生成与所述现实世界对象相关联的三维(3D)身体网格,所述3D身体网格跟踪所述现实世界对象在所述视频的帧之间的移动;
获得与增强现实(AR)元素相关联的外部网格;
获取与所述外部网格相关联的多个变形属性,所述多个变形属性中的每个变形属性对应于不同的变形模型;
基于相应的变形模型,使所述外部网格的与所述多个变形属性中的第一变形属性相关联的第一部分以及所述外部网格的与所述多个变形属性中的第二变形属性相关联的第二部分分别变形;以及
修改所述视频,以包括对基于所述外部网格的分别变形的第一部分和第二部分的所述AR元素的显示。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/498,394 US11836862B2 (en) | 2021-10-11 | 2021-10-11 | External mesh with vertex attributes |
US17/498,394 | 2021-10-11 | ||
PCT/US2022/046234 WO2023064244A1 (en) | 2021-10-11 | 2022-10-11 | External mesh with vertex attributes |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118119977A true CN118119977A (zh) | 2024-05-31 |
Family
ID=84329934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280068248.4A Pending CN118119977A (zh) | 2021-10-11 | 2022-10-11 | 具有顶点属性的外部网格 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11836862B2 (zh) |
EP (1) | EP4416695A1 (zh) |
KR (1) | KR20240090365A (zh) |
CN (1) | CN118119977A (zh) |
WO (1) | WO2023064244A1 (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11908083B2 (en) | 2021-08-31 | 2024-02-20 | Snap Inc. | Deforming custom mesh based on body mesh |
US11798238B2 (en) | 2021-09-14 | 2023-10-24 | Snap Inc. | Blending body mesh into external mesh |
US11836866B2 (en) | 2021-09-20 | 2023-12-05 | Snap Inc. | Deforming real-world object using an external mesh |
US11836862B2 (en) | 2021-10-11 | 2023-12-05 | Snap Inc. | External mesh with vertex attributes |
US11790614B2 (en) | 2021-10-11 | 2023-10-17 | Snap Inc. | Inferring intent from pose and speech input |
US11763481B2 (en) | 2021-10-20 | 2023-09-19 | Snap Inc. | Mirror-based augmented reality experience |
US20230351701A1 (en) * | 2022-04-28 | 2023-11-02 | Snap Inc. | Context-based selection of augmented reality experiences |
US20240062495A1 (en) * | 2022-08-21 | 2024-02-22 | Adobe Inc. | Deformable neural radiance field for editing facial pose and facial expression in neural 3d scenes |
CN116757919B (zh) * | 2023-06-13 | 2024-06-04 | 上海任意门科技有限公司 | 变形迁移的纠偏方法、装置及计算机可读存储介质 |
Family Cites Families (200)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7859551B2 (en) | 1993-10-15 | 2010-12-28 | Bulman Richard L | Object customization and presentation system |
US5880731A (en) | 1995-12-14 | 1999-03-09 | Microsoft Corporation | Use of avatars with automatic gesturing and bounded interaction in on-line chat session |
US6023270A (en) | 1997-11-17 | 2000-02-08 | International Business Machines Corporation | Delivery of objects in a virtual world using a descriptive container |
WO1999046697A1 (fr) | 1998-03-11 | 1999-09-16 | Yasuo Nishizawa | Interverrouillage par http d'un outil accessoire agent a applications integrees sur serveur web |
US6268846B1 (en) | 1998-06-22 | 2001-07-31 | Adobe Systems Incorporated | 3D graphics based on images and morphing |
US20020067362A1 (en) | 1998-11-06 | 2002-06-06 | Agostino Nocera Luciano Pasquale | Method and system generating an avatar animation transform using a neutral face image |
US6223165B1 (en) | 1999-03-22 | 2001-04-24 | Keen.Com, Incorporated | Method and apparatus to connect consumer to expert |
US6772195B1 (en) | 1999-10-29 | 2004-08-03 | Electronic Arts, Inc. | Chat clusters for a virtual world application |
JP2001230801A (ja) | 2000-02-14 | 2001-08-24 | Sony Corp | 通信システムとその方法、通信サービスサーバおよび通信端末装置 |
US6922685B2 (en) | 2000-05-22 | 2005-07-26 | Mci, Inc. | Method and system for managing partitioned data resources |
US20050206610A1 (en) | 2000-09-29 | 2005-09-22 | Gary Gerard Cordelli | Computer-"reflected" (avatar) mirror |
US8117281B2 (en) | 2006-11-02 | 2012-02-14 | Addnclick, Inc. | Using internet content as a means to establish live social networks by linking internet users to each other who are simultaneously engaged in the same and/or similar content |
US6910186B2 (en) | 2000-12-08 | 2005-06-21 | Kyunam Kim | Graphic chatting with organizational avatars |
US7925703B2 (en) | 2000-12-26 | 2011-04-12 | Numedeon, Inc. | Graphical interactive interface for immersive online communities |
EP1495447A1 (en) | 2002-03-26 | 2005-01-12 | KIM, So-Woon | System and method for 3-dimension simulation of glasses |
KR100493525B1 (ko) | 2002-05-03 | 2005-06-07 | 안현기 | 아바타 메일 제공시스템 및 방법 |
US8495503B2 (en) | 2002-06-27 | 2013-07-23 | International Business Machines Corporation | Indicating the context of a communication |
US7636755B2 (en) | 2002-11-21 | 2009-12-22 | Aol Llc | Multiple avatar personalities |
US7484176B2 (en) | 2003-03-03 | 2009-01-27 | Aol Llc, A Delaware Limited Liability Company | Reactive avatars |
US20070113181A1 (en) | 2003-03-03 | 2007-05-17 | Blattner Patrick D | Using avatars to communicate real-time information |
US20070168863A1 (en) | 2003-03-03 | 2007-07-19 | Aol Llc | Interacting avatars in an instant messaging communication session |
US7423656B2 (en) | 2003-03-11 | 2008-09-09 | National University Of Singapore | Method and apparatus for generating morphing sequence |
KR20040091331A (ko) | 2003-04-21 | 2004-10-28 | 홍지선 | 자연어처리기술을 이용하여 입력된 문자메시지와 그 문장내용에 상응하는 아바타 표현 방법 및 시스템 |
KR100762629B1 (ko) | 2003-08-26 | 2007-10-01 | 삼성전자주식회사 | 휴대단말기의 백업서비스 처리방법 |
US7420574B2 (en) | 2004-04-16 | 2008-09-02 | Autodesk, Inc. | Shape morphing control and manipulation |
US7385603B2 (en) | 2004-06-30 | 2008-06-10 | Warner Bros. Entertainment, Inc. | Method for simulating motion of cloth |
US7342587B2 (en) | 2004-10-12 | 2008-03-11 | Imvu, Inc. | Computer-implemented system and method for home page customization and e-commerce support |
US7468729B1 (en) | 2004-12-21 | 2008-12-23 | Aol Llc, A Delaware Limited Liability Company | Using an avatar to generate user profile information |
KR100714192B1 (ko) | 2005-04-08 | 2007-05-02 | 엔에이치엔(주) | 노출 부위가 가변되는 아바타 제공 시스템 및 그 방법 |
US20060294465A1 (en) | 2005-06-22 | 2006-12-28 | Comverse, Inc. | Method and system for creating and distributing mobile avatars |
US8963926B2 (en) | 2006-07-11 | 2015-02-24 | Pandoodle Corporation | User customized animated video and method for making the same |
US7775885B2 (en) | 2005-10-14 | 2010-08-17 | Leviathan Entertainment, Llc | Event-driven alteration of avatars |
RU2396599C2 (ru) | 2005-12-31 | 2010-08-10 | Тенсент Текнолоджи (Шэньчжэнь) Компани Лимитед | Способ отображения трехмерного аватара и система, осуществляющая этот способ |
US20070176921A1 (en) | 2006-01-27 | 2007-08-02 | Koji Iwasaki | System of developing urban landscape by using electronic data |
US20100011422A1 (en) | 2006-02-16 | 2010-01-14 | Wee-World Limited | Portable account information |
JP4921550B2 (ja) | 2006-05-07 | 2012-04-25 | 株式会社ソニー・コンピュータエンタテインメント | ゲームプレイ中にコンピュータ生成アバターに感情的特徴を与える方法 |
WO2007134402A1 (en) | 2006-05-24 | 2007-11-29 | Mor(F) Dynamics Pty Ltd | Instant messaging system |
US20080158222A1 (en) | 2006-12-29 | 2008-07-03 | Motorola, Inc. | Apparatus and Methods for Selecting and Customizing Avatars for Interactive Kiosks |
US8504926B2 (en) | 2007-01-17 | 2013-08-06 | Lupus Labs Ug | Model based avatars for virtual presence |
GB0703974D0 (en) | 2007-03-01 | 2007-04-11 | Sony Comp Entertainment Europe | Entertainment device |
GB2447094B (en) | 2007-03-01 | 2010-03-10 | Sony Comp Entertainment Europe | Entertainment device and method |
WO2008134625A1 (en) | 2007-04-26 | 2008-11-06 | Ford Global Technologies, Llc | Emotive advisory system and method |
CN101071457B (zh) | 2007-04-28 | 2010-05-26 | 腾讯科技(深圳)有限公司 | 一种网络游戏中改变角色形象的方法、装置以及服务器 |
WO2008141125A1 (en) | 2007-05-10 | 2008-11-20 | The Trustees Of Columbia University In The City Of New York | Methods and systems for creating speech-enabled avatars |
WO2008151424A1 (en) | 2007-06-11 | 2008-12-18 | Darwin Dimensions Inc. | Metadata for avatar generation in virtual environments |
GB2450757A (en) | 2007-07-06 | 2009-01-07 | Sony Comp Entertainment Europe | Avatar customisation, transmission and reception |
US20090016617A1 (en) | 2007-07-13 | 2009-01-15 | Samsung Electronics Co., Ltd. | Sender dependent messaging viewer |
US8726194B2 (en) | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
US8146005B2 (en) | 2007-08-07 | 2012-03-27 | International Business Machines Corporation | Creating a customized avatar that reflects a user's distinguishable attributes |
US20090055484A1 (en) | 2007-08-20 | 2009-02-26 | Thanh Vuong | System and method for representation of electronic mail users using avatars |
US20090070688A1 (en) | 2007-09-07 | 2009-03-12 | Motorola, Inc. | Method and apparatus for managing interactions |
US8924250B2 (en) | 2007-09-13 | 2014-12-30 | International Business Machines Corporation | Advertising in virtual environments based on crowd statistics |
WO2009046342A1 (en) | 2007-10-04 | 2009-04-09 | Playspan, Inc. | Apparatus and method for virtual world item searching |
US20090106672A1 (en) | 2007-10-18 | 2009-04-23 | Sony Ericsson Mobile Communications Ab | Virtual world avatar activity governed by person's real life activity |
US8892999B2 (en) | 2007-11-30 | 2014-11-18 | Nike, Inc. | Interactive avatar for social network services |
US8151191B2 (en) | 2007-12-07 | 2012-04-03 | International Business Machines Corporation | Managing objectionable material in 3D immersive virtual worlds |
US20090158170A1 (en) | 2007-12-14 | 2009-06-18 | Rajesh Narayanan | Automatic profile-based avatar generation |
US20090177976A1 (en) | 2008-01-09 | 2009-07-09 | Bokor Brian R | Managing and presenting avatar mood effects in a virtual world |
US8495505B2 (en) | 2008-01-10 | 2013-07-23 | International Business Machines Corporation | Perspective based tagging and visualization of avatars in a virtual world |
WO2009101153A2 (en) | 2008-02-13 | 2009-08-20 | Ubisoft Entertainment S.A. | Live-action image capture |
EP2252955A1 (en) | 2008-03-03 | 2010-11-24 | Nike International Ltd. | Interactive athletic equipment system |
US9744466B2 (en) | 2008-03-13 | 2017-08-29 | Mattel, Inc. | Widgetized avatar and a method and system of creating and using same |
US8832552B2 (en) | 2008-04-03 | 2014-09-09 | Nokia Corporation | Automated selection of avatar characteristics for groups |
US20090265604A1 (en) | 2008-04-21 | 2009-10-22 | Microsoft Corporation | Graphical representation of social network vitality |
US20090300525A1 (en) | 2008-05-27 | 2009-12-03 | Jolliff Maria Elena Romera | Method and system for automatically updating avatar to indicate user's status |
US20090303984A1 (en) | 2008-06-09 | 2009-12-10 | Clark Jason T | System and method for private conversation in a public space of a virtual world |
US8095878B2 (en) | 2008-06-23 | 2012-01-10 | International Business Machines Corporation | Method for spell check based upon target and presence of avatars within a virtual environment |
US8839327B2 (en) | 2008-06-25 | 2014-09-16 | At&T Intellectual Property Ii, Lp | Method and apparatus for presenting media programs |
CA2729630C (en) | 2008-06-30 | 2017-09-12 | Accenture Global Services Limited | Modification of avatar attributes for use in a gaming system via a moderator interface |
US20120246585A9 (en) | 2008-07-14 | 2012-09-27 | Microsoft Corporation | System for editing an avatar |
CA2732268C (en) | 2008-07-28 | 2020-07-21 | Breakthrough Performancetech, Llc | Systems and methods for computerized interactive skill training |
US8384719B2 (en) | 2008-08-01 | 2013-02-26 | Microsoft Corporation | Avatar items and animations |
US8832201B2 (en) | 2008-08-18 | 2014-09-09 | International Business Machines Corporation | Method, system and program product for providing selective enhanced privacy and control features to one or more portions of an electronic message |
US8108774B2 (en) | 2008-09-26 | 2012-01-31 | International Business Machines Corporation | Avatar appearance transformation in a virtual universe |
US8648865B2 (en) | 2008-09-26 | 2014-02-11 | International Business Machines Corporation | Variable rendering of virtual universe avatars |
US8869197B2 (en) | 2008-10-01 | 2014-10-21 | At&T Intellectual Property I, Lp | Presentation of an avatar in a media communication system |
US8683354B2 (en) | 2008-10-16 | 2014-03-25 | At&T Intellectual Property I, L.P. | System and method for distributing an avatar |
US20100115426A1 (en) | 2008-11-05 | 2010-05-06 | Yahoo! Inc. | Avatar environments |
US8745152B2 (en) | 2008-11-06 | 2014-06-03 | Disney Enterprises, Inc. | System and method for server-side avatar pre-rendering |
US8458601B2 (en) | 2008-12-04 | 2013-06-04 | International Business Machines Corporation | System and method for item inquiry and information presentation via standard communication paths |
WO2010074786A2 (en) | 2008-12-04 | 2010-07-01 | Total Immersion Software, Inc. | System and methods for dynamically injecting expression information into an animated facial mesh |
US20100162149A1 (en) | 2008-12-24 | 2010-06-24 | At&T Intellectual Property I, L.P. | Systems and Methods to Provide Location Information |
US9105014B2 (en) | 2009-02-03 | 2015-08-11 | International Business Machines Corporation | Interactive avatar in messaging environment |
KR101558553B1 (ko) | 2009-02-18 | 2015-10-08 | 삼성전자 주식회사 | 아바타 얼굴 표정 제어장치 |
US20100227682A1 (en) | 2009-03-04 | 2010-09-09 | Microsoft Corporation | Awarding of avatar items in video game environment |
US20110093780A1 (en) | 2009-10-16 | 2011-04-21 | Microsoft Corporation | Advertising avatar |
JP5553141B2 (ja) | 2009-11-11 | 2014-07-16 | ソニー株式会社 | 画像処理システム、画像処理装置、画像処理方法、およびプログラム |
KR20110070056A (ko) | 2009-12-18 | 2011-06-24 | 한국전자통신연구원 | 사용자 맞춤형 고품질 3d 아바타 생성 방법 및 그 장치 |
TWI434227B (zh) | 2009-12-29 | 2014-04-11 | Ind Tech Res Inst | 動畫產生系統及方法 |
US8484158B2 (en) | 2010-02-01 | 2013-07-09 | International Business Machines Corporation | Managing information about avatars across virtual worlds |
US20110239136A1 (en) | 2010-03-10 | 2011-09-29 | Oddmobb, Inc. | Instantiating widgets into a virtual social venue |
US9086776B2 (en) | 2010-03-29 | 2015-07-21 | Microsoft Technology Licensing, Llc | Modifying avatar attributes |
TWI439960B (zh) | 2010-04-07 | 2014-06-01 | Apple Inc | 虛擬使用者編輯環境 |
US8692830B2 (en) | 2010-06-01 | 2014-04-08 | Apple Inc. | Automatic avatar creation |
US10628729B2 (en) | 2010-06-08 | 2020-04-21 | Styku, LLC | System and method for body scanning and avatar creation |
US8564621B2 (en) | 2010-08-11 | 2013-10-22 | International Business Machines Corporation | Replicating changes between corresponding objects |
JP2012065263A (ja) | 2010-09-17 | 2012-03-29 | Olympus Imaging Corp | 撮影機器 |
US8884984B2 (en) | 2010-10-15 | 2014-11-11 | Microsoft Corporation | Fusing virtual content into real content |
KR101514327B1 (ko) | 2010-11-04 | 2015-04-22 | 한국전자통신연구원 | 얼굴 아바타 생성 장치 및 방법 |
US20120124458A1 (en) | 2010-11-17 | 2012-05-17 | Nazareno Brier Cruzada | Social networking website & web-based system for collecting & presenting real-time user generated information on parties & events. |
US20120130717A1 (en) | 2010-11-19 | 2012-05-24 | Microsoft Corporation | Real-time Animation for an Expressive Avatar |
KR20120059994A (ko) | 2010-12-01 | 2012-06-11 | 삼성전자주식회사 | 표정 제어점을 이용한 아바타 제어 장치 및 방법 |
KR101445263B1 (ko) | 2010-12-22 | 2014-09-30 | 주식회사 케이티 | 맞춤형 콘텐츠 제공 시스템 및 방법 |
US9839844B2 (en) | 2011-03-01 | 2017-12-12 | Disney Enterprises, Inc. | Sprite strip renderer |
EP2689396A4 (en) | 2011-03-21 | 2015-06-03 | Intel Corp | PROCESS FOR ADVANCED CHANGES WITH 3D FACE MODELING AND MARKING ALIGNMENT |
US20130103760A1 (en) | 2011-04-11 | 2013-04-25 | Robert K. Golding | Location-sensitive virtual identity system, apparatus, method and computer-readable medium |
US9330483B2 (en) | 2011-04-11 | 2016-05-03 | Intel Corporation | Avatar facial expression techniques |
US8989786B2 (en) | 2011-04-21 | 2015-03-24 | Walking Thumbs, Llc | System and method for graphical expression during text messaging communications |
US8811719B2 (en) | 2011-04-29 | 2014-08-19 | Microsoft Corporation | Inferring spatial object descriptions from spatial gestures |
US9241184B2 (en) | 2011-06-01 | 2016-01-19 | At&T Intellectual Property I, L.P. | Clothing visualization |
CN103765479A (zh) | 2011-08-09 | 2014-04-30 | 英特尔公司 | 基于图像的多视点3d脸部生成 |
KR20130022434A (ko) | 2011-08-22 | 2013-03-07 | (주)아이디피쉬 | 통신단말장치의 감정 컨텐츠 서비스 장치 및 방법, 이를 위한 감정 인지 장치 및 방법, 이를 이용한 감정 컨텐츠를 생성하고 정합하는 장치 및 방법 |
US20130249948A1 (en) | 2011-08-26 | 2013-09-26 | Reincloud Corporation | Providing interactive travel content at a display device |
US8559980B2 (en) | 2011-09-02 | 2013-10-15 | John J. Pujol | Method and system for integrated messaging and location services |
EP3666352B1 (en) | 2011-10-28 | 2021-12-01 | Magic Leap, Inc. | Method and device for augmented and virtual reality |
US8890926B2 (en) | 2011-11-02 | 2014-11-18 | Microsoft Corporation | Automatic identification and representation of most relevant people in meetings |
US9782680B2 (en) | 2011-12-09 | 2017-10-10 | Futurewei Technologies, Inc. | Persistent customized social media environment |
WO2013097139A1 (en) | 2011-12-29 | 2013-07-04 | Intel Corporation | Communication using avatar |
US8810513B2 (en) | 2012-02-02 | 2014-08-19 | Kodak Alaris Inc. | Method for controlling interactive display system |
US10702773B2 (en) | 2012-03-30 | 2020-07-07 | Videx, Inc. | Systems and methods for providing an interactive avatar |
US9402057B2 (en) | 2012-04-02 | 2016-07-26 | Argela Yazilim ve Bilisim Teknolojileri San. ve Tic. A.S. | Interactive avatars for telecommunication systems |
US9357174B2 (en) | 2012-04-09 | 2016-05-31 | Intel Corporation | System and method for avatar management and selection |
US9183676B2 (en) | 2012-04-27 | 2015-11-10 | Microsoft Technology Licensing, Llc | Displaying a collision between real and virtual objects |
WO2013166588A1 (en) | 2012-05-08 | 2013-11-14 | Bitstrips Inc. | System and method for adaptable avatars |
US9196089B2 (en) | 2012-05-17 | 2015-11-24 | Disney Enterprises, Inc. | Techniques for processing reconstructed three-dimensional image data |
JP5497931B2 (ja) | 2012-05-30 | 2014-05-21 | 株式会社コナミデジタルエンタテインメント | アプリケーション装置、アプリケーション装置の制御方法、及びプログラム |
AU2013206649A1 (en) | 2012-07-05 | 2014-01-23 | Aristocrat Technologies Australia Pty Limited | A gaming system and a method of gaming |
US20140125678A1 (en) | 2012-07-11 | 2014-05-08 | GeriJoy Inc. | Virtual Companion |
US8577671B1 (en) | 2012-07-20 | 2013-11-05 | Veveo, Inc. | Method of and system for using conversation state information in a conversational interaction system |
US9465833B2 (en) | 2012-07-31 | 2016-10-11 | Veveo, Inc. | Disambiguating user intent in conversational interaction system for large corpus information retrieval |
US10116598B2 (en) | 2012-08-15 | 2018-10-30 | Imvu, Inc. | System and method for increasing clarity and expressiveness in network communications |
US20150206349A1 (en) | 2012-08-22 | 2015-07-23 | Goldrun Corporation | Augmented reality virtual content platform apparatuses, methods and systems |
US9461876B2 (en) | 2012-08-29 | 2016-10-04 | Loci | System and method for fuzzy concept mapping, voting ontology crowd sourcing, and technology prediction |
US9936165B2 (en) | 2012-09-06 | 2018-04-03 | Intel Corporation | System and method for avatar creation and synchronization |
US9314692B2 (en) | 2012-09-21 | 2016-04-19 | Luxand, Inc. | Method of creating avatar from user submitted image |
US9746990B2 (en) | 2012-09-28 | 2017-08-29 | Intel Corporation | Selectively augmenting communications transmitted by a communication device |
US11397462B2 (en) | 2012-09-28 | 2022-07-26 | Sri International | Real-time human-machine collaboration using big data driven augmented reality technologies |
US9501942B2 (en) | 2012-10-09 | 2016-11-22 | Kc Holdings I | Personalized avatar responsive to user physical state and context |
US20140129343A1 (en) | 2012-11-08 | 2014-05-08 | Microsoft Corporation | Dynamic targeted advertising avatar |
US9256860B2 (en) | 2012-12-07 | 2016-02-09 | International Business Machines Corporation | Tracking participation in a shared media session |
US9990373B2 (en) | 2013-02-06 | 2018-06-05 | John A. Fortkort | Creation and geospatial placement of avatars based on real-world interactions |
EP2976749A4 (en) | 2013-03-20 | 2016-10-26 | Intel Corp | AVATAR-BASED TRANSMISSION PROTOCOLS, SYMBOL GENERATION AND PUPPET ANIMATION |
US9460541B2 (en) | 2013-03-29 | 2016-10-04 | Intel Corporation | Avatar animation, social networking and touch screen applications |
CN105190700A (zh) | 2013-06-04 | 2015-12-23 | 英特尔公司 | 基于化身的视频编码 |
US9378576B2 (en) | 2013-06-07 | 2016-06-28 | Faceshift Ag | Online modeling for real-time facial animation |
US9177410B2 (en) | 2013-08-09 | 2015-11-03 | Ayla Mandel | System and method for creating avatars or animated sequences using human body features extracted from a still image |
US9706040B2 (en) | 2013-10-31 | 2017-07-11 | Udayakumar Kadirvel | System and method for facilitating communication via interaction with an avatar |
US9508197B2 (en) | 2013-11-01 | 2016-11-29 | Microsoft Technology Licensing, Llc | Generating an avatar from real time image data |
US9489760B2 (en) | 2013-11-14 | 2016-11-08 | Intel Corporation | Mechanism for facilitating dynamic simulation of avatars corresponding to changing user performances as detected at computing devices |
US9361510B2 (en) | 2013-12-13 | 2016-06-07 | Intel Corporation | Efficient facial landmark tracking using online shape regression method |
US9544257B2 (en) | 2014-04-04 | 2017-01-10 | Blackberry Limited | System and method for conducting private messaging |
US9503845B2 (en) | 2014-04-17 | 2016-11-22 | Paypal, Inc. | Image customization to enhance transaction experience |
US20170080346A1 (en) | 2014-05-01 | 2017-03-23 | Mohamad Abbas | Methods and systems relating to personalized evolving avatars |
US20160134840A1 (en) | 2014-07-28 | 2016-05-12 | Alexa Margaret McCulloch | Avatar-Mediated Telepresence Systems with Enhanced Filtering |
EP3614304A1 (en) | 2014-11-05 | 2020-02-26 | INTEL Corporation | Avatar video apparatus and method |
KR102374446B1 (ko) | 2014-12-11 | 2022-03-15 | 인텔 코포레이션 | 아바타 선택 메커니즘 |
KR101671649B1 (ko) * | 2014-12-22 | 2016-11-01 | 장석준 | 신체 데이터와 의류 데이터를 조합한 3d 합성 이미지 생성 방법 및 시스템 |
JP6462386B2 (ja) | 2015-02-05 | 2019-01-30 | 任天堂株式会社 | プログラム、通信端末及び表示方法 |
US10061871B2 (en) | 2015-07-27 | 2018-08-28 | Technische Universiteit Delft | Linear blend skinning weight optimization utilizing skeletal pose sampling |
US20170087473A1 (en) | 2015-09-29 | 2017-03-30 | Sportsworld, Inc. | Virtual environments for managing and interacting with virtual sports leagues |
US20170118145A1 (en) | 2015-10-21 | 2017-04-27 | Futurefly Ltd. | Method of using emoji to control and enrich 3d chat environments |
KR101710521B1 (ko) * | 2015-11-18 | 2017-02-27 | (주)에프엑스기어 | 사용자 신체의 cg 표현 기능이 구비된 가상 피팅을 위한 시뮬레이션 장치, 방법 및 이를 위한 컴퓨터 프로그램 |
US10475225B2 (en) | 2015-12-18 | 2019-11-12 | Intel Corporation | Avatar animation system |
US20170199855A1 (en) | 2016-01-11 | 2017-07-13 | BuilderFish, LLC | System and method for providing a time-based presentation of a user-navigable project model |
KR102658303B1 (ko) * | 2016-02-18 | 2024-04-18 | 애플 인크. | 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이 |
US9911073B1 (en) | 2016-03-18 | 2018-03-06 | Snap Inc. | Facial patterns for optical barcodes |
US9933855B2 (en) | 2016-03-31 | 2018-04-03 | Intel Corporation | Augmented reality in a field of view including a reflection |
US20170312634A1 (en) | 2016-04-28 | 2017-11-02 | Uraniom | System and method for personalized avatar generation, especially for computer games |
US9959037B2 (en) | 2016-05-18 | 2018-05-01 | Apple Inc. | Devices, methods, and graphical user interfaces for messaging |
US10657701B2 (en) | 2016-06-30 | 2020-05-19 | Sony Interactive Entertainment Inc. | Dynamic entering and leaving of virtual-reality environments navigated by different HMD users |
US10573048B2 (en) | 2016-07-25 | 2020-02-25 | Oath Inc. | Emotional reaction sharing |
US10534809B2 (en) | 2016-08-10 | 2020-01-14 | Zeekit Online Shopping Ltd. | Method, system, and device of virtual dressing utilizing image processing, machine learning, and computer vision |
US20180047200A1 (en) | 2016-08-11 | 2018-02-15 | Jibjab Media Inc. | Combining user images and computer-generated illustrations to produce personalized animated digital avatars |
KR102210150B1 (ko) | 2016-09-23 | 2021-02-02 | 애플 인크. | 아바타 생성 및 편집 |
US10432559B2 (en) | 2016-10-24 | 2019-10-01 | Snap Inc. | Generating and displaying customized avatars in electronic messages |
US10242503B2 (en) | 2017-01-09 | 2019-03-26 | Snap Inc. | Surface aware lens |
US10242477B1 (en) | 2017-01-16 | 2019-03-26 | Snap Inc. | Coded vision system |
US9754410B2 (en) | 2017-02-15 | 2017-09-05 | StyleMe Limited | System and method for three-dimensional garment mesh deformation and layering for garment fit visualization |
US11893647B2 (en) | 2017-04-27 | 2024-02-06 | Snap Inc. | Location-based virtual avatars |
US10949872B2 (en) | 2017-04-28 | 2021-03-16 | Snap Inc. | Methods and systems for server generation of interactive advertising with content collections |
US10431000B2 (en) | 2017-07-18 | 2019-10-01 | Sony Corporation | Robust mesh tracking and fusion by using part-based key frames and priori model |
US9980100B1 (en) | 2017-08-31 | 2018-05-22 | Snap Inc. | Device location based on machine learning classifications |
US10657695B2 (en) | 2017-10-30 | 2020-05-19 | Snap Inc. | Animated chat presence |
US20190228580A1 (en) | 2018-01-24 | 2019-07-25 | Facebook, Inc. | Dynamic Creation of Augmented Reality Effects |
EP3534574B1 (en) | 2018-02-28 | 2020-02-05 | Deutsche Telekom AG | Techniques for policy management of multi-connectivity network protocols |
US11176737B2 (en) | 2018-11-27 | 2021-11-16 | Snap Inc. | Textured mesh building |
US10943400B2 (en) | 2019-01-07 | 2021-03-09 | Cerence Operating Company | Multimodal user interface for a vehicle |
US11972529B2 (en) | 2019-02-01 | 2024-04-30 | Snap Inc. | Augmented reality system |
US10810782B1 (en) | 2019-04-01 | 2020-10-20 | Snap Inc. | Semantic texture mapping system |
US11354847B2 (en) | 2020-07-31 | 2022-06-07 | Nvidia Corporation | Three-dimensional object reconstruction from a video |
US20220185625A1 (en) | 2020-12-15 | 2022-06-16 | Abacus Sensor, Inc. | Camera-based sensing devices for performing offline machine learning inference and computer vision |
US11509819B2 (en) | 2021-01-19 | 2022-11-22 | Adobe Inc. | Providing contextual augmented reality photo pose guidance |
US20220385721A1 (en) | 2021-05-28 | 2022-12-01 | Streem, Llc | 3d mesh generation on a server |
US11908083B2 (en) | 2021-08-31 | 2024-02-20 | Snap Inc. | Deforming custom mesh based on body mesh |
US11663792B2 (en) | 2021-09-08 | 2023-05-30 | Snap Inc. | Body fitted accessory with physics simulation |
US11798238B2 (en) | 2021-09-14 | 2023-10-24 | Snap Inc. | Blending body mesh into external mesh |
US11836866B2 (en) | 2021-09-20 | 2023-12-05 | Snap Inc. | Deforming real-world object using an external mesh |
US11790614B2 (en) | 2021-10-11 | 2023-10-17 | Snap Inc. | Inferring intent from pose and speech input |
US11836862B2 (en) | 2021-10-11 | 2023-12-05 | Snap Inc. | External mesh with vertex attributes |
US11763481B2 (en) | 2021-10-20 | 2023-09-19 | Snap Inc. | Mirror-based augmented reality experience |
-
2021
- 2021-10-11 US US17/498,394 patent/US11836862B2/en active Active
-
2022
- 2022-10-11 CN CN202280068248.4A patent/CN118119977A/zh active Pending
- 2022-10-11 EP EP22801278.7A patent/EP4416695A1/en active Pending
- 2022-10-11 KR KR1020247015349A patent/KR20240090365A/ko unknown
- 2022-10-11 WO PCT/US2022/046234 patent/WO2023064244A1/en active Application Filing
-
2023
- 2023-11-06 US US18/502,634 patent/US20240070986A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20240070986A1 (en) | 2024-02-29 |
KR20240090365A (ko) | 2024-06-21 |
US20230115531A1 (en) | 2023-04-13 |
WO2023064244A1 (en) | 2023-04-20 |
EP4416695A1 (en) | 2024-08-21 |
US11836862B2 (en) | 2023-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11836862B2 (en) | External mesh with vertex attributes | |
US12086946B2 (en) | Blending body mesh into external mesh | |
US11663792B2 (en) | Body fitted accessory with physics simulation | |
CN117897734A (zh) | 基于身体姿势控制交互式时尚 | |
US11908083B2 (en) | Deforming custom mesh based on body mesh | |
CN117157667A (zh) | 服装分割 | |
CN117940962A (zh) | 基于面部表情控制交互时尚 | |
US11836866B2 (en) | Deforming real-world object using an external mesh | |
CN118076971A (zh) | 将增强现实元素应用于出现在人的单目图像上的服装 | |
US20240013463A1 (en) | Applying animated 3d avatar in ar experiences | |
CN118435243A (zh) | 实时上身服装交换 | |
CN118414636A (zh) | 实时运动和外观转移 | |
CN118613834A (zh) | 实时服装交换 | |
US20240249444A1 (en) | Synthetic view for try-on experience | |
WO2024158932A1 (en) | Adaptive zoom try-on experience |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |