CN112102454A - 人脸表情的驱动方法、装置、设备及存储介质 - Google Patents
人脸表情的驱动方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN112102454A CN112102454A CN202011036360.9A CN202011036360A CN112102454A CN 112102454 A CN112102454 A CN 112102454A CN 202011036360 A CN202011036360 A CN 202011036360A CN 112102454 A CN112102454 A CN 112102454A
- Authority
- CN
- China
- Prior art keywords
- expression
- engine
- facial
- driving
- expressions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及表情构建技术领域,公开了一种人脸表情的驱动方法、装置、设备及存储介质,其中,所述人脸表情的驱动方法包括:制作基准表情;将所述基准表情绑定到虚拟角色模型的面部;将绑定完成后的所述虚拟角色模型导入UE引擎;对捕捉到的人脸表情进行分解,并计算得到各个所述基准表情的权重值;将所述权重值输入到所述UE引擎中,通过所述UE引擎驱动所述虚拟角色模型显示所述人脸表情。本发明技术方案由于采用了UE引擎进行虚拟角色的表情制作,这样通过控制基准表情的比例就能够混合出丰富人脸表情,人脸表情的展示效果更佳。
Description
技术领域
本发明涉及表情构建技术领域,尤其涉及一种人脸表情的驱动方法、装置、设备及存储介质。
背景技术
随着表情动画在电影、动画、游戏等领域广泛应用,虚拟角色生动的表情带给用户丰富的观感体验。面部表情捕捉是实现真实细腻的表情动画的关键技术,不仅可以将真人表情复现在虚拟角色上,提高虚拟角色的真实性,还可以降低人工干预的代价,减少人工成本,目前表情制作的方式是通过变形器的方式来控制表情的生成,但是这种方式不能通过外部的数据实时控制当前的变形目标的状态,导致表情不够丰富,显示效果不佳。
因此,现有技术还有待于改进和发展。
发明内容
本发明的主要目的在于解决现有技术驱动显示表情的方式,表情不够丰富,显示效果不佳的技术问题。
本发明第一方面提供了一种人脸表情的驱动方法,所述人脸表情的驱动方法包括:
制作基准表情;
将所述基准表情绑定到虚拟角色模型的面部;
将绑定完成后的所述虚拟角色模型导入UE引擎;
对捕捉到的人脸表情进行分解,并计算得到各个所述基准表情的权重值;
将所述权重值输入到所述UE引擎中,通过所述UE引擎驱动所述虚拟角色模型显示所述人脸表情。
可选的,在本发明第一方面的第一种实现方式中,所述将绑定完成后的所述虚拟角色模型导入UE引擎之后包括:
在所述UE引擎中为每一个所述基准表情确定一个唯一的名称映射;
在所述UE引擎中建立所述基准表情与所述人脸表情之间的映射关联。
可选的,在本发明第一方面的第二种实现方式中,所述通过所述UE引擎驱动所述虚拟角色模型显示所述人脸表情包括:
获取所述人脸表情需要的各个所述基准表情;
根据所述权重值对各个所述基准表情进行通道融合,得到所述虚拟角色模型的面部表情;
将所述面部表情加载到所述虚拟角色模型上进行显示。
可选的,在本发明第一方面的第三种实现方式中,所述将绑定完成后的所述虚拟角色模型导入UE引擎之后包括:
检查各个所述基准表情对应的数据通道是否正确;
检查所述UE引擎是否可以正常控制各个所述基准表情的权重值。
可选的,在本发明第一方面的第四种实现方式中,所述对捕捉到的人脸表情进行分解,并计算得到各个所述基准表情的权重值之前包括:
构建基于深度学习的表情识别模型;
通过所述表情识别模型捕捉所述人脸表情。
可选的,在本发明第一方面的第五种实现方式中,所述将绑定完成后的所述虚拟角色模型导入UE引擎之后包括:
将蒙皮骨骼导入所述UE引擎。
可选的,在本发明第一方面的第六种实现方式中,每一个所述基准表情对应一个所述数据通道。
本发明第二方面提供了一种人脸表情的驱动装置,包括:
制作模块,用于制作基准表情;
绑定模块,用于将所述基准表情绑定到虚拟角色的面部;
导入模块,用于将绑定完成后的所述虚拟角色导入UE引擎;
分解计算模块,用于对捕捉到的人脸表情进行分解,并计算得到各个所述基准表情的权重值;
驱动模块,用于将所述权重值输入到所述UE引擎中,通过所述UE引擎驱动所述虚拟角色显示所述人脸表情。
本发明第三方面提供了一种人脸表情的驱动设备,包括:存储器和至少一个处理器,所述存储器中存储有指令,所述存储器和所述至少一个处理器通过线路互连;所述至少一个处理器调用所述存储器中的所述指令,以使得所述人脸表情的驱动设备执行上述的人脸表情的驱动方法。
本发明的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述的人脸表情的驱动方法。
附图说明
图1为本发明人脸表情的驱动方法的一个实施例示意图;
图2为本发明人脸表情的驱动装置的一个实施例示意图;
图3为本发明人脸表情的驱动设备的一个实施例示意图。
具体实施方式
本发明实施例提供了一种人脸表情的驱动方法、装置、设备及存储介质。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为便于理解,下面对本发明实施例的具体流程进行描述,请参阅图1,本发明实施例中一种人脸表情的驱动方法,所述人脸表情的驱动方法包括:
101、制作基准表情;
在本实施例中,通过建模师定制一套基准表情,作为脸部表情的变形目标,这样做的目的就是后续可以通过控制基准表情的比例来混合出丰富目标表情。
102、将所述基准表情绑定到虚拟角色模型的面部;
103、将绑定完成后的所述虚拟角色模型导入UE引擎;
在本实施例中,将脸部表情绑定完成的角色导入UE引擎后,可以将蒙皮骨骼也一起导入。
104、对捕捉到的人脸表情进行分解,并计算得到各个所述基准表情的权重值;
在本实施例中,当接收到捕捉的人脸表情数据之后先进行相应的数据格式解析,之后得到各个基准表情通道的所对应的权重值,较优的,可以通过借助机器学习的训练悬得到一个表情识别模型来捕捉人脸表情以及对人脸表情进行分解计算得到各个基准表情的权重值,以提升数据处理速度,之后将计算得到的权重值发送给UE引擎,过程中,捕捉到的人脸表情数据的格式可以是一个数组,里面包含52个浮点数,每一个浮点数依序对应基准表情库的52个通道。
105、将所述权重值输入到所述UE引擎中,通过所述UE引擎驱动所述虚拟角色模型显示所述人脸表情。
在本实施例中,UE引擎解析计算得到各个基准表情的数据通道所对应的权重值,然后用权重值获得各个基准表情比例来实时合成虚拟角色的面部表情,这样可以使得合成得到面部表情与捕捉到的人脸表情基本一致。
本发明技术方案的步骤先是制定变形目标制作标准以及名称,接着在UE引擎中约定数据层的接收标准,再之后接收实时捕获的数据然后驱动表情,本发明技术方案由于采用了UE引擎进行虚拟角色的表情制作,这样就可以通过控制各个基准表情的比例就能够混合出丰富人脸表情,人脸表情的展示效果更佳。
在本发明一种可选的实施方式中,所述将绑定完成后的所述虚拟角色模型导入UE引擎之后包括:
在所述UE引擎中为每一个所述基准表情确定一个唯一的名称映射;
在所述UE引擎中建立所述基准表情与所述人脸表情之间的映射关联。
在本实施例中,在UE引擎中将基准表情与捕捉到的人脸的数据进行映射,每一个基准表情对应一个数据通道,通过这样的方法,将捕捉到的人脸表情数据与基准表情的脸部融合通道对应起来,同时通过UE引擎中的名称映射还可以将人脸表情和基准表情两边的数据隔离。
在本发明一种可选的实施方式中,所述通过所述UE引擎驱动所述虚拟角色模型显示所述人脸表情包括:
获取所述人脸表情需要的各个所述基准表情;
根据所述权重值对各个所述基准表情进行通道融合,得到所述虚拟角色模型的面部表情;
将所述面部表情加载到所述虚拟角色模型上进行显示。
在本实施例中,每一帧人脸表情的数据被存储到一个数组内,这个数组包含了所有基准表情的脸部融合通道(BlendShape)的值。每一个脸部融合通道实际上是一个基准表情的面部模型,一个复杂的面部表情由多个通道融合而成,意味着它是有多个面部表情模型融合而成,这个融合是指模型顶点的位置融合,比如,将通道A和通道B融合成通道C,意味着通道A代表的面部模型的顶点位置乘上此通道的BlendShape值作为权重,加上通道B代表的面部模型的顶点位置乘上B通道的BlendShape值作为权重,得到的顶点位置,赋予面部模型C。捕捉到人脸表情的数据实际上是各个基准表情通道的BlendShape值,只需要将这些数值接收,传入UE引擎中表情资产对应的数据通道,表情资产就会呈现出融合后的表情,这些融合计算是由UE引擎来实现。
在本发明一种可选的实施方式中,所述将绑定完成后的所述虚拟角色模型导入UE引擎之后包括:
检查各个所述基准表情对应的数据通道是否正确;
检查所述UE引擎是否可以正常控制各个所述基准表情的权重值。
在本实施例中,在将基准表情绑定完成的角色导入UE引擎以及将蒙皮骨骼也一起导入后,还需要检查基准表情所对应的每一个通道,检查基准表情变形目标是否正确,以及查看是否可以正常控制变形目标的权重值,从而保证后续面部表情合成过程可以顺利进行。
在本发明一种可选的实施方式中,所述对捕捉到的人脸表情进行分解,并计算得到各个所述基准表情的权重值之前包括:
构建基于深度学习的表情识别模型;
通过所述表情识别模型捕捉所述人脸表情。
在本实施例中,用于表情捕捉的深度学习算法可以是回归算法,就是通过对数值型的连续分布样本进行回归,可以在给定样本的时候预测出一个数值。这个给定的样本就是拍摄到的人脸表情图片,预测出来的值就是融合成这个表情的各个关键表情通道的BlendShape值,实际使用的表情识别模型也可以是一种残差网络。
在本发明一种可选的实施方式中,所述将绑定完成后的所述虚拟角色模型导入UE引擎之后包括:
将蒙皮骨骼导入所述UE引擎。
在本发明一种可选的实施方式中,每一个所述基准表情对应一个所述数据通道。基于基准表情与捕捉到的人脸的数据进行了映射,这样就可以顺利的把将捕捉到的人脸表情数据与基准表情的脸部融合通道一一对应起来,保证表情合成过程的准确性。
本发明人脸表情的驱动方法由于预设了一套基准表情通道的标准,包含对应的表情及通道名称,同时还分别设置了与基准表情虚拟角色,捕获的人脸表情的数据映射关系,在UE引擎中,借助上述人脸表情的驱动方式来实时获得很好的角色表情展示效果,通过捕获到真实的人物的表情数据来驱动虚拟世界中的人物表情显示,实现了将现实和虚拟之间建立了联系,增加了互动性。
上面对本发明实施例中人脸表情的驱动方法进行了描述,下面对本发明实施例中人脸表情的驱动装置进行描述,请参阅图2,本发明实施例中人脸表情的驱动装置一个实施例包括:
制作模块10,用于制作基准表情;
绑定模块20,用于将所述基准表情绑定到虚拟角色的面部;
导入模块30,用于将绑定完成后的所述虚拟角色导入UE引擎;
分解计算模块40,用于对捕捉到的人脸表情进行分解,并计算得到各个所述基准表情的权重值;
驱动模块50,用于将所述权重值输入到所述UE引擎中,通过所述UE引擎驱动所述虚拟角色显示所述人脸表情。
在本发明一种可选的实施方式中,所述人脸表情的驱动装置还包括:
确定模块,用于在所述UE引擎中为每一个所述基准表情确定一个唯一的名称映射;
映射模块,用于在所述UE引擎中建立所述基准表情与所述人脸表情之间的映射关联。
在本发明一种可选的实施方式中,所述人脸表情的驱动装置还包括:
获取模块,用于获取所述人脸表情需要的各个所述基准表情;
融合模块,用于根据所述权重值对各个所述基准表情进行通道融合,得到所述虚拟角色模型的面部表情;
显示模块,用于将所述面部表情加载到所述虚拟角色模型上进行显示。
在本发明一种可选的实施方式中,所述人脸表情的驱动装置还包括:
第一检查模块,用于检查各个所述基准表情对应的数据通道是否正确;
第二检查模块,用于检查所述UE引擎是否可以正常控制各个所述基准表情的权重值。
在本发明一种可选的实施方式中,所述人脸表情的驱动装置还包括:
构建模块,用于构建基于深度学习的表情识别模型;
捕捉模块,用于通过所述表情识别模型捕捉所述人脸表情。
在本发明一种可选的实施方式中,所述导入模块还用于将蒙皮骨骼导入所述虚拟角色模型。
在本发明一种可选的实施方式中,每一个所述基准表情对应一个所述数据通道。
上面图2从模块化功能实体的角度对本发明实施例中的人脸表情的驱动装置进行详细描述,下面从硬件处理的角度对本发明实施例中人脸表情的驱动设备进行详细描述。
图3是本发明实施例提供的一种人脸表情的驱动设备的结构示意图,该人脸表情的驱动设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器60(central processing units,CPU)(例如,一个或一个以上处理器)和存储器70,一个或一个以上存储应用程序或数据的存储介质80(例如一个或一个以上海量存储设备)。其中,存储器和存储介质可以是短暂存储或持久存储。存储在存储介质的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对人脸表情的驱动设备中的一系列指令操作。更进一步地,处理器可以设置为与存储介质通信,在人脸表情的驱动设备上执行存储介质中的一系列指令操作。
基于人脸表情的驱动设备还可以包括一个或一个以上电源90,一个或一个以上有线或无线网络接口100,一个或一个以上输入输出接口110,和/或,一个或一个以上操作系统,例如Windows Serve,Mac OS X,Unix,Linux,FreeBSD等等。本领域技术人员可以理解,图3示出的XXXX设备结构并不构成对基于人脸表情的驱动设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质可以为非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行所述人脸表情的驱动方法的步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统或装置、单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种人脸表情的驱动方法,其特征在于,所述人脸表情的驱动方法包括:
制作基准表情;
将所述基准表情绑定到虚拟角色模型的面部;
将绑定完成后的所述虚拟角色模型导入UE引擎;
对捕捉到的人脸表情进行分解,并计算得到各个所述基准表情的权重值;
将所述权重值输入到所述UE引擎中,通过所述UE引擎驱动所述虚拟角色模型显示所述人脸表情。
2.根据权利要求1所述的人脸表情的驱动方法,其特征在于,所述将绑定完成后的所述虚拟角色模型导入UE引擎之后包括:
在所述UE引擎中为每一个所述基准表情确定一个唯一的名称映射;
在所述UE引擎中建立所述基准表情与所述人脸表情之间的映射关联。
3.根据权利要求1所述的人脸表情的驱动方法,其特征在于,所述通过所述UE引擎驱动所述虚拟角色模型显示所述人脸表情包括:
获取所述人脸表情需要的各个所述基准表情;
根据所述权重值对各个所述基准表情进行通道融合,得到所述虚拟角色模型的面部表情;
将所述面部表情加载到所述虚拟角色模型上进行显示。
4.根据权利要求1所述的人脸表情的驱动方法,其特征在于,所述将绑定完成后的所述虚拟角色模型导入UE引擎之后包括:
检查各个所述基准表情对应的数据通道是否正确;
检查所述UE引擎是否可以正常控制各个所述基准表情的权重值。
5.根据权利要求1所述的人脸表情的驱动方法,其特征在于,所述对捕捉到的人脸表情进行分解,并计算得到各个所述基准表情的权重值之前包括:
构建基于深度学习的表情识别模型;
通过所述表情识别模型捕捉所述人脸表情。
6.根据权利要求2所述的人脸表情的驱动方法,其特征在于,所述将绑定完成后的所述虚拟角色模型导入UE引擎之后还包括:
将蒙皮骨骼导入所述UE引擎。
7.根据权利要求4所述的人脸表情的驱动方法,其特征在于,每一个所述基准表情对应一个所述数据通道。
8.一种人脸表情的驱动装置,其特征在于,所述人脸表情的驱动装置包括:
制作模块,用于制作基准表情;
绑定模块,用于将所述基准表情绑定到虚拟角色的面部;
导入模块,用于将绑定完成后的所述虚拟角色导入UE引擎;
分解计算模块,用于对捕捉到的人脸表情进行分解,并计算得到各个所述基准表情的权重值;
驱动模块,用于将所述权重值输入到所述UE引擎中,通过所述UE引擎驱动所述虚拟角色显示所述人脸表情。
9.一种人脸表情的驱动设备,其特征在于,所述人脸表情的驱动设备包括:存储器和至少一个处理器,所述存储器中存储有指令,所述存储器和所述至少一个处理器通过线路互连;
所述至少一个处理器调用所述存储器中的所述指令,以使得所述人脸表情的驱动设备执行如权利要求1-7中任一项所述的人脸表情的驱动方法。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-7中任一项所述的人脸表情的驱动方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011036360.9A CN112102454A (zh) | 2020-09-27 | 2020-09-27 | 人脸表情的驱动方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011036360.9A CN112102454A (zh) | 2020-09-27 | 2020-09-27 | 人脸表情的驱动方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112102454A true CN112102454A (zh) | 2020-12-18 |
Family
ID=73782710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011036360.9A Pending CN112102454A (zh) | 2020-09-27 | 2020-09-27 | 人脸表情的驱动方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112102454A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113655889A (zh) * | 2021-09-01 | 2021-11-16 | 北京字跳网络技术有限公司 | 一种虚拟角色控制方法、装置以及计算机存储介质 |
CN113908553A (zh) * | 2021-11-22 | 2022-01-11 | 广州简悦信息科技有限公司 | 游戏角色表情生成方法、装置、电子设备及存储介质 |
-
2020
- 2020-09-27 CN CN202011036360.9A patent/CN112102454A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113655889A (zh) * | 2021-09-01 | 2021-11-16 | 北京字跳网络技术有限公司 | 一种虚拟角色控制方法、装置以及计算机存储介质 |
CN113655889B (zh) * | 2021-09-01 | 2023-08-08 | 北京字跳网络技术有限公司 | 一种虚拟角色控制方法、装置以及计算机存储介质 |
CN113908553A (zh) * | 2021-11-22 | 2022-01-11 | 广州简悦信息科技有限公司 | 游戏角色表情生成方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106548675A (zh) | 虚拟军事训练方法及装置 | |
CN109816758B (zh) | 一种基于神经网络的二维角色动画生成方法和装置 | |
CN112102454A (zh) | 人脸表情的驱动方法、装置、设备及存储介质 | |
CN106485773A (zh) | 一种用于生成动画数据的方法和装置 | |
CN109035415B (zh) | 虚拟模型的处理方法、装置、设备和计算机可读存储介质 | |
CN107657650A (zh) | 基于Maya软件的动画模型角色绑定方法以及系统 | |
CN109634426B (zh) | 基于Unity3D的高自由度实验类三维虚拟仿真方法和系统 | |
CN110992495A (zh) | 一种虚拟模型的变形方法及装置 | |
CN107833503A (zh) | 配网核心作业增强现实仿真培训系统 | |
CN111383642B (zh) | 基于神经网络的语音应答方法、存储介质以终端设备 | |
CN111325818A (zh) | 三维动画生成方法、装置、存储介质和计算机设备 | |
CN113689436A (zh) | 图像语义分割方法、装置、设备及存储介质 | |
CN105118081B (zh) | 图片合成视频的处理方法和装置 | |
CN114053696B (zh) | 图像渲染处理方法、装置及电子设备 | |
CN105844704A (zh) | 核安保3d虚拟仿真方法 | |
CN115115752A (zh) | 虚拟服装的形变预测方法和装置、存储介质及电子设备 | |
CN114237540A (zh) | 一种智慧课堂在线教学互动方法、装置、存储介质及终端 | |
CN109816744B (zh) | 一种基于神经网络的二维特效图片生成方法和装置 | |
CN112560308A (zh) | 一种基于有限元的汽车碰撞试验平台构建方法及装置 | |
CN115564642B (zh) | 图像变换方法、装置、电子设备、存储介质及程序产品 | |
US20090009520A1 (en) | Animation Method Using an Animation Graph | |
CN115641397A (zh) | 虚拟形象的合成、展示方法和系统 | |
CN114596394A (zh) | 一种骨骼动画生成的方法、装置、系统及存储介质 | |
Gimeno et al. | An occlusion-aware AR authoring tool for assembly and repair tasks | |
CN108597025A (zh) | 基于人工智能面向虚拟现实的快速模型构建方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |