CN113240782B - 基于虚拟角色的流媒体生成方法及装置 - Google Patents
基于虚拟角色的流媒体生成方法及装置 Download PDFInfo
- Publication number
- CN113240782B CN113240782B CN202110578351.0A CN202110578351A CN113240782B CN 113240782 B CN113240782 B CN 113240782B CN 202110578351 A CN202110578351 A CN 202110578351A CN 113240782 B CN113240782 B CN 113240782B
- Authority
- CN
- China
- Prior art keywords
- data
- virtual
- virtual character
- model
- model data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000009877 rendering Methods 0.000 claims abstract description 74
- 230000003993 interaction Effects 0.000 claims abstract description 26
- 230000001815 facial effect Effects 0.000 claims description 11
- 210000000988 bone and bone Anatomy 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 5
- 230000000875 corresponding effect Effects 0.000 description 78
- 230000014509 gene expression Effects 0.000 description 34
- 230000009471 action Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 239000000463 material Substances 0.000 description 14
- 238000004891 communication Methods 0.000 description 12
- 238000013507 mapping Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013499 data model Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 101710129069 Serine/threonine-protein phosphatase 5 Proteins 0.000 description 2
- 101710199542 Serine/threonine-protein phosphatase T Proteins 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 229920000470 poly(p-phenylene terephthalate) polymer Polymers 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 210000000216 zygoma Anatomy 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000008846 dynamic interplay Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种基于虚拟角色的流媒体生成方法及装置,其中,该方法包括:在第一应用程序中配置第一虚拟角色生成组件;通过所述第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的实时用户体征数据;第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色模型数据;依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体。通过本发明,解决了相关技术不能通过用户在实景中的体征数据同步显示虚拟角色的技术问题,提升了人机交互效率。
Description
技术领域
本发明涉及计算机技术领域,具体而言,涉及一种基于虚拟角色的流媒体生成方法及装置。
背景技术
相关技术中,虚拟角色模型在执行动作时,通常可以根据预先配置的程序执行对应的动作,这些方式需要通过程序提前设置动作内容,不能有效地控制虚拟角色模型依据真实用户肢体动作执行个性化的动作。相关技术中的表情包只能在表情包列表中选择设置好的,在使用表情包进行贴图时,只能使用固定的图片遮挡用户的脸部等区域。
相关技术中,遮挡图像不能实时显示出用户的表情等信息,可玩性差。
针对相关技术中存在的上述问题,目前尚未发现有效的解决方案。
发明内容
本发明实施例提供了一种基于虚拟角色的流媒体生成方法及装置。
根据本发明的一个实施例,提供了一种基于虚拟角色的流媒体生成方法,包括:在第一应用程序中配置第一虚拟角色生成组件;通过所述第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的实时用户体征数据;第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色模型数据;依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体。
可选的,通过所述第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的实时用户体征数据包括:通过所述第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的用户实景画面;从所述用户实景画面中提取目标用户的实时用户体征数据,其中,所述实时用户体征数据包括所述目标用户的实时脸部数据和/或实时骨骼数据。
可选的,在第一应用程序中配置第一虚拟角色生成组件包括:在第一应用程序中配置软件开发工具包接口,其中,所述软件开发工具包接口用于通过插件对接至少一个虚拟角色服务商分别提供的所述第一虚拟角色生成组件。
可选的,第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色模型数据包括:第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色的以下模型数据:服装模型数据、道具模型数据、脸部模型数据、肢体模型数据、躯干模型数据中的至少一个。
可选的,在第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色模型数据之前,所述方法还包括:第一虚拟角色生成组件选择基础角色模型;针对所述基础角色模型的每个模型组件,基于用户指令设置模型组件的组件参数,其中,每个模型组件对应所述第一虚拟角色的以下一个模型数据:服装模型数据、道具模型数据、脸部模型数据、肢体模型数据、躯干模型数据;采用所述基础角色模型,以及所述组件参数构建所述第一虚拟角色模型。
可选的,在依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体之前,所述方法还包括:从网络服务器获取与所述第一虚拟角色匹配的第二虚拟角色的第二虚拟角色模型数据和/或所述虚拟场景数据,其中,所述虚拟场景数据包括以下多媒体数据至少之一:背景音频、背景虚拟场景数据。
可选的,依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体包括:依据实时调整过的第一虚拟角色模型数据和第一虚拟场景数据,渲染生成包含与目标主播用户对应的第一虚拟角色图像的第一虚拟场景流媒体;其中,所述第一虚拟场景数据为直播用虚拟场景数据,包括:直播间的背景虚拟图像和/或待售商品的虚拟模型数据,所述待售商品的虚拟模型数据配置为与所述第一虚拟角色模型数据可交互,用于展示所述待售商品。
可选的,依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体包括:依据实时调整过的第一虚拟角色模型数据和第二虚拟场景数据,渲染生成包含与目标游戏用户对应的第一虚拟角色图像的第二虚拟场景流媒体;其中,所述第二虚拟场景数据为虚拟游戏场景数据,包括:从网络服务器获取运行中的虚拟场景模型数据和/或至少一个协同用户对应的第二虚拟角色的第二虚拟模型数据;所述虚拟场景模型数据和所述第二虚拟角色模型数据,与所述实时调整过的第一虚拟角色模型数据可依据所述目标用户的控制指令进行游戏交互。
可选的,依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体包括:依据实时调整过的第一虚拟角色模型数据和第三虚拟场景数据,渲染生成包含与目标视频会议用户对应的第一虚拟角色图像的第三虚拟场景流媒体;其中,所述第三虚拟场景数据为所述目标用户可配置的会议室背景图像和/或会议共享多媒体数据。
可选的,渲染生成包含与目标视频会议用户对应的第一虚拟角色图像的第三虚拟场景流媒体包括:获取至少一个与会用户对应的第二虚拟角色图像的第二虚拟模型数据,结合所述第一虚拟角色模型数据和第三虚拟场景数据,渲染生成包含所述第一虚拟角色图像、所述第二虚拟角色图像、会议室背景图像的第三虚拟场景流媒体,其中,所述第三虚拟场景流媒体用于分发至所述目标用户和所述与会用户的会议终端,所述目标用户和所述与会用户是同一视频会议的参会用户。
可选的,依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体包括:依据实时调整过的第一虚拟角色模型数据和第四虚拟场景数据,渲染生成包含与目标教师用户对应的第一虚拟角色图像的第四虚拟场景流媒体;其中,所述第四虚拟场景数据为目标教师用户可配置的用于教学的多媒体数据和/或教学交互虚拟模型数据,所述教学交互虚拟模型数据配置为与所述第一虚拟角色模型数据可交互,用于教学展示。
可选的,在渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体之后,所述方法还包括:从所述第一应用程序将所述虚拟场景流媒体推出到视频服务器,以使所述视频服务器将所述虚拟场景流媒体上传至视频播放端。
根据本发明的另一个实施例,提供了一种基于虚拟角色的流媒体生成装置,包括:配置模块,用于在第一应用程序中配置第一虚拟角色生成组件;第一获取模块,用于通过所述第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的实时用户体征数据;调整模块,用于采用所述第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色模型数据;生成模块,用于依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体。
可选的,所述第一获取模块包括:获取单元,用于通过所述第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的用户实景画面;提取单元,用于从所述用户实景画面中提取目标用户的实时用户体征数据,其中,所述实时用户体征数据包括所述目标用户的实时脸部数据和/或实时骨骼数据。
可选的,所述配置模块包括:配置单元,用于在第一应用程序中配置软件开发工具包接口,其中,所述软件开发工具包接口用于通过插件对接至少一个虚拟角色服务商分别提供的所述第一虚拟角色生成组件。
可选的,所述调整模块包括:调整单元,用于采用所述第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色的以下模型数据:服装模型数据、道具模型数据、脸部模型数据、肢体模型数据、躯干模型数据中的至少一个。
可选的,所述装置还包括:选择模块,用于在所述调整模块采用所述第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色模型数据之前,第一虚拟角色生成组件选择基础角色模型;设置模块,用于针对所述基础角色模型的每个模型组件,基于用户指令设置模型组件的组件参数,其中,每个模型组件对应所述第一虚拟角色的以下一个模型数据:服装模型数据、道具模型数据、脸部模型数据、肢体模型数据、躯干模型数据;构建模块,用于采用所述基础角色模型,以及所述组件参数构建所述第一虚拟角色模型。
可选的,所述装置还包括:第二获取模块,用于在所述生成模块依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体之前,从网络服务器获取与所述第一虚拟角色匹配的第二虚拟角色的第二虚拟角色模型数据和/或所述虚拟场景数据,其中,所述虚拟场景数据包括以下多媒体数据至少之一:背景音频、背景虚拟场景数据。
可选的,所述生成模块包括:第一生成单元,用于依据实时调整过的第一虚拟角色模型数据和第一虚拟场景数据,渲染生成包含与目标主播用户对应的第一虚拟角色图像的第一虚拟场景流媒体;其中,所述第一虚拟场景数据为直播用虚拟场景数据,包括:直播间的背景虚拟图像和/或待售商品的虚拟模型数据,所述待售商品的虚拟模型数据配置为与所述第一虚拟角色模型数据可交互,用于展示所述待售商品。
可选的,所述生成模块包括:第二生成单元,用于依据实时调整过的第一虚拟角色模型数据和第二虚拟场景数据,渲染生成包含与目标游戏用户对应的第一虚拟角色图像的第二虚拟场景流媒体;其中,所述第二虚拟场景数据为虚拟游戏场景数据,包括:从网络服务器获取运行中的虚拟场景模型数据和/或至少一个协同用户对应的第二虚拟角色的第二虚拟模型数据;所述虚拟场景模型数据和所述第二虚拟角色模型数据,与所述实时调整过的第一虚拟角色模型数据可依据所述目标用户的控制指令进行游戏交互。
可选的,所述生成模块包括:第三生成单元,用于依据实时调整过的第一虚拟角色模型数据和第三虚拟场景数据,渲染生成包含与目标视频会议用户对应的第一虚拟角色图像的第三虚拟场景流媒体;其中,所述第三虚拟场景数据为所述目标用户可配置的会议室背景图像和/或会议共享多媒体数据。
可选的,所述第三生成单元包括:包括:获取子单元,用于获取至少一个与会用户对应的第二虚拟角色图像的第二虚拟模型数据;生成子单元,用于结合所述第一虚拟角色模型数据和第三虚拟场景数据,渲染生成包含所述第一虚拟角色图像、所述第二虚拟角色图像、会议室背景图像的第三虚拟场景流媒体,其中,所述第三虚拟场景流媒体用于分发至所述目标用户和所述与会用户的会议终端,所述目标用户和所述与会用户是同一视频会议的参会用户。
可选的,所述生成模块包括:第四生成单元,用于依据实时调整过的第一虚拟角色模型数据和第四虚拟场景数据,渲染生成包含与目标教师用户对应的第一虚拟角色图像的第四虚拟场景流媒体;其中,所述第四虚拟场景数据为目标教师用户可配置的用于教学的多媒体数据和/或教学交互虚拟模型数据,所述教学交互虚拟模型数据配置为与所述第一虚拟角色模型数据可交互,用于教学展示。
可选的,所述装置还包括:推流模块,用于在所述生成模块渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体之后,从所述第一应用程序将所述虚拟场景流媒体推出到视频服务器,以使所述视频服务器将所述虚拟场景流媒体上传至视频播放端。
根据本发明的又一个实施例,还提供了一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
根据本发明的又一个实施例,还提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述任一项方法实施例中的步骤。
通过本发明,在第一应用程序中配置第一虚拟角色生成组件,通过第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的实时用户体征数据,第一虚拟角色生成组件根据实时用户体征数据实时调整预置的第一虚拟角色模型数据;依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体,第一应用程序将虚拟场景流媒体推出,通过获取的实时用户体征数据实时调整预置的第一虚拟角色模型数据,并生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体,可以将用户在实景中的表情或肢体动作映射到虚拟角色上并呈现,实现虚拟与现实的同步,解决了相关技术不能通过用户在实景中的体征数据同步显示虚拟角色的技术问题,提升了人机交互效率,增强了场景深度和沉浸式体验感,同时保护了用户隐私。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是本发明实施例的一种基于虚拟角色的流媒体生成服务器的硬件结构框图;
图2是根据本发明实施例的一种基于虚拟角色的流媒体生成方法的流程示意图;
图3是本发明实施例自定义基础角色模型的示意图;
图4是本发明实施例中直播场景的示意图;
图5是本发明实施例中虚拟游戏场景的示意图;
图6是本发明实施例中视频会议场景的示意图;
图7是本发明实施例中在线教育的示意图;
图8是根据本发明实施例的一种基于虚拟角色的流媒体生成装置的结构框图;
图9是本发明实施例的一种电子装置的结构图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例1
本申请实施例一所提供的方法实施例可以在手机、平板、服务器、计算机或者类似的电子终端中执行。以运行在服务器上为例,图1是本发明实施例的一种基于虚拟角色的流媒体生成服务器的硬件结构框图。如图1所示,服务器可以包括一个或多个(图1中仅示出一个)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)和用于存储数据的存储器104,可选地,上述服务器还可以包括用于通信功能的传输设备106以及输入输出设备108。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述服务器的结构造成限定。例如,服务器还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
存储器104可用于存储服务器程序,例如,应用软件的软件程序以及模块,如本发明实施例中的一种基于虚拟角色的流媒体生成方法对应的服务器程序,处理器102通过运行存储在存储器104内的服务器程序,从而执行各种功能应用以及数据处理,即实现上述的方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至服务器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。在本实施例中,处理器104用于响应人机交互指令和游戏策略,控制目标虚拟角色执行指定操作以完成游戏任务。存储器104用于存储程序脚本,配置信息,虚拟角色的属性信息等。
传输设备106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括服务器的通信供应商提供的无线网络。在一个实例中,传输设备106包括一个网络适配器(Network Interface Controller,简称为NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输设备106可以为射频(Radio Frequency,简称为RF)模块,其用于通过无线方式与互联网进行通讯。
可选的,输入输出设备108还包括人机交互屏幕用于通过人机交互接口获取人机交互指令,还用于呈现流媒体画面;
在本实施例中提供了一种基于虚拟角色的流媒体生成方法,图2是根据本发明实施例的一种基于虚拟角色的流媒体生成方法的流程示意图,如图2所示,该流程包括如下步骤:
步骤S202,在第一应用程序中配置第一虚拟角色生成组件;
步骤S204,通过第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的实时用户体征数据;
步骤S206,第一虚拟角色生成组件根据实时用户体征数据实时调整预置的第一虚拟角色模型数据;
步骤S208,依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体;
可选的,该目标用户可以是第一应用程序所在设备的摄像头采集画面中的所有用户,如画面中包括A,B,C三个用户,则用户A,用户B,用户C均是目标用户,渲染生成三个虚拟角色图像,分别与用户A,用户B,用户C的实时用户体征数据对应。也可以在第一应用程序所在设备的摄像头采集画面中的所有用户中选择或者匹配一个或者多个作为目标用户,如选择人脸画面超过一定尺寸的作为目标用户,如通过人脸识别,将匹配的人脸图像作为目标用户的图像。
可选的,本实施例的虚拟场景可以是虚拟游戏场景,虚拟教学场景,虚拟演示场景等,在虚拟场景中包括第一虚拟角色,第一虚拟角色可以通过用户动作实现真人实景同步和控制。
虚拟场景是应用程序在终端上运行时显示(或提供)的虚拟场景。该虚拟场景可以是对真实世界的仿真环境,也可以是半仿真半虚构的虚拟环境,还可以是纯虚构的虚拟环境。虚拟场景可以是二维虚拟场景、2.5维虚拟场景或者三维虚拟场景中的任意一种。
可选的,在步骤S208之后,还可以包括步骤S210,第一应用程序将虚拟场景流媒体推出。在一个实例中,从第一应用程序将虚拟场景流媒体推出到视频服务器,以使视频服务器将虚拟场景流媒体上传至视频播放端。
可选的,虚拟场景流媒体用于在视频播放端(如直播终端,电视,视频会议终端,游戏终端,即时通信终端)实时呈现虚拟画面,该虚拟画面中包括该虚拟角色图像。
通过上述步骤,在第一应用程序中配置第一虚拟角色生成组件,通过第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的实时用户体征数据,第一虚拟角色生成组件根据实时用户体征数据实时调整预置的第一虚拟角色模型数据;依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体,第一应用程序将虚拟场景流媒体推出,通过获取的实时用户体征数据实时调整预置的第一虚拟角色模型数据,并生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体,可以将用户在实景中的表情或肢体动作映射到虚拟角色上并呈现,实现虚拟与现实的同步,解决了相关技术不能通过用户在实景中的体征数据同步显示虚拟角色的技术问题,提升了人机交互效率,增强了场景深度和沉浸式体验感,同时保护了用户隐私。
在本实施例的一个实施方式中,通过第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的实时用户体征数据包括:通过第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的用户实景画面;从用户实景画面中提取目标用户的实时用户体征数据,其中,实时用户体征数据包括目标用户的实时脸部数据和/或实时骨骼数据。
在一个示例中,第一应用程序应用在手机中,获取由手机的前置或者后置摄像头采集的用户实景画面,该用户实景画面是一个动态的画面,包括目标用户的实景图像和实物背景图像,然后从用户实景画面中提取目标用户的实时用户体征数据,如实时脸部数据(如脸型,表情,发饰,五官特征等),实时骨骼数据(如身形、肢体动作等)。
在本实施例的一个实施方式中,在第一应用程序中配置第一虚拟角色生成组件包括:在第一应用程序中配置软件开发工具包接口,其中,软件开发工具包接口用于通过插件对接至少一个虚拟角色服务商分别提供的第一虚拟角色生成组件。
采用SDK包,可以对接各种虚拟角色服务商提供的以插件形式的组件,不同的第一虚拟角色生成组件可以对应不同的虚拟角色素材。
在本实施例的一个实施方式中,第一虚拟角色生成组件根据实时用户体征数据实时调整预置的第一虚拟角色模型数据包括:第一虚拟角色生成组件根据实时用户体征数据实时调整预置的第一虚拟角色的以下模型数据:服装模型数据、道具模型数据、脸部模型数据、肢体模型数据、躯干模型数据中的至少一个。
以脸部模型数据为例,首先将脸部模型数据分别与预置的脸部模型数据的模特无表情模型数据和模特表情模型数据进行包裹变形处理,然后将包裹变形处理后的数据进行融合变形处理,以得到与脸部模型数据对应的角色表情模型数据。在本发明的实施例中,角色表情模型数据可以被作为虚拟角色的角色表情数据。在本发明的实施例中,参与上述操作的模特无表情模型数据和模特表情模型数据分别可以是一种或多种。在本发明的实施例中,由第一模特表情模型数据参与生成的角色表情模型数据(角色表情数据)可以被称为第一角色表情模型数据(第二角色表情数据),而由第二模特表情模型数据参与生成的角色表情模型数据(角色表情数据)可以被称为第二角色表情模型数据(第二角色表情数据)。
以肢体模型数据和躯干模型数据为例,实时调整预置的第一虚拟角色模型数据的具体过程可以包含步骤包括:
S11,获取预置的第一虚拟角色模型数据;
S12,将肢体骨骼数据(包括肢体模型数据和躯干模型数据)转换为引擎中关节的绑定姿态空间数据,绑定姿态空间数据包含绑定姿态空间位置数据和绑定姿态空间旋转数据。
可选的,肢体骨骼数据为上文实施例的骨骼矩阵数据集合Data-Skeleton T和骨骼矩阵数据集合Data-Skeleton L。本发明实施例能够将骨骼矩阵数据集合Data-SkeletonT转换为绑定姿态空间数据MT,并将骨骼矩阵数据集合Data-Skeleton L转换为绑定姿态空间数据Mm。其中,绑定姿态空间数据MT可以表示某个关节的“T-Pose”姿态矩阵(4*4),绑定姿态空间数据Mm可以表示某个关节的当前帧的姿态矩阵。MT和Mm都可以表示某个关节的当前帧的姿态矩阵,MT和Mm在增强现实平台的自定义空间下,分别包含了旋转数据和位置数据。
S13,基于绑定姿态空间数据按照预设算法计算第一虚拟角色模型的各个关节对应的模型空间数据。
可选的,模型空间数据可以包含模型空间位置数据和模型空间旋转数据。计算第一虚拟角色模型的各个关节对应的模型空间数据的过程中,可以分别计算各个关节对应的模型空间位置数据和模型空间旋转数据。
在本实施例的一个实施方式中,在第一虚拟角色生成组件根据实时用户体征数据实时调整预置的第一虚拟角色模型数据之前,还包括:第一虚拟角色生成组件选择基础角色模型;针对基础角色模型的每个模型组件,基于用户指令设置模型组件的组件参数,其中,每个模型组件对应第一虚拟角色的以下一个模型数据:服装模型数据、道具模型数据、脸部模型数据、肢体模型数据、躯干模型数据;采用基础角色模型,以及组件参数构建第一虚拟角色模型。
在本实施方式中,基础角色模型包括第一虚拟角色的基础模型数据,如脸型数据,脸型和身高的比例数据,身形数据等,但第一虚拟角色的一些角色细节可配置,如脸部五官的位置,大小,比例,肢体的胖瘦,佩戴的服饰、道具等。图3是本发明实施例自定义基础角色模型的示意图,基础角色模型的模型组件包括轮廓,下巴,鼻子等,图3中,当前选中“轮廓”进行自定义,组件参数包括:颧骨高低,颧骨宽度,脸颊宽度,通过设置具体的值,分别为4,15,6,可以自定义出第一虚拟角色的轮廓形状。
在本实施例的一个实施方式中,在依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体之前,还包括:从网络服务器获取与第一虚拟角色匹配的第二虚拟角色的第二虚拟角色模型数据和/或虚拟场景数据,其中,虚拟场景数据包括以下多媒体数据至少之一:背景音频、背景虚拟场景数据。
在一些示例中,虚拟场景数据包可以通过自定义或者第三方定义来获取,以虚拟场景数据包中的背景虚拟场景数据为例,可以通过UGC(User-generated Content,用户生产内容)或PGU(Professionally-generated Content,专业生产内容)的方式来定制背景虚拟场景的素材等数据,如在在第一应用程序中配置软件开发工具包接口,其中,软件开发工具包接口用于通过插件对接至少一个背景虚拟场景服务商分别提供的背景虚拟场景数据的生成组件,用户通过平台进行线上选择和订购,实现个性化,多样化的背景配置。
在另一方面,针对现场采集到的背景图片,可以对手机镜头中的虚拟场景,进行快速的虚拟场景数据的生成,基于实景图像进行转换或者拼接,生成对应的虚拟图像,并与虚拟游戏角色、音频等合成虚拟场景流媒体,例如AR、VR、游戏等背景数据模型,提高沉浸感。
在一些实例中,在渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体之后,还可以实时检测上述虚拟场景数据模型与虚拟角色模型之间的交互碰撞事件,如第一虚拟角色触摸虚拟场景中的第一场景元素(如物体,另一个虚拟角色),还可以触发对应的多媒体数据的加载和显示,如改变该第一场景元素的形态,触发生成第二场景元素等,实时调整虚拟场景数据模型、实现虚拟场景的实时变化与重新渲染。
采用本实施例的方案,用户在素材库选择一个贴图素材(如虚拟人物,虚拟动物,动漫IP等),作为虚拟偶像,可以是脸部,也可以是全身,该贴图素材映射虚拟偶像的脸部模型或骨骼模型,通过摄像头实时获取用户在实景中的表情或肢体动作,捕捉到实时用户体征数据,实时调整预设模型的贴图数据和骨骼数据,将其映射到贴图素材上,以使贴图素材的表情动作与摄像头前的用户一致,并在实时输出图像中采用虚拟偶像覆盖用户实景图像的脸部或全身,或者只显示该动态虚拟偶像。
本实施例的方案可以应用在直播,情景动画,视频创作,在线教育,网络会议,视频聊天,KTV,试衣间,虚拟游戏,T台走秀等各种场景中。在此进行举例说明:
应用场景一
依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体包括:依据实时调整过的第一虚拟角色模型数据和第一虚拟场景数据,渲染生成包含与目标主播用户对应的第一虚拟角色图像的第一虚拟场景流媒体;其中,第一虚拟场景数据为直播用虚拟场景数据,包括:直播间的背景虚拟图像和/或待售商品的虚拟模型数据,待售商品的虚拟模型数据配置为与第一虚拟角色模型数据可交互,用于展示待售商品。
在一个线上直播的场景中,基于用户A和用户B组合的实景数据联合生成第一虚拟角色模型数据,如通过摄像头A采集用户A的躯干部分,摄像头B采集用户B的头部部分,并获取实时用户体征数据,基于用户A的躯干部分的实时用户体征数据和用户B的头部部分的实时用户体征数据实时调整预置的第一虚拟角色模型数据,此外,也可以是用户A的身体,用户B的声音等组合方式。如用户A在直播开始前,向用户B发起请求,请求采集用户B的一部分用户体征数据,用于和用户A提供的一部分用户体征数据来同时实时调整预置的第一虚拟角色模型数据,在直播画面中生成第一虚拟角色,本场景可以应用在商品售卖、教育、特定职业技能、游戏技能的其它玩家,采用至少两个用户完成订单中的指定虚拟人物的任务,还可以向被请求方支付对应的虚拟资产。针对用户B,被交互的消费者、游戏玩家、学习者、与会人员,可以触发对应的支付流程进行支付与订单的生成,基于实时用户体征数据向用户A发起结算操作。
在直播场景中,通过直播器材,如手机,电脑等的前置摄像头或外置的摄像头采集目标主播用户的图像,第一虚拟角色生成组件从中提取出特征数据(如脸部特征数据,肢体特征数据,发饰特征数据等实时用户体征数据),将特征数据转换为素材模型的贴图数据和骨骼数据,并将贴图数据和骨骼数据实时映射到素材模型,实时调整预置的第一虚拟角色模型数据,渲染生成动态表情包,将该动态表情包覆盖在主播实景图像的脸部或全身区域,生成包含与目标主播用户对应的虚拟角色图像的虚拟场景流媒体,选择一个虚拟场景作为背景,还可以选择待售商品的虚拟模型数据,如月球,太空,商场,动漫布景等,将该动态表情包添加至虚拟场景,融合生成一个新的虚拟情景并呈现,如宇航员升空,太空漫步,二次元,虚拟购物台等。待售商品的虚拟模型数据包括待售商品在各个形态的数据,如内部画面,用户使用画面,构造图,主播通过交互指令,可以将待售商品的功能、外观,甚至使用感受展示给直播间的观众。图4是本发明实施例中直播场景的示意图,目标主播用户对应的第一虚拟角色图像在直播间与真人用户在聊天。
应用场景二
依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体包括:依据实时调整过的第一虚拟角色模型数据和第二虚拟场景数据,渲染生成包含与目标游戏用户对应的第一虚拟角色图像的第二虚拟场景流媒体;其中,第二虚拟场景数据为虚拟游戏场景数据,包括:从网络服务器获取运行中的虚拟场景模型数据和/或至少一个协同用户对应的第二虚拟角色的第二虚拟模型数据;虚拟场景模型数据和第二虚拟角色模型数据,与实时调整过的第一虚拟角色模型数据可依据目标用户的控制指令进行游戏交互。
在该应用场景中,摄像装置1采集目标用户的实时用户体征数据,摄像装置2采集协同用户的实时用户体征数据,该协同用户可以是目标用户在同一游戏场景中组队的队友,对手等,将目标用户和协同用户分别在现实场景中的动作,表情等映射为虚拟游戏中的表情、动作、或控制指令,通过虚拟现实的方式呈现游戏画面和交互。图5是本发明实施例中虚拟游戏场景的示意图,目标用户和协同用户采用各自的虚拟角色进行线上对战游戏。
应用场景三
依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体包括:依据实时调整过的第一虚拟角色模型数据和第三虚拟场景数据,渲染生成包含与目标视频会议用户对应的第一虚拟角色图像的第三虚拟场景流媒体;其中,第三虚拟场景数据为目标用户可配置的会议室背景图像和/或会议共享多媒体数据。
在该应用场景中,还可以针对虚拟会议室中的成员讨论、文件签署等行为,生成对应的电子文件和虚拟道具,如在视频会议中的用户A发言时,即时生成虚拟话筒,在用户A和用户B在视频会议中讨论达成共识需要签署合同时,基于签署指令加载生成电子签名区域,并与会议用户进行动态交互,采集用户A和用户B分别在电子签名区域输入的电子签名,生成采用证书签字加密的电子文件,作为会议记录进行保存和分享。
在视频会议场景中,每个视频房间,或者每个接入账号选择一个虚拟偶像,可以由视频管理员(会议主持人)主动分配,以使每个参会人员的虚拟偶像不重复,在这种情况下,可以隐藏每个会议房间的账号和房间号,以隐藏每个参会人员的身份信息,当然,也可以用户自己选择自己喜欢的虚拟偶像,在会议中,通过会议接入终端采集目标视频会议用户的图像,从中提取出特征数据(如脸部特征数据,肢体特征数据,发饰特征数据等实时用户体征数据),将特征数据转换为素材模型的贴图数据和骨骼数据,并将贴图数据和骨骼数据实时映射到素材模型,调整预置的第一虚拟角色模型数据,渲染生成动态表情包,将该动态表情包覆盖在用户实景图像的脸部或全身区域,视频房间就会显示几个虚拟偶像在参加会议,说话,同时,在第一虚拟角色图像的背景区域显示会议室背景图像和/或会议共享多媒体数据(如PPT文档,电脑桌面等)。图6是本发明实施例中视频会议场景的示意图,视频会议中,包括四个参会人员,其中,会议主持人是真人头像,第一目标用户,第二目标用户,第三目标用户在显示会议室分别映射成第一虚拟角色,第二虚拟角色,第三虚拟角色。
在一些实施方式中,渲染生成包含与目标视频会议用户对应的第一虚拟角色图像的第三虚拟场景流媒体包括:获取至少一个与会用户对应的第二虚拟角色图像的第二虚拟模型数据,结合第一虚拟角色模型数据和第三虚拟场景数据,渲染生成包含第一虚拟角色图像、第二虚拟角色图像、会议室背景图像的第三虚拟场景流媒体,其中,第三虚拟场景流媒体用于分发至目标用户和与会用户的会议终端,目标用户和与会用户是同一视频会议的参会用户。
可选的,会议室背景图像可以是虚拟图像,实景图像(如书柜,会议桌),用户(如视频会议的主持人)可以在配置文件中选择或者上传自定义的图像作为会议室背景图像。
在一个示例中,视频会议的会议室1中包括三个参会用户,分别是用户1,用户2,用户3,在渲染生成会议室1的第三虚拟场景流媒体时,获取分别与用户1,用户2,用户3对应的虚拟角色图像1的虚拟模型数据1,虚拟角色图像2的虚拟模型数据2,虚拟角色图像2的虚拟模型数据2,以及包括会议室背景图像的第三虚拟场景数据,渲染生成包含虚拟角色图像1、虚拟角色图像2、虚拟角色图像3、以及会议室背景图像的第三虚拟场景流媒体,以使用户1,用户2,用户3在各自的视频终端上呈现相同的会议室背景,提高视频会议的与会沉浸感。
应用场景四
依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体包括:依据实时调整过的第一虚拟角色模型数据和第四虚拟场景数据,渲染生成包含与目标教师用户对应的第一虚拟角色图像的第四虚拟场景流媒体;其中,第四虚拟场景数据为目标教师用户可配置的用于教学的多媒体数据和/或教学交互虚拟模型数据,教学交互虚拟模型数据配置为与第一虚拟角色模型数据可交互,用于教学展示。
在该应用场景中,教师虚拟角色与学员虚拟角色还可以在虚拟教室中互动,如选择学员虚拟角色列表中的指定虚拟角色(对应用户A),该学员虚拟角色获取声音的采集权限,回答教师提出的问题,或者获取文本编辑的权限,在第四虚拟场景数据中实时加载虚拟黑板(该虚拟黑板为文本输入框),采集用户A在该虚拟黑板输入的答题信息,并将该答题信息实时加载至教师虚拟角色的第四虚拟场景数据中,以实现全员显示。
在线教育的场景中,包括教师角色和学员角色,教师选择第一类型的虚拟偶像,学员选择第二类型的虚拟偶像,以区分二者的关系,在教学过程中,通过视频采集终端采集教师的全身图像,从中提取出特征数据(如脸部特征数据,肢体特征数据等实时用户体征数据),将特征数据转换为素材模型的贴图数据和骨骼数据,并将贴图数据和骨骼数据实时映射到素材模型,实时调整预置的第一虚拟角色模型数据,渲染生成肢体动作表情包,将该肢体动作表情包覆盖在教师图像的全身区域,同时通过用于教学的多媒体数据和/或教学交互虚拟模型数据显示背景区域,如教材文档、黑板等教具,在显示PPT等电脑桌面的情况下,在显示界面的第一区域显示教师的动态虚拟偶像,在第二区域显示电脑桌面;另一方面,通过学员的接入终端(手机、电脑)采集学员的脸部区域,并渲染生成脸部表情包,可以在虚拟教室的各个网格中显示各个脸部表情包,或者将该脸部表情包覆盖学员实景图像的脸部区域,同时虚化显示背景区域,实现教师和学员在同一个虚拟教室中的同步渲染和显示,模拟真实教室和教学场景,提高沉浸感。图7是本发明实施例中在线教育的示意图,目标教师和学员用户映射成虚拟角色,在背景图像中显示用于教学的PPT。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
实施例2
在本实施例中还提供了一种基于虚拟角色的流媒体生成装置,用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图8是根据本发明实施例的一种基于虚拟角色的流媒体生成装置的结构框图,如图8所示,该装置包括:配置模块80,第一获取模块82,调整模块84,生成模块86,其中,
配置模块80,用于在第一应用程序中配置第一虚拟角色生成组件;
第一获取模块82,用于通过所述第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的实时用户体征数据;
调整模块84,用于采用所述第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色模型数据;
生成模块86,用于依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体。
可选的,所述第一获取模块包括:获取单元,用于通过所述第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的用户实景画面;提取单元,用于从所述用户实景画面中提取目标用户的实时用户体征数据,其中,所述实时用户体征数据包括所述目标用户的实时脸部数据和/或实时骨骼数据。
可选的,所述配置模块包括:配置单元,用于在第一应用程序中配置软件开发工具包接口,其中,所述软件开发工具包接口用于通过插件对接至少一个虚拟角色服务商分别提供的所述第一虚拟角色生成组件。
可选的,所述调整模块包括:调整单元,用于采用所述第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色的以下模型数据:服装模型数据、道具模型数据、脸部模型数据、肢体模型数据、躯干模型数据中的至少一个。
可选的,所述装置还包括:选择模块,用于在所述调整模块采用所述第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色模型数据之前,第一虚拟角色生成组件选择基础角色模型;设置模块,用于针对所述基础角色模型的每个模型组件,基于用户指令设置模型组件的组件参数,其中,每个模型组件对应所述第一虚拟角色的以下一个模型数据:服装模型数据、道具模型数据、脸部模型数据、肢体模型数据、躯干模型数据;构建模块,用于采用所述基础角色模型,以及所述组件参数构建所述第一虚拟角色模型。
可选的,所述装置还包括:第二获取模块,用于在所述生成模块依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体之前,从网络服务器获取与所述第一虚拟角色匹配的第二虚拟角色的第二虚拟角色模型数据和/或所述虚拟场景数据,其中,所述虚拟场景数据包括以下多媒体数据至少之一:背景音频、背景虚拟场景数据。
可选的,所述生成模块包括:第一生成单元,用于依据实时调整过的第一虚拟角色模型数据和第一虚拟场景数据,渲染生成包含与目标主播用户对应的第一虚拟角色图像的第一虚拟场景流媒体;其中,所述第一虚拟场景数据为直播用虚拟场景数据,包括:直播间的背景虚拟图像和/或待售商品的虚拟模型数据,所述待售商品的虚拟模型数据配置为与所述第一虚拟角色模型数据可交互,用于展示所述待售商品。
可选的,所述生成模块包括:第二生成单元,用于依据实时调整过的第一虚拟角色模型数据和第二虚拟场景数据,渲染生成包含与目标游戏用户对应的第一虚拟角色图像的第二虚拟场景流媒体;其中,所述第二虚拟场景数据为虚拟游戏场景数据,包括:从网络服务器获取运行中的虚拟场景模型数据和/或至少一个协同用户对应的第二虚拟角色的第二虚拟模型数据;所述虚拟场景模型数据和所述第二虚拟角色模型数据,与所述实时调整过的第一虚拟角色模型数据可依据所述目标用户的控制指令进行游戏交互。
可选的,所述生成模块包括:第三生成单元,用于依据实时调整过的第一虚拟角色模型数据和第三虚拟场景数据,渲染生成包含与目标视频会议用户对应的第一虚拟角色图像的第三虚拟场景流媒体;其中,所述第三虚拟场景数据为所述目标用户可配置的会议室背景图像和/或会议共享多媒体数据。
可选的,所述第三生成单元包括:包括:获取子单元,用于获取至少一个与会用户对应的第二虚拟角色图像的第二虚拟模型数据;生成子单元,用于结合所述第一虚拟角色模型数据和第三虚拟场景数据,渲染生成包含所述第一虚拟角色图像、所述第二虚拟角色图像、会议室背景图像的第三虚拟场景流媒体,其中,所述第三虚拟场景流媒体用于分发至所述目标用户和所述与会用户的会议终端,所述目标用户和所述与会用户是同一视频会议的参会用户。
可选的,所述生成模块包括:第四生成单元,用于依据实时调整过的第一虚拟角色模型数据和第四虚拟场景数据,渲染生成包含与目标教师用户对应的第一虚拟角色图像的第四虚拟场景流媒体;其中,所述第四虚拟场景数据为目标教师用户可配置的用于教学的多媒体数据和/或教学交互虚拟模型数据,所述教学交互虚拟模型数据配置为与所述第一虚拟角色模型数据可交互,用于教学展示。
可选的,所述装置还包括:推流模块,用于在所述生成模块渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体之后,从所述第一应用程序将所述虚拟场景流媒体推出到视频服务器,以使所述视频服务器将所述虚拟场景流媒体上传至视频播放端。
需要说明的是,上述各个模块是可以通过软件或硬件来实现的,对于后者,可以通过以下方式实现,但不限于此:上述模块均位于同一处理器中;或者,上述各个模块以任意组合的形式分别位于不同的处理器中。
实施例3
本申请实施例还提供了一种电子装置,图9是本发明实施例的一种电子装置的结构图,如图9所示,包括处理器91、通信接口92、存储器93和通信总线94,其中,处理器91,通信接口92,存储器93通过通信总线94完成相互间的通信,存储器93,用于存放计算机程序;
处理器91,用于执行存储器93上所存放的程序时,实现如下步骤:在第一应用程序中配置第一虚拟角色生成组件;通过所述第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的实时用户体征数据;第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色模型数据;依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体。
可选的,通过所述第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的实时用户体征数据包括:通过所述第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的用户实景画面;从所述用户实景画面中提取目标用户的实时用户体征数据,其中,所述实时用户体征数据包括所述目标用户的实时脸部数据和/或实时骨骼数据。
可选的,在第一应用程序中配置第一虚拟角色生成组件包括:在第一应用程序中配置软件开发工具包接口,其中,所述软件开发工具包接口用于通过插件对接至少一个虚拟角色服务商分别提供的所述第一虚拟角色生成组件。
可选的,第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色模型数据包括:第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色的以下模型数据:服装模型数据、道具模型数据、脸部模型数据、肢体模型数据、躯干模型数据中的至少一个。
可选的,在第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色模型数据之前,所述方法还包括:第一虚拟角色生成组件选择基础角色模型;针对所述基础角色模型的每个模型组件,基于用户指令设置模型组件的组件参数,其中,每个模型组件对应所述第一虚拟角色的以下一个模型数据:服装模型数据、道具模型数据、脸部模型数据、肢体模型数据、躯干模型数据;采用所述基础角色模型,以及所述组件参数构建所述第一虚拟角色模型。
可选的,在依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体之前,所述方法还包括:从网络服务器获取与所述第一虚拟角色匹配的第二虚拟角色的第二虚拟角色模型数据和/或所述虚拟场景数据,其中,所述虚拟场景数据包括以下多媒体数据至少之一:背景音频、背景虚拟场景数据。
可选的,依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体包括:依据实时调整过的第一虚拟角色模型数据和第一虚拟场景数据,渲染生成包含与目标主播用户对应的第一虚拟角色图像的第一虚拟场景流媒体;其中,所述第一虚拟场景数据为直播用虚拟场景数据,包括:直播间的背景虚拟图像和/或待售商品的虚拟模型数据,所述待售商品的虚拟模型数据配置为与所述第一虚拟角色模型数据可交互,用于展示所述待售商品。
可选的,依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体包括:依据实时调整过的第一虚拟角色模型数据和第二虚拟场景数据,渲染生成包含与目标游戏用户对应的第一虚拟角色图像的第二虚拟场景流媒体;其中,所述第二虚拟场景数据为虚拟游戏场景数据,包括:从网络服务器获取运行中的虚拟场景模型数据和/或至少一个协同用户对应的第二虚拟角色的第二虚拟模型数据;所述虚拟场景模型数据和所述第二虚拟角色模型数据,与所述实时调整过的第一虚拟角色模型数据可依据所述目标用户的控制指令进行游戏交互。
可选的,依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体包括:依据实时调整过的第一虚拟角色模型数据和第三虚拟场景数据,渲染生成包含与目标视频会议用户对应的第一虚拟角色图像的第三虚拟场景流媒体;其中,所述第三虚拟场景数据为所述目标用户可配置的会议室背景图像和/或会议共享多媒体数据。
可选的,渲染生成包含与目标视频会议用户对应的第一虚拟角色图像的第三虚拟场景流媒体包括:获取至少一个与会用户对应的第二虚拟角色图像的第二虚拟模型数据,结合所述第一虚拟角色模型数据和第三虚拟场景数据,渲染生成包含所述第一虚拟角色图像、所述第二虚拟角色图像、会议室背景图像的第三虚拟场景流媒体,其中,所述第三虚拟场景流媒体用于分发至所述目标用户和所述与会用户的会议终端,所述目标用户和所述与会用户是同一视频会议的参会用户。
可选的,依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体包括:依据实时调整过的第一虚拟角色模型数据和第四虚拟场景数据,渲染生成包含与目标教师用户对应的第一虚拟角色图像的第四虚拟场景流媒体;其中,所述第四虚拟场景数据为目标教师用户可配置的用于教学的多媒体数据和/或教学交互虚拟模型数据,所述教学交互虚拟模型数据配置为与所述第一虚拟角色模型数据可交互,用于教学展示。
可选的,在渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体之后,所述方法还包括:从所述第一应用程序将所述虚拟场景流媒体推出到视频服务器,以使所述视频服务器将所述虚拟场景流媒体上传至视频播放端。
上述终端提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述终端与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,简称RAM),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本申请提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的基于虚拟角色的流媒体生成方法。
在本申请提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的基于虚拟角色的流媒体生成方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (13)
1.一种基于虚拟角色的流媒体生成方法,包括:
在第一应用程序中配置第一虚拟角色生成组件;
通过所述第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的实时用户体征数据;
第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色模型数据;
依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体;
其中,实时调整预置的第一虚拟角色模型数据包括:获取预置的第一虚拟角色模型数据,其中,所述第一虚拟角色模型数据包括肢体骨骼数据,所述肢体骨骼数据包括肢体模型数据和躯干模型数据;将所述肢体骨骼数据转换为引擎中关节的绑定姿态空间数据,绑定姿态空间数据包含绑定姿态空间位置数据和绑定姿态空间旋转数据;基于所述绑定姿态空间数据按照预设算法计算第一虚拟角色模型的各个关节对应的模型空间数据,其中,所述模型空间数据包括模型空间位置数据和模型空间旋转数据。
2.根据权利要求1所述的方法,其特征在于,通过所述第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的实时用户体征数据包括:
通过所述第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的用户实景画面;
从所述用户实景画面中提取目标用户的实时用户体征数据,其中,所述实时用户体征数据包括所述目标用户的实时脸部数据和/或实时骨骼数据。
3.根据权利要求1所述的方法,其特征在于,在第一应用程序中配置第一虚拟角色生成组件包括:
在第一应用程序中配置软件开发工具包接口,其中,所述软件开发工具包接口用于通过插件对接至少一个虚拟角色服务商分别提供的所述第一虚拟角色生成组件。
4.根据权利要求1所述的方法,其特征在于,第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色模型数据包括:
第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色的以下模型数据:服装模型数据、道具模型数据、脸部模型数据、肢体模型数据、躯干模型数据中的至少一个。
5.根据权利要求1所述的方法,其特征在于,在第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色模型数据之前,所述方法还包括:
第一虚拟角色生成组件选择基础角色模型;
针对所述基础角色模型的每个模型组件,基于用户指令设置模型组件的组件参数,其中,每个模型组件对应所述第一虚拟角色的以下一个模型数据:服装模型数据、道具模型数据、脸部模型数据、肢体模型数据、躯干模型数据;
采用所述基础角色模型,以及所述组件参数构建所述第一虚拟角色模型。
6.根据权利要求1所述的方法,其特征在于,在依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体之前,所述方法还包括:
从网络服务器获取与所述第一虚拟角色匹配的第二虚拟角色的第二虚拟角色模型数据和/或所述虚拟场景数据,其中,所述虚拟场景数据包括以下多媒体数据至少之一:背景音频、背景虚拟场景数据。
7.根据权利要求1所述的方法,其特征在于,依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体包括:
依据实时调整过的第一虚拟角色模型数据和第一虚拟场景数据,渲染生成包含与目标主播用户对应的第一虚拟角色图像的第一虚拟场景流媒体;
其中,所述第一虚拟场景数据为直播用虚拟场景数据,包括:直播间的背景虚拟图像和/或待售商品的虚拟模型数据,所述待售商品的虚拟模型数据配置为与所述第一虚拟角色模型数据可交互,用于展示所述待售商品。
8.根据权利要求1所述的方法,其特征在于,依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体包括:
依据实时调整过的第一虚拟角色模型数据和第二虚拟场景数据,渲染生成包含与目标游戏用户对应的第一虚拟角色图像的第二虚拟场景流媒体;
其中,所述第二虚拟场景数据为虚拟游戏场景数据,包括:从网络服务器获取运行中的虚拟场景模型数据和/或至少一个协同用户对应的第二虚拟角色的第二虚拟模型数据;所述虚拟场景模型数据和所述第二虚拟角色模型数据,与所述实时调整过的第一虚拟角色模型数据可依据所述目标用户的控制指令进行游戏交互。
9.根据权利要求1所述的方法,其特征在于,依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体包括:
依据实时调整过的第一虚拟角色模型数据和第三虚拟场景数据,渲染生成包含与目标视频会议用户对应的第一虚拟角色图像的第三虚拟场景流媒体;
其中,所述第三虚拟场景数据为所述目标用户可配置的会议室背景图像和/或会议共享多媒体数据。
10.根据权利要求9所述的方法,其特征在于,渲染生成包含与目标视频会议用户对应的第一虚拟角色图像的第三虚拟场景流媒体包括:
获取至少一个与会用户对应的第二虚拟角色图像的第二虚拟模型数据,结合所述第一虚拟角色模型数据和第三虚拟场景数据,渲染生成包含所述第一虚拟角色图像、所述第二虚拟角色图像、会议室背景图像的第三虚拟场景流媒体,其中,所述第三虚拟场景流媒体用于分发至所述目标用户和所述与会用户的会议终端,所述目标用户和所述与会用户是同一视频会议的参会用户。
11.根据权利要求1所述的方法,其特征在于,依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体包括:
依据实时调整过的第一虚拟角色模型数据和第四虚拟场景数据,渲染生成包含与目标教师用户对应的第一虚拟角色图像的第四虚拟场景流媒体;
其中,所述第四虚拟场景数据为目标教师用户可配置的用于教学的多媒体数据和/或教学交互虚拟模型数据,所述教学交互虚拟模型数据配置为与所述第一虚拟角色模型数据可交互,用于教学展示。
12.根据权利要求1所述的方法,其特征在于,在渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体之后,所述方法还包括:
从所述第一应用程序将所述虚拟场景流媒体推出到视频服务器,以使所述视频服务器将所述虚拟场景流媒体上传至视频播放端。
13.一种虚拟画面的生成装置,其特征在于,包括:
配置模块,用于在第一应用程序中配置第一虚拟角色生成组件;
第一获取模块,用于通过所述第一虚拟角色生成组件获取由第一应用程序所在设备的摄像头提供的实时用户体征数据;
调整模块,用于采用所述第一虚拟角色生成组件根据所述实时用户体征数据实时调整预置的第一虚拟角色模型数据;
生成模块,用于依据实时调整过的第一虚拟角色模型数据和虚拟场景数据,渲染生成包含与目标用户对应的虚拟角色图像的虚拟场景流媒体;
其中,所述调整模块还用于:获取预置的第一虚拟角色模型数据,其中,所述第一虚拟角色模型数据包括肢体骨骼数据,所述肢体骨骼数据包括肢体模型数据和躯干模型数据;将所述肢体骨骼数据转换为引擎中关节的绑定姿态空间数据,绑定姿态空间数据包含绑定姿态空间位置数据和绑定姿态空间旋转数据;基于所述绑定姿态空间数据按照预设算法计算第一虚拟角色模型的各个关节对应的模型空间数据,其中,所述模型空间数据包括模型空间位置数据和模型空间旋转数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110578351.0A CN113240782B (zh) | 2021-05-26 | 2021-05-26 | 基于虚拟角色的流媒体生成方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110578351.0A CN113240782B (zh) | 2021-05-26 | 2021-05-26 | 基于虚拟角色的流媒体生成方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113240782A CN113240782A (zh) | 2021-08-10 |
CN113240782B true CN113240782B (zh) | 2024-03-22 |
Family
ID=77138949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110578351.0A Active CN113240782B (zh) | 2021-05-26 | 2021-05-26 | 基于虚拟角色的流媒体生成方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113240782B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7319172B2 (ja) | 2019-11-13 | 2023-08-01 | 富士フイルム株式会社 | 画像処理装置、画像処理方法及び画像処理システム |
CN113362672B (zh) * | 2021-08-11 | 2021-11-09 | 深圳市创能亿科科技开发有限公司 | 基于虚拟现实的教学方法、设备及计算机可读存储介质 |
CN113769393B (zh) * | 2021-09-27 | 2024-06-28 | 上海完美时空软件有限公司 | 角色形象的生成方法及装置、存储介质、电子装置 |
CN113593351B (zh) * | 2021-09-27 | 2021-12-17 | 华中师范大学 | 一种立体综合教学场系统的工作方法 |
US11410570B1 (en) | 2021-09-27 | 2022-08-09 | Central China Normal University | Comprehensive three-dimensional teaching field system and method for operating same |
CN114119857A (zh) * | 2021-10-13 | 2022-03-01 | 北京市应急管理科学技术研究院 | 角色化身位置与肢体同步的处理方法、系统及存储介质 |
CN114168044A (zh) * | 2021-11-30 | 2022-03-11 | 完美世界(北京)软件科技发展有限公司 | 虚拟场景的交互方法及装置、存储介质、电子装置 |
CN114125552A (zh) * | 2021-11-30 | 2022-03-01 | 完美世界(北京)软件科技发展有限公司 | 视频数据的生成方法及装置、存储介质、电子装置 |
JP2023088152A (ja) * | 2021-12-14 | 2023-06-26 | トヨタ自動車株式会社 | 端末装置、端末装置の動作方法、及びシステム |
CN114095480B (zh) * | 2022-01-24 | 2022-04-15 | 北京麦颂文化传播有限公司 | Ktv直播连麦方法、装置和系统 |
CN114327083A (zh) * | 2022-03-04 | 2022-04-12 | 北京有竹居网络技术有限公司 | 房产、对象的展示方法、装置、可读存储介质和电子设备 |
WO2023184357A1 (zh) * | 2022-03-31 | 2023-10-05 | 云智联网络科技(北京)有限公司 | 一种表情模型制作的方法、装置及电子设备 |
CN115619912B (zh) * | 2022-10-27 | 2023-06-13 | 深圳市诸葛瓜科技有限公司 | 一种基于虚拟现实技术的动漫人物展示系统及方法 |
CN116912444B (zh) * | 2023-08-04 | 2024-02-23 | 深圳市固有色数码技术有限公司 | 一种基于人工智能的元宇宙模型生成系统及方法 |
CN117744051A (zh) * | 2023-12-21 | 2024-03-22 | 江苏云工场信息技术有限公司 | 一种数字人身份确权的方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104322052A (zh) * | 2012-05-09 | 2015-01-28 | 恩卡姆技术有限公司 | 用于实时混合或复合计算机生成的三维对象和电影摄影机馈送视频的系统 |
CN107194979A (zh) * | 2017-05-11 | 2017-09-22 | 上海微漫网络科技有限公司 | 一种虚拟角色的场景合成方法及系统 |
CN109865289A (zh) * | 2019-01-15 | 2019-06-11 | 特斯联(北京)科技有限公司 | 一种基于增强现实技术的实景环境娱乐系统及其方法 |
CN112040092A (zh) * | 2020-09-08 | 2020-12-04 | 杭州时光坐标影视传媒股份有限公司 | 一种实时虚拟场景led拍摄系统及方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11055918B2 (en) * | 2019-03-15 | 2021-07-06 | Sony Interactive Entertainment Inc. | Virtual character inter-reality crossover |
-
2021
- 2021-05-26 CN CN202110578351.0A patent/CN113240782B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104322052A (zh) * | 2012-05-09 | 2015-01-28 | 恩卡姆技术有限公司 | 用于实时混合或复合计算机生成的三维对象和电影摄影机馈送视频的系统 |
CN107194979A (zh) * | 2017-05-11 | 2017-09-22 | 上海微漫网络科技有限公司 | 一种虚拟角色的场景合成方法及系统 |
CN109865289A (zh) * | 2019-01-15 | 2019-06-11 | 特斯联(北京)科技有限公司 | 一种基于增强现实技术的实景环境娱乐系统及其方法 |
CN112040092A (zh) * | 2020-09-08 | 2020-12-04 | 杭州时光坐标影视传媒股份有限公司 | 一种实时虚拟场景led拍摄系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113240782A (zh) | 2021-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113240782B (zh) | 基于虚拟角色的流媒体生成方法及装置 | |
CN111080759B (zh) | 一种分镜效果的实现方法、装置及相关产品 | |
CN108322832B (zh) | 评论方法、装置、及电子设备 | |
US20120050325A1 (en) | System and method for providing virtual reality linking service | |
EP3573026B1 (en) | Information processing apparatus, information processing method, and program | |
CN112235530B (zh) | 远程会议的实现方法及装置、电子设备、存储介质 | |
Prins et al. | TogetherVR: A framework for photorealistic shared media experiences in 360-degree VR | |
CN110472099B (zh) | 互动视频生成方法及装置、存储介质 | |
CN111064919A (zh) | 一种vr远程会议方法及装置 | |
CN108322474B (zh) | 基于共享桌面的虚拟现实系统、相关装置及方法 | |
CN112839196B (zh) | 一种实现在线会议的方法、装置以及存储介质 | |
JP2021006977A (ja) | コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム | |
KR102200239B1 (ko) | 실시간 cg 영상 방송 서비스 시스템 | |
CN114168044A (zh) | 虚拟场景的交互方法及装置、存储介质、电子装置 | |
CN113220130A (zh) | 一种用于党建的vr体验系统及其设备 | |
KR20170127354A (ko) | 페이셜 모션 캡쳐를 이용한 얼굴 변환 화상 대화 장치 및 방법 | |
WO2023130715A1 (zh) | 一种数据处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品 | |
CN116016837A (zh) | 一种沉浸式虚拟网络会议方法和装置 | |
KR20160136160A (ko) | 가상현실 공연시스템 및 공연방법 | |
Lee et al. | Research on application of virtual reality technology to create metaverse podcasts | |
CN116962745A (zh) | 视频图像的混画方法、装置及直播系统 | |
KR20220090751A (ko) | 증강현실 방송 서비스를 제공하는 양방향 방송 시스템 및 방법 | |
JP2021009351A (ja) | コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム | |
CN116664805B (zh) | 一种基于增强现实技术的多媒体展示系统及方法 | |
Van Broeck et al. | Real-time 3D video communication in 3D virtual worlds: Technical realization of a new communication concept |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |