CN113965773A - 直播展示方法和装置、存储介质及电子设备 - Google Patents
直播展示方法和装置、存储介质及电子设备 Download PDFInfo
- Publication number
- CN113965773A CN113965773A CN202111296396.5A CN202111296396A CN113965773A CN 113965773 A CN113965773 A CN 113965773A CN 202111296396 A CN202111296396 A CN 202111296396A CN 113965773 A CN113965773 A CN 113965773A
- Authority
- CN
- China
- Prior art keywords
- picture
- face
- target picture
- virtual animal
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/441—Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
- H04N21/4415—Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
Abstract
本发明公开了一种直播展示方法和装置、存储介质及电子设备。其中,该方法包括:在当前直播画面中显示预先为主播对象配置的目标图片,其中,目标图片中显示有虚拟动物对象的面部,采集主播对象的人脸图像,基于人脸图像识别主播对象的面部表情变化特征,根据面部表情变化特征,驱动目标图片中虚拟动物对象的面部表情进行同步调整,得到调整后的目标图片,将调整后的目标图片封装为待推送的直播流数据,并推送直播流数据给播放客户端进行展示。本发明解决了现有的技术直播展示效率较低的技术问题。
Description
技术领域
本发明涉及计算机领域,具体而言,涉及一种直播展示方法和装置、存储介质及电子设备。
背景技术
为了丰富直播画面,直播应用开发商常常会设置各种不同的直播特效。比如,基于三维(简称3D)人脸模型,为主播制作与其人脸相适配的虚拟人像,并在直播过程中由该虚拟人像来代替主播的真实头像进行直播展示,以隐藏主播真正的肖像信息,保护主播的隐私。
然而,在实时直播的过程中,若基于3D人脸模型来计算虚拟人像实时产生的面部变化,将需要大量的数据计算,才能完成直播画面的渲染展示,从而导致直播展示效率较低的问题。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种直播展示方法和装置、存储介质及电子设备,以至少解决现有的技术直播展示效率较低的技术问题。
根据本发明实施例的一个方面,提供了一种直播展示方法,包括:在当前直播画面中显示预先为主播对象配置的目标图片,其中,目标图片中显示有虚拟动物对象的面部;采集主播对象的人脸图像;基于人脸图像识别主播对象的面部表情变化特征;根据面部表情变化特征,驱动目标图片中虚拟动物对象的面部表情进行同步调整,得到调整后的目标图片;将调整后的目标图片封装为待推送的直播流数据,并推送直播流数据给播放客户端进行展示。
根据本发明实施例的另一方面,还提供了一种直播展示装置,包括:第一显示单元,用于在当前直播画面中显示预先为主播对象配置的目标图片,其中,目标图片中显示有虚拟动物对象的面部;采集单元,用于采集主播对象的人脸图像;识别单元,用于基于人脸图像识别主播对象的面部表情变化特征;驱动调整单元,用于根据面部表情变化特征,驱动目标图片中虚拟动物对象的面部表情进行同步调整,得到调整后的目标图片;展示处理单元,用于将调整后的目标图片封装为待推送的直播流数据,并推送直播流数据给播放客户端进行展示。
根据本发明实施例的又一方面,还提供了一种计算机可读的存储介质,该计算机可读的存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述直播展示方法。
根据本发明实施例的又一方面,还提供了一种电子设备,包括存储器和处理器,上述存储器中存储有计算机程序,上述处理器被设置为通过上述计算机程序执行上述的直播展示方法。
在本发明实施例中,在当前直播画面中显示预先为主播对象配置的目标图片之后,采集主播对象的人脸图像,基于人脸图像识别主播对象的面部表情变化特征,然后根据面部表情变化特征,驱动目标图片中虚拟动物对象的面部表情进行同步调整,得到调整后的目标图片,最终将调整后的目标图片封装为待推送的直播流数据,并推送直播流数据给播放客户端进行展示,从而采用通过虚拟动物对象对应于人脸图像的变化进行同步调整展示,避免了采用3D人脸模型来模拟实时面部变化的过程中的大量数据计算,从而实现了通过少量数据计算即对实时面部变化进行模拟的技术效果,进而解决了现有的技术直播展示效率较低的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种可选的直播展示方法的应用环境的示意图;
图2是根据本发明实施例的一种可选的直播展示方法的流程图;
图3是根据本发明实施例的一种可选的直播展示方法的示意图;
图4是根据本发明实施例的另一种可选的直播展示方法的示意图;
图5是根据本发明实施例的又一种可选的直播展示方法的示意图;
图6是根据本发明实施例的又一种可选的直播展示方法的示意图;
图7是根据本发明实施例的又一种可选的直播展示方法的示意图;
图8是根据本发明实施例的又一种可选的直播展示方法的示意图;
图9是根据本发明实施例的一种可选的直播展示方法的流程图;
图10是根据本发明实施例的一种可选的直播展示装置的结构示意图;
图11是根据本发明实施例的一种可选的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本发明实施例的一个方面,提供了一种直播展示方法,可选地,作为一种可选的实施方式,上述。。方法可以但不限于应用于如图1所示的环境中。
根据本发明实施例的一个方面,提供了一种直播展示方法,可选地,作为一种可选的实施方式,上述直播展示方法可以但不限于应用于如图1所示的硬件环境中的直播展示系统。其中,该直播展示系统可以包括但不限于终端设备102、网络104、服务器106、数据库108及终端设备109。终端设备102中运行有目标客户端(如图1所示的直播界面,该目标客户端可以是一款直播平台的主播版本客户端)。上述终端设备102包括人机交互屏幕,处理器及存储器。人机交互屏幕用于显示主播客户端的直播界面(如图1所示的一种主播客户端的直播界面);还用于提供人机交互接口以接收用于用户使用直播软件进行网络直播的人机交互操作。处理器用于响应上述人机交互操作生成交互指令,并将该交互指令发送给服务器106。存储器用于存储相关属性数据,如直播界面的界面特效信息、直播平台的不同虚拟礼物信息等。上述终端设备109同样包括人机交互屏幕,处理器及存储器,其中,人机交互屏幕用于显示观众客户端的直播界面。
具体过程如以下步骤:如步骤S102,在终端设备102内运行的客户端中的当前直播画面中显示预先为主播对象配置的目标图片,其中,目标图片中显示有虚拟动物对象的面部;S104,采集主播对象的人脸图像;S106,终端设备102通过网络104发送上述主播对象的人脸图像至服务器106。服务器106将执行步骤S108-S112,基于人脸图像识别主播对象的面部表情变化特征,根据面部表情变化特征,驱动目标图片中虚拟动物对象的面部表情进行同步调整,得到调整后的目标图片,将调整后的目标图片封装为待推送的直播流数据。最后如步骤S114,服务器106通过网络104向终端设备102和终端设备109推送直播流数据。
作为另一种可选的实施方式,在终端设备102具备较强大的计算处理能力时,上述步骤S108-S112也可以由终端设备102来完成。这里为示例,本实施例中对此不作任何限定。
可选地,在本实施例中,上述终端设备可以是配置有目标客户端的终端设备,可以包括但不限于以下至少之一:手机(如Android手机、iOS手机等)、笔记本电脑、平板电脑、掌上电脑、MID(Mobile Internet Devices,移动互联网设备)、PAD、台式电脑、智能电视等。目标客户端可以是视频客户端、即时通信客户端、浏览器客户端、教育客户端等。上述网络可以包括但不限于:有线网络,无线网络,其中,该有线网络包括:局域网、城域网和广域网,该无线网络包括:蓝牙、WIFI及其他实现无线通信的网络。上述服务器可以是单一服务器,也可以是由多个服务器组成的服务器集群,或者是云服务器。上述仅是一种示例,本实施例中对此不作任何限定。
作为一种可选的实施方式,如图2所示,上述直播展示方法包括:
S202,在当前直播画面中显示预先为主播对象配置的目标图片,其中,目标图片中显示有虚拟动物对象的面部;
S204,采集主播对象的人脸图像;
S206,基于人脸图像识别主播对象的面部表情变化特征;
S208,根据面部表情变化特征,驱动目标图片中虚拟动物对象的面部表情进行同步调整,得到调整后的目标图片;
S210,将调整后的目标图片封装为待推送的直播流数据,并推送直播流数据给播放客户端进行展示。
以如图3所示的界面为例,可以理解的是,上述直播画面为应用于终端的主播客户端进行直播时显示的界面。该界面可以分为四个显示区域,包括直播区301:用于显示主播用户在直播过程中向观众用户播出的画面;互动区302:用于显示观众用户的互动信息;设置区303:用于显示用于设置直播参数的控件;搜索区304:用于显示用于获取目标图片的控件。其中,如直播区301所示,在该区域中显示预先为主播对象配置的目标图片,在目标图片中显示有虚拟动物对象的面部。
可选地,上述采集主播对象的人脸图像的方式可以是通过如图1中所示的终端设备102通过设备自带的拍摄装置获取的主播对象的人脸图像,也可以是主播对象在通过终端设备102直播过程中,使用的第三方设备获取主播对象的人脸图像,再将上述获取的人脸图像导入终端设备102用于直播,在此不作限定。
可以理解的是,上述面部表情变化特征可以是用于指示人脸图像上发生的变化的面部图像特征。比如,主播对象的人脸图像从“平静”的表情变化为“高兴”的表情的情况下,可以从人脸图像上识别到“眼角的位置变化”、“嘴角的位置变化”以及“面部纹路变化”等变化特征信息,通过上述变化特征信息即可指示主播对象的面部表情变化。
可以理解的是,上述根据面部表情变化特征,驱动目标图片中虚拟动物对象的面部表情进行同步调整,得到调整后的目标图片可以是指根据识别到的面部表情变化特征,调整目标图片中的虚拟动物对象的面部表情。比如在根据上述识别到的“眼角的位置变化”、“嘴角的位置变化”以及“面部纹路变化”等变化特征,控制在如图3所示的直播区301中的虚拟动物图像的面部表情进行同步调整,从“平静”的表情变化为“高兴”的表情。
可选地,在对上述虚拟动物的面部表情进行同步调整以后,将调整后的目标图片封装为待推送的直播流数据,将直播流数据推送给观众客户端进行展示上述虚拟动物图像。可以理解的是,上述直播流数据也可以推送给主播客户端进行展示,用于反馈给主播对象实时的直播效果。
在本发明实施例中,在当前直播画面中显示预先为主播对象配置的目标图片之后,采集主播对象的人脸图像,基于人脸图像识别主播对象的面部表情变化特征,然后根据面部表情变化特征,驱动目标图片中虚拟动物对象的面部表情进行同步调整,得到调整后的目标图片,最终将调整后的目标图片封装为待推送的直播流数据,并推送直播流数据给播放客户端进行展示,从而采用通过虚拟动物对象对应于人脸图像的变化进行同步调整展示,避免了采用3D人脸模型来模拟实时面部变化的过程中的大量数据计算,从而实现了通过少量数据计算即对实时面部变化进行模拟的技术效果,进而解决了现有的技术直播展示效率较低的技术问题。
作为一种可选的实施方式,上述基于上述人脸图像识别上述主播对象的面部表情变化特征包括:
S1,定位每张上述人脸图像中人脸关键点所在的位置;
S2,计算相邻两张上述人脸图像之间上述人脸关键点的位置的偏移量;
S3,根据上述位置的偏移量确定上述主播对象的面部表情变化特征。
可以理解的是,上述根据人脸关键点的位置的偏移量确定主播对象的面部表情变化特征可以是根据相邻两张人脸图像的全部的9个关键点的位置信息进行差值计算,从而获取得到9个位置偏移量向量,通过上述关键点位置偏移量向量指示相邻人脸图像的关键点的位置的偏移。然后根据9个位置偏移量向量确定出上述主播面部表情变化特征,比如说,位置偏移向量指示嘴角的关键点408/409向上移动,可以用于指示主播表情出现了“笑”的特征。也就是说,可以根据上述9个位置偏移向量确定上述主播对象的面部表情变化特征。
可选地,如图4中的(a)图所示的人脸图像为例,可以从人脸图像中确定出9个关键点位置,分别位于额顶-关键点401,双眼瞳孔-关键点402/403,双耳垂-关键点404/405,鼻尖-关键点406,嘴角-关键点407/408,下巴-关键点409。上述人脸关键点的选取仅作为示例,不做任何限制。
以图4中的(b)图对上述方案进行进一步说明。如图4中的(b)图所示,在人脸图像的嘴部拉长的情况下(指示该图像中的人物情绪低落),可以确定出更新位置后的关键点408和更新位置后的关键点407所对应位置偏移向量410和位置偏移向量411。其中,位置偏移向量410指示从图4中的(a)图中的关键点408的第一位置指向图4中的(b)图的关键点408的第二位置,位置偏移向量411指示从图4中的(a)图中的关键点407的第一位置指向图4中的(b)图的关键点407的第二位置。
可选地,在本实施例中,可以利用得到的宠物脸关键点构造网格,并将关键点数据作为图形渲染的纹理坐标。然后利用主播人脸前后帧关键点的位置计算偏移量。接着更新宠物脸的关键点位置,并将更新后的关键点数据作为图形渲染的顶点坐标。最终调用DirectX或者OpenGL的API生成渲染后的画面。
通过本实施例,以相邻两张人脸图像之间关键点的位置的偏移量来指示主播对象的面部表情的变化特征,而不需要将人脸图像上的全部特征信息以及变化信息传输至服务器用于人脸面部模拟,从而减少了在直播过程中的数据传输量,进而提升了直播展示的数据传输效率。
作为一种可选的实施方式,上述根据上述面部表情变化特征,驱动上述目标图片中上述虚拟动物对象的面部表情进行同步调整,得到调整后的上述目标图片包括:
S1,定位上述虚拟动物对象的面部关键点所在的位置;
S2,根据上述面部表情变化特征更新上述虚拟动物对象的面部关键点的位置,得到更新后的关键点位置;
S3,基于上述更新后的关键点位置调整上述目标图片中上述虚拟动物对象的面部表情,其中,上述更新后的关键点位置将被作为用于渲染与上述虚拟动物对象的面部对应的面部网络的顶点坐标。
以图5所示的虚拟动物图像为例,在该虚拟动物图像中确定出对应于图4中的9个关键点位置的9个关键点位置,分别为额顶-关键点501,双眼瞳孔-关键点502/503,双耳垂-关键点504/505,鼻尖-关键点506,嘴角-关键点507/508,下巴-关键点509。
可以理解的是,在该实施例中得到更新后的关键点位置可以是根据图4中确定的9个位置偏移量向量更新该动物图像中的9个关键点位置。同时,为了面部关键点位置调整更新的准确,可以是在图5所示的面部网络中进行虚拟动物对象的面部渲染,并以上述根据位置偏移量向量更新后的关键点位置作为图5所示的面部网络的顶点坐标。
通过本实施例,通过在虚拟动物对象的面部关键点与人脸图像对应定位,再根据面部表情变化特征对动物对象的面部关键点位置进行更新,并在面部网络中将更新后的面部关键点位置作为顶点坐标,从而实现了避免根据全部人脸图像数据对人脸进行建模模拟,而是根据面部表情变化特征对队伍对象的面部关键点更新,并在面部网络中进行渲染,减轻了网络带宽压力,从而提高了直播展示的效率。
作为一种可选的实施方式,上述在当前直播画面中显示预先为主播对象配置的目标图片之前,还包括:
S1,输入上述目标动物图片;
S2,对上述目标图片进行面部识别;
S3,在识别出上述虚拟动物对象的面部的情况下,提取上述虚拟动物对象的面部区域;
S4,将上述虚拟动物对象的面部区域与目标背景图片进行融合,以生成上述目标图片。
可以理解的是,在上述输入的目标图片中包含了虚拟动物面部的情况下,可以直接提取出上述虚拟动物面部区域,而排除上述目标图片中的其他元素。并将提取出的虚拟动物面部区域与预设的目标背景图片进行融合拼接,从而生成目标图片。
作为一种可选的方式,以图6对上述方案进行具体说明。如图6所示,左图为一个完整的虚拟小猪形象,在将图6中的左图输入目标应用后,识别出左图中的虚拟小猪面部区域,并提取上述虚拟小猪面部区域,与预设的目标背景图片进行融合,得到一个具有人类身体的虚拟小猪形象。
通过本申请的上述实施例,实现了将输入的目标动物图片提取出虚拟动物的面部区域,并与预设的背景图片进行融合以得到目标图片,进而提高了得到目标虚拟动物形象的效率。
作为一种可选的实施方式,上述输入上述目标动物图片的方法包括以下之一:
方式一:通过图像采集装置对当前所在环境中的实际动物进行图像采集,得到上述目标图片;
方式二:从本地存储的图像集中获取上述目标动物图片;
方式三:从直播客户端提供的候选图片中获取上述目标动物图片。
如图7所示的界面对上述实施例进行示例性说明。在主播进入直播界面的情况下,可以通过对界面右上角显示的搜索控件701进行触控操作,以获取上述目标动物图片。
响应于主播对搜索控件701的触控操作,可以提供三种不同的目标动物图片获取方式,包括:
方式一:通过图像采集装置对当前所在环境中的实际动物进行图像采集,得到上述目标图片;
方式二:从本地存储的图像集中获取上述目标动物图片;
方式三:从直播客户端提供的候选图片中获取上述目标动物图片。
可以理解的是,在主播用户选择了方式一的情况下,可以控制调用终端设备的“照相机”功能,以响应于主播用户的拍照操作,并直接获取通过拍照得到的照片作为目标动物图片,然后再进行后续操作;在主播用户选择了方式二的情况下,可以控制调用终端设备的“存储”功能,以响应于主播用户在本终端的存储空间中的相册中选择特定图片,将选中的特定图片作为目标动物图片;在主播用户选择了方式三的情况下,控制显示直播客户端提供的候选图片库,并响应于主播用户的选择操作,确定出被选中的图片为目标动物图片。
可以理解的是,预设的候选图片库可采用生成对抗网络生成,保证给用户提供足够丰富多样的宠物脸图片。这些方式使得主播能根据自身需求定义动物形象。
可选地,可以同时将上述三种方式作为三种选项供主播用户选择,以获取目标动物图片,也可以择一作为获取动物图片的方法,在此对上述三种方式的组合不做任何限定。
通过本申请的上述实施例,提供了三种输入目标动物图片的方法,从而提供给主播用户更多可以选择的方式导入虚拟动物图片,进而丰富了虚拟动物图像的输入方法,增加了用虚拟动物头像作为直播头像的直播方法的趣味性。
作为一种可选的实施方式,上述提取上述虚拟动物对象的面部区域包括:
S1,从上述目标图片中确定出包含上述虚拟动物对象的显示区域和未包含上述虚拟动物对象的背景区域;
S2,分离上述显示区域和上述背景区域;
S3,从上述显示区域中提取出上述虚拟动物对象的面部区域。
以图8所示的示意图为例对上述实施方式进行详细说明。如图8中的(a)图所示,图片中不仅包含了虚拟小猪对象,还包括了背景区域。在背景区域中,显示了远处地平线上的树林和房屋,以及天空中的闪电。可以理解的是,上述背景区域中的元素在对直播展示是不必要的,因此在第一步先分离虚拟小猪形象所在的显示区域以及背景元素所在的背景区域。根据上一步得到图8中的(b)图所示的显示区域。进而根据图8中的(b)图所示的显示区域提取出如图8中的(c)图所示虚拟动物对象的面部区域。
通过本申请的上述实施例,通过对包含了背景区域的虚拟动物形象的图片进行分步处理,先确定出包含了虚拟动物对象的显示区域,再从显示区域中提取出虚拟动物对象的面部区域,进而可以更加准确地确定出用于进行直播展示的虚拟动物头像,提高了直播展示的准确定和趣味性。
作为一种可选的实施方式,将上述虚拟动物对象的面部区域与目标背景图片进行融合,以生成上述目标图片包括:
S1,确定上述目标背景图片中用于显示上述虚拟动物对象的面部区域的候选区域;
S2,根据上述候选区域对上述虚拟动物对象的面部区域进行融合预处理,以使上述虚拟动物对象的面部区域与上述候选区域相适配,其中,上述融合预处理包括以下至少之一:缩放处理、旋转处理、平移处理;
S3,将融合预处理后得到的上述虚拟动物对象的面部区域与上述候选区域进行融合,以生成上述目标图片。
以下结合具体实施例对上述方法进行说明。作为一种可选的方式,上述确定出候选区域的方式可以采用AI抠图技术,分离宠物和背景区域。该步骤使得宠物在出镜时,不受原图片背景内容干扰。
进一步地,作为一种可选的对上述虚拟动物对象的面部区域进行融合预处理的方式,可以采用调整宠物截图的大小和角度,然后将宠物放置于新背景图片中合适的位置的方法。本实施例还支持用户对宠物截图进行缩放、旋转和平移,摆放在指定位置。接着将宠物和背景图片进行融合。
对虚拟动物对象的面部区域与候选区域进行融合方式可以采用Alpha融合方法。具体而言,可按照以下公式进行融合:
Iblend=α*Ipet+(1-α)*Ibackground。
其中Ipet为宠物图片,Ibackground为背景图片,Iblend为融合后的图片,α为宠物的透明度。其中,透明度数据可以在上述AI抠图过程中获取。
同时,对虚拟动物对象的面部区域与候选区域进行融合的方式还可以采用色彩调节的方法。具体而言,可采用以下方法,首先分别对背景图求取R、G、B通道的均值。数学形式为
μR=E(Ibackgroud(R,x,y)),
μG=E(Ibackgroud(G,x,y)),
μB=E(Ibackgroud(B,x,y))。
然后在分别求取背景图R、G、B通道的方差:
最终目标是求解a和b,使得宠物图片经过线性变换后,它和背景图片的颜色分布尽可能接近。具体而言,就是优化a和b,使得L尽可能小,
其中,
另外,经过线性变换后,宠物图片R、G、B通道的色彩均值和方差分别为
μ′R=E(aIpet(R,x,y)+b),
μ′G=E(aIpet(G,x,y)+b),
μ′B=E(aIpet(B,x,y)+b),
通过本申请上述实施例,实现了将虚拟动物对象的面部区域与目标背景图片进行预处理以及融合等相应的后续处理,进而实现了采用通过虚拟动物对象对应于人脸图像的变化进行同步调整展示,避免了采用3D人脸模型来模拟实时面部变化的过程中的大量数据计算,从而实现了通过少量数据计算即对实时面部变化进行模拟的技术效果,进而解决了现有的技术直播展示效率较低的技术问题。
作为一种可选的实施方式,上述将调整后的上述目标图片封装为待推送的直播流数据,并推送上述直播流数据给播放客户端进行展示包括:
S1,通过视频编码技术对调整后的上述目标图片进行编码封装,得到上述直播流数据;
S2,采用视频传输技术推送上述直播流数据给上述播放客户端进行展示。
通过本申请上述实施例,实现了将整合后的与虚拟动物对象融合后的主播视频流数据推送给客户端,而避免了采用3D人脸模型来模拟实时面部变化的过程中的大量数据计算,从而实现了通过少量数据计算即对实时面部变化进行模拟的技术效果,进而提高了直播展示的效率。
以下结合图9对本申请的具体实施方式进行说明。
如图9所示,执行步骤S902,接收动物图片;
可以理解的是,在本实施例中,上述接收动物图片的方式有三种,包括:
方式一:通过图像采集装置对当前所在环境中的实际动物进行图像采集,得到上述目标图片;
方式二:从本地存储的图像集中获取上述目标动物图片;
方式三:从直播客户端提供的候选图片中获取上述目标动物图片。
接着执行步骤S904,对动物进行检测和识别。在识别成功的情况下,执行步骤S906;在识别失败的情况下,返回步骤S902;
可以理解的是,在本实施例中,使用AI目标检测技术,判断图片中是否存在宠物。如果存在,则定位宠物在图片中的位置;如果不存在,则提示主播图片中没有宠物,并返回步骤S902。接着进一步定位宠物的关键点位置,包括眼睛、鼻子、嘴巴、耳朵等。
如步骤S906,对动物图片进行抠图处理;
作为一种可选的方式,本实施例采用AI抠图技术,分离宠物和背景区域。
如步骤S908,将动物与场景融合;
作为一种可选的方式,可以采用Alpha融合方法实现对经过AI抠图处理的动物头像与背景进行融合。
执行步骤S910,接收真人表演数据。在成功接收真人表演数据的情况下,执行步骤S912,在接收失败的情况下,执行步骤S908;
作为一种可选的方式,主播在摄像头前正常表演,AI人脸识别算法检测是否存在人脸。如果存在人脸,进一步定位人脸关键点位置,包括眼睛、鼻子、嘴巴、耳朵等。
接着执行步骤S912,渲染直播画面;
作为一种可选的方式,利用步骤S904得到的宠物脸关键点构造网格,并将关键点数据作为图形渲染的纹理坐标。然后利用主播人脸前后帧关键点的位置计算偏移量。接着更新宠物脸的关键点位置,并将更新后的关键点数据作为图形渲染的顶点坐标。最终调用DirectX或者OpenGL的API生成渲染后的画面。
如步骤S914,推送视频流数据;
可以理解的是,在该步骤中,通过视频编码技术和传输技术,主播侧将宠物表演视频流推送到云端。
在本发明实施例中,在当前直播画面中显示预先为主播对象配置的目标图片之后,采集主播对象的人脸图像,基于人脸图像识别主播对象的面部表情变化特征,然后根据面部表情变化特征,驱动目标图片中虚拟动物对象的面部表情进行同步调整,得到调整后的目标图片,最终将调整后的目标图片封装为待推送的直播流数据,并推送直播流数据给播放客户端进行展示,从而采用通过虚拟动物对象对应于人脸图像的变化进行同步调整展示,避免了采用3D人脸模型来模拟实时面部变化的过程中的大量数据计算,从而实现了通过少量数据计算即对实时面部变化进行模拟的技术效果,进而解决了现有的技术直播展示效率较低的技术问题。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
根据本发明实施例的另一个方面,还提供了一种用于实施上述直播展示方法的直播展示装置。如图10所示,该装置包括:
第一显示单元1002,用于在当前直播画面中显示预先为主播对象配置的目标图片,其中,上述目标图片中显示有虚拟动物对象的面部;
采集单元1004,用于采集上述主播对象的人脸图像;
识别单元1006,用于基于上述人脸图像识别上述主播对象的面部表情变化特征;
驱动调整单元1008,用于根据上述面部表情变化特征,驱动上述目标图片中上述虚拟动物对象的面部表情进行同步调整,得到调整后的上述目标图片;
展示处理单元1010,用于将调整后的上述目标图片封装为待推送的直播流数据,并推送上述直播流数据给播放客户端进行展示。
可选地,在本实施例中,上述各个单元模块所要实现的实施例,可以参考上述各个方法实施例,这里不再赘述。
根据本发明实施例的又一个方面,还提供了一种用于实施上述直播展示方法的电子设备,该电子设备可以是图1所示的终端设备或服务器。本实施例以该电子设备为终端设备为例来说明。如图11所示,该电子设备包括显示器1101、传输装置1102、处理器1103和存储器1104,该存储器1104中存储有计算机程序,该处理器1103被设置为通过计算机程序执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述电子设备可以位于计算机网络的多个网络设备中的至少一个网络设备。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,在当前直播画面中显示预先为主播对象配置的目标图片,其中,目标图片中显示有虚拟动物对象的面部;
S2,采集主播对象的人脸图像;
S3,基于人脸图像识别主播对象的面部表情变化特征;
S4,根据面部表情变化特征,驱动目标图片中虚拟动物对象的面部表情进行同步调整,得到调整后的目标图片;
S5,将调整后的目标图片封装为待推送的直播流数据,并推送直播流数据给播放客户端进行展示。
可选地,本领域普通技术人员可以理解,图11所示的结构仅为示意,电子装置电子设备也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobile Internet Devices,MID)、PAD等终端设备。图11其并不对上述电子装置电子设备的结构造成限定。例如,电子装置电子设备还可包括比图11中所示更多或者更少的组件(如网络接口等),或者具有与图11所示不同的配置。
其中,存储器1104可用于存储软件程序以及模块,如本发明实施例中的直播展示方法和装置对应的程序指令/模块,处理器1103通过运行存储在存储器1104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的直播展示方法。存储器1104可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器1104可进一步包括相对于处理器1103远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。作为一种示例,如图11所示,上述存储器1104中可以但不限于包括上述直播展示装置中的第一显示单元1002、采集单元1004、识别单元1006、驱动调整单元1008和展示处理单元1010。此外,还可以包括但不限于上述直播展示装置中的其他模块单元,本示例中不再赘述。
可选地,上述的传输装置1102用于经由一个网络接收或者发送数据。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置1102包括一个网络适配器(Network Interface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置1102为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
此外,上述电子设备还包括:显示器1101,用于在当前直播画面中显示预先为主播对象配置的目标图片,其中,所述目标图片中显示有虚拟动物对象的面部;和连接总线1110,用于连接上述电子设备中的各个模块部件。
在其他实施例中,上述终端设备或者服务器可以是一个分布式系统中的一个节点,其中,该分布式系统可以为区块链系统,该区块链系统可以是由该多个节点通过网络通信的形式连接形成的分布式系统。其中,节点之间可以组成点对点(P2P,Peer To Peer)网络,任意形式的计算设备,比如服务器、终端等电子设备都可以通过加入该点对点网络而成为该区块链系统中的一个节点。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
根据本申请的一个方面,提供了一种计算机可读存储介质,计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述直播展示方方法。
可选地,在本实施例中,上述计算机可读存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,在当前直播画面中显示预先为主播对象配置的目标图片,其中,目标图片中显示有虚拟动物对象的面部;
S2,采集主播对象的人脸图像;
S3,基于人脸图像识别主播对象的面部表情变化特征;
S4,根据面部表情变化特征,驱动目标图片中虚拟动物对象的面部表情进行同步调整,得到调整后的目标图片;
S5,将调整后的目标图片封装为待推送的直播流数据,并推送直播流数据给播放客户端进行展示。
可选地,在本实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(Random Access Memory,RAM)、磁盘或光盘等。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例上述方法的全部或部分步骤。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上上述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (11)
1.一种直播展示方法,其特征在于,包括:
在当前直播画面中显示预先为主播对象配置的目标图片,其中,所述目标图片中显示有虚拟动物对象的面部;
采集所述主播对象的人脸图像;
基于所述人脸图像识别所述主播对象的面部表情变化特征;
根据所述面部表情变化特征,驱动所述目标图片中所述虚拟动物对象的面部表情进行同步调整,得到调整后的所述目标图片;
将调整后的所述目标图片封装为待推送的直播流数据,并推送所述直播流数据给播放客户端进行展示。
2.根据权利要求1所述的方法,其特征在于,基于所述人脸图像识别所述主播对象的面部表情变化特征包括:
定位每张所述人脸图像中人脸关键点所在的位置;
计算相邻两张所述人脸图像之间所述人脸关键点的位置的偏移量;
根据所述位置的偏移量确定所述主播对象的面部表情变化特征。
3.根据权利要求2所述的方法,其特征在于,根据所述面部表情变化特征,驱动所述目标图片中所述虚拟动物对象的面部表情进行同步调整,得到调整后的所述目标图片包括:
定位所述虚拟动物对象的面部关键点所在的位置;
根据所述面部表情变化特征更新所述虚拟动物对象的面部关键点的位置,得到更新后的关键点位置;
基于所述更新后的关键点位置调整所述目标图片中所述虚拟动物对象的面部表情,其中,所述更新后的关键点位置将被作为用于渲染与所述虚拟动物对象的面部对应的面部网络的顶点坐标。
4.根据权利要求1所述的方法,其特征在于,在当前直播画面中显示预先为主播对象配置的目标图片之前,还包括:
输入目标动物图片;
对所述目标图片进行面部识别;
在识别出所述虚拟动物对象的面部的情况下,提取所述虚拟动物对象的面部区域;
将所述虚拟动物对象的面部区域与目标背景图片进行融合,以生成所述目标图片。
5.根据权利要求4所述的方法,其特征在于,输入所述目标动物图片包括以下之一:
通过图像采集装置对当前所在环境中的实际动物进行图像采集,得到所述目标图片;
从本地存储的图像集中获取所述目标动物图片;
从直播客户端提供的候选图片中获取所述目标动物图片。
6.根据权利要求4所述的方法,其特征在于,提取所述虚拟动物对象的面部区域包括:
从所述目标动物图片中确定出包含所述虚拟动物对象的显示区域和未包含所述虚拟动物对象的背景区域;
分离所述显示区域和所述背景区域;
从所述显示区域中提取出所述虚拟动物对象的面部区域。
7.根据权利要求4所述的方法,其特征在于,将所述虚拟动物对象的面部区域与目标背景图片进行融合,以生成所述目标图片包括:
确定所述目标背景图片中用于显示所述虚拟动物对象的面部区域的候选区域;
根据所述候选区域对所述虚拟动物对象的面部区域进行融合预处理,以使所述虚拟动物对象的面部区域与所述候选区域相适配,其中,所述融合预处理包括以下至少之一:缩放处理、旋转处理、平移处理;
将融合预处理后得到的所述虚拟动物对象的面部区域与所述候选区域进行融合,以生成所述目标图片。
8.根据权利要求1至7中任一项所述的方法,其特征在于,将调整后的所述目标图片封装为待推送的直播流数据,并推送所述直播流数据给播放客户端进行展示包括:
通过视频编码技术对调整后的所述目标图片进行编码封装,得到所述直播流数据;
采用视频传输技术推送所述直播流数据给所述播放客户端进行展示。
9.一种直播展示装置,其特征在于,包括:
第一显示单元,用于在当前直播画面中显示预先为主播对象配置的目标图片,其中,所述目标图片中显示有虚拟动物对象的面部;
采集单元,用于采集所述主播对象的人脸图像;
识别单元,用于基于所述人脸图像识别所述主播对象的面部表情变化特征;
驱动调整单元,用于根据所述面部表情变化特征,驱动所述目标图片中所述虚拟动物对象的面部表情进行同步调整,得到调整后的所述目标图片;
展示处理单元,用于将调整后的所述目标图片封装为待推送的直播流数据,并推送所述直播流数据给播放客户端进行展示。
10.一种计算机可读的存储介质,其特征在于,所述计算机可读的存储介质包括存储的程序,其中,所述程序运行时执行所述权利要求1至8任一项中所述的方法。
11.一种电子设备,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至8任一项中所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111296396.5A CN113965773A (zh) | 2021-11-03 | 2021-11-03 | 直播展示方法和装置、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111296396.5A CN113965773A (zh) | 2021-11-03 | 2021-11-03 | 直播展示方法和装置、存储介质及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113965773A true CN113965773A (zh) | 2022-01-21 |
Family
ID=79469108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111296396.5A Pending CN113965773A (zh) | 2021-11-03 | 2021-11-03 | 直播展示方法和装置、存储介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113965773A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114501102A (zh) * | 2022-01-25 | 2022-05-13 | 广州繁星互娱信息科技有限公司 | 直播对象展示方法和装置、存储介质及电子装置 |
CN115953706A (zh) * | 2023-01-09 | 2023-04-11 | 支付宝(杭州)信息技术有限公司 | 虚拟形象处理方法及装置 |
WO2023155533A1 (zh) * | 2022-02-17 | 2023-08-24 | 上海商汤智能科技有限公司 | 一种图像驱动方法、装置、设备和介质 |
CN115953706B (zh) * | 2023-01-09 | 2024-04-26 | 支付宝(杭州)信息技术有限公司 | 虚拟形象处理方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106251396A (zh) * | 2016-07-29 | 2016-12-21 | 迈吉客科技(北京)有限公司 | 三维模型的实时控制方法和系统 |
CN106937154A (zh) * | 2017-03-17 | 2017-07-07 | 北京蜜枝科技有限公司 | 处理虚拟形象的方法及装置 |
CN109922355A (zh) * | 2019-03-29 | 2019-06-21 | 广州虎牙信息科技有限公司 | 虚拟形象直播方法、虚拟形象直播装置和电子设备 |
CN111402399A (zh) * | 2020-03-10 | 2020-07-10 | 广州虎牙科技有限公司 | 人脸驱动和直播方法、装置、电子设备及存储介质 |
-
2021
- 2021-11-03 CN CN202111296396.5A patent/CN113965773A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106251396A (zh) * | 2016-07-29 | 2016-12-21 | 迈吉客科技(北京)有限公司 | 三维模型的实时控制方法和系统 |
CN106937154A (zh) * | 2017-03-17 | 2017-07-07 | 北京蜜枝科技有限公司 | 处理虚拟形象的方法及装置 |
CN109922355A (zh) * | 2019-03-29 | 2019-06-21 | 广州虎牙信息科技有限公司 | 虚拟形象直播方法、虚拟形象直播装置和电子设备 |
CN111402399A (zh) * | 2020-03-10 | 2020-07-10 | 广州虎牙科技有限公司 | 人脸驱动和直播方法、装置、电子设备及存储介质 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114501102A (zh) * | 2022-01-25 | 2022-05-13 | 广州繁星互娱信息科技有限公司 | 直播对象展示方法和装置、存储介质及电子装置 |
WO2023155533A1 (zh) * | 2022-02-17 | 2023-08-24 | 上海商汤智能科技有限公司 | 一种图像驱动方法、装置、设备和介质 |
CN115953706A (zh) * | 2023-01-09 | 2023-04-11 | 支付宝(杭州)信息技术有限公司 | 虚拟形象处理方法及装置 |
CN115953706B (zh) * | 2023-01-09 | 2024-04-26 | 支付宝(杭州)信息技术有限公司 | 虚拟形象处理方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10460512B2 (en) | 3D skeletonization using truncated epipolar lines | |
CN107888987B (zh) | 一种全景视频播放方法及装置 | |
CN110716645A (zh) | 一种增强现实数据呈现方法、装置、电子设备及存储介质 | |
CN111768479B (zh) | 图像处理方法、装置、计算机设备以及存储介质 | |
CN112199016B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
KR102491140B1 (ko) | 가상 아바타 생성 방법 및 장치 | |
US11620780B2 (en) | Multiple device sensor input based avatar | |
KR20160112898A (ko) | 증강현실 기반 동적 서비스 제공 방법 및 장치 | |
CN109743584B (zh) | 全景视频合成方法、服务器、终端设备及存储介质 | |
KR20140082610A (ko) | 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치 | |
CN109242940B (zh) | 三维动态图像的生成方法和装置 | |
US11917265B2 (en) | Augmented reality data dissemination method, system and terminal and storage medium | |
CN113965773A (zh) | 直播展示方法和装置、存储介质及电子设备 | |
TW202009682A (zh) | 基於擴增實境的互動方法及裝置 | |
CN114531553B (zh) | 生成特效视频的方法、装置、电子设备及存储介质 | |
CN114463470A (zh) | 虚拟空间浏览方法、装置、电子设备和可读存储介质 | |
CN114998935A (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
CN113411537B (zh) | 视频通话方法、装置、终端及存储介质 | |
CN114697703A (zh) | 视频数据生成方法、装置、电子设备及存储介质 | |
EP3542877A1 (en) | Optimized content sharing interaction using a mixed reality environment | |
CN107204026B (zh) | 一种用于显示动画的方法和装置 | |
US11961190B2 (en) | Content distribution system, content distribution method, and content distribution program | |
CN111538920A (zh) | 内容的呈现方法及装置、系统、存储介质、电子装置 | |
CN114779948B (zh) | 基于面部识别的动画人物即时交互控制方法、装置及设备 | |
CN116485983A (zh) | 虚拟对象的纹理生成方法、电子设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |