CN112396679A - 虚拟对象显示方法及装置、电子设备、介质 - Google Patents

虚拟对象显示方法及装置、电子设备、介质 Download PDF

Info

Publication number
CN112396679A
CN112396679A CN202011313637.8A CN202011313637A CN112396679A CN 112396679 A CN112396679 A CN 112396679A CN 202011313637 A CN202011313637 A CN 202011313637A CN 112396679 A CN112396679 A CN 112396679A
Authority
CN
China
Prior art keywords
target
control
virtual object
model
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011313637.8A
Other languages
English (en)
Other versions
CN112396679B (zh
Inventor
周诗文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN202011313637.8A priority Critical patent/CN112396679B/zh
Publication of CN112396679A publication Critical patent/CN112396679A/zh
Priority to PCT/CN2021/131611 priority patent/WO2022105846A1/zh
Priority to US18/253,111 priority patent/US20230419582A1/en
Application granted granted Critical
Publication of CN112396679B publication Critical patent/CN112396679B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开涉及一种虚拟对象显示方法及装置、电子设备、介质。其中,虚拟对象显示方法包括:显示虚拟对象的对象模型和至少一个预设控件,对象模型包括虚拟对象的各个部位的部位模型,每个预设控件用于指示一种控制模式;当检测到对预设控件中的第一预设控件的第一触发操作时,将第一预设控件显示为第一显示状态,第一显示状态用于指示对应的预设控件所指示的控制模式处于开启状态;在第一预设控件所指示的第一控制模式处于开启状态的情况下,接收针对虚拟对象中的目标部位的第一控制信息;将目标部位的部位模型替换显示为第一控制信息对应的目标模型。根据本公开实施例,能够使用户根据自身需求灵活地控制虚拟对象,提升了用户的体验。

Description

虚拟对象显示方法及装置、电子设备、介质
技术领域
本公开涉及多媒体技术领域,尤其涉及一种虚拟对象显示方法及装置、电子设备、介质。
背景技术
随着计算机技术和移动通信技术的迅速发展,基于电子设备的各种娱乐平台得到了普遍应用,极大地丰富了人们的日常生活。
目前,各个娱乐平台为了提高趣味性,相继推出了虚拟形象生成功能,使用户可以在娱乐平台中生成一个虚拟形象,并利用该虚拟形象进行娱乐交互。但是,在相关技术中,用户无法根据自己的需求灵活地控制虚拟形象,不但无法达到预期的趣味性,还会降低用户的体验。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本公开提供了一种虚拟对象显示方法及装置、电子设备、介质。
第一方面,本公开提供了一种虚拟对象显示方法,包括:
显示虚拟对象的对象模型和至少一个预设控件,对象模型包括虚拟对象的各个部位的部位模型,每个预设控件用于指示一种控制模式;
当检测到对预设控件中的第一预设控件的第一触发操作时,将第一预设控件显示为第一显示状态,第一显示状态用于指示对应的预设控件所指示的控制模式处于开启状态;
在第一预设控件所指示的第一控制模式处于开启状态的情况下,接收针对虚拟对象中的目标部位的第一控制信息;
将目标部位的部位模型替换显示为第一控制信息对应的目标模型。
第二方面,本公开提供了一种虚拟对象显示装置,包括:
第一显示单元,配置为显示虚拟对象的对象模型和至少一个预设控件,对象模型包括虚拟对象的各个部位的部位模型,每个预设控件用于指示一种控制模式;
第二显示单元,配置为当检测到对预设控件中的第一预设控件的第一触发操作时,将第一预设控件显示为第一显示状态,第一显示状态用于指示对应的预设控件所指示的控制模式处于开启状态;
第一接收单元,配置为在第一预设控件所指示的第一控制模式处于开启状态的情况下,接收针对虚拟对象中的目标部位的第一控制信息;
第三显示单元,配置为将目标部位的部位模型替换显示为第一控制信息对应的目标模型。
第三方面,本公开提供了一种电子设备,包括:
处理器;
存储器,用于存储可执行指令;
其中,处理器用于从存储器中读取可执行指令,并执行可执行指令以实现第一方面所述的虚拟对象显示方法。
第四方面,本公开提供了一种计算机可读存储介质,该存储介质存储有计算机程序,当计算机程序被处理器执行时,使得处理器实现第一方面所述的虚拟对象显示方法。
本公开实施例提供的技术方案与现有技术相比至少具有如下优点:
本公开实施例的虚拟对象显示方法及装置、电子设备、介质,能够显示至少一个预设控件,使用户可以在至少一个预设控件所指示的控制模式中选择其需要的控制模式,在检测到用户对所选择的控制模式对应的第一预设控件的第一触发操作时,能够将第一预设控件显示为第一显示状态,并且使第一预设控件所指示的第一控制模式处于开启状态,进而能够在第一控制模式处于开启状态的情况下,接收针对虚拟对象中的目标部位的第一控制信息,并将目标部位的部位模型替换显示为第一控制信息对应的目标模型,使得虚拟对象的对象模型能够根据第一控制信息进行调整,进而使用户可以根据自己的需求灵活地控制虚拟对象,提升了用户的体验。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1为本公开实施例提供的一种执行虚拟对象显示方法的架构图;
图2为本公开实施例提供的一种虚拟对象显示方法的流程示意图;
图3为本公开实施例提供的一种虚拟对象交互页面的示意图;
图4为本公开实施例提供的另一种虚拟对象交互页面的示意图;
图5为本公开实施例提供的又一种虚拟对象交互页面的示意图;
图6为本公开实施例提供的再一种虚拟对象交互页面的示意图;
图7为本公开实施例提供的再一种虚拟对象交互页面的示意图;
图8为本公开实施例提供的一种图像采集页面的示意图;
图9为本公开实施例提供的另一种图像采集页面的示意图;
图10为本公开实施例提供的又一种图像采集页面的示意图;
图11为本公开实施例提供的再一种图像采集页面的示意图;
图12为本公开实施例提供的再一种图像采集页面的示意图;
图13为本公开实施例提供的再一种虚拟对象交互页面的示意图;
图14为本公开实施例提供的一种虚拟对象显示装置的结构示意图;
图15为本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
本公开所提供的虚拟对象显示方法可以应用于图1所示的架构中,具体结合图1进行详细说明。
图1示出了本公开实施例提供的一种执行虚拟对象显示方法的架构图。
如图1所示,该架构图中可以包括客户端的至少一个第一电子设备101和至少一个第二电子设备102、以及服务端的至少一个服务器103。第一电子设备101和第二电子设备102可以分别通过网络协议如超文本传输安全协议(Hyper Text Transfer Protocol overSecure Socket Layer,HTTPS)与服务器103建立连接并进行信息交互。其中,第一电子设备101和第二电子设备102可以分别包括移动电话、平板电脑、台式计算机、笔记本电脑、车载终端、可穿戴设备、一体机、智能家居设备等具有通信功能的设备,也可以是虚拟机或者模拟器模拟的设备。服务器103可以是云服务器或者服务器集群等具有存储及计算功能的设备。
基于上述架构,以视频录制为例进行说明,使用第一电子设备101的第一用户104可以在第一电子设备101上的指定平台内录制视频。使用第二电子设备102的第二用户105可以在第二电子设备102上的指定平台内观看第一用户104录制的视频。服务器103可以接收第一电子设备101录制的视频,并且将接收到的视频发送给需要播放该视频的第二电子设备102。
在第一用户104录制视频的过程中,第一用户104可以在指定平台上生成一个与自己形象相似的虚拟形象,并利用虚拟形象提高所录制的视频的趣味性以及提升用户的体验。
以指定平台为视频直播平台为例,其中,视频直播平台可以为视频直播应用程序或者视频直播网站。第一用户104可以在第一电子设备101上的视频直播平台内录制直播视频,第二用户105可以在第二电子设备102上的视频直播平台内进入第一用户104的直播间内观看直播视频。服务器103可以接收第一电子设备101录制的直播视频,并且将接收到的直播视频发送给进入第一用户104的直播间的第二电子设备102。当第一用户104想要提高直播视频的趣味性时,第一用户104可以在视频直播平台上生成一个与自己形象对应的虚拟形象,并将该虚拟形象作为虚拟主播进行视频直播。
此外,以指定平台为短视频平台为例,其中,短视频平台可以为短视频应用程序或者短视频网站。第一用户104可以在第一电子设备101上的短视频平台内录制短视频。第二用户105可以在第二电子设备102上的短视频平台内观看第一用户104录制的短视频。服务器103可以接收第一电子设备101录制的短视频,并且将接收到的短视频发送给请求播放第一用户104录制的短视频的第二电子设备102。当第一用户104想要提高短视频的趣味性时,第一用户104可以在短视频平台上生成一个与自己形象对应的虚拟形象,并将虚拟形象作为视频主角。
继续基于上述架构,还可以以游戏交互为例进行说明,使用第一电子设备101的第一用户104和使用第二电子设备102的第二用户105可以分别在对应的电子设备上的指定平台内生成一个与自己形象相似的虚拟形象,并基于该虚拟形象进行拍照、分享虚拟形象等游戏交互。
在本公开实施例中,为了进一步提升用户的体验,可以满足用户个性化控制虚拟形象的需求。这里,以第一用户104通过第一电子设备101控制虚拟形象为例进行说明,第一电子设备101可以显示至少一个预设控件,使第一用户104可以在至少一个预设控件所指示的控制模式中选择其需要的控制模式,在检测到第一用户104对所选择的控制模式对应的第一预设控件的第一触发操作时,能够将第一预设控件显示为第一显示状态,并且使第一预设控件所指示的第一控制模式处于开启状态,进而能够在第一控制模式处于开启状态的情况下,接收第一用户104针对具有指定虚拟形象的虚拟对象中的目标部位的第一控制信息,并将目标部位的部位模型替换显示为第一控制信息对应的目标模型,使得虚拟对象的对象模型能够根据第一控制信息进行调整,进而使用户可以根据自己的需求灵活地控制具有指定虚拟形象的虚拟对象,提升了用户的体验。
进一步地,第一电子设备101还可以将第一用户104控制虚拟对象的过程录制成视频,或者利用第一用户104控制得到的虚拟对象录制视频,并将录制后的包含虚拟对象的视频发送至服务器103。服务器103可以将接收到的包含虚拟对象的视频发送至请求播放该视频的电子设备,以供其进行播放,进而可以提高视频的趣味性。
根据上述架构,下面结合图2至图13对本公开实施例提供的虚拟对象显示方法进行说明。在本公开实施例中,该虚拟对象显示方法可以由电子设备执行。在一些实施例中,该电子设备可以为图1中所示的客户端中的第一电子设备101。在另一些实施例中,该电子设备也可以为图1中所示的第二电子设备102,在此不做限制。其中,电子设备可以是移动电话、平板电脑、台式计算机、笔记本电脑、车载终端、可穿戴设备、一体机、智能家居设备等具有通信功能的设备,也可以是虚拟机或者模拟器模拟的设备。
图2示出了本公开实施例提供的一种虚拟对象显示方法的流程示意图。
如图2所示,该虚拟对象显示方法可以包括如下步骤。
S210、显示虚拟对象的对象模型和至少一个预设控件。
具体地,电子设备可以显示虚拟对象交互页面,并且在该虚拟对象交互页面内显示虚拟对象的对象模型和至少一个预设控件。
在本公开实施例中,虚拟对象可以包括具有虚拟形象的对象。其中,虚拟形象可以包括虚拟人物形象和虚拟卡通形象中的至少一种。可选地,虚拟卡通形象可以具体为虚拟拟人卡通形象。
进一步地,虚拟人物形象可以为二维虚拟人物形象或三维虚拟人物形象。虚拟卡通形象也可以为二维虚拟卡通形象或三维虚拟卡通形象。
在一些实施例中,在用户录制直播视频的过程中,该虚拟对象可以作为虚拟主播。在另一些实施例中,在用户录制短视频的过程中,该虚拟对象可以作为视频中的目标拍摄对象。在又一些实施例中,在用户进行虚拟形象游戏交互的过程中,该虚拟对象可以作为游戏主角。本公开不对虚拟形象的应用场景进行限制。
在本公开实施例中,虚拟对象的对象模型可以包括虚拟对象的各个部位的部位模型。
可选地,虚拟对象的部位可以包括不同粒度下的部位。例如,虚拟对象的部位可以包括大粒度下的部位,例如头肩部、上半身、下半身等。再例如,虚拟对象的部位可以包括粗粒度下的部位,例如头、手臂、躯干、腿等。又例如,虚拟对象的部位可以包括中粒度下的部位,例如五官、发型、脸颊、手、足、肘、膝盖、脖颈、肩膀、腰等。又例如,虚拟对象的部位可以包括细粒度下的部位,例如瞳孔、眉毛、眼睑、手指等。
其中,细粒度下的部位的部位模型可以组合成中粒度下的部位的部位模型,中粒度下的部位的部位模型可以组合成粗粒度下的部位的部位模型。粗粒度下的部位的部位模型可以组合成大粒度下的部位的部位模型。
需要说明的是,虚拟对象的部位还可以为其他粒度下的部位,只要是能够满足对应的控制模式和控制信息的需求即可,在此不作限制。
在本公开实施例中,每个预设控件可以用于指示一种控制模式,在每个控制模型下,可以对虚拟对象进行该控制模式对应的控制操作。
可选地,预设控件可以用于开启所指示的控制模式。因此,预设控件可以为用于开启所指示的控制模式的控件。例如,预设控件可以为开关控件。再例如,预设控件还可以为复选控件,在此不作限制。
在本公开实施例中,对象模型可以显示于虚拟对象交互页面的任意位置,在此不作限制。至少一个预设控件可以叠加显示于虚拟对象交互页面的任意位置,在此不作限制。
下面,将以预设控件为开关控件为例继续说明本公开实施例。
图3示出了本公开实施例提供的一种虚拟对象交互页面的示意图。如图3所示,电子设备显示有虚拟对象交互页面301,虚拟对象交互页面301内显示有虚拟对象的对象模型302和5个开关控件。对象模型302可以位于虚拟对象交互页面301的中部,5个开关控件可以叠加显示于虚拟对象交互页面301的左侧。5个开关控件可以包括“三维(3D)表情”开关303、“装扮”开关304、“半身跟随”开关305、“全身跟随”开关306和“语音播报”开关307。
“3D表情”开关303可以指示3D表情模式,在3D表情模式下,虚拟对象的头部模型始终保持为具有预先设置的3D表情的模型,即,虚拟对象的面部表情始终保持为预先设置的3D表情。
“装扮”开关304可以指示装扮模式,在装扮模式下,用户可以根据自己的喜好,对虚拟对象的对象模型进行变装。
“半身跟随”开关305可以指示半身跟随模式,在半身跟随模式下,虚拟对象的上半部分肢体模型的模型姿态可以跟随用户姿态进行改变。
“全身跟随”开关306可以指示全身跟随模式,在全身跟随模式下,虚拟对象的全部肢体模型的模型姿态可以跟随用户姿态进行改变。
“语音播报”开关307可以指示语音播报模式,在语音播报模式下,虚拟对象可以对用户输入的文本进行语音播报。
S220、当检测到对预设控件中的第一预设控件的第一触发操作时,将第一预设控件显示为第一显示状态。
在本公开一些实施例中,预设控件可以具有第一显示状态和第二显示状态。
其中,第一显示状态可以用于指示对应的预设控件所指示的控制模式处于开启状态,即当任意预设控件显示为第一显示状态时,该预设控件所指示的控制模式处于开启状态。第二显示状态可以用于指示对应的预设控件所指示的控制模式处于关闭状态,即当任意预设控件显示为第二显示状态时,该预设控件所指示的控制模式处于关闭状态。
以预设控件为开关控件为例,第一显示状态可以为开启显示状态,第二显示状态可以为关闭显示状态。继续参考图3,“3D表情”开关303显示为开启显示状态,因此,3D表情模式处于开启状态。
再以预设控件为复选控件为例,第一显示状态可以为选中显示状态,第二显示状态可以为未选中显示状态。
在本公开实施例中,第一预设控件可以为用户选择的任意预设控件,即指示用户所需的控制模式的预设控件。
可选地,第一触发操作可以用于使第一预设控件由第二显示状态切换至第一显示状态进行显示,即第一触发操作可以为用户对以第二显示状态进行显示的预设控件的触发操作。
具体地,在电子设备显示预设控件的过程中,用户可以随时根据需要选择以第二显示状态进行显示的预设控件作为第一预设控件,并对其输入第一触发操作。电子设备可以持续检测用户对预设控件的触发操作,并且在检测到用户对以第二显示状态进行显示的第一预设控件的第一触发操作后,使第一预设控件所指示的第一控制模式处于开启状态,同时将第一预设控件由第二显示状态切换为第一显示状态进行显示。
以预设控件为开关控件为例,第一触发操作可以为对以关闭显示状态进行显示的开关控件的触发操作,例如点击操作、双击操作、长按操作、语音控制操作或者表情控制操作等。在电子设备显示开关控件的过程中,用户可以随时根据需要选择以关闭显示状态进行显示的开关控件作为第一开关控件,并对其输入第一触发操作。电子设备可以持续检测用户对开关控件的触发操作,并且在检测到用户对任意以关闭显示状态进行显示的第一开关控件的第一触发操作后,使该第一开关控件所指示的第一控制模式处于开启状态,同时将该第一开关控件显示为开启显示状态。
继续参考图3,如果用户想要开启装扮模式,可以点击“装扮”开关304(未示出)。
图4示出了本公开实施例提供的另一种虚拟对象交互页面的示意图。如图4所示,当用户点击“装扮”开关304之后,电子设备可以开启装扮模式,以使装扮模式处于开启状态,并且使“装扮”开关304由关闭显示状态切换为开启显示状态进行显示。
再以预设控件为复选控件为例,第一触发操作可以为对以未选中显示状态进行显示的复选控件的触发操作,例如点击操作、双击操作、长按操作、语音控制操作或者表情控制操作等。在电子设备显示复选控件的过程中,用户可以随时根据需要选择以未选中显示状态进行显示的复选控件作为第一复选控件,并对其输入第一触发操作。电子设备可以持续检测用户对复选控件的触发操作,并且在检测到用户对任意以未选中显示状态进行显示的第一复选控件的第一触发操作后,使该第一复选控件所指示的第一控制模式处于开启状态,同时将该第一复选控件显示为选中显示状态。
S230、在第一预设控件所指示的第一控制模式处于开启状态的情况下,接收针对虚拟对象中的目标部位的第一控制信息。
在本公开一些实施例中,电子设备可以在将第一预设控件显示为第一显示状态的同时,开启第一预设控件所指示的第一控制模式,使第一控制模式处于开启状态。
在本公开另一些实施例中,电子设备可以在将第一预设控件显示为第一显示状态之前,开启第一预设控件所指示的第一控制模式,使第一控制模式处于开启状态。
在本公开又一些实施例中,电子设备可以在将第一预设控件显示为第一显示状态之后,开启第一预设控件所指示的第一控制模式,使第一控制模式处于开启状态。
具体地,电子设备可以在第一控制模式处于开启状态的情况下,接收用户对虚拟对象中的目标部位的第一控制信息,该第一控制信息可以为第一控制模式对应的控制信息。
S240、将目标部位的部位模型替换显示为第一控制信息对应的目标模型。
其中,第一控制信息可以对应于虚拟对象中的目标部位,且用于控制该目标部位的部位模型进行替换显示,并且,目标模型为根据第一控制信息生成的该目标部位的新的部位模型。
进一步地,目标模型还可以包括根据第一控制信息和该目标部位的部位模型生成的新的部位模型。
在本公开实施例中,电子设备可以在接收到针对虚拟对象中的目标部位的第一控制信息之后,根据第一控制信息生成目标模型,并将虚拟对象的目标部位的部位模型替换显示为该目标模型,以使用户可以在第一控制模式下对虚拟对象进行控制。
在本公开实施例中,能够显示至少一个预设控件,使用户可以在至少一个预设控件所指示的控制模式中选择其需要的控制模式,在检测到用户对所选择的控制模式对应的第一预设控件的第一触发操作时,能够将第一预设控件显示为第一显示状态,并且使第一预设控件所指示的第一控制模式处于开启状态,进而能够在第一控制模式处于开启状态的情况下,接收针对虚拟对象中的目标部位的第一控制信息,并将目标部位的部位模型替换显示为第一控制信息对应的目标模型,使得虚拟对象的对象模型能够根据第一控制信息进行改变,进而使用户可以根据自己的需求灵活地控制虚拟对象,提升了用户的体验。
在本公开另一种实施方式中,为了进一步提高对虚拟对象的控制灵活性,电子设备在检测到对预设控件中的第一预设控件的第一触发操作之后,还会同时改变与第一预设控件相关联的预设控件的显示状态,以及与第一控制模式相关联的控制模式的状态。
在本公开一些实施例中,在检测到对预设控件中的第一预设控件的第一触发操作之后,该虚拟对象显示方法还可以包括:
将预设控件中的第二预设控件由第一显示状态切换至第二显示状态,第二显示状态用于指示对应的预设控件所指示的控制模式处于关闭状态。
其中,第二预设控件所指示的第二控制模式被设置为禁止与第一控制模式同时处于开启状态,即第二预设控件被设置为禁止与第一预设控件同时处于第一显示状态。
电子设备可以在检测到用户对以第二显示状态进行显示的第一预设控件的第一触发操作后,确定检测到第一触发操作时以第一显示状态进行显示的、且与第一预设控件相关联的第二预设控件,然后关闭第二预设控件所指示的第二控制模式,使第二控制模式处于关闭状态,同时将第二预设控件由第一显示状态切换为第二显示状态进行显示。
以预设控件为开关控件为例,电子设备可以在检测到用户对任意以关闭显示状态进行显示的开关控件的触发操作后,确定当前已开启并且被设置为不能与该开关控件同时开启的开关控件,然后在使被触发的开关控件所指示的控制模式处于开启状态的同时,使所确定的开关控件所指示的控制模式处于关闭状态,并且在将被触发的开关控件显示为开启显示状态的同时,将所确定的开关控件显示为关闭显示状态。
继续参考图3,在3D表情模式已开启的情况下,如果用户想要开启语音播报模式,可以点击“语音播报”开关307(未示出)。
进一步参照图5,图5示出了本公开实施例提供的又一种虚拟对象交互页面的示意图。如图5所示,由于3D表情模式与语音播报模式被设置为不能同时开启,即“3D表情”开关303与“语音播报”开关307不能同时开启,因此,当用户点击“语音播报”开关307之后,电子设备可以开启语音播报模式并同时关闭3D表情模式,以使语音播报模式处于开启状态、使3D表情模式处于关闭状态,然后使“语音播报”开关307由关闭显示状态切换为开启显示状态进行显示,同时使“3D表情”开关303由开启显示状态切换为关闭显示状态进行显示。
再以预设控件为复选控件为例,电子设备可以在检测到用户对任意以未选中显示状态进行显示的复选控件的触发操作后,确定当前已被选中并且被设置为不能与该复选控件同时被选中的复选控件,然后在使被触发的复选控件所指示的控制模式处于开启状态的同时,使所确定的复选控件所指示的控制模式处于关闭状态,并且在将被触发的复选控件显示为选中显示状态的同时,将所确定的复选控件显示为未选中显示状态。
由此,可以智能地根据用户的操作更改不能与用户触发的第一预设控件处于相同显示状态的第二预设控件的显示状态,并自动更改不能与第一控制模式同时开启的第二控制模式的状态,进一步提高对虚拟对象的控制灵活性和稳定性,提升用户的体验。
在本公开另一些实施例中,在检测到对预设控件中的第一预设控件的第一触发操作之后,该虚拟对象显示方法还可以包括:
将预设控件中的第三预设控件保持为第一显示状态。
其中,第三预设控件所指示的第三控制模式被设置为允许与第一控制模式同时处于开启状态,即第三预设控件被设置为允许与第一预设控件同时处于第一显示状态。
电子设备可以在检测到用户对以第二显示状态进行显示的第一预设控件的第一触发操作后,确定检测到第一触发操作时以第一显示状态进行显示的第三预设控件,然后使第三预设控件所指示的第三控制模式保持开启状态,并且使第三预设控件保持以第一显示状态进行显示。
以预设控件为开关控件为例,电子设备可以在检测到用户对任意以关闭显示状态进行显示的开关控件的触发操作后,确定当前已开启并且被设置为允许与该开关控件同时开启的开关控件,然后使被触发的开关控件所指示的控制模式处于开启状态,同时将被触发的开关控件显示为开启显示状态,并且不对所确定的开关控件及其所指示的控制模式进行状态更改。
继续参考图3和图4。在图3中,如果用户想要开启装扮模式,可以点击“装扮”开关304。由于3D表情模式与装扮模式被设置为允许同时开启,即“3D表情”开关303与“装扮”开关304可以同时开启,因此,在图4中,当用户点击“装扮”开关304之后,电子设备可以直接开启装扮模式,以使装扮模式处于开启状态,然后使“装扮”开关304由关闭显示状态切换为开启显示状态进行显示,无需对“3D表情”开关303和3D表情模式进行状态更改。
再以预设控件为复选控件为例,电子设备可以在检测到用户对任意以未选中显示状态进行显示的复选控件的触发操作后,确定当前已被选中并且被设置为允许与该开关控件同时开启的开关控件,然后使被触发的开关控件所指示的控制模式处于开启状态,同时将被触发的开关控件显示为选中显示状态,并且不对所确定的开关控件及其所指示的控制模式进行状态更改。
由此,可以智能地根据用户的操作保持可以与用户触发的第一预设控件处于相同显示状态的第三预设控件的显示状态,以及保持可以与第一控制模式同时开启的第三控制模式的状态,进一步提高对虚拟对象的控制灵活性和丰富性,提升用户的体验。
在这些实施例中,可选地,电子设备还可以接收用户针对虚拟对象中的对应部分的第二控制信息,将对应部分的部位模型替换显示为第二控制信息对应的模型,使得虚拟对象的对象模型能够根据第二控制信息进行调整并显示。
其中,第二控制信息可以为第三控制模式对应的控制信息,根据第二控制信息进行调整虚拟对象的对象模型的方式与根据第一控制信息进行调整虚拟对象的对象模型的方式相似。
由此,可以在虚拟对象处于多种控制模式的情况下,接收不同控制模式对应的控制信息,并根据不同的控制信息对虚拟对象进行相应的控制,实现对虚拟对象的灵活控制,增强效果的丰富程度。
在本公开又一些实施例中,在检测到对预设控件中的第一预设控件的第一触发操作之后,将预设控件中的第四预设控件保持为第二显示状态。
其中,第四预设控件所指示的第四控制模式被设置为允许保持与第一控制模式同时处于不同的状态,即第四预设控件被设置为允许保持与第一预设控件同时处于不同的显示状态,在此不做赘述。
进一步地,第四预设控件在检测到第一触发操作时保持第二显示状态进行显示。
继续参考图3和图4。在图3中,如果用户想要开启装扮模式,可以点击“装扮”开关304。由于“装扮”开关304以外的已关闭的开关被设置为允许在“装扮”开关304开启时仍然关闭,因此,在图4中,当用户点击“装扮”开关304之后,电子设备可以无需开启“半身跟随”开关305、“全身跟随”开关306和“语音播报”开关307。
由此,可以智能地根据用户的操作保持可以与用户触发的第一预设控件处于不同显示状态的第四预设控件的显示状态,进一步提高对虚拟对象的控制灵活性,提升用户的体验。
在本公开再一些实施例中,在检测到对预设控件中的第一预设控件的第一触发操作之后,将预设控件中的第五预设控件由第二显示状态切换至第一显示状态。
其中,第五预设控件所指示的第五控制模式被设置为禁止与第一控制模式同时处于不同的状态,即第五预设控件被设置为禁止与第一预设控件同时处于不同的显示状态,在此不做赘述。
进一步地,第五预设控件在检测到第一触发操作时以第二显示状态进行显示。
由此,可以智能地根据用户的操作更改不能与用户触发的第一预设控件处于不同显示状态的第五预设控件的显示状态,进一步提高对虚拟对象的控制灵活性,提升用户的体验。
在本公开再一些实施例中,在S220之后,该虚拟对象显示方法还可以包括:
当检测到对预设控件中的第一预设控件的第二触发操作时,将第一预设控件由第一显示状态切换至第二显示状态。
可选地,第二触发操作可以用于使第一预设控件由第一显示状态切换至第二显示状态进行显示,即第二触发操作可以为用户对以第一显示状态进行显示的预设控件的触发操作。
电子设备可以持续检测用户对预设控件的触发操作,并且在检测到用户对以第一显示状态进行显示的第一预设控件的第二触发操作后,使第一预设控件所指示的第一控制模式处于关闭状态,同时将第一预设控件由第一显示状态切换为第二显示状态进行显示。
需要说明的是,当电子设备检测到第二触发操作之后,也可以同时改变与第一预设控件相关联的预设控件的显示状态,以及与第一控制模式相关联的控制模式的状态,与上述检测到第一触发操作时的方法相似,在此不做赘述。
由此,可以在用户关闭第一控制模式时,智能地更改与其相关联的控制模式的状态,进一步提高对虚拟对象的控制灵活性,提升用户的体验。
在本公开又一种实施方式中,不同的控制模式具有不同的控制信息接收方式。下面,将以不同的控制模式为示例,对本公开实施例中的控制信息接收方式进行进一步说明。
在本公开一些实施例中,第一控制模式可以包括3D表情模式。
相应地,S230中的接收的第一控制信息可以具体包括预先设置的表情,目标部位可以为头部部位,目标模型可以包括具有预先设置的表情的头部模型。
由此,在3D表情模式下,可以根据第一控制信息对应的预设置表情,使虚拟对象的表情始终保持为预先设置的表情。
在本公开另一些实施例中,第一控制模式可以包括装扮模式。
相应地,S230中的接收针对虚拟对象中的目标部位的第一控制信息可以具体包括:
接收对目标部位的形象更改操作,形象更改操作用于选择穿戴于虚拟对象的目标部位的目标装扮;
将形象更改操作选择的目标装扮作为第一控制信息。
其中,目标部位为目标装扮所要装扮的部位,目标模型包括目标装扮的目标装扮模型。
具体地,用户可以在装扮模式下对虚拟对象的目标部位进行形象更改操作,以将目标装扮穿戴于虚拟对象的目标部位。电子设备可以接收用户对目标部位的形象更改操作,并且在接收到形象更改操作之后,将形象更改操作选择的目标装扮作为第一控制信息,进而根据第一控制信息,将目标部位的部位模型调整为包括目标装扮的目标装扮模型,以将目标部位的部位模型替换显示为该目标装扮模型。
进一步地,目标装扮可以包括下列中的至少一种:面部装扮、头部装扮和服饰装扮。
面部装扮可以包括:五官装扮、面部轮廓装扮、面部装饰装扮中的至少一种。其中,五官装扮可以包括瞳孔、眉毛、眼睑、鼻子、嘴等的装扮,面部轮廓装扮可以包括脸型、耳型等的装扮,面部装饰装扮可以包括面部涂鸦、面部佩戴的配饰如眼镜、珍珠贴面等的装扮。
头部装扮可以包括:发型装扮、头饰装扮中的至少一种。其中,发型装扮可以包括头发长度、头发造型、头发颜色等的装扮。头饰装扮可以包括发卡、帽子等的装扮。
服饰装扮可以包括:衣物装扮、衣物配饰装扮、鞋靴装扮、配饰装扮中的至少一种。
在本公开实施例中,在装扮模式下,在接收对虚拟对象的形象更改操作之前,电子设备可以在虚拟对象交互页面的指定位置叠加显示装扮选择控件,装扮选择控件内可以显示有多个预设装扮的装扮图像,用户可以针对预设装扮中的目标装扮的装扮图像输入形象更改操作。
其中,指定位置可以为虚拟对象交互页面的任意位置,例如虚拟对象交互页面的底部或者右侧,即不会遮挡预设控件的位置。
在一些实施例中,形象更改操作可以为用户对预设装扮中的目标装扮的装扮图像的选择操作,例如点击操作、双击操作、长按操作、语音控制操作、表情控制操作等。
继续参考图4,当用户点击“装扮”开关304之后,电子设备可以使“装扮”开关304由关闭显示状态切换为开启显示状态进行显示,并且在虚拟对象交互页面301的底部叠加显示装扮选择控件308。装扮选择控件308包括多个装扮类别选项卡309和装扮展示界面。其中,装扮类别选项卡309内可以显示有每个装扮类别对应的类别图标。当用户点击任意的装扮类别选项卡309之后,该装扮类别选项卡309即被显示为选中状态,同时,装扮展示界面内可以显示该装扮类别选项卡309对应的装扮类别下的各个装扮的装扮图像310。用户可以点击任意装扮图像310,电子设备可以将该被点击的装扮图像310对应的目标装扮作为第一控制信息。
在另一些实施例中,形象更改操作可以为用户将预设装扮中的目标装扮的装扮图像向目标装扮所装扮的目标部位的拖动操作。
继续参考图4,用户可以将任意装扮图像310向对象模型302中的该装扮图像310所装扮的目标部位进行拖动,电子设备可以将该被拖动的装扮图像310对应的目标装扮作为第一控制信息。
在本公开实施例中,虚拟对象的对象模型可以为虚拟对象的全身身体模型和当前装扮模型融合得到的模型。具体地,虚拟对象的任意部位的部位模型可以为该部位的部位身体模型和该部位当前所穿着的装扮对应的当前装扮模型融合得到的模型。
在一些实施例中,电子设备可以在获取目标装扮后,在预设的基础装扮模型中,查询目标装扮对应的目标基础装扮模型,然后将目标基础装扮模型融合至目标部位的部位身体模型,得到目标装扮的目标装扮模型,并且将虚拟对象的目标部位的部位模型替换显示为目标装扮模型。
具体地,电子设备可以将目标基础装扮模型和目标部位的部位身体模型输入预设的融合模型,以得到目标装扮的目标装扮模型。
在另一些实施例中,电子设备可以在获取目标装扮后,将目标装扮发送至服务器,使服务器生成目标装扮的目标装扮模型。
其中,服务器可以为图1所示的服务器103。
需要说明的是,服务器生成目标装扮的目标装扮模型的方法与上述的电子设备生成目标装扮的目标装扮模型的方法相似,在此不做赘述。
在这些实施例中,可选地,在S220之后,该虚拟对象显示方法还可以包括:
接收针对装扮选择控件的装扮隐藏操作,装扮隐藏操作用于触发隐藏装扮选择控件;
响应于装扮隐藏操作,隐藏装扮选择控件;
在目标位置显示装扮显示控件,装扮显示控件用于触发显示装扮选择控件。
可选地,装扮隐藏操作可以为对装扮选择控件的操作,也可以不是对装扮选择控件的操作。
在一些实施例中,装扮隐藏操作可以为对装扮选择控件以外的显示区域的操作,如对装扮选择控件以外的空白显示区域的点击操作、双攻击操作、长按操作等。
在另一些实施例中,装扮隐藏操作也可以为对装扮选择控件的操作,如对装扮选择控件内的空白显示区域的点击操作、双攻击操作、长按操作等。
可选地,目标位置可以为虚拟对象交互页面内的任意位置,在此不作限制。例如,目标位置可以为虚拟对象交互页面的底部或者右侧,即不会遮挡预设控件的位置。
进一步地,电子设备可以在目标位置叠加显示装扮显示控件。
可选地,装扮显示控件可以为“圆形”按钮,也可以为条形边框,只要是能够用户触发显示装扮选择控件即可,在此不作限制。
用户可以对装扮显示控件输入第三触发操作,第三触发操作可以为对装扮显示控件的点击操作、双击操作或者长按操作。电子设备可以接收对装扮显示控件的第三触发操作,并且响应于第三触发操作,恢复显示装扮选择控件。
继续参考图4,用户可以在装扮模式下,点击装扮选择控件308以外的空白显示区域,以触发隐藏装扮选择控件308。
图6示出了本公开实施例提供的再一种虚拟对象交互页面的示意图。如图6所示,当电子设备接收到用户对装扮选择控件308以外的空白显示区域的点击操作后,可以隐藏装扮选择控件308,并且在虚拟对象交互页面301的底部,显示条形边框314。当用户想要打开装扮选择控件308时,可以点击条形边框314,使装扮选择控件308恢复显示。
由此,用户可以在装扮模式下,根据自己的需求灵活地对虚拟对象进行捏脸和换装,使得虚拟对象所具有的虚拟形象满足用户的个性化需求。
在本公开又一些实施例中,第一控制模式可以包括动作跟随模式。
相应地,S230中的接收针对虚拟对象中的目标部位的第一控制信息可以具体包括:
接收包括实时姿态图像;
将实时姿态图像中的目标部位的目标姿态作为第一控制信息。
其中,目标模型包括目标姿态的目标姿态模型。
具体地,用户可以在动作跟随模式下改变自己目标部位的姿态,电子设备可以实时地接收摄像头采集的包括用户的目标部位的实时姿态图像,并且在接收到实时姿态图像之后,将实时姿态图像中的目标部位的目标姿态作为第一控制信息,进而根据第一控制信息,将目标部位的部位模型调整为包括目标姿态的目标姿态模型,以将目标部位的部位模型替换显示为该目标姿态模型。
具体地,电子设备可以提取实时姿态图像中的目标部位中的各个关键点的姿态特征,并且将各个关键点的姿态特征作为目标部位的目标姿态。
在一些实施例中,电子设备在获取到实时姿态图像中的目标部位的目标姿态之后,可以通过动作迁移技术,将实时姿态图像中的目标姿态迁移至虚拟对象的目标部位的部位模型中,得到包括目标姿态的目标姿态模型。
在另一些实施例中,电子设备在获取到实时姿态图像中的目标部位的目标姿态之后,可以将目标姿态发送至服务器,使服务器通过动作迁移技术,将实时姿态图像中的目标姿态迁移至虚拟对象的目标部位的部位模型中,得到包括目标姿态的目标姿态模型。
可选地,实时姿态图像可以为用户的头部图像、上半身图像、下半身图像和全身图像,在此不作限制。
进一步地,目标部位可以包括下列中的任意一项:头部部位、局部肢体部位和全身肢体部位。
头部部位可以为面部和整头中的任意一种。其中,在头部部位包括面部的情况下,目标姿态可以为面部姿态,例如表情。在头部部位包括整头的情况下,目标姿态可以为整头姿态,例如歪头、转脸等。
局部肢体部位可以为手、手臂、脚、腿、头肩部、上半身、下半身中的任意一种。
全身肢体部位可以为包括头部的对象全身或者不包括头部的对象肢体。
在本公开实施例中,可选地,该虚拟对象显示方法还可以包括:
在接收到实时姿态图像之后,在目标显示区域内,叠加显示实时姿态图像。
其中,目标显示区域可以为预先设置的显示区域,在此不做限制。
可选地,为了便于用户操作,目标显示区域可以为虚拟对象交互页面的左上角、右上角或者右下角等不会遮挡预设控件的显示区域。
继续参考图3,如果用户想要开启半身跟随模式,可以点击“半身跟随”开关305。图7示出了本公开实施例提供的再一种虚拟对象交互页面的示意图。如图7所示,当用户点击“半身跟随”开关305之后,电子设备可以使“半身跟随”开关305由关闭显示状态切换为开启显示状态进行显示,并且在虚拟对象交互页面301的右上角叠加显示播放窗口315,该播放窗口315内可以显示用户的实时姿态图像。虚拟对象的对象模型302的上半身姿态与实时姿态图像内的用户的上半身姿态保持一致。此外,由于“3D表情”开关303处于开启状态,因此,虚拟对象的表情始终保持为预先设置的表情。
可选地,图7所示的虚拟对象交互页面301的右上角还可以显示有摄像头转换按钮316。用户也可以点击摄像头转换按钮316进行前置摄像头和后置摄像头的切换,以改变采集实时姿态图像的摄像头,使得用户可以具有更大的活动空间,进一步提升用户的体验。
由此,在动作跟随模式下,可以实现虚拟对象的动作跟随,并且使用户可以通过实时姿态图像对比虚拟对象与用户的姿态是否一致。
为了进一步提升用户的体验,可选地,在S240之前,该虚拟对象显示方法还可以包括:
提取实时姿态图像中的人体生物特征;
将人体生物特征与目标生物特征进行比较,目标生物特征包括虚拟对象的生物特征;
相应地,S240可以具体包括:
在人体生物特征与目标生物特征相同的情况下,将目标部位的部位模型替换显示为目标模型。
具体地,电子设备可以每隔预设时间间隔将采集到的实时姿态图像输入预设的生物特征提取模型,以提取实时姿态图像中的人体生物特征。然后,电子设备可以将人体生物特征与用于生成虚拟对象的目标生物特征进行比较,如果人体生物特征与目标生物特征相同,则将目标部位的部位模型替换显示为目标模型,否则,不将目标部位的部位模型替换显示为目标模型。
其中,人体生物特征可以包括用户的人脸特征、头肩部特征和人体形态特征中的至少一种,在此不作限制。
可选地,目标生物特征可以为与人体生物特征种类相同的生物特征,以提高比较结果的准确性。
可选地,将人体生物特征与用于生成虚拟对象的目标生物特征进行比较的具体方法可以为判断人体生物特征与目标生物特征之间的相似度,如果相似度大于或等于预设的相似度阈值,则确定人体生物特征与目标生物特征相同,如果相似度小于预设的相似度阈值,则确定人体生物特征与目标生物特征不相同。
由此,电子设备可以对正在操作电子设备的用户进行检测,判断其是否为生成虚拟对象的用户,并且仅允许虚拟对象跟随生成其的用户的动作,以提高电子设备的安全性。
在本公开再一些实施例中,第一控制模式可以包括播报模式。
相应地,S230中的接收针对虚拟对象的第一控制信息可以具体包括:
接收播报文本输入操作,播报文本输入操作用于输入目标文本;
将目标文本作为第一控制信息。
其中,目标部位包括头部部位,目标模型包括播报目标文本的头部部位的模型。
在本公开实施例中,在播报模式下,在接收用户的播报文本输入操作之前,电子设备可以在虚拟对象交互页面的指定位置叠加显示文本输入控件,用户可以在文本输入控件内进行播报文本输入操作,以输入待播报的目标文本。电子设备在接收到播报文本输入操作之后,可以将播报文本输入操作所输入的目标文本作为第一控制信息,进而根据第一控制信息,将虚拟对象的头部部位的部位模型调整为包括播报目标文本的头部部位的模型,以将虚拟对象的头部部位的部位模型替换显示为该目标模型。
其中,指定位置可以为虚拟对象交互页面的任意位置,例如虚拟对象交互页面的底部或者右侧,即不会遮挡预设控件的位置。
在一些实施例中,电子设备可以基于文本语音转换技术,对目标文本进行语音转换,得到目标文本对应的目标音频。然后,再利用目标音频生成实时面部表情动画,并利用姿态迁移技术,将实时面部表情动画中的面部姿态迁移至虚拟对象的头部部位的部位模型中,得到包括播报目标文本的头部部位的目标模型。
在另一些实施例中,电子设备可以将目标文本发送至服务器,使服务器基于目标文本生成目标音频和目标模型。
需要说明的是,服务器生成目标音频和目标模型的方法与上述的电子设备生成目标音频和目标模型的方法相似,在此不做赘述。
在本公开实施例中,在显示包括播报目标文本的头部部位的目标模型的同时,还可以播放目标文本对应的目标音频,以实现虚拟对象的语音播报。
在本公开一些实施例中,播报文本输入操作可以包括用户在文本输入控件内的文字输入操作。在本公开另一些实施例中,在文本输入控件具有文本提交控件的情况下,播报文本输入操作还可以包括用户在文本输入控件内的文字输入操作和对文本提交控件的触发操作,如点击操作、双击操作和长按操作等。在本公开又一些实施例中,在文本输入控件具有语音输入功能的情况下,播报文本输入操作还可以包括录入包含有目标文本的音频的音频输入操作,例如,音频输入操作可以为用户在电子设备录制音频的过程中对目标文本进行朗读的操作。
继续参考图5,在虚拟对象交互页面301的底部叠加显示有文本输入控件311和文本提交控件,其中,文本提交控件可以为“确定”按钮313。用户可以在该文本输入控件311内输入待播报的目标文本,并且在完成文本输入后,点击“确定”按钮313,使电子设备可以接收目标文本,并使虚拟对象对目标文本进行播报。
可选地,为了使用户可以对输入的文本进行检查,图5中所示的文本输入控件311还可以包括文本预览框312,文本预览框312可以显示用户已输入的文本。
由此,在播报模式下,可以利用虚拟对象实现对用户输入的文本的播报,进一步提升用户的体验。
为了进一步提升用户的体验,可选地,在将目标文本作为第一控制信息之后、在S240之前,该虚拟对象显示方法还可以包括:
获取虚拟对象的装扮属性;
在多个预设的文本语音转换模型中,选择装扮属性对应的目标文本语音转换模型;
将目标文本输入目标文本语音转换模型进行语音转换,得到目标音频;
根据目标音频,生成目标模型。
在本公开实施例中,每个装扮可以预先设置有针对不同装扮风格的属性评分。其中,装扮风格可以包括知性、可爱、帅气、沉稳、阳光等。以装扮为一条连衣裙为例,该连衣裙针对每种装扮风格都有一个预先设置的属性评分。
进一步地,每个装扮风格可以预先设置有其对应的装扮属性。其中,装扮属性可以包括对象类型、对象风格等中的任一种。以虚拟对象为虚拟人物为例,对象类型可以为人物类型;对象风格还可以为人物性格,例如开朗、活泼、温柔、沉稳、阳光等性格。
在电子设备生成目标音频和对应的目标模型的过程中,电子设备可以首先获取对象模型所融合的各个装扮模型所属装扮针对不同装扮风格的属性评分,然后针对每种装扮风格,将各个装扮模型对应的属性评分相加,得到该装扮风格的评分总和,然后选取评分总和最高的装扮风格对应的装扮属性,作为该虚拟对象的装扮属性。
在本公开实施例中,每个预设的文本语音转换模型对应一种装扮属性,因此电子设备可以在多个预设的文本语音转换模型中,选择虚拟对象的装扮属性对应的目标文本语音转换模型,并且将目标文本输入目标文本语音转换模型进行语音转换,得到目标音频,以生成具有与虚拟对象的装扮特征一致的声音特征的音频。
进一步地,电子设备可以根据具有与虚拟对象的装扮特征一致的声音特征的声音特征的目标音频,生成目标模型,使得目标模型中的虚拟对象的面部表情和嘴型,也与虚拟对象的装扮特征一致,进一步提升用户的体验。
在本公开再一种实施方式中,为了进一步提升用户的体验,在S210之前,还需根据用户上传的采集图像生成具有用户的生物特征的虚拟对象的对象模型。
具体地,在S210之前,该虚拟对象显示方法还可以包括:
获取采集图像;
提取采集图像中的生物特征;
根据提取的生物特征,生成具有该生物特征的虚拟对象的对象模型。
在本公开实施例中,获取采集图像可以具体包括下列中的任一项:
获取用户通过摄像头拍摄的采集图像;
获取用户在预设图像中选择的采集图像。
可选地,用户上传的采集图像可以为用户的人脸图像、半身图像和全身图像,在此不作限制。
下面,将对获取采集图像的方式进行详细说明。
图8示出了本公开实施例提供的一种图像采集页面的示意图。如图8所示,电子设备显示有第一图像采集页面801,第一图像采集页面801可以为拍摄页面。第一图像采集页面801内显示有拍摄预览框802、拍摄按钮803和摄像头转换按钮804。用户可以通过拍摄预览框802预览当前的拍摄画面,并且点击拍摄按钮803进行拍摄。用户也可以点击摄像头转换按钮804进行前置摄像头和后置摄像头的切换。
图9示出了本公开实施例提供的另一种图像采集页面的示意图。如图9所示,当用户点击拍照按钮803进行拍摄之后,拍摄预览框802可以显示拍摄得到的图像,电子设备可以对图像进行人脸检测,若未检测到人脸,则可以显示第一提示信息806,例如第一提示信息806可以为文本“未检测到人脸”。第一提示信息806可以提示用户当前图像无法用于生成虚拟对象。
图10示出了本公开实施例提供的又一种图像采集页面的示意图。如图10所示,当用户点击拍摄按钮803进行拍照之后,拍摄预览框802可以显示拍摄得到的图像,电子设备可以对图像进行人脸检测,若检测到人脸,则可以显示第一确认控件807,例如第一确认控件807可以为“确定”按钮。用户可以点击第一确认控件807,以使电子设备根据当前图像生成虚拟对象。
继续参考图8-10,第一图像采集页面801内还显示有相册标识805。用户可以点击相册标识805,使电子设备显示相册内的图像,进而使用户可以在显示的图像中选择用于生成虚拟对象的图像。
图11示出了本公开实施例提供的再一种图像采集页面的示意图。如图11所示,当用户选择了用于生成虚拟对象的图像之后,电子设备可以显示第二图像采集页面1101,第二图像采集页面1101可以为图像预览界面。第二图像采集页面1101内可以显示有用户选择的图像1102,电子设备可以对图像1102进行人脸检测,若未检测到人脸,则可以显示第二提示信息1103,例如第二提示信息1103可以为文本“未检测到人脸”。第二提示信息1103可以提示用户当前图像无法用于生成虚拟对象。同时,第二图像采集页面1101可以显示有取消上传控件1104,例如取消上传控件1104可以为“×”按钮。用户可以点击取消上传控件1104,以退出第二图像采集页面1101,并返回相册。
图12示出了本公开实施例提供的再一种图像采集页面的示意图。如图12所示,当用户选择了用于生成虚拟对象的图像之后,电子设备可以显示第二图像采集页面1101,第二图像采集页面1101可以为图像预览界面。第二图像采集页面1101内可以显示有用户选择的图像1102,电子设备可以对图像1102进行人脸检测,若检测到人脸,则可以显示第二确认控件1105,例如第二确认控件1105可以为“√”按钮。用户可以点击第二确认控件1105,以使电子设备根据图像1102生成虚拟对象。同时,第二图像采集页面1101可以显示有取消选择控件1104,例如取消选择控件1104可以为“×”按钮。用户可以点击取消选择控件1104,以退出第二图像采集页面1101,并返回相册。
在本公开一些实施例中,电子设备提取的生物特征可以包括用户的人脸特征、头肩部特征和人体形态特征中的至少一种,在此不作限制。
例如,若采集图像为人脸图像,则提取的生物特征可以包括用户的人脸特征。再例如,若采集图像为全身图像,则提取的生物特征可以包括用户的人脸特征和人体形态特征。
在一些实施例中,电子设备在获取采集图像之后,可以先对采集图像进行人脸检测,在检测到人脸后,将采集图像输入预设的生物特征提取模型,以提取采集图像中的生物特征,然后将提取的生物特征输入预设的对象生成模型,以得到具有该生物特征的虚拟对象的全身身体模型,然后将预设的服饰模型融合至全身身体模型,得到虚拟对象的对象模型。
在另一些实施例中,电子设备可以在获取采集图像之后,可以先对采集图像进行人脸检测,在检测到人脸后,将采集图像输入预设的生物特征提取模型,以提取采集图像中的生物特征,然后将提取的生物特征发送至服务器,使服务器根据提取的生物特征,生成具有该生物特征的虚拟对象的对象模型。其中,服务器生成对象模型的方法与上述的电子设备生成对象模型的方法相似,在此不做赘述。
由此,可以生成具有用户的生物特征的虚拟对象的全身对象模型,提升用户的体验。
在本公开另一些实施例中,在获取采集图像之后,该虚拟对象显示方法还可以包括:
提取采集图像中的装扮特征;
相应地,根据提取的生物特征,生成具有该生物特征的虚拟对象的对象模型可以具体包括:
根据提取的生物特征和装扮特征,生成具有该生物特征的虚拟对象的对象模型。
可选地,提取的装扮特征可以包括用户的面部装饰特征、头饰特征、衣物特征和衣物配饰特征中的至少一种。
例如,若采集图像为人脸图像,则提取的生物特征也可以包括用户的人脸特征、提取的装扮特征可以包括头饰特征。再例如,若采集图像为全身图像,则提取的生物特征可以包括用户的人脸特征和人体形态特征、提取的装扮特征可以包括衣物特征。
在一些实施例中,电子设备在获取采集图像之后,先对采集图像进行人脸检测,在检测到人脸后,可以将采集图像输入预设的生物特征提取模型,以提取采集图像中的生物特征,并且将采集图像输入预设的装扮特征提取模型,以提取采集图像中的装扮特征,然后将提取的生物特征输入预设的虚拟对象生成模型,以得到具有该生物特征的虚拟对象的全身身体模型,接着,电子设备可以根据预设的装扮特征与基础装扮模型的对应关系,查询到每个提取的装扮特征对应的基础装扮模型,并且将查询到的基础装扮模型融合至装扮特征对应的装扮所属部位的部位身体模型,得到具有该装扮特征的虚拟对象的对象模型。
在另一些实施例中,电子设备可以在获取采集图像之后,先对采集图像进行人脸检测,在检测到人脸后,可以将采集图像输入预设的生物特征提取模型,以提取采集图像中的生物特征,并且将采集图像输入预设的装扮特征提取模型,以提取采集图像中的装扮特征,然后将提取的生物特征和装扮特征发送至服务器,使服务器根据提取的生物特征和装扮特征,生成具有该生物特征和装扮特征的虚拟对象的对象模型。其中,服务器生成对象模型的方法与上述的电子设备生成对象模型的方法相似,在此不做赘述。
由此,可以生成具有用户的生物特征和装扮特征的虚拟对象的全身对象模型,提升用户的体验。
在本公开再一种实施方式中,为了提高电子设备的安全性,在S220之前,该虚拟对象显示方法还可以包括:
采集用户图像;
提取用户图像中的用户生物特征;
将用户生物特征与目标生物特征进行比较,目标生物特征包括虚拟对象的生物特征;
在用户生物特征与目标生物特征相同的情况下,检测第一触发操作。
具体地,电子设备可以每隔预设时间间隔通过前置摄像头采集一次正在操作电子设备的用户的用户图像,并且将采集到的用户图像输入预设的生物特征提取模型,以提取用户图像中的用户生物特征。然后,电子设备可以将用户生物特征与用于生成虚拟对象的目标生物特征进行比较,如果用户生物特征与目标生物特征相同,则检测第一触发操作,否则,不检测第一触发操作。
其中,用户生物特征可以包括用户的人脸特征、头肩部特征和人体形态特征中的至少一种,在此不作限制。
可选地,目标生物特征可以为与用户生物特征种类相同的生物特征,以提高比较结果的准确性。
可选地,将用户生物特征与用于生成虚拟对象的目标生物特征进行比较的具体方法可以为判断用户生物特征与目标生物特征之间的相似度,如果相似度大于或等于预设的相似度阈值,则确定用户生物特征与目标生物特征相同,如果相似度小于预设的相似度阈值,则确定用户生物特征与目标生物特征不相同。
由此,电子设备可以对正在操作电子设备的用户进行检测,判断其是否为生成虚拟对象的用户,并且仅允许生成虚拟对象的用户对控制模式进行更改,以提高电子设备的安全性。
在本公开另一些实施例中,预设控件还可以具有第三显示状态。其中,第三显示状态可以用于指示预设控件处于不可操作状态。例如,第三显示状态可以为置灰显示状态,使得预设控件不可触发。
在这些实施例中,在将用户生物特征与目标生物特征进行比较之后,该虚拟对象显示方法还可以包括:
在用户生物特征与目标生物特征不相同的情况下,将至少一个预设控件显示为第三显示状态。
具体地,电子设备如果确定用户生物特征与目标生物特征不相同,则可以将至少一个预设控件显示为第三显示状态,使得至少一个预设控件均不可触发。
图13示出了本公开实施例提供的再一种虚拟对象交互页面的示意图。如图13所示,电子设备显示有虚拟对象交互页面301,虚拟对象交互页面301内显示有虚拟对象的对象模型302和5个开关控件。5个开关控件可以包括“3D表情”开关303、“装扮”开关304、“半身跟随”开关305、“全身跟随”开关306和“语音播报”开关307。当电子设备检测到正在操作电子设备的用户不是生成虚拟对象的用户的情况下,可以以置灰显示状态对5个开关控件进行显示,使得“3D表情”开关303、“装扮”开关304、“半身跟随”开关305、“全身跟随”开关306和“语音播报”开关307均置灰显示,并且不可触发。
在本公开实施例中,预设控件可以同时处于第一显示状态和第三显示状态,或者同时处于第二显示状态和第三显示状态。
继续参考图13,“3D表情”开关303可以同时处于开启显示状态和置灰显示状态,“装扮”开关304、“半身跟随”开关305、“全身跟随”开关306和“语音播报”开关307可以同时处于关闭显示状态和置灰显示状态。即当电子设备对开关控件进行置灰显示时,不会更改开关控件的开启或关闭的状态。
由此,可以进一步避免电子设备被生成虚拟对象以外的用户操控,进一步提高电子设备的安全性。
图14示出了本公开实施例提供的一种虚拟对象显示装置的结构示意图。
在本公开实施例中,图14所示的虚拟对象显示装置1400可以设置于电子设备内。在一些实施例中,该电子设备可以为图1中所示的客户端中的第一电子设备101。在另一些实施例中,该电子设备也可以为图1中所示的第二电子设备102,在此不做限制。其中,电子设备可以是移动电话、平板电脑、台式计算机、笔记本电脑、车载终端、可穿戴设备、一体机、智能家居设备等具有通信功能的设备,也可以是虚拟机或者模拟器模拟的设备。
如图14所示,该虚拟对象显示装置1400可以包括第一显示单元1410、第二显示单元1420、第一接收单元1430和第三显示单元1440。
该第一显示单元1410可以配置为显示虚拟对象的对象模型和至少一个预设控件,对象模型包括虚拟对象的各个部位的部位模型,每个预设控件用于指示一种控制模式。
该第二显示单元1420可以配置为当检测到对预设控件中的第一预设控件的第一触发操作时,将第一预设控件显示为第一显示状态,第一显示状态用于指示对应的预设控件所指示的控制模式处于开启状态。
该第一接收单元1430可以配置为在第一预设控件所指示的第一控制模式处于开启状态的情况下,接收针对虚拟对象中的目标部位的第一控制信息。
该第三显示单元1440可以配置为将目标部位的部位模型替换显示为第一控制信息对应的目标模型。
在本公开实施例中,能够显示至少一个预设控件,使用户可以在至少一个预设控件所指示的控制模式中选择其需要的控制模式,在检测到用户对所选择的控制模式对应的第一预设控件的第一触发操作时,能够将第一预设控件显示为第一显示状态,并且使第一预设控件所指示的第一控制模式处于开启状态,进而能够在第一控制模式处于开启状态的情况下,接收针对虚拟对象中的目标部位的第一控制信息,并将目标部位的部位模型替换显示为第一控制信息对应的目标模型,使得虚拟对象的对象模型能够根据第一控制信息进行调整,进而使用户可以根据自己的需求灵活地控制虚拟对象,提升了用户的体验。
在本公开一些实施例中,该虚拟对象显示装置1400还可以包括第四显示单元,该第四显示单元可以配置为将预设控件中的第二预设控件由第一显示状态切换至第二显示状态,第二显示状态用于指示对应的预设控件所指示的控制模式处于关闭状态,第二预设控件所指示的第二控制模式被设置为禁止与第一控制模式同时处于开启状态。
在本公开一些实施例中,该虚拟对象显示装置1400还可以包括第五显示单元,该第五显示单元可以配置为将预设控件中的第三预设控件保持为第一显示状态,第三预设控件所指示的第三控制模式被设置为允许与第一控制模式同时处于开启状态。
在本公开一些实施例中,第一控制模式可以包括装扮模式。
相应地,该第一接收单元1430可以包括第一接收子单元和第一处理子单元。
该第一接收子单元可以配置为接收对目标部位的形象更改操作,形象更改操作用于选择穿戴于目标部位的目标装扮。
该第一处理子单元可以配置为将形象更改操作选择的目标装扮作为第一控制信息。
进一步地,目标模型可以包括目标装扮的目标装扮模型。
可选地,目标装扮可以包括下列中的至少一种:
面部装扮、头部装扮和服饰装扮。
在本公开另一些实施例中,第一控制模式可以包括动作跟随模式。
相应地,该第一接收单元1430可以包括第二接收子单元和第二处理子单元。
该第二接收子单元可以配置为接收实时姿态图像。
该第二处理子单元可以配置为将实时姿态图像中的目标部位的目标姿态作为第一控制信息。
进一步地,目标模型可以包括目标姿态的目标姿态模型。
可选地,该虚拟对象显示装置1400还可以包括第六显示单元,该第六显示单元可以配置为在目标显示区域内,叠加显示实时姿态图像。
可选地,目标部位可以包括下列中的任意一项:
头部部位、局部肢体部位和全身肢体部位。
可选地,该虚拟对象显示装置1400还可以包括第一提取单元和第一处理单元。
该第一提取单元可以配置为提取实时姿态图像中的人体生物特征。
该第一处理单元可以配置为将人体生物特征与目标生物特征进行比较,目标生物特征包括虚拟对象的生物特征。
相应地,该第三显示单元1440可以进一步配置为在人体生物特征与目标生物特征相同的情况下,将目标部位的部位模型替换显示为目标模型。
在本公开又一些实施例中,第一控制模式可以包括播报模式。
相应地,该第一接收单元1430可以包括第三接收子单元和第三处理子单元。
该第三接收子单元可以配置为接收播报文本输入操作,播报文本输入操作用于输入目标文本。
该第三处理子单元可以配置为将目标文本作为第一控制信息。
进一步地,目标部位包括头部部位,目标模型包括播报目标文本的头部部位的模型。
可选地,该虚拟对象显示装置1400还可以包括属性获取单元、模型选择单元、语音转化单元和模型生成单元。
该属性获取单元可以配置为获取虚拟对象的装扮属性。
该模型选择单元可以配置为在多个预设的文本语音转换模型中,选择装扮属性对应的目标文本语音转换模型。
该语音转化单元可以配置为将目标文本输入目标文本语音转换模型进行语音转换,得到目标音频。
该模型生成单元可以配置为根据目标音频,生成目标模型。
在本公开一些实施例中,该虚拟对象显示装置1400还可以包括图像采集单元、第二提取单元、第二处理单元和操作检测单元。
该图像采集单元可以配置为采集用户图像。
该第二提取单元可以配置为提取用户图像中的用户生物特征。
该第二提取单元可以配置为将用户生物特征与目标生物特征进行比较,目标生物特征包括虚拟对象的生物特征。
该操作检测单元可以配置为在用户生物特征与目标生物特征相同的情况下,检测第一触发操作。
在本公开一些实施例中,该虚拟对象显示装置1400还可以包括第七显示单元,该第七显示单元可以配置为在用户生物特征与目标生物特征不相同的情况下,将至少一个预设控件显示为第三显示状态,第三显示状态用于指示预设控件处于不可操作状态。
需要说明的是,图14所示的虚拟对象显示装置1400可以执行图2至图13所示的方法实施例中的各个步骤,并且实现图2至图13所示的方法实施例中的各个过程和效果,在此不做赘述。
本公开实施例还提供了一种电子设备,该电子设备可以包括处理器和存储器,存储器可以用于存储可执行指令。其中,处理器可以用于从存储器中读取可执行指令,并执行可执行指令以实现上述实施例中的虚拟对象显示方法。
图15示出了本公开实施例提供的一种电子设备的结构示意图。下面具体参考图15,其示出了适于用来实现本公开实施例中的电子设备1500的结构示意图。
本公开实施例中的电子设备1500可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)、可穿戴设备、等等的移动终端以及诸如数字TV、台式计算机、智能家居设备等等的固定终端。
在一些实施例中,该电子设备1500可以为图1中所示的客户端中的第一电子设备101。在另一些实施例中,该电子设备1500也可以为图1中所示的第二电子设备102,在此不做限制。
需要说明的是,图15示出的电子设备1500仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图15所示,该电子设备1500可以包括处理装置(例如中央处理器、图形处理器等)1501,其可以根据存储在只读存储器(ROM)1502中的程序或者从存储装置1508加载到随机访问存储器(RAM)1503中的程序而执行各种适当的动作和处理。在RAM 1503中,还存储有电子设备1500操作所需的各种程序和数据。处理装置1501、ROM1502以及RAM 1503通过总线1504彼此相连。输入/输出(I/O)接口1505也连接至总线1504。
通常,以下装置可以连接至I/O接口1505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置1506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置1507;包括例如磁带、硬盘等的存储装置1508;以及通信装置1509。通信装置1509可以允许电子设备1500与其他设备进行无线或有线通信以交换数据。虽然图15示出了具有各种装置的电子设备1500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
本公开实施例还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,当计算机程序被处理器执行时,使得处理器实现用上述实施例中的虚拟对象显示方法。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置1509从网络上被下载和安装,或者从存储装置1508被安装,或者从ROM 1502被安装。在该计算机程序被处理装置1501执行时,执行本公开实施例的虚拟对象显示方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备执行:
显示虚拟对象的对象模型和至少一个预设控件,对象模型包括虚拟对象的各个部位的部位模型,每个预设控件用于指示一种控制模式;当检测到对预设控件中的第一预设控件的第一触发操作时,将第一预设控件显示为第一显示状态,第一显示状态用于指示对应的预设控件所指示的控制模式处于开启状态;在第一预设控件所指示的第一控制模式处于开启状态的情况下,接收针对虚拟对象中的目标部位的第一控制信息;将目标部位的部位模型替换显示为第一控制信息对应的目标模型。
在本公开实施例中,可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (16)

1.一种虚拟对象显示方法,其特征在于,包括:
显示虚拟对象的对象模型和至少一个预设控件,所述对象模型包括所述虚拟对象的各个部位的部位模型,每个所述预设控件用于指示一种控制模式;
当检测到对所述预设控件中的第一预设控件的第一触发操作时,将所述第一预设控件显示为第一显示状态,所述第一显示状态用于指示对应的预设控件所指示的控制模式处于开启状态;
在所述第一预设控件所指示的第一控制模式处于开启状态的情况下,接收针对所述虚拟对象中的目标部位的第一控制信息;
将所述目标部位的部位模型替换显示为所述第一控制信息对应的目标模型。
2.根据权利要求1所述的方法,其特征在于,在所述检测到对所述预设控件中的第一预设控件的第一触发操作之后,所述方法还包括:
将所述预设控件中的第二预设控件由所述第一显示状态切换至第二显示状态,所述第二显示状态用于指示对应的预设控件所指示的控制模式处于关闭状态,所述第二预设控件所指示的第二控制模式被设置为禁止与所述第一控制模式同时处于开启状态。
3.根据权利要求1所述的方法,其特征在于,在所述检测到对所述预设控件中的第一预设控件的第一触发操作之后,所述方法还包括:
将所述预设控件中的第三预设控件保持为所述第一显示状态,所述第三预设控件所指示的第三控制模式被设置为允许与所述第一控制模式同时处于开启状态。
4.根据权利要求1所述的方法,其特征在于,所述第一控制模式包括装扮模式;
其中,所述接收针对所述虚拟对象中的目标部位的第一控制信息,包括:
接收对所述目标部位的形象更改操作,所述形象更改操作用于选择穿戴于所述目标部位的目标装扮;
将所述形象更改操作选择的所述目标装扮作为所述第一控制信息;
其中,所述目标模型包括所述目标装扮的目标装扮模型。
5.根据权利要求4所述的方法,其特征在于,所述目标装扮包括下列中的至少一种:
面部装扮、头部装扮和服饰装扮。
6.根据权利要求1所述的方法,其特征在于,所述第一控制模式包括动作跟随模式;
其中,所述接收针对所述虚拟对象中的目标部位的第一控制信息,包括:
接收实时姿态图像;
将所述实时姿态图像中的所述目标部位的目标姿态作为所述第一控制信息;
其中,所述目标模型包括所述目标姿态的目标姿态模型。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
在目标显示区域内,叠加显示所述实时姿态图像。
8.根据权利要求6所述的方法,其特征在于,所述目标部位包括下列中的任意一项:
头部部位、局部肢体部位和全身肢体部位。
9.根据权利要求6所述的方法,其特征在于,在将所述目标部位的部位模型替换显示为所述第一控制信息对应的目标模型之前,所述方法还包括:
提取所述实时姿态图像中的人体生物特征;
将所述人体生物特征与目标生物特征进行比较,所述目标生物特征包括所述虚拟对象的生物特征;
其中,所述将所述目标部位的部位模型替换显示为所述第一控制信息对应的目标模型,包括:
在所述人体生物特征与所述目标生物特征相同的情况下,将所述目标部位的部位模型替换显示为所述目标模型。
10.根据权利要求1所述的方法,其特征在于,所述第一控制模式包括播报模式;
其中,所述接收针对所述虚拟对象中的目标部位的第一控制信息,包括:
接收播报文本输入操作,所述播报文本输入操作用于输入目标文本;
将所述目标文本作为所述第一控制信息;
其中,所述目标部位包括头部部位,所述目标模型包括播报所述目标文本的所述头部部位的模型。
11.根据权利要求10所述的方法,其特征在于,在所述将所述目标文本作为所述第一控制信息之后、所述将所述目标部位的部位模型替换显示为所述第一控制信息对应的目标模型之前,所述方法还包括:
获取所述虚拟对象的装扮属性;
在多个预设的文本语音转换模型中,选择所述装扮属性对应的目标文本语音转换模型;
将所述目标文本输入所述目标文本语音转换模型进行语音转换,得到目标音频;
根据所述目标音频,生成所述目标模型。
12.根据权利要求1所述的方法,其特征在于,在所述检测到对所述预设控件中的第一预设控件的第一触发操作之前,所述方法还包括:
采集用户图像;
提取所述用户图像中的用户生物特征;
将所述用户生物特征与目标生物特征进行比较,所述目标生物特征包括所述虚拟对象的生物特征;
在所述用户生物特征与所述目标生物特征相同的情况下,检测所述第一触发操作。
13.根据权利要求12所述的方法,其特征在于,在所述将所述用户生物特征与目标生物特征进行比较之后,所述方法还包括:
在所述用户生物特征与所述目标生物特征不相同的情况下,将所述至少一个预设控件显示为第三显示状态,所述第三显示状态用于指示所述预设控件处于不可操作状态。
14.一种虚拟对象显示装置,其特征在于,包括:
第一显示单元,配置为显示虚拟对象的对象模型和至少一个预设控件,所述对象模型包括所述虚拟对象的各个部位的部位模型,每个所述预设控件用于指示一种控制模式;
第二显示单元,配置为当检测到对所述预设控件中的第一预设控件的第一触发操作时,将所述第一预设控件显示为第一显示状态,所述第一显示状态用于指示对应的预设控件所指示的控制模式处于开启状态;
第一接收单元,配置为在所述第一预设控件所指示的第一控制模式处于开启状态的情况下,接收针对所述虚拟对象中的目标部位的第一控制信息;
第三显示单元,配置为将所述目标部位的部位模型替换显示为所述第一控制信息对应的目标模型。
15.一种电子设备,其特征在于,包括:
处理器;
存储器,用于存储可执行指令;
其中,所述处理器用于从所述存储器中读取所述可执行指令,并执行所述可执行指令以实现上述权利要求1-13中任一项所述的虚拟对象显示方法。
16.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,当所述计算机程序被处理器执行时,使得处理器实现用上述权利要求1-13中任一项所述的虚拟对象显示方法。
CN202011313637.8A 2020-11-20 2020-11-20 虚拟对象显示方法及装置、电子设备、介质 Active CN112396679B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202011313637.8A CN112396679B (zh) 2020-11-20 2020-11-20 虚拟对象显示方法及装置、电子设备、介质
PCT/CN2021/131611 WO2022105846A1 (zh) 2020-11-20 2021-11-19 虚拟对象显示方法及装置、电子设备、介质
US18/253,111 US20230419582A1 (en) 2020-11-20 2021-11-19 Virtual object display method and apparatus, electronic device, and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011313637.8A CN112396679B (zh) 2020-11-20 2020-11-20 虚拟对象显示方法及装置、电子设备、介质

Publications (2)

Publication Number Publication Date
CN112396679A true CN112396679A (zh) 2021-02-23
CN112396679B CN112396679B (zh) 2022-09-13

Family

ID=74606732

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011313637.8A Active CN112396679B (zh) 2020-11-20 2020-11-20 虚拟对象显示方法及装置、电子设备、介质

Country Status (3)

Country Link
US (1) US20230419582A1 (zh)
CN (1) CN112396679B (zh)
WO (1) WO2022105846A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113096224A (zh) * 2021-04-01 2021-07-09 游艺星际(北京)科技有限公司 三维虚拟形象的生成方法及装置
CN113345054A (zh) * 2021-05-28 2021-09-03 上海哔哩哔哩科技有限公司 虚拟形象装扮方法、检测方法及装置
CN113422977A (zh) * 2021-07-07 2021-09-21 上海商汤智能科技有限公司 直播方法、装置、计算机设备以及存储介质
CN113507621A (zh) * 2021-07-07 2021-10-15 上海商汤智能科技有限公司 直播方法、装置、系统、计算机设备以及存储介质
CN114092675A (zh) * 2021-11-22 2022-02-25 北京百度网讯科技有限公司 图像显示方法、图像显示装置、电子设备及存储介质
WO2022105846A1 (zh) * 2020-11-20 2022-05-27 北京字节跳动网络技术有限公司 虚拟对象显示方法及装置、电子设备、介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115888075A (zh) * 2022-08-11 2023-04-04 网易(杭州)网络有限公司 游戏的交互控制方法、装置和电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017029679A1 (en) * 2015-08-14 2017-02-23 Vats Nitin Interactive 3d map with vibrant street view
CN106993195A (zh) * 2017-03-24 2017-07-28 广州创幻数码科技有限公司 虚拟人物角色直播方法及系统
CN108958475A (zh) * 2018-06-06 2018-12-07 阿里巴巴集团控股有限公司 虚拟对象控制方法、装置及设备
CN109271553A (zh) * 2018-08-31 2019-01-25 乐蜜有限公司 一种虚拟形象视频播放方法、装置、电子设备及存储介质
CN110650354A (zh) * 2019-10-12 2020-01-03 苏州大禹网络科技有限公司 虚拟动漫角色直播方法、系统、设备及存储介质
CN111083509A (zh) * 2019-12-16 2020-04-28 腾讯科技(深圳)有限公司 交互任务执行方法、装置、存储介质和计算机设备
CN111420399A (zh) * 2020-02-28 2020-07-17 苏州叠纸网络科技股份有限公司 一种虚拟人物的换装方法、装置、终端及存储介质
CN111862280A (zh) * 2020-08-26 2020-10-30 网易(杭州)网络有限公司 虚拟角色控制方法、系统、介质及电子设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110850983B (zh) * 2019-11-13 2020-11-24 腾讯科技(深圳)有限公司 视频直播中的虚拟对象控制方法、装置和存储介质
CN110991327A (zh) * 2019-11-29 2020-04-10 深圳市商汤科技有限公司 交互方法及装置、电子设备和存储介质
CN112396679B (zh) * 2020-11-20 2022-09-13 北京字节跳动网络技术有限公司 虚拟对象显示方法及装置、电子设备、介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017029679A1 (en) * 2015-08-14 2017-02-23 Vats Nitin Interactive 3d map with vibrant street view
CN106993195A (zh) * 2017-03-24 2017-07-28 广州创幻数码科技有限公司 虚拟人物角色直播方法及系统
CN108958475A (zh) * 2018-06-06 2018-12-07 阿里巴巴集团控股有限公司 虚拟对象控制方法、装置及设备
CN109271553A (zh) * 2018-08-31 2019-01-25 乐蜜有限公司 一种虚拟形象视频播放方法、装置、电子设备及存储介质
CN110650354A (zh) * 2019-10-12 2020-01-03 苏州大禹网络科技有限公司 虚拟动漫角色直播方法、系统、设备及存储介质
CN111083509A (zh) * 2019-12-16 2020-04-28 腾讯科技(深圳)有限公司 交互任务执行方法、装置、存储介质和计算机设备
CN111420399A (zh) * 2020-02-28 2020-07-17 苏州叠纸网络科技股份有限公司 一种虚拟人物的换装方法、装置、终端及存储介质
CN111862280A (zh) * 2020-08-26 2020-10-30 网易(杭州)网络有限公司 虚拟角色控制方法、系统、介质及电子设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
佚名: "如何使用iOS 12的控制中心进行快捷设置", 《HTTPS://WWW.I4.CN/NEWS_DETAIL_24174.HTML》 *
阮孟玥等: "换装类手游的受众心理研究——以《奇迹暖暖》为例", 《新闻研究导刊 》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022105846A1 (zh) * 2020-11-20 2022-05-27 北京字节跳动网络技术有限公司 虚拟对象显示方法及装置、电子设备、介质
CN113096224A (zh) * 2021-04-01 2021-07-09 游艺星际(北京)科技有限公司 三维虚拟形象的生成方法及装置
CN113345054A (zh) * 2021-05-28 2021-09-03 上海哔哩哔哩科技有限公司 虚拟形象装扮方法、检测方法及装置
CN113422977A (zh) * 2021-07-07 2021-09-21 上海商汤智能科技有限公司 直播方法、装置、计算机设备以及存储介质
CN113507621A (zh) * 2021-07-07 2021-10-15 上海商汤智能科技有限公司 直播方法、装置、系统、计算机设备以及存储介质
CN113422977B (zh) * 2021-07-07 2023-03-14 上海商汤智能科技有限公司 直播方法、装置、计算机设备以及存储介质
CN114092675A (zh) * 2021-11-22 2022-02-25 北京百度网讯科技有限公司 图像显示方法、图像显示装置、电子设备及存储介质

Also Published As

Publication number Publication date
WO2022105846A1 (zh) 2022-05-27
CN112396679B (zh) 2022-09-13
US20230419582A1 (en) 2023-12-28

Similar Documents

Publication Publication Date Title
CN112396679B (zh) 虚拟对象显示方法及装置、电子设备、介质
US10609334B2 (en) Group video communication method and network device
US11908243B2 (en) Menu hierarchy navigation on electronic mirroring devices
US11734959B2 (en) Activating hands-free mode on mirroring device
US11798201B2 (en) Mirroring device with whole-body outfits
CN105976417B (zh) 动画生成方法和装置
US10203838B2 (en) Avatar personalization in a virtual environment
JP2019145108A (ja) 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置
CN111726536A (zh) 视频生成方法、装置、存储介质及计算机设备
KR101306221B1 (ko) 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법
CN112199016B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN105320262A (zh) 操作虚拟世界里的电脑和手机的方法、装置以及使用其的眼镜
WO2022108805A1 (en) Personalized avatar real-time motion capture
US20220300081A1 (en) Mirroring device with pointing based navigation
CN111986076A (zh) 图像处理方法及装置、互动式展示装置和电子设备
CN113362263B (zh) 变换虚拟偶像的形象的方法、设备、介质及程序产品
CN110263617B (zh) 三维人脸模型获取方法及装置
WO2022252866A1 (zh) 一种互动处理方法、装置、终端及介质
CN111339938A (zh) 信息交互方法、装置、设备及存储介质
CN116744820A (zh) 数字彩妆师
CN109074679A (zh) 具有增强现实强化的基于场景的实时广告
US11430158B2 (en) Intelligent real-time multiple-user augmented reality content management and data analytics system
JP2000306092A (ja) デジタル画像処理により実現される鏡及びその処理をコンピュータに行わせるためのプログラムを内蔵した媒体
CN115826835A (zh) 一种数据处理方法、设备以及可读存储介质
CN112446821A (zh) 一种图像处理方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant