CN116246009A - 虚拟形象处理方法及装置 - Google Patents
虚拟形象处理方法及装置 Download PDFInfo
- Publication number
- CN116246009A CN116246009A CN202211085548.1A CN202211085548A CN116246009A CN 116246009 A CN116246009 A CN 116246009A CN 202211085548 A CN202211085548 A CN 202211085548A CN 116246009 A CN116246009 A CN 116246009A
- Authority
- CN
- China
- Prior art keywords
- avatar
- image
- user
- target
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 32
- 238000000034 method Methods 0.000 claims abstract description 54
- 238000013145 classification model Methods 0.000 claims abstract description 51
- 230000008569 process Effects 0.000 claims abstract description 32
- 238000012545 processing Methods 0.000 claims description 39
- 238000012549 training Methods 0.000 claims description 24
- 238000003860 storage Methods 0.000 claims description 18
- 238000009877 rendering Methods 0.000 claims description 7
- 238000002372 labelling Methods 0.000 claims description 4
- 230000005855 radiation Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 8
- 230000006872 improvement Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000006399 behavior Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
Abstract
本说明书实施例提供了虚拟形象处理方法及装置,其中,一种虚拟形象处理方法包括:获取用户的多视角图像,并根据所述用户选择的基础元素生成所述用户在虚拟世界的虚拟形象;基于所述多视角图像和所述虚拟形象进行图像重建,获得所述虚拟形象的虚拟形象特征;将所述虚拟形象特征输入分类模型,以执行如下处理:基于所述虚拟形象特征进行虚拟形象分类,并将分类获得的形象类别对应的虚拟形象原型作为所述用户在所述虚拟世界中数字孪生的目标虚拟形象并输出。
Description
技术领域
本文件涉及虚拟化技术领域,尤其涉及一种虚拟形象处理方法及装置。
背景技术
虚拟世界提供了对真实世界的模拟,用户可以在虚拟世界中进行各种活动、交流、甚至是和真实世界一样的生活,此外,虚拟世界甚至能够提供在真实世界难以实现的场景,因此虚拟世界越来越多地应用在各种场景。在虚拟世界场景中,如何在虚拟世界中对用户的行为进行记录,也即是用户如何在虚拟世界中进行活动,如何辨别虚拟世界中的不同用户,是虚拟世界的提供者和参与虚拟世界的用户日益关注的重点。
发明内容
本说明书一个或多个实施例提供了一种虚拟形象处理方法。所述虚拟形象处理方法,包括:获取用户的多视角图像,并根据所述用户选择的基础元素生成所述用户在虚拟世界的虚拟形象。基于所述多视角图像和所述虚拟形象进行图像重建,获得所述虚拟形象的虚拟形象特征。将所述虚拟形象特征输入分类模型,以执行如下处理:基于所述虚拟形象特征进行虚拟形象分类,并将分类获得的形象类别对应的虚拟形象原型作为所述用户在所述虚拟世界中数字孪生的目标虚拟形象并输出。
本说明书一个或多个实施例提供了一种虚拟形象处理装置,包括:图像获取模块,被配置为获取用户的多视角图像,并根据所述用户选择的基础元素生成所述用户在虚拟世界的虚拟形象。图像重建模块,被配置为基于所述多视角图像和所述虚拟形象进行图像重建,获得所述虚拟形象的虚拟形象特征。分类模块,被配置为将所述虚拟形象特征输入分类模型,以执行如下处理:基于所述虚拟形象特征进行虚拟形象分类,并将分类获得的形象类别对应的虚拟形象原型作为所述用户在所述虚拟世界中数字孪生的目标虚拟形象并输出。
本说明书一个或多个实施例提供了一种虚拟形象处理设备,包括:处理器;以及,被配置为存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器:获取用户的多视角图像,并根据所述用户选择的基础元素生成所述用户在虚拟世界的虚拟形象。基于所述多视角图像和所述虚拟形象进行图像重建,获得所述虚拟形象的虚拟形象特征。将所述虚拟形象特征输入分类模型,以执行如下处理:基于所述虚拟形象特征进行虚拟形象分类,并将分类获得的形象类别对应的虚拟形象原型作为所述用户在所述虚拟世界中数字孪生的目标虚拟形象并输出。
本说明书一个或多个实施例提供了一种存储介质,用于存储计算机可执行指令,所述计算机可执行指令在被处理器执行时实现以下流程:获取用户的多视角图像,并根据所述用户选择的基础元素生成所述用户在虚拟世界的虚拟形象。基于所述多视角图像和所述虚拟形象进行图像重建,获得所述虚拟形象的虚拟形象特征。将所述虚拟形象特征输入分类模型,以执行如下处理:基于所述虚拟形象特征进行虚拟形象分类,并将分类获得的形象类别对应的虚拟形象原型作为所述用户在所述虚拟世界中数字孪生的目标虚拟形象并输出。
附图说明
为了更清楚地说明本说明书一个或多个实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图;
图1为本说明书一个或多个实施例提供的一种虚拟形象处理方法处理流程图;
图2为本说明书一个或多个实施例提供的一种应用于虚拟形象创建的虚拟形象处理方法处理流程图;
图3为本说明书一个或多个实施例提供的一种虚拟形象处理装置示意图;
图4为本说明书一个或多个实施例提供的一种虚拟形象处理设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书一个或多个实施例中的技术方案,下面将结合本说明书一个或多个实施例中的附图,对本说明书一个或多个实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书的一部分实施例,而不是全部的实施例。基于本说明书一个或多个实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本文件的保护范围。
本说明书提供的一种虚拟形象处理方法实施例:
本实施例提供的虚拟形象处理方法,通过对用户的多视角图像和选择的基础元素生成的虚拟形象进行图像重建,进一步根据图像重建后的虚拟形象特征进行目标虚拟形象的生成,以此,获得用户在虚拟世界中数字孪生的虚拟形象;具体的,本实施例提供的虚拟形象处理方法,基于用户的多视角图像和用户在虚拟世界的虚拟形象进行图像重建,获得虚拟形象的虚拟形象特征,基于虚拟形象特征进行虚拟形象分类,获得形象类别;读取形象类别对应的虚拟形象原型作为用户在虚拟世界中数字孪生的目标虚拟形象;以此,通过结合用户的多视角图像和虚拟形象进行图像重建,提升进行目标虚拟形象的生成效率。
参照图1,本实施例提供的虚拟形象处理方法,具体包括步骤S102至步骤S106。
步骤S102,获取用户的多视角图像,并根据所述用户选择的基础元素生成所述用户在虚拟世界的虚拟形象。
本实施例中,所述多视角图像,包括用户在真实世界中的针对一个目标采集的多视角的目标图像;其中,该目标可以为一个用户,也可以为用户的身体部位;例如脸部,肢体。此外,该目标还可以为环境、物品等。可选的,所述多视角图像,包括在真实世界中针对所述用户采集的至少一个视角的用户图像。例如,针对一个用户从前、后、左、右等视角进行图像采集,获得四张用户图像作为用户的多视角图像。本实施例以针对用户进行多视角图像采集以及确定用户在虚拟世界中数字孪生的目标虚拟形象为例对虚拟形象处理过程进行说明。
所述虚拟世界,是指基于去中心化协作实现并且具有开放经济系统的虚拟的拟真世界;所述虚拟世界中,通过生成非同质化标识进行去中心化的交易,且通过交易战友虚拟资产的所有权。具体的,真实世界中的用户可通过接入设备接入虚拟世界,以在虚拟世界中进行去中心化的交易和其他行为。所述接入设备,用于接入所述虚拟世界,可以是连接虚拟世界的VR(Virtual Reality,虚拟现实)设备、AR(Augmented Reality,增强现实)设备等,比如连接虚拟世界的头戴式VR设备。
所述数字孪生,是指生成的目标虚拟形象与真实世界中的用户的相似度高于预设阈值,用户可基于虚拟世界中数字孪生的目标虚拟形象在虚拟世界中进行交易或者其他行为。其中,生成的用户在虚拟世界中数字孪生的目标虚拟形象,还可以被替换为生成用户在所述虚拟世界中的数字孪生形象。
所述虚拟形象,包括在虚拟世界中表征该用户的形象;用户可基于该虚拟形象在虚拟世界中进行交易、参与各种活动、交流甚至是和真实世界中一样的生活;用户在虚拟世界中基于该虚拟形象进行的行为,要符合虚拟世界或者真实世界中的行为规范;若用户基于该虚拟形象进行违反行为规范的活动,则可在物理世界中对用户进行行为惩戒。本实施例中,虚拟形象包括将用户选择的基础元素组装后的在虚拟世界中的虚拟形象;根据用户选择的基础元素生成的虚拟形象;即将用户选择的基础元素进行组装,获得的虚拟形象。例如,用户选择一个脸部元素和一个肢体元素,将该脸部元素和肢体元素进行组装成一个虚拟形象。
所述基础元素,包括预先设置表示形象的单个部位的元素;例如预先通过人工美工设计的基础的孪生元素;脸部元素、肢体元素等。其中,脸部元素可包括多个;例如圆脸、方脸等。可针对不同的脸型进行不同的孪生元素的设计;针对同一种脸型,也可设计多个孪生元素;肢体元素也可包括多个;例如胖、瘦等;针对不同的肢体形态可进行不同的孪生元素的设计;且针对同一种肢体形态,也可设计多个孪生元素。此外,基础元素除上述按照脸部元素和肢体元素进行划分外,还可进行其他种类的划分,例如脸型元素、鼻子元素、嘴巴元素、眼睛元素、耳朵元素、腰元素、腹元素等。
具体实施时,在对用户进行数字孪生的目标虚拟形象的产生时,为了提升确定的目标虚拟形象与用户的数字孪生效果,本实施例中,由用户选择基础元素,并生成用户在虚拟世界的基础的虚拟形象。其中,获取用户的多视角图像,包括获取用户通过接入虚拟世界的接入设备采集的多视角图像。此外,用户还可基于其他设备采集多视角图像;例如用户终端。
除上述提供的获取用户的多视角图像和根据用户选择的基础元素生成所述用户在虚拟世界的虚拟形象两者之后,上述步骤S102还可被替换为,获取用户的多视角图像;相应的,下述步骤S104可被替换为,基于所述多视角图像进行图像重建,获得所述虚拟形象的虚拟形象特征;或者,上述步骤S102还可被替换为,根据用户选择的基础元素生成所述用户在虚拟世界的虚拟形象;对应的,下述步骤S104还可被替换为基于所述虚拟形象进行图像重建,获得所述虚拟形象的虚拟特征形象,并与本实施例中其他处理步骤组成新的实现方式。
步骤S104,基于所述多视角图像和所述虚拟形象进行图像重建,获得所述虚拟形象的虚拟形象特征。
所述图像重建,包括基于多视角图像对虚拟形象进行细粒度的优化,以及对虚拟形象进行三维形象重建;此外,还可进行超过三维的多维形象重建,本实施例在此不再赘述;所述虚拟形象特征,包括进行图像重建后的虚拟形象对应的虚拟形象特征,可以是基于多视角图像和虚拟形象进行图像重建后的虚拟形象的浮点数的向量。
在具体执行过程中,为了提升进行图像重建的效果,提升虚拟形象特征与用户的孪生效果,本实施例提供的一种可选实施方式中,采用如下方式进行图像空间获得虚拟形象的虚拟形象特征:
将所述多视角图像和所述虚拟形象输入图像重建模型进行图像重建,输出所述虚拟形象特征;其中,所述图像重建模型,包括辐射场模型。所述辐射场模型,可采用NeRF(Neural Radiance Fields)模型。
在基于多视角图像和虚拟形象进行图像重建的过程中,可将多视角图像和虚拟形象输入辐射场模型进行图像重建,输出虚拟形象特征。
该图像重建模型用于基于多视角图像和虚拟形象进行图像重建,为了使该图像重建模型的图像重建效果更好,本实施例提供的一种可选实施方式中,所述图像重建模型,采用如下方式训练:
将多视角样本图像和虚拟形象样本输入初始图像重建模型进行图像重建,输出所述虚拟形象样本在所述虚拟世界中的样本特征;
计算所述样本特征的色彩重建损失和元素重建损失,基于所述色彩重建损失和所述元素重建损失计算训练损失;
基于所述训练损失对所述初始图像重建模型进行参数调整,在训练完成后获得所述图像重建模型。
实际应用中,所述图像重建模型的训练可以预先完成,比如在云服务器上进行图像重建模型的模型训练;具体在进行模型训练的过程中,基于两部分构建损失函数,其中,一部分为RGB(Red,Green,Blue)重建损失,另一部分为多视角的元素重建损失;
损失函数包括第一权重乘以RGB重建损失与第二权重乘以元素重建损失来确定;其中,第一权重和第二权重的和等于1。RGB重建损失和元素重建损失可用欧式距离来计算;本实施例在此不做限定。
在进行模型训练的过程中,训练直至损失函数收敛,将得到的模型作为图像重建模型。
还需要说明的是,由于在进行图像重建的过程中,会对虚拟形象进行细粒度的优化,因此,在人工美工设计基础元素的过程中,基础元素的粒度和种类可以适当减少,以此节省人工美工耗费的时间和资源。
上述将所述多视角图像和所述虚拟形象输入图像重建模型进行图像重建,输出所述虚拟形象特征还可被替换为,将所述多视角图像和所述虚拟形象输入图像重建模型进行图像重建,输出进行图像重建后的重建虚拟形象和虚拟形象特征;对应的,本实施例中,还可将重建虚拟形象向用户展示;根据用户对所述重建虚拟形象的调整数据,对所述重建虚拟形象进行更新;进一步,下述步骤S106可被替换为,将更新后的重建虚拟形象的虚拟形象特征输入分类模型。将更新后的重建虚拟形象输入图像重建模型进行图像重建,输出更新后的重建虚拟形象的虚拟形象特征,并与本实施例中其他处理步骤组成新的实现方式。
除上述提供的通过将多视角图像和虚拟形象输入图像重建模型进行图像重建之外,还可采用如下方式实现图像重建:
提取所述多视角图像中的图像特征;
基于所述图像特征对所述虚拟形象中的基础元素进行更新;
将进行更新后的虚拟形象投影至三维空间,以实现对虚拟形象的三维形象重建,获得更新后的虚拟形象的虚拟形象特征。
具体实施时,在获得虚拟形象的虚拟形象特征后,为了使确定的目标虚拟形象与用户的匹配度更高,可与用户交互使用户对虚拟形象特征对应的虚拟形象进行调整。基于此,本实施例提供的一种可选实施方式中,在获得虚拟形象特征之后,还可执行如下操作:
基于所述虚拟形象特征进行形象渲染,并将渲染获得的虚拟形象向所述用户进行展示;
根据所述用户对渲染获得的虚拟形象的调整数据,对所述虚拟形象特征进行更新;
相应的,所述将所述虚拟形象输入分类模型,包括:将更新后的虚拟形象输入所述分类模型。
具体的,在获得虚拟形象特征之后,基于虚拟形象特征进行形象渲染,其中,可将虚拟形象特征输入图像重建模型进行图像重建,输出所述虚拟形象特征对应的虚拟形象;将虚拟形象特征对应的虚拟形象向用户展示,若检测到用户对展示的虚拟形象的调整数据,则对调整后的虚拟形象进行图像重建,获得调整后的虚拟形象对应的虚拟形象特征;也即是对虚拟形象特征进行更新。相应的,下述步骤S106可被替换为将更新后的虚拟形象输入分类模型;或者将调整后的虚拟形象对应的虚拟形象特征输入分类模型,并与本实施例中其他处理步骤组成新的实现方式。
步骤S106,将所述虚拟形象特征输入分类模型。
在获取到虚拟形象的虚拟形象特征后,将虚拟形象特征输入分类模型,以执行如下处理:基于所述虚拟形象特征进行虚拟形象分类,并将分类获得的形象类别对应的虚拟形象原型作为所述用户在所述虚拟世界中数字孪生的目标虚拟形象并输出。
本实施例中形象类别,包括按照职业进行划分后的类别;例如,软件工程师、都市白领等。此外还可以从其他维度进行类别划分。
可选的,所述分类模型,对所述虚拟形象特征进行虚拟形象分类获得形象类别;读取所述形象类别对应的虚拟形象原型作为所述目标虚拟形象并输出;
其中,各形象类别对应的虚拟形象原型,基于所述各形象类别对应的类别特征进行图像重建获得。
进一步,本实施例提供的一种可选实施方式中,所述各形象类别和对应的类别特征,采用如下方式确定:
按照标注信息对形象特征样本集进行分类处理,获得至少一个初始形象类别;该形象特征样本集中的标注信息为人工标注。
计算各初始形象类别下的形象特征样本的平均特征;
基于所述平均特征对所述形象特征样本集中的形象特征样本进行聚类处理,获得所述至少一个形象类别,并确定各形象类别的类别特征。
具体的,在对至少一个形象类别和对应的类别特征进行确定的过程中,首先基于各初始形象类别下的形象特征样本计算各初始形象类别的平均特征;基于所述平均特征对形象特征样本集中的形象特征样本进行聚类处理,获得至少一个形象类别,并确定各形象类别的类别特征。以此,实现对分类模型的半监督训练。
其中,本实施例提供的一种可选实施方式中,采用如下方式进行聚类处理:
计算所述各形象特征样本与各平均特征的特征差值;
将所述各形象特征样本分类至所述特征差值满足回归条件的目标形象类别;
计算所述目标形象类别下的形象特征样本的目标平均特征,基于所述目标平均特征对所述各形象特征样本进行回归处理。
具体的,在基于平均特征进行聚类处理的过程中,首先计算各形象特征样本与各平均特征的特征差值;将各形象特征样本回归于特征差值最小的目标形象类别,然后计算各目标形象类别的目标平均特征,基于目标平均也正对各形象特征样本进行回归处理,直至回归算法稳定。
上述提供了确定至少一个形象类别和对应的类别特征的具体方式,上述确定方式可被替换为:基于预设算法,对形象特征样本集进行聚类处理,获得所述至少一个形象类别和对应的类别特征;例如,基于最大期望算法,对各初始形象类别的平均特征和各初始形象类别下的形象特征样本进行动态更新,直至最大期望算法收敛;得到至少一个形象类别和对应的类别特征。
在获得至少一个形象类别和对应的类别特征之后,也即确定了至少一个形象类别下的形象特征样本。为了提升对分类模型的处理效率,采用形象特征样本进行模型训练,对形象特征样本按照所属的形象类别进行标注,获得形象特征样本集;本实施例提供的一种可选实施方式中,采用如下方式进行分类模型的模型训练:
将形象特征样本集输入待训练的初始分类模型进行形象分类,输出所述形象特征样本集中各形象特征样本的样本形象类别;
基于所述样本形象类别和真实样本形象类别计算训练损失,并基于训练损失对所述初始分类模型进行参数调整,在训练完成后获得所述分类模型。
实际应用中,所述分类模型的训练可以预先完成,比如在云服务器上进行分类模型的模型训练。其中,所述分类模型,可以是残差网络外接一个n分类的分类层。其中,残差网络可以是ResNet18结构。具体在分类模型的模型训练过程中,可构建损失函数,损失函数具体为:
Loss=softmax(f,y)
其中,f为分类模型的分类结果,y为真实分类结果。
除了将虚拟形象特征输入分类模型,分类模型基于虚拟形象特征进行虚拟形象分类,并将分类获得的形象类别对应的虚拟形象原型作为用户在虚拟世界中数字孪生的目标虚拟形象并输出之外,上述步骤S106还可被替换为:基于所述虚拟形象特征进行虚拟形象分类,获得形象类别;读取所述形象类别对应的虚拟形象原型作为所述用户在所述虚拟世界中数字孪生的目标虚拟形象,并与本实施例中其他处理步骤组成新的实现方式。
在获取到分类模型输出的目标虚拟形象后,为了使用户及时地感知目标虚拟形象以及根据自己的需求对目标虚拟形象进行调整,本实施例提供的一种可选实施方式中,在获取到分类模型输出的目标虚拟形象后,获得读取到目标虚拟形象后,还执行如下操作:
将所述分类模型输出的所述目标虚拟形象向所述用户展示;
根据所述用户对所述目标虚拟形象的形象调整数据,对所述目标虚拟形象进行更新,并将更新后的目标虚拟形象作为所述用户在所述虚拟世界中数字孪生的目标虚拟形象。
具体的,将分类模型输出的目标虚拟形象向用户展示,或者,将读取到的形象类别对应的目标虚拟形象向用户展示,根据用户对目标虚拟形象的形象调整数据,对目标虚拟形象进行更新,并将更新后的目标虚拟形象作为用户在虚拟世界中数字孪生的目标虚拟形象。
例如,将虚拟形象特征输入分类模型,分类模型基于虚拟形象进行虚拟形象分类,获得虚拟形象特征对应的形象类别为软件工作者,则读取软件工作者对应的虚拟形象原型作为用户在虚拟世界中数字孪生的目标虚拟形象;获取到分类模型输出的目标虚拟形象后,向用户展示目标虚拟形象,获取到用户对目标虚拟形象的衣物颜色的调整数据后,对目标虚拟形象的衣物颜色进行调整,并将调整后的目标虚拟形象确定为用户在虚拟世界中数字孪生的目标虚拟形象。
在确定用户在虚拟世界中数字孪生的目标虚拟形象之后,在后续用户接入虚拟世界时,向用户展示目标虚拟形象,本实施例提供的一种可选实施方式中,在检测到所述用户接入所述虚拟世界的接入指令后,将所述目标虚拟形象向所述用户的接入设备进行输出;用户可基于该目标虚拟形象在虚拟世界中进行去中心化交易;具体的,若检测到所述目标虚拟形象对虚拟资产的交易请求,则基于所述虚拟资产的非同质化标识进行所述虚拟资产的去中心化交易,交易后所述目标虚拟形象占有所述虚拟资产的所有权。
下述以本实施例提供的一种虚拟形象处理方法在虚拟形象创建场景的应用为例,对本实施例提供的虚拟形象处理方法进行进一步说明,参见图2,应用于虚拟形象创建的虚拟形象处理方法,具体包括步骤S202至步骤S212。
步骤S202,获取用户的多视角图像,以及用户选择的基础元素。
步骤S204,基于用户选择的基础元素生成用户在虚拟世界的虚拟形象。
步骤S206,基于多视角图像对虚拟形象进行粒度调整,并将调整之后的虚拟形象映射至三维世界。
步骤S208,确定虚拟形象映射至三维世界后的虚拟形象特征。
上述步骤S206和步骤S208还可被替换为将多视角图像和虚拟形象输入图像重建模型进行图像重建,输出虚拟形象的虚拟形象特征;与本实施例提供的其他处理步骤组成新的实现方式。
步骤S210,对虚拟形象特征进行虚拟形象分类,获得虚拟形象特征的形象类别。
步骤S212,读取形象类别对应的虚拟形象原型作为用户在虚拟世界中数字孪生的目标虚拟形象。
上述步骤S210和步骤S212还可被替换为将虚拟形象特征输入分类模型进行虚拟形象分类,输出用户在虚拟世界中数字孪生的目标虚拟形象;与本实施例提供的其他处理步骤组成新的实现方式。
综上所述,本实施例提供的虚拟形象处理方法,首先获取用户的多视角图像,并获取用户选择的基础元素,然后基于用户选择的基础元素生成用户在虚拟世界的虚拟形象;再基于多视角图像和虚拟形象进行图像重建,获得虚拟形象的虚拟形象特征;其中,在基于多视角图像和虚拟形象进行图像重建,获得虚拟形象特征的过程中,将多视角图像和虚拟形象输入图像重建模型进行图像重建,输出虚拟形象特征;
在获得虚拟形象特征之后,首先确定虚拟形象特征的形象类别,并将该形象类别对应的虚拟形象原型作为用户在虚拟世界中数字孪生的目标虚拟形象;其中,在确定目标虚拟形象的过程中,可将虚拟形象特征输入分类模型,分类模型基于虚拟形象特征进行虚拟形象分类,并将分类获得的形象类别对应的虚拟形象原因作为用户在虚拟世界中数字孪生的目标虚拟形象并输出,以此,提升生成目标虚拟形象的效率,且使用户实现对于目标虚拟形象的一键生成,将目标虚拟形象作为用户在虚拟世界中的数字孪生,提升用户对于虚拟世界的参与感知程度。
本说明书提供的一种虚拟形象处理装置实施例如下:
在上述的实施例中,提供了一种虚拟形象处理方法,与之相对应的,还提供了一种虚拟形象处理装置,下面结合附图进行说明。
参照图3,其示出了本实施例提供的一种虚拟形象处理装置示意图。
由于装置实施例对应于方法实施例,所以描述得比较简单,相关的部分请参见上述提供的方法实施例的对应说明即可。下述描述的装置实施例仅仅是示意性的。
本实施例提供一种虚拟形象处理装置,包括:
图像获取模块302,被配置为获取用户的多视角图像,并根据所述用户选择的基础元素生成所述用户在虚拟世界的虚拟形象;
图像重建模块304,被配置为基于所述多视角图像和所述虚拟形象进行图像重建,获得所述虚拟形象的虚拟形象特征;
分类模块306,被配置为将所述虚拟形象特征输入分类模型,以执行如下处理:基于所述虚拟形象特征进行虚拟形象分类,并将分类获得的形象类别对应的虚拟形象原型作为所述用户在所述虚拟世界中数字孪生的目标虚拟形象并输出。
本说明书提供的一种虚拟形象处理设备实施例如下:
对应上述描述的一种虚拟形象处理方法,基于相同的技术构思,本说明书一个或多个实施例还提供一种虚拟形象处理设备,该虚拟形象处理设备用于执行上述提供的虚拟形象处理方法,图4为本说明书一个或多个实施例提供的一种虚拟形象处理设备的结构示意图。
本实施例提供的一种虚拟形象处理设备,包括:
如图4所示,虚拟形象处理设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器401和存储器402,存储器402中可以存储有一个或一个以上存储应用程序或数据。其中,存储器402可以是短暂存储或持久存储。存储在存储器402的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括虚拟形象处理设备中的一系列计算机可执行指令。更进一步地,处理器401可以设置为与存储器402通信,在虚拟形象处理设备上执行存储器402中的一系列计算机可执行指令。虚拟形象处理设备还可以包括一个或一个以上电源403,一个或一个以上有线或无线网络接口404,一个或一个以上输入/输出接口405,一个或一个以上键盘406等。
在一个具体的实施例中,虚拟形象处理设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对虚拟形象处理设备中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
获取用户的多视角图像,并根据所述用户选择的基础元素生成所述用户在虚拟世界的虚拟形象;
基于所述多视角图像和所述虚拟形象进行图像重建,获得所述虚拟形象的虚拟形象特征;
将所述虚拟形象特征输入分类模型,以执行如下处理:基于所述虚拟形象特征进行虚拟形象分类,并将分类获得的形象类别对应的虚拟形象原型作为所述用户在所述虚拟世界中数字孪生的目标虚拟形象并输出。
本说明书提供的一种存储介质实施例如下:
对应上述描述的一种虚拟形象处理方法,基于相同的技术构思,本说明书一个或多个实施例还提供一种存储介质。
本实施例提供的存储介质,用于存储计算机可执行指令,所述计算机可执行指令在被处理器执行时实现以下流程:
获取用户的多视角图像,并根据所述用户选择的基础元素生成所述用户在虚拟世界的虚拟形象;
基于所述多视角图像和所述虚拟形象进行图像重建,获得所述虚拟形象的虚拟形象特征;
将所述虚拟形象特征输入分类模型,以执行如下处理:基于所述虚拟形象特征进行虚拟形象分类,并将分类获得的形象类别对应的虚拟形象原型作为所述用户在所述虚拟世界中数字孪生的目标虚拟形象并输出。
需要说明的是,本说明书中关于存储介质的实施例与本说明书中关于虚拟形象处理方法的实施例基于同一发明构思,因此该实施例的具体实施可以参见前述对应方法的实施,重复之处不再赘述。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
在20世纪30年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书实施例时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书一个或多个实施例可提供为方法、系统或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书一个或多个实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书的一个或多个实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本文件的实施例而已,并不用于限制本文件。对于本领域技术人员来说,本文件可以有各种更改和变化。凡在本文件的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本文件的权利要求范围之内。
Claims (14)
1.一种虚拟形象处理方法,包括:
获取用户的多视角图像,并根据所述用户选择的基础元素生成所述用户在虚拟世界的虚拟形象;
基于所述多视角图像和所述虚拟形象进行图像重建,获得所述虚拟形象的虚拟形象特征;
将所述虚拟形象特征输入分类模型,以执行如下处理:基于所述虚拟形象特征进行虚拟形象分类,并将分类获得的形象类别对应的虚拟形象原型作为所述用户在所述虚拟世界中数字孪生的目标虚拟形象并输出。
2.根据权利要求1所述的虚拟形象处理方法,所述分类模型,对所述虚拟形象特征进行虚拟形象分类获得形象类别;读取所述形象类别对应的虚拟形象原型作为所述目标虚拟形象并输出;
其中,各形象类别对应的虚拟形象原型,基于所述各形象类别对应的类别特征进行图像重建获得。
3.根据权利要求2所述的虚拟形象处理方法,所述各形象类别和对应的类别特征,采用如下方式确定:
按照标注信息对形象特征样本集进行分类处理,获得至少一个初始形象类别;
计算各初始形象类别下的形象特征样本的平均特征;
基于所述平均特征对所述形象特征样本集中的形象特征样本进行聚类处理,获得至少一个形象类别,并确定各形象类别的类别特征。
4.根据权利要求3所述的虚拟形象处理方法,所述基于所述平均特征对所述形象特征样本集中的形象特征样本进行聚类处理,包括:
计算各形象特征样本与各平均特征的特征差值;
将所述各形象特征样本分类至所述特征差值满足回归条件的目标形象类别;
计算所述目标形象类别下的形象特征样本的目标平均特征,基于所述目标平均特征对所述各形象特征样本进行回归处理。
5.根据权利要求1所述的虚拟形象处理方法,所述基于所述多视角图像和所述虚拟形象进行图像重建,获得所述虚拟形象的虚拟形象特征,包括:
将所述多视角图像和所述虚拟形象输入图像重建模型进行图像重建,输出所述虚拟形象特征;
其中,所述图像重建模型,包括辐射场模型。
6.根据权利要求5所述的虚拟形象处理方法,所述图像重建模型,采用如下方式训练:
将多视角样本图像和虚拟形象样本输入初始图像重建模型进行图像重建,输出所述虚拟形象样本在所述虚拟世界中的样本特征;
计算所述样本特征的色彩重建损失和元素重建损失,基于所述色彩重建损失和所述元素重建损失计算训练损失;
基于所述训练损失对所述初始图像重建模型进行参数调整,在训练完成后获得所述图像重建模型。
7.根据权利要求1所述的虚拟形象处理方法,所述基于所述多视角图像和所述虚拟形象进行图像重建,获得所述虚拟形象的虚拟形象特征步骤执行之后,且所述将所述虚拟形象特征输入分类模型操作执行之前,还包括:
基于所述虚拟形象特征进行形象渲染,并将渲染获得的虚拟形象向所述用户进行展示;
根据所述用户对渲染获得的虚拟形象的调整数据,对所述虚拟形象特征进行更新;
相应的,所述将所述虚拟形象输入分类模型,包括:将更新后的虚拟形象输入所述分类模型。
8.根据权利要求1所述的虚拟形象处理方法,还包括:
将所述分类模型输出的所述目标虚拟形象向所述用户展示;
根据所述用户对所述目标虚拟形象的形象调整数据,对所述目标虚拟形象进行更新,并将更新后的目标虚拟形象作为所述用户在所述虚拟世界中数字孪生的目标虚拟形象。
9.根据权利要求1所述的虚拟形象处理方法,所述分类模型,采用如下方式训练获得:
将形象特征样本集输入待训练的初始分类模型进行形象分类,输出所述形象特征样本集中各形象特征样本的样本形象类别;
基于所述样本形象类别和真实样本形象类别计算训练损失,并基于训练损失对所述初始分类模型进行参数调整,在训练完成后获得所述分类模型。
10.根据权利要求1所述的虚拟形象处理方法,所述多视角图像,包括在真实世界中针对所述用户采集的至少一个视角的用户图像。
11.根据权利要求1所述的虚拟形象处理方法,还包括:
在检测到所述用户接入所述虚拟世界的接入指令后,将所述目标虚拟形象向所述用户的接入设备进行输出;
若检测到所述目标虚拟形象对虚拟资产的交易请求,则基于所述虚拟资产的非同质化标识进行所述虚拟资产的去中心化交易,交易后所述目标虚拟形象占有所述虚拟资产的所有权。
12.一种虚拟形象处理装置,包括:
图像获取模块,被配置为获取用户的多视角图像,并根据所述用户选择的基础元素生成所述用户在虚拟世界的虚拟形象;
图像重建模块,被配置为基于所述多视角图像和所述虚拟形象进行图像重建,获得所述虚拟形象的虚拟形象特征;
分类模块,被配置为将所述虚拟形象特征输入分类模型,以执行如下处理:基于所述虚拟形象特征进行虚拟形象分类,并将分类获得的形象类别对应的虚拟形象原型作为所述用户在所述虚拟世界中数字孪生的目标虚拟形象并输出。
13.一种虚拟形象处理设备,包括:
处理器;以及,
被配置为存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器:
获取用户的多视角图像,并根据所述用户选择的基础元素生成所述用户在虚拟世界的虚拟形象;
基于所述多视角图像和所述虚拟形象进行图像重建,获得所述虚拟形象的虚拟形象特征;
将所述虚拟形象特征输入分类模型,以执行如下处理:基于所述虚拟形象特征进行虚拟形象分类,并将分类获得的形象类别对应的虚拟形象原型作为所述用户在所述虚拟世界中数字孪生的目标虚拟形象并输出。
14.一种存储介质,用于存储计算机可执行指令,所述计算机可执行指令在被处理器执行时实现以下流程:
获取用户的多视角图像,并根据所述用户选择的基础元素生成所述用户在虚拟世界的虚拟形象;
基于所述多视角图像和所述虚拟形象进行图像重建,获得所述虚拟形象的虚拟形象特征;
将所述虚拟形象特征输入分类模型,以执行如下处理:基于所述虚拟形象特征进行虚拟形象分类,并将分类获得的形象类别对应的虚拟形象原型作为所述用户在所述虚拟世界中数字孪生的目标虚拟形象并输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211085548.1A CN116246009B (zh) | 2022-09-06 | 2022-09-06 | 虚拟形象处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211085548.1A CN116246009B (zh) | 2022-09-06 | 2022-09-06 | 虚拟形象处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116246009A true CN116246009A (zh) | 2023-06-09 |
CN116246009B CN116246009B (zh) | 2024-04-16 |
Family
ID=86624802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211085548.1A Active CN116246009B (zh) | 2022-09-06 | 2022-09-06 | 虚拟形象处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116246009B (zh) |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100296702A1 (en) * | 2009-05-21 | 2010-11-25 | Hu Xuebin | Person tracking method, person tracking apparatus, and person tracking program storage medium |
JP2014048722A (ja) * | 2012-08-29 | 2014-03-17 | Ntt Docomo Inc | 画像分類装置、画像分類方法 |
CN110782515A (zh) * | 2019-10-31 | 2020-02-11 | 北京字节跳动网络技术有限公司 | 虚拟形象的生成方法、装置、电子设备及存储介质 |
CN110827379A (zh) * | 2019-10-31 | 2020-02-21 | 北京字节跳动网络技术有限公司 | 虚拟形象的生成方法、装置、终端及存储介质 |
US20200089954A1 (en) * | 2018-09-14 | 2020-03-19 | Microsoft Technology Licensing, Llc | Generating synthetic digital assets for a virtual scene including a model of a real-world object |
US11017609B1 (en) * | 2020-11-24 | 2021-05-25 | Horizon Group USA, INC | System and method for generating augmented reality objects |
CN113569614A (zh) * | 2021-02-23 | 2021-10-29 | 腾讯科技(深圳)有限公司 | 虚拟形象生成方法、装置、设备及存储介质 |
CN113781613A (zh) * | 2021-09-15 | 2021-12-10 | 广州虎牙科技有限公司 | 表情驱动方法、系统及计算机设备 |
CN114332830A (zh) * | 2021-12-15 | 2022-04-12 | 中汽创智科技有限公司 | 图像处理方法、装置及介质 |
CN114493995A (zh) * | 2022-01-17 | 2022-05-13 | 上海壁仞智能科技有限公司 | 图像渲染模型训练、图像渲染方法及装置 |
CN114821004A (zh) * | 2022-04-25 | 2022-07-29 | 中国平安人寿保险股份有限公司 | 虚拟空间构建方法、虚拟空间构建装置、设备及存储介质 |
CN114821675A (zh) * | 2022-06-29 | 2022-07-29 | 阿里巴巴达摩院(杭州)科技有限公司 | 对象的处理方法、系统和处理器 |
CN114820906A (zh) * | 2022-06-24 | 2022-07-29 | 北京百度网讯科技有限公司 | 图像渲染方法、装置、电子设备及存储介质 |
CN114972632A (zh) * | 2022-04-21 | 2022-08-30 | 阿里巴巴达摩院(杭州)科技有限公司 | 基于神经辐射场的图像处理方法及装置 |
CN114973355A (zh) * | 2022-05-05 | 2022-08-30 | 清华大学 | 人脸嘴部重建方法及装置 |
CN114998515A (zh) * | 2022-05-19 | 2022-09-02 | 大连理工大学 | 一种基于多视角图像的3d人体自监督重建方法 |
CN114998935A (zh) * | 2022-06-28 | 2022-09-02 | 京东方智慧物联科技有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
-
2022
- 2022-09-06 CN CN202211085548.1A patent/CN116246009B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100296702A1 (en) * | 2009-05-21 | 2010-11-25 | Hu Xuebin | Person tracking method, person tracking apparatus, and person tracking program storage medium |
JP2014048722A (ja) * | 2012-08-29 | 2014-03-17 | Ntt Docomo Inc | 画像分類装置、画像分類方法 |
US20200089954A1 (en) * | 2018-09-14 | 2020-03-19 | Microsoft Technology Licensing, Llc | Generating synthetic digital assets for a virtual scene including a model of a real-world object |
CN110782515A (zh) * | 2019-10-31 | 2020-02-11 | 北京字节跳动网络技术有限公司 | 虚拟形象的生成方法、装置、电子设备及存储介质 |
CN110827379A (zh) * | 2019-10-31 | 2020-02-21 | 北京字节跳动网络技术有限公司 | 虚拟形象的生成方法、装置、终端及存储介质 |
US11017609B1 (en) * | 2020-11-24 | 2021-05-25 | Horizon Group USA, INC | System and method for generating augmented reality objects |
CN113569614A (zh) * | 2021-02-23 | 2021-10-29 | 腾讯科技(深圳)有限公司 | 虚拟形象生成方法、装置、设备及存储介质 |
CN113781613A (zh) * | 2021-09-15 | 2021-12-10 | 广州虎牙科技有限公司 | 表情驱动方法、系统及计算机设备 |
CN114332830A (zh) * | 2021-12-15 | 2022-04-12 | 中汽创智科技有限公司 | 图像处理方法、装置及介质 |
CN114493995A (zh) * | 2022-01-17 | 2022-05-13 | 上海壁仞智能科技有限公司 | 图像渲染模型训练、图像渲染方法及装置 |
CN114972632A (zh) * | 2022-04-21 | 2022-08-30 | 阿里巴巴达摩院(杭州)科技有限公司 | 基于神经辐射场的图像处理方法及装置 |
CN114821004A (zh) * | 2022-04-25 | 2022-07-29 | 中国平安人寿保险股份有限公司 | 虚拟空间构建方法、虚拟空间构建装置、设备及存储介质 |
CN114973355A (zh) * | 2022-05-05 | 2022-08-30 | 清华大学 | 人脸嘴部重建方法及装置 |
CN114998515A (zh) * | 2022-05-19 | 2022-09-02 | 大连理工大学 | 一种基于多视角图像的3d人体自监督重建方法 |
CN114820906A (zh) * | 2022-06-24 | 2022-07-29 | 北京百度网讯科技有限公司 | 图像渲染方法、装置、电子设备及存储介质 |
CN114998935A (zh) * | 2022-06-28 | 2022-09-02 | 京东方智慧物联科技有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
CN114821675A (zh) * | 2022-06-29 | 2022-07-29 | 阿里巴巴达摩院(杭州)科技有限公司 | 对象的处理方法、系统和处理器 |
Non-Patent Citations (2)
Title |
---|
曹佳炯: "基于多任务学习和度量学习的人脸属性分类研究", 《中国优秀硕士学位论文全文数据库 信息科技》, no. 06, 15 June 2018 (2018-06-15) * |
贺宏福;: "虚拟实体对象行为的人群动画高仿真度重建", 信息技术, no. 08, 19 August 2020 (2020-08-19) * |
Also Published As
Publication number | Publication date |
---|---|
CN116246009B (zh) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110490960B (zh) | 一种合成图像生成方法及装置 | |
JP7475772B2 (ja) | 画像生成方法、画像生成装置、コンピュータ機器、及びコンピュータプログラム | |
CN109829396B (zh) | 人脸识别运动模糊处理方法、装置、设备及存储介质 | |
CN114943789A (zh) | 一种图像处理方法、模型训练方法及相关装置 | |
CN110728319B (zh) | 一种图像生成方法、装置以及计算机存储介质 | |
CN110781770B (zh) | 基于人脸识别的活体检测方法、装置及设备 | |
CN111369428A (zh) | 虚拟头像生成方法和装置 | |
CN115359219A (zh) | 虚拟世界的虚拟形象处理方法及装置 | |
CN111340014A (zh) | 活体检测方法、装置、设备和存储介质 | |
CN113658324A (zh) | 图像处理方法及相关设备、迁移网络训练方法及相关设备 | |
CN113642359B (zh) | 人脸图像生成方法、装置、电子设备及存储介质 | |
CN116630480B (zh) | 一种交互式文本驱动图像编辑的方法、装置和电子设备 | |
CN112132979A (zh) | 一种虚拟资源的选取方法、装置及设备 | |
CN116246009B (zh) | 虚拟形象处理方法及装置 | |
CN115809696B (zh) | 虚拟形象模型训练方法及装置 | |
CN115374298B (zh) | 基于索引的虚拟形象数据处理方法及装置 | |
CN115775024B (zh) | 虚拟形象模型训练方法及装置 | |
CN115499635B (zh) | 数据压缩处理方法及装置 | |
CN115358777A (zh) | 虚拟世界的广告投放处理方法及装置 | |
CN115393022A (zh) | 跨域推荐处理方法及装置 | |
CN112950641B (zh) | 图像处理方法及装置、计算机可读存储介质和电子设备 | |
CN117009878A (zh) | 基于超图的分类方法、装置、计算机设备及存储介质 | |
CN116883770A (zh) | 深度估计模型的训练方法、装置、电子设备及存储介质 | |
CN117593619B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN112927219B (zh) | 一种图像的检测方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |