CN113269781A - 数据生成方法、装置及电子设备 - Google Patents
数据生成方法、装置及电子设备 Download PDFInfo
- Publication number
- CN113269781A CN113269781A CN202110430603.5A CN202110430603A CN113269781A CN 113269781 A CN113269781 A CN 113269781A CN 202110430603 A CN202110430603 A CN 202110430603A CN 113269781 A CN113269781 A CN 113269781A
- Authority
- CN
- China
- Prior art keywords
- image data
- target
- information
- data
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000003709 image segmentation Methods 0.000 claims description 35
- 238000012549 training Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 11
- 238000009877 rendering Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 239000000835 fiber Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种数据生成方法、装置及电子设备,该方法包括:获取第一图像数据,其中,所述第一图像数据为表示用户所处真实环境的数据;获取目标对象的掩膜信息和类别信息,其中,所述目标对象为所述第一图像数据中得到用户关注的对象;获取第二图像数据,其中,所述第二图像数据为包含虚拟对象的数据;根据所述掩膜信息和所述类别信息,混合所述第一图像数据和所述第二图像数据,生成目标图像数据,其中,所述目标图像数据为包含所述目标对象和所述虚拟对象的数据。该方法使得电子设备可以向用户同时提供包含真实环境内容和虚拟内容的目标图像数据,以提升用户使用电子设备时的趣味性。
Description
技术领域
本公开涉及混合现实技术领域,更具体地,涉及一种数据生成方法、装置及一种电子设备。
背景技术
目前,用户在使用电子设备,例如,虚拟现实(VR,VirtualReality)设备时,往往仅能通过设备自身所带的屏幕查看虚拟内容,而不能查看到外部真实环境中的真实内容,用户体验较差。因此,有必要提供一种数据生成方法,以使得用户在使用电子设备的过程中,可以灵活的查看显示内容,尤其是可以查看混合现实(MR,MixedReality)数据,即,混合真实内容和虚拟内容的数据,以提升用户在使用电子设备时的趣味性。
发明内容
本公开实施例的一个目的是提供一种用于生成数据,尤其是混合现实数据的新技术方案,以提升用户使用电子设备时的趣味性。
根据本公开的第一方面,提供了一种数据生成方法,该方法包括:
获取第一图像数据,其中,所述第一图像数据为表示用户所处真实环境的数据;
获取目标对象的掩膜信息和类别信息,其中,所述目标对象为所述第一图像数据中得到用户关注的对象;
获取第二图像数据,其中,所述第二图像数据为包含虚拟对象的数据;
根据所述掩膜信息和所述类别信息,混合所述第一图像数据和所述第二图像数据,生成目标图像数据,其中,所述目标图像数据为包含所述目标对象和所述虚拟对象的数据。
可选地,所述根据所述掩膜信息和所述类别信息,混合所述第一图像数据和所述第二图像数据,获得目标图像数据,包括:根据所述类别信息,确定所述第二图像数据中的所述虚拟对象与所述第一图像数据中的所述目标对象之间的相对位置关系;根据所述掩膜信息和所述相对位置关系,将所述虚拟对象渲染至所述目标对象的预设位置处,获得所述目标图像数据。
可选地,所述获取所述第一图像数据中的目标对象的掩膜信息和类别信息,包括:获取用于指示所述目标对象的指示信息;根据所述指示信息和所述第一图像数据,获得所述掩膜信息和所述类别信息。
可选地,所述指示信息包括所述目标对象在所述第一图像数据中的位置信息;所述根据所述指示信息和所述第一图像数据,获得所述掩膜信息和所述类别信息,包括:将所述位置信息和所述第一图像数据数据输入到目标图像分割模型中,获得所述掩膜信息;将所述掩膜信息输入到目标类别识别模型中,获得所述类别信息。
可选地,所述目标图像分割模型和所述目标类别识别模型通过以下步骤训练获得:获取样本数据,其中,所述样本数据为包含预设场景中的样本对象的数据;根据所述样本数据,联合训练初始图像分割模型和初始类别识别模型,获得所述目标图像分割模型和所述目标类别识别模型。
可选地,所述根据所述样本数据,联合训练初始图像分割模型和初始类别识别模型,获得所述目标图像分割模型和所述目标类别识别模型,包括:将所述样本数据输入到所述初始图像分割模型中,获得所述样本对象的样本掩膜信息;将所述样本掩膜信息输入到所述初始类别识别模型中,获得所述样本对象的样本类别信息;以及,在训练的过程中,通过调整所述初始图像分割模型和所述初始类别识别模型的参数,获得满足预设收敛条件的所述目标图像分割模型和所述目标类别识别模型。
可选地,在获得所述目标图像数据之后,所述方法还包括:展示所述目标图像数据。
可选地,所述方法应用于电子设备,所述电子设备包括显示装置和至少两个图像采集装置,所述图像采集装置的视场角不小于所述显示装置的视场角;所述获取第一图像数据,包括:使用所述图像采集装置采集所述第一图像数据。
根据本公开的第二方面,本公开还提供了一种数据生成装置,包括:
第一图像数据获取模块,用于获取第一图像数据,其中,所述第一图像数据为表示用户所处真实环境的数据;
信息获取模块,用于获取目标对象的掩膜信息和类别信息,其中,所述目标对象为所述第一图像数据中得到用户关注的对象;
第二图像数据获取模块,用于获取第二图像数据,其中,所述第二图像数据为包含虚拟对象的数据;
目标图像数据生成模块,用于根据所述掩膜信息和所述类别信息,混合所述第一图像数据和所述第二图像数据,生成目标图像数据,其中,所述目标图像数据为包含所述目标对象和所述虚拟对象的数据。
根据本公开的第三方面,还提供了一种电子设备,其包括根据本公开第二方面所述的装置;或者,
所述电子设备包括:存储器,用于存储可执行的指令;处理器,用于根据所述指令的控制运行所述电子设备执行本公开第一方面所述的方法。
本公开的有益效果在于,根据本公开的实施例,电子设备通过获取表示用户所处真实环境的第一图像数据,并获取该第一图像数据中得到用户关注的目标对象的掩膜信息和类别信息;之后,通过获取包含虚拟对象的第二图像数据,即可以根据该掩膜信息和该类别信息,将第一图像数据和第二图像数据进行混合得到同时包含目标对象和虚拟对象的目标图像数据。本实施例提供的方法使得电子设备可以向用户同时提供包含真实环境内容和虚拟内容的目标图像数据,可以提升用户使用电子设备时的趣味性。
通过以下参照附图对本公开的示例性实施例的详细描述,本公开的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本公开的实施例,并且连同其说明一起用于解释本公开的原理。
图1是本公开实施例提供的数据生成方法的流程示意图。
图2是本公开实施例提供的数据生成装置的原理框图。
图3是本公开实施例提供的电子设备的硬件结构示意图。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
<方法实施例>
随着虚拟现实技术的不断发展,用户在使用电子设备,例如VR头戴式一体机的过程中,往往仅能查看虚拟内容,而不能查看真实环境中的真实内容;在实现本申请的过程中,发明人发现,为了使得电子设备可以灵活的向用户提供不同环境的内容,可以通过在电子设备中设置图像采集装置,以用来采集真实环境中的数据,并根据用户选择,灵活的将真实内容或者虚拟内容呈现给用户,然而,在用户使用电子设备的过程中,往往还希望能够基于看到的真实内容和虚拟内容结合进行结合,并希望将这些虚实结合的交互内容记录下来,以提供给其他用户查看,因此,有必要提供一种可以生成混合现实数据的方法,以解决该问题。
请参看图1,其是本公开实施例提供的数据生成方法的流程示意图。该方法可以应用于电子设备,以使得该设备可以灵活方便的向用户提供虚实结合的数据。
需要说明的是,在本实施例中,实施该方法的电子设备可以包括显示装置,例如,显示屏和至少两个图像采集装置,该至少两个图像采集装置可以模拟用户人眼的位置固定安装在该电子设备上,该图像采集装置的视场角(FOV,FieldOfView)不小于该显示装置的视场角。在具体实施时,该图像采集装置可以是分辨率不小于1280*720,帧率不小于60Hz,支持自动对焦、自动白平衡和自动曝光的彩色相机,当然,根据需要,也可以为其他配置的相机,此处不做特殊限定。在具体实施时,该电子设备例如可以为VR设备、AR设备或者MR设备等设备。
如图1所示,本实施例的方法可以包括步骤S1100-S1400,以下予以详细说明。
步骤S1100,获取第一图像数据,其中,所述第一图像数据为表示用户所处真实环境的数据。
具体来讲,第一图像数据,可以是反映用户所处真实环境,即真实物理环境的数据,该图像数据中可以包括真实环境中的各种实体对象,例如,根据用户所处场景的不同,该图像数据中可以包括沙发、餐桌、树木、建筑物、汽车、道路等对象。
在本实施例中,第一图像数据可以通过设置在电子设备上的至少两个图像采集装置采集用户所处真实环境中的数据生成;当然,在具体实施时,根据实际需要,该第一图像数据也可以由该电子设备以外的其他设备采集用户所处真实环境中的数据生成,例如,可以通过单独设置于用户所处环境中的图像采集装置采集获得该第一图像数据,并通过与该电子设备建立连接,将该第一图像数据提供给该电子设备,本实施例不对第一图像数据的获取方式做特殊限定。
步骤S1200,获取目标对象的掩膜信息和类别信息,其中,所述目标对象为所述第一图像数据中得到用户关注的对象。
在本实施例中,目标对象,可以为电子设备获取到的第一图像数据中的用户感兴趣,即得到用户关注的对象,具体可以为用户待基于该对象与虚拟内容中的虚拟对象进行结合以进行交互的对象,例如,在用户所处真实环境为室内场景时,该目标对象可以为反映该室内场景的图像数据中的沙发、餐桌等对象。
在数字图像处理领域,掩膜(Mask)信息,具体可以是用于对待处理的图像(全部或局部)进行遮挡,以用来控制图像处理的区域或处理过程的信息,在具体实施时,掩膜可以为二维矩阵数组或多值图像,以用来提取待处理的图像中用户感兴趣,即,得到用户关注的区域,例如,通过将掩膜与待处理图像相乘,使得待处理图像的其他区域的图像值为0,而用户感兴趣的区域的图像值不变。
在一个实施例中,所述获取所述第一图像数据中的目标对象的掩膜信息和类别信息,包括:获取用于指示所述目标对象的指示信息;根据所述指示信息和所述第一图像数据,获得所述掩膜信息和所述类别信息。
在具体实施时,用于指示目标对象的指示信息可以为目标对象在第一图像数据中的位置信息,该位置信息例如可以为构成目标对象的全部或部分像素的坐标数据。该指示信息可以通过用户点击第一图像数据中的该目标对象获得。
例如,在电子设备获取到第一图像数据之后,可以在其显示装置,例如显示屏幕上展示该第一图像数据;之后,用户可以通过与该电子设备连接的手柄控制追踪器在该第一图像数据中点击该目标对象;电子设备响应于该点击操作,获取用户点击位置在该第一图像数据中的坐标作为该指示信息。当然,在具体实施时,用户也可以通过滑动选择目标对象的轮廓,并将该轮廓对应的坐标作为该指示信息;又或者,也可以不必通过手柄控制追踪器的点击来获得该指示信息,而是通过采集用户在第一图像数据中关注区域的停留时间来获得该指示信息,此处不再赘述。
在具体实施时,在该指示信息为目标对象在第一图像数据中的位置信息,例如,在目标对象为沙发时,该指示信息可以该沙发对应的全部或部分像素在第一图像数据中的坐标;在该情况下,所述根据所述指示信息和所述第一图像数据,获得所述掩膜信息和所述类别信息,包括:将所述位置信息和所述第一图像数据数据输入到目标图像分割模型中,获得所述掩膜信息;将所述掩膜信息输入到目标类别识别模型中,获得所述类别信息。
在本实施例中,目标图像分隔模型,是用于将对象从载体中分隔出来的模型,例如,将目标对象从其载体图像中分隔出来,以利用该目标对象进行后续的虚实结合处理;在具体实施时,该目标图像分割模型可以为卷积神经网络模型,例如,可以为基于MaskR-CNN网络结构的模型,此处不做特殊限定。
目标类别识别模型,是基于输入得到的掩膜信息,用于识别该掩膜信息对应的对象所属的类别的模型,例如,在目标对象为沙发的情况下,通过将目标对象的掩膜信息输入到目标类别识别模型中,可以得到其类别为“家具”,更进一步的,可以识别其为“沙发”;在具体实施时,该目标类别识别模型同样可以为卷积神经网络模型,其模型结构此处不再赘述。
在具体实施时,该目标图像分割模型和该目标类别识别模型可以通过以下步骤训练获得:获取样本数据,其中,所述样本数据为包含预设场景中的样本对象的数据;根据所述样本数据,联合训练初始图像分割模型和初始类别识别模型,获得所述目标图像分割模型和所述目标类别识别模型。
在本实施例中,可以预先获取不同场景中的环境图像数据作为样本数据,例如,可以获取128种预设场景中的环境图像数据,并通过人工标注每一环境图像数据中的对象的方式,得到用于训练目标图像分割模型和目标类别识别模型的样本数据;之后,即可基于该样本数据,对分别与目标图像分割模型和目标类别识别模型对应的初始图像分割模型和初始类别识别模型进行联合训练,以获得目标图像分割模型和目标类别识别模型。
在具体实施时,所述根据所述样本数据,联合训练初始图像分割模型和初始类别识别模型,获得所述目标图像分割模型和所述目标类别识别模型,包括:将所述样本数据输入到所述初始图像分割模型中,获得所述样本对象的样本掩膜信息;将所述样本掩膜信息输入到所述初始类别识别模型中,获得所述样本对象的样本类别信息;以及,在训练的过程中,通过调整所述初始图像分割模型和所述初始类别识别模型的参数,获得满足预设收敛条件的所述目标图像分割模型和所述目标类别识别模型。
具体来讲,在获得样本数据之后,通过将样本数据输入到初始图像分割模型,获得样本对象的样本掩膜信息;再使用初始类别识别模型处理该样本掩膜信息,得到样本对象的样本类别信息,在联合训练的过程中,通过设计与该两个模型对应的损失函数,并通过不断调整该两个模型分别对象的参数,以得到满足预设收敛条件的目标图像分割模型和目标类别识别模型,其中,该预设收敛条件例如可以为该两个模型的识别结果的误差不超过预设阈值,由于关于模型训练的详细处理在现有技术中有详细说明,此处不再赘述。
在步骤S1200之后,执行步骤S1300,获取第二图像数据,其中,所述第二图像数据为包含虚拟对象的数据。
虚拟对象,可以是在用户所处的真实环境中不存在的对象,即,为虚拟内容,例如,可以为虚拟世界中的动植物、建筑物等,此次不做特殊限定。
需要说明的是,在本实施例中,包含目标对象的第一图像数据以及包含虚拟对象的第二图像数据可以为二维数据,也可以为三维数据,本实施例不做特殊限定。
步骤S1400,根据所述掩膜信息和所述类别信息,混合所述第一图像数据和所述第二图像数据,生成目标图像数据,其中,所述目标图像数据为包含所述目标对象和所述虚拟对象的数据。
具体来讲,在经过上述步骤获得反映用户所处真实环境的第一图像数据中的目标对象的掩膜信息和类别信息,以及获得包含待进行混合的虚拟对象的第二图像数据之后,即可根据该掩膜信息和该类别信息,将第一图像数据中的目标对象分割出来,并与第二图像数据中的虚拟对象进行混合,以得到同时包含真实环境中的目标对象和虚拟环境中的虚拟对象的目标图像数据。
在本实施例中,所述根据所述掩膜信息和所述类别信息,混合所述第一图像数据和所述第二图像数据,获得目标图像数据,具体可以包括:根据所述类别信息,确定所述第二图像数据中的所述虚拟对象与所述第一图像数据中的所述目标对象之间的相对位置关系;根据所述掩膜信息和所述相对位置关系,将所述虚拟对象渲染至所述目标对象的预设位置处,获得所述目标图像数据。
具体来讲,在获得目标对象的掩膜信息之后,通过将该掩膜信息与第一图像数据相乘,可以将目标对象从第一图像数据中分隔出来;之后,根据该目标对象的类别信息,电子设备可以确定目标对象与待结合的虚拟对象的相对位置关系,例如,在目标对象的类别为沙发、餐桌的情况下,并且虚拟对象为宠物,例如,一只猫的情况下,可以确定目标对象与虚拟对象的相对位置关系可以为表示包含的信息,即,将虚拟对象渲染在目标对象之中或者之上;而在目标对象为墙体,虚拟对象为宠物的情况下,则该相对位置关系则可能是表示左右排列的信息。
根据上述说明可知,在根据掩膜信息和类别信息,将目标对象从第一图像数据中分隔出来之后,即可根据获得的相对位置关系,将虚拟对象渲染至目标对象的预设位置处,例如,将一只虚拟世界中的猫渲染至真实环境中的沙发上。
在经过以上处理获得混合目标对象和虚拟对象的目标图像数据之后,该方法还包括展示所述目标图像数据。
具体来讲,为了便于用户基于真实环境中的目标对象与虚拟环境中的虚拟对象进行交互,在获得上述目标图像数据之后,电子设备可以在其显示屏幕上展示该目标图像数据;更进一步的,还可以进一步的获取用户基于展示的该目标图像数据,与虚拟对象进行交互的交互内容,例如,在虚拟对象为一只猫的情况下,用户可以于该虚拟的猫进行交互,并保存相对应的交互视频。
为了进一步提升用户使用电子设备时的趣味性,该电子设备还可以包含网络模块,再经过该网络模块与互联网连接之后,电子设备还可以保存用户与目标图像数据中的虚拟对象进行交互的交互数据,例如图像数据和/或视频数据,并将该交互数据提供给其他用户,例如该用户的好友查看,其详细处理过程此处不再赘述。当然,以上仅为本实施例提供的一种应用该方法的一个例子,在具体实施时,还可以将该方法应用在墙贴、网络社交、虚拟远程办公、个人游戏、广告等场景中,此处不再赘述。
综上所述,本实施例提供的数据生成方法,电子设备通过获取表示用户所处真实环境的第一图像数据,并获取该第一图像数据中得到用户关注的目标对象的掩膜信息和类别信息;之后,通过获取包含虚拟对象的第二图像数据,即可以根据该掩膜信息和该类别信息,将第一图像数据和第二图像数据进行混合得到同时包含目标对象和虚拟对象的目标图像数据。本实施例提供的方法使得电子设备可以向用户同时提供包含真实环境内容和虚拟内容的目标图像数据,可以提升用户使用电子设备时的趣味性。
<装置实施例>
与上述方法实施例对应,本实施例还提供一种数据生成装置,如图2所示,该装置2000可以应用于电子设备中,具体可以包括第一图像数据获取模块2100、信息获取模块2200、第二图像数据获取模块2300以及目标图像数据生成模块2400。
该第一图像数据获取模块2100,用于获取第一图像数据,其中,所述第一图像数据为表示用户所处真实环境的数据。
该信息获取模块2200,用于获取目标对象的掩膜信息和类别信息,其中,所述目标对象为所述第一图像数据中得到用户关注的对象。
在一个实施例中,该信息获取模块2200在获取所述第一图像数据中的目标对象的掩膜信息和类别信息时,可以用于:获取用于指示所述目标对象的指示信息;根据所述指示信息和所述第一图像数据,获得所述掩膜信息和所述类别信息。
在该实施例中,所述指示信息包括所述目标对象在所述第一图像数据中的位置信息;该信息获取模块2200在根据所述指示信息和所述第一图像数据,获得所述掩膜信息和所述类别信息时,可以用于:将所述位置信息和所述第一图像数据数据输入到目标图像分割模型中,获得所述掩膜信息;将所述掩膜信息输入到目标类别识别模型中,获得所述类别信息。
该第二图像数据获取模块2300,用于获取第二图像数据,其中,所述第二图像数据为包含虚拟对象的数据。
该目标图像数据生成模块2400,用于根据所述掩膜信息和所述类别信息,混合所述第一图像数据和所述第二图像数据,生成目标图像数据,其中,所述目标图像数据为包含所述目标对象和所述虚拟对象的数据。
在一个实施例中,该目标图像数据生成模块2400在根据所述掩膜信息和所述类别信息,混合所述第一图像数据和所述第二图像数据,获得目标图像数据时,可以用于:根据所述类别信息,确定所述第二图像数据中的所述虚拟对象与所述第一图像数据中的所述目标对象之间的相对位置关系;根据所述掩膜信息和所述相对位置关系,将所述虚拟对象渲染至所述目标对象的预设位置处,获得所述目标图像数据。
在一个实施例中,该装置2000还包括展示模块,该展示模块用于展示所述目标图像数据。
<设备实施例>
与上述方法实施例相对应,在本实施例中,还提供一种电子设备,其可以包括根据本公开任意实施例的数据生成装置2000,用于实施本公开任意实施例的数据生成方法。
如图3所示,该电子设备3000还可以包括处理器3200和存储器3100,该存储器3100用于存储可执行的指令;该处理器3200用于根据指令的控制运行电子设备以执行根据本公开任意实施例的数据生成方法。
以上装置2000的各个模块可以由处理器3200运行该指令以执行根据本公开任意实施例的方法来实现。
在具体实施时,该电子设备3000可以包括显示装置,例如,显示屏和至少两个图像采集装置,该至少两个图像采集装置可以模拟用户人眼的位置固定安装在该电子设备上,该图像采集装置的视场角不小于该显示装置的视场角。在具体实施时,该图像采集装置可以是分辨率不小于1280*720,帧率不小于60Hz,支持自动对焦、自动白平衡和自动曝光的彩色相机,当然,根据需要,也可以为其他配置的相机,此处不做特殊限定。在具体实施时,该电子设备例如可以为VR设备、AR设备或者MR设备等设备。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本公开的范围由所附权利要求来限定。
Claims (10)
1.一种数据生成方法,包括:
获取第一图像数据,其中,所述第一图像数据为表示用户所处真实环境的数据;
获取目标对象的掩膜信息和类别信息,其中,所述目标对象为所述第一图像数据中得到用户关注的对象;
获取第二图像数据,其中,所述第二图像数据为包含虚拟对象的数据;
根据所述掩膜信息和所述类别信息,混合所述第一图像数据和所述第二图像数据,生成目标图像数据,其中,所述目标图像数据为包含所述目标对象和所述虚拟对象的数据。
2.根据权利要求1所述的方法,所述根据所述掩膜信息和所述类别信息,混合所述第一图像数据和所述第二图像数据,获得目标图像数据,包括:
根据所述类别信息,确定所述第二图像数据中的所述虚拟对象与所述第一图像数据中的所述目标对象之间的相对位置关系;
根据所述掩膜信息和所述相对位置关系,将所述虚拟对象渲染至所述目标对象的预设位置处,获得所述目标图像数据。
3.根据权利要求1所述的方法,所述获取所述第一图像数据中的目标对象的掩膜信息和类别信息,包括:
获取用于指示所述目标对象的指示信息;
根据所述指示信息和所述第一图像数据,获得所述掩膜信息和所述类别信息。
4.根据权利要求3所述的方法,所述指示信息包括所述目标对象在所述第一图像数据中的位置信息;
所述根据所述指示信息和所述第一图像数据,获得所述掩膜信息和所述类别信息,包括:
将所述位置信息和所述第一图像数据数据输入到目标图像分割模型中,获得所述掩膜信息;
将所述掩膜信息输入到目标类别识别模型中,获得所述类别信息。
5.根据权利要求4所述的方法,所述目标图像分割模型和所述目标类别识别模型通过以下步骤训练获得:
获取样本数据,其中,所述样本数据为包含预设场景中的样本对象的数据;
根据所述样本数据,联合训练初始图像分割模型和初始类别识别模型,获得所述目标图像分割模型和所述目标类别识别模型。
6.根据权利要求5所述的方法,所述根据所述样本数据,联合训练初始图像分割模型和初始类别识别模型,获得所述目标图像分割模型和所述目标类别识别模型,包括:
将所述样本数据输入到所述初始图像分割模型中,获得所述样本对象的样本掩膜信息;
将所述样本掩膜信息输入到所述初始类别识别模型中,获得所述样本对象的样本类别信息;以及,
在训练的过程中,通过调整所述初始图像分割模型和所述初始类别识别模型的参数,获得满足预设收敛条件的所述目标图像分割模型和所述目标类别识别模型。
7.根据权利要求1所述的方法,在获得所述目标图像数据之后,所述方法还包括:
展示所述目标图像数据。
8.根据权利要求1所述的方法,所述方法应用于电子设备,所述电子设备包括显示装置和至少两个图像采集装置,所述图像采集装置的视场角不小于所述显示装置的视场角;
所述获取第一图像数据,包括:
使用所述图像采集装置采集所述第一图像数据。
9.一种数据生成装置,包括:
第一图像数据获取模块,用于获取第一图像数据,其中,所述第一图像数据为表示用户所处真实环境的数据;
信息获取模块,用于获取目标对象的掩膜信息和类别信息,其中,所述目标对象为所述第一图像数据中得到用户关注的对象;
第二图像数据获取模块,用于获取第二图像数据,其中,所述第二图像数据为包含虚拟对象的数据;
目标图像数据生成模块,用于根据所述掩膜信息和所述类别信息,混合所述第一图像数据和所述第二图像数据,生成目标图像数据,其中,所述目标图像数据为包含所述目标对象和所述虚拟对象的数据。
10.一种电子设备,包括权利要求9所述的装置;或者,
所述电子设备包括:
存储器,用于存储可执行的指令;
处理器,用于根据所述指令的控制运行所述电子设备执行如权利要求1-8任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110430603.5A CN113269781A (zh) | 2021-04-21 | 2021-04-21 | 数据生成方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110430603.5A CN113269781A (zh) | 2021-04-21 | 2021-04-21 | 数据生成方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113269781A true CN113269781A (zh) | 2021-08-17 |
Family
ID=77229199
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110430603.5A Pending CN113269781A (zh) | 2021-04-21 | 2021-04-21 | 数据生成方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113269781A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113870439A (zh) * | 2021-09-29 | 2021-12-31 | 北京百度网讯科技有限公司 | 用于处理图像的方法、装置、设备以及存储介质 |
CN115810073A (zh) * | 2022-12-19 | 2023-03-17 | 支付宝(杭州)信息技术有限公司 | 虚拟形象生成方法及装置 |
US12106225B2 (en) | 2019-05-30 | 2024-10-01 | The Research Foundation For The State University Of New York | System, method, and computer-accessible medium for generating multi-class models from single-class datasets |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015138181A1 (en) * | 2014-03-14 | 2015-09-17 | Line Weight Llc | Augmented reality simulator |
CN107852488A (zh) * | 2015-05-22 | 2018-03-27 | 三星电子株式会社 | 用于通过hmd设备显示虚拟图像的系统和方法 |
CN109345556A (zh) * | 2017-07-27 | 2019-02-15 | 罗克韦尔柯林斯公司 | 用于混合现实的神经网络前景分离 |
CN110414428A (zh) * | 2019-07-26 | 2019-11-05 | 厦门美图之家科技有限公司 | 一种生成人脸属性信息识别模型的方法 |
CN110782515A (zh) * | 2019-10-31 | 2020-02-11 | 北京字节跳动网络技术有限公司 | 虚拟形象的生成方法、装置、电子设备及存储介质 |
CN111510701A (zh) * | 2020-04-22 | 2020-08-07 | Oppo广东移动通信有限公司 | 虚拟内容的显示方法、装置、电子设备及计算机可读介质 |
CN111639613A (zh) * | 2020-06-04 | 2020-09-08 | 上海商汤智能科技有限公司 | 一种增强现实ar特效生成方法、装置及电子设备 |
CN112017300A (zh) * | 2020-07-22 | 2020-12-01 | 青岛小鸟看看科技有限公司 | 混合现实图像的处理方法、装置及设备 |
-
2021
- 2021-04-21 CN CN202110430603.5A patent/CN113269781A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015138181A1 (en) * | 2014-03-14 | 2015-09-17 | Line Weight Llc | Augmented reality simulator |
CN107852488A (zh) * | 2015-05-22 | 2018-03-27 | 三星电子株式会社 | 用于通过hmd设备显示虚拟图像的系统和方法 |
CN109345556A (zh) * | 2017-07-27 | 2019-02-15 | 罗克韦尔柯林斯公司 | 用于混合现实的神经网络前景分离 |
CN110414428A (zh) * | 2019-07-26 | 2019-11-05 | 厦门美图之家科技有限公司 | 一种生成人脸属性信息识别模型的方法 |
CN110782515A (zh) * | 2019-10-31 | 2020-02-11 | 北京字节跳动网络技术有限公司 | 虚拟形象的生成方法、装置、电子设备及存储介质 |
CN111510701A (zh) * | 2020-04-22 | 2020-08-07 | Oppo广东移动通信有限公司 | 虚拟内容的显示方法、装置、电子设备及计算机可读介质 |
CN111639613A (zh) * | 2020-06-04 | 2020-09-08 | 上海商汤智能科技有限公司 | 一种增强现实ar特效生成方法、装置及电子设备 |
CN112017300A (zh) * | 2020-07-22 | 2020-12-01 | 青岛小鸟看看科技有限公司 | 混合现实图像的处理方法、装置及设备 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12106225B2 (en) | 2019-05-30 | 2024-10-01 | The Research Foundation For The State University Of New York | System, method, and computer-accessible medium for generating multi-class models from single-class datasets |
CN113870439A (zh) * | 2021-09-29 | 2021-12-31 | 北京百度网讯科技有限公司 | 用于处理图像的方法、装置、设备以及存储介质 |
CN115810073A (zh) * | 2022-12-19 | 2023-03-17 | 支付宝(杭州)信息技术有限公司 | 虚拟形象生成方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220319139A1 (en) | Multi-endpoint mixed-reality meetings | |
CN113269781A (zh) | 数据生成方法、装置及电子设备 | |
CN111294665B (zh) | 视频的生成方法、装置、电子设备及可读存储介质 | |
Wang et al. | Distanciar: Authoring site-specific augmented reality experiences for remote environments | |
CN109561240B (zh) | 用于生成媒体资产的系统和方法 | |
CN108734769A (zh) | 三维模型分析方法、电子装置及非暂态电脑可读取媒体 | |
CN109035415B (zh) | 虚拟模型的处理方法、装置、设备和计算机可读存储介质 | |
CN112017300A (zh) | 混合现实图像的处理方法、装置及设备 | |
CN108597034B (zh) | 用于生成信息的方法和装置 | |
CN111192308B (zh) | 图像处理方法及装置、电子设备和计算机存储介质 | |
US11995741B2 (en) | Data generation method and apparatus, and electronic device | |
CN114187392A (zh) | 虚拟偶像的生成方法、装置和电子设备 | |
WO2023076648A1 (en) | Extraction of user representation from video stream to a virtual environment | |
CN113327309B (zh) | 视频播放方法和装置 | |
CN113031846B (zh) | 用于展示任务的描述信息的方法、装置及电子设备 | |
CN114245193A (zh) | 显示控制方法、装置和电子设备 | |
Jin et al. | Volumivive: An authoring system for adding interactivity to volumetric video | |
JP2023542598A (ja) | 文字の表示方法、装置、電子機器及び記憶媒体 | |
CN112449249A (zh) | 视频流处理方法及装置、电子设备及存储介质 | |
Liao et al. | RealityEffects: Augmenting 3D Volumetric Videos with Object-Centric Annotation and Dynamic Visual Effects | |
Chyan et al. | Interactive augmented reality art book to promote Malaysia traditional game | |
CN113141502B (zh) | 头戴式显示设备的摄像控制方法、装置及头戴式显示设备 | |
Lourenço | Augmented and Virtual Reality for Enhanced Presence in Cultural Institutions | |
CN113674293B (zh) | 图片处理方法、装置、电子设备和计算机可读介质 | |
US11145109B1 (en) | Method for editing computer-generated images to maintain alignment between objects specified in frame space and objects specified in scene space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |