CN112053370A - 基于增强现实的显示方法、设备及存储介质 - Google Patents
基于增强现实的显示方法、设备及存储介质 Download PDFInfo
- Publication number
- CN112053370A CN112053370A CN202010937923.5A CN202010937923A CN112053370A CN 112053370 A CN112053370 A CN 112053370A CN 202010937923 A CN202010937923 A CN 202010937923A CN 112053370 A CN112053370 A CN 112053370A
- Authority
- CN
- China
- Prior art keywords
- target object
- image
- real
- time scene
- avatar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
Abstract
本公开实施例提供一种基于增强现实的显示方法、设备及存储介质,该方法通过对图像采集单元采集的实时场景图像中的目标物体进行物体分割,获取目标物体图像;根据目标物体图像生成目标物体对应的虚拟形象;基于增强现实技术,将虚拟形象显示于实时场景图像中。通过获取目标物体图像,基于目标物体图像生成目标物体对应的虚拟形象,并基于增强现实技术,将虚拟形象显示于实时场景图像中,可以根据用户需求生成各种各样的虚拟形象,满足用户多样化的需求,提高用户使用AR技术的使用体验。
Description
技术领域
本公开实施例涉及增强现实技术领域,尤其涉及一种基于增强现实的显示方法、设备及存储介质。
背景技术
增强现实技术(Augmented Reality,简称AR),是一种将虚拟信息与真实世界融合的技术,广泛运用了多媒体、三维建模、实时跟踪及注册、智能交互、传感等多种技术手段,将计算机生成的文字、图像、三维模型、音乐、视频等虚拟信息模拟仿真后,应用到真实世界中,两种信息互为补充,从而实现对真实世界的“增强”。随着增强现实技术的发展,其在各行业中均得到广泛应用。
现有技术中对AR技术的一种应用是在真实世界中叠加虚拟模型,例如卡通人物模型、动物模型等,然而,现有技术中的虚拟模型通常是固定的,是由开发人员预先设计好的虚拟模型的形象,这就导致虚拟模型形象比较单一,无法满足用户多样化的需求,进而影响用户使用AR技术的意愿和使用体验。
发明内容
本公开实施例提供一种基于增强现实的显示方法、设备及存储介质,以克服虚拟模型形象比较单一,无法满足用户多样化的需求的问题。
第一方面,本公开实施例提供一种基于增强现实的显示方法,包括:
对图像采集单元采集的实时场景图像中的目标物体进行物体分割,获取目标物体图像;
根据所述目标物体图像生成所述目标物体对应的虚拟形象;
基于增强现实显示技术,将所述虚拟形象显示于所述实时场景图像中。
第二方面,本公开实施例提供一种基于增强现实的显示设备,包括:
目标物体确定单元,用于对图像采集单元采集的实时场景图像中的目标物体进行物体分割,获取目标物体图像;
生成单元,用于根据所述目标物体图像生成所述目标物体对应的虚拟形象;
显示单元,用于基于增强现实显示技术,将所述虚拟形象显示于所述实时场景图像中。
第三方面,本公开实施例提供一种电子设备,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如上第一方面以及第一方面各种可能的设计所述的方法。
第四方面,本公开实施例提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上第一方面以及第一方面各种可能的设计所述的方法。
本公开实施例提供的基于增强现实的显示方法、设备及存储介质,该方法通过对图像采集单元采集的实时场景图像中的目标物体进行物体分割,获取目标物体图像;根据目标物体图像生成目标物体对应的虚拟形象;基于增强现实显示技术将虚拟形象显示于实时场景图像中。通过获取目标物体图像,基于目标物体图像生成目标物体对应的虚拟形象,可以避免虚拟形象需要预先设计、且形象固定单一的问题,本公开实施例中可根据用户需求生成各种各样的虚拟形象,可以满足用户多样化的需求,通过增强现实技术,将虚拟形象增强显示在实时场景图像中,提高用户使用AR技术的意愿和使用体验。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本公开一实施例提供的基于增强现实的显示方法流程示意图;
图2a为本公开一实施例提供的显示目标物体图像的轮廓的一个示例图;
图2b为本公开一实施例提供的用户发出第一指令、确定目标物体图像一个示例图;
图3为本公开一实施例提供的目标物体图像的对应的虚拟形象的示例图;
图4为本公开一实施例提供的实时场景图像中显示虚拟形象的示例图;
图5为本公开一实施例提供的基于增强现实的显示方法流程示意图;
图6为本公开一实施例提供的生成目标物体对应的虚拟形象过程的示例图;
图7为本公开一实施例提供的基于增强现实的显示方法流程示意图;
图8为本公开实施例提供的基于增强现实的显示设备的结构框图;
图9为本公开实施例提供的电子设备的硬件结构示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
本公开实施例可适用于任意的具备AR功能的电子设备,例如智能手机、平板电脑、可穿戴设备等等,本公开实施例的应用场景可以包括,电子设备通过其图像采集单元采集实时场景图像,根据场景图像中的目标物体生成对应的虚拟形象,并经过本公开各实施例的增强现实的显示方法,将生成的虚拟形象在实时场景图像中进行显示,例如实时场景图像中目标物体为一个芒果,通过采用本公开实施例中的虚拟形象生成方法生成目标物体芒果对应的虚拟形象,经过本公开各实施例的增强现实的显示方法后,将芒果对应的虚拟形象在实时场景图像中进行显示并进一步通过动画的形式进行动态显示,其中芒果对应的虚拟形象可具备四肢和/或表情,且四肢和/或表情可以有一定的动作,以使得芒果对应的虚拟形象在实时场景中运动。
参考图1,图1为本公开实施例提供的基于增强现实的显示方法流程示意图。本实施例的方法可以应用在具备AR功能的电子设备或服务器中,该基于增强现实的显示方法可以包括:
S101、对图像采集单元采集的实时场景图像中的目标物体进行物体分割,获取目标物体图像。
在本实施例中,电子设备的图像采集单元如摄像头等可以采集实时场景图像,并显示在电子设备的显示单元中。电子设备可通过对实时场景图像中的目标物体进行物体分割,得到目标物体图像。具体的,电子设备可运行预加载的物体分割算法,以对实时场景图像进行物体分割,从而得到目标物体图像。其中,本公开实施例中采用的物体分割算法可以包括显著性物体分割算法,在分割时可将实时场景图像中的显著物体作为目标物体,并分割出目标物体图像,其中,显著物体可以为实时场景图像中与背景颜色存在较大差异的物体,也可以为实时场景图像中心区域处的物体,或者实时场景图像中所占面积最大的物体,等等。例如图2a中所示,实时场景图像中的芒果在实时场景图像中的中心区域且所占面积最大,将其作为所述目标物体;而耳机并未在实时场景图像中的中心区域,所占面积较芒果小很多,因此不将其作为目标物体。
在一个实施例中,当用户希望得到实时场景图像中的某一目标物体图像对应的虚拟形象时,用户可发出第一指令,使得电子设备根据第一指令获取实时场景图像中的目标物体图像。在一个实施例中,电子设备可以根据第一指令,基于图像采集单元采集到的实时场景图像中的目标物体图像,再复制出同样的目标物体图像作为获取到的目标物体图像,并基于复制后的目标物体图像生成虚拟形象。
在一个实施例中,在电子设备分割处目标物体得到目标物体图像时,还可以对目标物体图像进行标识,例如,电子设备可将目标物体图像进行突出显示,例如如图2a所示,电子设备可以通过描边突出显示目标物体图像的轮廓,或者,也可对目标物体图像进行高亮显示,或者,对除了目标物体图像外的图像区域进行低亮度显示等等,进而可以使得用户确认当前电子设备分割得到的目标物体是否与用户自己所需的目标物一致,当用户确认一致时,可发出第一指令,其中第一指令包括但不限于对经过标识的目标物体图像的点击操作指令、拖拽操作指令等,如图2b所示,用户通过在目标物体图像的轮廓区域内进行拖拽,从而发出上述的拖拽操作指令;当用户确认不一致时,用户可移动电子设备,使得电子设备的图像采集单元更换角度重新采集实时场景图像,并再次运行物体分割算法,再将实时场景图像中的显著物体作为目标物体,对目标物体图像进行分割并标识,以使用户重新确认当前电子设备所确定的目标物体是否与用户自己所需的目标物一致,以及分割效果是否符合用户的预期。
S102、根据目标物体图像生成目标物体对应的虚拟形象。
在本实施例中,在得到目标物体图像后(例如,复制原始目标物体图像后获取到的目标物体图像),电子设备可根据目标物体图像生成目标物体对应的虚拟形象,其中虚拟形象可具有肢体动作和/或表情动作,例如当目标物体图像为芒果的图像时,则对应的虚拟形象可以在芒果的图像上长出四肢和面部表情,如图3所示。进一步的,四肢和表情还可具有一定的动作,以驱动芒果的虚拟形象在电子设备的屏幕中运动。
可选的,在根据目标物体图像生成目标物体对应的虚拟形象时,可将所述目标物体图像与动画素材进行合成,生成所述目标物体对应的虚拟形象,其中,动画素材包括虚拟形象的肢体动画素材和/或表情动画素材。也即,在本实施例中,可预先设计目标物体对应的虚拟形象的肢体动作和/或表情动作,生成相应的肢体动画素材和/或表情动画素材,以用于后续的合成过程,也即在目标物体图像上添加肢体动画素材和/表情动画素材,得到目标物体对应的虚拟形象,且该虚拟形象的肢体和/或表情可以根据肢体动画素材和/表情动画素材的播放进行一定的动作。
S103、基于增强现实显示技术将虚拟形象显示于实时场景图像中。
在本实施例中,在得到目标物体的虚拟形象后,电子设备可通过增强显示技术,将目标物体的虚拟形象显示在实时场景图像中,也即将虚拟形象通过增强现实技术叠加到真实的实时场景图像中,实现增强显示的作用,如图4所示。在一个实施例中,电子设备可以将目标物体的虚拟形象动态显示在实时场景图像中。
在一个实施例中,电子设备可以响应于用户的第一指令,将虚拟形象增强显示在实时场景图像中,该第一指令可以包括但不限于用户发出的对目标物体图像的点击操作指令、拖拽操作指令、语音操作指令、表情识别获取到的操作指令等。此外,电子设备还可以在确定虚拟形象的显示位置后,自动将目标物体的虚拟形象增强显示在实时场景图像的该显示位置处。
在一种可选实施例中,用户可将获取到的复制后的目标物体图像从原始目标物体图像的初始位置出拖动至实时场景图像中的某一位置处,进一步的,基于增强现实显示技术,在该位置处显示目标物体的虚拟形象;或者也可先显示出基于复制后的目标物体图像生成的目标物体的虚拟形象,再基于用户的拖动操作将该虚拟形象显示至实时场景图像中的某一位置处。
可选的,用户还可对所显示的虚拟形象进行旋转、缩放、移动等,例如,用户可在电子设备的显示界面上发出对虚拟形象的控制指令,控制指令可包括但不限于旋转控制指令、缩小控制指令、移动控制指令、放大控制指令等,电子设备响应于用户对虚拟形象的控制指令,对虚拟形象进行相应的控制。需要说明的是,本实施例中的旋转可包括虚拟形象在任意情况下的角度变化,移动可包括虚拟形象在任意情况下的位置变化。缩放可以包括虚拟形象在任意情况下的大小的变化。当然本实施例中,用户还可与虚拟形象进行更多其他的交互过程,为简明起见,此处不再一一赘述。
本实施例提供的基于增强现实的显示方法,通过对图像采集单元采集的实时场景图像中的目标物体进行物体分割,获取目标物体图像;根据目标物体图像生成目标物体对应的虚拟形象;基于增强现实显示技术将虚拟形象显示于实时场景图像中。通过获取目标物体图像,基于目标物体图像生成目标物体对应的虚拟形象,可以避免虚拟形象需要预先设计、且形象固定单一的问题,本实施例中可根据用户需求生成各种各样的虚拟形象,可以满足用户多样化的需求,通过增强现实技术,将虚拟形象显示在实时场景图像中,提高用户使用AR技术的意愿和使用体验。
在上述任一实施例的基础上,在根据目标物体图像生成目标物体对应的虚拟形象时,可将目标物体图像与动画素材进行合成,生成目标物体对应的虚拟形象,其中,动画素材包括虚拟形象的肢体动画素材和/或表情动画素材。
其中,可选的,如图5所示,将目标物体图像与动画素材进行合成的步骤,具体可包括:
S201、获取肢体动画素材和/或所述表情动画素材;
S202、根据目标物体图像,在目标物体图像上确定多个连接点;
S203、通过该多个连接点将肢体动画素材和/或表情动画素材与目标物体图像进行合成,生成目标物体对应的虚拟形象。
在本实施例中,电子设备首先可获取虚拟形象的肢体动画素材和/或表情动画素材,其中肢体动画素材和/或表情动画素材可以预先配置并存储在电子设备中,在需要进行合成时,电子设备可提取出肢体动画素材和/或表情动画素材,并且根据目标物体图像的属性(例如,形状、大小、纹理等)在目标物体图像上确定多个连接点,其中连接点为肢体动画素材和/或表情动画素材与目标物体图像结合的位置,例如电子设备可以将目标物体图像设置为虚拟形象的身体躯干部分,将在目标图像上确定的多个连接点设置为肢体连接点,由此,连接点可包括虚拟形象的肢体与身体躯干部分的连接位置,进而电子设备可通过连接点将肢体动画素材与目标物体图像进行合成,使得目标物体图像长出肢体。此外,电子设备还可以根据目标物体图像,在该目标物体图像上确定表情在虚拟形象的身体躯干部分的放置位置,例如,所述身体躯干的中心,即,所述目标物体图像的中心位置,并将表情动画素材与目标物体图像进行合成,从而使得目标物体图像对应的虚拟形象还具有表情。此外,肢体和/或表情还可以具有一定的动画效果,从而进一步生成具有动画效果的目标物体对应的虚拟形象,具体如图6所示。
在上述实施例的基础上,获取所述目标物体图像上的多个连接点的步骤,具体可包括:
根据目标物体图像对所述动画素材进行调整;以及确定所述目标物体图像的多个连接点的位置。
本实施例中,由于目标物体图像可能有大有小,因此动画素材则需要相应的根据目标物体图像的大小进行调整,使得调整后的动画素材与目标物体图像的比例相互匹配。进一步的,电子设备还可以基于目标物体图像的形状等因素在目标物体图像上确定多个连接点的位置,以使得动画素材能够在合适位置的连接点处与目标物体图像进行连接从而具有美观性,也即,调整后的肢体动画素材处于目标物体图像的合适位置处,调整后的表情动画素材也位于目标物体图像的合适位置处。
根据本公开实施例中的方法,电子设备对图像采集单元采集的实时场景图像中的目标物体进行物体分割,获取目标物体图像,包括:
运行物体分割算法对实时场景图像中的目标物体进行物体分割,得到目标物体图像的掩膜和边界框,并获取掩膜内部区域的纹理。
本实施例中,在采用物体分割算法进行物体分割时,可得到目标物体的掩膜Mask和边界框Box,以及掩膜内部区域的纹理。
相应的,电子设备可根据所述边界框尺寸,调整所述动画素材的尺寸,并根据所述边界框的对称轴和长宽比,调整所述目标物体图像上的多个连接点位置。
在本实施例中,电子设备可以根据边界框尺寸确定目标物体图像的尺寸,进而基于边界框尺寸来调整动画素材的尺寸,也即,若边界框尺寸较大,则适应性增大动画素材的尺寸,若边界框尺寸较小,则适应性减小动画素材的尺寸。电子设备还可根据边界框的对称轴和长宽比来确定目标物体图像的多个连接点的位置,例如确定上肢的连接点的位置、下肢的连接点的位置,以及基于目标图像确定面部表情在目标图像中的放置位置等等,其中肢体的连接点可以在目标物体图像对称轴的两侧对称设置,且需要根据长宽比来确定连接点的具体位置,例如对于瘦高型(即,边界框的长宽比更大)的目标物体图像,其上肢的连接点需要向上部调整,下肢的连接点需要向下部调整,而对于矮胖型(即,边界框的长宽比较小)的目标物体图像,其上肢的连接点需要向下部调整,下肢的连接点需要向上部调整,通过上述的调整使得最终得到的虚拟形象的身体比例更加协调合理。
在上述实施例的基础上,通过所述多个连接点将所述肢体动画素材和/或所述表情动画素材与目标物体图像进行合成,以生成所述目标物体对应的虚拟形象,包括:
通过多个连接点将肢体动画素材和/或所述表情动画素材与掩膜内部区域的纹理进行合成,生成目标物体对应的虚拟形象。
在本实施例中,电子设备可通过连接点将肢体动画素材和/或表情动画素材与掩膜内部区域的纹理进行合成,从而得到目标物体对应的虚拟形象,也即在掩膜内部区域的纹理的基础上显示出肢体动画素材和/或表情动画素材。在一个实施例中,在确定了目标物体图像的连接点和调整后的动画素材的尺寸后,电子设备可通过连接点将肢体动画素材和/或表情动画素材与掩膜内部区域的纹理进行合成,从而得到目标物体对应的虚拟形象。
进一步的,电子设备还可以播放动画素材,包括播放肢体动画素材和/或表情动画素材,从而对虚拟形象进行动作和/或表情控制,也即虚拟形象的肢体和/或表情可以展示出相应的动作。
具体的,电子设备可根据该动画素材的预设动画帧播放该动画素材,以对该虚拟形象进行动作和/或表情控制;和/或,根据用户的肢体动作和/或表情生成并播放动画素材的动画帧,以对目标物体对应的虚拟形象进行动作和/或表情控制。也即,上述的动画素材可包括预设动画帧,预设动画帧中可预先设置肢体和/或表情具体展示怎样的动画。在一个实施例中,电子设备还可以实时采集用户的图像,并根据用户的肢体动作和/或表情动作生成对应的肢体动画素材和/或表情动画素材的动画帧,从而实现用户通过动作控制目标物体对应的虚拟形象的动作。例如用户做出某个肢体动作,则虚拟形象也相应的展示相同的肢体动作,和/或用户做出某个表情,则虚拟形象也相应的展示相同的表情,通过采用用户的动作驱动并控制目标物体对应的虚拟形象的动作,能够提高用户的操作体验和乐趣。
在上述任一实施例的基础上,所述基于所述增强现实显示技术,将所述虚拟形象显示于所述实时场景图像中的步骤,包括如下操作:
在实时场景图像中创建虚拟平面;在虚拟平面处生成3D空间;基于所述增强现实显示技术,在所生成的3D空间处显示目标物体的虚拟形象。
在本实施例中,在增强显示目标物体的虚拟形象时,为了保证虚拟形象在实时场景图像中的动作更加真实、立体,可在实时场景图像中创建一个虚拟的3D空间。具体的,电子设备首先在实时场景图像中创建虚拟平面,再以虚拟平面为基础,在虚拟平面之上生成3D空间,进而基于所述增强现实显示技术,将虚拟形象增强显示在该3D空间中。
在上述实施例的基础上,在所述实时场景图像中创建虚拟平面,具体可包括:
若检测到所述实时场景图像中存在目标平面区域,则基于所述目标平面区域创建所述虚拟平面,其中目标平面区域为与所述图像采集单元距离处于第一预设距离范围内和/或处于所述实时场景图像的中心区域内的平面区域;或者,在所述实时场景图像中的特定位置处创建所述虚拟平面。
在本实施例中,电子设备可通过诸如SLAM算法基于实时场景图像检测实时场景图像中包括的平面区域,判断与图像采集单元距离在第一预设范围内和/或处于实时场景图像中心区域内是否存在平面区域,若存在,可将检测到的该平面区域作为目标平面区域,进一步的,在该目标平面区域的基础上创建虚拟平面,虚拟平面可紧贴目标平面区域,或者平行于目标平面区域、且与目标平面区域保持一定的固定距离。若电子设备未检测到目标平面区域,则可在实时场景图像中特定位置处创建虚拟平面。或者电子设备不检测目标平面区域,直接在实时场景图像中特定位置处创建虚拟平面。其中实时场景图像中的特定位置可以包括实时场景图像的中心区域或右上角等区域,特定位置具体在实时场景图像的哪一位置可根据实际需求进行设置。
在上述实施例的基础上,在生成的3D空间中显示目标物体的虚拟形象时,由于3D空间可能比较大,因此需要确定具体将虚拟形象显示在3D空间的目标位置处,也即,可以首先在3D空间中确定目标位置;再基于增强现实显示技术,在3D空间的目标位置处显示目标物体的虚拟形象。
在上述实施例的基础上,在3D空间中确定目标位置,包括:
接收用户发出的位置指定指令,根据用户的位置指定指令触发的位置点,在3D空间中建立3D锚点,将所述3D锚点作为所述目标位置。
在本实施例中,用户可发出位置指定指令,电子设备在接收到用户发出的位置指定指令后,可确定用户的位置指定指令触发的位置点,基于该位置点延伸到3D空间产生交点,基于该交点在3D空间中建立3D锚点,该3D锚点即为在3D空间中显示虚拟形象的目标位置,进而电子设备将目标物体的虚拟形象在3D空间中的3D锚点处增强显示。
可选的,用户发出的位置指定指令可以为,用户对虚拟形象进行拖动操作结束指令,拖动结束指令触发的位置处(也即用户拖动结束处)为用户的位置指定指令触发的位置点;此外,位置指定指令也不限于是用户对虚拟形象的拖动操作的结束指令,也可以为用户的点击操作指令,点击操作指令触发的位置点(也即用户点击位置)为用户的位置指定指令触发的位置点。
当然电子设备也可将虚拟模型显示于实时场景图像中的任意位置,例如显示在电子设备在实时场景图像中识别到的任意平面区域。当然,电子设备还可通过其他方式确定虚拟模型的显示位置,本实施例中可不做限定。
在上述任一实施例的基础上,在根据所述目标物体图像生成所述目标物体对应的虚拟形象之后,在实时场景图像中的目标位置处增强显示所述目标物体的虚拟形象之前,还包括预放置阶段,即,可以将目标物体对应的虚拟形象悬浮于图像采集单元前方的预定位置处,在确认实时场景图像中的目标位置后,再将虚拟形象显示在目标位置处。在上述任一实施例的基础上,如图7所示,所述方法还包括:
S301、接收用户的第一触发指令,根据所述第一触发指令运行预加载的物体分割算法,以对所述实时场景图像的所述目标物体进行物体分割;
S302、接收用户的第二触发指令,根据所述第二触发指令停止所述物体分割算法的运行。
在本实施例中,在获取图像采集单元采集的实时场景图像中的目标物体图像时,针对于物体分割算法,为了避免物体分割算法长时间运行,占用电子设备的运算资源,因此可控制物体分割算法的适时运行和停止运行,当需要运行物体分割算法时,用户可发出第一触发指令,第一触发指令可以为开启图像采集单元的触发指令,也可以是在图像采集单元在采集实时场景图像的过程中、用户通过触发界面中的启动按钮时发出的触发指令。电子设备响应用户的触发指令,启动运行物体分割算法,从而开始对实时场景图像中的目标物体进行物体分割。
进一步的,当电子设备已获取实时场景图像中的目标物体图像,此时则可停止物体分割算法的运行,或者,响应于用户发出第二触发指令,电子设备根据第二触发指令停止物体分割算法的运行,例如用户关闭图像采集单元或者触发界面中的停止按钮等,或者,响应于用户发出的第一指令选择分割出的目标物体图像,电子设备根据该第一指令停止物体分割算法的运行;此处可不做限定。
例如,电子设备运行算法模块中的物体分割算法,当接收到第一触发指令(对应于触发算法运行的指令),即启动物体分割算法的运行;当接收到第二触发指令(对应于触发算法终止运行的指令),则停止物体分割算法的运行。
在一个实施例中,当用户发出第一指令选择分割出的目标物体图像后,电子设备根据第一指令已获取实时场景图像中的目标物体图像,此时则可停止物体分割算法的运行。
在一个实施例中,用户也可通过长按操作控制物体分割算法的启动,在长按操作的过程中物体分割算法持续保持运行,当长按操作停止时,可结束物体分割算法的运行。
通过采用上述方式控制物体分割算法的适时运行和停止运行,可以避免物体分割算法在电子设备中的长时间运行,并节约了电子设备的运算资源。
对应于上文实施例的基于增强现实的显示方法,图8为本公开实施例提供的基于增强现实的显示设备的结构框图。为了便于说明,仅示出了与本公开实施例相关的部分。参照图8,所述基于增强现实的显示设备80包括:目标物体确定单元801、生成单元802、及显示单元803。
目标物体确定单元801,用于对图像采集单元采集的实时场景图像中的目标物体进行物体分割,获取目标物体图像;
生成单元802,用于根根据所述目标物体图像生成所述目标物体对应的虚拟形象;
显示单元803,用于基于增强现实显示技术,将所述虚拟形象显示于所述实时场景图像中。
根据本公开的一个或多个实施例,所述生成单元802在根据所述目标物体图像生成所述目标物体对应的虚拟形象时,用于:
将所述目标物体图像与动画素材进行合成,以生成所述目标物体对应的虚拟形象,
其中,所述预设动画素材包括虚拟形象的肢体动画素材和/或表情动画素材。
根据本公开的一个或多个实施例,所述生成单元802在将所述目标物体图像与动画素材进行合成时,用于:
获取所述肢体动画素材和/或所述表情动画素材;
根据所述目标物体图像,在所述目标物体图像上确定多个连接点;
通过所述多个连接点将所述肢体动画素材和/或所述表情动画素材与所述目标物体图像进行合成,生成所述目标物体对应的虚拟形象。
根据本公开的一个或多个实施例,所述目标物体确定单元801在对图像采集单元采集的实时场景图像中的目标物体进行物体分割,获取目标物体图像时,用于:
运行物体分割算法对所述实时场景图像中的所述目标物体进行物体分割,得到所述目标物体图像的掩膜和边界框,并获取所述掩膜内部区域的纹理。
根据本公开的一个或多个实施例,所述生成单元802在通过所述多个连接点将所述肢体动画素材和/或所述表情动画素材与所述目标物体图像进行合成,生成所述目标物体对应的虚拟形象时,用于:
通过所述多个连接点将所述肢体动画素材和/或所述表情动画素材与所述掩膜内部区域的纹理进行合成,以生成所述目标物体对应的虚拟形象。
根据本公开的一个或多个实施例,所述生成单元802还用于:
根据所述边界框的尺寸,调整所述动画素材的尺寸;以及
根据所述边界框的对称轴和长宽比,调整所述目标物体图像上的多个连接点位置。
根据本公开的一个或多个实施例,所述显示单元803还用于:
播放所述动画素材,以对所述虚拟形象进行动作和/或表情控制。
根据本公开的一个或多个实施例,所述显示单元803在播放所述动画素材,以对所述虚拟形象进行动作和/或表情控制时,用于:
根据所述动画素材的预设动画帧播放所述动画素材,以对所述虚拟形象进行动作和/或表情控制;和/或
根据所述用户的肢体动作和/或表情生成并播放所述动画素材的动画帧,以对所述虚拟形象进行动作和/或表情控制。
根据本公开的一个或多个实施例,所述显示单元803在基于所述增强现实显示技术,将所述虚拟形象显示于所述实时场景图像中时,用于:
在所述实时场景图像中创建虚拟平面;
在所述虚拟平面处生成3D空间;
基于所述增强现实显示技术,在所生成的3D空间中显示所述目标物体的虚拟形象。
根据本公开的一个或多个实施例,所述显示单元803在基于所述实时场景图像中的目标平面区域创建虚拟平面时,用于:
若检测到所述实时场景图像中存在目标平面区域,则基于所述目标平面区域创建所述虚拟平面,其中目标平面区域为与所述图像采集单元距离处于第一预设距离范围内和/或处于所述实时场景图像的中心区域内的平面区域;或者
在所述实时场景图像中的特定位置处创建所述虚拟平面。
根据本公开的一个或多个实施例,所述显示单元803在基于所述增强现实显示技术,在所生成的3D空间中显示所述目标物体的虚拟形象时,用于:
在所述3D空间中确定目标位置;
基于所述增强现实显示技术,在所述3D空间的目标位置处显示所述目标物体的虚拟形象。
根据本公开的一个或多个实施例,所述显示单元803在所述3D空间中确定目标位置时,用于:
接收用户发出的位置指定指令,根据用户的位置指定指令触发的位置点,在所述3D空间中建立3D锚点,将所述3D锚点作为所述目标位置。
根据本公开的一个或多个实施例,所述目标物体确定单元801还用于:
接收用户的第一触发指令,根据所述第一触发指令运行预加载的物体分割算法,以对所述实时场景图像的所述目标物体进行物体分割;
接收用户的第二触发指令,根据所述第二触发指令停止所述物体分割算法的运行。
根据本公开的一个或多个实施例,所述显示单元在将所述虚拟形象显示于所述实时场景图像中时,用于:
将所述虚拟形象动态显示于所述实时场景图像中。
本实施例提供的基于增强现实的显示设备,可用于执行上述方法实施例的技术方案,其实现原理和技术效果类似,本实施例此处不再赘述。
参考图9,其示出了适于用来实现本公开实施例的电子设备900的结构示意图,该电子设备900可以为终端设备或服务器,并可用于执行上述方法实施例的基于增强现实显示的方法。其中,终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、个人数字助理(Personal Digital Assistant,简称PDA)、平板电脑(Portable AndroidDevice,简称PAD)、便携式多媒体播放器(Portable Media Player,简称PMP)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图9示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图9所示,电子设备900可以包括处理装置(例如中央处理器、图形处理器等)901,其可以根据存储在只读存储器(Read Only Memory,简称ROM)902中的程序或者从存储装置908加载到随机访问存储器(Random Access Memory,简称RAM)903中的程序而执行各种适当的动作和处理。在RAM 903中,还存储有电子设备900操作所需的各种程序和数据。处理装置901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
通常,以下装置可以连接至I/O接口905:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置906;包括例如液晶显示器(Liquid CrystalDisplay,简称LCD)、扬声器、振动器等的输出装置907;包括例如磁带、硬盘等的存储装置908;以及通信装置909。通信装置909可以允许电子设备900与其他设备进行无线或有线通信以交换数据。虽然图9示出了具有各种装置的电子设备900,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码,并可用于执行上述方法实施例的基于增强现实显示的方法。在这样的实施例中,该计算机程序可以通过通信装置909从网络上被下载和安装,或者从存储装置908被安装,或者从ROM 902被安装。在该计算机程序被处理装置901执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备执行上述实施例所示的方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LocalArea Network,简称LAN)或广域网(Wide Area Network,简称WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
第一方面,根据本公开的一个或多个实施例,提供了一种基于增强现实的显示方法,包括:
对图像采集单元采集的实时场景图像中的目标物体进行物体分割,获取目标物体图像;
根据所述目标物体图像生成所述目标物体对应的虚拟形象;
基于增强现实显示技术,将所述虚拟形象显示于所述实时场景图像中。
根据本公开的一个或多个实施例,所述根据所述目标物体图像生成所述目标物体对应的虚拟形象,包括:
将所述目标物体图像与动画素材进行合成,以生成所述目标物体对应的虚拟形象,
其中,所述预设动画素材包括虚拟形象的肢体动画素材和/或表情动画素材。
根据本公开的一个或多个实施例,所述将所述目标物体图像与动画素材进行合成,包括:
获取所述肢体动画素材和/或所述表情动画素材;
根据所述目标物体图像,在所述目标物体图像上确定多个连接点;
通过所述多个连接点将所述肢体动画素材和/或所述表情动画素材与所述目标物体图像进行合成,生成所述目标物体对应的虚拟形象。
根据本公开的一个或多个实施例,所述对图像采集单元采集的实时场景图像中的目标物体进行物体分割,获取目标物体图像,包括:
运行物体分割算法对所述实时场景图像中的所述目标物体进行物体分割,得到所述目标物体图像的掩膜和边界框,并获取所述掩膜内部区域的纹理。
根据本公开的一个或多个实施例,所述通过所述多个连接点将所述肢体动画素材和/或所述表情动画素材与所述目标物体图像进行合成,生成所述目标物体对应的虚拟形象,包括:
通过所述多个连接点将所述肢体动画素材和/或所述表情动画素材与所述掩膜内部区域的纹理进行合成,以生成所述目标物体对应的虚拟形象。
根据本公开的一个或多个实施例,所述方法还包括:
根据所述边界框的尺寸,调整所述动画素材的尺寸;以及
根据所述边界框的对称轴和长宽比,调整所述目标物体图像上的多个连接点位置。
根据本公开的一个或多个实施例,所述方法还包括:
播放所述动画素材,以对所述虚拟形象进行动作和/或表情控制。
根据本公开的一个或多个实施例,所述播放所述动画素材,以对所述虚拟形象进行动作和/或表情控制,包括:
根据所述动画素材的预设动画帧播放所述动画素材,以对所述虚拟形象进行动作和/或表情控制;和/或
根据所述用户的肢体动作和/或表情生成并播放所述动画素材的动画帧,以对所述虚拟形象进行动作和/或表情控制。
根据本公开的一个或多个实施例,所述基于所述增强现实显示技术,将所述虚拟形象显示于所述实时场景图像中,包括:
在所述实时场景图像中创建虚拟平面;
在所述虚拟平面处生成3D空间;
基于所述增强现实显示技术,在所生成的3D空间中显示所述目标物体的虚拟形象。
根据本公开的一个或多个实施例,所述基于所述实时场景图像中的目标平面区域创建虚拟平面,包括:
若检测到所述实时场景图像中存在目标平面区域,则基于所述目标平面区域创建所述虚拟平面,其中目标平面区域为与所述图像采集单元距离处于第一预设距离范围内和/或处于所述实时场景图像的中心区域内的平面区域;或者
在所述实时场景图像中的特定位置处创建所述虚拟平面。
根据本公开的一个或多个实施例,所述基于所述增强现实显示技术,在所生成的3D空间中显示所述目标物体的虚拟形象,包括:
在所述3D空间中确定目标位置;
基于所述增强现实显示技术,在所述3D空间的目标位置处显示所述目标物体的虚拟形象。
根据本公开的一个或多个实施例,所述在所述3D空间中确定目标位置,包括:
接收用户发出的位置指定指令,根据用户的位置指定指令触发的位置点,在所述3D空间中建立3D锚点,将所述3D锚点作为所述目标位置。
根据本公开的一个或多个实施例,所述方法还包括:
接收用户的第一触发指令,根据所述第一触发指令运行预加载的物体分割算法,以对所述实时场景图像的所述目标物体进行物体分割;
接收用户的第二触发指令,根据所述第二触发指令停止所述物体分割算法的运行。
根据本公开的一个或多个实施例,所述将所述虚拟形象显示于所述实时场景图像中,包括:
将所述虚拟形象动态显示于所述实时场景图像中。
第二方面,根据本公开的一个或多个实施例,提供了一种基于增强现实的显示设备,包括:
目标物体确定单元,用于对图像采集单元采集的实时场景图像中的目标物体进行物体分割,获取目标物体图像;
生成单元,用于根根据所述目标物体图像生成所述目标物体对应的虚拟形象;
显示单元,用于基于增强现实显示技术,将所述虚拟形象显示于所述实时场景图像中。
根据本公开的一个或多个实施例,所述生成单元在根据所述目标物体图像生成所述目标物体对应的虚拟形象时,用于:
将所述目标物体图像与动画素材进行合成,以生成所述目标物体对应的虚拟形象,
其中,所述预设动画素材包括虚拟形象的肢体动画素材和/或表情动画素材。
根据本公开的一个或多个实施例,所述生成单元在将所述目标物体图像与动画素材进行合成时,用于:
获取所述肢体动画素材和/或所述表情动画素材;
根据所述目标物体图像,在所述目标物体图像上确定多个连接点;
通过所述多个连接点将所述肢体动画素材和/或所述表情动画素材与所述目标物体图像进行合成,生成所述目标物体对应的虚拟形象。
根据本公开的一个或多个实施例,所述目标物体确定单元在对图像采集单元采集的实时场景图像中的目标物体进行物体分割,获取目标物体图像时,用于:
运行物体分割算法对所述实时场景图像中的所述目标物体进行物体分割,得到所述目标物体图像的掩膜和边界框,并获取所述掩膜内部区域的纹理。
根据本公开的一个或多个实施例,所述生成单元在通过所述多个连接点将所述肢体动画素材和/或所述表情动画素材与所述目标物体图像进行合成,生成所述目标物体对应的虚拟形象时,用于:
通过所述多个连接点将所述肢体动画素材和/或所述表情动画素材与所述掩膜内部区域的纹理进行合成,以生成所述目标物体对应的虚拟形象。
根据本公开的一个或多个实施例,所述生成单元还用于:
根据所述边界框的尺寸,调整所述动画素材的尺寸;以及
根据所述边界框的对称轴和长宽比,调整所述目标物体图像上的多个连接点位置。
根据本公开的一个或多个实施例,所述显示单元还用于:
播放所述动画素材,以对所述虚拟形象进行动作和/或表情控制。
根据本公开的一个或多个实施例,所述显示单元在播放所述动画素材,以对所述虚拟形象进行动作和/或表情控制时,用于:
根据所述动画素材的预设动画帧播放所述动画素材,以对所述虚拟形象进行动作和/或表情控制;和/或
根据所述用户的肢体动作和/或表情生成并播放所述动画素材的动画帧,以对所述虚拟形象进行动作和/或表情控制。
根据本公开的一个或多个实施例,所述显示单元在基于所述增强现实显示技术,将所述虚拟形象显示于所述实时场景图像中时,用于:
在所述实时场景图像中创建虚拟平面;
在所述虚拟平面处生成3D空间;
基于所述增强现实显示技术,在所生成的3D空间中显示所述目标物体的虚拟形象。
根据本公开的一个或多个实施例,所述显示单元在基于所述实时场景图像中的目标平面区域创建虚拟平面时,用于:
若检测到所述实时场景图像中存在目标平面区域,则基于所述目标平面区域创建所述虚拟平面,其中目标平面区域为与所述图像采集单元距离处于第一预设距离范围内和/或处于所述实时场景图像的中心区域内的平面区域;或者
在所述实时场景图像中的特定位置处创建所述虚拟平面。
根据本公开的一个或多个实施例,所述显示单元在基于所述增强现实显示技术,在所生成的3D空间中显示所述目标物体的虚拟形象时,用于:
在所述3D空间中确定目标位置;
基于所述增强现实显示技术,在所述3D空间的目标位置处显示所述目标物体的虚拟形象。
根据本公开的一个或多个实施例,所述显示单元在所述3D空间中确定目标位置时,用于:
接收用户发出的位置指定指令,根据用户的位置指定指令触发的位置点,在所述3D空间中建立3D锚点,将所述3D锚点作为所述目标位置。
根据本公开的一个或多个实施例,所述目标物体确定单元还用于:
接收用户的第一触发指令,根据所述第一触发指令运行预加载的物体分割算法,以对所述实时场景图像的所述目标物体进行物体分割;
接收用户的第二触发指令,根据所述第二触发指令停止所述物体分割算法的运行。
根据本公开的一个或多个实施例,所述显示单元在将所述虚拟形象显示于所述实时场景图像中时,用于:
将所述虚拟形象动态显示于所述实时场景图像中。
第三方面,根据本公开的一个或多个实施例,提供了一种电子设备,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如上第一方面以及第一方面各种可能的设计所述的信息显示方法。
第四方面,根据本公开的一个或多个实施例,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上第一方面以及第一方面各种可能的设计所述的信息显示方法。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
Claims (17)
1.一种基于增强现实的显示方法,其特征在于,包括:
对图像采集单元采集的实时场景图像中的目标物体进行物体分割,获取目标物体图像;
根据所述目标物体图像生成所述目标物体对应的虚拟形象;
基于增强现实显示技术,将所述虚拟形象显示于所述实时场景图像中。
2.根据权利要求1所述的方法,其特征在于,所述根据所述目标物体图像生成所述目标物体对应的虚拟形象,包括:
将所述目标物体图像与动画素材进行合成,以生成所述目标物体对应的虚拟形象,
其中,所述预设动画素材包括虚拟形象的肢体动画素材和/或表情动画素材。
3.根据权利要求2所述的方法,其特征在于,所述将所述目标物体图像与动画素材进行合成,包括:
获取所述肢体动画素材和/或所述表情动画素材;
根据所述目标物体图像,在所述目标物体图像上确定多个连接点;
通过所述多个连接点将所述肢体动画素材和/或所述表情动画素材与所述目标物体图像进行合成,生成所述目标物体对应的虚拟形象。
4.根据权利要求3所述的方法,其特征在于,所述对图像采集单元采集的实时场景图像中的目标物体进行物体分割,获取目标物体图像,包括:
运行物体分割算法对所述实时场景图像中的所述目标物体进行物体分割,得到所述目标物体图像的掩膜和边界框,并获取所述掩膜内部区域的纹理。
5.根据权利要求4所述的方法,其特征在于,所述通过所述多个连接点将所述肢体动画素材和/或所述表情动画素材与所述目标物体图像进行合成,生成所述目标物体对应的虚拟形象,包括:
通过所述多个连接点将所述肢体动画素材和/或所述表情动画素材与所述掩膜内部区域的纹理进行合成,以生成所述目标物体对应的虚拟形象。
6.根据权利要求4所述的方法,其特征在于,所述方法还包括:
根据所述边界框的尺寸,调整所述动画素材的尺寸;以及
根据所述边界框的对称轴和长宽比,调整所述目标物体图像上的多个连接点位置。
7.根据权利要求2至6中任一权利要求所述的方法,其特征在于,所述方法还包括:
播放所述动画素材,以对所述虚拟形象进行动作和/或表情控制。
8.根据权利要求7所述的方法,其特征在于,所述播放所述动画素材,以对所述虚拟形象进行动作和/或表情控制,包括:
根据所述动画素材的预设动画帧播放所述动画素材,以对所述虚拟形象进行动作和/或表情控制;和/或
根据所述用户的肢体动作和/或表情生成并播放所述动画素材的动画帧,以对所述虚拟形象进行动作和/或表情控制。
9.根据权利要求1所述的方法,其特征在于,所述基于所述增强现实显示技术,将所述虚拟形象显示于所述实时场景图像中,包括:
在所述实时场景图像中创建虚拟平面;
在所述虚拟平面处生成3D空间;
基于所述增强现实显示技术,在所生成的3D空间中显示所述目标物体的虚拟形象。
10.根据权利要求9所述的方法,其特征在于,所述基于所述实时场景图像中的目标平面区域创建虚拟平面,包括:
若检测到所述实时场景图像中存在目标平面区域,则基于所述目标平面区域创建所述虚拟平面,其中目标平面区域为与所述图像采集单元距离处于第一预设距离范围内和/或处于所述实时场景图像的中心区域内的平面区域;或者
在所述实时场景图像中的特定位置处创建所述虚拟平面。
11.根据权利要求9或10所述的方法,其特征在于,所述基于所述增强现实显示技术,在所生成的3D空间中显示所述目标物体的虚拟形象,包括:
在所述3D空间中确定目标位置;
基于所述增强现实显示技术,在所述3D空间的目标位置处显示所述目标物体的虚拟形象。
12.根据权利要求11所述的方法,其特征在于,所述在所述3D空间中确定目标位置,包括:
接收用户发出的位置指定指令,根据用户的位置指定指令触发的位置点,在所述3D空间中建立3D锚点,将所述3D锚点作为所述目标位置。
13.根据权利要求1所述的方法,其特征在于,所述方法还包括:
接收用户的第一触发指令,根据所述第一触发指令运行预加载的物体分割算法,以对所述实时场景图像的所述目标物体进行物体分割;
接收用户的第二触发指令,根据所述第二触发指令停止所述物体分割算法的运行。
14.根据权利要求1所述的方法,其特征在于,所述将所述虚拟形象显示于所述实时场景图像中,包括:
将所述虚拟形象动态显示于所述实时场景图像中。
15.一种基于增强现实的显示设备,其特征在于,包括:
目标物体确定单元,用于对图像采集单元采集的实时场景图像中的目标物体进行物体分割,获取目标物体图像;
生成单元,用于根据所述目标物体图像生成所述目标物体对应的虚拟形象;
显示单元,用于基于增强现实显示技术,将所述虚拟形象显示于所述实时场景图像中。
16.一种电子设备,其特征在于,包括:
至少一个处理器;以及
存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如权利要求1至14任一项所述的方法。
17.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如权利要求1至14任一项所述的方法。
Priority Applications (10)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010937923.5A CN112053370A (zh) | 2020-09-09 | 2020-09-09 | 基于增强现实的显示方法、设备及存储介质 |
PCT/SG2021/050508 WO2022055421A1 (zh) | 2020-09-09 | 2021-08-26 | 基于增强现实的显示方法、设备及存储介质 |
KR1020227018093A KR102590102B1 (ko) | 2020-09-09 | 2021-08-26 | 증강 현실 기반 디스플레이 방법, 장치 및 저장 매체 |
MX2022006497A MX2022006497A (es) | 2020-09-09 | 2021-08-26 | Metodo de presentacion basado en realidad aumentada, dispositivo y medio de almacenamiento. |
AU2021339341A AU2021339341B2 (en) | 2020-09-09 | 2021-08-26 | Augmented reality-based display method, device, and storage medium |
JP2022531597A JP7300563B2 (ja) | 2020-09-09 | 2021-08-26 | 拡張現実に基づいた表示方法、装置、及び記憶媒体 |
BR112022010325A BR112022010325A2 (pt) | 2020-09-09 | 2021-08-26 | Método e dispositivo de exibição com base em realidade aumentada, dispositivo eletrônico e meio de armazenamento legível por computador |
EP21867241.8A EP4050561A4 (en) | 2020-09-09 | 2021-08-26 | AUGMENTED REALITY-BASED DISPLAY METHOD, DEVICE, AND STORAGE MEDIA |
CA3159725A CA3159725A1 (en) | 2020-09-09 | 2021-08-26 | Augmented reality-based display method, device, and storage medium |
US17/695,404 US11587280B2 (en) | 2020-09-09 | 2022-03-15 | Augmented reality-based display method and device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010937923.5A CN112053370A (zh) | 2020-09-09 | 2020-09-09 | 基于增强现实的显示方法、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112053370A true CN112053370A (zh) | 2020-12-08 |
Family
ID=73611754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010937923.5A Pending CN112053370A (zh) | 2020-09-09 | 2020-09-09 | 基于增强现实的显示方法、设备及存储介质 |
Country Status (10)
Country | Link |
---|---|
US (1) | US11587280B2 (zh) |
EP (1) | EP4050561A4 (zh) |
JP (1) | JP7300563B2 (zh) |
KR (1) | KR102590102B1 (zh) |
CN (1) | CN112053370A (zh) |
AU (1) | AU2021339341B2 (zh) |
BR (1) | BR112022010325A2 (zh) |
CA (1) | CA3159725A1 (zh) |
MX (1) | MX2022006497A (zh) |
WO (1) | WO2022055421A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112672185A (zh) * | 2020-12-18 | 2021-04-16 | 脸萌有限公司 | 基于增强现实的显示方法、装置、设备及存储介质 |
CN113658302A (zh) * | 2021-08-23 | 2021-11-16 | 李帮音 | 一种三维动画数据处理方法及装置 |
CN113870439A (zh) * | 2021-09-29 | 2021-12-31 | 北京百度网讯科技有限公司 | 用于处理图像的方法、装置、设备以及存储介质 |
CN114820908A (zh) * | 2022-06-24 | 2022-07-29 | 北京百度网讯科技有限公司 | 虚拟形象生成方法、装置、电子设备和存储介质 |
WO2023051356A1 (zh) * | 2021-09-30 | 2023-04-06 | 上海商汤智能科技有限公司 | 一种虚拟对象的显示方法及装置、电子设备和存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210375023A1 (en) * | 2020-06-01 | 2021-12-02 | Nvidia Corporation | Content animation using one or more neural networks |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107067474A (zh) * | 2017-03-07 | 2017-08-18 | 深圳市吉美文化科技有限公司 | 一种增强现实处理方法及装置 |
CN109214876A (zh) * | 2017-06-29 | 2019-01-15 | 深圳市掌网科技股份有限公司 | 一种基于增强现实的试衣方法和系统 |
US20190371071A1 (en) * | 2018-06-01 | 2019-12-05 | Merge Labs, Inc. | Precise placement of and animation creation for virtual objects in an environment using a trackable three-dimensional object |
CN110716645A (zh) * | 2019-10-15 | 2020-01-21 | 北京市商汤科技开发有限公司 | 一种增强现实数据呈现方法、装置、电子设备及存储介质 |
CN110827378A (zh) * | 2019-10-31 | 2020-02-21 | 北京字节跳动网络技术有限公司 | 虚拟形象的生成方法、装置、终端及存储介质 |
CN111415422A (zh) * | 2020-04-17 | 2020-07-14 | Oppo广东移动通信有限公司 | 虚拟对象调整方法、装置、存储介质与增强现实设备 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2560145A3 (en) * | 2011-08-18 | 2017-03-15 | Layar B.V. | Methods and systems for enabling the creation of augmented reality content |
KR20130099317A (ko) * | 2012-02-29 | 2013-09-06 | 한국전자통신연구원 | 인터랙티브 증강현실 구현 시스템 및 증강현실 구현 방법 |
US10304248B2 (en) * | 2014-06-26 | 2019-05-28 | Korea Advanced Institute Of Science And Technology | Apparatus and method for providing augmented reality interaction service |
CN107004290B (zh) | 2015-01-06 | 2020-12-15 | 索尼公司 | 效果生成装置、效果生成方法以及程序 |
RU2606874C1 (ru) * | 2015-12-02 | 2017-01-10 | Виталий Витальевич Аверьянов | Способ управления устройством формирования среды дополненной реальности |
US10984610B2 (en) * | 2016-04-23 | 2021-04-20 | Devar Entertainment Limited | Method for influencing virtual objects of augmented reality |
DE102016113112A1 (de) * | 2016-07-15 | 2018-01-18 | Volkswagen Ag | Verfahren zum Betreiben eines Fahrzeuginformationssystems mit zumindest einer ersten und einer zweiten Anzeigefläche und Fahrzeuginformationssystem |
CN109427096A (zh) * | 2017-08-29 | 2019-03-05 | 深圳市掌网科技股份有限公司 | 一种基于增强现实的自动导览方法和系统 |
CN109903392B (zh) * | 2017-12-11 | 2021-12-31 | 北京京东尚科信息技术有限公司 | 增强现实方法和装置 |
CN108255304B (zh) * | 2018-01-26 | 2022-10-04 | 腾讯科技(深圳)有限公司 | 基于增强现实的视频数据处理方法、装置和存储介质 |
US10636188B2 (en) | 2018-02-09 | 2020-04-28 | Nicholas T. Hariton | Systems and methods for utilizing a living entity as a marker for augmented reality content |
CN108614638B (zh) * | 2018-04-23 | 2020-07-07 | 太平洋未来科技(深圳)有限公司 | Ar成像方法和装置 |
CN109446876B (zh) * | 2018-08-31 | 2020-11-06 | 百度在线网络技术(北京)有限公司 | 手语信息处理方法、装置、电子设备和可读存储介质 |
US11353259B2 (en) * | 2018-09-18 | 2022-06-07 | Samsung Electronics Co., Ltd. | Augmented-reality refrigerator and method of controlling thereof |
US10789453B2 (en) * | 2019-01-18 | 2020-09-29 | Snap Inc. | Face reenactment |
US10867447B2 (en) * | 2019-01-21 | 2020-12-15 | Capital One Services, Llc | Overlaying 3D augmented reality content on real-world objects using image segmentation |
KR20200092207A (ko) * | 2019-01-24 | 2020-08-03 | 삼성전자주식회사 | 전자 장치 및 이를 이용한 감정 정보에 대응하는 그래픽 오브젝트를 제공하는 방법 |
CN110412765B (zh) * | 2019-07-11 | 2021-11-16 | Oppo广东移动通信有限公司 | 增强现实图像拍摄方法、装置、存储介质及增强现实设备 |
CN110689623B (zh) * | 2019-08-20 | 2020-12-18 | 重庆特斯联智慧科技股份有限公司 | 基于增强现实显示的游客导览系统及方法 |
US11151770B2 (en) * | 2019-09-23 | 2021-10-19 | Facebook Technologies, Llc | Rendering images using declarative graphics server |
CN113436301B (zh) | 2020-03-20 | 2024-04-09 | 华为技术有限公司 | 拟人化3d模型生成的方法和装置 |
CN111640193A (zh) * | 2020-06-05 | 2020-09-08 | 浙江商汤科技开发有限公司 | 文字处理方法、装置、计算机设备及存储介质 |
CN111638797A (zh) * | 2020-06-07 | 2020-09-08 | 浙江商汤科技开发有限公司 | 一种展示控制方法及装置 |
CN111640200B (zh) * | 2020-06-10 | 2024-01-09 | 浙江商汤科技开发有限公司 | 一种ar场景特效生成的方法及装置 |
-
2020
- 2020-09-09 CN CN202010937923.5A patent/CN112053370A/zh active Pending
-
2021
- 2021-08-26 JP JP2022531597A patent/JP7300563B2/ja active Active
- 2021-08-26 KR KR1020227018093A patent/KR102590102B1/ko active IP Right Grant
- 2021-08-26 MX MX2022006497A patent/MX2022006497A/es unknown
- 2021-08-26 EP EP21867241.8A patent/EP4050561A4/en active Pending
- 2021-08-26 CA CA3159725A patent/CA3159725A1/en active Pending
- 2021-08-26 WO PCT/SG2021/050508 patent/WO2022055421A1/zh unknown
- 2021-08-26 AU AU2021339341A patent/AU2021339341B2/en active Active
- 2021-08-26 BR BR112022010325A patent/BR112022010325A2/pt unknown
-
2022
- 2022-03-15 US US17/695,404 patent/US11587280B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107067474A (zh) * | 2017-03-07 | 2017-08-18 | 深圳市吉美文化科技有限公司 | 一种增强现实处理方法及装置 |
CN109214876A (zh) * | 2017-06-29 | 2019-01-15 | 深圳市掌网科技股份有限公司 | 一种基于增强现实的试衣方法和系统 |
US20190371071A1 (en) * | 2018-06-01 | 2019-12-05 | Merge Labs, Inc. | Precise placement of and animation creation for virtual objects in an environment using a trackable three-dimensional object |
CN110716645A (zh) * | 2019-10-15 | 2020-01-21 | 北京市商汤科技开发有限公司 | 一种增强现实数据呈现方法、装置、电子设备及存储介质 |
CN110827378A (zh) * | 2019-10-31 | 2020-02-21 | 北京字节跳动网络技术有限公司 | 虚拟形象的生成方法、装置、终端及存储介质 |
CN111415422A (zh) * | 2020-04-17 | 2020-07-14 | Oppo广东移动通信有限公司 | 虚拟对象调整方法、装置、存储介质与增强现实设备 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112672185A (zh) * | 2020-12-18 | 2021-04-16 | 脸萌有限公司 | 基于增强现实的显示方法、装置、设备及存储介质 |
CN113658302A (zh) * | 2021-08-23 | 2021-11-16 | 李帮音 | 一种三维动画数据处理方法及装置 |
CN113658302B (zh) * | 2021-08-23 | 2024-04-12 | 麦应俊 | 一种三维动画数据处理方法及装置 |
CN113870439A (zh) * | 2021-09-29 | 2021-12-31 | 北京百度网讯科技有限公司 | 用于处理图像的方法、装置、设备以及存储介质 |
WO2023051356A1 (zh) * | 2021-09-30 | 2023-04-06 | 上海商汤智能科技有限公司 | 一种虚拟对象的显示方法及装置、电子设备和存储介质 |
CN114820908A (zh) * | 2022-06-24 | 2022-07-29 | 北京百度网讯科技有限公司 | 虚拟形象生成方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR20220080007A (ko) | 2022-06-14 |
AU2021339341B2 (en) | 2023-11-16 |
MX2022006497A (es) | 2022-07-27 |
CA3159725A1 (en) | 2022-03-17 |
JP7300563B2 (ja) | 2023-06-29 |
US11587280B2 (en) | 2023-02-21 |
WO2022055421A1 (zh) | 2022-03-17 |
JP2022550627A (ja) | 2022-12-02 |
US20220207811A1 (en) | 2022-06-30 |
KR102590102B1 (ko) | 2023-10-17 |
BR112022010325A2 (pt) | 2023-03-21 |
EP4050561A1 (en) | 2022-08-31 |
EP4050561A4 (en) | 2023-07-05 |
AU2021339341A1 (en) | 2022-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112053370A (zh) | 基于增强现实的显示方法、设备及存储介质 | |
CN109151540B (zh) | 视频图像的交互处理方法及装置 | |
CN112053449A (zh) | 基于增强现实的显示方法、设备及存储介质 | |
JP2024505995A (ja) | 特殊効果展示方法、装置、機器および媒体 | |
WO2022170958A1 (zh) | 基于增强现实的显示方法、设备、存储介质及程序产品 | |
CN112672185B (zh) | 基于增强现实的显示方法、装置、设备及存储介质 | |
WO2023179346A1 (zh) | 特效图像处理方法、装置、电子设备及存储介质 | |
CN112965780B (zh) | 图像显示方法、装置、设备及介质 | |
WO2023151524A1 (zh) | 图像显示方法、装置、电子设备及存储介质 | |
JP7467780B2 (ja) | 画像処理方法、装置、デバイス及び媒体 | |
CN111866372A (zh) | 自拍方法、装置、存储介质以及终端 | |
US20230267664A1 (en) | Animation processing method and apparatus, electronic device and storage medium | |
JP7427786B2 (ja) | 拡張現実に基づく表示方法、機器、記憶媒体及びプログラム製品 | |
CN116958344A (zh) | 虚拟形象的动画生成方法、装置、计算机设备及存储介质 | |
RU2801917C1 (ru) | Способ и устройство для отображения изображений на основе дополненной реальности и носитель для хранения информации | |
WO2023169089A1 (zh) | 一种视频播放方法、装置、电子设备、介质和程序产品 | |
JP2023542598A (ja) | 文字の表示方法、装置、電子機器及び記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220105 Address after: 0207, floor 2, building 4, Zijin Digital Park, Haidian District, Beijing Applicant after: Beijing zitiao Network Technology Co.,Ltd. Address before: Cayman Islands, Grand Cayman Applicant before: Face Meng Ltd. |