CN112991551A - 图像处理方法、装置、电子设备和存储介质 - Google Patents

图像处理方法、装置、电子设备和存储介质 Download PDF

Info

Publication number
CN112991551A
CN112991551A CN202110183572.8A CN202110183572A CN112991551A CN 112991551 A CN112991551 A CN 112991551A CN 202110183572 A CN202110183572 A CN 202110183572A CN 112991551 A CN112991551 A CN 112991551A
Authority
CN
China
Prior art keywords
virtual
target object
real
dimensional model
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110183572.8A
Other languages
English (en)
Inventor
李宇飞
张建博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen TetrasAI Technology Co Ltd
Original Assignee
Shenzhen TetrasAI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen TetrasAI Technology Co Ltd filed Critical Shenzhen TetrasAI Technology Co Ltd
Priority to CN202110183572.8A priority Critical patent/CN112991551A/zh
Publication of CN112991551A publication Critical patent/CN112991551A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请提供了一种图像处理方法及装置、电子设备及存储介质,其中,首先从获取的现实场景图像中识别现实目标对象,并获取与现实目标对象对应的第一虚拟三维模型;之后根据现实场景图像,确定待展示的虚拟目标对象,并确定现实目标对象对应的第一虚拟三维模型与虚拟目标对象在待展示的AR场景中的相对位姿关系;最后将第一虚拟三维模型和虚拟目标对象按照相对位姿关系展示在包含现实目标对象的AR场景中。本申请基于相对位姿关系来自展示虚拟目标对象和现实目标对象,能够实现对位于现实目标对象后方的虚拟目标对象的遮挡,克服了现有技术中现实对象无法遮挡位于现实对象后方的虚拟对象的缺陷。

Description

图像处理方法、装置、电子设备和存储介质
技术领域
本申请涉及图像处理术领域,具体而言,涉及一种图像处理方法及装置、电子设备及存储介质。
背景技术
增强现实(Augmented Reality,AR)技术是一种将虚拟信息与真实世界巧妙融合的技术,其将原本在真实世界的空间范围中比较难以进行体验的信息在电脑等科学技术的基础上,实施模拟仿真处理,形成虚拟信息,叠加在真实世界中,被人类感官所感知,从而实现超越现实的感官体验。
AR场景中,真实环境和虚拟对象之间叠加之后在同一个画面以及空间中存在。目前AR场景展示中,存在虚拟对象均展示在真实环境中的现实对象前方的状况,造成现实对象无法遮挡本就位于现实对象后方的挡虚拟对象。
发明内容
本申请实施例至少提供一种图像处理方法、装置,以在AR场景中展示现实对象与虚拟对象相互遮挡的遮挡效果。
本申请实施例提供了一种图像处理方法,包括:
获取现实场景图像;
识别所述现实场景图像中的现实目标对象,并获取与所述现实目标对象对应的第一虚拟三维模型;
确定虚拟目标对象,并确定所述现实目标对象对应的第一虚拟三维模型与所述虚拟目标对象在增强现实AR场景中的相对位姿关系;
将所述第一虚拟三维模型和所述虚拟目标对象按照所述相对位姿关系展示在包含所述现实目标对象的AR场景中。
该方面,利用现实目标对象对应的第一虚拟三维模型与虚拟目标对象在AR场景中的相对位姿关系,在AR场景中展示现实目标对象和虚拟目标对象,能够对位于现实目标对象后方的虚拟目标对象进行遮挡,克服了现有技术中现实对象无法遮挡位于现实对象后方的虚拟对象的缺陷。
在一种可能的实施方式中,所述第一虚拟三维模型的展示状态为透明态。
该实施方式,将现实目标对象对应的虚拟三维模型设置为透明状,该第一虚拟三维模型就能够更好的遮挡位于现实目标对象后方的虚拟目标对象,同时不影响位于第一虚拟三维模型所在图层的前方图层上对象的展示,而该第一虚拟三维模型又不在AR场景中显示,对AR场景中的图像显示不造成影响。
在一种可能的实施方式中,所述获取与所述现实目标对象对应的第一虚拟三维模型,包括:
获取预制地图;所述预制地图包括预设地理范围内的多个对象的图像以及每个对象的对象标识信息;
将所述现实场景图像中现实目标对象的图像与和所述预制地图中的所述多个对象中每个对象的图像进行匹配,得到与所述现实目标对象相匹配的目标匹配对象;
将所述目标匹配对象的对象标识信息作为所述现实目标对象的对象标识信息,并基于所述对象标识信息,获取预先设置的所述现实目标对象的第一虚拟三维模型。
该实施方式,利用预制地图能够实现现实目标对象的高精度定位,从而能够准确的找到现实目标对象的对象标识信息,提高获取第一虚拟三维模型的准确度。
在一种可能的实施方式中,所述确定虚拟目标对象,包括:
基于所述现实场景图像,确定拍摄所述现实场景图像的拍摄设备的位姿信息,
基于所述拍摄设备的位姿信息,确定处于所述拍摄设备的拍摄视野中的虚拟目标对象。
该实施方式,通过现实场景图像能够实现拍摄设备的高精度定位,基于拍摄设备高精度的定位信息,即上述位姿信息,能够较为准确地确定位于拍摄设备的拍摄视野范围内的待展示的虚拟目标对象。
在一种可能的实施方式中,上述图像处理方法还包括设置所述第一虚拟三维模型的步骤:
获取所述现实目标对象在现实场景中的位姿信息;
基于所述现实目标对象在现实场景中的位姿信息,确定所述现实目标对象在AR场景中的位姿信息;
基于所述现实目标对象在AR场景中的位姿信息,生成所述现实目标对象在所述AR场景中的第一虚拟三维模型。
该实施方式,通过位姿信息在现实场景与AR场景之间进行转换,生成了现实目标对象在AR场景中进行展示所依赖的虚拟三维模型,从而能够将现实目标对象准确地展示在AR场景中。
在一种可能的实施方式中,所述确定所述现实目标对象对应的第一虚拟三维模型与所述虚拟目标对象在增强现实AR场景中的相对位姿关系,包括:
获取所述虚拟目标对象对应的第二虚拟三维模型;
基于所述第一虚拟三维模型在AR场景中的位姿信息,和所述第二虚拟三维模型在所述AR场景中的位姿信息,确定所述现实目标对象对应的第一虚拟三维模型与所述虚拟目标对象在增强现实AR场景中的相对位姿关系。
该实施方式,基于第一虚拟三维模型在AR场景中的位姿信息,和第二虚拟三维模型在所述AR场景中的位姿信息,能够较为准确地确定两者之间的相对位姿关系。
在一种可能的实施方式中,所述将所述第一虚拟三维模型和所述虚拟目标对象按照所述相对位姿关系展示在包含所述现实目标对象的AR场景中,包括:
基于所述相对位姿关系,判断所述虚拟目标对象是否被所述现实目标对象遮挡;
在所述虚拟目标对象被所述现实目标对象遮挡的情况下,基于所述相对位姿关系,确定所述虚拟目标对象被所述第一虚拟三维模型所遮挡对应的遮挡信息;
基于所述遮挡信息,展示虚拟目标对象的未被遮挡的部分。
该实施方式,基于相对位姿关系,能够准确地确定两者是否发生了遮挡,并能够在发生遮挡时,显示未被遮挡的虚拟目标对象,提高了遮挡效果显示的准确性。
在一种可能的实施方式中,上述图像处理方法还包括:
获取所述虚拟目标对象在所述AR场景中的运动状态信息;
基于所述第一虚拟三维模型在AR场景中的位姿信息、所述虚拟目标对象在所述AR场景中的位姿信息和所述运动状态信息,确定碰撞状态信息;
若所述碰撞状态信息指示所述现实目标对象与所述虚拟目标对象发生碰撞,则基于所述碰撞状态信息,获取预制的所述虚拟目标对象在碰撞状态下的第三虚拟三维模型;
基于所述第三虚拟三维模型,在所述AR场景中呈现的碰撞后的虚拟目标对象。
该实施方式,利用虚拟目标对象的运动状态信息,能够确定现实目标对象和虚拟目标对象的碰撞状态,从而能够获取两者碰撞后的第三虚拟三维模型,以在AR场景中展示碰撞后的虚拟目标对象的图像。
在一种可能的实施方式中,所述基于所述第三虚拟三维模型,在所述AR场景中呈现的碰撞后的虚拟目标对象,包括:
获取预制的所述现实目标对象在碰撞状态下的第四虚拟三维模型;
基于所述第四虚拟三维模型和所述第三虚拟三维模型,在所述AR场景中呈现的碰撞后的现实目标对象和虚拟目标对象。
该实施方式,利用碰撞状态下的第四虚拟三维模型和第三虚拟三维模型,能够在AR场景中更准确得展示碰撞后的虚拟目标对象的图像和现实目标对象的图像,进一步提高了碰撞画面展示的准确性。
在一种可能的实施方式中,所述第四虚拟三维模型和所述第三虚拟三维模型的展示状态均为非透明态,并且所述第四虚拟三维模型和所述第三虚拟三维模型位于同一图层,所述第四虚拟三维模型的图层位于AR场景中对应的现实目标对象的图像所在的图层的前方。
该实施方式,通过对第四虚拟三维模型和所述第三虚拟三维模型的展示状态以及图层的限制,进一步提高了碰撞画面展示的真实性和准确性。
在一种可能的实施方式中,所述基于所述碰撞状态信息,获取预制的所述虚拟目标对象在碰撞状态下的第三虚拟三维模型,包括:
基于所述碰撞状态信息,确定碰撞位置和/或碰撞力度;
获取所述虚拟目标对象的、与所述碰撞位置和/或碰撞力度相匹配的所述第三虚拟三维模型。
该实施方式,利用虚拟目标对象的碰撞状态信息,确定碰撞位置和碰撞力度,从而能够在AR场景中准确的展示两者碰撞后的状态,进一步提高了碰撞画面展示的真实性和准确性。
本申请提供了一种图像处理装置,包括:
图像获取模块,用于获取现实场景图像;
对象识别模块,用于识别所述现实场景图像中的现实目标对象,并获取与所述现实目标对象对应的第一虚拟三维模型;
位姿处理模块,用于确定虚拟目标对象,并确定所述第一虚拟三维模型与所述虚拟目标对象在增强现实AR场景中的相对位姿关系;
图像显示模块,用于将所述第一虚拟三维模型和所述虚拟目标对象按照所述相对位姿关系展示在包含所述现实目标对象的AR场景中。
本申请实施例提供了一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如第二方面所述的图像处理方法的步骤。
本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如第二方面所述的图像处理方法的步骤。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本申请的实施例,并与说明书一起用于说明本申请的技术方案。应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本申请实施例所提供的图像处理方法的流程图;
图2示出了本申请实施例所提供的图像处理方法中显示碰撞状态的流程图;
图3示出了本申请实施例所提供的图像处理装置的结构示意图;
图4示出了本申请实施例所提供的虚拟目标对象被现实目标对象遮挡的示意图;
图5示出了本申请实施例所提供的虚拟目标对象与现实目标对象发生碰撞的示意图;
图6示出了本申请实施例所提供的电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
本文中术语“和/或”,仅仅是描述一种关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
在AR图像展示中,客户端视觉定位成功后,AR场景中的现实对象与虚拟对象间形成碰撞或遮挡的效果。比如在AR场景中,处于现实对象后方的虚拟对象应该被现实对象所遮挡。目前无法在AR场景中对虚拟对象进行遮挡,处于现实对象后方的虚拟物体也能被看到,造成AR场景的失真。
针对上述缺陷,本申请公开了一种图像处理方法及装置、电子设备及存储介质,其中,本申请首先从获取的现实场景图像中识别现实目标对象,并获取与现实目标对象对应的第一虚拟三维模型;之后根据现实场景图像,确定待展示的虚拟目标对象,并确定现实目标对象对应的第一虚拟三维模型与虚拟目标对象在待展示的AR场景中的相对位姿关系;最后将第一虚拟三维模型和虚拟目标对象按照相对位姿关系展示在包含现实目标对象的AR场景中。本申请基于相对位姿关系来自展示虚拟目标对象和现实目标对象,能够实现对位于现实目标对象后方的虚拟目标对象被的遮挡,克服了现有技术中现实目标对象无法遮挡位于现实目标对象后方的虚拟目标对象的缺陷。
下面通过具体的实施例,对本申请公开的图像处理方法、装置、电子设备及存储介质进行说明。
如图1所示,本申请实施例公开了一种图像处理方法,该方法可以应用于AR设备,用于展示虚拟目标对象、现实目标对象之间相互遮挡的图像。具体地,该图像处理方法包括如下步骤:
S110、获取现实场景图像。
这里,可以利用A R设备自身的摄像头拍摄得到现实场景图像,也可以是AR设备从其他拍摄设备处获取得到现实场景图像。
现实场景图像中包括拍摄该图像的设备的视野范围内的所有现实对象。上述现实对象可以是建筑物等物体。
S120、识别所述现实场景图像中的现实目标对象,并获取与所述现实目标对象对应的第一虚拟三维模型。
这里,在得到包括一个或多个现实对象的现实场景图像之后,可以利用图像识别技术对其进行识别,得到现实场景图像中现实对象以及现实对象的对象标识信息。之后,基于对象标识信息,获取预先设置的现实对象的第一虚拟三维模型。在执行此步骤之前,预先为现实场景中的各个现实对象设置了虚拟三维模型,以基于虚拟三维模型在AR场景中渲染并显示对应的现实对象。在为各个现实对象设置了虚拟三维模型之后,将现实对象的对象标识信息以及其对应的虚拟三维模型建立映射关系,基于该映射关系可以确定与对象标识信息对应的虚拟三维模型。
在具体实施时,可以利用如下步骤识别上述对象标识信息:将所述现实场景图像中现实对象的图像与和所述预制地图中的各个对象的图像进行匹配,得到与现实对象相匹配的目标匹配对象,目标匹配对象即为预制地图中的现实对象。其中,预制地图包括预设地理范围内的多个对象的图像以及每个对象的对象标识信息。之后利用匹配得到的目标匹配对象,能够获取到现实对象的对象标识信息。
利用预制地图能够实现现实目标对象的高精度定位,从而能够准确的找到现实目标对象的对象标识信息,获取到高准确度的第一虚拟三维模型,以提高AR场景中显示的现实目标对象的准确度,以及提高AR场景中所显示的现实目标对象与虚拟目标对象相互遮挡的准确度。
S130、确定虚拟目标对象,并确定所述现实目标对象对应的第一虚拟三维模型与所述虚拟目标对象在增强现实AR场景中的相对位姿关系。
这里,虚拟目标对象是预先设置好的,在执行此步骤之前,已经设置有各个虚拟目标对象在AR场景中的位姿信息和样貌信息。在执行此步骤的时候,只需要从设置好的多个虚拟对象中,选择位于AR设备的视野范围内的或需要显示在AR场景中的虚拟目标对象即可。
在具体实施时,可以基于现实场景图像进行视觉定位,确定拍摄该现实场景图像的设备的位姿信息,之后基于该设备的位姿信息,确定处于该设备的拍摄视野中的虚拟对象,得到所述待展示的虚拟目标对象。
通过现实场景图像能够实现拍摄现实场景图像的设备的高精度定位,基于该高精度的定位信息,及上述位姿信息,能够较为准确地确定位于拍摄设备的拍摄视野范围内的待展示的虚拟目标对象。
上述第一虚拟三维模型与所述虚拟目标对象在待展示的AR场景中的相对位姿关系对应于,第一虚拟三维模型与目标虚拟模型相互遮挡后,虚拟目标对象在AR场景中的显示状态。基于该相对位姿关系,能够在AR场景中显示虚拟目标对象被第一虚拟三维模型、即现实目标对象遮挡后的显示状态。
此步骤中,将现实目标对象对应的第一虚拟三维模型可以设置为透明态,之后按照上述相对位姿关系在AR场景中展示虚拟目标对象和现实目标对象,这样该第一虚拟三维模型就能够更好的遮挡位于现实目标对象后方的虚拟目标对象,同时不影响位于第一虚拟三维模型所在图层的前方图层上对象的展示,而该第一虚拟三维模型又不在AR场景中显示,对AR场景中的图像显示不造成影响。现实目标对象按照该第一虚拟三维模型在AR场景中进行渲染,或者,现实目标对象以背景的方式显示在AR场景中。如图4所示,利用本申请的图像处理方法,虚拟目标对象恐龙41被现实目标对象建筑物42部分遮挡。这里,透明状态显示的第一虚拟三维模型不会对以背景方式显示的现实目标对象的显示状态造成影响,其只会遮挡位于现实目标对象后方的虚拟目标对象。
步骤120识别了现实场景图像中的现实目标对象,并获取到了现实目标对象对应的第一虚拟三维模型,步骤130中进行了拍摄设备的视觉定位,并据此确定了待显示的虚拟目标对象,在具体实施时,还可以按照其他的顺序来实现上述步骤,例如可以是,先进行拍摄设备的视觉定位,确定待显示的虚拟目标对象;之后,识别现实场景图像中的现实目标对象,获取并加载现实目标对象对应的第一虚拟三维模型。在识别到现实目标对象之后,可以在AR场景中渲染并显示现实目标对象。
S140、将所述第一虚拟三维模型和所述虚拟目标对象按照所述相对位姿关系展示在包含所述现实目标对象的AR场景中。
这里,利用相对位姿关系能够在AR场景中显示现实目标对象与虚拟目标对象相互遮挡后,虚拟目标对象的位姿信息或状态。具体地,AR场景中在虚拟目标对象部分被现实目标对象遮挡时,显示虚拟目标对象未被遮挡部分的位姿信息或状态。另外,在虚拟目标对象没有被现实目标对象遮挡时,显示虚拟目标对象的全部位姿信息或状态。
另外,AR场景中还显示有现实目标对象的全部或部分:具体地,AR场景中在现实目标对象没有被虚拟目标对象遮挡时,显示现实目标对象的全部位姿信息或状态,在现实目标对象部分被虚拟目标对象遮挡时,显示现实目标对象未被遮挡部分的位姿信息或状态。
通过上面的陈述可知,第一虚拟三维模型时预先设置好的,在具体实施时,可以利用如下步骤实现:
步骤一、获取所述现实目标对象在现实场景中的位姿信息。
这里,具体可以利用如下步骤获取位姿信息:
对现实目标对象进行图像识别,得到现实目标对象的对象标识信息;利用对象标识信息,获取与对象标识信息对应的位姿信息。
上述获取位姿信息的方法需要将现实目标对象的位姿信息预先进行存储,并与对象标识信息建立映射关系。
当然也可以利用其他方法得到现实目标对象在现实场景中的位姿信息,例如可以是在进行视觉定位后,基于拍摄现实场景图像的设备的位姿信息,和现实目标对象在现实场景图像中的位姿信息来确定。
步骤二、基于所述现实目标对象在现实场景中的位姿信息,确定所述现实目标对象在AR场景中的位姿信息。
这里可以利用现实场景对应的坐标系与AR场景对应的坐标系之间的变换关系,将现实目标对象在现实场景中的位姿信息,转换为所述现实目标对象在AR场景中的位姿信息。
步骤三、基于所述现实目标对象在AR场景中的位姿信息,生成所述现实目标对象在所述AR场景中的第一虚拟三维模型。
这里,基于现实目标对象上各个像素点在AR场景中的位姿信息,能够生成现实目标对象对应的第一虚拟三维模型。
上述实施例,通过位姿信息在现实场景与AR场景之间进行转换,生成了现实目标对象在AR场景中进行展示所依赖的虚拟三维模型,从而能够将现实目标对象展示在AR场景中。
在一些实施例中,上述确定所述现实目标对象对应的第一虚拟三维模型与所述虚拟目标对象在增强现实AR场景中的相对位姿关系,具体可以利用如下步骤实现:
步骤一、获取所述虚拟目标对象对应的第二虚拟三维模型。
AR场景中的虚拟目标对象是预先设置好的,其在AR场景中显示所依赖的虚拟三维模型也是预先设置好的,因此,在确定了虚拟目标对象之后,可以获取到预先存储的第二虚拟三维模型。该第二虚拟三维模型使根据对应的虚拟目标对象的在AR场景中的位姿信息以及样貌信息等生成的,其不是透明的。
步骤二、基于所述第一虚拟三维模型在AR场景中的位姿信息,和所述第二虚拟三维模型在所述AR场景中的位姿信息,确定所述现实目标对象对应的第一虚拟三维模型与所述虚拟目标对象在增强现实AR场景中的相对位姿关系。
基于第一虚拟三维模型在AR场景中的位姿信息,和第二虚拟三维模型在AR场景中的位姿信息,能够准确地确定两者之间的相对位姿关系。
在一些实施例中,上述将所述第一虚拟三维模型和所述虚拟目标对象按照所述相对位姿关系展示在包含所述现实目标对象的AR场景中,具体可以包括如下步骤:
首先,基于所述相对位姿关系,判断所述虚拟目标对象是否被所述现实目标对象遮挡;其次,在所述虚拟目标对象被所述现实目标对象遮挡的情况下,基于所述相对位姿关系,确定所述虚拟目标对象被所述第一虚拟三维模型所遮挡对应的遮挡信息;最后,基于所述遮挡信息,展示虚拟目标对象的未被遮挡的部分。
上述,若基于相对位姿关系,确定虚拟目标对象部分或全部位于现实目标对象的后方,则确定虚拟目标对象被所述现实目标对象遮挡。
基于所述相对位姿关系,能够确定虚拟目标对象被现实目标对象所遮挡的部分的位姿信息,在具体实施时,可以将该被遮挡部分的位姿信息作为遮挡信息。
在确定了虚拟目标对象被遮挡部分的位姿信息之后,可以结合虚拟目标对象整体的位姿信息,确定虚拟目标对象未被遮挡部分的位姿信息,之后,基于未被遮挡部分的位姿信息可以展示虚拟目标对象的未被遮挡的部分。
另外,基于所述相对位姿关系,可以直接确定虚拟目标对象未被现实目标对象所遮挡的部分的位姿信息,基于该未被遮挡部分的位姿信息可以展示虚拟目标对象的未被遮挡的部分。
上述实施例基于相对位姿关系,能够准确地确定两者是否发生了遮挡,并能够在发生遮挡时,显示未被遮挡的虚拟目标对象,提高了遮挡效果显示的准确性。
虚拟目标对象在AR场景中还可以是运动的,在虚拟目标对象运动的过程中,可能与现实目标对象发生碰撞,此时,需要在AR场景中展示碰撞之后虚拟目标对象与现实目标对象的状态。在具体实施时,如图2所示,可以利用如下步骤实现AR场景中碰撞显示:
S210、获取所述虚拟目标对象在所述AR场景中的运动状态信息。
这里,运行状态信息可以包括虚拟目标对象的运动方向、运动速度等信息。基于该运动状态信息能够确定虚拟目标对象是否发生碰撞,以及何时发生碰撞。
S220、基于所述第一虚拟三维模型在AR场景中的位姿信息、所述虚拟目标对象在所述AR场景中的位姿信息和所述运动状态信息,确定碰撞状态信息。
这里,基于运动状态信息可以更新虚拟目标对象在AR场景中的位姿信息,在虚拟目标对象在AR场景中的位姿信息与现实目标对象在AR场景中的位姿信息发生重叠时,确定虚拟目标对象与现实目标对象发生了碰撞,并能够确定发生碰撞的碰撞位置。根据虚拟目标对象的运动速度,还可以确定虚拟目标对象与现实目标对象的碰撞力度。上述碰撞位置和碰撞力度可以作为碰撞状态信息。
S230、若所述碰撞状态信息指示所述现实目标对象与所述虚拟目标对象发生碰撞,则基于所述碰撞状态信息,获取预制的所述虚拟目标对象在碰撞状态下的第三虚拟三维模型。
此步骤具体可以是,基于所述碰撞位置和/或碰撞力度,获取所述虚拟目标对象对应的所述第三虚拟三维模型。
上述第三虚拟三维模型均是预先设置好的,不同的碰撞位置、不同的碰撞力度对应的不同的第三虚拟三维模型。一个第三虚拟三维模型也对应一个碰撞位置和一个碰撞力度。第三虚拟三维模型与碰撞位置和碰撞力度预设有映射关系,利用该映射关系能够筛选掉与碰撞位置和碰撞力度相对应的第三虚拟三维模型。
基于第三虚拟三维模型可以在AR场景中渲染碰撞后的虚拟目标对象。
通过上述描述可知,利用虚拟目标对象的运动状态信息,确定碰撞位置和碰撞力度,从而能够在AR场景中准确的展示两者碰撞后的状态。
S240、基于所述第三虚拟三维模型,在所述AR场景中呈现的碰撞后的虚拟目标对象。
在碰撞发生时,现实目标对象也可能发生变化,此时为了进一步提高了碰撞画面的真实性和准确性,在AR场景中需要展示现实目标对象碰撞后的图像,具体可以利用如下步骤实现:
获取预制的所述现实目标对象在碰撞状态下的第四虚拟三维模型;基于所述第四虚拟三维模型和所述第三虚拟三维模型,在所述AR场景中呈现的碰撞后的现实目标对象和虚拟目标对象。
上述第四虚拟三维模型均是预先设置好的,不同的碰撞位置、不同的碰撞力度对应的不同的第四虚拟三维模型。一个第四虚拟三维模型也对应一个碰撞位置和一个碰撞力度。第四虚拟三维模型与碰撞位置和碰撞力度预设有映射关系,利用该映射关系能够筛选掉与碰撞位置和碰撞力度相对应的第四虚拟三维模型。
上述第四虚拟三维模型和第三虚拟三维模型的展示状态均为非透明态,并且所述第四虚拟三维模型和所述第三虚拟三维模型位于同一图层,所述第四虚拟三维模型的图层位于AR场景中对应的现实目标对象的图像所在的图层的前方。通过对第四虚拟三维模型和所述第三虚拟三维模型的展示状态以及图层的限制,进一步提高了碰撞画面展示的真实性和准确性。
上述实施例,基于第四虚拟三维模型和第三虚拟三维模型可以在AR场景中渲染碰撞后的虚拟目标对象和现实目标对象,进一步提高了碰撞画面展示的准确性。
当然,也可以是现实目标对象发生运动,此时根据所述第一虚拟三维模型在AR场景中的位姿信息、现实目标对象的运动状态信息和所述虚拟目标对象在所述AR场景中的位姿信息,确定碰撞状态信息;之后基于碰撞状态信息获取现实目标对象对应的虚拟三维模型和虚拟目标对象对应的虚拟三维模型,并利用获取的虚拟三维模型在AR场景中展示两者碰撞后的状态即可。如图5所示,现实目标对象汽车51在行驶过程中与虚拟目标对象水52发生碰撞,碰撞后的状态如图5所示,真实的在AR场景中展示了虚拟对象和现实对象碰撞后的状态,实现了虚拟和现实的结合。
以上实施例预先对现实目标对象进行建模,得到对应的第一虚拟三维模型;之后使用AR设备(手机等)在基于高精度地图的AR导览应用中进行视觉定位,视觉定位成功后识别到现实目标对象进入AR设备的视野内,AR设备获取、加载第一虚拟三维模型,并在AR场景中显示虚拟对象,能够实现现实对象对虚拟对象的碰撞、遮挡效果,且画面不失真。
对应于上述图像处理方法,本申请还公开了一种图像处理装置,应用于AR设备等,该装置中的各个模块能够实现上述各个实施例的图像处理方法中的每个步骤,并且能够取得相同的有益效果,因此,对于相同的部分这里不再进行赘述。具体地,如图3所示,图像处理装置包括:
图像获取模块310,用于获取现实场景图像。
对象识别模块320,用于识别所述现实场景图像中的现实目标对象,并获取与所述现实目标对象对应的第一虚拟三维模型。
位姿处理模块330,用于确定虚拟目标对象,并确定所述现实目标对象对应的第一虚拟三维模型与所述虚拟目标对象在增强现实AR场景中的相对位姿关系。
图像显示模块340,用于将所述第一虚拟三维模型和所述虚拟目标对象按照所述相对位姿关系展示在包含所述现实目标对象的AR场景中。
在一些实施例中,所述第一虚拟三维模型的展示状态为透明态。
在一些实施例中,所述对象识别模块320在获取与所述现实目标对象对应的第一虚拟三维模型时,用于:
获取预制地图;所述预制地图包括预设地理范围内的多个对象的图像以及每个对象的对象标识信息;
将所述现实场景图像中现实目标对象的图像与和所述预制地图中的所述多个对象中每个对象的图像进行匹配,得到与所述现实目标对象相匹配的目标匹配对象;
将所述目标匹配对象的对象标识信息作为所述现实目标对象的对象标识信息,并基于所述对象标识信息,获取预先设置的所述现实目标对象的第一虚拟三维模型。
在一些实施例中,所述位姿处理模块330在确定虚拟目标对象时,用于:
基于所述现实场景图像,确定拍摄所述现实场景图像的拍摄设备的位姿信息,
基于所述拍摄设备的位姿信息,确定处于所述拍摄设备的拍摄视野中的虚拟目标对象。
在一些实施例中,还包括用于设置所述第一虚拟三维模型的模型设置模块350,所述模型设置模块350用于:
获取所述现实目标对象在现实场景中的位姿信息;
基于所述现实目标对象在现实场景中的位姿信息,确定所述现实目标对象在AR场景中的位姿信息;
基于所述现实目标对象在AR场景中的位姿信息,生成所述现实目标对象在所述AR场景中的第一虚拟三维模型。
在一些实施例中,所述位姿处理模块330在确定所述现实目标对象对应的第一虚拟三维模型与所述虚拟目标对象在增强现实AR场景中的相对位姿关系时,用于:
获取所述虚拟目标对象对应的第二虚拟三维模型;
基于所述第一虚拟三维模型在AR场景中的位姿信息,和所述第二虚拟三维模型在所述AR场景中的位姿信息,确定所述现实目标对象对应的第一虚拟三维模型与所述虚拟目标对象在增强现实AR场景中的相对位姿关系。
在一些实施例中,所述图像显示模块340在将所述第一虚拟三维模型和所述虚拟目标对象按照所述相对位姿关系展示在包含所述现实目标对象的AR场景中时,用于:
基于所述相对位姿关系,判断所述虚拟目标对象是否被所述现实目标对象遮挡;
在所述虚拟目标对象被所述现实目标对象遮挡的情况下,基于所述相对位姿关系,确定所述虚拟目标对象被所述第一虚拟三维模型所遮挡对应的遮挡信息;
基于所述遮挡信息,展示虚拟目标对象的未被遮挡的部分。
在一些实施例中,所述对象识别模块320还用于:
获取所述虚拟目标对象在所述AR场景中的运动状态信息;
基于所述第一虚拟三维模型在AR场景中的位姿信息、所述虚拟目标对象在所述AR场景中的位姿信息和所述运动状态信息,确定碰撞状态信息;
若所述碰撞状态信息指示所述现实目标对象与所述虚拟目标对象发生碰撞,则基于所述碰撞状态信息,获取预制的所述虚拟目标对象在碰撞状态下的第三虚拟三维模型;
所述图像显示模块340还用于基于所述第三虚拟三维模型,在所述AR场景中呈现的碰撞后的虚拟目标对象。
在一些实施例中,所述对象识别模块320还用于:获取预制的所述现实目标对象在碰撞状态下的第四虚拟三维模型;
所述图像显示模块340还用于基于所述第四虚拟三维模型和所述第三虚拟三维模型,在所述AR场景中呈现的碰撞后的现实目标对象和虚拟目标对象。
在一些实施例中,所述第四虚拟三维模型和所述第三虚拟三维模型的展示状态均为非透明态,并且所述第四虚拟三维模型和所述第三虚拟三维模型位于同一图层,所述第四虚拟三维模型的图层位于AR场景中对应的现实目标对象的图像所在的图层的前方。
在一些实施例中,所述对象识别模块320在基于所述碰撞状态信息,获取预制的所述虚拟目标对象在碰撞状态下的第三虚拟三维模型时,用于:
基于所述碰撞状态信息,确定碰撞位置和/或碰撞力度;
获取所述虚拟目标对象的、与所述碰撞位置和/或碰撞力度相匹配的所述第三虚拟三维模型。
对应于上述图像处理方法,本申请实施例还提供了一种电子设备600,如图6所示,为本申请实施例提供的电子设备600结构示意图,包括:
处理器61、存储器62、和总线63;存储器62用于存储执行指令,包括内存621和外部存储器622;这里的内存621也称内存储器,用于暂时存放处理器61中的运算数据,以及与硬盘等外部存储器622交换的数据,处理器61通过内存621与外部存储器622进行数据交换,当电子设备600运行时,处理器61与存储器62之间通过总线63通信,使得处理器61执行以下指令:获取现实场景图像;识别所述现实场景图像中的现实目标对象,并获取与所述现实目标对象对应的第一虚拟三维模型;确定虚拟目标对象,并确定所述现实目标对象对应的第一虚拟三维模型与所述虚拟目标对象在增强现实AR场景中的相对位姿关系;将所述第一虚拟三维模型和所述虚拟目标对象按照所述相对位姿关系展示在包含所述现实目标对象的AR场景中。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述图像处理方法的步骤。其中,该存储介质可以是易失性或非易失的计算机可读取存储介质。
本申请实施例所提供的多用户集合的方法的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行上述方法实施例中所述的图像处理方法的步骤,具体可参见上述方法实施例,在此不再赘述。
本申请实施例还提供一种计算机程序,该计算机程序被处理器执行时实现前述实施例的任意一种方法。该计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software DevelopmentKit,SDK)等等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本申请的具体实施方式,用以说明本申请的技术方案,而非对其限制,本申请的保护范围并不局限于此,尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本申请实施例技术方案的精神和范围,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。

Claims (14)

1.一种图像处理方法,其特征在于,包括:
获取现实场景图像;
识别所述现实场景图像中的现实目标对象,并获取与所述现实目标对象对应的第一虚拟三维模型;
确定虚拟目标对象,并确定所述第一虚拟三维模型与所述虚拟目标对象在增强现实AR场景中的相对位姿关系;
将所述第一虚拟三维模型和所述虚拟目标对象按照所述相对位姿关系展示在包含所述现实目标对象的AR场景中。
2.根据权利要求1所述的图像处理方法,其特征在于,所述第一虚拟三维模型的展示状态为透明态。
3.根据权利要求1所述的图像处理方法,其特征在于,所述获取与所述现实目标对象对应的第一虚拟三维模型,包括:
获取预制地图;所述预制地图包括预设地理范围内的多个对象的图像以及每个对象的对象标识信息;
将所述现实场景图像中现实目标对象的图像与和所述预制地图中的所述多个对象中每个对象的图像进行匹配,得到与所述现实目标对象相匹配的目标匹配对象;
将所述目标匹配对象的对象标识信息作为所述现实目标对象的对象标识信息,并基于所述对象标识信息,获取预先设置的所述现实目标对象的第一虚拟三维模型。
4.根据权利要求1所述的图像处理方法,其特征在于,所述确定虚拟目标对象,包括:
基于所述现实场景图像,确定拍摄所述现实场景图像的拍摄设备的位姿信息,
基于所述拍摄设备的位姿信息,确定处于所述拍摄设备的拍摄视野中的虚拟目标对象。
5.根据权利要求1至4任一项所述的图像处理方法,其特征在于,还包括设置所述第一虚拟三维模型的步骤:
获取所述现实目标对象在现实场景中的位姿信息;
基于所述现实目标对象在现实场景中的位姿信息,确定所述现实目标对象在AR场景中的位姿信息;
基于所述现实目标对象在AR场景中的位姿信息,生成所述现实目标对象在所述AR场景中的第一虚拟三维模型。
6.根据权利要求1至4任一项所述的图像处理方法,其特征在于,所述确定所述现实目标对象对应的第一虚拟三维模型与所述虚拟目标对象在增强现实AR场景中的相对位姿关系,包括:
获取所述虚拟目标对象对应的第二虚拟三维模型;
基于所述第一虚拟三维模型在AR场景中的位姿信息,和所述第二虚拟三维模型在所述AR场景中的位姿信息,确定所述现实目标对象对应的第一虚拟三维模型与所述虚拟目标对象在增强现实AR场景中的相对位姿关系。
7.根据权利要求6所述的图像处理方法,其特征在于,所述将所述第一虚拟三维模型和所述虚拟目标对象按照所述相对位姿关系展示在包含所述现实目标对象的AR场景中,包括:
基于所述相对位姿关系,判断所述虚拟目标对象是否被所述现实目标对象遮挡;
在所述虚拟目标对象被所述现实目标对象遮挡的情况下,基于所述相对位姿关系,确定所述虚拟目标对象被所述第一虚拟三维模型所遮挡对应的遮挡信息;
基于所述遮挡信息,展示虚拟目标对象的未被遮挡的部分。
8.根据权利要求1所述的图像处理方法,其特征在于,还包括:
获取所述虚拟目标对象在所述AR场景中的运动状态信息;
基于所述第一虚拟三维模型在AR场景中的位姿信息、所述虚拟目标对象在所述AR场景中的位姿信息和所述运动状态信息,确定碰撞状态信息;
若所述碰撞状态信息指示所述现实目标对象与所述虚拟目标对象发生碰撞,则基于所述碰撞状态信息,获取预制的所述虚拟目标对象在碰撞状态下的第三虚拟三维模型;
基于所述第三虚拟三维模型,在所述AR场景中呈现的碰撞后的虚拟目标对象。
9.根据权利要求8所述的图像处理方法,其特征在于,所述基于所述第三虚拟三维模型,在所述AR场景中呈现的碰撞后的虚拟目标对象,包括:
获取预制的所述现实目标对象在碰撞状态下的第四虚拟三维模型;
基于所述第四虚拟三维模型和所述第三虚拟三维模型,在所述AR场景中呈现的碰撞后的现实目标对象和虚拟目标对象。
10.根据权利要求9所述的图像处理方法,其特征在于,所述第四虚拟三维模型和所述第三虚拟三维模型的展示状态均为非透明态,并且所述第四虚拟三维模型和所述第三虚拟三维模型位于同一图层,所述第四虚拟三维模型的图层位于AR场景中对应的现实目标对象的图像所在的图层的前方。
11.根据权利要求8所述的图像处理方法,其特征在于,所述基于所述碰撞状态信息,获取预制的所述虚拟目标对象在碰撞状态下的第三虚拟三维模型,包括:
基于所述碰撞状态信息,确定碰撞位置和/或碰撞力度;
获取所述虚拟目标对象的、与所述碰撞位置和/或碰撞力度相匹配的所述第三虚拟三维模型。
12.一种图像处理装置,其特征在于,包括:
图像获取模块,用于获取现实场景图像;
对象识别模块,用于识别所述现实场景图像中的现实目标对象,并获取与所述现实目标对象对应的第一虚拟三维模型;
位姿处理模块,用于确定虚拟目标对象,并确定所述第一虚拟三维模型与所述虚拟目标对象在增强现实AR场景中的相对位姿关系;
图像显示模块,用于将所述第一虚拟三维模型和所述虚拟目标对象按照所述相对位姿关系展示在包含所述现实目标对象的AR场景中。
13.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如权利要求1至11任一所述的图像处理方法的步骤。
14.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至11任一所述的图像处理方法的步骤。
CN202110183572.8A 2021-02-10 2021-02-10 图像处理方法、装置、电子设备和存储介质 Pending CN112991551A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110183572.8A CN112991551A (zh) 2021-02-10 2021-02-10 图像处理方法、装置、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110183572.8A CN112991551A (zh) 2021-02-10 2021-02-10 图像处理方法、装置、电子设备和存储介质

Publications (1)

Publication Number Publication Date
CN112991551A true CN112991551A (zh) 2021-06-18

Family

ID=76393264

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110183572.8A Pending CN112991551A (zh) 2021-02-10 2021-02-10 图像处理方法、装置、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN112991551A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114863065A (zh) * 2022-04-22 2022-08-05 贝塔通科技(北京)有限公司 呈现物体真实遮挡关系的增强现实场景的生成方法及系统
WO2023124698A1 (zh) * 2021-12-31 2023-07-06 上海商汤智能科技有限公司 增强现实场景的展示
WO2023216957A1 (zh) * 2022-05-11 2023-11-16 华为技术有限公司 一种目标定位方法、系统和电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109426333A (zh) * 2017-08-23 2019-03-05 腾讯科技(深圳)有限公司 一种基于虚拟空间场景的信息交互方法及装置
CN109754471A (zh) * 2019-01-10 2019-05-14 网易(杭州)网络有限公司 增强现实中的图像处理方法及装置、存储介质、电子设备
CN109804334A (zh) * 2016-08-11 2019-05-24 奇跃公司 三维空间中虚拟对象的自动放置
CN109840947A (zh) * 2017-11-28 2019-06-04 广州腾讯科技有限公司 增强现实场景的实现方法、装置、设备及存储介质
CN111821691A (zh) * 2020-07-24 2020-10-27 腾讯科技(深圳)有限公司 界面显示方法、装置、终端及存储介质
CN111860252A (zh) * 2020-07-09 2020-10-30 北京市商汤科技开发有限公司 图像处理方法、设备及存储介质
CN112057863A (zh) * 2020-09-11 2020-12-11 腾讯科技(深圳)有限公司 虚拟道具的控制方法、装置、设备及计算机可读存储介质
CN112121430A (zh) * 2020-09-30 2020-12-25 腾讯科技(深圳)有限公司 虚拟场景中的信息展示方法、装置、设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109804334A (zh) * 2016-08-11 2019-05-24 奇跃公司 三维空间中虚拟对象的自动放置
CN109426333A (zh) * 2017-08-23 2019-03-05 腾讯科技(深圳)有限公司 一种基于虚拟空间场景的信息交互方法及装置
CN109840947A (zh) * 2017-11-28 2019-06-04 广州腾讯科技有限公司 增强现实场景的实现方法、装置、设备及存储介质
CN109754471A (zh) * 2019-01-10 2019-05-14 网易(杭州)网络有限公司 增强现实中的图像处理方法及装置、存储介质、电子设备
CN111860252A (zh) * 2020-07-09 2020-10-30 北京市商汤科技开发有限公司 图像处理方法、设备及存储介质
CN111821691A (zh) * 2020-07-24 2020-10-27 腾讯科技(深圳)有限公司 界面显示方法、装置、终端及存储介质
CN112057863A (zh) * 2020-09-11 2020-12-11 腾讯科技(深圳)有限公司 虚拟道具的控制方法、装置、设备及计算机可读存储介质
CN112121430A (zh) * 2020-09-30 2020-12-25 腾讯科技(深圳)有限公司 虚拟场景中的信息展示方法、装置、设备及存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023124698A1 (zh) * 2021-12-31 2023-07-06 上海商汤智能科技有限公司 增强现实场景的展示
CN114863065A (zh) * 2022-04-22 2022-08-05 贝塔通科技(北京)有限公司 呈现物体真实遮挡关系的增强现实场景的生成方法及系统
WO2023216957A1 (zh) * 2022-05-11 2023-11-16 华为技术有限公司 一种目标定位方法、系统和电子设备

Similar Documents

Publication Publication Date Title
JP6644833B2 (ja) アルベドモデルにより拡張現実コンテンツをレンダリングするシステムおよび方法
CN112348969B (zh) 增强现实场景下的展示方法、装置、电子设备及存储介质
CN106502427B (zh) 虚拟现实系统及其场景呈现方法
CN111638793B (zh) 飞行器的展示方法、装置、电子设备及存储介质
CN112991551A (zh) 图像处理方法、装置、电子设备和存储介质
KR101251701B1 (ko) 게임용 스테레오 비디오에 대하여 장치가 프로세스를실행할 수 있게 하는 정보를 저장하는 하나 이상의 컴퓨터판독가능 매체
CN112148197A (zh) 增强现实ar交互方法、装置、电子设备及存储介质
JP7387202B2 (ja) 3次元顔モデル生成方法、装置、コンピュータデバイス及びコンピュータプログラム
CN112348968B (zh) 增强现实场景下的展示方法、装置、电子设备及存储介质
CN112950751B (zh) 姿态动作的展示方法及装置、存储介质、系统
CN111694430A (zh) 一种ar场景画面呈现方法、装置、电子设备和存储介质
CN112882576B (zh) Ar交互方法、装置、电子设备及存储介质
CN111833457A (zh) 图像处理方法、设备及存储介质
CN113366491B (zh) 眼球追踪方法、装置及存储介质
CN109448050B (zh) 一种目标点的位置的确定方法及终端
CN112181141B (zh) Ar定位的方法、装置、电子设备及存储介质
CN113178017A (zh) Ar数据展示方法、装置、电子设备及存储介质
CN112802081B (zh) 一种深度检测方法、装置、电子设备及存储介质
CN112637665B (zh) 增强现实场景下的展示方法、装置、电子设备及存储介质
CN113706373A (zh) 模型重建方法及相关装置、电子设备和存储介质
CN111651057A (zh) 一种数据展示方法、装置、电子设备及存储介质
CN106536004B (zh) 增强的游戏平台
CN113470112A (zh) 图像处理方法、装置、存储介质以及终端
CN110737326A (zh) 虚拟对象的显示方法、装置、终端设备及存储介质
CN114022567A (zh) 位姿跟踪方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination