CN114827338A - 用于在设备的显示媒介上呈现虚拟对象的方法和电子装置 - Google Patents

用于在设备的显示媒介上呈现虚拟对象的方法和电子装置 Download PDF

Info

Publication number
CN114827338A
CN114827338A CN202110124445.0A CN202110124445A CN114827338A CN 114827338 A CN114827338 A CN 114827338A CN 202110124445 A CN202110124445 A CN 202110124445A CN 114827338 A CN114827338 A CN 114827338A
Authority
CN
China
Prior art keywords
information
determining
equipment
relative
smartphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110124445.0A
Other languages
English (en)
Inventor
牛旭恒
方俊
李江亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Whyhow Information Technology Co Ltd
Original Assignee
Beijing Whyhow Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Whyhow Information Technology Co Ltd filed Critical Beijing Whyhow Information Technology Co Ltd
Priority to CN202110124445.0A priority Critical patent/CN114827338A/zh
Publication of CN114827338A publication Critical patent/CN114827338A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供了一种用于在设备的显示媒介上呈现虚拟对象的方法和电子装置,所述方法包括:确定第一设备的位置信息;根据所述第一设备的位置信息确定第二设备的位置信息;确定所述第二设备的姿态信息;以及根据所述第二设备的位置信息和姿态信息在其显示媒介上呈现虚拟对象。

Description

用于在设备的显示媒介上呈现虚拟对象的方法和电子装置
技术领域
本发明涉及信息交互领域,尤其涉及一种用于在设备的显示媒介上呈现虚拟对象的方法和电子装置。
背景技术
本部分的陈述仅仅是为了提供与本申请的技术方案有关的背景信息,以帮助理解,其对于本申请的技术方案而言并不一定构成现有技术。
随着技术的发展,智能眼镜作为一种可穿戴设备,逐渐得到普及。然而,由于智能眼镜本身在形状、结构、重量等方面的诸多限制,其在一些能力或性能方面与智能手机仍然存在差距,并且该差距可能长期存在。
智能眼镜的一个重要应用领域是增强现实(AR)或虚拟现实(VR)。为了实现增强现实或虚拟现实应用,需要获得智能眼镜的位置和姿态信息,以在智能眼镜屏幕上的合适位置呈现虚拟对象。但是,由于智能眼镜在能力或性能方面的不足(例如,智能眼镜可能不具备摄像头、智能眼镜的摄像头性能可能不满足要求、智能眼镜可能无法安装相应APP、智能眼镜的计算能力可能不足、等等),使得在某些情况下仅依靠智能眼镜本身可能无法确定其位置和/或姿态信息,或者所确定的位置和/或姿态信息可能精度不足,从而无法实现令人满意的呈现效果。这种问题在其他设备上也可能存在,因此,需要提供一种用于在设备的显示媒介上呈现虚拟对象的方法。
发明内容
本申请的一个方面涉及一种用于在设备的显示媒介上呈现虚拟对象的方法,包括:确定第一设备的位置信息;根据所述第一设备的位置信息确定第二设备的位置信息;确定所述第二设备的姿态信息;以及根据所述第二设备的位置信息和姿态信息在其显示媒介上呈现虚拟对象。
本申请的另一个方面涉及一种存储介质,其中存储有计算机程序,在所述计算机程序被处理器执行时,能够用于实现本申请中描述的方法。
本申请的再一个方面涉及一种电子装置,包括处理器和存储器,所述存储器中存储有计算机程序,在所述计算机程序被处理器执行时,能够用于实现本申请中描述的方法。
附图说明
以下参照附图对本发明的实施例作进一步说明,其中:
图1示出了一种示例性的视觉标志;
图2示出了一种可以作为视觉标志的光通信装置;
图3示出了根据一个实施例的用于在设备的显示媒介上呈现虚拟对象的系统;
图4示出了根据一个实施例的用于在设备的显示媒介上呈现虚拟对象的方法;
图5示出了根据另一个实施例的用于在设备的显示媒介上呈现虚拟对象的方法;
图6示出了根据再一个实施例的用于在设备的显示媒介上呈现虚拟对象的方法;以及
图7示出了根据另一个实施例的用于在设备的显示媒介上呈现虚拟对象的系统。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图通过具体实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在一些场景中,设备可以通过场景中部署的视觉标志来确定其位置和/或姿态信息。视觉标志是指能够被人眼或者电子设备识别的标志,其可以具有各种各样的形式。在一些实施例中,视觉标志可以用于传递信息,该信息能够被智能设备(例如手机、智能眼镜等)获得。例如,视觉标志可以是能够发出编码的光信息的光通信装置,或者视觉标志可以是带编码信息的图形,例如二维码(例如QR码、小程序码)、条形码等。图1示出了一种示例性的视觉标志,其具有特定的黑白图案。图2示出了一种可以作为视觉标志的光通信装置100,其包括三个光源(分别是第一光源101、第二光源102、第三光源103)。光通信装置100还包括控制器(在图2中未示出),其用于根据要传递的信息为每个光源选择相应的驱动模式。例如,在不同的驱动模式下,控制器可以使用不同的驱动信号来控制光源的发光方式,从而使得当使用具有成像功能的设备拍摄光通信装置100时,其中的光源的成像可以呈现出不同的外观(例如,不同的颜色、图案、亮度、等等)。通过分析光通信装置100中的光源的成像,可以解析出各个光源此刻的驱动模式,从而解析出光通信装置100此刻传递的信息。
为了基于视觉标志向用户提供相应的服务,每个视觉标志可以被分配一个标识信息(ID),该标识信息用于由视觉标志的制造者、管理者或使用者等唯一地识别或标识视觉标志。用户可以使用设备对视觉标志进行图像采集来获得该视觉标志传递的标识信息,从而可以基于该标识信息来访问相应的服务,例如,访问与标识信息相关联的网页、获取与标识信息相关联的其他信息(例如,与该标识信息对应的视觉标志的位置或姿态信息)等等。本文提到的设备例如可以是用户携带或控制的设备(例如,手机、平板电脑、智能眼镜、AR眼镜、智能头盔、智能手表、汽车等等),也可以是能够自主移动的机器(例如,无人机、无人驾驶汽车、机器人等等)。设备可以通过其上的图像采集器件对视觉标志进行图像采集来获得包含视觉标志的图像,并可以通过分析图像中的视觉标志的成像来识别出视觉标志传递的信息以及确定设备相对于视觉标志的位置或姿态信息。
图3示出了根据一个实施例的用于在设备的显示媒介上呈现虚拟对象的系统,其中包括用户携带或佩戴的作为第一设备的智能手机301和作为第二设备的智能眼镜302。在场景中还部署有视觉标志303。在一个实施例中,系统中还可以包括与第一设备或第二设备进行通信的服务器。
图4示出了根据一个实施例的用于在设备的显示媒介上呈现虚拟对象的方法,该方法包括如下步骤:
步骤401:通过视觉标志确定智能手机的位置信息。
在一个实施例中,用户可以使用智能手机301通过扫描场景中部署的视觉标志303来确定智能手机301的空间位置信息。该空间位置信息可以是智能手机301相对于视觉标志303的空间位置信息或者智能手机301在场景中的空间位置信息。在一个实施例中,可以使用智能手机301采集视觉标志303的图像;通过分析所采集的视觉标志303的图像确定视觉标志303的标识信息以及智能手机301相对于视觉标志303的空间位置信息;通过视觉标志303的标识信息确定视觉标志303在空间中的位置和姿态信息;根据视觉标志303在空间中的位置和姿态信息以及智能手机301相对于视觉标志303的空间位置信息,确定智能手机301在场景中的空间位置信息。
在一个实施例中,智能手机301的空间位置信息可以是设备在扫描视觉标志303时的空间位置信息,也可以是在扫描视觉标志303之后的任一时刻的实时位置信息。例如,智能手机301可以在扫描视觉标志303时确定其初始的空间位置信息,并继而使用智能手机301内置的各种传感器(例如,加速度传感器、磁力传感器、方向传感器、重力传感器、陀螺仪、摄像头等)通过本领域已知的方法(例如,惯性导航、视觉里程计、SLAM、VSLAM、SFM等)来测量或跟踪其位置变化,从而确定智能手机301的实时位置。
步骤402:根据智能手机的位置信息确定智能眼镜的位置信息。
在一个实施例中,考虑到用户携带的智能手机301和智能眼镜302通常位置比较接近,可以直接将智能手机301的位置信息作为智能眼镜302的位置信息。这种方式简洁高效,尤其适用于一些对定位精度要求不太高的应用场景。
在一个实施例中,可以根据智能手机301的位置信息以及智能眼镜302相对于智能手机301的位置,确定智能眼镜302的位置信息。智能眼镜302相对于智能手机301的位置可以被预先设定,例如可以基于用户在正常情况下用智能手机301扫描视觉标志303时的姿态来预先设定,例如,参见图3,当用户使用智能手机301扫描视觉标志303时,智能眼镜302通常大致处于智能手机301与视觉标志303连线的延长线上,并且位于比智能手机301稍远的位置(例如,稍远25厘米)。在一个实施例中,也可以由用户手工输入智能眼镜302相对于智能手机301的位置。在一个实施例中,也可以根据智能眼镜302与智能手机301之间实际的相对位置关系来确定智能眼镜302相对于智能手机301的位置。例如,可以根据智能手机301的摄像头(例如,智能手机301的屏幕一侧的前置摄像头)拍摄的图像来确定智能手机301与智能眼镜302的相对位置关系。智能手机301的摄像头拍摄的图像中可以包括智能眼镜302和/或其用户,可以通过对该图像进行分析来确定智能手机301与智能眼镜302的相对位置关系。例如,可以通过分析图像中的智能眼镜302或者其用户的头部的成像大小、成像位置、视觉变形等来确定智能手机301与智能眼镜302的相对位置关系。也可以根据智能眼镜302的摄像头拍摄的图像来确定智能手机301与智能眼镜302的相对位置关系。智能眼镜302的摄像头拍摄的图像中可以包括智能手机301,可以通过对该图像进行分析来确定智能手机301与智能眼镜302的相对位置关系。
步骤403:确定智能眼镜的姿态信息。
可以使用各种方式来确定智能眼镜302的姿态信息,例如,可以使用视觉标志来确定,也可以通过智能眼镜302中的传感器(例如,磁力传感器、方向传感器、重力传感器等)来确定。在本文中,姿态信息可以包括朝向信息。
步骤404:根据智能眼镜的位置信息和姿态信息在其显示媒介上呈现虚拟对象。
在确定了智能眼镜的位置信息和姿态信息之后,便可以基于该位置信息和姿态信息在其显示媒介上的适当位置处呈现虚拟对象。例如,可以根据智能眼镜的位置信息和姿态信息以及为虚拟对象设定的空间位置信息,确定该虚拟对象在智能眼镜的显示媒介上的呈现位置,并在该呈现位置处呈现该虚拟对象。
图5示出了根据另一个实施例的用于在设备的显示媒介上呈现虚拟对象的方法,该方法包括如下步骤(部分步骤与图4中的步骤类似,在此不再赘述):
步骤501:通过视觉标志确定智能手机的位置信息和姿态信息。
在一个实施例中,用户可以使用智能手机301通过扫描场景中部署的视觉标志303来确定智能手机301的位置和姿态信息,该位置和姿态信息可以是智能手机301相对于视觉标志303的位置和姿态信息或者智能手机301在场景中的位置和姿态信息。可以根据视觉标志303在场景中的位置和姿态信息以及智能手机301相对于视觉标志303的位置和姿态信息,确定智能手机301在场景中的位置和姿态信息。
在一个实施例中,智能手机301的位置和姿态信息可以是智能手机301在扫描视觉标志303时的位置和姿态信息,也可以是在扫描视觉标志303之后的任一时刻的实时位置和姿态信息。例如,智能手机301可以在扫描视觉标志303时确定其初始的位置和姿态信息,并继而使用智能手机301内置的各种传感器来测量或跟踪其位置变化和/或姿态变化,从而确定智能手机301的实时位置和/或姿态。
步骤502:根据智能手机的位置信息确定智能眼镜的位置信息。
步骤503:根据智能手机的姿态信息确定智能眼镜的姿态信息。
在一个实施例中,考虑到在扫描视觉标志303时智能手机301和智能眼镜302通常看向同一个方向,可以直接将智能手机301的姿态信息作为智能眼镜302的姿态信息,或者将智能手机301的姿态信息进行预定变换后作为智能眼镜302的姿态信息。
在一个实施例中,可以根据智能手机301的姿态信息以及智能手机301与智能眼镜302的相对姿态关系,确定智能眼镜302的姿态信息。例如,可以根据智能手机301的摄像头(例如,智能手机301的屏幕一侧的前置摄像头)拍摄的图像来确定智能手机301与智能眼镜302的相对姿态关系。智能手机301的摄像头拍摄的图像中可以包括智能眼镜302和/或其用户,可以通过对该图像进行分析来确定智能手机301与智能眼镜302的相对姿态关系。也可以根据智能眼镜302的摄像头拍摄的图像来确定智能手机301与智能眼镜302的相对姿态关系。智能眼镜302的摄像头拍摄的图像中可以包括智能手机301,可以通过对该图像进行分析来确定智能手机301与智能眼镜302的相对姿态关系。
步骤504:根据智能眼镜的位置信息和姿态信息在其显示媒介上呈现虚拟对象。
图6示出了根据再一个实施例的用于在设备的显示媒介上呈现虚拟对象的方法,该方法包括如下步骤:
步骤601:通过视觉标志确定智能手机的位置信息和姿态信息。
步骤602:根据智能手机的位置信息和姿态信息来确定智能眼镜的位置信息。
在一个实施例中,可以根据智能手机301的位置信息以及智能眼镜302相对于智能手机301的位置,确定智能眼镜302的位置信息。
在一个实施例中,可以根据智能手机301的姿态信息来确定智能眼镜302相对于智能手机301的位置。当用户在使用智能手机301扫描场景中部署的视觉标志303时,智能手机301通常情况下位于用户的正前方几十厘米(例如25厘米)处,并且屏幕朝向用户,如此,可以根据智能手机301的姿态信息来确定智能眼镜302相对于智能手机301的位置。例如,如果根据智能手机301的姿态信息确定当前智能手机301的屏幕朝向正北方向,则可以大致确定智能眼镜302位于智能手机201正北方的某个位置(例如,正北方25厘米处)。可以使用各种方式来确定智能手机301的姿态信息,例如,可以使用视觉标志来确定,也可以通过智能手机301中的传感器(例如,磁力传感器、方向传感器、重力传感器等)来确定。
在一个实施例中,可以根据智能手机301的姿态信息以及智能手机301的摄像头(例如,智能手机301的屏幕一侧的前置摄像头)拍摄的图像来确定智能眼镜302相对于智能手机301的位置。智能手机301的摄像头拍摄的图像中可以包括智能眼镜302和/或其用户,可以通过对该图像进行分析来确定智能眼镜302相对于智能手机301的位置。例如,可以通过分析图像中的智能眼镜302或者其用户的头部的成像大小、成像位置、视觉变形等来确定智能眼镜302相对于智能手机301的位置。
在一个实施例中,可以根据智能手机301的姿态信息以及智能眼镜302的摄像头拍摄的图像来确定智能眼镜302相对于智能手机301的位置。智能眼镜302的摄像头拍摄的图像中可以包括智能手机301,可以通过对该图像进行分析来确定智能眼镜302相对于智能手机301的位置。例如,可以通过分析图像中的智能手机301的成像大小、成像位置、视觉变形等来确定智能眼镜302相对于智能手机301的位置。
步骤603:确定智能眼镜的姿态信息。
可以使用各种方式来确定智能眼镜302的姿态信息,例如,可以使用视觉标志来确定,也可以通过智能眼镜302中的传感器(例如,磁力传感器、方向传感器、重力传感器等)来确定。
在一个实施例中,可以根据智能手机301的姿态信息确定智能眼镜302的姿态信息。具体地,在一个实施例中,考虑到在扫描视觉标志时智能手机301和智能眼镜302通常看向同一个方向,可以直接将智能手机301的姿态信息作为智能眼镜302的姿态信息,或者将智能手机301的姿态信息进行预定变换后作为智能眼镜302的姿态信息。在一个实施例中,可以根据智能手机301的姿态信息以及智能手机301与智能眼镜302的相对姿态关系,确定智能眼镜302的姿态信息。例如,可以根据智能手机301的摄像头(例如,智能手机301的屏幕一侧的前置摄像头)拍摄的图像来确定智能手机301与智能眼镜302的相对姿态关系。智能手机301的摄像头拍摄的图像中可以包括智能眼镜302和/或其用户,可以通过对该图像进行分析来确定智能手机301与智能眼镜302的相对姿态关系。也可以根据智能眼镜302的摄像头拍摄的图像来确定智能手机301与智能眼镜302的相对姿态关系。智能眼镜302的摄像头拍摄的图像中可以包括智能手机301,可以通过对该图像进行分析来确定智能手机301与智能眼镜302的相对姿态关系。
步骤604:根据智能眼镜的位置信息和姿态信息在其显示媒介上呈现虚拟对象。
在上文的实施例中,可以使用视觉标志来确定智能手机的位置信息或姿态信息。但可以理解,这并非限制,可以使用任何其他可行的方式来确定智能手机的位置信息或姿态信息,例如,可以通过场景的点云信息或三维模型信息来确定智能手机的位置信息或姿态信息,或者可以通过无线定位的方式来确定智能手机的位置信息或姿态信息。
在上文的实施例中,以作为第一设备的智能手机和作为第二设备的智能眼镜为例进行了说明,但可以理解,这并非限制,本申请的第一设备或第二设备可以是任何能够自主移动的设备、由人控制的设备、由人携带的设备、等等(例如,机器人、无人车、手机、智能眼镜、智能手表、平板电脑、车辆等),该设备上安装有图像采集器件。例如,在一个实施例中,第一设备可以是汽车,第二设备可以是智能眼镜或智能手机;在一个实施例中,第一设备可以是智能手表,第二设备可以是智能手机。
在一个实施例中,第一设备也可以是部署在场景中的设备,例如,部署在场景中的摄像设备。图7示出了根据另一个实施例的用于在设备的显示媒介上呈现虚拟对象的系统,其中包括作为第一设备的摄像设备701和作为第二设备的智能眼镜702。摄像设备701部署在场景中,并具有特定的位置和姿态。摄像设备701中具有摄像头。智能眼镜702由场景中的用户佩戴。
摄像设备701可以使用各种方式(例如,人脸识别)识别出场景中的用户,并确定用户的位置和/或姿态或者跟踪用户的位置和/或姿态变化。在一个实施例中,可以根据的摄像设备701的位姿信息以及用户或智能眼镜702相对于摄像设备701的位置,确定用户或智能眼镜702的位置信息。可以根据摄像设备701拍摄的图像来确定用户或智能眼镜702相对于摄像设备701的位置。在一个实施例中,可以使用预先建立的场景中的一个或多个空间位置(不一定是全部)与摄像设备701所拍摄图像中的一个或多个成像位置之间的映射关系以及用户的成像位置,来确定用户的空间位置信息。在一个实施例中,可以基于摄像设备701的位姿信息和用户的成像位置来确定用户的空间位置信息。例如,在使用深度摄像头或者多目摄像头的情况下,可以基于所述成像位置确定用户相对于摄像设备701的方向,可以使用深度信息确定用户相对于摄像设备701的距离,从而确定用户相对于摄像设备701的位置,继而,可以进一步基于摄像设备701的位姿信息确定用户的空间位置信息。在一个实施例中,可以基于用户的成像大小来估计用户相对于摄像设备701的距离,并基于摄像设备701的位姿信息和所述成像位置来确定用户的空间位置信息。在一个实施例中,可以使用摄像设备701上安装的激光雷达等来确定用户相对于摄像设备701的距离,并基于摄像设备701的位姿信息和所述成像位置来确定用户的空间位置信息。在一个实施例中,如果多个摄像设备701的视野同时覆盖用户,可以使用该多个摄像设备701来共同确定用户的空间位置信息。在一个实施例中,可以基于摄像设备701的位姿信息、所述成像位置以及可选的其他信息(例如场景内地面的坐标信息)来确定用户的空间位置信息。
可以使用各种方式来确定智能眼镜702的姿态信息,例如,可以通过智能眼镜702中的传感器(例如,磁力传感器、方向传感器、重力传感器等)来确定。在一个实施例中,可以根据摄像设备701的姿态信息以及用户或智能眼镜702与摄像设备701的相对姿态关系,确定用户或智能眼镜702的姿态信息。可以根据在摄像设备701视野中的用户或智能眼镜702的成像来确定用户或智能眼镜702与摄像设备701的相对姿态关系。
在本发明的一个实施例中,可以以计算机程序的形式来实现本发明。计算机程序可以存储于各种存储介质(例如,硬盘、光盘、闪存等)中,当该计算机程序被处理器执行时,能够用于实现本发明的方法。
在本发明的另一个实施例中,可以以电子装置的形式来实现本发明。该电子装置包括处理器和存储器,在存储器中存储有计算机程序,当该计算机程序被处理器执行时,能够用于实现本发明的方法。该电子装置例如可以是第一设备、第二设备、或者能与第一设备或第二设备通信的服务器,或者也可以是它们的任意组合。
本文中针对“各个实施例”、“一些实施例”、“一个实施例”、或“实施例”等的参考指代的是结合所述实施例所描述的特定特征、结构、或性质包括在至少一个实施例中。因此,短语“在各个实施例中”、“在一些实施例中”、“在一个实施例中”、或“在实施例中”等在整个本文中各处的出现并非必须指代相同的实施例。此外,特定特征、结构、或性质可以在一个或多个实施例中以任何合适方式组合。因此,结合一个实施例中所示出或描述的特定特征、结构或性质可以整体地或部分地与一个或多个其他实施例的特征、结构、或性质无限制地组合,只要该组合不是不符合逻辑的或不能工作。本文中出现的类似于“根据A”、“基于A”、“通过A”或“使用A”的表述意指非排他性的,也即,“根据A”可以涵盖“仅仅根据A”,也可以涵盖“根据A和B”,除非特别声明其含义为“仅仅根据A”。在本申请中为了清楚说明,以一定的顺序描述了一些示意性的操作步骤,但本领域技术人员可以理解,这些操作步骤中的每一个并非是必不可少的,其中的一些步骤可以被省略或者被其他步骤替代。这些操作步骤也并非必须以所示的方式依次执行,相反,这些操作步骤中的一些可以根据实际需要以不同的顺序执行,或者并行执行,只要新的执行方式不是不符合逻辑的或不能工作。
由此描述了本发明的至少一个实施例的几个方面,可以理解,对本领域技术人员来说容易地进行各种改变、修改和改进。这种改变、修改和改进意于在本发明的精神和范围内。虽然本发明已经通过一些实施例进行了描述,然而本发明并非局限于这里所描述的实施例,在不脱离本发明范围的情况下还包括所作出的各种改变以及变化。

Claims (14)

1.一种用于在设备的显示媒介上呈现虚拟对象的方法,包括:
确定第一设备的位置信息;
根据所述第一设备的位置信息确定第二设备的位置信息;
确定所述第二设备的姿态信息;以及
根据所述第二设备的位置信息和姿态信息在其显示媒介上呈现虚拟对象。
2.根据权利要求1所述的方法,其中,所述确定第一设备的位置信息包括:
通过场景中部署的视觉标志或者场景的点云信息来确定所述第一设备的位置信息。
3.根据权利要求1所述的方法,其中,所述根据所述第一设备的位置信息确定第二设备的位置信息包括:
将所述第一设备的位置信息作为所述第二设备的位置信息。
4.根据权利要求1所述的方法,其中,所述根据所述第一设备的位置信息确定第二设备的位置信息包括:
根据所述第一设备的位置信息以及所述第二设备相对于所述第一设备的位置,确定所述第二设备的位置信息。
5.根据权利要求4所述的方法,其中,通过如下方式确定所述第二设备相对于所述第一设备的位置:
根据所述第一设备的摄像头拍摄的图像来确定所述第二设备相对于所述第一设备的位置;或者
根据所述第二设备的摄像头拍摄的包含所述第一设备的图像来确定所述第二设备相对于所述第一设备的位置。
6.根据权利要求4所述的方法,还包括:确定所述第一设备的姿态信息,其中,通过如下方式确定所述第二设备相对于所述第一设备的位置:
根据所述第一设备的姿态信息来确定所述第二设备相对于所述第一设备的位置;或者
根据所述第一设备的姿态信息以及所述第一设备的摄像头拍摄的图像来确定所述第二设备相对于所述第一设备的位置;或者
根据所述第一设备的姿态信息以及所述第二设备的摄像头拍摄的包含所述第一设备的图像来确定所述第二设备相对于所述第一设备的位置。
7.根据权利要求5或6所述的方法,其中,所述第一设备的摄像头拍摄的图像中包括所述第二设备或者所述第二设备的用户。
8.根据权利要求1所述的方法,还包括:确定所述第一设备的姿态信息,以及其中,所述确定所述第二设备的姿态信息包括:
根据所述第一设备的姿态信息确定所述第二设备的姿态信息。
9.根据权利要求8所述的方法,其中,所述根据所述第一设备的姿态信息确定所述第二设备的姿态信息包括:
将所述第一设备的姿态信息作为所述第二设备的姿态信息。
10.根据权利要求8所述的方法,其中,所述根据所述第一设备的姿态信息确定所述第二设备的姿态信息包括:
根据所述第一设备的姿态信息以及所述第二设备与所述第一设备的相对姿态关系,确定所述第二设备的姿态信息。
11.根据权利要求10所述的方法,其中,
根据所述第一设备的摄像头拍摄的图像来确定所述第二设备与所述第一设备的相对姿态关系;或者
根据所述第二设备的摄像头拍摄的包含所述第一设备的图像来确定所述第二设备与所述第一设备的相对姿态关系。
12.根据权利要求8所述的方法,其中,所述确定所述第一设备的姿态信息包括:通过场景中部署的视觉标志或者场景的点云信息来确定所述第一设备的姿态信息。
13.一种存储介质,其中存储有计算机程序,在所述计算机程序被处理器执行时,能够用于实现权利要求1-12中任一项所述的方法。
14.一种电子装置,包括处理器和存储器,所述存储器中存储有计算机程序,在所述计算机程序被处理器执行时,能够用于实现权利要求1-12中任一项所述的方法。
CN202110124445.0A 2021-01-29 2021-01-29 用于在设备的显示媒介上呈现虚拟对象的方法和电子装置 Pending CN114827338A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110124445.0A CN114827338A (zh) 2021-01-29 2021-01-29 用于在设备的显示媒介上呈现虚拟对象的方法和电子装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110124445.0A CN114827338A (zh) 2021-01-29 2021-01-29 用于在设备的显示媒介上呈现虚拟对象的方法和电子装置

Publications (1)

Publication Number Publication Date
CN114827338A true CN114827338A (zh) 2022-07-29

Family

ID=82525555

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110124445.0A Pending CN114827338A (zh) 2021-01-29 2021-01-29 用于在设备的显示媒介上呈现虚拟对象的方法和电子装置

Country Status (1)

Country Link
CN (1) CN114827338A (zh)

Similar Documents

Publication Publication Date Title
US8860760B2 (en) Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
JP6943988B2 (ja) 移動可能物体の制御方法、機器およびシステム
CN111256701A (zh) 一种设备定位方法和系统
US11263818B2 (en) Augmented reality system using visual object recognition and stored geometry to create and render virtual objects
CN110858414A (zh) 图像处理方法、装置、可读存储介质与增强现实系统
KR20180039013A (ko) 전자 디바이스 상에서의 환경 맵핑을 위한 피쳐 데이터 관리
CN108603933A (zh) 用于融合具有不同分辨率的传感器输出的系统和方法
CN112528699B (zh) 用于获得场景中的设备或其用户的标识信息的方法和系统
TWI750822B (zh) 用於為目標設置可呈現的虛擬對象的方法和系統
CN112788443B (zh) 基于光通信装置的交互方法和系统
CN112581630A (zh) 一种用户交互方法和系统
CN111242107B (zh) 用于设置空间中的虚拟对象的方法和电子设备
CN114827338A (zh) 用于在设备的显示媒介上呈现虚拟对象的方法和电子装置
CN111753565B (zh) 用于呈现与光通信装置有关的信息的方法和电子设备
CN114693749A (zh) 一种用于关联不同的物理坐标系的方法及系统
CN110120062B (zh) 图像处理方法及装置
CN114726996B (zh) 用于建立空间位置与成像位置之间的映射的方法和系统
CN112417904B (zh) 用于呈现与光通信装置有关的信息的方法和电子设备
WO2022121606A1 (zh) 用于获得场景中的设备或其用户的标识信息的方法和系统
EP3336801A1 (en) Method and apparatus for constructing lighting environment representations of 3d scenes
TWI759764B (zh) 基於光通信裝置疊加虛擬物件的方法、電子設備以及電腦可讀取記錄媒體
CN212460586U (zh) 一种用于定位的装置
WO2020244576A1 (zh) 基于光通信装置叠加虚拟对象的方法和相应的电子设备
CN114663491A (zh) 用于向场景中的用户提供信息的方法和系统
CN114323013A (zh) 用于确定设备在场景中的位置信息的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination