CN116932119B - 虚拟屏幕显示方法、装置、设备及计算机可读存储介质 - Google Patents
虚拟屏幕显示方法、装置、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN116932119B CN116932119B CN202311189241.0A CN202311189241A CN116932119B CN 116932119 B CN116932119 B CN 116932119B CN 202311189241 A CN202311189241 A CN 202311189241A CN 116932119 B CN116932119 B CN 116932119B
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- glasses
- mobile terminal
- virtual screen
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 239000011521 glass Substances 0.000 claims description 161
- 239000011159 matrix material Substances 0.000 claims description 30
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 238000013507 mapping Methods 0.000 claims description 14
- 238000004891 communication Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 description 16
- 238000013461 design Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000013519 translation Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
- G06F9/452—Remote windowing, e.g. X-Window System, desktop virtualisation
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请实施例涉及虚拟屏幕显示技术领域,公开了一种虚拟屏幕显示方法、装置、设备及计算机可读存储介质,通过获取预设的虚拟屏幕和虚拟移动终端之间的位置关系和世界坐标系中的移动终端的真实位置,在世界坐标系中确定出与预设的位置关系一致的、位于世界坐标系的虚拟屏幕的目标位置,在AR眼镜坐标系中的目标位置显示移动终端的屏幕影像,当用户需要查看真实世界中的物体或屏幕等时,可以通过改变真实世界中移动终端的位置或角度,来使得AR眼镜坐标系中的虚拟屏幕的位置发生变化,避免遮挡用户视线,提高了AR眼镜中显示虚拟屏幕的灵活性与稳定性。
Description
技术领域
本申请实施例涉及增强现实技术领域,具体涉及一种虚拟屏幕显示方法、装置、设备及计算机可读存储介质。
背景技术
当今社会人们在生产生活中对信息的需求越来越高,许多时候人们常常需要在一块电脑屏幕上同时显示多个窗口,以便同时利用多个窗口的信息来更迅速地进行作业,在一些需要通过大量数据或图像进行分析或处理的领域中,甚至需要人们外接拓展额外的实体显示屏,以保证具有足够的显示空间来容纳作业窗口。
然而,外接拓展实体显示屏需要人们购买额外的设备,且对空间存在较大需求,当人们需要在地铁、公交、野外场景或较为狭窄的工作空间进行办公时,实体显示屏的拓展极其受限,不利于人们进行作业。
发明内容
鉴于上述问题,本申请实施例提供了一种虚拟屏幕显示方法、装置、设备及计算机可读存储介质,用于解决人们在作业过程中拓展显示屏不便的问题。
根据本申请实施例的一个方面,提供了一种虚拟屏幕显示方法,包括:获取移动终端在世界坐标系中的第一现实位置;获取预设坐标系中虚拟屏幕与所述移动终端的第一相对位置;根据所述第一相对位置和所述第一现实位置,确定所述虚拟屏幕在所述世界坐标系中的第二现实位置;基于所述世界坐标系与AR眼镜坐标系的映射关系,将所述第二现实位置转换至AR眼镜坐标系中,得到虚拟屏幕在AR眼镜坐标系中的目标位置;在AR眼镜中的目标位置显示移动终端的屏幕影像。
通过获取移动终端在世界坐标系中的第一现实位置并获取预设坐标系中虚拟屏幕与移动终端的第一相对位置,能够确定虚拟屏幕在世界坐标系中的第二现实位置,在基于世界坐标系与AR眼镜坐标系的映射关系将第二现实位置转换至AR眼镜坐标系中的目标位置后,在AR眼镜中的目标位置显示移动终端的屏幕影像,使得AR眼镜中显示的移动终端的屏幕影像的位置与移动终端的第一现实位置建立了对应关系,当使用者需要查看移动终端上显示的屏幕影像时,不需要低头查看移动终端的屏幕,只需要动手移动移动终端的位置,使得AR眼镜中在目标位置显示的影像的位置发生改变至便于查看即可,在办公过程中,还可以一边通过AR眼镜未显示影像的区域查看现实办公场景中的屏幕的同时,一边通过改变移动终端的位置调整AR眼镜中显示的移动终端的屏幕影像至现实办公场景中的屏幕旁边,实现屏幕的灵活拓展,提高办公效率,不会占用额外的办公区域,提高了多种场景下进行屏幕拓展的适应性。
在一种可选的方式中,所述获取预设坐标系中虚拟屏幕与所述移动终端的第一相对位置,包括:获取所述移动终端在预设坐标系中的第一预设位置;获取所述虚拟屏幕在所述预设坐标系中的第二预设位置;根据所述第一预设位置与所述第二预设位置,确定所述第一相对位置。通过获取预先设置的第一预设位置和第二预设位置来确定第一相对位置,使得相对位置的设置更加灵活准确,使得本申请实施例提供的虚拟屏幕显示方法在AR眼镜上进行屏幕拓展时显示的移动终端的屏幕影像的位置在针对不同移动终端和虚拟屏幕的尺寸时能够更加可控,获取预先设置的第一预设位置和第二预设位置也使得在进行屏幕拓展时,不易出现虚拟屏幕与移动终端穿模而影像屏幕拓展效果的意外。
在一种可选的方式中,所述获取所述移动终端在预设坐标系中的第一预设位置,包括:将所述第一现实位置作为所述第一预设位置;所述获取所述虚拟屏幕在所述预设坐标系中的第二预设位置,包括:获取AR眼镜在所述世界坐标系中的第三现实位置;将所述第三现实位置作为所述第二预设位置。通过将移动终端和AR眼镜在世界坐标系中的位置直接作为第一预设位置和第二预设位置,使得本申请实施例的第一预设位置和第二预设位置能够根据现实场景中移动终端和AR眼镜的摆放位置来得到第一预设位置与第二预设位置,使得第一预设位置与第二预设位置的设置更加方便快捷。
在一种可选的方式中,所述第一预设位置为由多个坐标点组成的第一面坐标,所述屏幕的预设位置为由多个坐标点组成的第二面坐标,所述第一面坐标与所述第二面坐标互相垂直。由于一般情况下,人们在进行办公时往往习惯于将移动终端水平放置在桌面上,同时目光水平直视垂直的显示屏,此时若想将移动终端的屏幕影像显示在AR眼镜中并使其便于使用者查看,显示的虚拟屏幕应当与移动终端互相垂直,通过互相垂直设置的第一面坐标与第二面坐标,使得本申请实施例提供的虚拟屏幕显示方法能够满足人们常见的办公场景的屏幕拓展方式。
在一种可选的方式中,所述基于所述世界坐标系与AR眼镜坐标系的映射关系,将所述第二现实位置转换至所述AR眼镜坐标系中,得到所述虚拟屏幕在所述AR眼镜坐标系中的目标位置,包括:获取所述AR眼镜坐标系相对于所述世界坐标系的旋转矩阵;根据所述AR眼镜坐标系相对于所述世界坐标系的旋转矩阵,计算得到所述第二现实位置在所述AR眼镜坐标系中的所述目标位置。通过采用旋转矩阵的方式将第二现实位置转换为AR眼镜坐标系中的目标位置,使得第二现实位置到AR眼镜坐标系的转换更加精确,且由于旋转矩阵可以围绕任意轴进行旋转变换,灵活性更高。
在一种可选的方式中,所述在AR眼镜中的所述目标位置显示所述移动终端的屏幕影像之前,所述虚拟屏幕显示方法还包括:获取所述屏幕影像的尺寸;根据所述AR眼镜坐标系相对于所述世界坐标系的旋转矩阵,计算所述屏幕影像在所述AR眼镜坐标系中的虚拟尺寸;所述在AR眼镜中的所述目标位置显示所述移动终端的屏幕影像,包括:在所述虚拟屏幕位置显示与所述虚拟尺寸的大小一致的所述屏幕影像。通过将屏幕影像的尺寸转化到AR眼镜坐标系中得到虚拟尺寸,使得在AR眼镜中显示的屏幕影像的大小能够根据实际需要灵活设置,不易出现影像长宽比失衡、影像过小或拉伸过度的问题,提高了稳定性。
在一种可选的方式中,所述在AR眼镜中的所述目标位置显示所述移动终端的屏幕影像之后,所述虚拟屏幕显示方法还包括:根据所述AR眼镜坐标系相对于所述世界坐标系的旋转矩阵,计算得到所述第一现实位置在所述AR眼镜坐标系中的移动终端标记位置;在所述移动终端标记位置显示标记,以指示所述移动终端在所述AR眼镜坐标系中的位置。通过在AR眼镜中显示用于指示移动终端的位置的标记,使得用户能够更好地对照调整移动终端的现实位置,亦或是避免在使用AR眼镜的过程中难以定位到现实中的移动终端造成遗失的问题。
根据本申请实施例的另一方面,提供了一种虚拟屏幕显示装置,包括:第一获取模块、第二获取模块、第一确定模块、第一转换模块和显示模块。第一获取模块用于获取移动终端在世界坐标系中的第一现实位置;第二获取模块用于获取预设坐标系中虚拟屏幕与所述移动终端的第一相对位置;第一确定模块用于根据所述第一相对位置和所述第一现实位置,确定所述虚拟屏幕在所述世界坐标系中的第二现实位置;第一转换模块用于基于所述世界坐标系与AR眼镜坐标系的映射关系,将所述第二现实位置转换至AR眼镜坐标系中,得到虚拟屏幕在AR眼镜坐标系中的目标位置;显示模块用于在AR眼镜中的目标位置显示移动终端的屏幕影像。
根据本申请实施例的另一方面,提供了一种虚拟屏幕显示设备,包括:处理器、存储器、通信接口和通信总线,处理器、存储器和通信接口通过通信总线完成相互间的通信;存储器用于存放至少一程序,程序使处理器执行如上任意一项的虚拟屏幕显示方法的操作。
根据本申请实施例的又一方面,提供了一种计算机可读存储介质,存储介质中存储有可执行指令,可执行指令使虚拟屏幕显示设备执行如上任意一项的虚拟屏幕显示方法的操作。
上述说明仅是本申请实施例技术方案的概述,为了能够更清楚了解本申请实施例的技术手段,而可依照说明书的内容予以实施,并且为了让本申请实施例的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
附图仅用于示出实施方式,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本申请实施例提供的虚拟屏幕显示方法的流程示意图;
图2为本申请步骤120的子步骤的流程示意图;
图3为本申请步骤121的子步骤的流程示意图;
图4为本申请步骤140的子步骤的流程示意图;
图5为本申请步骤150之前的步骤及步骤150的子步骤的流程示意图;
图6为本申请步骤150之后的步骤的流程示意图;
图7为本申请实施例提供的虚拟屏幕显示装置的功能框图;
图8为本申请实施例提供的虚拟屏幕显示设备的模块化结构示意图。
具体实施方式
下面将参照附图更详细地描述本申请的示例性实施例。虽然附图中显示了本申请的示例性实施例,然而应当理解,可以以各种形式实现本申请而不应被这里阐述的实施例所限制。
随着现代技术的发展,人们对办公的需求越来越高,在许多领域中都需要人们同时对大量数据和图形进行操作,例如在建模领域,人们可能需要同时参照多张设计草图以及大量初步的模型数据,在模型设计窗口中进行对应的建模,若操作人员在同一块屏幕中进行操作,则往往需要频繁切换窗口来查看设计草图、模型数据和正在生成的模型,使得作业过程费时费力,还容易在切换窗口查看信息的过程中产生纰漏。
为了避免上述问题,人们往往会对显示屏进行拓展,使得同时有多块显示屏显示作业过程中需要的不同资料、设计图纸等信息,这样操作人员便只需要转动视角查看不同的显示屏便可以随时查看需要的信息,不需要在一块显示屏中进行频繁切换,作业效率和作业精确性都能得到更好的保障。
但是,现有的显示屏拓展方式需要在原有显示屏的基础上连接额外的显示屏,当办公空间较小时,将难以容纳额外的显示屏,亦或是当需要在室外或移动场景中进行作业时,多个显示屏的携带将较为不便,布置较为困难,不利于作业的便捷性,同时,设置多个显示屏的设备成本较高,应用与普及具有局限性。
本申请发明人注意到,可以通过建立在AR眼镜中的虚拟现实技术在虚拟空间中进行显示屏的拓展。然而,现在常见的AR眼镜显示方式仅仅是将拓展的虚拟屏幕显示在AR眼镜中的固定位置,例如显示在AR眼镜的正中间,这种情况下,当操作人员需要查看现实世界中的实体屏幕或其它物体,或是已经不需要查看虚拟屏幕时,显示在AR眼镜中的虚拟屏幕会遮挡视线,需要操作人员执行特定操作来断开AR眼镜与设备信号的连接,等下次再需要查看虚拟屏幕的拓展时再重新连接,步骤繁复,使用过程较为不便,因此,迫切需要研发一种便于人员查看、不易遮挡视线的能够实现屏幕拓展的虚拟屏幕显示方法。
基于此,发明人经过研究,设计了一种虚拟屏幕显示方法,通过获取预设的虚拟屏幕和虚拟移动终端之间的位置关系,并获取世界坐标系中的移动终端的真实位置,根据移动终端的真实位置和位置关系,便能够在世界坐标系中确定出与预设的位置关系一致的、位于世界坐标系的虚拟屏幕的位置,此时将世界坐标系的虚拟屏幕位置映射至AR眼镜坐标系,使得AR眼镜可以在AR眼镜坐标系中的目标位置显示移动终端的屏幕影像,使得显示的屏幕影像的位置将与世界坐标系中的移动终端的位置保持固定的相对位置关系,当用户需要查看真实世界中的物体或屏幕等时,可以通过改变真实世界中移动终端的位置或角度,来使得AR眼镜坐标系中的虚拟屏幕的位置发生变化,避免遮挡用户视线,提高了在AR眼镜中显示虚拟屏幕实现屏幕拓展的灵活性与稳定性。
本申请实施例公开的虚拟屏幕显示方法可以但不限于用于对互联网用户账户进行虚拟屏幕显示,还可以应用于对其他任何需要进行虚拟屏幕显示的设备或设备组合进行虚拟屏幕显示,例如单机设备的开机用户登录验证等,在本申请实施例中,以用于对互联网用户账户进行虚拟屏幕显示为例进行说明。
图1示出了本申请实施例提供的虚拟屏幕显示方法的流程示意图,该方法由虚拟屏幕显示设备执行,虚拟屏幕显示设备例如可以是计算机、服务器等。如图1所示,该方法包括以下步骤:
步骤110:获取移动终端在世界坐标系中的第一现实位置。
在本步骤中,世界坐标系指的是系统的绝对坐标系,一般用于描述现实世界中物体的位置。移动终端指的是用于拓展的屏幕的显示数据来源设备,例如为手机、手提电脑等,目的是为后续AR眼镜显示拓展屏幕提供用于显示内容的数据来源,亦或是作为中转,通过其内安装的应用程序或转发模块将其它屏幕显示的数据发送至AR眼镜中,供AR眼镜接收并进行显示。
步骤120:获取预设坐标系中虚拟屏幕与移动终端的第一相对位置。
在本步骤中,预设坐标系指的是预先设定的坐标系,该预先设定的坐标系可以与世界坐标系重叠,也可以与世界坐标系不一致,目的是通过预先设置预设坐标系,并预设其中虚拟屏幕与移动终端的坐标以获取它们的第一相对位置作为后续步骤的计算基础。
步骤130:根据第一相对位置和第一现实位置,确定虚拟屏幕在世界坐标系中的第二现实位置。
在步骤130中,根据第一相对位置和第一现实位置确定虚拟屏幕在世界坐标系中的第二现实位置的方式例如可以为:虚拟屏幕与移动终端的第一相对位置为(+2,-4,+9),即当移动终端坐标为(x1,y1,z1)时,虚拟屏幕坐标为(x1+2,y1-4,z1+9),第一现实位置为(16,5,3),则虚拟屏幕在世界坐标系中的第二现实位置为(18,1,12),用公式表示则为:,其中,/>为虚拟屏幕在世界坐标系中的第二现实位置,/>为移动终端在世界坐标系中的第一现实位置,/>为预设坐标系中虚拟屏幕与移动终端的第一相对位置。
需要说明的是,上述实施例采用的第一相对位置为预设坐标系中虚拟屏幕到移动终端的位置,即第一相对位置为预设坐标系中虚拟屏幕的坐标与移动终端的坐标的差,此时计算第二现实位置时则需要将第一现实位置与第一相对位置之和作为第二现实位置,以使得世界坐标系中虚拟屏幕的第二现实位置与移动终端的第一现实位置之间的位置关系能够与预设坐标系中虚拟屏幕与移动终端之间的位置关系一致;而若第一相对位置的计算方式为预设坐标系中移动终端的坐标与虚拟屏幕的坐标的差,则应当采用第一现实位置与第一相对位置之差作为第二现实位置,本领域技术人员应当能够根据实际情况,基于计算过程和公式原理进行适当的调整以得到正确的结果,本申请实施例对此不作特殊限定。
此外,可以理解的是,为了保证计算结果的准确性,在进行上述公式计算时应当确保预设坐标系与世界坐标系的坐标数据尺度经过换算以保证一致,例如,当预设坐标系中一个单位的坐标长度为10cm,世界坐标系中一个单位的坐标长度为1m时,应当将预设坐标系的长度单位与世界坐标系进行统一后再进行计算,本领域技术人员应当能够对数据单位进行合理换算以确保在同样的数据长度单位下进行计算。择优的,还可以在预先设置预设坐标系的同时,使得预设坐标系的坐标尺度与世界坐标系保持一致,这样可以省略计算过程中对坐标数据尺度换算的步骤,会使得计算过程更加简洁便利。
步骤140:基于世界坐标系与AR眼镜坐标系的映射关系,将第二现实位置转换至AR眼镜坐标系中,得到虚拟屏幕在AR眼镜坐标系中的目标位置。
在本步骤中,世界坐标系与AR眼镜坐标系的映射关系的作用是进行坐标系转换,即世界坐标系与AR眼镜坐标系的映射关系例如可以为世界坐标系到AR眼镜坐标系的转换参数,例如旋转矩阵、平移向量等,或是用于实现世界坐标系到AR眼镜坐标系之间的转换公式。例如,将世界坐标系中的三维点(Xw,Yw,Zw)转换到AR眼镜坐标系中的点(Xar,Yar,Zar)的方式可以为平移,即将世界坐标系的原点平移到AR眼镜坐标系的原点,通过在每个坐标轴上减去相应的平移值来实现:Xar= Xw– Xoffset,Yar= Yw-Yoffset,Zar= Zw-Zoffset,其中,Xoffset、Yoffset与Zoffset分别表示X、Y和Z轴上的世界坐标系到AR眼镜坐标系的平移值,在这种情况下,世界坐标系与AR眼镜坐标系的映射关系即为世界坐标系到AR眼镜坐标系的平移矩阵。在另一种情况下,将世界坐标系中的三维点转换到AR眼镜坐标系中的点的方式可以为旋转,即根据旋转角度将世界坐标系中的点绕某个轴旋转到AR眼镜坐标系中,可以通过使用旋转矩阵或四元数来实现,将世界坐标系中的点分别绕X轴、Y轴与Z轴进行旋转以实现世界坐标系中的三维点到AR眼镜坐标系的转换,如果需要,还可以对世界坐标系中的点进行缩放,然后映射到AR眼镜坐标系,通过应用一个缩放因子来实现:Xar= scale × Xar,Yar=scale × Yar,Zar= scale × Zar。还可以同时采用旋转和平移的方式实现世界坐标系到AR眼镜坐标系之间的转换,例如采用旋转矩阵的方式实现坐标系转换,本申请实施例对此不做特殊限定。
可以理解的是,佩戴AR眼镜后,使用者能够随视角转动来阅览AR眼镜所显示的三维场景,AR眼镜坐标系即指的是该三维场景的坐标系,目标位置为AR眼镜坐标系中的坐标位置。
步骤150:在AR眼镜中的目标位置显示移动终端的屏幕影像。
在步骤150中,若在步骤110到步骤140所得到的目标位置为多个,其中每个目标位置分别代表虚拟屏幕上的一个坐标点,则可以在AR眼镜中由多个目标位置所组成的坐标范围内显示移动终端的屏幕影像,亦或是,当目标位置仅为一个坐标时,则以该坐标为中心点,显示移动终端的屏幕影像。
通过获取移动终端在世界坐标系中的第一现实位置并获取预设坐标系中虚拟屏幕与移动终端的第一相对位置,能够确定虚拟屏幕在世界坐标系中的第二现实位置,在基于世界坐标系与AR眼镜坐标系的映射关系将第二现实位置转换至AR眼镜坐标系中的目标位置后,在AR眼镜中的目标位置显示移动终端的屏幕影像,使得AR眼镜中显示的移动终端的屏幕影像的位置与移动终端的第一现实位置建立了对应关系,当使用者需要查看移动终端上显示的屏幕影像时,不需要低头查看移动终端的屏幕,只需要动手移动移动终端的位置,使得AR眼镜中在目标位置显示的影像的位置发生改变至便于查看即可,在办公过程中,还可以一边通过AR眼镜未显示影像的区域查看现实办公场景中的屏幕的同时,一边通过改变移动终端的位置调整AR眼镜中显示的移动终端的屏幕影像至现实办公场景中的屏幕旁边,实现屏幕的灵活拓展,提高办公效率,不会占用额外的办公区域,提高了多种场景下进行屏幕拓展的适应性。
请参阅图2,图2示出了本申请步骤120的子步骤的流程示意图。如图2所示,在本申请的一些实施例中,步骤120进一步包括:
步骤121:获取移动终端在预设坐标系中的第一预设位置;
步骤122:获取虚拟屏幕在预设坐标系中的第二预设位置;
步骤123:根据第一预设位置与第二预设位置,确定第一相对位置。
在步骤121至步骤123中,第一预设位置与第二预设位置为人工预先设置的坐标或坐标集,目的是通过预设移动终端与虚拟屏幕的位置的方式建立其相对位置关系,例如,当第一预设位置与第二预设位置均为单个坐标时,第一预设位置为(3,6,9),第二预设位置为(2,4,6),计算第一预设位置与第二预设位置的差值即可得到第一预设位置与第二预设位置之间的相对位置关系。在一些情况下,为了使得移动终端与虚拟屏幕之间的姿态也能够对应,在预设第一预设位置与第二预设位置时可以采用坐标集的方式设置,例如,将板状的移动终端的四角的坐标共同纳入第一预设位置中,并将虚拟屏幕的四角的坐标共同纳入第二预设位置中,得到的第一预设位置为:
(0,0,0)、(4,0,0)、(4,4,0)、(0,4,0),得到的第二预设位置为:
(0,0,0)、(0,0,4)、(0,4,4)、(0,4,0),计算得到第一预设位置与第二预设位置的对应点坐标的差值即可确定为上述步骤123中的第一相对位置,此时若移动终端在世界坐标系中的第一现实位置为:(12,8,5)、(12,8,10)、(12,13,10)、(12,13,5),则与由第一预设位置和第二预设位置计算得到的对应点坐标的差值相加即可得到虚拟屏幕在世界坐标系中的第二现实位置:(12,8,5)、(16,8,6)、(16,13,6)、(12,13,5)。
在一些情况下,还可以额外获取6Dof等参数参与计算来使得转换后的虚拟屏幕与移动终端的姿态能够对应,本申请实施例对此不作特殊限定。
通过获取预先设置的第一预设位置和第二预设位置来确定第一相对位置,使得相对位置的设置更加灵活准确,使得本申请实施例提供的虚拟屏幕显示方法在AR眼镜上进行屏幕拓展时显示的移动终端的屏幕影像的位置在针对不同移动终端和虚拟屏幕的尺寸时能够更加可控,获取预先设置的第一预设位置和第二预设位置也使得在进行屏幕拓展时,不易出现虚拟屏幕与移动终端穿模而影像屏幕拓展效果的意外。
请参阅图3,图3示出了本申请步骤121的子步骤的流程示意图。如图3所示,在本申请的一个实施例中,步骤121进一步包括:
步骤1211:将第一现实位置作为第一预设位置;
步骤122进一步包括:
步骤1221:获取AR眼镜在世界坐标系中的第三现实位置;
步骤1222:将第三现实位置作为第二预设位置。
在步骤1211中,将移动终端在世界坐标系中的第一现实位置作为第一预位置,不需要进行坐标系的转换,可以直接挪用第一现实位置的坐标数据作为第一预设位置。
在步骤1221至步骤1222中,获取AR眼镜在世界坐标系中的第三现实位置的方式可以通过AR眼镜上设置的传感器实现。第三现实位置作为第二预设位置时也同上述步骤1211一样,不需要进行坐标系的转换,可以理解为在本实施例中的预设坐标系即为世界坐标系。
通过将移动终端和AR眼镜在世界坐标系中的位置直接作为第一预设位置和第二预设位置,使得本申请实施例的第一预设位置和第二预设位置能够根据现实场景中移动终端和AR眼镜的摆放位置来得到第一预设位置与第二预设位置,使得第一预设位置与第二预设位置的设置更加方便快捷。
在本申请的一些实施例中,第一预设位置为由多个坐标点组成的第一面坐标,屏幕的预设位置为由多个坐标点组成的第二面坐标,第一面坐标与第二面坐标互相垂直。
其中,第一面坐标指的是由移动终端上的多个坐标点共同组成的坐标集,第二面坐标指的是由虚拟屏幕上的多个坐标点共同组成的坐标集,例如:第一面坐标包括:(0,0,0)、(8,0,0)、(8,8,0)、(0,8,0);第二面坐标包括:(0,0,0)、(0,0,8)、(0,8,8)、(0,8,0),此时第一面坐标包含的四个坐标点确定了一个面,而第二面坐标包含的四个坐标点确定了另一个面,这两个面互相垂直。
由于一般情况下,人们在进行办公时往往习惯于将移动终端水平放置在桌面上,同时目光水平直视垂直的显示屏,此时若想将移动终端的屏幕影像显示在AR眼镜中并使其便于使用者查看,显示的虚拟屏幕应当与移动终端互相垂直,通过互相垂直设置的第一面坐标与第二面坐标,使得本申请实施例提供的虚拟屏幕显示方法能够满足人们常见的办公场景的屏幕拓展方式。
请参阅图4,图4示出了本申请步骤140的子步骤的流程示意图。如图4所示,在本申请的一些实施例中,步骤140进一步包括:
步骤141:获取AR眼镜坐标系相对于世界坐标系的旋转矩阵;
步骤142:根据AR眼镜坐标系相对于世界坐标系的旋转矩阵,计算得到第二现实位置在AR眼镜坐标系中的目标位置。
在步骤141中,AR眼镜坐标系相对于世界坐标系的旋转矩阵的获取方式例如可以为通过陀螺仪和加速度计数据计算得到。
在步骤142中,计算第二现实位置在AR眼镜坐标系中的目标位置具体可以通过公式:Ps’ = Ra× (Ps- Pa),其中,Ps’为第二现实位置在AR眼镜坐标系中的目标位置,Ra为AR眼镜坐标系相对于世界坐标系的旋转矩阵,Ps为虚拟屏幕在世界坐标系中的第二现实位置,Pa为预设坐标系中AR眼镜的坐标。
通过采用旋转矩阵的方式将第二现实位置转换为AR眼镜坐标系中的目标位置,使得第二现实位置到AR眼镜坐标系的转换更加精确,且由于旋转矩阵可以围绕任意轴进行旋转变换,灵活性更高。
请参阅图5,图5示出了本申请步骤150之前的步骤及步骤150的子步骤的流程示意图。如图5所示,在本申请的一些实施例中,步骤150之前,还包括:
步骤1501:获取屏幕影像的尺寸;
步骤1502:根据AR眼镜坐标系相对于世界坐标系的旋转矩阵,计算屏幕影像在AR眼镜坐标系中的虚拟尺寸;
步骤150包括:
步骤151:在虚拟屏幕位置显示与虚拟尺寸的大小一致的屏幕影像。
在步骤1501中,屏幕影像的尺寸获取可以通过移动终端直接发送屏幕尺寸信息的方式进行解析获取,也可以由操作人员根据实际情况预先设置,例如,移动终端默认的屏幕显示尺寸为1920×1080像素,则移动终端向AR眼镜发送该尺寸信息,亦或是操作人员在AR眼镜上输入相同或其它所需要的尺寸信息,需要说明的是,屏幕影像的尺寸并非必须与移动终端屏幕所能显示的尺寸一致,可以根据实际需要进行相应的扩大或缩小。
在步骤1502中,根据AR眼镜坐标系相对于世界坐标系的旋转矩阵,计算屏幕影像在AR眼镜坐标系中的虚拟尺寸的方式例如可以通过公式:Ss’ = Ra× Ss,其中,Ss’为屏幕影像在AR眼镜坐标系中的虚拟尺寸,Ra为AR眼镜坐标系相对于世界坐标系的旋转矩阵,Ss为屏幕影像的尺寸。
在步骤151中,例如,由步骤1502计算得到的虚拟尺寸的大小为480×720像素,则在AR眼镜中的虚拟屏幕位置显示一个480×720像素大小的屏幕影像。
通过将屏幕影像的尺寸转化到AR眼镜坐标系中得到虚拟尺寸,使得在AR眼镜中显示的屏幕影像的大小能够根据实际需要灵活设置,不易出现影像长宽比失衡、影像过小或拉伸过度的问题,提高了稳定性。
请参阅图6,图6示出了本申请步骤150之后的步骤的流程示意图。如图6所示,在本申请的一些实施例中,步骤150之后,还包括:
步骤1510:根据AR眼镜坐标系相对于世界坐标系的旋转矩阵,计算得到第一现实位置在AR眼镜坐标系中的移动终端标记位置;
步骤1520:在移动终端标记位置显示标记,以指示移动终端在AR眼镜坐标系中的位置。
在步骤1510中,根据AR眼镜坐标系相对于世界坐标系的旋转矩阵,计算第一现实位置在AR眼镜坐标系中的移动终端位置,具体可以为通过公式:Pa’ = Ra× (Pw- Pa),其中,Pa’为为第一现实位置在AR眼镜坐标系中的移动终端标记位置,Ra为AR眼镜坐标系相对于世界坐标系的旋转矩阵,Pw为移动终端在世界坐标系中的第一现实位置,Pa为预设坐标系中AR眼镜的坐标。
在步骤1520中,在移动终端标记位置显示标记,指的是在AR眼镜中的移动终端标记位置显示虚拟的标记,该标记例如可以为符号、文字或三维模型,目的是使AR眼镜用户能够通过标记得知移动终端在AR眼镜坐标系中的位置。
通过在AR眼镜中显示用于指示移动终端的位置的标记,使得用户能够更好地对照调整移动终端的现实位置,亦或是避免在使用AR眼镜的过程中难以定位到现实中的移动终端造成遗失的问题。
图7示出了根据本申请一个实施例的虚拟屏幕显示装置700的功能框图。如图7所示,该虚拟屏幕显示装置700包括:第一获取模块701、第二获取模块702、第一确定模块703、第一转换模块704和显示模块705。第一获取模块701用于获取移动终端在世界坐标系中的第一现实位置;第二获取模块702用于获取预设坐标系中虚拟屏幕与移动终端的第一相对位置;第一确定模块703用于根据第一相对位置和第一现实位置,确定虚拟屏幕在世界坐标系中的第二现实位置;第一转换模块704用于基于世界坐标系与AR眼镜坐标系的映射关系,将第二现实位置转换至AR眼镜坐标系中,得到虚拟屏幕在AR眼镜坐标系中的目标位置;显示模块705用于在AR眼镜中的目标位置显示移动终端的屏幕影像。
在一些实施例中,第二获取模块702进一步包括第一获取单元、第二获取单元和第一确定单元。第一获取单元用于获取移动终端在预设坐标系中的第一预设位置;第二获取单元用于获取虚拟屏幕在预设坐标系中的第二预设位置;第一确定单元用于根据第一预设位置与第二预设位置,确定第一相对位置。
在一些实施例中,第一获取单元进一步包括第一处理元件。第一处理元件用于将第一现实位置作为第一预设位置。
在一些实施例中,第二获取单元进一步包括第一获取元件和第二处理元件。第一获取元件用于获取AR眼镜在世界坐标系中的第三现实位置;第二处理元件用于将第三现实位置作为第二预设位置。
在一些实施例中,第一转换模块704进一步包括第三获取单元和第一计算单元。第三获取单元用于获取AR眼镜坐标系相对于世界坐标系的旋转矩阵;第一计算单元用于根据AR眼镜坐标系相对于世界坐标系的旋转矩阵,计算得到第二现实位置在AR眼镜坐标系中的目标位置。
在一些实施例中,虚拟屏幕显示装置700进一步包括第三获取模块和第一计算模块。第三获取模块用于获取屏幕影像的尺寸;第一计算模块用于根据AR眼镜坐标系相对于世界坐标系的旋转矩阵,计算屏幕影像在AR眼镜坐标系中的虚拟尺寸。
在一些实施例中,显示模块705进一步包括显示单元。显示单元用于在虚拟屏幕位置显示与虚拟尺寸的大小一致的屏幕影像。
在一些实施例中,虚拟屏幕显示装置700进一步包括第二计算模块和标记模块。第二计算模块用于根据AR眼镜坐标系相对于世界坐标系的旋转矩阵,计算得到第一现实位置在AR眼镜坐标系中的移动终端标记位置;标记模块用于在移动终端标记位置显示标记,以指示移动终端在AR眼镜坐标系中的位置。
根据本申请实施例的另一个方面,提供一种虚拟屏幕显示设备。具体请参阅图7,图7示出了根据本申请实施例的一种虚拟屏幕显示设备的结构示意图,本申请具体实施例并不对虚拟屏幕显示设备的具体实现做限定。
如图7所示,该虚拟屏幕显示设备可以包括:处理器702、存储器706、通信接口704和通信总线708。
其中,处理器702、存储器706和通信接口704通过通信总线708完成相互间的通信。存储器706用于存放至少一程序710,程序710使处理器702执行如上述虚拟屏幕显示方法实施例中的相关步骤。
具体地,程序710可以包括程序代码,该程序代码包括计算机可执行指令。
处理器702可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本申请实施例的一个或多个集成电路。虚拟屏幕显示设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器706,用于存储程序710。存储器706可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序710具体可以被处理器702调用使虚拟屏幕显示设备执行以下操作:获取用户事件;确定风险等级表;风险等级表用于表征用户事件不满足第一预设条件时,用户事件对应的用户账户的遗失概率;根据风险等级表,以账户遗失概率由小到大的顺序对用户事件进行排序;确定风控验证的种类的第一数量;按照排序将用户事件以相同步长进行切割,得到第二数量的用户事件组;第二数量与第一数量相等,每个用户事件组按照排序的顺序分别设置有序号;判断用户事件是否满足第二预设条件;若否,则触发k个不同种类的风控验证;k为用户事件所属的用户事件组的序号。
本申请实施例还提供了一种计算机可读存储介质,存储介质中存储有可执行指令,可执行指令在虚拟屏幕显示设备上运行时,使得虚拟屏幕显示设备执行上述任一实施例中的虚拟屏幕显示方法。
可执行指令具体可以用于使得虚拟屏幕显示设备执行以下操作:获取用户事件;确定风险等级表;风险等级表用于表征用户事件不满足第一预设条件时,用户事件对应的用户账户的遗失概率;根据风险等级表,以账户遗失概率由小到大的顺序对用户事件进行排序;确定风控验证的种类的第一数量;按照排序将用户事件以相同步长进行切割,得到第二数量的用户事件组;第二数量与第一数量相等,每个用户事件组按照排序的顺序分别设置有序号;判断用户事件是否满足第二预设条件;若否,则触发k个不同种类的风控验证;k为用户事件所属的用户事件组的序号。
在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本申请实施例也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本申请的内容,并且上面对特定语言所做的描述是为了披露本申请的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本申请的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本申请并帮助理解各个发明方面中的一个或多个,在上面对本申请的示例性实施例的描述中,本申请实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。
本领域技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
应该注意的是上述实施例对本申请进行说明而不是对本申请进行限制,并且本领域技术人员在不脱离范围的情况下可设计出替换实施例。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。
Claims (9)
1.一种虚拟屏幕显示方法,其特征在于,包括:
获取移动终端在世界坐标系中的第一现实位置;
获取所述移动终端在预设坐标系中的第一预设位置;
获取所述虚拟屏幕在所述预设坐标系中的第二预设位置;
根据所述第一预设位置与所述第二预设位置,确定第一相对位置;
根据所述第一相对位置和所述第一现实位置,确定所述虚拟屏幕在所述世界坐标系中的第二现实位置;
基于所述世界坐标系与AR眼镜坐标系的映射关系,将所述第二现实位置转换至所述AR眼镜坐标系中,得到所述虚拟屏幕在所述AR眼镜坐标系中的目标位置;
在AR眼镜中的所述目标位置显示所述移动终端的屏幕影像。
2.根据权利要求1所述的虚拟屏幕显示方法,其特征在于,所述获取所述移动终端在预设坐标系中的第一预设位置,包括:
将所述第一现实位置作为所述第一预设位置;
所述获取所述虚拟屏幕在所述预设坐标系中的第二预设位置,包括:
获取AR眼镜在所述世界坐标系中的第三现实位置;
将所述第三现实位置作为所述第二预设位置。
3.根据权利要求1所述的虚拟屏幕显示方法,其特征在于,所述第一预设位置为由多个坐标点组成的第一面坐标,所述屏幕的预设位置为由多个坐标点组成的第二面坐标,所述第一面坐标与所述第二面坐标互相垂直。
4.根据权利要求1所述的虚拟屏幕显示方法,其特征在于,所述基于所述世界坐标系与AR眼镜坐标系的映射关系,将所述第二现实位置转换至所述AR眼镜坐标系中,得到所述虚拟屏幕在所述AR眼镜坐标系中的目标位置,包括:
获取所述AR眼镜坐标系相对于所述世界坐标系的旋转矩阵;
根据所述AR眼镜坐标系相对于所述世界坐标系的旋转矩阵,计算得到所述第二现实位置在所述AR眼镜坐标系中的所述目标位置。
5.根据权利要求4所述的虚拟屏幕显示方法,其特征在于,所述在AR眼镜中的所述目标位置显示所述移动终端的屏幕影像之前,所述虚拟屏幕显示方法还包括:
获取所述屏幕影像的尺寸;
根据所述AR眼镜坐标系相对于所述世界坐标系的旋转矩阵,计算所述屏幕影像在所述AR眼镜坐标系中的虚拟尺寸;
所述在AR眼镜中的所述目标位置显示所述移动终端的屏幕影像,包括:
在所述目标位置显示与所述虚拟尺寸的大小一致的所述屏幕影像。
6.根据权利要求4所述的虚拟屏幕显示方法,其特征在于,所述在AR眼镜中的所述目标位置显示所述移动终端的屏幕影像之后,所述虚拟屏幕显示方法还包括:
根据所述AR眼镜坐标系相对于所述世界坐标系的旋转矩阵,计算得到所述第一现实位置在所述AR眼镜坐标系中的移动终端标记位置;
在所述移动终端标记位置显示标记,以指示所述移动终端在所述AR眼镜坐标系中的位置。
7.一种虚拟屏幕显示装置,其特征在于,包括:
第一获取模块,用于获取移动终端在世界坐标系中的第一现实位置;
第二获取模块,用于获取所述移动终端再预设坐标系中的第一预设位置;获取所述虚拟屏幕在所述预设坐标系中的第二预设位置;根据所述第一预设位置与所述第二预设位置,确定第一相对位置;
第一确定模块,用于根据所述第一相对位置和所述第一现实位置,确定所述虚拟屏幕在所述世界坐标系中的第二现实位置;
第一转换模块,用于基于所述世界坐标系与AR眼镜坐标系的映射关系,将所述第二现实位置转换至AR眼镜坐标系中,得到虚拟屏幕在AR眼镜坐标系中的目标位置;
显示模块,用于在AR眼镜中的目标位置显示移动终端的屏幕影像。
8.一种虚拟屏幕显示设备,其特征在于,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一程序,所述程序使所述处理器执行如权利要求1-6任意一项所述的虚拟屏幕显示方法的操作。
9.一种计算机可读存储介质,其特征在于,所述存储介质中存储有可执行指令,所述可执行指令在虚拟屏幕显示设备上运行时,使得虚拟屏幕显示设备执行如权利要求1-6中任意一项所述的虚拟屏幕显示方法的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311189241.0A CN116932119B (zh) | 2023-09-15 | 2023-09-15 | 虚拟屏幕显示方法、装置、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311189241.0A CN116932119B (zh) | 2023-09-15 | 2023-09-15 | 虚拟屏幕显示方法、装置、设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116932119A CN116932119A (zh) | 2023-10-24 |
CN116932119B true CN116932119B (zh) | 2024-01-02 |
Family
ID=88377451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311189241.0A Active CN116932119B (zh) | 2023-09-15 | 2023-09-15 | 虚拟屏幕显示方法、装置、设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116932119B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117434571B (zh) * | 2023-12-21 | 2024-03-15 | 绘见科技(深圳)有限公司 | 基于单天线确定设备绝对位姿的方法、mr设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108038916A (zh) * | 2017-12-27 | 2018-05-15 | 上海徕尼智能科技有限公司 | 一种增强现实的显示方法 |
CN108762501A (zh) * | 2018-05-23 | 2018-11-06 | 歌尔科技有限公司 | Ar显示方法、智能终端、ar设备及系统 |
CN108924538A (zh) * | 2018-05-30 | 2018-11-30 | 太若科技(北京)有限公司 | Ar设备的屏幕拓展方法 |
CN111679801A (zh) * | 2020-05-29 | 2020-09-18 | 张超 | 一种屏幕拼接方法、装置、设备及计算机存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10001645B2 (en) * | 2014-01-17 | 2018-06-19 | Sony Interactive Entertainment America Llc | Using a second screen as a private tracking heads-up display |
US11379033B2 (en) * | 2019-09-26 | 2022-07-05 | Apple Inc. | Augmented devices |
TWI757824B (zh) * | 2020-08-10 | 2022-03-11 | 宏碁股份有限公司 | 擴增實境螢幕系統及擴增實境螢幕顯示方法 |
-
2023
- 2023-09-15 CN CN202311189241.0A patent/CN116932119B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108038916A (zh) * | 2017-12-27 | 2018-05-15 | 上海徕尼智能科技有限公司 | 一种增强现实的显示方法 |
CN108762501A (zh) * | 2018-05-23 | 2018-11-06 | 歌尔科技有限公司 | Ar显示方法、智能终端、ar设备及系统 |
CN108924538A (zh) * | 2018-05-30 | 2018-11-30 | 太若科技(北京)有限公司 | Ar设备的屏幕拓展方法 |
CN111679801A (zh) * | 2020-05-29 | 2020-09-18 | 张超 | 一种屏幕拼接方法、装置、设备及计算机存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116932119A (zh) | 2023-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107223269B (zh) | 三维场景定位方法和装置 | |
JP6264834B2 (ja) | ガイド方法、情報処理装置およびガイドプログラム | |
CN116932119B (zh) | 虚拟屏幕显示方法、装置、设备及计算机可读存储介质 | |
US8031210B2 (en) | Method and apparatus for creating a composite image | |
KR100962557B1 (ko) | 증강현실 구현 장치 및 증강현실 구현 방법 | |
JP2001142604A (ja) | オブジェクト検証方法及び拡張現実感ディスプレイシステム | |
EP4105766A1 (en) | Image display method and apparatus, and computer device and storage medium | |
US20240071016A1 (en) | Mixed reality system, program, mobile terminal device, and method | |
CN112529097B (zh) | 样本图像生成方法、装置以及电子设备 | |
KR20180017108A (ko) | 복수의 모델들에 근거하는 객체들의 디스플레이 | |
CN105095314A (zh) | 一种兴趣点的标注方法、终端、导航服务器及导航系统 | |
CN115830135A (zh) | 一种图像处理方法、装置及电子设备 | |
CN108090212B (zh) | 兴趣点的展示方法、装置、设备及存储介质 | |
CN112634366A (zh) | 位置信息的生成方法、相关装置及计算机程序产品 | |
CN113763478A (zh) | 无人车相机标定方法、装置、设备、存储介质及系统 | |
CN112528707A (zh) | 图像处理方法、装置、设备及存储介质 | |
US20230169680A1 (en) | Beijing baidu netcom science technology co., ltd. | |
CN112667137B (zh) | 户型图和房屋三维模型的切换显示方法及装置 | |
CN107452046B (zh) | 三维城市模型的纹理处理方法及装置、设备及可读介质 | |
CN112862981B (zh) | 用于呈现虚拟表示的方法和装置、计算机设备和存储介质 | |
CN112150527B (zh) | 测量方法及装置、电子设备及存储介质 | |
CN112308768B (zh) | 一种数据处理方法、装置、电子设备以及存储介质 | |
CN108171802B (zh) | 一种云端与终端结合实现的全景增强现实实现方法 | |
CN114371819A (zh) | 扩增实境屏幕系统及扩增实境屏幕显示方法 | |
CN112258435A (zh) | 图像处理方法和相关产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |