CN113421343B - 基于增强现实观测设备内部结构的方法 - Google Patents
基于增强现实观测设备内部结构的方法 Download PDFInfo
- Publication number
- CN113421343B CN113421343B CN202110585659.8A CN202110585659A CN113421343B CN 113421343 B CN113421343 B CN 113421343B CN 202110585659 A CN202110585659 A CN 202110585659A CN 113421343 B CN113421343 B CN 113421343B
- Authority
- CN
- China
- Prior art keywords
- virtual
- virtual element
- equipment
- observation position
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 26
- 238000001514 detection method Methods 0.000 claims abstract description 88
- 238000003860 storage Methods 0.000 claims description 16
- 238000012360 testing method Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 230000003993 interaction Effects 0.000 abstract description 7
- 230000000694 effects Effects 0.000 abstract description 3
- 230000001960 triggered effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例公开了一种基于增强现实观测设备内部结构的方法,其中,应用于终端设备的方法包括:通过所述终端设备的摄像头获取实景并进行平面检测,确定目标平面,在所述目标平面放置虚拟设备;当观测位置进入虚拟设备内部后,根据用户对当前检测画面的操作,确定当前虚拟元件节点,所述当前虚拟元件节点对应所述当前检测画面内所述虚拟设备中的虚拟元件;获取所述当前虚拟元件节点对应的虚拟元件信息,显示所述虚拟元件信息,可以对虚拟设备内部结构进行观测,获得虚拟元件信息,提升增强现实场景的互动效果。
Description
技术领域
本申请涉及增强现实技术领域,尤其涉及一种基于增强现实观测设备内部结构的方法。
背景技术
增强现实(Augmented Reality,AR)技术是一种虚拟信息与真实世界巧妙融合的技术,广泛运用了多媒体、三维建模、实时跟踪及注册、智能交互、传感等多种技术手段,将计算机生成的文字、图像、三维模型、音乐、视频等虚拟信息模拟仿真后,应用到真实世界中,两种信息互为补充,从而实现对真实世界的“增强”。
当前,在实际运用增强现实的场景中,用户可以通过简单的手势对虚拟模型进行操作,如缩放、旋转等,比如对虚拟家居进行平移、缩放、放置等互动操作,但这类操作简单、互动趣味低,不能提供给用户更多关于产品的体验和信息。
发明内容
本发明的主要目的在于提供一种基于增强现实观测设备内部结构的方法,可以解决一般方案中增强现实的场景交互简单,不能对虚拟设备内部进行观测的问题。
一方面,本申请提供了一种基于增强现实观测设备内部结构的方法,应用于终端设备,所述方法包括:
通过所述终端设备的摄像头获取实景并进行平面检测,确定目标平面,在所述目标平面放置虚拟设备;
当观测位置进入虚拟设备内部后,根据用户对当前检测画面的操作,确定当前虚拟元件节点,所述当前虚拟元件节点对应所述当前检测画面内所述虚拟设备中的虚拟元件;
获取所述当前虚拟元件节点对应的虚拟元件信息,显示所述虚拟元件信息。
可选的,所述方法还包括:
在确定观测位置进入所述虚拟设备内部时,将所述观测位置调整至目标初始观测位置;
所述目标初始观测位置为:所述观测位置位于所述虚拟设备最外侧的壁的内表面上,且所述观测位置对应的观测视角朝向所述虚拟设备内部。
可选的,所述确定观测位置进入所述虚拟设备内部,包括:
获取所述摄像头与所述虚拟设备的中心的距离;
当所述摄像头所处的观测位置与所述虚拟设备的中心的距离小于预设距离的情况下,确定所述观测位置进入所述虚拟设备内部,所述预设距离大于或等于所述虚拟设备的中心至所述虚拟设备的外表面的最大距离,并且所述预设距离与所述最大距离的差值小于预设阈值。
可选的,所述根据用户对所述当前检测画面的操作,确定当前虚拟元件节点,包括:
在检测到在所述当前检测画面发生预设触控操作时,触发命中测试处理,获得命中结果,所述命中结果包括所述当前检测画面对应的虚拟元件节点;
若所述当前检测画面对应的虚拟元件节点为一个,确定所述当前检测画面对应的虚拟元件节点为所述当前虚拟元件节点;
若所述当前检测画面对应的虚拟元件节点为多个,根据用户对所述多个虚拟元件节点的选择操作,确定选择的虚拟元件节点为所述当前虚拟元件节点。
可选的,所述命中测试处理包括:
从所述摄像头发射检测射线,获取与所述检测射线相交的虚拟元件节点。
可选的,所述方法还包括:
获取通过所述检测射线确定的虚拟元件节点的标记点,所述标记点为所述检测射线穿过虚拟元件时在所述虚拟元件上第一次穿过位置的点;
若所述当前检测画面对应的虚拟元件节点为多个,所述标记点包括所述多个虚拟元件对应的多个标记点,所述多个标记点按照所述检测射线穿过虚拟元件的顺序排序;
所述根据用户对所述多个虚拟元件节点的选择操作,确定所述多个虚拟元件节点中的一个虚拟元件节点为所述当前虚拟元件节点,包括:
在检测到用户在所述当前检测画面发生点击操作时,根据所述点击操作的次数和所述多个标记点的排序确定所述点击操作对应的目标标记点;
确定所述目标标记点对应的虚拟元件节点为所述当前虚拟元件节点。
可选的,所述方法还包括:
在所述当前检测画面中显示位置地图窗口,所述位置地图窗口用于显示全局参考模型,所述全局参考模型中标注所述终端设备在所述虚拟设备中所处的观测位置;
在检测到截面位置获取指令的情况下,在所述位置地图窗口显示所述全局参考模型的截面视图,所述截面视图由截取参考平面确定,所述截取参考平面垂直于所述终端设备屏幕。
可选的,所述方法还包括:
在检测到对所述终端设备屏幕的两个位置的同时触控操作时,获取所述同时触控操作的持续时长;
在所述持续时长不小于预设时长时触发所述截面位置获取指令;
在所述检测到截面位置获取指令的情况下,根据所述两个位置之间的连线确定所述截取参考平面。
可选的,所述调整所述虚拟设备的位置,包括:
获取设备调整参考线,所述设备调整参考线为所述摄像头所处的观测位置与所述虚拟设备的中心的连线;
沿所述设备调整参考线调整所述虚拟设备的位置,使所述观测位置为所述目标初始观测位置。
另一方面,提供了一种终端设备,包括:
平面检测模块,用于通过所述终端设备的摄像头获取实景并进行平面检测,确定目标平面,在所述目标平面放置虚拟设备;
选中模块,当观测位置进入虚拟设备内部后,根据用户对当前检测画面的操作,确定当前虚拟元件节点,所述当前虚拟元件节点对应所述当前检测画面内所述虚拟设备中的虚拟元件;
信息显示模块,用于获取所述当前虚拟元件节点对应的虚拟元件信息,显示所述虚拟元件信息。
另一方面,提供了另一种终端设备,包括处理器和存储器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行上述任一方面的方法及其任一种可能的实现方式的步骤。
另一方面,还提供了一种计算机存储介质,所述计算机存储介质存储有一条或多条指令,所述一条或多条指令适于由处理器加载并执行如上述任一方面的方法及其任一种可能的实现方式的步骤。
本发明提供一种基于增强现实观测设备内部结构的方法,通过终端设备的摄像头获取实景并进行平面检测,确定目标平面,在上述目标平面放置虚拟设备;当观测位置进入虚拟设备内部后,根据用户对当前检测画面的操作,确定当前虚拟元件节点,上述当前虚拟元件节点对应上述当前检测画面内上述虚拟设备中的虚拟元件;获取上述当前虚拟元件节点对应的虚拟元件信息,显示上述虚拟元件信息,可以对虚拟设备内部结构进行观测,获取虚拟元件信息,提升增强现实场景的互动效果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
其中:
图1为本申请实施例提供的一种基于增强现实观测设备内部结构的方法的流程示意图;
图2为本申请实施例提供的一种观测位置进入虚拟设备内部的场景示意图;
图3为本申请实施例提供的一种截面状态的屏幕示意图;
图4为本申请实施例提供的另一种基于增强现实观测设备内部结构的方法的流程示意图;
图5为本申请实施例提供的一种虚拟元件节点命中测试示意图;
图6为本申请实施例提供的一种终端设备的结构示意图;
图7为本申请实施例提供的另一种终端设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
图1为本申请实施例提供的基于增强现实观测设备内部结构的方法的流程图,如图1所示方法可应用于终端设备,所示方法包括:
101、通过终端设备的摄像头获取实景并进行平面检测,确定目标平面,在上述目标平面放置虚拟设备。
本申请实施例中提到的终端设备,可以为移动终端设备,包括但不限于诸如具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的手机、平板计算机、可穿戴设备或者其他便携式设备。
增强现实技术可以通过平面检测来识别出真实世界中的水平面,有了这个水平面,才能将虚拟设备放置到某个锚定点上显示出来。具体的,本申请实施例中可以根据需要选择增强现实开发库或模型,比如采用IOS系统提供的AR移动端开发库ARKit。本申请实施例提到的ARKit是一种AR开发平台。开发人员可以使用这套工具在终端设备创建增强现实应用程序。
具体的,使用ARKit的AR场景实现步骤如下:
ARSCNView:加载场景SCNScene;
SCNScene:启动相机ARCamera捕捉场景;
ARSCNView:将场景数据交由Session处理;
ARSessionConfiguration:追踪相机移动,并返回一个ARFrame;
在ARSCNView的场景(scene)中添加虚拟设备节点;
其中还通过设备追踪确保了虚拟设备的位置不受终端设备移动的影响,主要可通过ARWorldTrackingConfiguration提供六个自由度(Six Degree ofFreedom,6DoF)的设备追踪,包括三个姿态角偏航角(Yaw)、俯仰角(Pitch)和翻滚角(Roll),以及沿笛卡尔坐标系中X、Y和Z三轴的偏移量。
本申请实施例可以结合其他增强现实模型或算法实施,此处不做限制。
在放置上述虚拟设备之后,在终端设备的屏幕上显示该虚拟设备,用户可以移动终端设备对该虚拟设备进行观察,还可以通过终端设备上的各种触控操作与该虚拟设备进行交互,本申请实施例对此不做限制。
102、当观测位置进入虚拟设备内部后,根据用户对当前检测画面的操作,确定当前虚拟元件节点,所述当前虚拟元件节点对应所述当前检测画面内所述虚拟设备中的虚拟元件。
本申请实施例中,终端设备可以靠近该虚拟设备,该终端设备对应的观测位置随终端设备的移动而改变,不同的观测位置可对应不同视角。在观测位置靠近到一定程度时,可以认为该观测位置进入虚拟设备内部,在终端设备上显示进入上述虚拟设备内部的视角,可以对虚拟设备的内部结构进行观察、交互。
本申请实施例中,当上述观测位置进入虚拟设备内部后,用户可以观测虚拟设备内部,并可以与虚拟设备内部的虚拟元件进行交互,具体可以在终端设备上对当前检测画面进行各种操作来确定当前虚拟元件节点,比如在屏幕上进行点击、按压或滑动操作,以确定当前交互中的虚拟元件。可以根据需要预先定义不同操作对应的指令,以实现不同的交互功能,本申请实施例对此不做限制。
在一种可选的实施方式中,该方法还包括:
在确定观测位置进入上述虚拟设备内部时,将上述观测位置调整至目标初始观测位置;
上述目标初始观测位置为:上述观测位置位于上述虚拟设备最外侧的壁的内表面上,且上述观测位置对应的观测视角朝向上述虚拟设备内部。
在确定观测位置进入虚拟设备内部时,可以及时调整观测位置,使观测位置位于目标初始观测位置。调整位置主要可以理解为调整该虚拟设备与终端设备的相对位置。具体可以调整为,使该摄像头所处的观测位置位于该虚拟设备最外侧的壁的内表面上,并且观测视角朝向该虚拟设备内部,如此,可以固定初始的观测位置方便追踪以及衡量虚拟设备内部空间的大小。
在一种可选的实施方式中,上述确定观测位置进入上述虚拟设备内部,包括:
获取上述摄像头所处的观测位置与上述虚拟设备的中心的距离;
当上述摄像头所处的观测位置与上述虚拟设备的中心的距离小于预设距离的情况下,确定上述观测位置进入上述虚拟设备内部,上述预设距离大于或等于上述虚拟设备的中心至上述虚拟设备的外表面的最大距离,并且上述预设距离与上述最大距离的差值小于预设阈值。
本申请实施例中通过判断摄像头所处的观测位置与虚拟设备的中心的距离,来确定是否进入该虚拟设备内部。
图2为本申请提供的一种观测位置进入虚拟设备内部的场景示意图,如图2所示,预设距离为L,终端设备可以获取摄像头所处的观测位置与虚拟设备的中心的距离d,上述摄像头所处的观测位置可以通过摄像头的镜头中心所对应的位置确定。具体的,在S1处,距离d大于或等于L时,可以认为当前的观测位置在虚拟设备外部;在S2处,距离d小于L,就认为当前的观测位置进入虚拟设备内部,可选的,此时可以在终端设备的屏幕提示用户已进入虚拟设备内部,之后可以显示虚拟设备内部视角。上述预设距离L通常可以设置为等于该虚拟设备的中心至其外表面的最大距离m,或者略大于该最大距离,即上述预设距离L与上述最大距离m的差值小于预设阈值a,a可以根据需要设置较小数值,若差值较大则表示观测位置离虚拟设备较远时就触发进入内部的场景了。通过上述方法可以使场景体验更接近用户“进入”设备内部的状态变化。在一种可选的实施方式中,上述位置调整的方式包括:
获取设备调整参考线,上述设备调整参考线为上述摄像头所处的观测位置与上述虚拟设备的中心的连线;
沿上述设备调整参考线调整上述虚拟设备的位置,使所述观测位置为所述目标初始观测位置。
当距离d小于预设距离L时,可以定义出一条设备调整参考线,该参考线为摄像头所处的观测位置与虚拟设备的中心的连线,进一步沿着该参考线自动调整虚拟设备的位置,使观测位置位于虚拟设备最外侧的壁的内表面上,且观测位置对应的观测视角朝向朝向设备内部。
在一种可选实施方式中,当距离d大于L时,可以认为该观测位置在虚拟设备外部;在S2处,距离d逐渐变小,至等于L时,此时自动调观测位置和虚拟设备的位置关系,使观测位置位于该虚拟设备的距其中心为L的外侧的壁的内表面上,并提示可以在终端设备的屏幕提示用户已进入虚拟设备内部,如此,固定了用户观察虚拟设备的初始位置,可方便对虚拟设备内部进行观察。
103、获取上述当前虚拟元件节点对应的虚拟元件信息,显示上述虚拟元件信息。
本申请实施例中可以显示虚拟设备内部的虚拟元件信息。具体的,对于选中的当前虚拟元件节点,可以从数据库中获取当前虚拟元件节点对应的虚拟元件信息进行显示。
其中,预先建立的各个虚拟元件节点可以设置对应的外观属性和虚拟元件信息,比如在SceneKit库中,SCNNode用来管理3D物体,SCNNode中又有个geometry属性来管理物体的外观。在选中的当前虚拟元件节点,可以通过其外观属性,获得对应的虚拟元件信息,该虚拟元件信息可以包括元件名称、元件型号、生产日期、元件颜色制造商、规格、简介等等,本申请实施例对此不做限制。如表1为本申请实施例提供的一种虚拟元件信息表,可以在终端设备的屏幕上显示。
表1
在一种可选的实施方式中,上述方法还包括:
104、在上述当前检测画面中显示位置地图窗口,上述位置地图窗口用于显示全局参考模型,上述全局参考模型中标注上述终端设备在上述虚拟设备中所处的观测位置;
105、在检测到截面位置获取指令的情况下,在上述位置地图窗口显示上述全局参考模型的截面视图,上述截面视图由截取参考平面确定,上述截取参考平面垂直于上述终端设备屏幕。
具体的,可以在当前检测画面中显示一个小的位置地图窗口,展示完整的AR虚拟参考模型,此模型可以为3D模型,其中对终端设备处于虚拟物体内部的位置做一显示,从而使得用户可以了解终端设备所在的观测位置。可选的,上述位置地图窗口可以显示在屏幕角落如左上角,不遮挡当前检测画面的主视角。
进一步地,可以选择显示该全局参考模型的截面视图。通过上述截面位置获取指令,可以确定当前截取参考平面,来对当前显示的全局参考模型进行截取,获得当前截面视图。
上述截面位置获取指令可以通过预设的手势动作触发,比如通过两个手指同时按压屏幕。
可选的,上述方法还包括:
201、在检测到对上述终端设备屏幕的两个位置的同时触控操作时,获取上述同时触控操作的持续时长;
202、在上述持续时长不小于预设时长时触发上述截面位置获取指令;
203、在上述检测到截面位置获取指令的情况下,根据上述两个位置之间的连线确定上述截取参考平面。
其中,上述预设时长可以根据需要设置,比如预设时长为3s。
图3为本申请提供的一种截面状态的屏幕示意图,结合图3中所示进行举例,其中图3外框为屏幕边界,在屏幕左上角的位置地图窗口30显示立体的全局参考模型,其中包括模型虚拟设备31和虚拟的终端设备摄像头所在位置点32,上述模型虚拟设备31实际可以为任意形状,图中矩形仅作示意。需要说明的是,位置地图窗口30外侧具有虚拟设备33,模型虚拟设备31是虚拟设备33的参考模型。用户将两个手指同时长按压屏幕3s以上(图中标号34位置),则可以在显示的全局参考模型上显示对应的截面视图。具体的,终端设备可以确定上述两个手指按压的两个位置之间的连线(具体可以为两个手指按压位置的中心的连线),并确定穿过该连线且垂直于终端设备屏幕的平面为上述截取参考平面,通过该截取参考平面即可确定截面视图。并且,可选的,配合向上下左右滑动屏幕,可以调整截面视图的朝向,如可以利用图3中显示的调整辅助工具,包括朝向箭头,便于更好地控制截面选定。可选的,在截面操作完成后,全局参考模型可以自动转动,使截面对准屏幕,即显示完整的截面视图。可选的,当再次点击全局参考模型可退出截面状态。如此,可以从宏观上更清晰地显示用户的观测位置。
本申请实施例通过终端设备的摄像头获取实景并进行平面检测,确定目标平面,在上述目标平面放置虚拟设备;当观测位置进入虚拟设备内部后,根据用户对当前检测画面的操作,确定当前虚拟元件节点,上述当前虚拟元件节点对应上述当前检测画面内上述虚拟设备中的虚拟元件;获取上述当前虚拟元件节点对应的虚拟元件信息,显示上述虚拟元件信息,可以对虚拟设备内部结构进行观测,获取虚拟元件信息,提升增强现实场景的互动效果。其中,在确定观测位置进入虚拟设备内部时,可以进行位置调整,使观测位置相对虚拟设备的初始位置固定,更方便观测。
进一步的,图4为本申请实施例提供的另一种基于增强现实观测设备内部结构的方法的流程示意图。如图4所示,该方法包括:
401、通过上述终端设备的摄像头获取实景并进行平面检测,确定目标平面,在上述目标平面放置虚拟设备。
402、在确定观测位置进入上述虚拟设备内部时,将上述观测位置调整至目标初始观测位置,上述目标初始观测位置为:上述观测位置位于上述虚拟设备最外侧的壁的内表面上,且上述观测位置对应的观测视角朝向上述虚拟设备内部。
其中,上述步骤401和步骤402可以分别参考图1所示实施例中步骤101和步骤102中的具体描述,此处不再赘述。
403、在检测到在上述当前检测画面发生预设触控操作时,从上述摄像头发射检测射线,获取与上述检测射线相交的虚拟元件节点。
本申请实施例中可以根据需要设置上述预设触控操作,用于触发对虚拟元件节点的选中,比如上述预设触控操作可以为手指单击屏幕。本申请实施例中可以在检测到在当前检测画面发生预设触控操作时,触发命中测试(hittest)处理,获得命中结果,包括当前检测画面对应的虚拟元件节点。
404、获取通过上述检测射线确定的多个虚拟元件对应的多个标记点,上述多个标记点按照上述检测射线穿过虚拟元件的顺序排序。
若一次命中测试确定一个虚拟元件,则可以直接显示该虚拟元件信息。本申请实施例中可以通过一次操作触发命中测试,同时检测到多个虚拟元件。
若所述当前检测画面对应的虚拟元件节点为多个,可以根据用户对虚拟元件节点的选择操作,确定选择的虚拟元件节点为当前虚拟元件节点进行交互。可选的,可以先显示多个虚拟元件节点,再由用户从中选择,也可以不用先显示,通过用户触发的预设触控操作直接选择和切换当前虚拟元件节点。
图5为本申请提供的一种虚拟元件节点命中测试示意图。比如,可以设置手指单击屏幕,通过按压屏幕达到预设时长时,触发执行一次命中测试。在触发命中测试时从摄像头原点中心处发出一条沿着光轴的检测射线,该射线可能会与多个虚拟元件节点相交,就会获得一组命中结果:[SCNHitTestResult],如图5所示,从摄像头原点中心处发出的检测射线,在屏幕中可以显示为从屏幕点击点D发出,击中3个虚拟元件节点1、2、3,则命中结果为3个。
上述检测射线穿过每个虚拟元件可以在虚拟元件上第一次穿过的位置显示一个标记点。在命中结果包括多个虚拟元件节点的情况下,获得对应的多个标记点。
405、在检测到用户在上述当前检测画面发生点击操作时,根据上述点击操作的次数和上述多个标记点的排序确定上述点击操作对应的目标标记点。
可以将多个标记点按照检测射线穿过虚拟元件的顺序排序。比如检测射线依次穿过三个虚拟元件节点,可以将三个标记点分别记为第一标记点、第二标记点、第三标记点。
进一步地,根据标记点的排序,对应点击操作的次数,用户可以通过点击操作选择所需观测的虚拟元件,查看虚拟元件信息。
406、确定上述目标标记点对应的虚拟元件节点为上述当前虚拟元件节点。
407、获取上述当前虚拟元件节点对应的虚拟元件信息,显示上述虚拟元件信息。
具体的,用户点击一次屏幕,目标标记点为第一标记点,显示第一标记点所对应的虚拟元件信息,点击两次屏幕,目标标记点为第二标记点,显示第二标记点所对应的虚拟元件信息;点击三次屏幕,目标标记点为第三标记点,显示第三标记点对应的虚拟元件信息,以此类推。
举例来讲,对于获取的命中结果数组中的其中一个结果,即选定当前虚拟元件节点,展示该虚拟元件节点的信息可以通过以下步骤实现:该命中结果SCNHitTestResult包含一个SCNNode属性,在SceneKit库中,SCNNode作为外观属性用来管理物体的外观,就可以根据当前虚拟元件节点的外观属性,确定当前被选择的节点是什么元件,从而可以获取并展示相关元件信息,如前述表1所述,此处不再赘述。
可选的,在显示选中的虚拟元件时,可以将选中的虚拟元件边缘加黑或者将整个虚拟元件加亮显示,本申请实施例对此不做限制。
进一步可选的,通过预设手势动作,比如在屏幕上顺时针画圆圈的手势,上述加亮的虚拟元件可以被单独放大,且可以控制整个虚拟设备处于透明状态,同时可以控制加亮的虚拟元件的旋转展示。通过上述方法可以更方便用户观察到目前所具体显示的虚拟元件,以及可以观测整个虚拟元件的三维形状。
可选的,通过预设手势动作,比如在屏幕上的滑动操作,选中的虚拟元件可以根据滑动操作进行移动,从而可以对各个虚拟元件进行拆卸,能更清晰地展示结构,更方便观测。
基于上述基于增强现实观测设备内部结构的方法实施例的描述,本申请实施例还公开了一种终端设备。请参见图6,终端设备600包括:
平面检测模块610,用于通过上述终端设备的摄像头获取实景并进行平面检测,确定目标平面,在上述目标平面放置虚拟设备;
选中模块620,用于当观测位置进入虚拟设备内部后,根据用户对当前检测画面的操作,确定当前虚拟元件节点,上述当前虚拟元件节点对应上述当前检测画面内上述虚拟设备中的虚拟元件;
信息显示模块630,用于获取上述当前虚拟元件节点对应的虚拟元件信息,显示上述虚拟元件信息。
可选的,终端设备600还包括调整模块640,用于:在确定观测位置进入上述虚拟设备内部时,将上述观测位置调整至目标初始观测位置;
上述目标初始观测位置为:上述观测位置位于上述虚拟设备最外侧的壁的内表面上,且上述观测位置对应的观测视角朝向上述虚拟设备内部。
可选的,上述调整模块640具体用于:
获取上述摄像头所处的观测位置与上述虚拟设备的中心的距离;
当上述摄像头所处的观测位置与上述虚拟设备的中心的距离小于预设距离的情况下,确定上述观测位置进入上述虚拟设备内部,上述预设距离大于或等于上述虚拟设备的中心至上述虚拟设备的外表面的最大距离,并且上述预设距离与上述最大距离的差值小于预设阈值。
可选的,上述选中模块620具体用于:
在检测到在上述当前检测画面发生预设触控操作时,触发命中测试处理,获得命中结果,上述命中结果包括上述当前检测画面对应的虚拟元件节点;
若上述当前检测画面对应的虚拟元件节点为一个,确定上述当前检测画面对应的虚拟元件节点为上述当前虚拟元件节点;
若上述当前检测画面对应的虚拟元件节点为多个,根据用户对上述多个虚拟元件节点的选择操作,确定选择的虚拟元件节点为上述当前虚拟元件节点。
可选的,上述命中测试处理包括:
从上述摄像头发射检测射线,获取与上述检测射线相交的虚拟元件节点。
可选的,上述选中模块620还用于:
获取通过上述检测射线确定的虚拟元件节点的标记点,上述标记点为上述检测射线穿过虚拟元件时在上述虚拟元件上第一次穿过位置的点;
若上述当前检测画面对应的虚拟元件节点为多个,上述标记点包括上述多个虚拟元件对应的多个标记点,上述多个标记点按照上述检测射线穿过虚拟元件的顺序排序;
在检测到用户在上述当前检测画面发生点击操作时,根据上述点击操作的次数和上述多个标记点的排序确定上述点击操作对应的目标标记点;
确定上述目标标记点对应的虚拟元件节点为上述当前虚拟元件节点。
可选的,该终端设备600还包括地图模块650,用于:
在上述当前检测画面中显示位置地图窗口,上述位置地图窗口用于显示全局参考模型,上述全局参考模型中标注上述终端设备在上述虚拟设备中所处的观测位置;
在检测到截面位置获取指令的情况下,在上述位置地图窗口显示上述全局参考模型的截面视图,上述截面视图由截取参考平面确定,上述截取参考平面垂直于上述终端设备屏幕。
可选的,上述地图模块650还用于:
在检测到对上述终端设备屏幕的两个位置的同时触控操作时,获取上述同时触控操作的持续时长;
在上述持续时长不小于预设时长时触发上述截面位置获取指令;
在上述检测到截面位置获取指令的情况下,根据上述两个位置之间的连线确定上述截取参考平面。
可选的,上述调整模块640具体用于:
获取设备调整参考线,上述设备调整参考线为上述摄像头所处的观测位置与上述虚拟设备的中心的连线;
沿上述设备调整参考线调整上述虚拟设备的位置,使上述观测位置为上述目标初始观测位置。
根据本申请的一个实施例,图1和图4所示的方法所涉及的各个步骤均可以是由图6所示的终端设备600中的各个模块执行的,此处不再赘述。
基于上述基于增强现实观测设备内部结构的方法实施例的描述,本申请实施例还公开了一种终端设备。图7为本申请实施例提供的一种终端设备的结构示意图,其中终端设备至少包括处理器701、存储器702以及输入/输出单元703。上述处理器701可以为中央处理器(centralprocessing unit,CPU),作为计算机系统的运算和控制核心,是信息处理、程序运行的最终执行单元。
计算机存储介质可以存储在终端设备700的存储器602中,上述计算机存储介质用于存储计算机程序,上述计算机程序包括程序指令,上述处理器701可以执行上述存储器702存储的程序指令。
在一个实施例中,本申请实施例上述的终端设备700可以用于进行一系列的处理,包括如图1和图4所示任一实施例中方法的各个步骤等等。
本申请实施例还提供了一种计算机存储介质(Memory),上述计算机存储介质是电子设备(终端设备)中的记忆设备,用于存放程序和数据。可以理解的是,此处的计算机存储介质既可以包括电子设备中的内置存储介质,当然也可以包括电子设备所支持的扩展存储介质。计算机存储介质提供存储空间,该存储空间存储了电子设备的操作系统。并且,在该存储空间中还存放了适于被处理器1001加载并执行的一条或多条的指令,这些指令可以是一个或一个以上的计算机程序(包括程序代码)。需要说明的是,此处的计算机存储介质可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器;可选的还可以是至少一个位于远离前述处理器的计算机存储介质。
在一个实施例中,可由处理器加载并执行计算机存储介质中存放的一条或多条指令,以实现上述实施例中的相应步骤;具体实现中,计算机存储介质中的一条或多条指令可以由处理器加载并执行如图1和/或图4所示的方法中的各个步骤等等,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,该模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。所显示或讨论的相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行该计算机程序指令时,全部或部分地产生按照本申请实施例的流程或功能。该计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。该计算机指令可以存储在计算机可读存储介质中,或者通过该计算机可读存储介质进行传输。该计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriber line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。该计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。该可用介质可以是只读存储器(read-onlymemory,ROM),或随机存储存储器(random access memory,RAM),或磁性介质,例如,软盘、硬盘、磁带、磁碟、或光介质,例如,数字通用光盘(digital versatile disc,DVD)、或者半导体介质,例如,固态硬盘(solid state disk,SSD)等。
Claims (10)
1.一种基于增强现实观测设备内部结构的方法,应用于终端设备,其特征在于,所述方法包括:
通过所述终端设备的摄像头获取实景并进行平面检测,确定目标平面,在所述目标平面放置虚拟设备;
当观测位置进入虚拟设备内部后,根据用户对当前检测画面的操作,确定当前虚拟元件节点,所述当前虚拟元件节点对应所述当前检测画面内所述虚拟设备中的虚拟元件;
获取所述当前虚拟元件节点对应的虚拟元件信息,显示所述虚拟元件信息;
其中,所述方法还包括:
在确定观测位置进入所述虚拟设备内部时,将所述观测位置调整至目标初始观测位置;所述目标初始观测位置为:所述观测位置位于所述虚拟设备最外侧的壁的内表面上,且所述观测位置对应的观测视角朝向所述虚拟设备内部;
其中,所述确定观测位置进入所述虚拟设备内部,包括:
获取所述摄像头所处的观测位置与所述虚拟设备的中心的距离;
当所述摄像头所处的观测位置与所述虚拟设备的中心的距离小于预设距离的情况下,确定所述观测位置进入所述虚拟设备内部,所述预设距离大于或等于所述虚拟设备的中心至所述虚拟设备的外表面的最大距离,并且所述预设距离与所述最大距离的差值小于预设阈值。
2.根据权利要求1所述方法,其特征在于,所述根据用户对所述当前检测画面的操作,确定当前虚拟元件节点,包括:
在检测到在所述当前检测画面发生预设触控操作时,触发命中测试处理,获得命中结果,所述命中结果包括所述当前检测画面对应的虚拟元件节点;
若所述当前检测画面对应的虚拟元件节点为一个,确定所述当前检测画面对应的虚拟元件节点为所述当前虚拟元件节点;
若所述当前检测画面对应的虚拟元件节点为多个,根据用户对所述多个虚拟元件节点的选择操作,确定选择的虚拟元件节点为所述当前虚拟元件节点。
3.根据权利要求2所述方法,其特征在于,所述命中测试处理包括:
从所述摄像头发射检测射线,获取与所述检测射线相交的虚拟元件节点。
4.根据权利要求3所述方法,其特征在于,所述方法还包括:
获取通过所述检测射线确定的虚拟元件节点的标记点,所述标记点为所述检测射线穿过虚拟元件时在所述虚拟元件上第一次穿过位置的点;
若所述当前检测画面对应的虚拟元件节点为多个,所述标记点包括所述多个虚拟元件对应的多个标记点,所述多个标记点按照所述检测射线穿过虚拟元件的顺序排序;
所述根据用户对所述多个虚拟元件节点的选择操作,确定所述多个虚拟元件节点中的一个虚拟元件节点为所述当前虚拟元件节点,包括:
在检测到用户在所述当前检测画面发生点击操作时,根据所述点击操作的次数和所述多个标记点的排序确定所述点击操作对应的目标标记点;
确定所述目标标记点对应的虚拟元件节点为所述当前虚拟元件节点。
5.根据权利要求1所述方法,其特征在于,所述方法还包括:
在所述当前检测画面中显示位置地图窗口,所述位置地图窗口用于显示全局参考模型,所述全局参考模型中标注所述终端设备在所述虚拟设备中所处的观测位置;
在检测到截面位置获取指令的情况下,在所述位置地图窗口显示所述全局参考模型的截面视图,所述截面视图由截取参考平面确定,所述截取参考平面垂直于所述终端设备屏幕。
6.根据权利要求5所述方法,其特征在于,所述方法还包括:
在检测到对所述终端设备屏幕的两个位置的同时触控操作时,获取所述同时触控操作的持续时长;
在所述持续时长不小于预设时长时触发所述截面位置获取指令;
在所述检测到截面位置获取指令的情况下,根据所述两个位置之间的连线确定所述截取参考平面。
7.根据权利要求1所述方法,其特征在于,所述将所述观测位置调整至目标初始观测位置,包括:
获取设备调整参考线,所述设备调整参考线为所述摄像头所处的观测位置与所述虚拟设备的中心的连线;
沿所述设备调整参考线调整所述虚拟设备的位置,使所述观测位置为所述目标初始观测位置。
8.一种终端设备,其特征在于,包括:
平面检测模块,用于通过所述终端设备的摄像头获取实景并进行平面检测,确定目标平面,在所述目标平面放置虚拟设备;
选中模块,当观测位置进入虚拟设备内部后,根据用户对当前检测画面的操作,确定当前虚拟元件节点,所述当前虚拟元件节点对应所述当前检测画面内所述虚拟设备中的虚拟元件;
信息显示模块,用于获取所述当前虚拟元件节点对应的虚拟元件信息,显示所述虚拟元件信息;
其中,所述终端设备还用于:在确定观测位置进入所述虚拟设备内部时,将所述观测位置调整至目标初始观测位置;所述目标初始观测位置为:所述观测位置位于所述虚拟设备最外侧的壁的内表面上,且所述观测位置对应的观测视角朝向所述虚拟设备内部;
其中,所述终端设备还用于:
获取所述摄像头所处的观测位置与所述虚拟设备的中心的距离;
当所述摄像头所处的观测位置与所述虚拟设备的中心的距离小于预设距离的情况下,确定所述观测位置进入所述虚拟设备内部,所述预设距离大于或等于所述虚拟设备的中心至所述虚拟设备的外表面的最大距离,并且所述预设距离与所述最大距离的差值小于预设阈值。
9.一种终端设备,其特征在于,包括处理器和存储器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1-7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110585659.8A CN113421343B (zh) | 2021-05-27 | 2021-05-27 | 基于增强现实观测设备内部结构的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110585659.8A CN113421343B (zh) | 2021-05-27 | 2021-05-27 | 基于增强现实观测设备内部结构的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113421343A CN113421343A (zh) | 2021-09-21 |
CN113421343B true CN113421343B (zh) | 2024-06-04 |
Family
ID=77713047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110585659.8A Active CN113421343B (zh) | 2021-05-27 | 2021-05-27 | 基于增强现实观测设备内部结构的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113421343B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117893553B (zh) * | 2024-03-15 | 2024-05-31 | 宝鸡鼎钛金属有限责任公司 | 一种图像处理的钛金属分割方法及系统 |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140011674A (ko) * | 2012-07-18 | 2014-01-29 | 한국과학기술원 | 증강 현실을 이용한 사격 게임 방법 및 이를 이용하는 모바일 기기와 시스템 |
CN105786432A (zh) * | 2016-03-18 | 2016-07-20 | 北京奇虎科技有限公司 | 在移动终端上展示虚拟画面的方法及装置 |
CN108109460A (zh) * | 2017-12-18 | 2018-06-01 | 燕山大学 | 一种具有增强现实功能化工厂的教学参观设备 |
CN108230436A (zh) * | 2017-12-11 | 2018-06-29 | 网易(杭州)网络有限公司 | 三维场景中虚拟资源对象的渲染方法 |
CN108465240A (zh) * | 2018-03-22 | 2018-08-31 | 腾讯科技(深圳)有限公司 | 标记点位置显示方法、装置、终端及计算机可读存储介质 |
CN109213885A (zh) * | 2017-06-29 | 2019-01-15 | 深圳市掌网科技股份有限公司 | 基于增强现实的汽车展示方法及系统 |
WO2019032736A1 (en) * | 2017-08-08 | 2019-02-14 | Smart Picture Technologies, Inc. | METHOD OF MEASURING AND MODELING SPACES USING AUGMENTED REALITY WITHOUT MARKER |
CN109426783A (zh) * | 2017-08-29 | 2019-03-05 | 深圳市掌网科技股份有限公司 | 基于增强现实的手势识别方法及系统 |
CN110335292A (zh) * | 2019-07-09 | 2019-10-15 | 北京猫眼视觉科技有限公司 | 一种基于图片跟踪实现模拟场景跟踪的方法及系统 |
WO2019223463A1 (zh) * | 2018-05-22 | 2019-11-28 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
CN111083463A (zh) * | 2018-10-18 | 2020-04-28 | 广东虚拟现实科技有限公司 | 虚拟内容的显示方法、装置、终端设备及显示系统 |
CN111640197A (zh) * | 2020-06-09 | 2020-09-08 | 上海商汤智能科技有限公司 | 一种增强现实ar特效控制方法、装置及设备 |
CN111672106A (zh) * | 2020-06-05 | 2020-09-18 | 腾讯科技(深圳)有限公司 | 虚拟场景显示方法、装置、计算机设备及存储介质 |
CN111815783A (zh) * | 2020-06-30 | 2020-10-23 | 北京市商汤科技开发有限公司 | 虚拟场景的呈现方法及装置、电子设备及存储介质 |
CN111862333A (zh) * | 2019-04-28 | 2020-10-30 | 广东虚拟现实科技有限公司 | 基于增强现实的内容处理方法、装置、终端设备及存储介质 |
CN112148188A (zh) * | 2020-09-23 | 2020-12-29 | 北京市商汤科技开发有限公司 | 增强现实场景下的交互方法、装置、电子设备及存储介质 |
CN112148197A (zh) * | 2020-09-23 | 2020-12-29 | 北京市商汤科技开发有限公司 | 增强现实ar交互方法、装置、电子设备及存储介质 |
CN112241198A (zh) * | 2019-07-17 | 2021-01-19 | 腾讯科技(深圳)有限公司 | 增强现实场景的实现方法、装置及存储介质 |
CN112752162A (zh) * | 2020-02-17 | 2021-05-04 | 腾讯数码(天津)有限公司 | 虚拟物品赠送方法、装置、终端及计算机可读存储介质 |
-
2021
- 2021-05-27 CN CN202110585659.8A patent/CN113421343B/zh active Active
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140011674A (ko) * | 2012-07-18 | 2014-01-29 | 한국과학기술원 | 증강 현실을 이용한 사격 게임 방법 및 이를 이용하는 모바일 기기와 시스템 |
CN105786432A (zh) * | 2016-03-18 | 2016-07-20 | 北京奇虎科技有限公司 | 在移动终端上展示虚拟画面的方法及装置 |
CN109213885A (zh) * | 2017-06-29 | 2019-01-15 | 深圳市掌网科技股份有限公司 | 基于增强现实的汽车展示方法及系统 |
WO2019032736A1 (en) * | 2017-08-08 | 2019-02-14 | Smart Picture Technologies, Inc. | METHOD OF MEASURING AND MODELING SPACES USING AUGMENTED REALITY WITHOUT MARKER |
CN109426783A (zh) * | 2017-08-29 | 2019-03-05 | 深圳市掌网科技股份有限公司 | 基于增强现实的手势识别方法及系统 |
CN108230436A (zh) * | 2017-12-11 | 2018-06-29 | 网易(杭州)网络有限公司 | 三维场景中虚拟资源对象的渲染方法 |
CN108109460A (zh) * | 2017-12-18 | 2018-06-01 | 燕山大学 | 一种具有增强现实功能化工厂的教学参观设备 |
CN108465240A (zh) * | 2018-03-22 | 2018-08-31 | 腾讯科技(深圳)有限公司 | 标记点位置显示方法、装置、终端及计算机可读存储介质 |
WO2019223463A1 (zh) * | 2018-05-22 | 2019-11-28 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
CN111083463A (zh) * | 2018-10-18 | 2020-04-28 | 广东虚拟现实科技有限公司 | 虚拟内容的显示方法、装置、终端设备及显示系统 |
CN111862333A (zh) * | 2019-04-28 | 2020-10-30 | 广东虚拟现实科技有限公司 | 基于增强现实的内容处理方法、装置、终端设备及存储介质 |
CN110335292A (zh) * | 2019-07-09 | 2019-10-15 | 北京猫眼视觉科技有限公司 | 一种基于图片跟踪实现模拟场景跟踪的方法及系统 |
CN112241198A (zh) * | 2019-07-17 | 2021-01-19 | 腾讯科技(深圳)有限公司 | 增强现实场景的实现方法、装置及存储介质 |
CN112752162A (zh) * | 2020-02-17 | 2021-05-04 | 腾讯数码(天津)有限公司 | 虚拟物品赠送方法、装置、终端及计算机可读存储介质 |
CN111672106A (zh) * | 2020-06-05 | 2020-09-18 | 腾讯科技(深圳)有限公司 | 虚拟场景显示方法、装置、计算机设备及存储介质 |
CN111640197A (zh) * | 2020-06-09 | 2020-09-08 | 上海商汤智能科技有限公司 | 一种增强现实ar特效控制方法、装置及设备 |
CN111815783A (zh) * | 2020-06-30 | 2020-10-23 | 北京市商汤科技开发有限公司 | 虚拟场景的呈现方法及装置、电子设备及存储介质 |
CN112148188A (zh) * | 2020-09-23 | 2020-12-29 | 北京市商汤科技开发有限公司 | 增强现实场景下的交互方法、装置、电子设备及存储介质 |
CN112148197A (zh) * | 2020-09-23 | 2020-12-29 | 北京市商汤科技开发有限公司 | 增强现实ar交互方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113421343A (zh) | 2021-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109887003B (zh) | 一种用于进行三维跟踪初始化的方法与设备 | |
Kim et al. | Touch and hand gesture-based interactions for directly manipulating 3D virtual objects in mobile augmented reality | |
US9886102B2 (en) | Three dimensional display system and use | |
US10249089B2 (en) | System and method for representing remote participants to a meeting | |
US10410421B2 (en) | Method and server for providing virtual reality image about object | |
US20140320404A1 (en) | Image processing device, image processing method, and program | |
CN113741698A (zh) | 一种确定和呈现目标标记信息的方法与设备 | |
CN106575160A (zh) | 根据用户视点识别动作的界面提供方法及提供装置 | |
EP3314581B1 (en) | Augmented reality device for visualizing luminaire fixtures | |
CN112181141B (zh) | Ar定位的方法、装置、电子设备及存储介质 | |
US10437342B2 (en) | Calibration systems and methods for depth-based interfaces with disparate fields of view | |
CN109656363A (zh) | 一种用于设置增强交互内容的方法与设备 | |
CN116310062A (zh) | 三维场景构建方法及装置、存储介质及电子设备 | |
CA3119609A1 (en) | Augmented reality (ar) imprinting methods and systems | |
CN113421343B (zh) | 基于增强现实观测设备内部结构的方法 | |
CN110662015A (zh) | 用于显示图像的方法及装置 | |
US11562538B2 (en) | Method and system for providing a user interface for a 3D environment | |
CN112017304A (zh) | 用于呈现增强现实数据的方法、装置、电子设备及介质 | |
CN114327063B (zh) | 目标虚拟对象的交互方法、装置、电子设备及存储介质 | |
TWI777333B (zh) | 用於設置虛擬對象的空間位置的方法和電子設備 | |
JP6304305B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN114299271A (zh) | 三维建模方法、三维建模装置、电子设备和可读存储介质 | |
CN109472873B (zh) | 三维模型的生成方法、装置、硬件装置 | |
WO2023103884A1 (zh) | 对象模型建立方法、装置、电子设备及存储介质 | |
CN112569595A (zh) | 一种游戏中模型组件的拼接方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |