CN108573530B - 增强现实ar交互方法及系统 - Google Patents

增强现实ar交互方法及系统 Download PDF

Info

Publication number
CN108573530B
CN108573530B CN201810273861.5A CN201810273861A CN108573530B CN 108573530 B CN108573530 B CN 108573530B CN 201810273861 A CN201810273861 A CN 201810273861A CN 108573530 B CN108573530 B CN 108573530B
Authority
CN
China
Prior art keywords
space
equipment
coordinate system
shooting
calibration position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810273861.5A
Other languages
English (en)
Other versions
CN108573530A (zh
Inventor
李涛
陈云贵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qilin Hesheng Network Technology Inc
Original Assignee
Qilin Hesheng Network Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qilin Hesheng Network Technology Inc filed Critical Qilin Hesheng Network Technology Inc
Priority to CN201810273861.5A priority Critical patent/CN108573530B/zh
Publication of CN108573530A publication Critical patent/CN108573530A/zh
Application granted granted Critical
Publication of CN108573530B publication Critical patent/CN108573530B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例提供了一种增强现实AR交互方法及系统,其中方法包括:第一设备构建第一AR空间,并确定自身位于校准位置时自身在第一AR空间中的第一方位信息;第二设备构建第二AR空间,并确定自身位于校准位置时自身在第二AR空间中的第二方位信息;其中,校准位置为第一AR空间和第二AR空间在真实世界中的重合位置;第一设备和第二设备分别位于校准位置时,第一设备和第二设备的姿态相同;第一设备或者第二设备基于第一方位信息和第二方位信息,确定第一AR空间和第二AR空间之间的转换关系;第一设备和第二设备基于该转换关系,在第一AR空间和第二AR空间之间进行AR交互。通过本实施例,能够实现多个AR场景之间的交互,丰富AR交互效果。

Description

增强现实AR交互方法及系统
技术领域
本申请涉及增强现实技术领域,尤其涉及一种增强现实AR交互方法及系统。
背景技术
随着科技的发展,AR(Augmented Reality,增强现实)技术基于其真实的三维效果、可添加虚拟对象的直观体验,逐渐被开发人员以及用户所关注。AR技术可以应用在家装设计、服装搭配等方面。目前,一个AR设备能够创建一个AR场景,在多个AR设备共存的情况下,每个AR设备对应的AR场景之间彼此独立,不同AR场景之间无法进行交互。
发明内容
本申请实施例的目的是提供一种增强现实AR交互方法及系统,能够实现多个AR场景之间的交互,丰富AR交互效果。
为达到以上目的,本申请实施例是这样实现的:
本申请实施例提供了一种增强现实AR交互方法,应用于第一设备和第二设备,包括:
第一设备构建第一AR空间,并确定自身位于校准位置时自身在所述第一AR空间中的第一方位信息;
第二设备构建第二AR空间,并确定自身位于所述校准位置时自身在所述第二AR空间中的第二方位信息;
其中,所述校准位置为所述第一AR空间和所述第二AR空间在真实世界中的重合位置;所述第一设备和所述第二设备分别位于所述校准位置时,所述第一设备和所述第二设备的姿态相同;
所述第一设备或者所述第二设备基于所述第一方位信息和所述第二方位信息,确定所述第一AR空间和所述第二AR空间之间的转换关系;
所述第一设备和所述第二设备基于所述转换关系,在所述第一AR空间和所述第二AR空间之间进行AR交互。
本申请还实施例提供了一种增强现实AR交互系统,包括第一设备和第二设备;
所述第一设备用于,构建第一AR空间,并确定自身位于校准位置时自身在所述第一AR空间中的第一方位信息;
所述第二设备用于,构建第二AR空间,并确定自身位于所述校准位置时自身在所述第二AR空间中的第二方位信息;
其中,所述校准位置为所述第一AR空间和所述第二AR空间在真实世界中的重合位置;所述第一设备和所述第二设备分别位于所述校准位置时,所述第一设备和所述第二设备的姿态相同;
所述第一设备或者所述第二设备还用于,基于所述第一方位信息和所述第二方位信息,确定所述第一AR空间和所述第二AR空间之间的转换关系;
所述第一设备和所述第二设备还用于,基于所述转换关系,在所述第一AR空间和所述第二AR空间之间进行AR交互。
本申请实施例中,第一设备构建第一AR空间,并确定自身位于校准位置时自身在第一AR空间中的第一方位信息,第二设备构建第二AR空间,并确定自身位于校准位置时自身在第二AR空间中的第二方位信息,其中,校准位置为第一AR空间和第二AR空间在真实世界中的重合位置,第一设备和第二设备分别位于校准位置时,第一设备和第二设备的姿态相同,第一设备或者第二设备基于第一方位信息和第二方位信息,确定第一AR空间和第二AR空间之间的转换关系,第一设备和第二设备基于上述转换关系,在第一AR空间和第二AR空间之间进行AR交互。可见,通过本申请实施例,能够确定第一AR空间和第二AR空间之间的转换关系,并基于该转换关系,在第一AR空间和第二AR空间之间进行AR交互,从而实现多个AR场景之间的交互,丰富AR交互效果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请一实施例提供的AR交互方法的流程示意图;
图2为本申请一实施例提供的AR交互场景示意图;
图3为本申请一实施例提供的第一AR空间和第二AR空间之间的转换关系的计算示意图;
图4为本申请一实施例提供的AR交互系统的结构示意图;
图5为本申请一实施例提供的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
本申请实施例提供了一种AR交互方法及系统,能够实现多个AR场景之间的交互,丰富AR交互效果,下面通过实施例进行详细说明。
图1为本申请一实施例提供的AR交互方法的流程示意图,该方法应用于第一设备和第二设备,如图1所示,该方法包括:
步骤S102,第一设备构建第一AR空间,并确定自身位于校准位置时自身在第一AR空间中的第一方位信息;
步骤S104,第二设备构建第二AR空间,并确定自身位于校准位置时自身在第二AR空间中的第二方位信息;
其中,校准位置为第一AR空间和第二AR空间在真实世界中的重合位置;第一设备和第二设备分别位于校准位置时,第一设备和第二设备的姿态相同;
步骤S106,第一设备或者第二设备基于第一方位信息和第二方位信息,确定第一AR空间和第二AR空间之间的转换关系;
步骤S108,第一设备和第二设备基于上述转换关系,在第一AR空间和第二AR空间之间进行AR交互。
本申请实施例中,第一设备构建第一AR空间,并确定自身位于校准位置时自身在第一AR空间中的第一方位信息,第二设备构建第二AR空间,并确定自身位于校准位置时自身在第二AR空间中的第二方位信息,其中,校准位置为第一AR空间和第二AR空间在真实世界中的重合位置,第一设备和第二设备分别位于校准位置时,第一设备和第二设备的姿态相同,第一设备或者第二设备基于第一方位信息和第二方位信息,确定第一AR空间和第二AR空间之间的转换关系,第一设备和第二设备基于上述转换关系,在第一AR空间和第二AR空间之间进行AR交互。可见,通过本申请实施例,能够确定第一AR空间和第二AR空间之间的转换关系,并基于该转换关系,在第一AR空间和第二AR空间之间进行AR交互,从而实现多个AR场景之间的交互,丰富AR交互效果。
本申请实施例中,校准位置为真实空间中的某一位置,且校准位置为第一AR空间和第二AR空间在真实世界中的重合位置。由于第一设备对应的第一AR空间和第二设备对应的第二AR空间具有不同的空间坐标系,因此当第一设备以指定姿态处于校准位置时,第一设备在第一AR空间中的第一方位信息,与,第二设备以相同姿态处于校准位置时,第二设备在第二AR空间中的第二方位信息不同。基于此,本申请实施例中,根据第一设备和第二设备以相同姿态位于相同的物理位置时,分别对应的第一空间信息和第二空间信息,确定得到第一AR空间和第二AR空间之间的转换关系。
本申请实施例中,第一方位信息和第二方位信息均包括位置信息和角度信息,角度信息能够通过第一设备和第二设备内部的陀螺仪、重力加速度计等元件测量得到,当第一设备或第二设备的姿态(如机身与水平线的夹角)发生变化时,第一方位信息或第二方位信息中的角度信息也对应变化。基于此,本实施例中,设置第一设备和第二设备分别位于校准位置时,二者的姿态相同,从而保证第一方位信息和第二方位信息为第一设备和第二设备以相同姿态处于相同位置测量得到的,从而保证第一AR空间和第二AR空间之间的转换关系的计算准确性。
本申请实施例中,第一设备和第二设备具有AR场景创建功能,可以为智能终端如手机、平板电脑等。能够理解,每个AR场景对应一个AR空间。第一设备在构建第一AR空间时,开启世界追踪,进行AR平面查找,当第一设备查找到符合要求的平面时,自动停止平面查找,以避免由于持续进行平面查找而导致持续修正平面造成平面抖动,同样地,第二设备在构建第二AR空间时,开启世界追踪,进行AR平面查找,当第二设备查找到符合要求的平面时,自动停止平面查找,以避免由于持续进行平面查找而导致持续修正平面造成平面抖动。
本申请实施例中,提供了A、B两种方式用于第一设备确定自身位于校准位置,以及用于第二设备确定自身位于校准位置。
方式A
第一设备在构建第一AR空间完成后,输出第一提示信息,第一提示信息用于提示用户按照指定规则放置第一设备,第一设备检测到自身处于静止状态后,第一设备将当前所处位置确定为校准位置,并确定自身位于校准位置。
具体地,第一设备在构建第一AR空间完成后,输出第一提示信息来提示用户按照指定规则放置第一设备,指定规则包括但不限于,将第一设备平放于周边的平面上,或者,将第一设备放入周边指定的托架中。第一设备可以显示放置完成按钮,当用户按照指定规则放置完成第一设备后,点击该按钮,第一设备检测到用户的点击操作后,检测自身是否处于静止状态,若处于,则第一设备将当前所处位置确定为校准位置,并确定自身位于校准位置。
第二设备在构建第二AR空间完成后,输出第二提示信息,第二提示信息用于提示用户将第二设备放置在第一设备被放置的位置处,第二设备检测到自身处于静止状态后,第二设备确定自身位于校准位置。
具体地,第二设备构建第二AR空间完成后,输出第二提示信息来提示用户将第二设备放置在第一设备被放置的位置处,从而保证第二设备和第一设备被放置于相同的位置处,均被放置于校准位置。第二设备可以显示放置完成按钮,当用户将第二设备放置于第一设备被放置的位置处后,点击该按钮,第二设备检测到用户的点击操作后,检测自身是否处于静止状态,若处于,则第二设备将当前所处位置确定为校准位置,并确定自身位于校准位置。
由于需要保证第一设备和第二设备被放置于相同的位置,因此本实施例中,可以通过第一设备或第二设备提示用户,在将第一设备放置于校准位置后,移走第一设备,然后再将第二设备放置于校准位置。
为保证计算得到的第一AR空间和第二AR空间之间的转换关系的准确性,本实施例中,可以通过第一设备或第二设备提示用户,将第一设备和第二设备放置于校准位置处时,需要保证第一设备和第二设备的姿态相同,如二者均为水平放置状态。
一个具体的实施例中,第一设备和第二设备均为手机,二者处于同一物理空间中,如处于同一个房间内,预先规定该房间内的某个平面上的某个位置为校准位置。第一设备在构建完成第一AR空间后,提示用户将第一设备水平放于校准位置处,且保持第一设备的顶部朝向第一方向,用户放置完第一设备后,点击第一设备显示的“校准”按钮,第一设备接收到用户的点击操作后,确定自身位于校准位置,并确定自身位于校准位置时自身在第一AR空间中的第一方位信息。当第一设备确定第一方位信息完成后,提示用户校准完成,用户根据该提示将第一设备移走,并将第二设备水平放于校准位置处,且保持第二设备的顶部朝向第一方向,用户放置完第二设备后,点击第二设备显示的“校准”按钮,第二设备接收到用户的点击操作后,确定自身位于校准位置,并确定自身位于校准位置时自身在第二AR空间中的第二方位信息。
方式B
第一设备在构建第一AR空间完成后,输出第一拍摄信息,第一拍摄信息用于提示用户利用第一设备进行拍摄,第一设备在获取到用户的拍摄指令时,确定自身位于校准位置。
比如,第一设备在构建第一AR空间完成后,输出第一拍摄信息,第一拍摄信息为:请对准较为复杂的画面进行拍摄。用户根据该信息,利用第一设备进行拍摄,当第一设备获取到用户的拍摄指令时,第一设备确定自身位于校准位置。
第一设备在获取到用户的拍摄指令时,还将该拍摄指令对应的拍摄结果图像和拍摄参数发送至第二设备,拍摄结果图像即为根据该拍摄指令拍摄得到的图像,拍摄参数包括但不限于光圈、焦距、放大倍率中的至少一项。
第二设备获取上述拍摄结果图像和拍摄参数并输出第三提示信息,第三提示信息用于提示用户移动第二设备,第二设备在移动过程中基于上述拍摄参数判断自身的拍摄预览画面是否与上述拍摄结果图像相匹配,当第二设备确定自身的拍摄预览画面与上述拍摄结果图像相匹配时,第二设备确定自身移动至校准位置。
具体地,第二设备获取拍摄结果图像和拍摄参数,并通过第三提示信息提示用户移动第二设备,第三提示信息可以为:请移动设备并保持设备处于拍摄姿态。第二设备在移动过程中,基于上述拍摄参数判断自身的拍摄预览画面是否与上述拍摄结果图像相匹配,由于拍摄结果图像为第一设备在校准位置处拍摄的图像,因此若第二设备确定自身的拍摄预览画面与上述拍摄结果图像相匹配,说明第二设备当前所处的位置为校准位置,且姿态与第一设备相同,第二设备在确定相匹配后,确定自身移动至校准位置。
其中,第二设备基于拍摄参数判断自身的拍摄预览画面是否与拍摄结果图像相匹配,具体为:第二设备根据拍摄参数调节自身的拍摄参数,第二设备基于自身调节后的拍摄参数,确定自身的拍摄预览画面,第二设备将拍摄预览画面与拍摄结果图像进行比对,若比对一致,第二设备确定自身的拍摄预览画面与拍摄结果图像相匹配。
比如,第一设备发送至第二设备的拍摄参数为“放大倍率1.5倍”,则第二设备调节自身的拍摄参数为“放大倍率1.5倍”,然后在移动过程中,基于自身调节后的拍摄参数,确定拍摄预览画面,拍摄预览画面即为屏幕上的画面,第二设备采用通用的图像比对算法比对拍摄预览画面和拍摄结果图像是否一致,当一致时,第二设备确定拍摄预览画面和拍摄结果图像相匹配,确定自身位于校准位置。
其中,拍摄预览画面和拍摄结果图像一致,具体为:拍摄预览画面中的每个像素点的像素值与拍摄结果图像中的每个对应位置的像素点的像素值均相同,也即拍摄预览画面和拍摄结果图像为两幅相同的画面。本实施例可以通过通用的图像比对算法,判断拍摄预览画面和拍摄结果图像是否一致。
能够理解,当第一设备和第二设备处于相同位置且二者姿态完全一致时,第一设备的拍摄结果图像和第二设备的拍摄预览画面才一致,因此通过方式B,能够准确的确定第一设备和第二设备均处于校准位置且二者姿态相同,从而保证第一AR空间和第二AR空间之间的转换关系计算的准确性。
本实施例中,第二设备根据第一设备的拍摄参数调节自身的拍摄参数时,可以将自身的拍摄参数调节成与第一设备的拍摄参数相同。第二设备基于调节后的拍摄参数,比对自身的拍摄预览画面是否与拍摄结果图像一致,能够使第二设备排除第一设备的拍摄参数的干扰,保证图像判断结果的准确性,从而使第二设备准确确定自身位于校准位置。
考虑到第二设备在输出第三提示信息后,第二设备在移动过程中需要时刻比对拍摄预览画面与拍摄结果图像是否一致,一个实施例中,第二设备将拍摄预览画面与拍摄结果图像进行比对时,第二设备在屏幕上显示拍摄结果图像,以提示用户调整第二设备的位置。比如,第二设备以半透明的方式在屏幕上显示拍摄结果图像,以方便用户将第二设备移动至校准位置。
另一个实施例中,第二设备在屏幕上显示拍摄结果图像,还显示拍摄结果图像与拍摄预览画面之间的一致程度。比如,第二设备在以半透明的方式在屏幕上显示拍摄结果图像的同时,还在屏幕上显示拍摄结果图像与拍摄预览画面之间的一致程度,一致程度可以为数字形式,如“85%”,表示拍摄结果图像与拍摄预览画面之间的一致程度为85%。
通过显示拍摄结果图像,能够方便用户对第二设备的位置进行粗调,通过显示一致程度,能够方便用户对第二设备的位置和姿态进行微调,从而方便用户将第二设备移动至校准位置。
由于方式B中,通过拍摄的方式确定第一设备和第二设备均位于校准位置,且第一设备为主动拍摄方,第二设备需要被动的调节至第一设备的拍摄位置(即校准位置),因此优选第一设备提示用户朝向较为复杂的画面拍摄,以排除同一环境下,简单场景在多处重复出现对于第二设备定位校准位置的干扰,增加第二设备进行图像比对时的图像特征量,使得第二设备的图像比对结果更为准确,从而便于第二设备在用户的控制下准确移动至与第一设备相同的校准位置。
本申请实施例中,第一设备确定自身位于校准位置时自身在第一AR空间中的第一方位信息,具体为:第一设备根据自身位于校准位置时,自身在第一AR空间中的坐标信息和旋转角度信息,确定第一方位信息。比如,第一设备将自身位于校准位置时,自身在第一AR空间中的坐标信息和旋转角度信息,确定为上述的第一方位信息。类似地,第二设备确定自身位于校准位置时自身在第二AR空间中的第二方位信息,具体为:第二设备根据自身位于校准位置时,自身在第二AR空间中的坐标信息和旋转角度信息,确定第二方位信息。比如,第二设备将自身位于校准位置时,自身在第二AR空间中的坐标信息和旋转角度信息,确定为上述的第二方位信息。
其中,第一设备和第二设备在构建各自对应的第一AR空间和第二AR空间后,可以采用通用的AR算法,确定各自在各自的AR空间中的坐标信息和旋转角度信息,这里不做限制。第一设备和第二设备在获取各自的旋转角度信息时,可以通过内置的重力传感器、加速度传感器、陀螺仪等器件获取旋转角度信息。
上述步骤S106中,基于第一方位信息和第二方位信息,确定第一AR空间和第二AR空间之间的转换关系,具体为:
(1)获取第一AR空间对应的第一坐标系和第二AR空间对应的第二坐标系,并以校准位置为原点构建辅助坐标系;
(2)将第一方位信息作为第一坐标系和辅助坐标系之间的第一坐标系偏移量,基于第一坐标系偏移量,确定第一坐标系和辅助坐标系之间的第一转换矩阵;
(3)将第二方位信息作为第二坐标系和辅助坐标系之间的第二坐标系偏移量,基于第二坐标系偏移量,确定第二坐标系和辅助坐标系之间的第二转换矩阵;
(4)基于第一转换矩阵和第二转换矩阵,确定第一AR空间和第二AR空间之间的第三转换矩阵。
由于校准位置是真实空间中的位置,是第一AR空间和第二AR空间的连接位置,因此本实施例中,首先在校准位置处构建辅助坐标系(包括二维或三维坐标系),其中,可以以校准位置为原点,在校准位置处构建辅助坐标系。在校准位置处构建辅助坐标系后,既能够确定第一坐标系与辅助坐标系之间的第一坐标系偏移量,其中,若以校准位置为原点构建辅助坐标系,则第一坐标系偏移量即为第一方位信息,同理,第二坐标系与辅助坐标系之间的第二坐标系偏移量即为第二方位信息。然后,基于第一方位信息,确定第一坐标系和辅助坐标系之间的第一转换矩阵,基于第二方位信息,确定第二坐标系和辅助坐标系之间的第二转换矩阵,具体计算方法可以采用通用的计算方法,这里不做限定。其中,第一坐标系的维度和辅助坐标系的维度相同,均为二维或三维坐标系,第二坐标系的维度和辅助坐标系的维度相同,均为二维或三维坐标系。
最后,基于第一转换矩阵和第二转换矩阵,确定第一AR空间和第二AR空间之间的第三转换矩阵,比如,将第一转换矩阵和第二转换矩阵相乘,将结果作为第一AR空间和第二AR空间之间的第三转换矩阵。第三转换矩阵即为第一AR空间和第二AR空间之间的转换关系。
一个实施例中,假设第三转换矩阵为第二AR空间至第一AR空间的转换矩阵,则第二AR空间中的虚拟对象的方位信息乘以该转换矩阵,即得到该虚拟对象在第一AR空间中的方位信息。
一个实施例中,基于空间层面确定第一AR空间和第二AR空间之间的转换关系,则,第一方位信息和第二方位信息均为空间方位信息,第一坐标系、第二坐标系和辅助坐标系均为三维坐标系,第一转换矩阵、第二转换矩阵和第三转换矩阵均为空间矩阵。
另一个实施例中,采用坐标系降维的方式确定第一AR空间和第二AR空间之间的转换关系,则,第一方位信息和第二方位信息均为二维方位信息,第一坐标系、第二坐标系和辅助坐标系均为二维坐标系,第一转换矩阵、第二转换矩阵和第三转换矩阵均为二维矩阵,或者,第一坐标系、第二坐标系和辅助坐标系均为二维坐标系,第一转换矩阵、第二转换矩阵和第三转换矩阵均为二维矩阵,第一方位信息和第二方位信息均为空间方位信息,在计算第一转换矩阵和第二转换矩阵时,对第一方位信息和第二方位信息进行降维处理。
采用坐标系降维的方式确定第一AR空间和第二AR空间之间的转换关系,具有计算量少,计算效率高的优点。
上述步骤S108中,第一设备和第二设备基于上述转换关系,在第一AR空间和第二AR空间之间进行AR交互,具体为:
第一设备和第二设备基于上述转换关系,在第一AR空间和第二AR空间中共享虚拟对象;
其中,虚拟对象在第一AR空间中显示时,虚拟对象的显示视角与第一AR空间的对象显示视角相同;虚拟对象在第二AR空间中显示时,虚拟对象的显示视角与第二AR空间的对象显示视角相同。
共享虚拟对象可以为,将同一虚拟对象在第一AR空间和第二AR空间中共享显示。比如,第一设备和第二设备基于上述转换关系,相互发送虚拟对象,虚拟对象分别在第一AR空间和第二AR空间中显示,或者,在第一AR空间和第二AR空间中同时显示。
一个实施例中,第一设备和第二设备基于上述转换关系,可以进行游戏互动,如踢足球游戏,虚拟对象足球在第一AR空间和第二AR空间中轮流显示。
本实施例中,虚拟对象在第一AR空间中显示时,虚拟对象的显示视角与第一AR空间的对象显示视角相同,当改变第一AR空间的显示视角时,虚拟对象的显示视角也随之改变,虚拟对象在第二AR空间中显示时,虚拟对象的显示视角与第二AR空间的对象显示视角相同,当改变第二AR空间的显示视角时,虚拟对象的显示视角也随之改变,从而使得虚拟对象具有真实物品一样的显示效果,提高用户的AR使用体验。
下面通过一个具体的实施例进一步说明上述AR交互方法。
图2为本申请一实施例提供的AR交互场景示意图,如图2所示,该场景包括第一设备和第二设备,图2中以第一设备为手机A,第二设备为手机B为例进行示意。图2还包括第一平台10和第二平台20,第一平台上设置有对焦台30。如图2所示,手机A创建第一AR空间,图2中标识有手机A追踪到的AR平面100、该AR平面的坐标系101和该AR平面所在的世界坐标系102(即第一AR空间的空间坐标系),该世界坐标系102的中心及方位由AR系统决定,不局限于桌角位置。类似地,图2中还标识有手机B追踪到的AR平面200、该AR平面的坐标系201和该AR平面所在的世界坐标系202(即第二AR空间的空间坐标系),该世界坐标系202的中心及方位由AR系统决定,不局限于桌角位置。图2中还标识有将手机A或B放置于对焦台上后的坐标系300,坐标系300相当于前述的辅助坐标系。
一个实施例中,基于图2中的场景的AR交互流程可以为:
(11)手机A创建AR场景。
手机A接收到用户的AR场景创建指令后,开启世界追踪,当追踪到平面100后,手机A停止追踪,以避免由于持续进行平面追踪而导致持续修正平面造成平面抖动。
其中,AR系统查找到平面100后,会生成世界坐标系102,平面100的方位信息均以世界坐标系102作为参照,当手机A查找到平面100后,手机A即建立与平面100之间的相对关系,该相对关系位于世界坐标系102之下。
(12)手机B创建AR场景。
手机B接收到用户的AR场景创建指令后,开启世界追踪,当追踪到平面200后,手机B停止追踪,以避免由于持续进行平面追踪而导致持续修正平面造成平面抖动。
其中,AR系统查找到平面200后,会生成世界坐标系202,平面200的方位信息均以世界坐标系202作为参照,当手机B查找到平面200后,手机B即建立与平面200之间的相对关系,该相对关系位于世界坐标系202之下。
(13)手机A创建AR场景完成后,若接收到用户发送的AR共享信息,则确定进入对焦流程。
对焦流程中,用户将手机A平放在对焦台上并点击对焦按钮,手机A根据用户的点击操作,获取自身位于对焦台上时,自身在所创建的AR场景中的第一方位信息,手机A获取到第一方位信息后,手机A确定对焦完成。
(14)手机B创建AR场景完成后,若接收到用户发送的AR共享信息,则确定进入对焦流程。
对焦流程中,用户将手机A从对焦台上移走,并将手机B平放在对焦台上并点击对焦按钮,手机B根据用户的点击操作,获取自身位于对焦台上时,自身在所创建的AR场景中的第二方位信息,手机B获取到第二方位信息后,手机B确定对焦完成。
(15)手机B将第二方位信息发送至手机A,手机A根据第一方位信息和第二方位信息确定手机A创建的AR场景与手机B创建的AR场景之间的转换矩阵。
其中,假设转换矩阵为手机A创建的第一AR场景至手机B创建的第二AR场景的转换矩阵,则第一AR场景中的虚拟对象的方位信息乘以该转换矩阵,即得到该虚拟对象在第二AR场景中的方位信息。
(16)手机A和手机B基于该转换矩阵进行虚拟对象的共享。
至此,基于图2中的场景,手机A和手机B可以进行AR交互。
另一个实施例中,基于图2中的场景的AR交互流程还可以为:
(21)手机A创建AR场景。
具体可以参考上述(11)所示,这里不再重复。
(22)手机B创建AR场景。
具体可以参考上述(12)所示,这里不再重复。
(23)手机A创建AR场景完成后,输出提示信息,以提示用户进行拍摄,并在接收到用户的拍摄指令后,进入对焦流程。
优选地,手机A提示用户拍摄较为复杂的画面,以提高转换矩阵计算的准确度。对焦流程中,手机A将进行拍摄时自身所处的位置确定为校准位置,并获取自身位于校准位置时,自身在所创建的AR场景中的第一方位信息,并确定对焦完成。手机A还将拍摄得到的图片发送至手机B。
(24)手机B创建AR场景完成后,输出提示信息,以提示用户移动手机B,手机B在检测到自身处于运动状态后,进入对焦流程。
优选地,手机B输出提示信息,以提示用户将手机B移动至手机A在动作(23)中进行拍摄时手机A所处的位置。手机B在移动过程中,判断自身的拍摄预览画面是否与手机A发送的图片相同,若相同,则手机B获取当前自身在所创建的AR场景中的第二方位信息,并确定对焦完成。
(25)手机B将第二方位信息发送至手机A,手机A根据第一方位信息和第二方位信息确定手机A创建的AR场景与手机B创建的AR场景之间的转换矩阵。
(26)手机A和手机B基于该转换矩阵进行虚拟对象的共享。
至此,基于图2中的场景,手机A和手机B可以进行AR交互。
图3为本申请一实施例提供的第一AR空间(即第一AR场景)和第二AR空间(即第二AR场景)之间的转换关系的计算示意图,该图通过降维的方式示例性说明如何计算第一AR空间和第二AR空间之间的转换关系,图3所示的计算过程与前述的基于对焦台的AR对焦及交互过程相对应。
如图3所示,①表示手机A在其创建的AR空间(第一AR空间)中的坐标,②表示手机B在其创建的AR空间(第二AR空间)中的坐标,⑥表示手机A的AR平面坐标,⑦表示手机B的AR平面坐标,⑧表示第一AR空间的世界坐标,⑨表示第二AR空间的世界坐标,⑩表示对焦台的位置,⑩是第一AR空间和第二AR空间在真实世界中的重合位置,手机A位于对焦台时,手机A在第一AR空间中的第一方位信息包括坐标(7,5),朝向-135度方向,手机B位于对焦台时,手机B在第二AR空间中的第二方位信息包括坐标(-7,10),朝向-90度方向。引入坐标系
Figure BDA0001613198180000131
坐标系
Figure BDA0001613198180000132
的原点位于对焦台之上,x轴如图所示。
1、将第一方位信息确定为⑧到
Figure BDA0001613198180000133
的坐标系偏移量,根据⑧到
Figure BDA0001613198180000134
的位移偏移(7,5)和旋转偏移(-135度),构建从坐标系⑧到
Figure BDA0001613198180000135
的矩阵M1及其逆矩阵M1-1
2、将第二方位信息确定为⑨到
Figure BDA0001613198180000138
的坐标系偏移量,根据⑨到
Figure BDA0001613198180000136
的位移偏移(-7,10)和旋转偏移(-90度),构建从坐标系⑨到
Figure BDA0001613198180000137
的矩阵M2及其逆矩阵M2-1
M1*M2-1即为⑧到⑨的空间转换矩阵,M2*M1-1即为⑨到⑧的空间转换矩阵。
综上,通过本申请实施例,能够确定不同AR空间之间的转换关系,并基于该转换关系,在不同AR空间之间进行AR交互,从而实现多个AR场景之间的交互,丰富AR交互效果。
对应上述的方法,本申请实施例还提供了一种AR交互系统,图4为本申请一实施例提供的AR交互系统的结构示意图,如图4所示,该系统包括第一设备1000和第二设备2000,该系统中,
所述第一设备1000用于,构建第一AR空间,并确定自身位于校准位置时自身在所述第一AR空间中的第一方位信息;
所述第二设备2000用于,构建第二AR空间,并确定自身位于所述校准位置时自身在所述第二AR空间中的第二方位信息;
其中,所述校准位置为所述第一AR空间和所述第二AR空间在真实世界中的重合位置;所述第一设备1000和所述第二设备2000分别位于所述校准位置时,所述第一设备和所述第二设备的姿态相同;
所述第一设备1000或者所述第二设备2000还用于,基于所述第一方位信息和所述第二方位信息,确定所述第一AR空间和所述第二AR空间之间的转换关系;
所述第一设备1000和所述第二设备2000还用于,基于所述转换关系,在所述第一AR空间和所述第二AR空间之间进行AR交互。
可选地,所述第一设备1000具体用于:
所述第一设备输出第一提示信息,所述第一提示信息用于提示用户按照指定规则放置所述第一设备,所述第一设备检测到自身处于静止状态后,所述第一设备将当前所处位置确定为校准位置,并确定自身位于校准位置;
所述第二设备2000具体用于:
所述第二设备输出第二提示信息,所述第二提示信息用于提示用户将所述第二设备放置在所述第一设备被放置的位置处,所述第二设备检测到自身处于静止状态后,所述第二设备确定自身位于校准位置。
可选地,所述第一设备1000具体用于:
所述第一设备输出第一拍摄信息,所述第一拍摄信息用于提示用户利用所述第一设备进行拍摄,所述第一设备在获取到用户的拍摄指令时,确定自身位于校准位置;
所述第二设备2000具体用于:
所述第二设备获取所述拍摄指令对应的拍摄结果图像和拍摄参数并输出第三提示信息,所述第三提示信息用于提示用户移动所述第二设备,所述第二设备在移动过程中基于所述拍摄参数判断自身的拍摄预览画面是否与所述拍摄结果图像相匹配,当所述第二设备确定自身的拍摄预览画面与所述拍摄结果图像相匹配时,所述第二设备确定自身移动至校准位置。
可选地,所述第一设备1000具体用于:
所述第一设备根据自身位于所述校准位置时,自身在所述第一AR空间中的坐标信息和旋转角度信息,确定所述第一方位信息;
所述第二设备2000具体用于:
所述第二设备根据自身位于所述校准位置时,自身在所述第二AR空间中的坐标信息和旋转角度信息,确定所述第二方位信息。
可选地,所述第二设备2000还具体用于:
所述第二设备根据所述拍摄参数调节自身的拍摄参数;
所述第二设备基于自身调节后的拍摄参数,确定自身的拍摄预览画面;
所述第二设备将所述拍摄预览画面与所述拍摄结果图像进行比对;
若比对一致,所述第二设备确定自身的拍摄预览画面与所述拍摄结果图像相匹配。
可选地,所述第一设备1000或者所述第二设备2000具体用于:
获取所述第一AR空间对应的第一坐标系和所述第二AR空间对应的第二坐标系,并以所述校准位置位原点构建辅助坐标系;
将所述第一方位信息作为所述第一坐标系和所述辅助坐标系之间的第一坐标系偏移量,基于所述第一坐标系偏移量,确定所述第一坐标系和所述辅助坐标系之间的第一转换矩阵;
将所述第二方位信息作为所述第二坐标系和所述辅助坐标系之间的第二坐标系偏移量,基于所述第二坐标系偏移量,确定所述第二坐标系和所述辅助坐标系之间的第二转换矩阵;
基于所述第一转换矩阵和所述第二转换矩阵,确定所述第一AR空间和所述第二AR空间之间的第三转换矩阵。
可选地,所述第一设备1000和所述第二设备2000具体用于:
所述第一设备和所述第二设备基于所述转换关系,在所述第一AR空间和所述第二AR空间中共享虚拟对象;
其中,所述虚拟对象在所述第一AR空间中显示时,所述虚拟对象的显示视角与所述第一AR空间的对象显示视角相同;所述虚拟对象在所述第二AR空间中显示时,所述虚拟对象的显示视角与所述第二AR空间的对象显示视角相同。
本申请实施例中,第一设备构建第一AR空间,并确定自身位于校准位置时自身在第一AR空间中的第一方位信息,第二设备构建第二AR空间,并确定自身位于校准位置时自身在第二AR空间中的第二方位信息,其中,校准位置为第一AR空间和第二AR空间在真实世界中的重合位置,第一设备和第二设备分别位于校准位置时,第一设备和第二设备的姿态相同,第一设备或者第二设备基于第一方位信息和第二方位信息,确定第一AR空间和第二AR空间之间的转换关系,第一设备和第二设备基于上述转换关系,在第一AR空间和第二AR空间之间进行AR交互。可见,通过本申请实施例,能够确定第一AR空间和第二AR空间之间的转换关系,并基于该转换关系,在第一AR空间和第二AR空间之间进行AR交互,从而实现多个AR场景之间的交互,丰富AR交互效果。
进一步地,基于上述的方法,本申请实施例还提供了一种电子设备,图5为本申请一实施例提供的电子设备的结构示意图。
如图5所示,电子设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器701和存储器702,存储器702中可以存储有一个或一个以上存储应用程序或数据。其中,存储器702可以是短暂存储或持久存储。存储在存储器702的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括对电子设备中的一系列计算机可执行指令。更进一步地,处理器701可以设置为与存储器702通信,在电子设备上执行存储器702中的一系列计算机可执行指令。电子设备还可以包括一个或一个以上电源703,一个或一个以上有线或无线网络接口704,一个或一个以上输入输出接口705,一个或一个以上键盘706等。
在一个具体的实施例中,电子设备为上述的第一设备,包括处理器,存储器,存储在存储器上并可在所述处理器上运行的计算机程序,该计算机程序被处理器执行时实现上述AR交互方法实施例中第一设备执行的各个过程,这里不再赘述。
在另一个具体的实施例中,电子设备为上述的第二设备,包括处理器,存储器,存储在存储器上并可在所述处理器上运行的计算机程序,该计算机程序被处理器执行时实现上述AR交互方法实施例中第二设备执行的各个过程,这里不再赘述。
进一步地,本申请实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时,实现上述AR交互方法实施例中第一设备执行的各个过程,或者,实现上述AR交互方法实施例中第二设备执行的各个过程,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (14)

1.一种增强现实AR交互方法,其特征在于,应用于第一设备和第二设备,包括:
第一设备构建第一AR空间,并确定自身位于校准位置时自身在所述第一AR空间中的第一方位信息;
第二设备构建第二AR空间,并确定自身位于所述校准位置时自身在所述第二AR空间中的第二方位信息;
其中,所述校准位置为所述第一AR空间和所述第二AR空间在真实世界中的重合位置;所述第一设备和所述第二设备分别位于所述校准位置时,所述第一设备和所述第二设备的姿态相同;
所述第一设备或者所述第二设备基于所述第一方位信息和所述第二方位信息,以所述校准位置为原点构建辅助坐标系,确定所述第一AR空间和所述第二AR空间之间的转换关系;
所述第一设备和所述第二设备基于所述转换关系,在所述第一AR空间和所述第二AR空间之间进行AR交互。
2.根据权利要求1所述的方法,其特征在于,
所述第一设备确定自身位于校准位置,包括:
所述第一设备输出第一提示信息,所述第一提示信息用于提示用户按照指定规则放置所述第一设备,所述第一设备检测到自身处于静止状态后,所述第一设备将当前所处位置确定为校准位置,并确定自身位于校准位置;
所述第二设备确定自身位于校准位置,包括:
所述第二设备输出第二提示信息,所述第二提示信息用于提示用户将所述第二设备放置在所述第一设备被放置的位置处,所述第二设备检测到自身处于静止状态后,所述第二设备确定自身位于校准位置。
3.根据权利要求1所述的方法,其特征在于,
所述第一设备确定自身位于校准位置,包括:
所述第一设备输出第一拍摄信息,所述第一拍摄信息用于提示用户利用所述第一设备进行拍摄,所述第一设备在获取到用户的拍摄指令时,确定自身位于校准位置;
所述第二设备确定自身位于校准位置,包括:
所述第二设备获取所述拍摄指令对应的拍摄结果图像和拍摄参数并输出第三提示信息,所述第三提示信息用于提示用户移动所述第二设备,所述第二设备在移动过程中基于所述拍摄参数判断自身的拍摄预览画面是否与所述拍摄结果图像相匹配,当所述第二设备确定自身的拍摄预览画面与所述拍摄结果图像相匹配时,所述第二设备确定自身移动至校准位置。
4.根据权利要求2或3所述的方法,其特征在于,
所述第一设备确定自身位于校准位置时自身在所述第一AR空间中的第一方位信息,包括:
所述第一设备根据自身位于所述校准位置时,自身在所述第一AR空间中的坐标信息和旋转角度信息,确定所述第一方位信息;
所述第二设备确定自身位于所述校准位置时自身在所述第二AR空间中的第二方位信息,包括:
所述第二设备根据自身位于所述校准位置时,自身在所述第二AR空间中的坐标信息和旋转角度信息,确定所述第二方位信息。
5.根据权利要求3所述的方法,其特征在于,所述第二设备基于所述拍摄参数判断自身的拍摄预览画面是否与所述拍摄结果图像相匹配,包括:
所述第二设备根据所述拍摄参数调节自身的拍摄参数;
所述第二设备基于自身调节后的拍摄参数,确定自身的拍摄预览画面;
所述第二设备将所述拍摄预览画面与所述拍摄结果图像进行比对;
若比对一致,所述第二设备确定自身的拍摄预览画面与所述拍摄结果图像相匹配。
6.根据权利要求1至3任一项所述的方法,其特征在于,基于所述第一方位信息和所述第二方位信息确定所述第一AR空间和所述第二AR空间之间的转换关系,包括:
获取所述第一AR空间对应的第一坐标系和所述第二AR空间对应的第二坐标系,并以所述校准位置为原点构建辅助坐标系;
将所述第一方位信息作为所述第一坐标系和所述辅助坐标系之间的第一坐标系偏移量,基于所述第一坐标系偏移量,确定所述第一坐标系和所述辅助坐标系之间的第一转换矩阵;
将所述第二方位信息作为所述第二坐标系和所述辅助坐标系之间的第二坐标系偏移量,基于所述第二坐标系偏移量,确定所述第二坐标系和所述辅助坐标系之间的第二转换矩阵;
基于所述第一转换矩阵和所述第二转换矩阵,确定所述第一AR空间和所述第二AR空间之间的第三转换矩阵。
7.根据权利要求1至3任一项所述的方法,其特征在于,所述第一设备和所述第二设备基于所述转换关系,在所述第一AR空间和所述第二AR空间之间进行AR交互,包括:
所述第一设备和所述第二设备基于所述转换关系,在所述第一AR空间和所述第二AR空间中共享虚拟对象;
其中,所述虚拟对象在所述第一AR空间中显示时,所述虚拟对象的显示视角与所述第一AR空间的对象显示视角相同;所述虚拟对象在所述第二AR空间中显示时,所述虚拟对象的显示视角与所述第二AR空间的对象显示视角相同。
8.一种增强现实AR交互系统,其特征在于,包括第一设备和第二设备;
所述第一设备用于,构建第一AR空间,并确定自身位于校准位置时自身在所述第一AR空间中的第一方位信息;
所述第二设备用于,构建第二AR空间,并确定自身位于所述校准位置时自身在所述第二AR空间中的第二方位信息;
其中,所述校准位置为所述第一AR空间和所述第二AR空间在真实世界中的重合位置;所述第一设备和所述第二设备分别位于所述校准位置时,所述第一设备和所述第二设备的姿态相同;
所述第一设备或者所述第二设备还用于,基于所述第一方位信息和所述第二方位信息,以所述校准位置为原点构建辅助坐标系,确定所述第一AR空间和所述第二AR空间之间的转换关系;
所述第一设备和所述第二设备还用于,基于所述转换关系,在所述第一AR空间和所述第二AR空间之间进行AR交互。
9.根据权利要求8所述的系统,其特征在于,
所述第一设备具体用于:
所述第一设备输出第一提示信息,所述第一提示信息用于提示用户按照指定规则放置所述第一设备,所述第一设备检测到自身处于静止状态后,所述第一设备将当前所处位置确定为校准位置,并确定自身位于校准位置;
所述第二设备具体用于:
所述第二设备输出第二提示信息,所述第二提示信息用于提示用户将所述第二设备放置在所述第一设备被放置的位置处,所述第二设备检测到自身处于静止状态后,所述第二设备确定自身位于校准位置。
10.根据权利要求8所述的系统,其特征在于,
所述第一设备具体用于:
所述第一设备输出第一拍摄信息,所述第一拍摄信息用于提示用户利用所述第一设备进行拍摄,所述第一设备在获取到用户的拍摄指令时,确定自身位于校准位置;
所述第二设备具体用于:
所述第二设备获取所述拍摄指令对应的拍摄结果图像和拍摄参数并输出第三提示信息,所述第三提示信息用于提示用户移动所述第二设备,所述第二设备在移动过程中基于所述拍摄参数判断自身的拍摄预览画面是否与所述拍摄结果图像相匹配,当所述第二设备确定自身的拍摄预览画面与所述拍摄结果图像相匹配时,所述第二设备确定自身移动至校准位置。
11.根据权利要求9或10所述的系统,其特征在于,
所述第一设备具体用于:
所述第一设备根据自身位于所述校准位置时,自身在所述第一AR空间中的坐标信息和旋转角度信息,确定所述第一方位信息;
所述第二设备具体用于:
所述第二设备根据自身位于所述校准位置时,自身在所述第二AR空间中的坐标信息和旋转角度信息,确定所述第二方位信息。
12.根据权利要求10所述的系统,其特征在于,所述第二设备还具体用于:
所述第二设备根据所述拍摄参数调节自身的拍摄参数;
所述第二设备基于自身调节后的拍摄参数,确定自身的拍摄预览画面;
所述第二设备将所述拍摄预览画面与所述拍摄结果图像进行比对;
若比对一致,所述第二设备确定自身的拍摄预览画面与所述拍摄结果图像相匹配。
13.根据权利要求8至10任一项所述的系统,其特征在于,所述第一设备或者所述第二设备具体用于:
获取所述第一AR空间对应的第一坐标系和所述第二AR空间对应的第二坐标系,并以所述校准位置为原点构建辅助坐标系;
将所述第一方位信息作为所述第一坐标系和所述辅助坐标系之间的第一坐标系偏移量,基于所述第一坐标系偏移量,确定所述第一坐标系和所述辅助坐标系之间的第一转换矩阵;
将所述第二方位信息作为所述第二坐标系和所述辅助坐标系之间的第二坐标系偏移量,基于所述第二坐标系偏移量,确定所述第二坐标系和所述辅助坐标系之间的第二转换矩阵;
基于所述第一转换矩阵和所述第二转换矩阵,确定所述第一AR空间和所述第二AR空间之间的第三转换矩阵。
14.根据权利要求8至10任一项所述的系统,其特征在于,所述第一设备和所述第二设备具体用于:
所述第一设备和所述第二设备基于所述转换关系,在所述第一AR空间和所述第二AR空间中共享虚拟对象;
其中,所述虚拟对象在所述第一AR空间中显示时,所述虚拟对象的显示视角与所述第一AR空间的对象显示视角相同;所述虚拟对象在所述第二AR空间中显示时,所述虚拟对象的显示视角与所述第二AR空间的对象显示视角相同。
CN201810273861.5A 2018-03-29 2018-03-29 增强现实ar交互方法及系统 Active CN108573530B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810273861.5A CN108573530B (zh) 2018-03-29 2018-03-29 增强现实ar交互方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810273861.5A CN108573530B (zh) 2018-03-29 2018-03-29 增强现实ar交互方法及系统

Publications (2)

Publication Number Publication Date
CN108573530A CN108573530A (zh) 2018-09-25
CN108573530B true CN108573530B (zh) 2022-02-11

Family

ID=63574731

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810273861.5A Active CN108573530B (zh) 2018-03-29 2018-03-29 增强现实ar交互方法及系统

Country Status (1)

Country Link
CN (1) CN108573530B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109920064A (zh) * 2019-03-14 2019-06-21 烟台九田自动化科技有限公司 一种基于增强现实技术的模型空间位姿的精确调整方法
CN111913564B (zh) * 2019-05-07 2023-07-18 广东虚拟现实科技有限公司 虚拟内容的操控方法、装置、系统、终端设备及存储介质
CN110322484B (zh) * 2019-05-29 2023-09-08 武汉幻石佳德数码科技有限公司 多设备共享的增强现实虚拟空间的校准方法及系统
CN110568927A (zh) * 2019-08-30 2019-12-13 深圳市商汤科技有限公司 增强现实的信息交互方法、装置、电子设备和存储介质
CN110750190B (zh) * 2019-10-17 2024-01-23 辽宁中航信诺科技有限公司 基于ar设备的人工智能物体注册识别后虚拟提示信息的叠加方法
CN110837297B (zh) * 2019-10-31 2021-07-16 联想(北京)有限公司 一种信息处理方法和ar设备
CN111338474B (zh) * 2020-02-19 2022-11-08 Oppo广东移动通信有限公司 虚拟对象位姿校准方法及装置、存储介质和电子设备
CN111861871A (zh) * 2020-07-17 2020-10-30 浙江商汤科技开发有限公司 一种图像匹配方法及装置、电子设备和存储介质
CN112675541A (zh) * 2021-03-22 2021-04-20 航天宏图信息技术股份有限公司 Ar信息共享方法、装置、电子设备及存储介质
CN114791274B (zh) * 2022-04-26 2023-11-03 北京商询科技有限公司 一种空间定位方法、装置及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106210468A (zh) * 2016-07-15 2016-12-07 网易(杭州)网络有限公司 一种增强现实显示方法和装置
CN106441360A (zh) * 2016-09-21 2017-02-22 广州视源电子科技股份有限公司 方位校准方法及装置
CN106997281A (zh) * 2017-04-10 2017-08-01 北京小米移动软件有限公司 共享虚拟对象的方法及智能设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9741145B2 (en) * 2012-06-29 2017-08-22 Disney Enterprises, Inc. Augmented reality simulation continuum

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106210468A (zh) * 2016-07-15 2016-12-07 网易(杭州)网络有限公司 一种增强现实显示方法和装置
CN106441360A (zh) * 2016-09-21 2017-02-22 广州视源电子科技股份有限公司 方位校准方法及装置
CN106997281A (zh) * 2017-04-10 2017-08-01 北京小米移动软件有限公司 共享虚拟对象的方法及智能设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Space-sharing AR interaction on multiple mobile devices with a depth camera;Yuki Kaneto等;《 2016 IEEE Virtual Reality (VR)》;20160707;第197-198页 *
增强现实技术综述;侯颖等;《计算机测量与控制》;20170321;第25卷(第2期);第1-7、22页 *
移动增强现实可视化综述;高翔等;《计算机辅助设计与图形学学报》;20180131;第30卷(第1期);第1-8页 *

Also Published As

Publication number Publication date
CN108573530A (zh) 2018-09-25

Similar Documents

Publication Publication Date Title
CN108573530B (zh) 增强现实ar交互方法及系统
US11703993B2 (en) Method, apparatus and device for view switching of virtual environment, and storage medium
US11189037B2 (en) Repositioning method and apparatus in camera pose tracking process, device, and storage medium
JP6476657B2 (ja) 画像処理装置、画像処理方法、およびプログラム
EP3058451B1 (en) Techniques for navigation among multiple images
JP2007072537A (ja) 360°画像撮影装置
JP2021520540A (ja) カメラの位置決め方法および装置、端末並びにコンピュータプログラム
CN111651051B (zh) 一种虚拟沙盘展示方法及装置
KR102003383B1 (ko) 전자 장치에서 이미지를 촬영하는 위한 장치 및 방법
JP2022084658A (ja) 拡張現実空間に配置される3dオブジェクトを生成する方法
CN114782647A (zh) 一种模型重建方法、装置、设备及存储介质
CN114640833A (zh) 投影画面调整方法、装置、电子设备和存储介质
CN113384880A (zh) 虚拟场景显示方法、装置、计算机设备及存储介质
CN114401362A (zh) 一种图像显示方法、装置和电子设备
Pece et al. Panoinserts: mobile spatial teleconferencing
CN112116530B (zh) 鱼眼图像畸变矫正方法、装置和虚拟显示系统
JP2016139199A (ja) 画像処理装置、画像処理方法、およびプログラム
CN116128744A (zh) 消除图像畸变的方法、电子设备、存储介质及车辆
US20150029351A1 (en) Display method, image capturing method and electronic device
CN114241127A (zh) 全景图像生成方法、装置、电子设备和介质
CN108200318A (zh) 电子设备和获取图像的方法
JP2013206365A (ja) 画像処理装置、画像処理方法及びプログラム
CN115499594B (zh) 全景图像生成方法及计算机可读存储介质
CN114093020A (zh) 动作捕捉方法、装置、电子设备及存储介质
CN111766947A (zh) 一种显示方法、装置、可穿戴设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant