CN116755587A - 一种增强现实的方法、装置、存储介质及电子设备 - Google Patents
一种增强现实的方法、装置、存储介质及电子设备 Download PDFInfo
- Publication number
- CN116755587A CN116755587A CN202311010114.XA CN202311010114A CN116755587A CN 116755587 A CN116755587 A CN 116755587A CN 202311010114 A CN202311010114 A CN 202311010114A CN 116755587 A CN116755587 A CN 116755587A
- Authority
- CN
- China
- Prior art keywords
- augmented reality
- data
- user
- scene
- interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 354
- 238000000034 method Methods 0.000 title claims abstract description 73
- 238000003860 storage Methods 0.000 title claims abstract description 22
- 230000003993 interaction Effects 0.000 claims abstract description 194
- 230000005540 biological transmission Effects 0.000 claims description 50
- 230000009471 action Effects 0.000 claims description 39
- 238000004891 communication Methods 0.000 claims description 28
- 230000002452 interceptive effect Effects 0.000 claims description 26
- 238000009877 rendering Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 15
- 230000001360 synchronised effect Effects 0.000 abstract description 10
- 238000007726 management method Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 230000006399 behavior Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 239000011521 glass Substances 0.000 description 8
- 230000006872 improvement Effects 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 238000012545 processing Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 239000003999 initiator Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000000243 solution Substances 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000005336 cracking Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本说明书公开了一种增强现实的方法、装置、存储介质及电子设备,通过为增强现实设备部署包含多个可以互相进行协作的模块的系统,使得使用增强现实设备的用户能够使用增强现实设备执行完成虚拟与现实的交互,并且所述用户在执行所述交互业务时所做出的操作可同步给其他用户,以使得该用户能够与其他用户共享所述虚拟与现实的交互。
Description
技术领域
本说明书涉及计算机技术领域,尤其涉及一种增强现实的方法、装置、存储介质及电子设备。
背景技术
增强/混合现实技术是将计算机模拟的数字化信息数据与现实场景环境无缝叠加,突破空间/时间限制,实现高沉浸、无割裂感的实时信息指引、虚实互动。其本质体现在“所见即得,所触即现”。借助此项技术,可以将借助屏幕显示/交互的信息替换成与实际环境对象强关联的三维信息,直观呈现于使用者眼前。也就意味着,使用者可以将面前的任何平面变为液晶屏幕,在任意视野空间放置任意虚拟物品(和真实物品一样摆放,甚至模拟物理属性)。打破空间虚实壁垒,直接完成虚实空间交流。即通过手势识别、深度识别、人工智能等技术,采集、理解用户意图,数字虚拟空间与真实环境之间不存在有割裂,借助使用者自身完成信息交流。
由于增强/混合现实的设备和系统应用还处于发展阶段,特别是针对通用应用的框架设计还没有统一的规范和方法。因此本发明从应用系统的架构、模块设计、多人协同等关键模块出发,提出一种通用的应用系统框架,可以满足未来增强/现实环境的实际应用需求。
发明内容
本说明书提供一种增强现实的方法、装置、存储介质及电子设备,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种增强现实的设备,所述设备中设有数据驱动交互界面模块、通用可扩展业务模块、识别追踪模块、多人协同模块、混合网络通信模块;
所述数据驱动交互界面模块,用于针对与用户进行交互的交互界面中包含的每个界面元素,在该界面元素对应的类实例化得到第一实例化对象的同时,对预先与该界面元素绑定的元素数据类进行实例化,得到第二实例化对象,并针对所述第一实例化对象中包含的每个指定变量,将该指定变量与所述第二实例化对象中包含的各指定变量中与该指定变量名称相同的指定变量相绑定,以在所述第二实例化对象中与所述第一实例化对象绑定的任意一个指定变量的值改变时,使得所述第一实例化对象中与所述任意一个指定变量相绑定的指定变量对应的界面元素在所述交互界面中的呈现进行同步改变;
所述通用可扩展业务模块,用于预先保存所述增强现实设备所执行的各业务对应的容器,并在执行目标业务时,调用所述目标业务对应容器中的组件,以基于调用出的组件,执行目标业务;通过预设的各个组件,创建新的待扩展业务,并管理所述待扩展业务的创建状态;
所述识别追踪模块,用于对所述增强现实设备采集到的图像数据进行图像识别,以确定出所述用户所处的增强现实交互场景中目标对象的位姿;
所述多人协同模块,用于响应数据同步指令,并向其他增强现实设备发送本地设备所产生的数据同步指令,所述数据同步指令用于对所述增强现实交互场景中的目标对象进行控制或对目标对象的状态进行更新;
所述混合网络通信模块,用于将所述增强现实交互场景中产生不同类型的待传输数据确定传输策略,并分别按照不同的传输策略,将各类型的待传输数据进行传输。
可选的,所述数据驱动交互界面模块还用于根据后端的与所述增强现实设备的显示界面中的界面元素所绑定的数据的更新情况来实时更新所述界面中的元素。
本说明书还提供了一种增强现实的方法,包括:
基于接收到的用户所发送的增强现实交互场景创建请求,创建增强现实交互场景;
通过为各个界面元素预设有元素变量,为各个元素数据预设有数据变量,针对每个界面元素,将该界面元素的元素变量与渲染该界面元素所需的元素数据的数据变量相绑定,实现该界面元素与该界面元素对应的元素数据的绑定,以使通过定义的指定对象类,在增强现实交互场景中对用户的交互动作所影响的界面元素以及渲染界面元素所需的元素数据进行绑定,其中,所述指定对象类包含有界面元素对应的对象类、界面元素数据对应的对象类;
当监测到用户执行的交互动作时,确定用户在所述增强现实设备中所要展示的增强现实交互场景,并调用所述增强现实交互场景中所需的业务场景数据以及在不同增强现实交互场景中所使用的通用数据,以在所述增强现实设备的显示界面中展示用户所要展示的虚拟界面对象,并确定出所述用户所处的增强现实交互场景中目标对象的位姿;
将所述位姿以及所述用户执行的交互动作所对应的同步指令发送给其他增强现实设备,以使得其他增强现实设备根据所述位姿以及同步指令来同步该增强现实设备所呈现的增强现实交互场景。
可选地,所述方法还包括:根据后端的与所述增强现实设备的显示界面中的界面元素所绑定的数据的更新情况来实时更新所述界面中的元素。
可选地,
确定出所述用户所处的增强现实交互场景中目标对象的位姿,具体包括:
采集所述增强现实场景的图像数据;
根据预设的识别模型识别所述目标对象在所述图像数据所表示的图像中的位姿作为初始位姿;
根据所述初始位姿以及所述图像数据,确定出所述用户所处的增强现实交互场景中目标对象的位姿。
可选地,
将所述位姿以及所述用户执行的交互动作所对应的同步指令发送给其他增强现实设备,具体包括:
确定所述位姿以及所述用户执行的交互动作所对应的同步指令在所述增强现实交互场景中所对应的场景数据;
将所述场景数据传输给其他增强现实设备。
可选地,将所述场景数据传输给其他增强现实设备,所述方法还包括:
获取用户所确定的数据传输策略;
根据所述用户所确定的数据传输策略,将所述场景数据传输给其他增强现实设备。
可选地,所述方法还包括:
获取用户发送的新增业务需求指令;
响应于所述新增业务需求指令,确定待扩展业务,通过指定容器,将待扩展业务实例化,根据所述实例化的待扩展业务,更新所述增强现实设备中的可执行业务。
本说明书提供了一种增强现实的装置,包括:
创建模块,用于基于接收到的用户所发送的增强现实交互场景创建请求,创建增强现实交互场景;
绑定模块,用于通过为各个界面元素预设有元素变量,为各个元素数据预设有数据变量,针对每个界面元素,将该界面元素的元素变量与渲染该界面元素所需的元素数据的数据变量相绑定,实现该界面元素与该界面元素对应的元素数据的绑定,以使通过定义的指定对象类,在增强现实交互场景中对用户的交互动作所影响的界面元素以及渲染界面元素所需的元素数据进行绑定,其中,所述指定对象类包含有界面元素对应的对象类、界面元素数据对应的对象类;
确定与展示模块,用于当监测到用户执行的交互动作时,确定用户在所述增强现实设备中所要展示的增强现实交互场景,并调用所述增强现实交互场景中所需的业务场景数据以及在不同增强现实交互场景中所使用的通用数据,以在所述增强现实设备的显示界面中展示用户所要展示的虚拟界面对象,并确定出所述用户所处的增强现实交互场景中目标对象的位姿;
同步模块,用于将所述位姿以及所述用户执行的交互动作所对应的同步指令发送给其他增强现实设备,以使得其他增强现实设备根据所述位姿以及同步指令来同步该增强现实设备所呈现的增强现实交互场景。
可选的,所述装置还包括:
更新模块,用于根据后端的与所述增强现实设备的显示界面中的界面元素所绑定的数据的更新情况来实时更新所述界面中的元素。
可选的,所述确定与展示模块具体用于,采集所述增强现实场景的图像数据;根据预设的识别模型识别所述目标对象在所述图像数据所表示的图像中的位姿作为初始位姿;根据所述初始位姿以及所述图像数据,确定出所述用户所处的增强现实交互场景中目标对象的位姿。
可选的,所述同步模块具体用于,确定所述位姿以及所述用户执行的交互动作所对应的同步指令在所述增强现实交互场景中所对应的场景数据;将所述场景数据传输给其他增强现实设备。
可选的,所述同步模块还用于,获取用户所确定的数据传输策略;根据所述用户所确定的数据传输策略,将所述场景数据传输给其他增强现实设备。
可选的,所述装置还包括:
业务拓展模块,用于获取用户发送的新增业务需求指令;响应于所述新增业务需求指令,确定待扩展业务,通过指定容器,将待扩展业务实例化,根据所述实例化的待扩展业务,更新所述增强现实设备中的可执行业务。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述增强现实的方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述增强现实的方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
本说明书提供的增强现实的方法,基于接收到的用户所发送的增强现实交互场景创建请求,创建增强现实交互场景;通过为各个界面元素预设有元素变量,为各个元素数据预设有数据变量,针对每个界面元素,将该界面元素的元素变量与渲染该界面元素所需的元素数据的数据变量相绑定,实现该界面元素与该界面元素对应的元素数据的绑定,以使通过定义的指定对象类,在增强现实交互场景中对用户的交互动作所影响的界面元素以及渲染界面元素所需的元素数据进行绑定,其中,所述指定对象类包含有界面元素对应的对象类、界面元素数据对应的对象类;当监测到用户执行的交互动作时,确定用户在所述增强现实设备中所要展示的增强现实交互场景,并调用所述增强现实交互场景中所需的业务场景数据以及在不同增强现实交互场景中所使用的通用数据,以在所述增强现实设备的显示界面中展示用户所要展示的虚拟界面对象,并确定出所述用户所处的增强现实交互场景中目标对象的位姿;将所述位姿以及所述用户执行的交互动作所对应的同步指令发送给其他增强现实设备,以使得其他增强现实设备根据所述位姿以及同步指令来同步该增强现实设备所呈现的增强现实交互场景。
从上述方法中可以看出,通过为增强现实设备部署包含多个可以互相进行协作的模块的系统,使得使用增强现实设备的用户能够使用增强现实设备执行完成虚拟与现实的交互,并且所述用户在执行所述交互业务时所做出的操作可同步给其他用户,以使得该用户能够与其他用户共享所述虚拟与现实的交互。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中提供的一种增强现实设备内部系统的流程示意图;
图2为本说明书中提供的一种增强现实方法的流程示意图;
图3为本说明书中提供的一种增强现实设备的待扩展业务的创建的示意图;
图4为本说明书中提供的一种信息交互的流程示意图;
图5为本说明书中提供的一种增强现实设备交互数据的实时共享的流程示意图;
图6为本说明书中提供的一种增强现实设备传输数据的流程示意图;
图7为本说明书提供的一种增强现实的装置结构的示意图;
图8为本说明书提供的对应于图1的电子设备的结构示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中提供的一种增强现实设备内部系统的流程示意图,该增强现实系统可包括:数据驱动交互界面模块101、通用可扩展业务模块102、识别追踪模块103、多人协同模块104、混合网络通信模块105。
人们可以使用本说明书实施例中的增强现实设备的展示界面,观察到真实环境中的虚拟物体,并同其他用户一起对目标对象执行操作,进行互动,这则建立起了虚拟空间与现实空间之间的连接。
本说明书实施例中的增强现实设备的系统可应用增强现实指导场景、增强现实游戏场景等增强现实交互场景。
例如,在增强现实指导场景中的管道维修指导场景中,A用户可以通过自己所持有的如Ar眼镜等的增强现实设备看到眼前需要维修的管道,并通过该Ar眼镜将A用户眼前的包含管道的图像发送给B用户,B用户可以通过B用户所持有的类似手机、电脑等可以接收图像视频的移动终端或者增强现实设备来在该视频中标记出虚拟箭头来指导A用户进行管道维修,A用户可以通过A用户自身持有的该Ar眼镜来接收B用户所标记的虚拟箭头,并且A用户可以通过该A用户自身持有的该Ar眼镜观察到眼前的包含管道的图像中会出现上述B用户所标记的虚拟箭头,并根据该箭头的指示进行相关操作。
在该增强现实系统运行过程中,可通过以下模块实现增强现实设备的增强现实功能:
数据驱动交互界面模块101,用于针对与用户进行交互的交互界面中包含的每个界面元素,在该界面元素对应的类实例化得到第一实例化对象的同时,对预先与该界面元素绑定的元素数据类进行实例化,得到第二实例化对象,并针对所述第一实例化对象中包含的每个指定变量,将该指定变量与所述第二实例化对象中包含的各指定变量中与该指定变量名称相同的指定变量相绑定,以在所述第二实例化对象中与所述第一实例化对象绑定的任意一个指定变量的值改变时,使得所述第一实例化对象中与所述任意一个指定变量相绑定的指定变量对应的界面元素在所述交互界面中的呈现进行同步改变。
上述界面元素对应的类可以是抽象界面元素父类,而与该界面元素绑定的元素数据类可以是抽象元素数据父类,根据增强现实交互场景中用户的交互动作确定出该交互动作所对应的界面元素(例如,某个虚拟按钮),将抽象界面元素父类具象化为该交互动作所影响的界面元素得到具体界面元素类,并且,将抽象元素数据父类具象化为该交互动作所影响的界面元素在后台的数据(即渲染该界面元素所需的元素数据)得到具体元素数据类。通过将该具体界面元素类与预设的绑定元素工具相绑定,将该具体元素数据类与预设的绑定元素属性相绑定,建立该绑定元素工具与该绑定元素属性之间的对应关系,通过改变该绑定元素属性以及该绑定元素工具,来调节该具体界面元素类以及具体元素数据类,以实现在增强现实交互场景中对用户的交互动作所影响的界面元素以及渲染界面元素所需的元素数据进行绑定。
通用可扩展业务模块102,用于预先保存所述增强现实设备所执行的各业务对应的容器,并在执行目标业务时,调用所述目标业务对应容器中的组件,以基于调用出的组件,执行目标业务;通过预设的各个组件,创建新的待扩展业务,并管理所述待扩展业务的创建状态。
具体可以是增强现实设备首先获取用户发送的新增业务需求指令或者服务器发送的新增业务需求指令,之后再响应于该新增业务需求指令,确定待扩展业务,通过指定容器,将待扩展业务实例化,根据该实例化的待扩展业务,更新该增强现实设备中的可执行业务。
识别追踪模块103,用于对所述增强现实设备采集到的图像数据进行图像识别,以确定出所述用户所处的增强现实交互场景中目标对象的位姿。
该增强现实设备具体可以根据该设备所装有的摄像机采集到的图像(包括彩色图像以及深度图像),通过预置的识别模型识别出目标对象具体是什么,以及识别出目标对象在该图像中的初始位姿(位姿包括位置和方向),并且基于该图像、初始位姿以及该设备中所装有的摄像机的内外矩阵的参数,来确定出该用户所处的增强现实交互场景中目标对象的实际位姿。
多人协同模块104,用于响应数据同步指令,并向其他增强现实设备发送本地设备所产生的数据同步指令,所述数据同步指令用于对所述增强现实交互场景中的目标对象进行控制或对目标对象的状态进行更新。
该增强现实设备可以基于该多人协同模块,完成进行各个用户之间的信息实时信息交互。
混合网络通信模块105,用于将所述增强现实交互场景中产生不同类型的待传输数据确定传输策略,并分别按照不同的传输策略,将各类型的待传输数据进行传输。
该增强现实设备可以基于该混合网络通信模块,为待传输数据分配对应的匹配的传输策略,以实现高效的数据传输。
并且,所述数据驱动交互界面模块101,还用于根据后端的与所述增强现实设备的显示界面中的界面元素所绑定的数据的更新情况来实时更新所述界面中的元素。
此外,这里的模块还可以包括:启动器106、空间定位模块107、数据存储模块108、状态管理模块109。启动器106,用于启动该增强现实设备,空间定位模块107,用于确定该增强现实设备的空间定位信息,数据存储模块108,用于存储所述增强显示设备执行业务过程中所产生的数据,状态管理模块109,用于管理上述各个模块的状态。
基于上述如图1所示的增强现实设备,本说明书还提供了相应的增强现实方法,如图2所示,图2为本说明书中提供的一种增强现实方法的流程示意图,具体包括以下步骤:
S201:基于接收到的用户所发送的增强现实交互场景创建请求,创建增强现实交互场景。
本说明书实施例中,可由上述图1所示的增强现实设备执行图2所示的方法。
一旦接收到用户所发送的增强现实交互场景创建请求,增强现实设备则可以创建出与用户所发送的增强现实交互场景创建请求相对应的增强现实交互场景。
这里用户所发送的增强现实交互场景创建请求可以指用户触控了该增强现实设备界面中的某个表示请求增强现实交互场景的控件,也可以指用户发出了表示请求增强现实交互场景的语音,在本说明书实施例中不对上述请求的触发条件做出具体限定。
而这里增强现实设备所创建的增强现实交互场景指的是:与用户所发出的增强现实交互场景创建请求对应的业务一致的场景。而上述增强现实交互场景可以是该用户通过该增强现实设备所观测到的场景。
例如,用户所处的真实环境中有一张真实的桌子,该桌子上有一个真实的杯子以及5个真实的杯盖,当用户向增强现实(Augmented Reality,Ar)眼镜这种增强现实设备发送的增强现实交互场景创建请求表示用户所要执行的业务是“多人合作拧杯盖的游戏”,该Ar眼镜则可以响应于该请求创建出该业务所对应的增强现实交互场景,该增强现实交互场景中包含有上述真实环境以及该Ar眼镜所创建出的指导用户完成游戏的虚拟的箭头,该箭头可以指向与该杯子最匹配的杯盖。
后续,用户可以在该增强现实设备所创建的增强现实交互场景中与其他用户进行互动。
S202:通过为各个界面元素预设有元素变量,为各个元素数据预设有数据变量,针对每个界面元素,将该界面元素的元素变量与渲染该界面元素所需的元素数据的数据变量相绑定,实现该界面元素与该界面元素对应的元素数据的绑定,以使通过定义的指定对象类,在增强现实交互场景中对用户的交互动作所影响的界面元素以及渲染界面元素所需的元素数据进行绑定,其中,所述指定对象类包含有界面元素对应的对象类、界面元素数据对应的对象类。
增强现实设备会为该增强现实设备的显示界面中的各个界面元素预设有元素变量,并且针对上述每个界面元素,将该界面元素的元素变量与渲染该界面元素所需的元素数据的数据变量相绑定,以实现该界面元素与该界面元素对应的元素数据的绑定,并且通过预先定义的指定对象类,在增强现实交互场景中将被该用户的交互动作所影响的界面元素以及渲染该界面元素所需的元素数据(即界面元素在后台所对应的数据)进行绑定。
这里提到的指定对象类可以包括:抽象界面元素父类(即上述界面元素对应的类)、抽象元素数据父类(即上述与该界面元素绑定的元素数据类)。
抽象界面元素类中包含有多个不用的界面元素,抽象元素数据父类中包含有多个不同的界面元素在后台所对应的数据。
界面元素指的是在增强现实设备的展示界面所展示出的元素(如交互界面中的按钮、图表、三维模型等元素)。元素数据(界面元素在后台所对应的数据)指的是上述界面元素在后台所对应的数据表示(如该按钮的触发信号数据、该图标的值数据,该三维模型的位姿数据等)。
增强现实设备会预先为被该用户的交互动作所影响的界面元素预设有相应的绑定元素工具,例如变量A,并且预先为被该用户的交互动作所影响的界面元素在后台的数据也预设有相应的绑定元素属性,例如变量B,并且,增强现实设备还建立该绑定元素工具与该绑定元素属性之间的对应关系。
具体来说,可以是增强现实设备一旦监测到该用户在增强现实交互场景中所发出的交互动作,则可以确定出被该交互动作所影响的界面元素,以及确定出被该用户的交互动作所影响的界面元素在后台的数据。并且,将该抽象界面元素父类具体化为被该交互动作所影响的界面元素,即得到具体界面元素类,将该抽象元素数据父类具体化为该被该用户的交互动作所影响的界面元素在后台的数据,即得到具体元素数据类。
之后,还可以将该具体界面元素类与预设的绑定元素工具相绑定,将该具体元素数据类与预设的绑定元素属性相绑定。如此,在增强现实设备监测到该用户在增强现实交互场景中所发出的交互动作之后,则可以将被该交互动作影响后的界面元素确定为绑定元素工具,并且由于绑定元素工具与绑定元素属性之间具有相应的对应关系,所以,此时与该绑定元素工具对应的绑定元素属性确定为被该交互动作影响后的界面元素所对应的后台数据,并且该绑定元素工具所绑定的具体元素数据类则。
例如,当用户在增强现实交互场景中将虚拟的某个三角按钮做出了向上平移的交互动作,那么被该交互动作影响后的界面元素则是该三角按钮,即具体界面元素类是该三角按钮,由于与该界面元素类相绑定的是绑定元素工具变量A,那么此时变量A对应的该三角按钮也进行了该向上平移的交互动作,由于该绑定元素工具变量A对应的绑定元素属性为变量B,那么此时变量B所对应的数据中的坐标也会相应的向上平移,而由于绑定元素属性变量B是与该三角按钮对应的具体元素数据类相绑定的,那么此时该三角按钮对应的具体元素数据类所对应的数据中的坐标也会相应的向上平移。
此外,还可以根据后端的与该增强现实设备的显示界面中的界面元素所绑定的数据的更新情况来实时更新该界面中的元素,具体更新过程,本说明书中不再赘述。
如此,则实现了将用户的增强型现实设备中所展示的界面元素与该界面元素所对应的后端数据进行动态绑定。
S203:当监测到用户执行的交互动作时,确定用户在所述增强现实设备中所要展示的增强现实交互场景,并调用所述增强现实交互场景中所需的业务场景数据以及在不同增强现实交互场景中所使用的通用数据,以在所述增强现实设备的显示界面中展示用户所要展示的虚拟界面对象,并确定出所述用户所处的增强现实交互场景中目标对象的位姿。
其中,这里的增强现实交互场景中所需的业务场景数据指的是特定的业务场景所需要的数据,可以包括渲染某个具体的增强现实业务场景对应的数据,当然,也可以包括同一个虚拟物体在不用的增强现实交互场景中所呈现出来的不同的状态的部分对应的数据。
这里的交互动作用于表示用户基于该增强现实设备所发出的执行用户所选定的业务的动作。
用户可以触控用于创建虚拟物体的控件,这个触控的动作则可以作为交互动作。而由于同一个虚拟物体在不用的增强现实交互场景中所呈现出来的状态可能会在某一部分有所不同,但是其他部分是相同的。所以,为了提高虚拟物体的创建效率,增强现实设备可以调用该增强现实交互场景中所需的业务场景数据(即同一个虚拟物体在不用的增强现实交互场景中所呈现出来的不同的状态的部分对应的数据)以及在不同增强现实交互场景中所使用的通用数据(即同一个虚拟物体在不用的增强现实交互场景中所呈现出来的相同的状态的部分对应的数据),以针对性的在该增强现实设备的显示界面中展示用户所要展示的虚拟界面对象,并确定出该用户所处的增强现实交互场景中目标对象的位姿。
例如,在创建长发女孩这个虚拟物体时,由于长发女孩的头发在陆地上的方向下,而在太空中会漂浮,但是同一个长发女孩这个虚拟物体在这两种增强现实交互场景中的除了头发以外的其他部位的表现是一致的,那么在太空这种增强现实交互场景中创建该长发女孩时,创建头发所需要的数据是上述提及的业务场景数据,而创建该长发女孩的其他部位所需要的数据则是上述提及的通用数据。
具体来说,一旦增强现实设备监测到该用户执行了交互动作,该增强现实设备则可以确定在该增强现实设备的显示界面中所要展示的虚拟界面对象,之后,该增强显示设备可以结合确定用户在该增强现实设备中所要展示的增强现实交互场景,调用该增强现实交互场景中所需的业务场景数据以及在不同增强现实交互场景中所使用的通用数据,并调用预设的对象容器中可以用于创建在该增强现实交互场景下的该虚拟界面对象的函数来创建出该虚拟界面对象,来在该增强现实设备的显示界面中展示用户所要展示的虚拟界面对象。
此外,由于用户在使用增强现实设备执行业务时,会涉及到用户对增强现实设备显示界面所显示的目标对象的操作,那么此时则有必要对该目标对象进行追踪,以使得用户可以顺利完成对增强现实设备显示界面所显示的目标对象或者虚拟界面对象的操作,那么此时增强现实设备则需要确定出用户所处的增强现实交互场景中目标对象的位姿。
这里的目标对象表示用户所执行的业务所对应的需要操作的对象。
继续沿用上例,在用户通过增强现实设备执行“多人合作拧杯盖的游戏”的业务时,由于用户所选择的业务是为杯子找到匹配的杯盖并将该杯盖拧到该杯子上面,那么此时的目标对象则是该杯子以及与该杯子所匹配的某一个杯盖,而这里的指导用户完成游戏的虚拟的箭头则是增强现实设备的显示界面中所要展示的虚拟界面对象。
而在增强现实设备确定该用户所处的增强现实交互场景中目标对象的位姿时,具体可以是增强现实设备通过该设备中所装有的摄像机来采集该用户面前的该增强现实设备为该用户创建的增强现实场景的图像。其中,这里的图像可以包含该图像的RGB(Red,Grean, Blue)图像,即彩色图像,以及该图像的深度图像。并且,还可以确定该图像所对应的图像数据,这里的图像数据可以包括:该图像的图像数据以及该图像的深度数据,以及根据预置的识别模型来识别目标对象在该图像中的像素坐标系下的位姿作为初始位姿,并且,这里的预置的识别模型还可以识别出该目标对象具体是什么,上述提到的位姿包括位置和方向。
之后,该增强现实设备可以根据该初始位姿,基于该图像对应的RGB图像以及深度图像,上述提到的图像数据以及该设备中所装有的摄像机的内外矩阵的参数,来确定出该用户所处的增强现实交互场景中目标对象的实际位姿。
具体的,是通过进行一系列的空间坐标变换,以确定出该用户所处的增强现实交互场景中目标对象的实际位姿。即,首先基于该深度图像和RGB图像进行像素级的一一匹配,以将该初始位姿所位于的像素坐标系转换为图像坐标系,同时初始位姿也转换为图像坐标系下的初始位姿,此后,该增强现实设备可以将该图像坐标系转换为以该用户视角下的相机(该用户视角下的相机与该设备中所装有的摄像机位置统一)为零位的相机坐标系,并且将该图像坐标系下的初始位姿转换为该相机坐标系下的初始位姿。之后,还可以基于该设备中所装有的摄像机的内外矩阵的参数,来将相机坐标系转换为世界坐标系,并且将上述该相机坐标系下的初始位姿转换为世界坐标系下的初始位姿,这里的世界坐标系下的初始位姿则是上述提到的该用户所处的增强现实交互场景中目标对象的实际位姿。
其中,这里预置的识别模型具体可以是按照以下思路所构建与训练的:
为实现基于RGB图像的目标对象识别,可以先构建目标识别模型框架:首先,我们为每个对象设置一个预定义的比例范围和中心位置,并为每个对象指定特征金字塔网络(feature pyramid networks,FPN),当我们在进行计算机视觉任务时,例如目标检测和图像分类,我们需要考虑目标在不同尺度下的大小和形状。这是因为相同类型的物体可能在图像中以不同的大小和比例出现。因此,对于模型来说,必须能够识别和定位不同尺度的目标,而不仅仅是某一特定尺度上的对象。
特征金字塔网络(FPN)通过构建多个不同分辨率的特征图来解决这个问题。它使用一个共享权重的卷积神经网络(CNN)来从输入图像中提取特征。然后,对于每个不同的尺度,它都会通过增加或减小步幅来调整原始图像的大小。在每个尺度上,FPN都会生成一组由高到低的特征图,这些特征图被称为“金字塔”(pyramid),其中,最底层是原始图像上采样得到的特征图,而最高层是通过应用池化操作和卷积操作得到的粗略特征图。
这些特征映射然后级联起来,以产生更高级别的特征表示。这种级联过程使得模型能够捕获不同尺度下的目标信息,并且在深度上更加丰富,从而提高了模型的性能。)的级别。对于每个位置,我们预测四个值:网格左上角的两个偏移量以及预测框的高度和宽度(像素表示)。为了更准确地检测对象类型,融合了上述FPN从不同网络层获得的多尺度特征。该网络由两个子网模块组成,第一个是自上而下的架构(自下而上网络从原始图像开始,通过多个卷积层和池化层逐步缩小图像尺寸,得到一系列由粗到细的特征图。这些特征图在通道数上逐渐增加,捕获了越来越高级别的特征。自下而上网络主要负责提取低级别的特征,例如边缘和纹理等),第二个是自下而上的架构(自上而下网络则是从金字塔的顶部开始,通过上采样或反卷积操作逐步恢复特征图的大小,同时在每一层都添加横向连接。横向连接了自上而下网络与自下而上网络的相应层,以便自上而下网络可以获取来自自下而上网络的高级别特征信息。自上而下网络主要负责提取高级别的特征,例如语义信息和物体的整体形状)。每个子网络都使用深度残差网络(Residual Network,ResNet)块构建深层网络,这些残差块包含跨越层的跳跃连接。跳跃连接允许在从输入到输出之间的层中跳过一些层,使得网络可以捕获更高级别的特征,并且更容易训练。同时,跳跃连接还可以将梯度传递回较早的层,缓解了梯度消失问题。RGB图像输入自下而上的子网络,然后将特征图传输到下一个子网络。在自上而下的子网络中,每一层的每个特征图都被组合起来以预测对象类别和相应的候选边界框。后续可以基于目标识别模型框架,通过采集大量目标对象的图像进行训练,得到深度学习识别模型。
继续沿用上例,该用户的Ar眼镜中的摄像机可以采集到用户的视角所看到的该增强现实交互场景所对应的图像(包括RGB图像以及深度图像),那么此时增强现实设备可以确定出该图像所对应的图像数据,该图像数据可以包含用户在执行“多人合作拧杯盖”业务时该摄像机所采集到的RGB图像的图像数据以及与该图像所匹配的深度图像的深度数据,并且,增强现实设备可以根据预置的识别模型识别出该目标对象杯盖在该图像的像素坐标系下的位姿作为初始位姿,之后,可以根据该初始位姿,基于该图像对应的RGB图像、深度图像、上述提到的图像数据以及该设备中所装有的摄像机的内外矩阵的参数,通过进行一系列的空间坐标变换,确定出该用户所处的增强现实交互场景中目标对象所在的实际位姿。
此外,当监测到用户需要在该增强显示设备中新增业务,例如当监测到用户想在该增强显示设备中使用语音识别业务,但是该增强显示设备中没有语音识别业务,那么此时将用户需要新增的业务作为待扩展业务,并将待扩展业务实例化,之后,将得到的实例化业务调取到预设的IOC容器中, 并管理该待扩展业务在所述交互界面中的行为动作,以及调用该实例化后的该待扩展业务,以更新该增强现实设备中的可执行业务。
图3为本说明书中提供的一种增强现实设备的待扩展业务的创建的示意图;
如图3所示,当用户触碰了增强显示设备的显示界面中的某一个按钮,该按钮用于表示要在该增强显示设备中新增一个业务A以及新增一个业务B,业务A以及业务B即是待扩展业务,则激活了该按钮对应的元素数据,该增强显示设备中的控制组件的预设接口会响应于预设的元素数据的变化。
之后,用于管理不同类型的业务的业务上下文组件可以通过由控制组件在进行IOC依赖注入后返回获取到用户所确定的待扩展业务,并且业务上下文组件可以根据上述用户所确定的待扩展业务派生出A业务的业务上下文组件以及B业务的业务上下文组件。
用于具体进行业务实例化的业务实例组件可以依赖于上述A业务的业务上下文组件以及B业务的业务上下文组件,通过业务基件派生出A业务的业务实例组件以及B业务的业务实例组件,以及确定出A业务中包含的待实例化任务A1,待实例化任务A2以及待实例化任务A3,并且确定出B业务中包含的待实例化任务B1,待实例化任务B2。之后,可以将上述所有待实例化的任务利用依赖注入的方式注入到IOC容器中,并且在IOC容器将上述所有待实例化的任务进行实例化,以实现上述待扩展业务的实例化,即,此时IOC容器中会包含已经实例化的A业务以及B业务,上述提到的实例化可以是将上述任务对应的函数进行具体的实现。此后,预设的第一控制组件会从预设的IOC容器中调取该业务A以及业务B,以实现更新该增强现实设备中的可执行业务。
S204:将所述位姿以及所述用户执行的交互动作所对应的同步指令发送给其他增强现实设备,以使得其他增强现实设备根据所述位姿以及同步指令来同步该增强现实设备所呈现的增强现实交互场景。
用户在使用增强现实设备执行业务时,可能会涉及到与其他用户之间的信息交互,即可能会涉及到多个用户对同一个目标对象或者虚拟界面对象执行操作,或者用户对彼此所创建的虚拟界面对象所执行的操作或者其他交互操作。
那么此时为了保证用户对增强现实设备的使用体验,以顺利的使得各个用户的增强现实设备中的交互界面中可以及时的将这些操作所带来的效果展示给所有上述一起执行该业务的用户,增强现实设备有必要对这些操作所带来的效果进行各个用户之间的实时共享。
例如,当共有5个用户每个人持有一个增强现实设备,在每个增强现实设备的增强现实交互场景中,每个用户的上线下线的状态可以通过该用户在该增强现实交互场景中的虚拟人物形象来表示,即,若该用户在线,那么该增强现实交互场景中则会出现该用户的虚拟人物形象,否则,该增强现实交互场景中不会出现该用户的虚拟人物形象。
那么当5个用户中从5个用户都在线变化为第一个用户下线,即第一个用户通过该用户持有的增强现实设备执行了下线的交互操作,此时,这第一个用户的虚拟人物形象需要消失则是上述提到的与该操作对应的需要同步发送给其他增强现实设备的同步指令,同步完成之后,每个用户的增强现实设备中这第一个用户的虚拟人物形象都会消失。
又例如,当共有5个用户每个人持有一个增强现实设备,都进入了合作投球的游戏,5个用户每人都有1个虚拟小球,5人轮流向现实的眼前的盒子中投入虚拟小球,若第一个用户执行了向该盒子中投进了1个虚拟小球的交互动作,那么该第一个用户的增强现实设备则会将这个虚拟小球的位姿以及这个交互动作所对应的同步指令发送给其他增强现实设备,以使得其他增强现实设备根据该位姿以及同步指令来同步该增强现实设备所呈现的增强现实交互场景。
此外,由于增强现实设备也可能会响应与服务器所发送的数据更新指令,对该增强现实设备中的显示界面的场景或者按钮或者其他组件进行更新,那么同步指令则可以是有关上述内容的更新的指令。例如,当服务器需要在该增强现实设备中的显示界面中模拟大自然中太阳的东升西落的场景,那么一旦该增强现实设备接收到关于更新上述显示界面中太阳的位置、色彩等信息的同步指令,则可以响应于该同步指令,更新上述显示界面中太阳的位置、色彩等信息,这里的太阳则可以是上述提到的需要进行更新的指定对象。
上述提到的增强现实设备与其他增强现实设备之间的信息同步以及信息交互或者增强现实设备与服务器之间的信息同步以及信息交互的过程具体可以如图4所示。
图4为本说明书中提供的一种信息交互的流程示意图。
如图4所示,图4中的协同组件负责对于服务器及客户端以及多个网络连接的管理。服务端是信息交互中多个客户端的中间节点,负责管理客户端的添加、删除、行为响应、数据传递等行为,这里的服务端既可以是增强显示设备,也可以是现实中的服务器。客户端是增强显示设备,客户端是协同的目标对象,客户端用于管理当前客户的行为传输,以及其他同步指令数据在该客户端本地的同步。图4中的“网络连接”的管理组件,包含两个派生组件:分别是网络连接的服务器的管理组件(对应着与服务器的网络连接)以及网络连接的服务器的客户端管理组件(对应着与客户端的网络连接),在信息交互过程中,需要对每个角色进行唯一性标记,便于在数据同步中进行区分,所有就需要协同身份标识组件来为各个同步指令确定唯一的身份标识。此外,行为管理组件由上述服务器及客户端进行管理,并与“网络连接”的管理组件进行关联,行为管理组件负责所有角色的行为管理,行为管理组件通过由协同身份标识组件管理,行为管理组件可以根据协同身份标识组件中的信息,来明确确定同步指令的发出者以及接收者,以实现稳定的信息交互,变换组件用于网络通信的接口管理,实现信息交互以及后续数据传输的部分的信息连接。
上述提到的增强现实设备交互数据的实时共享的过程具体可以如图5所示。
图5为本说明书中提供的一种增强现实设备交互数据的实时共享的流程示意图。
图5中的客户端指该用户所持有的增强现实设备,服务端指的是服务器或者被指定为服务端的某个增强现实设备。客户端用于管理当前用户的行为传输,以及其他客户协同信息数据在本地的同步,服务端是多人协同中多个客户端的中间节点,负责管理客户端的添加、删除、行为响应、数据传递等行为。图5中的其他客户端指的是除该用户之外的其他用户所持有的已经与服务端建立了信息连接的增强现实设备,合作组件器用于管理于服务端及客户端的管理。
用户所持有的客户端可以向服务端发送携带有创建客户端对象的连接请求,这里的客户端对象可以用于表示用户想在该客户端所对应的增强现实设备的显示界面中所要展示的虚拟界面对象。
服务端一旦收到该数据共享请求,则可以通过预设的回调函数来触发在服务端中创建该客户端对象的指令,合作组件器可以根据该回调函数,在服务端上的增强现实交互场景中创建该客户端对象,并对创建出的客户端对象做出该客户端的标记。
之后,服务端可以将该客户端标记为需要协同的信息(即同步变量),并将该同步变量进行序列化(即将该同步变量转换为二进制数据的形式),服务端可以通过合作组件器将携带有序列化后的同步变量的客户端对象的信息发送给其他客户端。
同时,合作组件器可以将客户端对象以及该客户端的标记(即图5中的主体隶属信息)发送给该客户端,之后,该客户端可以为该服务端赋予在该客户端的增强现实场景中创建该客户端对象的权限,并在该客户端的增强现实场景中呈现出该客户端对象。
其他客户端在接收到该携带有序列化后的同步变量的客户端对象的信息之后,可以对该信息进行解析,将该携带有序列化后的同步变量的客户端对象的信息进行反序列化(即将该二进制数据转换为同步变量的形式),以获取该客户端的信息以及该客户端所创建的客户端对象,并在其他客户端所创建的增强现实场景中同步创建该客户端对象。
而若该用户在该客户端中对客户端对象执行了操作,那么同理,通过上述步骤,其他客户端也可以接收到该用户对客户端对象所执行的操作,并在其他客户端的增强现实交互场景中同步更新该客户端的状态,以实现上述同步共享的目的。
继续沿用上例中的“多人合作拧杯盖”业务,用户在执行上例中的“多人合作拧杯盖”时,则可能会涉及到多个用户依次对目标对象杯盖进行一些操作,那么增强现实设备则可以依次获取到每个用户所对应的对于该杯盖所发出的同步指令,例如该游戏共有3个用户(用户A、用户B、用户C)参加,用户A首先发出将该杯盖向左挪动3厘米的同步指令,那么此时增强现实设备的需要将该同步指令发送给其他增强现实设备,以使得其他增强现实设备根据用户A挪动后的杯盖的位姿来同步这些其他增强现实设备所呈现的增强现实交互场景,即用户A在将该杯盖向左挪动3厘米后,在经过上述同步之后,用户B、用户C的增强现实设备所识别出的该杯盖的位姿也是在原来的杯盖位姿基础上向左挪动3厘米。
而在具体的同步过程中,增强现实设备在传输数据时可以根据预设的该场景数据所对应的数据传输策略以及数据传输方式来将该场景数据同步发送给其他用户所持有的增强现实设备。其中,这里的数据传输策略也可以时由用户所指定的,例如,用户可以指定增强现实设备在传输视频时传输速度为30帧/秒。
上述具体的数据传输过程可以如图6所示,图6为本说明书中提供的一种增强现实设备传输数据的流程示意图。
从图6可以看出,增强现实设备传输数据这一步骤是通过混合网络通信模块完成的,混合网络通信模块主要由物理层、传输层、策略层、数据层、多通道通信管控五层逻辑构成。
数据层包含有需要进行通信的数据,例如应用基础数据、交互数据、状态数据、场景数据、虚实融合数据、采集数据、分析评估数据等增强现实应用数据,数据层主要用于对需要进行通信的数据进行分类、标签,标签分为数据策略S以及数据传输方式T。
策略层分为高频实时传输策略、低频在线传输策略、信号触发传输策略三种;其中高频实时传输策略面向传输数据实时性要求较高的通信需求,传输的频率采用预定义统一频率,传输的数据量由具体网络情况进行限制优化。低频在线传输策略面向数据更新频次要求较低的场景需求,可以进行大容量数据的传递,传输的频率采用预定义统一频率。信号触发传输策略面向的是用户的业务需求,可以通过内部流程或外部输入进行触发,传输的数据量不做具体限制。
传输层分为轻量级通信、异步大容量通信以及流数据通信三种传输方式。轻量级通信适用于小数据量数据通信需求,基于基本的Socket通信方式完成。流数据通信适用于实时的音视频通信需求,实时性要求较高,通常基于网页实时通信(Web Real-TimeCommunication,WebRTC)实现。异步大容量通信适用于数据量较大,且对传输速度、传输质量有要求的通信情形。
多通道通信管控层用于对于传输数据的策略以及具体方式进行判断、融合、决策及校验。主要包含融合网络构建(业务需求中同时需要多种数据策略或传输方式融合的情况)、协议适配(不同数据传输接口的协议兼容)、数据分类及标签添加、数据序列化及反序列化、通信会话构建(例如构建聊天对话框)、用于提高数据传输效率以及稳定性的并发线程管理以及数据信息校验(用于校验传输的数据的安全性)等内容。
从上述方法中可以看出,通过为增强现实设备部署包含多个可以互相进行协作的模块的系统,使得使用增强现实设备的用户能够使用增强现实设备执行完成虚拟与现实的交互,并且该用户在执行该交互业务时所做出的操作可同步给其他用户,以使得该用户能够与其他用户共享该虚拟与现实的交互。
以上为本说明书的增强现实设备以及一个或多个实施的方法,基于同样的思路,本说明书还提供了相应的增强现实的装置,如图7所示。
图7为本说明书提供的一种增强现实的装置的示意图,包括:
创建模块701,用于基于接收到的用户所发送的增强现实交互场景创建请求,创建增强现实交互场景;
绑定模块702,用于通过为各个界面元素预设有元素变量,为各个元素数据预设有数据变量,针对每个界面元素,将该界面元素的元素变量与渲染该界面元素所需的元素数据的数据变量相绑定,实现该界面元素与该界面元素对应的元素数据的绑定,以使通过定义的指定对象类,在增强现实交互场景中对用户的交互动作所影响的界面元素以及渲染界面元素所需的元素数据进行绑定,其中,所述指定对象类包含有界面元素对应的对象类、界面元素数据对应的对象类;
确定与展示模块703,用于当监测到用户执行的交互动作时,确定用户在所述增强现实设备中所要展示的增强现实交互场景,并调用所述增强现实交互场景中所需的业务场景数据以及在不同增强现实交互场景中所使用的通用数据,以在所述增强现实设备的显示界面中展示用户所要展示的虚拟界面对象,并确定出所述用户所处的增强现实交互场景中目标对象的位姿;
同步模块704,用于将所述位姿以及所述用户执行的交互动作所对应的同步指令发送给其他增强现实设备,以使得其他增强现实设备根据所述位姿以及同步指令来同步该增强现实设备所呈现的增强现实交互场景。
可选地,所述装置还包括:
更新模块705,用于根据后端的与所述增强现实设备的显示界面中的界面元素所绑定的数据的更新情况来实时更新所述界面中的元素。
可选地,所述确定与展示模块703具体用于,采集所述增强现实场景的图像数据;根据预设的识别模型识别所述目标对象在所述图像数据所表示的图像中的位姿作为初始位姿;根据所述初始位姿以及所述图像数据,确定出所述用户所处的增强现实交互场景中目标对象的位姿。
可选地,所述同步模块704具体用于,确定所述位姿以及所述用户执行的交互动作所对应的同步指令在所述增强现实交互场景中所对应的场景数据;将所述场景数据传输给其他增强现实设备。
可选地,所述同步模块704还用于,获取用户所确定的数据传输策略;根据所述用户所确定的数据传输策略,将所述场景数据传输给其他增强现实设备。
可选地,所述装置还包括:
业务拓展模块706,用于获取用户发送的新增业务需求指令;响应于所述新增业务需求指令,确定待扩展业务,通过指定容器,将待扩展业务实例化,根据所述实例化的待扩展业务,更新所述增强现实设备中的可执行业务。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的一种增强现实的方法。
本说明书还提供了图8所示的一种对应于图1的电子设备的示意结构图。如图8所示,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图2所述的增强现实的方法。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device, PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
Claims (16)
1.一种增强现实设备,其特征在于,所述设备中设有数据驱动交互界面模块、通用可扩展业务模块、识别追踪模块、多人协同模块、混合网络通信模块;
所述数据驱动交互界面模块,用于针对与用户进行交互的交互界面中包含的每个界面元素,在该界面元素对应的类实例化得到第一实例化对象的同时,对预先与该界面元素绑定的元素数据类进行实例化,得到第二实例化对象,并针对所述第一实例化对象中包含的每个指定变量,将该指定变量与所述第二实例化对象中包含的各指定变量中与该指定变量名称相同的指定变量相绑定,以在所述第二实例化对象中与所述第一实例化对象绑定的任意一个指定变量的值改变时,使得所述第一实例化对象中与所述任意一个指定变量相绑定的指定变量对应的界面元素在所述交互界面中的呈现进行同步改变;
所述通用可扩展业务模块,用于预先保存所述增强现实设备所执行的各业务对应的容器,并在执行目标业务时,调用所述目标业务对应容器中的组件,以基于调用出的组件,执行目标业务;
通过预设的各个组件,创建新的待扩展业务,并管理所述待扩展业务的创建状态;
所述识别追踪模块,用于对所述增强现实设备采集到的图像数据进行图像识别,以确定出所述用户所处的增强现实交互场景中目标对象的位姿;
所述多人协同模块,用于响应数据同步指令,并向其他增强现实设备发送本地设备所产生的数据同步指令,所述数据同步指令用于对所述增强现实交互场景中的目标对象进行控制或对目标对象的状态进行更新;
所述混合网络通信模块,用于将所述增强现实交互场景中产生不同类型的待传输数据确定传输策略,并分别按照不同的传输策略,将各类型的待传输数据进行传输。
2.如权利要求1所述的增强现实设备,其特征在于,所述数据驱动交互界面模块还用于根据后端的与所述增强现实设备的显示界面中的界面元素所绑定的数据的更新情况来实时更新所述界面中的元素。
3.一种增强现实方法,其特征在于,所述方法应用于如权利要求1或2所述的增强现实设备,所述方法包括:
基于接收到的用户所发送的增强现实交互场景创建请求,创建增强现实交互场景;
通过为各个界面元素预设有元素变量,为各个元素数据预设有数据变量,针对每个界面元素,将该界面元素的元素变量与渲染该界面元素所需的元素数据的数据变量相绑定,实现该界面元素与该界面元素对应的元素数据的绑定,以使通过定义的指定对象类,在增强现实交互场景中对用户的交互动作所影响的界面元素以及渲染界面元素所需的元素数据进行绑定,其中,所述指定对象类包含有界面元素对应的对象类、界面元素数据对应的对象类;
当监测到用户执行的交互动作时,确定用户在所述增强现实设备中所要展示的增强现实交互场景,并调用所述增强现实交互场景中所需的业务场景数据以及在不同增强现实交互场景中所使用的通用数据,以在所述增强现实设备的显示界面中展示用户所要展示的虚拟界面对象,并确定出所述用户所处的增强现实交互场景中目标对象的位姿;
将所述位姿以及所述用户执行的交互动作所对应的同步指令发送给其他增强现实设备,以使得其他增强现实设备根据所述位姿以及同步指令来同步该增强现实设备所呈现的增强现实交互场景。
4.如权利要求3所述的方法,其特征在于,所述方法还包括:根据后端的与所述增强现实设备的显示界面中的界面元素所绑定的数据的更新情况来实时更新所述界面中的元素。
5.如权利要求3所述的方法,其特征在于,确定出所述用户所处的增强现实交互场景中目标对象的位姿,具体包括:
采集所述增强现实场景的图像数据;
根据预设的识别模型识别所述目标对象在所述图像数据所表示的图像中的位姿作为初始位姿;
根据所述初始位姿以及所述图像数据,确定出所述用户所处的增强现实交互场景中目标对象的位姿。
6.如权利要求3所述的方法,其特征在于,将所述位姿以及所述用户执行的交互动作所对应的同步指令发送给其他增强现实设备,具体包括:
确定所述位姿以及所述用户执行的交互动作所对应的同步指令在所述增强现实交互场景中所对应的场景数据;
将所述场景数据传输给其他增强现实设备。
7.如权利要求6所述的方法,其特征在于,将所述场景数据传输给其他增强现实设备,所述方法还包括:
获取用户所确定的数据传输策略;
根据所述用户所确定的数据传输策略,将所述场景数据传输给其他增强现实设备。
8.如权利要求3所述的方法,其特征在于,所述方法还包括:
获取用户发送的新增业务需求指令;
响应于所述新增业务需求指令,确定待扩展业务,通过指定容器,将待扩展业务实例化,根据所述实例化的待扩展业务,更新所述增强现实设备中的可执行业务。
9.一种增强现实的装置,其特征在于,所述装置用于基于如权利要求1或2所述的增强现实设备实现增强现实方法,包括:
创建模块,用于基于接收到的用户所发送的增强现实交互场景创建请求,创建增强现实交互场景;
绑定模块,用于通过为各个界面元素预设有元素变量,为各个元素数据预设有数据变量,针对每个界面元素,将该界面元素的元素变量与渲染该界面元素所需的元素数据的数据变量相绑定,实现该界面元素与该界面元素对应的元素数据的绑定,以使通过定义的指定对象类,在增强现实交互场景中对用户的交互动作所影响的界面元素以及渲染界面元素所需的元素数据进行绑定,其中,所述指定对象类包含有界面元素对应的对象类、界面元素数据对应的对象类;
确定与展示模块,用于当监测到用户执行的交互动作时,确定用户在所述增强现实设备中所要展示的增强现实交互场景,并调用所述增强现实交互场景中所需的业务场景数据以及在不同增强现实交互场景中所使用的通用数据,以在所述增强现实设备的显示界面中展示用户所要展示的虚拟界面对象,并确定出所述用户所处的增强现实交互场景中目标对象的位姿;
同步模块,用于将所述位姿以及所述用户执行的交互动作所对应的同步指令发送给其他增强现实设备,以使得其他增强现实设备根据所述位姿以及同步指令来同步该增强现实设备所呈现的增强现实交互场景。
10.如权利要求9所述的装置,其特征在于,所述装置还包括:
更新模块,用于根据后端的与所述增强现实设备的显示界面中的界面元素所绑定的数据的更新情况来实时更新所述界面中的元素。
11.如权利要求9所述的装置,其特征在于,所述确定与展示模块具体用于,采集所述增强现实场景的图像数据;根据预设的识别模型识别所述目标对象在所述图像数据所表示的图像中的位姿作为初始位姿;根据所述初始位姿以及所述图像数据,确定出所述用户所处的增强现实交互场景中目标对象的位姿。
12.如权利要求9所述的装置,其特征在于,所述同步模块具体用于,确定所述位姿以及所述用户执行的交互动作所对应的同步指令在所述增强现实交互场景中所对应的场景数据;将所述场景数据传输给其他增强现实设备。
13.如权利要求12所述的装置,其特征在于,所述同步模块还用于,获取用户所确定的数据传输策略;根据所述用户所确定的数据传输策略,将所述场景数据传输给其他增强现实设备。
14.如权利要求9所述的装置,其特征在于,所述装置还包括:
业务拓展模块,用于获取用户发送的新增业务需求指令;响应于所述新增业务需求指令,确定待扩展业务,通过指定容器,将待扩展业务实例化,根据所述实例化的待扩展业务,更新所述增强现实设备中的可执行业务。
15.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求3~8任一项所述的方法。
16.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求3~8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311010114.XA CN116755587B (zh) | 2023-08-11 | 2023-08-11 | 一种增强现实的方法、装置、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311010114.XA CN116755587B (zh) | 2023-08-11 | 2023-08-11 | 一种增强现实的方法、装置、存储介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116755587A true CN116755587A (zh) | 2023-09-15 |
CN116755587B CN116755587B (zh) | 2023-12-19 |
Family
ID=87951759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311010114.XA Active CN116755587B (zh) | 2023-08-11 | 2023-08-11 | 一种增强现实的方法、装置、存储介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116755587B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102945564A (zh) * | 2012-10-16 | 2013-02-27 | 上海大学 | 基于视频透视式增强现实的真三维建模系统和方法 |
CN104102545A (zh) * | 2014-07-04 | 2014-10-15 | 北京理工大学 | 移动增强现实浏览器三维资源配置与加载的优化方法 |
CN106937531A (zh) * | 2014-06-14 | 2017-07-07 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
CN107608649A (zh) * | 2017-11-02 | 2018-01-19 | 泉州创景视迅数字科技有限公司 | 一种ar增强现实智能图像识别展示内容系统及使用方法 |
US20200125322A1 (en) * | 2018-10-22 | 2020-04-23 | Navitaire Llc | Systems and methods for customization of augmented reality user interface |
CN111819520A (zh) * | 2018-03-06 | 2020-10-23 | 微软技术许可有限责任公司 | 空间化触觉设备力反馈 |
CN114845020A (zh) * | 2022-04-20 | 2022-08-02 | 深圳禾木信息技术有限公司 | 一种可扩展网络摄像机的控制方法及设备 |
CN115562497A (zh) * | 2022-11-04 | 2023-01-03 | 浙江舜为科技有限公司 | 增强现实信息交互方法、增强现实设备和存储介质 |
CN116324845A (zh) * | 2020-09-30 | 2023-06-23 | 斯纳普公司 | 分析增强现实内容项使用数据 |
CN116433835A (zh) * | 2023-03-15 | 2023-07-14 | 杭州易现先进科技有限公司 | 三维增强现实操作系统的构造方法、装置和介质 |
CN116489149A (zh) * | 2023-03-06 | 2023-07-25 | 太原理工大学 | 面向工业应用的云边端协同混合现实协作环境构建方法 |
-
2023
- 2023-08-11 CN CN202311010114.XA patent/CN116755587B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102945564A (zh) * | 2012-10-16 | 2013-02-27 | 上海大学 | 基于视频透视式增强现实的真三维建模系统和方法 |
CN106937531A (zh) * | 2014-06-14 | 2017-07-07 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
CN104102545A (zh) * | 2014-07-04 | 2014-10-15 | 北京理工大学 | 移动增强现实浏览器三维资源配置与加载的优化方法 |
CN107608649A (zh) * | 2017-11-02 | 2018-01-19 | 泉州创景视迅数字科技有限公司 | 一种ar增强现实智能图像识别展示内容系统及使用方法 |
CN111819520A (zh) * | 2018-03-06 | 2020-10-23 | 微软技术许可有限责任公司 | 空间化触觉设备力反馈 |
US20200125322A1 (en) * | 2018-10-22 | 2020-04-23 | Navitaire Llc | Systems and methods for customization of augmented reality user interface |
CN116324845A (zh) * | 2020-09-30 | 2023-06-23 | 斯纳普公司 | 分析增强现实内容项使用数据 |
CN114845020A (zh) * | 2022-04-20 | 2022-08-02 | 深圳禾木信息技术有限公司 | 一种可扩展网络摄像机的控制方法及设备 |
CN115562497A (zh) * | 2022-11-04 | 2023-01-03 | 浙江舜为科技有限公司 | 增强现实信息交互方法、增强现实设备和存储介质 |
CN116489149A (zh) * | 2023-03-06 | 2023-07-25 | 太原理工大学 | 面向工业应用的云边端协同混合现实协作环境构建方法 |
CN116433835A (zh) * | 2023-03-15 | 2023-07-14 | 杭州易现先进科技有限公司 | 三维增强现实操作系统的构造方法、装置和介质 |
Non-Patent Citations (2)
Title |
---|
HUIDONG BAI ET AL.: "Markerless 3D gesture-based interaction for handheld Augmented Reality interfaces", 《2013 IEEE INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY (ISMAR)》 * |
蔡攀: "基于增强现实的实时交互技术研究与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》, pages 138 - 1794 * |
Also Published As
Publication number | Publication date |
---|---|
CN116755587B (zh) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021057830A1 (zh) | 一种信息处理方法及电子设备 | |
EP3832438B1 (en) | Redundant tracking system | |
CN104871214B (zh) | 用于具扩增实境能力的装置的用户接口 | |
US20240078703A1 (en) | Personalized scene image processing method, apparatus and storage medium | |
CN106658139B (zh) | 一种焦点控制方法及装置 | |
CN109992111B (zh) | 增强现实扩展方法和电子设备 | |
CN112527222A (zh) | 一种信息处理方法及电子设备 | |
WO2023066395A1 (zh) | 一种应用运行方法以及相关设备 | |
CN112527174A (zh) | 一种信息处理方法及电子设备 | |
US10846901B2 (en) | Conversion of 2D diagrams to 3D rich immersive content | |
KR20240001275A (ko) | 증강 현실 디스플레이 디바이스를 위한 터치패드 입력 | |
CN111880647B (zh) | 一种三维界面的控制方法和终端 | |
WO2021052488A1 (zh) | 一种信息处理方法及电子设备 | |
CN116755587B (zh) | 一种增强现实的方法、装置、存储介质及电子设备 | |
CN105323624A (zh) | 一种录制视频的方法、装置和系统 | |
CN116958487A (zh) | 姿态预测方法、装置、设备、存储介质及计算机程序产品 | |
Liu et al. | A physics-based augmented reality jenga stacking game | |
CN115202481A (zh) | 对象的交互方法、智能终端、电子设备及存储介质 | |
CN111367598B (zh) | 动作指令的处理方法、装置、电子设备及计算机可读存储介质 | |
WO2024099206A1 (zh) | 一种图形界面处理方法以及装置 | |
US11836437B2 (en) | Character display method and apparatus, electronic device, and storage medium | |
CN107526439A (zh) | 一种界面返回方法及装置 | |
EP4383191A1 (en) | Display method and electronic device | |
CN116206040A (zh) | 一种获取ao贴图的方法及装置 | |
CN118057313A (zh) | 交互设备的测试方法、装置、设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |