CN107767462B - 一种非穿戴增强现实全息展示方法及展示系统 - Google Patents
一种非穿戴增强现实全息展示方法及展示系统 Download PDFInfo
- Publication number
- CN107767462B CN107767462B CN201710960164.2A CN201710960164A CN107767462B CN 107767462 B CN107767462 B CN 107767462B CN 201710960164 A CN201710960164 A CN 201710960164A CN 107767462 B CN107767462 B CN 107767462B
- Authority
- CN
- China
- Prior art keywords
- augmented reality
- visual operation
- reality display
- resource package
- terminal object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
- G06F9/544—Buffers; Shared memory; Pipes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Abstract
本发明公开了一种非穿戴增强现实全息展示方法及展示系统,该方法包括如下步骤:处理原始模型数据、生成资源包,加载资源包并实例化得到第一物体,令第一物体成为可视化操作端子物体;可视化操作端与增强现实展示端套接字通信,增强现实展示端也加载资源包,对其进行实例化后得到第二物体,令第二物体成为增强现实展示端子物体,更新增强现实展示端子物体参数,将增强现实展示端子物体叠加于通过摄像头采集的实景影像上;该系统包括增强现实展示端、可视化操作端、数据处理系统及摄像头。本发明能够代替穿戴式增强现实设备,实现裸眼呈现实景中的人物与虚拟物体实时互动的效果。另外,本发明还具有易部署、后续可延展开发度高等突出优点。
Description
技术领域
本发明涉及非穿戴增强现实技术领域,更为具体地,本发明为一种非穿戴增强现实全息展示方法及展示系统。
背景技术
增强现实技术(AR)能够将虚拟世界套在现实世界上并进行互动,其目前主要应用于游戏、医疗、军事、工业维修、展览等领域,具有广泛的应用前景。
但是,目前实现增强现实的方法仍始终无法摆脱穿戴式设备,比如3D眼镜或头盔等,用户必须通过相关穿戴式设备辅助才能感受到增强现实的效果,或者说,只有穿戴设备的操作使用者才能看到增强现实的使用效果。不仅如此,穿戴式设备可能会使使用者产生视觉疲劳、头晕目眩等不适的感觉,难以满足用户长时间体验增强现实的需要。
因此,如何彻底地摆脱穿戴式设备对增强现实体验的限制、避免增强现实体验过程中用户可能产生的不适,成为了本领域技术人员亟待解决的技术问题和始终研究的重点。
发明内容
为摆脱穿戴式设备对增强现实体验的限制、提高用户体验增强现实的舒适度,本发明创新提供了一种非穿戴增强现实全息展示方法及展示系统,使用户裸眼即能真切地感受到增强现实的效果,从而避免了用户对穿戴式设备的依赖,并能有效提高用户体验增强现实的舒适度。
为实现上述技术目的,本发明公开了一种非穿戴增强现实全息展示方法,该方法包括如下步骤:
步骤1,将原始模型数据导入数据处理系统,通过所述数据处理系统处理所述原始模型数据后,生成资源包;
步骤2,利用可视化操作端加载资源包,通过对已加载的资源包进行实例化后,得到第一物体,将第一物体放到可视化操作端根物体的子集下,成为可视化操作端子物体;
步骤3,令所述可视化操作端与增强现实展示端之间进行套接字通信连接,所述可视化操作端将可视化操作端子物体的参数传入所述增强现实展示端;
步骤4,所述增强现实展示端依据传入的可视化操作端子物体的参数加载资源包,所述增强现实展示端加载的资源包与所述可视化操作端加载的资源包相同;
步骤5,所述增强现实展示端对已加载的资源包进行实例化后,得到第二物体,然后将第二物体放到增强现实展示端根物体的子集下,成为增强现实展示端子物体,将可视化操作端子物体的参数对应赋予给增强现实展示端子物体的参数;
步骤6,将所述增强现实展示端子物体以三维模型的形式叠加于通过摄像头采集的实景影像上,在所述增强现实展示端上同时展示出所述三维模型和所述实景影像。
基于上述展示方法,本发明能够代替穿戴式增强现实设备,实现通过可视化操作端和增强现实展示端之间消息传递的方式达到视觉合成的裸眼增强现实展示效果,本发明达到可以将使用者的使用效果呈现裸眼分享至大家的视野中的目的,从而巧妙实现了视觉共享。
进一步地,在步骤6结束后,返回步骤3;
步骤3中,获取使用者对可视化操作端子物体的操作信息,并利用所述操作信息更新可视化操作端子物体的参数;
步骤5中,将更新后的可视化操作端子物体的参数对应赋予给增强现实展示端子物体的参数。
基于上述改进的技术方案,本发明能够实现使用者对以三维模型形式显示的可视化操作端子物体的操作同步到增强现实展示端上的目的,达到其他人在增强现实展示端看到使用者直接徒手操作真实三维模型的目的。
进一步地,步骤3中,使用者对可视化操作端子物体的操作包括平移操作、旋转操作及缩放操作。
进一步地,步骤3中,通过触摸屏读取方式、红外手势识别方式中的至少一种方式获取使用者对所述可视化操作端子物体的操作信息。
进一步地,所述参数包括对象名称、资源包名称、本地坐标值、本地朝向值及本地缩放值。
进一步地,步骤4中,所述增强现实展示端依据资源包名称请求并加载资源包。
进一步地,步骤1中,还包括在数据处理系统中初始化本地坐标系的步骤。
进一步地,步骤1中,所述数据处理系统对所述原始模型数据的处理过程包括如下的步骤:
步骤11,对所述原始模型数据进行实例化后,得到模型;
步骤12,将所述模型构建为预制体;
步骤13,将所述预制体打包后生成资源包。
本发明的另一个发明目的在于提供一种非穿戴增强现实全息展示系统,该系统包括增强现实展示端、可视化操作端、数据处理系统及用于捕捉实景影像的摄像头,所述增强现实展示端具有用于同时展示出三维模型和实景影像的分显示屏,所述可视化操作端与所述增强现实展示端之间套接字通信连接;所述数据处理系统用于将原始模型数据处理成资源包,所述可视化操作端用于加载资源包、对已加载的资源包进行实例化后得到第一物体,并将所述第一物体放到可视化操作端根物体的子集下,成为可视化操作端子物体;所述增强现实展示端用于依据可视化操作端子物体的参数请求并加载资源包,对已加载的资源包进行实例化后得到第二物体,然后将第二物体放到增强现实展示端根物体的子集下,成为增强现实展示端子物体,将可视化操作端子物体的参数对应赋予给增强现实展示端子物体的参数,且所述增强现实展示端加载的资源包与所述可视化操作端加载的资源包相同。
进一步地,所述可视化操作端具有主显示屏,所述主显示屏用于展示以三维模型的形式显示的可视化操作端子物体及获取使用者对可视化操作端子物体的操作信息。
本发明的有益效果为:本发明能够代替穿戴式增强现实设备,并实现裸眼呈现实景中的人物与虚拟物体实时互动的效果。另外,本发明还具有部署容易、后续可延展开发度高等突出优点。
附图说明
图1为非穿戴增强现实全息展示方法流程示意图。
图2为非穿戴增强现实全息展示系统结构示意图。
图3为非穿戴增强现实全息展示系统工作流程示意图。
图4为可视化操作端与增强现实展示端同步关联的状态示意图。
图5为使用者在可视化操作端对可视化操作端子物体进行平移操作时增强现实显示端同步运动的状态示意图。
图6为使用者在可视化操作端对可视化操作端子物体进行旋转操作时增强现实显示端同步运动的状态示意图。
图7为使用者在可视化操作端对可视化操作端子物体进行放大操作时增强现实显示端同步运动的状态示意图。
具体实施方式
下面结合说明书附图对本发明的一种非穿戴增强现实全息展示方法及展示系统进行详细的解释和说明。
实施例一:
如图1至7所示,本发明提供了一种非穿戴增强现实全息展示方法及展示系统,属于非穿戴增强现实技术领域,多用于展览、演讲汇报及公众娱乐等场合。
具体地,本发明公开了一种非穿戴增强现实全息展示方法,该方法包括如下步骤:
步骤1,将原始模型数据导入数据处理系统,通过数据处理系统处理原始模型数据后,生成资源包;其中“导入”是指在制作过程中引进工程中的资源,这类资源在输出可执行文件后可根据需要进行引入和释放,有利于对内存的优化;本实施例中,还包括在数据处理系统中初始化本地坐标系的步骤,本地坐标系应做如下理解:表现一个物体相对于父级物体的关系坐标系叫做本地坐标系,相关物体的本地坐标记作LocalPosition(三维坐标类型,由x,y,z决定),本地朝向记作LocalRotation(四元数类型,由x,y,z,w决定),本地缩放记作LocalScale(由x,y,z决定三个轴向的拉伸程度)。
对于步骤1,更为具体地,数据处理系统对原始模型数据的处理过程包括如下的步骤:
步骤11,对原始模型(Model)数据进行实例化后,得到模型(ModelObject);“实例化”是指对导入或加载的资源投放到相应的场景中,使之可视化或参与相关的功能运算。
步骤12,将模型构建为预制体(ModelPrefab),其中,“预制体”是指在项目内构建的可复用的资源配置文件。
步骤13,将预制体打包后生成资源包(ModelAsset),把资源包放入文件夹AssetBundle下而且资源包可以在多个项目中复用,采用资源包跨系统复用本身可以做到节省硬盘空间,且异步加载不会占用主线程,所以加载比较占空间的资源也不会导致系统卡顿,其更有资源容易更迭替换的优点。其中,上述的“资源包”指结合“导入的3D模型资源、导入的2D美术资源以及内置的物体框架”附加属性控件制作并输出的可以被加载并实例化的资源文件,具体地,导入的3D模型资源支持obj、fbx、3ds及mb类型的3D模型,导入的2D美术资源支持tif、png、jpg及psd类型的2D纹理。
步骤2,利用可视化操作端加载资源包,通过对已加载的资源包进行实例化后,得到第一物体,然后将第一物体放到可视化操作端根物体的子集下,令第一物体成为可视化操作端子物体(ClientObject)。
步骤3,本实施例中,在可视化操作端显示出以三维模型形式展现的可视化操作端子物体,如果使用者对可视化操作端子物体有操作,则获取使用者对可视化操作端子物体的操作信息,并利用操作信息更新可视化操作端子物体的参数。本实施例中,使用者对可视化操作端子物体的操作包括平移操作、旋转操作以及缩放操作;而获取使用者对可视化操作端子物体的操作方式为:通过触摸屏读取方式、红外手势识别方式中的至少一种方式获取使用者对可视化操作端子物体的操作信息。令可视化操作端与增强现实展示端之间进行套接字(socket)通信连接,可视化操作端将可视化操作端子物体的参数(包括可视化操作端名称)传入增强现实展示端;在本实施例中,参数包括对象名称、资源包名称、本地坐标值、本地朝向值及本地缩放值,将可视化操作端名称(ClientObject.name)与增强现实展示端名称(ServerObject.name)作比较,如果二者相同,则可视化操作端与增强现实展示端之间建立关联。
步骤4,增强现实展示端依据传入的可视化操作端子物体的参数向数据处理系统请求并加载资源包,在本实施例中,增强现实展示端依据资源包名称请求并加载资源包,而且增强现实展示端加载的资源包与可视化操作端加载的资源包相同。
步骤5,增强现实展示端对已加载的资源包进行实例化后,得到第二物体,然后将第二物体放到增强现实展示端根物体的子集下,令第二物体成为增强现实展示端子物体(ServerObject),将可视化操作端子物体的参数对应赋予给增强现实展示端子物体的参数,从而实现增强现实展示端显示出的三维模型与可视化操作端同步;本步骤中,为实现对三维模型的操作,将更新后的可视化操作端子物体的参数对应赋予给增强现实展示端子物体的参数。
步骤6,基于实景图像技术,本发明将增强现实展示端子物体以三维模型的形式叠加于通过摄像头采集的实景影像上,在增强现实展示端上同时展示出三维模型和实景影像。在本发明的技术启示下,具体如何将三维模型和实景影像重合,本领域技术人员可根据实际情况进行合理设定。
本实施例中,在步骤6结束后,返回步骤3,从而实现对三维模型的操作等,完成对三维模型状态的更新。
需要说明的是,在“可视化操作端”和“增强现实展示端”均展示出“三维模型”,但是,在可视化操作端仅显示“三维模型”,而在增强现实展示端显示使用者、背景、三维模型等叠加后的场景。另外,本发明还可对导入的资源或加载的资源附带控件,但是,无论是哪种资源控件都只有在实例化之后才能产生效果。
对应上述的非穿戴增强现实全息展示方法,本实施例还公开了一种非穿戴增强现实全息展示系统,如图2、图3所示,上述系统包括增强现实展示端、可视化操作端、数据处理系统及用于捕捉实景影像的摄像头,且通过可视化操作端和增强现实展示端之间双工处理消息传递的方式达到视觉合成的裸眼增强现实展示效果,而数据处理系统作为资源包输出系统,且增强现实展示端具有用于展示出三维模型和实景影像的分显示屏,可视化操作端与增强现实展示端之间套接字通信连接;数据处理系统用于将原始模型数据处理成资源包可视化操作端用于加载资源包、对已加载的资源包进行实例化后得到第一物体,并将第一物体放到可视化操作端根物体的子集下,成为可视化操作端子物体;增强现实展示端用于依据可视化操作端子物体的参数请求并加载资源包,对已加载的资源包进行实例化后得到第二物体,然后将第二物体放到增强现实展示端根物体的子集下,成为增强现实展示端子物体,将可视化操作端子物体的参数对应赋予给增强现实展示端子物体的参数,且增强现实展示端加载的资源包与可视化操作端加载的资源包相同,且保证了“增强现实展示端子物体”和“可视化操作端子物体”名称相同且在各自的系统中没有与之重名的物体,做到了跨系统的唯一关联与画面同步。更为具体地,可视化操作端具有主显示屏,且主显示屏用于显示出可视化操作端子物体的参数形成的可视化操作端子物体以及获取使用者对可视化操作端子物体的操作信息。
本实施例中,在具体应用本发明时,增强现实展示端和可视化操作端输出最终的可执行文件并放在同一目录下,而数据处理系统只需输出相关数据而不需要输出可执行文件。
实施例二:
如图2至7所示,本实施例与实施例一中公开的技术方案基本相同,但本实施例进一步说明了增强现实展示端的增强现实展示端子物体和可视化操作端中可视化操作端子物体的同步运动。
应当理解,通过套接字(socket)通信传递和解析字符串去传递消息,所以实际上套接字通信的运作方式是将“可视化操作端子物体”的本地坐标、本地朝向和本地大小等相关参数分别传入socket,再由“增强现实展示端子物体”从socket中读取参数去构建其本地坐标、本地朝向和本地大小。
可视化操作端子物体与增强现实展示端子物体建立关联后:
通过套接字通信把可视化操作端子物体本地x方向坐标值(ClientObject.LocalPosition.x)、可视化操作端子物体本地y方向坐标值(ClientObject.LocalPosition.y)、可视化操作端子物体本地z方向坐标值(ClientObject.LocalPosition.z)、可视化操作端子物体本地x方向朝向值(ClientObject.LocalRotation.x)、可视化操作端子物体本地y方向朝向值(ClientObject.LocalRotation.y)、可视化操作端子物体本地z方向朝向值(ClientObject.LocalRotation.z)、可视化操作端子物体本地w方向朝向值(ClientObject.LocalRotation.w)、可视化操作端子物体本地x方向缩放值(ClientObject.LocalScale.x)、可视化操作端子物体本地y方向缩放值(ClientObject.LocalScale.y)、可视化操作端子物体本地z方向缩放值(ClientObject.LocalScale.z)传递给增强现实展示端,而增强现实展示端接收到数据会做对ServerObject做如下处理达到同步运动的效果,具体地:
增强现实展示端子物体本地x方向坐标值:
ServerObject.LocalPosition.x=ClientObject.LocalPosition.x;
增强现实展示端子物体本地y方向坐标值:
ServerObject.LocalPosition.y=ClientObject.LocalPosition.y;
增强现实展示端子物体本地z方向坐标值:
ServerObject.LocalPosition.z=ClientObject.LocalPosition.z;
增强现实展示端子物体本地朝向值(ServerObject.LocalRotation)和增强现实展示端子物体本地缩放值(ServerObject.LocalScale)同理。
本实施例中,如图4、5所示,在图4的基础上,图5是使用者操作可视化操作端中的可视化操作端子物体沿可视化操作端根物体的x方向移动20个单位长度(示意图比例“1mm:1个单位长度”);如图5、6所示,在图5的基础上,图6是使用者操作可视化操作端中的可视化操作端子物体以自身坐标为中心,沿着可视化操作端根物体的y轴方向顺时针旋转30度;如图6、7所示,在图6的基础上,图7是使用者操作可视化操作端中的可视化操作端子物体沿着可视化操作端根物体的xyz三个方向放大为原来的1.5倍。
在本发明中,除非另有明确的规定和限定,术语“连接”、“安装”、“相连”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本说明书的描述中,参考术语“本实施例”、“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明实质内容上所作的任何修改、等同替换和简单改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种非穿戴增强现实全息展示方法,其特征在于:该方法包括如下步骤:
步骤1,将原始模型数据导入数据处理系统,通过所述数据处理系统处理所述原始模型数据后,生成资源包;
步骤2,利用可视化操作端加载资源包,通过对已加载的资源包进行实例化后,得到第一物体,将第一物体放到可视化操作端根物体的子集下,成为可视化操作端子物体;
步骤3,令所述可视化操作端与增强现实展示端之间进行套接字通信连接,所述可视化操作端将可视化操作端子物体的参数传入所述增强现实展示端;
步骤4,所述增强现实展示端依据传入的可视化操作端子物体的参数加载资源包,所述增强现实展示端加载的资源包与所述可视化操作端加载的资源包相同;
步骤5,所述增强现实展示端对已加载的资源包进行实例化后,得到第二物体,然后将第二物体放到增强现实展示端根物体的子集下,成为增强现实展示端子物体,将可视化操作端子物体的参数对应赋予给增强现实展示端子物体的参数;
步骤6,将所述增强现实展示端子物体以三维模型的形式叠加于通过摄像头采集的实景影像上,在所述增强现实展示端上同时展示出所述三维模型和所述实景影像;
其中,步骤1中,所述数据处理系统对所述原始模型数据的处理过程包括如下的步骤:
步骤11,对所述原始模型数据进行实例化后,得到模型;
步骤12,将所述模型构建为预制体;
步骤13,将所述预制体打包后生成资源包,把资源包放入文件夹AssetBundle下而且资源包可以在多个项目中复用,其中,上述的资源包指结合导入的3D模型资源、导入的2D美术资源以及内置的物体框架附加属性控件制作并输出的可以被加载并实例化的资源文件。
2.根据权利要求1所述的非穿戴增强现实全息展示方法,其特征在于:在步骤6结束后,返回步骤3;
步骤3中,获取使用者对可视化操作端子物体的操作信息,并利用所述操作信息更新可视化操作端子物体的参数;
步骤5中,将更新后的可视化操作端子物体的参数对应赋予给增强现实展示端子物体的参数。
3.根据权利要求2所述的非穿戴增强现实全息展示方法,其特征在于:
步骤3中,使用者对可视化操作端子物体的操作包括平移操作、旋转操作及缩放操作。
4.根据权利要求3所述的非穿戴增强现实全息展示方法,其特征在于:
步骤3中,通过触摸屏读取方式、红外手势识别方式中的至少一种方式获取使用者对所述可视化操作端子物体的操作信息。
5.根据权利要求1至4中任一权利要求所述的非穿戴增强现实全息展示方法,其特征在于:所述参数包括对象名称、资源包名称、本地坐标值、本地朝向值及本地缩放值。
6.根据权利要求5所述的非穿戴增强现实全息展示方法,其特征在于:步骤4中,所述增强现实展示端依据资源包名称请求并加载资源包。
7.根据权利要求1所述的非穿戴增强现实全息展示方法,其特征在于:步骤1中,还包括在数据处理系统中初始化本地坐标系的步骤。
8.一种非穿戴增强现实全息展示系统,其特征在于:该系统包括增强现实展示端、可视化操作端、数据处理系统及用于捕捉实景影像的摄像头,所述增强现实展示端具有用于同时展示出三维模型和实景影像的分显示屏,所述可视化操作端与所述增强现实展示端之间套接字通信连接;所述数据处理系统用于将原始模型数据处理成资源包,所述可视化操作端用于加载资源包、对已加载的资源包进行实例化后得到第一物体,并将所述第一物体放到可视化操作端根物体的子集下,成为可视化操作端子物体;所述增强现实展示端用于依据可视化操作端子物体的参数请求并加载资源包,对已加载的资源包进行实例化后得到第二物体,然后将第二物体放到增强现实展示端根物体的子集下,成为增强现实展示端子物体,将可视化操作端子物体的参数对应赋予给增强现实展示端子物体的参数,且所述增强现实展示端加载的资源包与所述可视化操作端加载的资源包相同。
9.根据权利要求8所述的非穿戴增强现实全息展示系统,其特征在于:所述可视化操作端具有主显示屏,所述主显示屏用于展示以三维模型的形式显示的可视化操作端子物体及获取使用者对可视化操作端子物体的操作信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710960164.2A CN107767462B (zh) | 2017-10-16 | 2017-10-16 | 一种非穿戴增强现实全息展示方法及展示系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710960164.2A CN107767462B (zh) | 2017-10-16 | 2017-10-16 | 一种非穿戴增强现实全息展示方法及展示系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107767462A CN107767462A (zh) | 2018-03-06 |
CN107767462B true CN107767462B (zh) | 2023-08-25 |
Family
ID=61269324
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710960164.2A Active CN107767462B (zh) | 2017-10-16 | 2017-10-16 | 一种非穿戴增强现实全息展示方法及展示系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107767462B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109887103B (zh) * | 2019-03-21 | 2021-08-06 | 威创集团股份有限公司 | 一种Unity3D定位布点方法、装置、设备和计算机可读存储介质 |
CN111818016B (zh) * | 2020-06-11 | 2022-03-22 | 广州恒沙数字科技有限公司 | 一种基于接口技术实现三维空间精准定位的方法和系统 |
CN111679743A (zh) * | 2020-08-11 | 2020-09-18 | 南京瑞巨数码科技有限公司 | 一种姿态交互裸眼三维混合虚拟现实系统的实现方法 |
CN113689756A (zh) * | 2021-08-23 | 2021-11-23 | 天津津航计算技术研究所 | 基于增强现实的座舱重构系统及实现方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102568026A (zh) * | 2011-12-12 | 2012-07-11 | 浙江大学 | 一种多视点自由立体显示的三维增强现实方法 |
CN106033333A (zh) * | 2015-03-10 | 2016-10-19 | 沈阳中云普华科技有限公司 | 一种可视化的增强现实场景制作系统及方法 |
CN106131536A (zh) * | 2016-08-15 | 2016-11-16 | 万象三维视觉科技(北京)有限公司 | 一种裸眼3d增强现实互动展示系统及其展示方法 |
CN205901977U (zh) * | 2016-08-15 | 2017-01-18 | 万象三维视觉科技(北京)有限公司 | 一种裸眼3d增强现实互动展示系统 |
CN106373198A (zh) * | 2016-09-18 | 2017-02-01 | 福州大学 | 一种实现增强现实的方法 |
CN106648057A (zh) * | 2016-10-09 | 2017-05-10 | 大道网络(上海)股份有限公司 | 基于虚拟现实技术的信息展示方法及系统 |
CN106708267A (zh) * | 2016-12-26 | 2017-05-24 | 上海今尚数码科技有限公司 | 一种通过增强现实技术切入全景展示的方法 |
WO2017107758A1 (zh) * | 2015-12-21 | 2017-06-29 | 大连新锐天地传媒有限公司 | 应用于图像或视频的ar显示系统及方法 |
CN107168537A (zh) * | 2017-05-19 | 2017-09-15 | 山东万腾电子科技有限公司 | 一种协同式增强现实的可穿戴作业指导方法及系统 |
CN107204031A (zh) * | 2017-04-27 | 2017-09-26 | 腾讯科技(深圳)有限公司 | 信息展示方法及装置 |
CN107247548A (zh) * | 2017-05-31 | 2017-10-13 | 腾讯科技(深圳)有限公司 | 图像显示方法、图像处理方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9865091B2 (en) * | 2015-09-02 | 2018-01-09 | Microsoft Technology Licensing, Llc | Localizing devices in augmented reality environment |
-
2017
- 2017-10-16 CN CN201710960164.2A patent/CN107767462B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102568026A (zh) * | 2011-12-12 | 2012-07-11 | 浙江大学 | 一种多视点自由立体显示的三维增强现实方法 |
CN106033333A (zh) * | 2015-03-10 | 2016-10-19 | 沈阳中云普华科技有限公司 | 一种可视化的增强现实场景制作系统及方法 |
WO2017107758A1 (zh) * | 2015-12-21 | 2017-06-29 | 大连新锐天地传媒有限公司 | 应用于图像或视频的ar显示系统及方法 |
CN106131536A (zh) * | 2016-08-15 | 2016-11-16 | 万象三维视觉科技(北京)有限公司 | 一种裸眼3d增强现实互动展示系统及其展示方法 |
CN205901977U (zh) * | 2016-08-15 | 2017-01-18 | 万象三维视觉科技(北京)有限公司 | 一种裸眼3d增强现实互动展示系统 |
CN106373198A (zh) * | 2016-09-18 | 2017-02-01 | 福州大学 | 一种实现增强现实的方法 |
CN106648057A (zh) * | 2016-10-09 | 2017-05-10 | 大道网络(上海)股份有限公司 | 基于虚拟现实技术的信息展示方法及系统 |
CN106708267A (zh) * | 2016-12-26 | 2017-05-24 | 上海今尚数码科技有限公司 | 一种通过增强现实技术切入全景展示的方法 |
CN107204031A (zh) * | 2017-04-27 | 2017-09-26 | 腾讯科技(深圳)有限公司 | 信息展示方法及装置 |
CN107168537A (zh) * | 2017-05-19 | 2017-09-15 | 山东万腾电子科技有限公司 | 一种协同式增强现实的可穿戴作业指导方法及系统 |
CN107247548A (zh) * | 2017-05-31 | 2017-10-13 | 腾讯科技(深圳)有限公司 | 图像显示方法、图像处理方法及装置 |
Non-Patent Citations (1)
Title |
---|
黄凌 ; 李颖 ; .增强现实与Unity结合的初探.艺术教育.2017,(第Z7期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN107767462A (zh) | 2018-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107767462B (zh) | 一种非穿戴增强现实全息展示方法及展示系统 | |
CN112150638B (zh) | 虚拟对象形象合成方法、装置、电子设备和存储介质 | |
CN106157359B (zh) | 一种虚拟场景体验系统的设计方法 | |
WO2018188499A1 (zh) | 图像、视频处理方法和装置、虚拟现实装置和存储介质 | |
JP4228646B2 (ja) | 立体視画像生成方法および立体視画像生成装置 | |
US11275436B2 (en) | Interface-based modeling and design of three dimensional spaces using two dimensional representations | |
WO2018086295A1 (zh) | 一种应用界面显示方法及装置 | |
CN104702936A (zh) | 一种基于裸眼3d显示的虚拟现实交互方法 | |
CN101742348A (zh) | 渲染方法与系统 | |
KR20130097014A (ko) | 확장형 3차원 입체영상 디스플레이 시스템 | |
CN107248194A (zh) | 一种基于云计算的cae数据三维显示交互方法 | |
CN110554770A (zh) | 静态遮挡物 | |
KR20220137904A (ko) | 팝아웃 및 싱크인 홀로그래픽 증강 현실(ar), 가상 현실(vr) 및 혼합 현실(mr)을 이용한 고화질 자유공간 “팝아웃” 및 “싱크인” 홀로그램을 생성, 작성, 디스플레이, 및 공유하기 위한 자유 공간 “팝아웃” 및 “싱크인” 홀로그램 장치 | |
CN103177467A (zh) | 一种利用Direct3D技术创作裸眼3D字幕的方法 | |
CN104581119A (zh) | 一种3d图像的显示方法和一种头戴设备 | |
CN110503707A (zh) | 一种真人动作捕捉实时动画系统及其方法 | |
CN106126145A (zh) | 一种显示方法及电子设备 | |
Agarwal et al. | The evolution and future scope of augmented reality | |
CN107426601B (zh) | 一种智能电视中ui控件的显示方法及装置 | |
Saggio et al. | Augmented reality for restoration/reconstruction of artefacts with artistic or historical value | |
CN105913477A (zh) | 一种实现虚拟现实系统立体启动动画的方法和装置 | |
CN102984483B (zh) | 一种三维用户界面显示系统及方法 | |
CN103871094A (zh) | 一种基于体扫描三维显示系统数据源生成方法 | |
CN105975259A (zh) | 一种3d空间用户界面的实现方法及其装置 | |
JP2013008137A (ja) | 三次元形状モデリング用データ送信装置、三次元形状モデリング用データ受信装置、三次元形状モデリングシステム、三次元形状モデリング用データ送信プログラム、及び三次元形状モデリング用データ受信プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |