CN104484033B - 基于bim的虚拟现实展示方法和系统 - Google Patents
基于bim的虚拟现实展示方法和系统 Download PDFInfo
- Publication number
- CN104484033B CN104484033B CN201410675455.3A CN201410675455A CN104484033B CN 104484033 B CN104484033 B CN 104484033B CN 201410675455 A CN201410675455 A CN 201410675455A CN 104484033 B CN104484033 B CN 104484033B
- Authority
- CN
- China
- Prior art keywords
- mtd
- mtr
- msub
- camera
- mrow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种基于BIM的虚拟现实展示方法和系统,包括步骤:步骤1:生成BIM建筑模型;步骤2:将BIM建筑模型数据传输到观察者所佩戴的显示头盔中;步骤3:利用安装于显示头盔的传感器获取用户的观察信息,将用户的观察信息传回BIM建筑模型中,BIM建筑模型接收观察者的位置信息;步骤4:根据观察者的观察信息更新BIM建筑模型数据,返回步骤2继续执行。本发明基于BIM的虚拟现实展示方法,能够根据观察者的视角仅局部展示出所需要的建筑信息,减少了图像处理设备的负担,且场地要求低,不受环境限制,并让观察者有强烈的沉浸感,如同身临其境。
Description
技术领域
本发明涉及建筑信息模型领域,具体地,涉及基于BIM的虚拟现实展示方法和系统。
背景技术
BIM是Building Information Modeling的缩写,国内通常将其翻译为建筑信息模型。是一种建筑全生命周期信息化管理技术,具有可视化、协调性、模拟性、优化性和可出图五大特点。BIM是一种全新的建筑设计、施工、管理方法,以三维数字信息技术为基础,将规划、设计、建造、运营等各阶段的数据资料全部包含在3D模型之中,让建筑物整个生命周期中任何阶段的工作人员在使用该模型时,都能根据精确完整的数据做出有效、正确的决策。
虚拟现实(Virtual Reality,简称VR)是综合利用计算机图形系统和各种现实及控制等接口设备,在计算机上生成的、可交互的三维环境中提供沉浸感觉的技术。
传统的建筑信息展示方法有:实物展示,沙盘展示,普通基于BIM展示。
实物展示需要建筑已经建造完成,观察者可以身临其境,但是,此方法成本高,耗时长,具有单一性,对场地等要求高。
沙盘展示是通过制作理想化建造的模型,观察者通过模型来观察,此方法有很大局限性,首先,观察者只能观察到建筑的外部结构,内部的具体信息都没办法获得,其次,沙盘展示模型一般较小,外部一些细节性的信息不会被观察者得到。
当前的基于BIM技术的模型建立,模拟真实信息技术已经很成熟,但是BIM技术的展现方式还是基于单一的平面现实终端,观察者只是观察到2维的,平面的信息图像,并没办法到身临其境的感觉,并没有给观察者提供很好的感官效果。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于BIM的虚拟现实展示方法和系统,以解决如下技术问题:
1)基于BIM的虚拟现实展示方法可以1:1的真实的展现建筑的结构
2)基于BIM的虚拟现实展示方法可以低成本的、短周期的完成建筑的展示
3)基于BIM的虚拟现实展示方法可以给观察者提供沉浸式的感觉,使观察者身临其境。
根据本发明提供的一种基于BIM的虚拟现实展示方法,包括如下步骤:
步骤1:生成BIM建筑模型;
步骤2:将BIM建筑模型数据传输到观察者所佩戴的显示头盔中;
步骤3:利用安装于显示头盔的传感器获取用户的观察信息,将用户的观察信息传回BIM建筑模型中,BIM建筑模型接收观察者的位置信息;
步骤4:根据观察者的观察信息更新BIM建筑模型数据,返回步骤2继续执行。
优选地,观察信息包括观察者头部姿态信息以及观察者空间位置信息,步骤3包括如下步骤:
步骤3.1:通过设置于显示头盔内部的传感器B获取观察者头部姿态信息;
步骤3.2:通过设置于显示头盔外部的传感器A获取观察者空间位置信息。
优选地,步骤3.1包括如下步骤:
步骤3.1.1:传感器B为三轴陀螺仪,当显示头盔姿态发生变化时,利用三轴陀螺仪在重力力矩作用下的进给运动,获取到观察者头部姿态信息,其中,观察者头部姿态信息包括姿态变化信息;
步骤3.1.2:将姿态变化信息通过内置在显示头盔中的无线通信模块传输给电脑,电脑将姿态变化信息储存在数据库中并与BIM建筑模型进行实时匹配。
优选地,步骤3.2包括以下步骤:
步骤3.2.1:布置传感器A,其中,传感器A为物理参数完全相同的三个相机,物理参数包括:像素尺寸、焦距、分辨率;所述三个相机安放在观察者的上方,且所述三个相机之间均有间距,相机用于对空间中物体拍照,任意相邻两个相机构成一对相机组;每个相机均与电脑相连接,相机将拍摄到的图像发送到电脑;
步骤3.2.2:每个显示头盔上均有一个特征标志点;电脑对相机所拍摄图像中特征标志点进行提取匹配,根据双目视觉的原理,并利用相机间的空间位置关系,计算出显示头盔在空间中的实际位置信息作为观察者空间位置信息。
优选地,步骤3.2.2包括以下步骤:
步骤3.2.2.1:所述三个相机在装好位置后,通过相机标定的方法,获取相机之间的旋转关系R以及平移关系T;
步骤3.2.2.2:所述三个相机中每次只有一对相机工作构成相机组,获取特征标志点在图片上的坐标后,通过相机之间的旋转关系R以及平移关系T,计算出特征标志点在空间中的坐标;
步骤3.2.2.3:根据得到的特征标志点的空间坐标,计算出显示头盔在空间中的实际位置。
优选地,步骤3.2.2.2包括以下步骤:
步骤3.2.2.2.1:当特征标志点在某一相机组的视场下,剩余的第三个相机暂停工作;
步骤3.2.2.2.2:当特征标志点移动出当前相机组的视场时,剩余的第三个相机工作,与任一相邻的相机构成新的相机组,其中,特征标志点在该新的相机组的视场下。
优选地,步骤4包括如下步骤:
步骤4.1:根据观察者的观察信息改变BIM建筑模型中观察者的视点位置,从BIM建筑模型中调取并得到新视点下的图像信息;
步骤4.2:将新视点下的图像信息发送到显示头盔予以显示。
根据本发明提供的一种基于BIM的虚拟现实展示系统,所述基于BIM的虚拟现实展示系统,用于执行上述的基于BIM的虚拟现实展示方法。
与现有技术相比,本发明具有如下的有益效果:
1)低成本的展示出所需要的建筑信息。
2)场地要求低,不受环境限制。
3)让观察者有强烈的沉浸感,如同身临其境。
4)能够根据观察者的视角仅局部展示出所需要的建筑信息,而不必显示整个建筑模型,减少了图像处理设备的负担,。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为结构示意图。
图2为系统组成模块图。
图3为计算头盔在空间中的实际位置的原理图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
步骤1:通过BIM技术在电脑中产生与实际情况一致的且符合现场施工管理需求的建筑模型;
步骤2:电脑将建筑模型数据传输到观察者所佩戴的显示头盔中,显示头盔是根据人眼产生立体感的原理设计的;
步骤3:利用安装于显示头盔的传感器获取用户的观察信息,将用户的观察信息传回BIM建筑模型中,BIM建筑模型接收观察者的位置信息;
步骤4:电脑通过处理得到的观察者的观察信息改变建筑模型数据,达到是观察者身临其境的目的。
步骤3包括如下步骤:
步骤3.1:通过放置在显示头盔中的传感器B获取观察者的眼部的姿态信息,并传回电脑;
步骤3.2:通过放置在头盔外部的传感器A获取观察者的空间位置信息;
其中步骤3.1包括如下步骤:
步骤3.1.1:头盔中的传感器B为三轴陀螺仪,当头盔姿态发生变化时,利用陀螺仪在重力力矩作用下的进给运动,获取到姿态变化信息;
步骤3.1.2:头盔中的传感器B获取的姿态变化信息通过内置在头盔中的无线模块传输给电脑,电脑将姿态变化信息数据储存在数据库中并与建筑模型进行实时匹配。
步骤3.2包括以下步骤:
步骤3.2.1:放置在外部的传感器A为三个物理参数完全相同的相机,物理参数包括:像素尺寸、焦距、分辨率;
相机安放在房间的顶部,且每个相机间有一定间距,相机对空间中物体拍照。相邻两个相机构成一对相机组;
每个相机均与电脑相连接,相机将拍摄到的图像发送到电脑。
步骤3.2.2:每个头盔上均有一个特征标志点,如图3所示,该特征标志点为单个近红外的LED小灯。电脑对图像中特征标志点进行提取匹配,根据双目视觉的原理,并利用相机间的空间位置关系,计算出头盔在空间中的位置信息。
步骤3.2.2包括以下步骤
步骤3.2.2.1:相机在装好位置后,通过相机标定的方法,获取相机之间的旋转关系R以及平移关系T。
步骤3.2.2.2:三个相机中每次只有一对(即两个)相机工作构成相机组,获取特征标志点在图片上的坐标后,通过相机之间的旋转关系R以及平移关系T,计算出特征标志点在空间中的坐标;
步骤3.2.2.3:根据得到的特征标志点的空间坐标,计算出头盔在空间中的实际位置。
步骤3.2.2.2包括以下步骤:
步骤3.2.2.2.1:当特征标志点在某一相机组的视场下,剩余的第三个相机暂停工作。
步骤3.2.2.2.2:当特征标志点移动出当前相机组的视场时,剩余的第三个相机工作,与相邻的相机构成新的相机组。
步骤3.2.2的具体原理如下:
系统模型对左右相机的摆放位置不做特别要求,设相机组中的两个相机分为称为左相机、右相机。设左相机位于世界坐标系原点处,左相机坐标系Ol-xyz与世界坐标系重合,左相机得到的图像称为左图像,左图像坐标系为ol-XlYl,有效焦距为fl;右相机坐标系Or-xryrzr,右相机得到的图像称为右图像,右图像坐标系为or-XrYr,有效焦距为fr。在实际中,空间特征标识点P(xw,yw,zw)在两个相机像面的像点分别为Pl(ul,vl)、Pr(ur,vr),它们之间满足
式(1)为左相机对空间特征标志点P的成像的数学关系;
式(2)为右相机对空间特征标志点P的成像的数学关系;
其中,Rlr和tlr为左右相机坐标系之间的旋转矩阵和平移矢量,zl表示左相机的比例系数,(ul,vl)表示特征标识点P在左相机拍摄的图像中的像素坐标,sxl表示左相机的横向缩放系数,syl表示左相机的纵向缩放系数,(u0l,v0l)表示左相机的物理光心坐标,fxl表示左相机的横向焦距,fyr表示左相机的纵向焦距,xw表示特征标识点P在世界坐标系下的x坐标,yw表示特征标识点P在世界坐标系下的y坐标,zw表示特征标识点P在世界坐标系下的z坐标,zr表示右相机的比例系数,(ur,vr)表示特征标识点P在右相机拍摄的图像中的像素坐标,sxr表示右相机的横向缩放系数,syr表示右相机的纵向缩放系数,(u0r,v0r)表示右相机的物理光心坐标,fxr表示右相机的横向焦距,fyr表示右相机的纵向焦距,Rlr表示左右相机间的旋转关系,tlr表示左右相机间的平移关系。
步骤4包括如下步骤:
步骤4.1:电脑得到头盔在空间中的位置信息和头盔的姿态信息后,分析处理信息。
步骤4.2:根据步骤4.1中的信息改变建筑模型中观察者的视点位置,从建筑模型中调取并得到新视点下的图像信息。
步骤4.3:通过无线模块将新的建筑模型中的图像信息发送到头盔显示器中。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
Claims (6)
1.一种基于BIM的虚拟现实展示方法,其特征在于,包括如下步骤:
步骤1:生成BIM建筑模型;
步骤2:将BIM建筑模型数据传输到观察者所佩戴的显示头盔中;
步骤3:利用安装于显示头盔的传感器获取用户的观察信息,将用户的观察信息传回BIM建筑模型中,BIM建筑模型接收观察者的位置信息;
步骤4:根据观察者的观察信息更新BIM建筑模型数据,返回步骤2继续执行;
所述基于BIM的虚拟现实展示方法,根据观察者的视角仅局部展示出所需要的建筑信息;
观察信息包括观察者头部姿态信息以及观察者空间位置信息,步骤3包括如下步骤:
步骤3.1:通过设置于显示头盔内部的传感器B获取观察者头部姿态信息;
步骤3.2:通过设置于显示头盔外部的传感器A获取观察者空间位置信息;
步骤3.2包括以下步骤:
步骤3.2.1:布置传感器A,其中,传感器A为物理参数完全相同的三个相机,物理参数包括:像素尺寸、焦距、分辨率;所述三个相机安放在观察者的上方,且所述三个相机之间均有间距,相机用于对空间中物体拍照,任意相邻两个相机构成一对相机组;每个相机均与电脑相连接,相机将拍摄到的图像发送到电脑;
步骤3.2.2:每个显示头盔上均有一个特征标志点;电脑对相机所拍摄图像中特征标志点进行提取匹配,根据双目视觉的原理,并利用相机间的空间位置关系,计算出显示头盔在空间中的实际位置信息作为观察者空间位置信息;
设两个相机分别称为左相机、右相机;设左相机位于世界坐标系原点处,左相机坐标系Ol-xyz与世界坐标系重合,左相机得到的图像称为左图像,左图像坐标系为ol-XlYl,有效焦距为fl;右相机坐标系Or-xryrzr,右相机得到的图像称为右图像,右图像坐标系为or-XrYr,有效焦距为fr;在实际中,空间特征标识点P(xw,yw,zw)在两个相机像面的像点分别为Pl(ul,vl)、Pr(ur,vr),它们之间满足
<mrow>
<msub>
<mi>z</mi>
<mi>l</mi>
</msub>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<msub>
<mi>u</mi>
<mi>l</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>v</mi>
<mi>l</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<msub>
<mi>s</mi>
<mrow>
<mi>x</mi>
<mi>l</mi>
</mrow>
</msub>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<msub>
<mi>u</mi>
<mrow>
<mn>0</mn>
<mi>l</mi>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<msub>
<mi>s</mi>
<mrow>
<mi>y</mi>
<mi>l</mi>
</mrow>
</msub>
</mtd>
<mtd>
<msub>
<mi>v</mi>
<mrow>
<mn>0</mn>
<mi>l</mi>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<msub>
<mi>f</mi>
<mrow>
<mi>x</mi>
<mi>l</mi>
</mrow>
</msub>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<msub>
<mi>f</mi>
<mrow>
<mi>y</mi>
<mi>l</mi>
</mrow>
</msub>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<msub>
<mi>x</mi>
<mi>w</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>y</mi>
<mi>w</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>z</mi>
<mi>w</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>z</mi>
<mi>r</mi>
</msub>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<msub>
<mi>u</mi>
<mi>r</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>v</mi>
<mi>r</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<msub>
<mi>s</mi>
<mrow>
<mi>x</mi>
<mi>r</mi>
</mrow>
</msub>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<msub>
<mi>u</mi>
<mrow>
<mn>0</mn>
<mi>r</mi>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<msub>
<mi>s</mi>
<mrow>
<mi>y</mi>
<mi>r</mi>
</mrow>
</msub>
</mtd>
<mtd>
<msub>
<mi>v</mi>
<mrow>
<mn>0</mn>
<mi>r</mi>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<msub>
<mi>f</mi>
<mrow>
<mi>x</mi>
<mi>r</mi>
</mrow>
</msub>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<msub>
<mi>f</mi>
<mrow>
<mi>y</mi>
<mi>r</mi>
</mrow>
</msub>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<msub>
<mi>R</mi>
<mrow>
<mi>l</mi>
<mi>r</mi>
</mrow>
</msub>
</mtd>
<mtd>
<msub>
<mi>t</mi>
<mrow>
<mi>l</mi>
<mi>r</mi>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msup>
<mn>0</mn>
<mi>T</mi>
</msup>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<msub>
<mi>x</mi>
<mi>w</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>y</mi>
<mi>w</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>z</mi>
<mi>w</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
式(1)为左相机对空间特征标志点P的成像的数学关系;
式(2)为右相机对空间特征标志点P的成像的数学关系;
其中,Rlr和tlr为左右相机坐标系之间的旋转矩阵和平移矢量,zl表示左相机的比例系数,(ul,vl)表示特征标识点P在左相机拍摄的图像中的像素坐标,sxl表示左相机的横向缩放系数,syl表示左相机的纵向缩放系数,(u0l,v0l)表示左相机的物理光心坐标,fxl表示左相机的横向焦距,fyl表示左相机的纵向焦距,xw表示特征标识点P在世界坐标系下的x坐标,yw表示特征标识点P在世界坐标系下的y坐标,zw表示特征标识点P在世界坐标系下的z坐标,zr表示右相机的比例系数,(ur,vr)表示特征标识点P在右相机拍摄的图像中的像素坐标,sxr表示右相机的横向缩放系数,syr表示右相机的纵向缩放系数,(u0r,v0r)表示右相机的物理光心坐标,fxr表示右相机的横向焦距,fyr表示右相机的纵向焦距,Rlr表示左右相机间的旋转关系,tlr表示左右相机间的平移关系。
2.根据权利要求1所述的基于BIM的虚拟现实展示方法,其特征在于,步骤3.1包括如下步骤:
步骤3.1.1:传感器B为三轴陀螺仪,当显示头盔姿态发生变化时,利用三轴陀螺仪在重力力矩作用下的进给运动,获取到观察者头部姿态信息,其中,观察者头部姿态信息包括姿态变化信息;
步骤3.1.2:将姿态变化信息通过内置在显示头盔中的无线通信模块传输给电脑,电脑将姿态变化信息储存在数据库中并与BIM建筑模型进行实时匹配。
3.根据权利要求2所述的基于BIM的虚拟现实展示方法,其特征在于,步骤3.2.2包括以下步骤:
步骤3.2.2.1:所述三个相机在装好位置后,通过相机标定的方法,获取相机之间的旋转关系R以及平移关系T;
步骤3.2.2.2:所述三个相机中每次只有一对相机工作构成相机组,获取特征标志点在图片上的坐标后,通过相机之间的旋转关系R以及平移关系T,计算出特征标志点在空间中的坐标;
步骤3.2.2.3:根据得到的特征标志点的空间坐标,计算出显示头盔在空间中的实际位置。
4.根据权利要求3所述的基于BIM的虚拟现实展示方法,其特征在于,步骤3.2.2.2包括以下步骤:
步骤3.2.2.2.1:当特征标志点在某一相机组的视场下,剩余的第三个相机暂停工作;
步骤3.2.2.2.2:当特征标志点移动出当前相机组的视场时,剩余的第三个相机工作,与任一相邻的相机构成新的相机组,其中,特征标志点在该新的相机组的视场下。
5.根据权利要求1所述的基于BIM的虚拟现实展示方法,其特征在于,步骤4包括如下步骤:
步骤4.1:根据观察者的观察信息改变BIM建筑模型中观察者的视点位置,从BIM建筑模型中调取并得到新视点下的图像信息;
步骤4.2:将新视点下的图像信息发送到显示头盔予以显示。
6.一种基于BIM的虚拟现实展示系统,其特征在于,所述基于BIM的虚拟现实展示系统,用于执行权利要求1至5中任一项所述的基于BIM的虚拟现实展示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410675455.3A CN104484033B (zh) | 2014-11-21 | 2014-11-21 | 基于bim的虚拟现实展示方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410675455.3A CN104484033B (zh) | 2014-11-21 | 2014-11-21 | 基于bim的虚拟现实展示方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104484033A CN104484033A (zh) | 2015-04-01 |
CN104484033B true CN104484033B (zh) | 2017-10-03 |
Family
ID=52758586
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410675455.3A Active CN104484033B (zh) | 2014-11-21 | 2014-11-21 | 基于bim的虚拟现实展示方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104484033B (zh) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105426972A (zh) * | 2015-10-28 | 2016-03-23 | 上海同筑信息科技有限公司 | 基于bim的工程项目智能运维管理方法及系统 |
CN105654243B (zh) * | 2015-12-31 | 2019-06-11 | 上海筑想信息科技股份有限公司 | 一种基于轨道图的项目信息自动化处理系统 |
US10133345B2 (en) * | 2016-03-22 | 2018-11-20 | Microsoft Technology Licensing, Llc | Virtual-reality navigation |
CN105955463A (zh) * | 2016-04-26 | 2016-09-21 | 王立峰 | 基于bim的vr虚拟感受系统 |
CN105979239A (zh) * | 2016-04-28 | 2016-09-28 | 乐视控股(北京)有限公司 | 虚拟现实终端及其视频的显示方法和装置 |
CN106020456A (zh) * | 2016-05-11 | 2016-10-12 | 北京暴风魔镜科技有限公司 | 获取用户头部姿态的方法、装置和系统 |
CN105931560A (zh) * | 2016-05-27 | 2016-09-07 | 大连楼兰科技股份有限公司 | 车联网虚拟现实建筑模型展示方法 |
CN105913755A (zh) * | 2016-05-27 | 2016-08-31 | 大连楼兰科技股份有限公司 | 车联网虚拟现实建筑模型展示系统及方法 |
CN105938613B (zh) * | 2016-06-27 | 2021-08-20 | 厦门锐创节能科技有限公司 | 一种基于bim和vr智慧城市管网综合平台及其管理方法和构建方法 |
CN106200983B (zh) * | 2016-07-25 | 2019-06-18 | 圣域科技(深圳)有限公司 | 一种结合虚拟现实与bim实现虚拟现实场景建筑设计的系统 |
CN106355648A (zh) * | 2016-08-30 | 2017-01-25 | 广联达科技股份有限公司 | 三维建筑场景的定位方法及定位系统 |
CN106327104A (zh) * | 2016-09-06 | 2017-01-11 | 华中科技大学 | 一种基于增强现实安全帽的施工管控系统及方法 |
CN106569595A (zh) * | 2016-10-19 | 2017-04-19 | 上海市城市建设设计研究总院 | 基于vr和bim的虚拟工程体验方法及装置 |
CN108090933B (zh) * | 2016-11-22 | 2021-11-16 | 腾讯科技(深圳)有限公司 | 二维平面标定方法和装置 |
CN106791629A (zh) * | 2016-12-12 | 2017-05-31 | 大连文森特软件科技有限公司 | 一种基于ar虚拟现实技术的楼房建造设计系统 |
CN106791630A (zh) * | 2016-12-12 | 2017-05-31 | 大连文森特软件科技有限公司 | 一种基于ar 虚拟现实技术的楼房建造监管系统 |
CN106951083A (zh) * | 2017-03-20 | 2017-07-14 | 任芳 | 基于bim的vr展示方法及系统 |
CN106952348B (zh) * | 2017-03-28 | 2020-03-27 | 云南大学 | 一种基于红外手势识别的数字建筑模型展示方法及系统 |
CN107679291A (zh) * | 2017-09-14 | 2018-02-09 | 中建三局第建设工程有限责任公司 | 基于bim和ar的施工运维管理方法、存储设备及移动终端 |
CN108378450B (zh) * | 2018-03-08 | 2023-07-21 | 应急管理部天津消防研究所 | 一种燃爆事故感知与风险预测预警智能消防头盔实现方法 |
CN109214040B (zh) * | 2018-07-17 | 2023-07-11 | 广东强雄建设集团有限公司 | 一种基于bim的装配式施工实时监控系统和方法 |
CN109523637A (zh) * | 2018-10-31 | 2019-03-26 | 中交航局安装工程有限公司 | 一种vr技术海底隧道系统 |
CN109870987A (zh) * | 2019-03-12 | 2019-06-11 | 中建三局第一建设工程有限责任公司 | 适用于大型厂房现场施工的物联网平台管理方法及其系统 |
CN110502833B (zh) * | 2019-08-20 | 2023-02-24 | 浙江天元十杰装饰股份有限公司 | 一种房间模拟方法、系统、存储介质 |
CN110544425A (zh) * | 2019-09-13 | 2019-12-06 | 广州城市职业学院 | 一种古建筑vr展示系统 |
CN110995660A (zh) * | 2019-11-12 | 2020-04-10 | 中铁第四勘察设计院集团有限公司 | 一种基于ar技术的铁路应急协作支持与巡检系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101936761B (zh) * | 2009-06-30 | 2012-02-15 | 宝山钢铁股份有限公司 | 大型料场料堆视觉测量方法 |
CN102495959A (zh) * | 2011-12-05 | 2012-06-13 | 无锡智感星际科技有限公司 | 一种基于位置映射的增强现实平台系统及应用方法 |
CN101595417B (zh) * | 2007-01-31 | 2012-11-28 | 麦可门蒂斯公司 | 用于轮廓形成系统的头戴式显示装置 |
CN103559703A (zh) * | 2013-10-08 | 2014-02-05 | 中南大学 | 基于双目视觉的起重机障碍物监测及预警方法及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060050070A1 (en) * | 2004-09-07 | 2006-03-09 | Canon Kabushiki Kaisha | Information processing apparatus and method for presenting image combined with virtual image |
JP4795091B2 (ja) * | 2006-04-21 | 2011-10-19 | キヤノン株式会社 | 情報処理方法および装置 |
-
2014
- 2014-11-21 CN CN201410675455.3A patent/CN104484033B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101595417B (zh) * | 2007-01-31 | 2012-11-28 | 麦可门蒂斯公司 | 用于轮廓形成系统的头戴式显示装置 |
CN101936761B (zh) * | 2009-06-30 | 2012-02-15 | 宝山钢铁股份有限公司 | 大型料场料堆视觉测量方法 |
CN102495959A (zh) * | 2011-12-05 | 2012-06-13 | 无锡智感星际科技有限公司 | 一种基于位置映射的增强现实平台系统及应用方法 |
CN103559703A (zh) * | 2013-10-08 | 2014-02-05 | 中南大学 | 基于双目视觉的起重机障碍物监测及预警方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN104484033A (zh) | 2015-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104484033B (zh) | 基于bim的虚拟现实展示方法和系统 | |
CN104699247B (zh) | 一种基于机器视觉的虚拟现实交互系统及方法 | |
JP6687204B2 (ja) | 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法 | |
CN104748746B (zh) | 智能机姿态测定及虚拟现实漫游方法 | |
Grün et al. | Photogrammetric reconstruction of the great Buddha of Bamiyan, Afghanistan | |
CN104599317B (zh) | 一种实现3d扫描建模功能的移动终端及方法 | |
CN106447766B (zh) | 一种基于移动设备单目相机的场景重建方法及装置 | |
CN109003325A (zh) | 一种三维重建的方法、介质、装置和计算设备 | |
CN108154550A (zh) | 基于rgbd相机的人脸实时三维重建方法 | |
CN107016704A (zh) | 一种基于增强现实的虚拟现实实现方法 | |
CN108140105A (zh) | 具有脸部表情检测能力的头戴式显示器 | |
KR20210011425A (ko) | 이미지 처리 방법 및 디바이스, 이미지 장치, 및 저장 매체 | |
CN108401461A (zh) | 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品 | |
CN107292965A (zh) | 一种基于深度图像数据流的虚实遮挡处理方法 | |
CN105894566A (zh) | 模型渲染方法及装置 | |
CN108288292A (zh) | 一种三维重建方法、装置及设备 | |
CN105981074A (zh) | 相机标定 | |
CN103345064A (zh) | 一种集成3d识别的帽子及帽子的3d识别方法 | |
CN103489214A (zh) | 增强现实系统中基于虚拟模型预处理的虚实遮挡处理方法 | |
CN108154533A (zh) | 一种位置姿态确定方法、装置及电子设备 | |
Oskiper et al. | Augmented reality binoculars | |
CN109725733A (zh) | 一种基于增强现实的人机交互方法及人机交互设备 | |
CN106569591A (zh) | 基于计算机视觉跟踪和传感器跟踪的跟踪方法和跟踪系统 | |
CN107067299A (zh) | 虚拟试衣方法和系统 | |
CN106981091A (zh) | 人体三维建模数据处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |