CN109360262B - 基于cad图生成三维模型的室内定位系统及方法 - Google Patents
基于cad图生成三维模型的室内定位系统及方法 Download PDFInfo
- Publication number
- CN109360262B CN109360262B CN201811239359.9A CN201811239359A CN109360262B CN 109360262 B CN109360262 B CN 109360262B CN 201811239359 A CN201811239359 A CN 201811239359A CN 109360262 B CN109360262 B CN 109360262B
- Authority
- CN
- China
- Prior art keywords
- dimensional model
- user
- dimensional
- information
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/33—Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种基于CAD图生成三维模型的室内定位系统及方法,通过wifi定位技术获取显示室内人员的位置信息,将位置信息转换成三维坐标并上传;通过访问CAD文件的组成结构来解析文件数据,通过生成的数据再结合现有的三维图形库生成三维模型,然后通过矩阵变换将位置坐标信息转换到三维模型中,最后对三维模型进行实时渲染;同时将人员室内的位置信息和运动轨迹显示到三维模型中;本发明所提供的一种基于CAD图生成三维模型的室内定位系统及方法,操作性简单,自动化性高,同时效果也比较真实。基于WIFI的室内定位系统,可以精确的获取人员在室内的位置信息,将位置信息展示在三维模型中,可视性效果更好。
Description
技术领域
本发明属于室内定位领域,尤其是一种基于CAD图生成三维模型的室内定位系统及方法。
背景技术
现有的基于图像的建模技术中传统的方法是通过一些建模软件,比如3ds Max、Maya等建模软件实现建模,以及使用三维扫描仪扫描物体从而得到三维模型,这种传统的方法虽然建模效果良好,但是可操作性高,复杂度高,自动化性低。同时现在比较流行的三维重建技术,但是其也存在很多缺点,基于图像的三维重建技术需要若干幅基于真实的三维物体或者场景的真实感知的图像,场景中图像都是二维信息,用户很难获取二维图像中获取重要信息。总之现有的基于图像的建模技术或多或少有其一定的缺点。
同时,现在的定位系统一般都是将定位信息显示在二维的地图上,可视性效果并不好,真实感也不足,同时基于卫星的定位技术也不能准确的定位到室内的具体位置。
发明内容
针对上述问题,本发明提供了一种基于CAD图生成三维模型的室内定位系统,包括:室内定位模块,定位追踪模块,系统显示模块,2D平面图转3D模块;
室内定位模块:采用RSSI定位方法,在室内区域设置采样点,并通过离线训练划分室内区域网格,再通过wifi接收采样点所包含的信息,同时将所得采样点信息进行处理储存;当用户持手机在场景中移动时,通过wifi获取用户实时信息,通过神经网络将用户实时信息与采样点信息进行数据匹配,获取用户的位置信息,并将过的位置信息与用户相应的ID上传至服务器;
定位追踪模块:从服务器上获取用户的位置信息与ID,将用户的位置信息通过数学建模和三维模型的坐标系统统一起来,将统一后的坐标带入三维模型中,通过实时获取用户位置信息,得到用户在三维模型中的运动轨迹,再对用户的运动轨迹进行平滑处理和储存,通过系统显示模块进行显示;
系统显示模块:对用户轨迹进行实施显示及回放,同时对三维模型进行控制,对三维模型的视角进行切换;
2D平面图转3D模块:解析AutoCAD提供的2D平面图,生成三维模型,并将模型传送给系统显示模块进行显示。
采用一种基于CAD图生成三维模型的室内定位系统进行室内定位的方法,包括以下步骤:
步骤1.室内定位模块通过wifi定位技术获取室内人员的位置信息:
采用基于RSSI定位方法,通过该系统SDK获取到周围各个AP发送的信号强度RSSI以及AP地址。具体实现是通过RSSI的指纹算法,在室内区域设置采样点,拖过离线训练划分室内区域网格,再通过wifi接受采样点,该采样点包含了很多具体信息,有位置信息,以及AP地址信息,将采集的数据进行处理,当用户持手机在场景中移动时,获取实时的信息,然后通过神经网络进行数据匹配,从而获取人员的位置信息。可以实时的获取位置坐标,比如间隔0.5s上传一次位置。将位置坐标转换到模型坐标系中,方便后续的三维模型中位置的定位,以及轨迹的绘制。
步骤2.室内定位模块将所得用户位置信息转换成三维坐标并上传:将获取的三维位置坐标和人员相应的ID上传至服务器。其中,三维位置信息包括从GPS中获取的经度、纬度以及海拔高度。三维位置信息分为两种:一种是GCJ-02坐标(例如谷歌地图API,高德地图API,腾讯地图API所提供的坐标);另一种是GCJ-02经过偏移算法所得到的坐标(例如百度API,搜狗API所提供的坐标)。人员ID可以是系统区分不同人员的key,不同ID的人对应其相应的位置信息。通过定义一种数据结构实现包括所有的信息,重点是三维位置信息。
定位追踪模块将用户的位置信息经过数学建模和三维模型的坐标统一:
定义两个坐标系:A坐标系为用户室内位置的三维坐标系,B为室内地图上的坐标系;通过变换矩阵,将A坐标系下的位置坐标转换到B坐标系表示,将转换后的位置坐标实时上传至服务器;
步骤3. 2D平面图转3D模块对DXF格式的2D平面图进行解析,一个DXF文件有若干个组构成,每个组占两行。第一行为组的代码,第二行为组值,通过查询CAD文档,解析CAD图元信息,将解析所得到的数据进行存储;
步骤4. 2D平面图转3D模块通过解析2D平面图所得到的数据结合现有的三维图形库生成三维模型;
步骤4.1:采用世界矩阵来完成所构建模型墙的位置,长宽高的缩放,自身的旋转,将模型转换到世界空间;采用观察矩阵将三维模型呈现在观察者视野内,将世界空间内的世界坐标变换到观察空间,从摄像机的角度观察三维模型;在观察空间中,所有坐标落在一个特定的范围内,采用裁剪矩阵,将特定范围外的点裁剪掉;采用投影矩阵将指定的范围的坐标变换为标准化设备坐标的范围(-1.0,1.0);解析顶点的数据主要是通过顶点着器实现的,然后通过光栅化实现顶点属性的插值,然后通过片元着色器实现最后的合并输出。其中还涉及到深度测试,和混合操作(实现透明效果)。
当所有顶点被变换到裁剪空间,执行透视除法:
最终的坐标会被映射到投影空间中,并被变换成片段,全部变换矩阵相乘就得到最终屏幕三维效果:
Vclip=Mprojection·Mview·Mmodel·Vlocal
步骤4.2:由于三维场景中渲染的围墙,都属于立方体,仅仅是位置,旋转和缩放不同,而一个4×4矩阵可以决定这三个因素,采用实例化方法,把所有不同变换的4×4矩阵存储到一个Mat4 VECTOR中,然后将VECTOR传入到着色器其中,执行一次渲染操作,完成对三维场景中围墙的渲染;
步骤4.3:楼层边界的获取,CAD图中其所有楼层都是绘制在一个x,y坐标系中,根据解析的数据无法直接区分不同楼层,该系统采用深度搜索或者广度搜索遍历所有的边数据,将所有LINE的X和Y坐标排序,初始化分解线为最小的Y值,然后遍历所有直线坐标,当发现两点没有联通时,证明该两点之间就是不同楼层的分界线;获取不同楼层分界线,根据楼层的分界线实现不同楼层的叠加;
步骤4.4:场景相机的设置,从不同角度观看三维模型,需要在场景中添加一个相机实现不同角度的切换;场景中摄像机方向如式所示:
cameraDirection=cameraPos-cameraTaget
同时需要一个右向量,它代表摄像机空间的x轴方向,可以通过先定义上向量,然后把上向量和方向向量叉乘,从而得到右向量,如式所示:
cameraRight=up×cameraDirection
最后根据右向量和方向向量来确定上向量,如式所示:
cameraUp=cameraRight×cameraDirection
最后通过设置识别鼠标和键盘操作的上下文来通过鼠标滚轮和键盘上的上下左右键控制的场景相机的移动;
步骤5:将步骤2所得用户位置的三维坐标带入三维模型中:实时更新地图显示信息,将用户位置实时显示在设备地图上;
步骤6:将位置坐标点渲染在三维模型中,通过系统显示模块实现轨迹的显示:
为初始化的建筑模型,贴上相应的纹理,通过顶点着色器、片元着色器实现光照效果,从而进行一些简单的渲染;
步骤6.1:在三维模型中添加一个天空盒,增加视觉效果;天空盒是通过立方体贴图实现的,包含6个2D纹理的立方纹理,立方体的中心位于原点,使用立方体的实际位置向量来对立方体贴图进行采样,然后再设置纹理的过滤方式:线性过滤,环绕方式GL_CLAMP_TO_EDGE:纹理坐标会被约束在0到1之间,超出的部分会重复纹理坐标的边缘,产生一种边缘被拉伸的效果;
步骤6.2:光照渲染,在场景中添加了平行光源,环境的光照由环境光,漫反射光照和镜面反射光照三部分组成,漫反射光照的实现是通过入射光与法线之间夹角的大小来判断的,如式所示:
I=|lightDirection|*|Normal|*cosθ
其中lightDirection和Normal都是单位向量,所以强度的大小取决于θ;
镜面反射的大小是由H向量和法向量Normal之间夹角的大小而决定的,如式所示:
Spec=power(max(0,dot(N,H)),shininess)
光照方向向量与视角向量的半向量化得到H向量,如式所示:
H=normalize(lightDirection+ViewDirction)。
有益效果:
基于CAD图生成三维模型的室内定位系统可以根据CAD图一键生成三维模型,同时将人员室内的位置信息和运动轨迹显示到三维模型中。
基于CAD图的一键生成三维模型,操作性简单,自动化性高,同时效果也比较真实。基于WIFI的室内定位系统,可以精确的获取人员在室内的位置信息,将位置信息展示在三维模型中,可视性效果更好。
附图说明
图1是基于CAD图生成三维模型的定位系统的框架图。
图2是CAD解析流程图。
图3是坐标空间转换图。
图4是透视投影图。
图5是三维模型渲染原理图。
图6是CAD中的机关楼图。
图7是由2D生成的三维模型。
图8是三维模型显示室内运动情况图。
图9是实时(每隔0.5s)坐标数据。
图10是系统界面图。
具体实施方式
如图1所示,一种基于CAD图生成三维模型的室内定位系统,包括:室内定位模块,定位追踪模块,系统显示模块,2D平面图转3D模块;
室内定位模块:采用RSSI定位方法,在室内区域设置采样点,并通过离线训练划分室内区域网格,再通过wifi接收采样点所包含的信息,同时将所得采样点信息进行处理储存;当用户持手机在场景中移动时,通过wifi获取用户实时信息,通过神经网络将用户实时信息与采样点信息进行数据匹配,获取用户的位置信息,并将过的位置信息与用户相应的ID上传至服务器;
定位追踪模块:从服务器上获取用户的位置信息与ID,将用户的位置信息通过数学建模和三维模型的坐标系统统一起来,将统一后的坐标带入三维模型中,通过实时获取用户位置信息,得到用户在三维模型中的运动轨迹,再对用户的运动轨迹进行平滑处理和储存,通过系统显示模块进行显示;
系统显示模块:对用户轨迹进行实施显示及回放,同时对三维模型进行控制,对三维模型的视角进行切换;如图10所示;
2D平面图转3D模块:解析AutoCAD提供的2D平面图,生成三维模型,并将模型传送给系统显示模块进行显示。
采用一种基于CAD图生成三维模型的室内定位系统进行室内定位的方法,包括以下步骤:
步骤1.室内定位模块通过wifi定位技术获取室内人员的位置信息:
采用基于RSSI定位方法,通过该系统SDK获取到周围各个AP发送的信号强度RSSI以及AP地址。具体实现是通过RSSI的指纹算法,在室内区域设置采样点,拖过离线训练划分室内区域网格,再通过wifi接受采样点,该采样点包含了很多具体信息,有位置信息,以及AP地址信息,将采集的数据进行处理,当用户持手机在场景中移动时,获取实时的信息,然后通过神经网络进行数据匹配,从而获取人员的位置信息。可以实时的获取位置坐标,比如间隔0.5s上传一次位置。将位置坐标转换到模型坐标系中,方便后续的三维模型中位置的定位,以及轨迹的绘制。
步骤2.室内定位模块将所得用户位置信息转换成三维坐标并上传:将获取的三维位置坐标和人员相应的ID上传至服务器。其中,三维位置信息包括从GPS中获取的经度、纬度以及海拔高度。三维位置信息分为两种:一种是GCJ-02坐标(例如谷歌地图API,高德地图API,腾讯地图API所提供的坐标);另一种是GCJ-02经过偏移算法所得到的坐标(例如百度API,搜狗API所提供的坐标)。人员ID可以是系统区分不同人员的key,不同ID的人对应其相应的位置信息。通过定义一种数据结构实现包括所有的信息,重点是三维位置信息,如图9所示。
定位追踪模块将用户的位置信息经过数学建模和三维模型的坐标统一:
定义两个坐标系:A坐标系为用户室内位置的三维坐标系,B为室内地图上的坐标系;通过变换矩阵,将A坐标系下的位置坐标转换到B坐标系表示,将转换后的位置坐标实时上传至服务器;
步骤3.如图2所示,2D平面图转3D模块对DXF格式的2D平面图进行解析,一个DXF文件有若干个组构成,每个组占两行。第一行为组的代码,第二行为组值,通过查询CAD文档,解析CAD图元信息,将解析所得到的数据进行存储;图6为被解析的2D平面图;
步骤4. 2D平面图转3D模块通过解析2D平面图所得到的数据结合现有的三维图形库生成三维模型;
步骤4.1:如图3所示,采用世界矩阵来完成所构建模型墙的位置,长宽高的缩放,自身的旋转,将模型转换到世界空间;采用观察矩阵将三维模型呈现在观察者视野内,将世界空间内的世界坐标变换到观察空间,从摄像机的角度观察三维模型;在观察空间中,所有坐标落在一个特定的范围内,采用裁剪矩阵,将特定范围外的点裁剪掉;如图4所示,采用投影矩阵将指定的范围的坐标变换为标准化设备坐标的范围(-1.0,1.0);解析顶点的数据主要是通过顶点着器实现的,然后通过光栅化实现顶点属性的插值,然后通过片元着色器实现最后的合并输出。其中还涉及到深度测试,和混合操作(实现透明效果)。
当所有顶点被变换到裁剪空间,执行透视除法:
最终的坐标会被映射到投影空间中,并被变换成片段,全部变换矩阵相乘就得到最终屏幕三维效果:
Vclip=Mprojection·Mview·Mmodel·Vlocal
如图7所示;
步骤4.2:由于三维场景中渲染的围墙,都属于立方体,仅仅是位置,旋转和缩放不同,而一个4×4矩阵可以决定这三个因素,采用实例化方法,把所有不同变换的4×4矩阵存储到一个Mat4 VECTOR中,然后将VECTOR传入到着色器其中,执行一次渲染操作,完成对三维场景中围墙的渲染;
步骤4.3:楼层边界的获取,CAD图中其所有楼层都是绘制在一个x,y坐标系中,根据解析的数据无法直接区分不同楼层,该系统采用深度搜索或者广度搜索遍历所有的边数据,将所有LINE的X和Y坐标排序,初始化分解线为最小的Y值,然后遍历所有直线坐标,当发现两点没有联通时,证明该两点之间就是不同楼层的分界线;获取不同楼层分界线,根据楼层的分界线实现不同楼层的叠加;
步骤4.4:场景相机的设置,从不同角度观看三维模型,需要在场景中添加一个相机实现不同角度的切换;场景中摄像机方向如式所示:
cameraDirection=cameraPos-cameraTaget
同时需要一个右向量,它代表摄像机空间的x轴方向,可以通过先定义上向量,然后把上向量和方向向量叉乘,从而得到右向量,如式所示:
cameraRight=up×cameraDirection
最后根据右向量和方向向量来确定上向量,如式所示:
cameraUp=cameraRight×cameraDirection
最后通过设置识别鼠标和键盘操作的上下文来通过鼠标滚轮和键盘上的上下左右键控制的场景相机的移动;
步骤5:将步骤2所得用户位置的三维坐标带入三维模型中:实时更新地图显示信息,将用户位置实时显示在设备地图上;
步骤6:如图5所示,将位置坐标点渲染在三维模型中,通过系统显示模块实现轨迹的显示:如图8所示;
为初始化的建筑模型,贴上相应的纹理,通过顶点着色器、片元着色器实现光照效果,从而进行一些简单的渲染;
步骤6.1:在三维模型中添加一个天空盒,增加视觉效果;天空盒是通过立方体贴图实现的,包含6个2D纹理的立方纹理,立方体的中心位于原点,使用立方体的实际位置向量来对立方体贴图进行采样,然后再设置纹理的过滤方式:线性过滤,环绕方式GL_CLAMP_TO_EDGE:纹理坐标会被约束在0到1之间,超出的部分会重复纹理坐标的边缘,产生一种边缘被拉伸的效果;
步骤6.2:光照渲染,在场景中添加了平行光源,环境的光照由环境光,漫反射光照和镜面反射光照三部分组成,漫反射光照的实现是通过入射光与法线之间夹角的大小来判断的,如式所示:
I=|lightDirection|*|Normal|*cosθ
其中lightDirection和Normal都是单位向量,所以强度的大小取决于θ;
镜面反射的大小是由H向量和法向量Normal之间夹角的大小而决定的,如式所示:
Spec=power(max(0,dot(N,H)),shininess)
光照方向向量与视角向量的半向量化得到H向量,如式所示:
H=normalize(lightDirection+ViewDirction)。
Claims (1)
1.一种基于CAD图生成三维模型的室内定位系统,其特征在于,包括:室内定位模块,定位追踪模块,系统显示模块,2D平面图转3D模块;
室内定位模块:在室内区域设置采样点,划分室内区域网格,通过wifi接收采样点所包含的信息,同时将所得采样点信息进行处理储存;当用户持手机在场景中移动时,通过wifi获取用户实时信息,通过神经网络将用户实时信息与采样点信息进行数据匹配,获取用户的位置信息,并将过的位置信息与用户相应的ID上传至服务器;
定位追踪模块:从服务器上获取用户的位置信息与ID,将用户的位置信息通过数学建模和三维模型的坐标系统统一起来,将统一后的坐标带入三维模型中,通过实时获取用户位置信息,得到用户在三维模型中的运动轨迹,再对用户的运动轨迹进行平滑处理和储存,通过系统显示模块进行显示;
系统显示模块:对用户轨迹进行实施显示及回放,同时对三维模型进行控制,对三维模型的视角进行切换;
2D平面图转3D模块:解析AutoCAD提供的2D平面图,生成三维模型,并传送至系统显示模块,对模型进行显示;
采用上述基于CAD图生成三维模型的室内定位系统进行室内定位的方法,包括以下步骤:
步骤1.室内定位模块通过wifi定位技术获取室内人员的位置信息:
采用RSSI定位方法,在室内区域设置采样点,并通过离线训练划分室内区域网格,再通过wifi接收采样点所包含的信息,同时将所得采样点信息进行处理储存;当用户持手机在场景中移动时,通过wifi获取用户实时信息,通过神经网络将用户实时信息与采样点信息进行数据匹配,获取用户的位置信息,并为用户赋予一个ID;
步骤2.室内定位模块将所得用户位置信息转换成三维坐标并上传:定位追踪模块将用户的位置信息经过数学建模和三维模型的坐标统一:
定义两个坐标系:A坐标系为用户室内位置的三维坐标系,B为室内地图上的坐标系;通过变换矩阵,将A坐标系下的位置坐标转换到B坐标系表示,将转换后的位置坐标实时上传至服务器;
步骤3.2D平面图转3D模块对DXF格式的2D平面图进行解析,通过查询CAD文档,解析CAD图元信息,将解析所得到的数据进行存储;
步骤4.2D平面图转3D模块通过解析2D平面图所得到的数据结合现有的三维图形库生成三维模型;
步骤4.1:采用世界矩阵来完成所构建模型墙的位置,长宽高的缩放,自身的旋转,将模型转换到世界空间;采用观察矩阵将三维模型呈现在观察者视野内,将世界空间内的世界坐标变换到观察空间,从摄像机的角度观察三维模型;在观察空间中,所有坐标落在一个特定的范围内,采用裁剪矩阵,将特定范围外的点裁剪掉;采用投影矩阵将指定的范围的坐标变换为标准化设备坐标的范围(-1.0,1.0);
当所有顶点被变换到裁剪空间,执行透视除法:
最终的坐标会被映射到投影空间中,并被变换成片段,全部变换矩阵相乘就得到最终屏幕三维效果:
Vclip=Mprojection·Mview·Mmodel·Vlocal
步骤4.2:采用实例化方法,把所有不同变换的4×4矩阵存储到一个Mat4VECTOR中,然后将VECTOR传入到着色器其中,执行一次渲染操作,完成对三维场景中围墙的渲染;
步骤4.3:楼层边界的获取,CAD图中其所有楼层都是绘制在一个xy坐标系中,根据解析的数据无法直接区分不同楼层,该系统采用深度搜索或者广度搜索遍历所有的边数据,将所有LINE的X和Y坐标排序,初始化分解线为最小的Y值,然后遍历所有直线坐标,当发现两点没有联通时,证明该两点之间就是不同楼层的分界线;获取不同楼层分界线,根据楼层的分界线实现不同楼层的叠加;
步骤4.4:场景相机的设置,从不同角度观看三维模型,需要在场景中添加一个相机实现不同角度的切换;场景中摄像机方向如式所示:
cameraDirection=cameraPos-cameraTaget
同时需要一个右向量,它代表摄像机空间的x轴方向,可以通过先定义上向量,然后把上向量和方向向量叉乘,从而得到右向量,如式所示:
cameraRight=up×cameraDirection
最后根据右向量和方向向量来确定上向量,如式所示:
cameraUp=cameraRight×cameraDirection
最后通过设置识别鼠标和键盘操作的上下文来通过鼠标滚轮和键盘上的上下左右键控制的场景相机的移动;
步骤5:将步骤2所得用户位置的三维坐标带入三维模型中:实时更新地图显示信息,将用户位置实时显示在设备地图上;
步骤6:将位置坐标点渲染在三维模型中,通过系统显示模块实现轨迹的显示:
为初始化的建筑模型,贴上相应的纹理,通过顶点着色器、片元着色器实现光照效果,从而进行一些简单的渲染;
步骤6.1:在三维模型中添加一个天空盒,增加视觉效果;天空盒是通过立方体贴图实现的,包含6个2D纹理的立方纹理,立方体的中心位于原点,使用立方体的实际位置向量来对立方体贴图进行采样,然后再设置纹理的过滤方式:线性过滤,环绕方式GL_CLAMP_TO_EDGE:纹理坐标会被约束在0到1之间,超出的部分会重复纹理坐标的边缘,产生一种边缘被拉伸的效果;
步骤6.2:光照渲染,在场景中添加了平行光源,环境的光照由环境光,漫反射光照和镜面反射光照三部分组成,漫反射光照的实现是通过入射光与法线之间夹角的大小来判断的,如式所示:
I=|lightDirection|*|Normal|*cosθ
其中lightDirection和Normal都是单位向量,所以强度的大小取决于θ;
镜面反射的大小是由H向量和法向量Normal之间夹角的大小而决定的,如式所示:
Spec=power(max(0,dot(N,H)),shininess)
光照方向向量与视角向量的半向量化得到H向量,如式所示:
H=normalize(lightDirection+ViewDirction)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811239359.9A CN109360262B (zh) | 2018-10-23 | 2018-10-23 | 基于cad图生成三维模型的室内定位系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811239359.9A CN109360262B (zh) | 2018-10-23 | 2018-10-23 | 基于cad图生成三维模型的室内定位系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109360262A CN109360262A (zh) | 2019-02-19 |
CN109360262B true CN109360262B (zh) | 2023-02-24 |
Family
ID=65346328
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811239359.9A Active CN109360262B (zh) | 2018-10-23 | 2018-10-23 | 基于cad图生成三维模型的室内定位系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109360262B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110737742A (zh) * | 2019-10-10 | 2020-01-31 | 深圳市荣盛智能装备有限公司 | 一种地图平台建模与人员轨迹显示的方法和系统 |
CN110738596B (zh) * | 2019-10-10 | 2020-06-16 | 成都考拉悠然科技有限公司 | 一种将cad工程图元素导入三维地图的方法 |
CN111028336B (zh) * | 2019-11-30 | 2021-04-23 | 北京城市网邻信息技术有限公司 | 场景切换方法及装置、存储介质 |
CN111159800B (zh) * | 2019-12-13 | 2023-02-17 | 佛山欧神诺云商科技有限公司 | 一种基于cad文件自动生成3d模型的方法及装置 |
CN111932655B (zh) * | 2020-07-28 | 2023-04-25 | 中铁第六勘察设计院集团有限公司 | 基于AutoCAD构建铁路线路信息模型的自动处理方法 |
CN112288873B (zh) * | 2020-11-19 | 2024-04-09 | 网易(杭州)网络有限公司 | 渲染方法和装置、计算机可读存储介质、电子设备 |
CN112506347B (zh) * | 2020-12-10 | 2024-06-11 | 中国科学院沈阳计算技术研究所有限公司 | 面向加工过程监控的混合现实交互方法 |
CN113679147B (zh) * | 2021-08-31 | 2022-05-24 | 浙江星链数据科技有限公司 | 一种定制鞋履的方法 |
CN113538686B (zh) * | 2021-09-15 | 2021-12-17 | 深圳市华付信息技术有限公司 | 区域建筑物3d建模方法、装置、设备及存储介质 |
CN114353795A (zh) * | 2021-12-06 | 2022-04-15 | 中南设计集团(武汉)工程技术研究院有限公司 | 一种基于uwb设备的室内三维定位系统与方法 |
CN114501320A (zh) * | 2021-12-29 | 2022-05-13 | 浙江百应科技有限公司 | 一种设备管控方法、装置以及系统 |
CN117876642B (zh) * | 2024-03-08 | 2024-06-11 | 杭州海康威视系统技术有限公司 | 数字模型的构建方法、计算机程序产品及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103702338A (zh) * | 2013-12-24 | 2014-04-02 | 山东润谱通信工程有限公司 | 一种快速建立室内无线信号指纹数据库的方法 |
CN106485785A (zh) * | 2016-09-30 | 2017-03-08 | 李娜 | 一种基于室内三维建模和定位的场景生成方法及系统 |
CN108062786A (zh) * | 2016-11-08 | 2018-05-22 | 台湾国际物业管理顾问有限公司 | 以三维信息模型为基础的综合感知定位技术应用系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9164975B2 (en) * | 2008-06-24 | 2015-10-20 | Monmouth University | System and method for viewing and marking maps |
US9317962B2 (en) * | 2013-08-16 | 2016-04-19 | Indoor Technologies Ltd | 3D space content visualization system |
US10928202B2 (en) * | 2016-12-30 | 2021-02-23 | Geo-Comm Inc. | System and methods for three-dimensional volumetric indoor location geocoding |
-
2018
- 2018-10-23 CN CN201811239359.9A patent/CN109360262B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103702338A (zh) * | 2013-12-24 | 2014-04-02 | 山东润谱通信工程有限公司 | 一种快速建立室内无线信号指纹数据库的方法 |
CN106485785A (zh) * | 2016-09-30 | 2017-03-08 | 李娜 | 一种基于室内三维建模和定位的场景生成方法及系统 |
CN108062786A (zh) * | 2016-11-08 | 2018-05-22 | 台湾国际物业管理顾问有限公司 | 以三维信息模型为基础的综合感知定位技术应用系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109360262A (zh) | 2019-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109360262B (zh) | 基于cad图生成三维模型的室内定位系统及方法 | |
CN108648269B (zh) | 三维建筑物模型的单体化方法和系统 | |
CN111723902A (zh) | 使用神经网络动态估计增强现实场景中位置的照明参数 | |
CN108140254A (zh) | 从地图数据中生成3d模型 | |
CN108140260A (zh) | 来自地图数据的3d模型生成以及用户界面 | |
CN109242966B (zh) | 一种基于激光点云数据的3d全景模型建模方法 | |
EP3533218B1 (en) | Simulating depth of field | |
Poullis et al. | Photorealistic large-scale urban city model reconstruction | |
JP6863596B2 (ja) | データ処理装置及びデータ処理方法 | |
US20220375152A1 (en) | Method for Efficiently Computing and Specifying Level Sets for Use in Computer Simulations, Computer Graphics and Other Purposes | |
Tschirschwitz et al. | Virtualising an Ottoman Fortress–Laser scanning and 3D modelling for the development of an interactive, immersive virtual reality application | |
KR20210054408A (ko) | Gis를 이용한 모델링 장치 및 방법 | |
Luan et al. | Research and development of 3D modeling | |
Buyukdemircioglu et al. | Development of a smart city concept in virtual reality environment | |
Virtanen et al. | Browser based 3D for the built environment | |
JP2023021469A (ja) | 測位方法、測位装置、ビジュアルマップの生成方法およびその装置 | |
Fernández-Palacios et al. | Augmented reality for archaeological finds | |
Ragia et al. | Precise photorealistic visualization for restoration of historic buildings based on tacheometry data | |
Zhu et al. | Synthesizing 360-degree live streaming for an erased background to study renovation using mixed reality | |
Koutsoudis et al. | A versatile workflow for 3D reconstructions and modelling of cultural heritage sites based on open source software | |
Cappellini et al. | A procedural solution to model roman masonry structures | |
Fukuda et al. | Availability of mobile augmented reality system for urban landscape simulation | |
Miyake et al. | Outdoor augmented reality using optical see-through HMD system for visualizing building information | |
Trapp et al. | Communication of digital cultural heritage in public spaces by the example of roman cologne | |
CN118071955B (zh) | 一种基于Three.JS实现三维地图埋点方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |