CN109840943B - 三维可视化分析方法及系统 - Google Patents

三维可视化分析方法及系统 Download PDF

Info

Publication number
CN109840943B
CN109840943B CN201910077596.8A CN201910077596A CN109840943B CN 109840943 B CN109840943 B CN 109840943B CN 201910077596 A CN201910077596 A CN 201910077596A CN 109840943 B CN109840943 B CN 109840943B
Authority
CN
China
Prior art keywords
sight
coordinates
point
participants
collision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910077596.8A
Other languages
English (en)
Other versions
CN109840943A (zh
Inventor
苑思楠
张寒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201910077596.8A priority Critical patent/CN109840943B/zh
Publication of CN109840943A publication Critical patent/CN109840943A/zh
Application granted granted Critical
Publication of CN109840943B publication Critical patent/CN109840943B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明提供了一种三维可视化分析方法及系统,其中,所述方法包括:实时接收眼动捕捉装置发送的每个参测者在虚拟现实环境中的三维的视线点坐标;对全部参测者的视线点三维空间坐标进行可视化分析。本发明缓解了现有技术中存在的无法对空间认知产生影响的三维空间要素及视线点的三维空间位置进行三维空间定位的技术问题,达到了能够在三维空间中定位并标识出对空间认知产生影响的空间要素及视线点的三维空间位置的技术效果;缓解了现有技术中存在的无法对空间认知实验数据进行视线、视距以及群体性叠加分析,达到了能够在三维基础模型中进行空间认知实验数据的视线、视距以及群体性叠加分析的技术效果。

Description

三维可视化分析方法及系统
技术领域
本发明涉及空间认知技术领域,尤其是涉及一种三维可视化分析方法及系统。
背景技术
建筑与城市空间环境质量与价值,是由人的空间认知与使用体验所决定的。如何通过技术手段分析人的认知机制和使用方式是空间认知研究中的主要问题之一。传统研究方法存在三方面困难,首先真实建筑与城市研究样本分布于全世界,且环境复杂,难以实施理想的实验研究;其次不可能针对未建成建筑与城市开展测试评价;此外招募大量被测人群具有一定难度。虚拟现实技术的快速发展,使得大型建筑与城市空间环境可以在虚拟现实环境中进行搭建,并在实验室中进行解析实验。
但目前空间认知相关的虚拟现实实验平台存在以下问题:
(1)对人的视点捕捉及分析处于二维层面:在虚拟现实实验中利用眼动仪眼动捕捉装置进行眼动及视点捕捉技术已经相对完善,但对于视点坐标的提取及视点的热度分析,仅能提供二维的视点数据及二维的视点热度分析。很难在三维空间中对视点进行捕捉及视点分布进行分析,因此,无法准确的显示出对空间认知产生影响的空间要素及视线点的空间位置。
(2)沉浸式虚拟现实环境晕动症明显:现阶段沉浸式虚拟现实实验多采用头戴显示器和操控手柄控制,在实验过程中,参测者虽然在视觉上感受到了运动,但是实际上身体并没有运动,在前庭系统与视觉系统的协同作用下,参测者在虚拟现实环境中移动时,常会伴有眩晕和恶心等反应,会对认知实验产生一定的影响。
(3)虚拟现实的认知实验模型真实性差:以往对于空间认知的虚拟现实实验都是搭建简易的三维模型,表面材质采用贴图或无材质。与真实环境相差较大,导致实验的结果可能存在一定的差异性。
发明内容
(一)要解决的技术问题
鉴于上述技术问题,本发明的目的在于提供一种三维可视化分析方法及系统,缓解现有技术中存在的无法准确的在三维环境中显示出对空间认知产生影响的空间要素及视线点的三维空间位置的技术问题。
(二)技术方案
根据本发明的一个方面,提供了一种三维可视化分析方法,包括:
实时接收眼动捕捉装置发送的每个参测者在虚拟现实环境中的三维的视线点坐标;以及
对全部参测者的所述视线点坐标进行三维可视化分析。
在一些实施例中,在对全部参测者的所述视线点坐标进行三维可视化分析之前,还包括:
实时接收每个参测者在所述虚拟现实环境中的位置坐标和参测者头部轴线方向信息,以所述位置坐标为原点,向所述头部轴线方向的正前方发出射线,若射线与所述虚拟现实环境中的任意刚体发生碰撞,则获取三维的头部轴线方向射线碰撞点坐标。
在一些实施例中,所述对全部参测者的所述视线点坐标进行三维可视化分析,包括:
将全部参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到视线点分布密度可视化分析模型;
将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到碰撞点分布密度可视化分析模型;
对比所述视线点分布密度可视化分析模型和所述碰撞点分布密度可视化分析模型,确定参测者在空间中的视线点与所述碰撞点间的相关性和差异性。
在一些实施例中,所述将全部参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到视线点分布密度可视化分析模型,包括:
将全部参测者的所述视线点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述视线点坐标和所述位置坐标还原到所述基础模型上;
将所述基础模型根据视线点的分布密度划分为多个分布区域,每个所述分布区域分别设置一个与其对应的视线点分布密度等级;
计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的视线点坐标之间的距离;
统计与每个所述位置坐标密度等级对应的分布区域内的所述视距,确定与每个所述位置坐标密度等级对应的最远视线点视距、最近视线点视距和所述分布区域内全部视距的数据数量。
在一些实施例中,所述将全部参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到视线点分布密度可视化分析模型,包括:
将全部参测者的所述视线点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述视线点坐标和所述位置坐标还原到所述基础模型上;
计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的视线点坐标之间的距离;
统计所述基础模型中的全部所述视距,确定全视线点最长视距、全视线点最短视距和全视线点视距数量。
在一些实施例中,所述将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到碰撞点分布密度可视化分析模型,包括:
将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述碰撞点坐标和所述位置坐标还原到所述基础模型上;
将所述基础模型根据碰撞点的分布密度划分为多个分布区域,每个所述分布区域分别设置一个与其对应的碰撞点分布密度等级;
计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的碰撞点坐标之间的距离;
统计与每个所述位置坐标密度等级对应的分布区域内的所述视距,确定与每个所述位置坐标密度等级对应的碰撞点最长视距、碰撞点最短视距和所述分布区域内碰撞点视距数量。
在一些实施例中,所述将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到所述碰撞点分布密度可视化分析模型,包括:
将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述碰撞点坐标和所述位置坐标还原到所述基础模型上;
计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的碰撞点坐标之间的距离;
统计所述基础模型中的全部所述视距,确定全碰撞点最长视距、全碰撞点最短视距和全碰撞点视距数量。
在一些实施例中,所述对全部参测者的所述视线点坐标进行三维可视化分析,包括:
将每个参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到每个参测者在所述虚拟现实环境中的运动轨迹和与所述运动轨迹对应的视线点分布模型;
将每个参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到每个参测者在所述虚拟现实环境中的所述运动轨迹和与所述运动轨迹对应的碰撞点分布模型;
将每个参测者的所述视线点坐标、所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到每个参测者在所述虚拟现实环境中的所述运动轨迹、与所述运动轨迹对应的视线点分布和碰撞点分布模型;
将全部参测者的所述位置坐标输入所述基础模型中,得到全部参测者在所述虚拟现实环境中的运动轨迹密度分布模型。
在一些实施例中,在实时接收眼动捕捉装置发送的每个参测者在虚拟现实环境中的三维的视线点坐标之前,还包括:
获取待认知空间的基础信息和影像数据;
根据所述基础信息生成所述待认知空间的点云模型;
根据所述影像数据和所述点云模型生成所述基础模型;
将所述基础模型导入Unity3D平台,生成所述虚拟现实环境。
根据本发明的另一个方面,提供了一种三维可视化分析系统,包括:追踪器、万向移动平台、头戴显示器、空间定位仪、图形工作站和眼动捕捉装置;
所述图形工作站和所述头戴显示器连接,用于传输虚拟现实环境的影像给所述头戴显示器,根据接收到的所述万向移动平台和所述追踪器发送的双脚相对位置信息生成参测者在所述虚拟现实环境中的移动方向和移动速度,根据所述移动方向和所述移动速度更新传输给所述头戴显示器的影像,接收所述空间定位仪发送的每个参测者在所述虚拟现实环境中的位置坐标和参测者头部轴线方向,根据所述头部轴线方向确定头部轴线方向射线碰撞点坐标,接收所述眼动捕捉装置发送的每个参测者在所述虚拟现实环境中的三维的视线点坐标,对全部参测者的所述视线点坐标、所述碰撞点坐标和所述位置坐标进行可视化分析;
所述头戴显示器用于显示所述图形工作站传输的影像;
所述眼动捕捉装置集成在所述头戴显示器中,所述眼动捕捉装置和所述图形工作站连接,用于将获取的参测者在所述虚拟现实环境中的三维的所述视线点坐标发送给所述图形工作站;
所述万向移动平台和所述追踪器均与所述图形工作站连接,用于将获取的参测者的双脚相对位置信息发送给所述图形工作站;
所述空间定位仪和所述图形工作站连接,用于获取头戴显示器位置信息,根据所述头戴显示器位置信息生成参测者在所述虚拟现实环境中的所述位置坐标和所述头部轴线方向,将所述位置坐标和所述头部轴线方向发送给所述图形工作站。
(三)有益效果
从上述技术方案可以看出,本发明提供的三维可视化分析方法及系统具有以下有益效果:
(1)本发明中,图形工作站实时接收眼动捕捉装置发送的每个参测者在虚拟现实环境中的三维的视线点坐标;对全部参测者的所述视线点坐标进行三维可视化分析,在空间认知的研究中,相比于二维的可视化分析,三维的可视化分析更能准确的显示出对空间认知产生影响的空要间素及视线点的三维空间位置,提高了分析精度,因此,可以缓解现有技术中存在的无法准确的显示出对空间认知产生影响的空间要素及视线点的空间位置的技术问题,达到了能够精确的显示出对空间认知产生影响的空间要素及视线点的空间位置的技术效果;
(2)本发明中,可以根据实验需要划分位置坐标密度等级,然后根据位置坐标密度等级将基础模型划分为多个分布区域,统计与每个位置坐标密度等级对应的分布区域内的视距,所以,可以满足更多的实验需求,使得分析过程更加灵活;
(3)本发明中,不仅同时对全部参测者的视线点坐标、碰撞点坐标和位置坐标进行了整体的可视化分析,而且,依次对每个参测者的视线点坐标、碰撞点坐标和位置坐标进行了个人数据的可视化分析,所以,能够使得分析结果更加全面、准确;
(4)本发明中,三维可视化分析系统包括:头戴显示器和万向移动平台,在实验过程中,参测者不仅在视觉上感受到了运动,而且在万向移动平台上也在进行真实的运动(例如:近乎自然的步行),所以,参测者的前庭系统和视觉系统可以正常协同工作,减弱晕动症等反应对实验结果造成的偏差,使得实验结果更加准确;
(5)本发明中,获取待认知空间的基础信息和影像资料;根据基础信息生成待认知空间的点云模型;根据影像资料和点云模型生成基础模型;将基础模型导入Unity3D平台,生成虚拟现实环境,基础信息是现场实地测绘得到的,影像资料是现场实地调研得到的,而且,虚拟现实环境中的材质和纹理采用了真实场景影像(影像资料)制作的高清贴图,所以,能够更加真实的在虚拟现实环境中还原真实场景。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的三维可视化分析方法的流程图。
图2为本发明实施例提供的将全部参测者的视线点坐标和位置坐标还原到基础模型上的示意图。
图3为本发明实施例参测者运动轨迹及视点和视线变化示意图。
图4为本发明实施例提供的三维可视化分析系统的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的一种三维可视化分析方法及系统,可以缓解现有技术中存在的无法准确的显示出对空间认知产生影响的空间要素及视线点的三维空间位置的技术问题,达到了能够准确的显示出对空间认知产生影响的空间要素及准确的显示视线点的三维空间位置的技术效果。
为便于对本实施例进行理解,首先对本发明实施例三维可视化分析方法进行详细介绍,方法应用于图形工作站,请结合图1-3所示,三维可视化分析方法可以包括以下步骤。
步骤S101:实时接收眼动捕捉装置发送的每个参测者在虚拟现实环境中的三维的视线点坐标。
(1)在进行步骤S101之前,三维可视化分析方法还可以包括以下步骤:
获取待认知空间的基础信息和影像数据。
示例性的,所述待认知空间可以为建筑环境空间。优选的,所述待认知空间可以为传统村落。
具体的,可以利用无人机对待认知空间进行航拍扫描,采集待认知空间的基础信息和影像数据。
根据所述基础信息生成所述待认知空间的点云模型。
具体的,可以将所述基础信息输入到Photoscan软件中,生成所述点云模型。
根据所述影像数据和所述点云模型生成所述基础模型。
具体的,可以将所述影像数据和所述点云模型输入到基础建模软件中,得到建筑模型和地景模型;将所述影像数据中的材质图片制作成所述建筑模型和所述地景模型的纹理贴图,得到所述基础模型。示例性的,所述基础建模软件可以为Sketchup,或者为Rhino。
将所述基础模型导入Unity3D平台,生成所述虚拟现实环境。
其中,还可以调控所述虚拟现实环境中的自然场景(例如:水和树木等),使得生成的所述虚拟现实环境更加真实。
(2)在进行步骤S101之后,三维可视化分析方法还可以包括:实时接收每个参测者在所述虚拟现实环境中的位置坐标和头部轴线方向信息,以所述位置坐标为原点,向所述头部轴线方向的正前方发出射线,若射线与所述虚拟现实环境中的任意刚体发生碰撞,则获取三维的头部轴线方向射线碰撞点坐标。
其中,与图形工作站连接的空间定位仪可以将每个参测者在所述虚拟现实环境中的位置坐标和头部轴线方向发送给图形工作站。所述位置坐标可以是三维的,所述头部轴线方向可以为参测者的头戴显示器的正前方的方向。
进一步的,若射线未与所述虚拟现实环境中的任意刚体发生碰撞,则输出“f”。
步骤S102:对全部参测者的所述视线点坐标进行三维可视化分析。
其中,步骤S102可以包括以下步骤:
(1)将全部参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到视线点分布密度可视化分析模型。
其中,所述将全部参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到视线点可视化分析数据,可以包括以下步骤:
如图2所示,将全部参测者的所述视线点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述视线点坐标和所述位置坐标还原到所述基础模型上。
将所述基础模型根据视线点的分布密度划分为多个分布区域,每个所述分布区域分别设置一个与其对应的视线点分布密度等级;
其中,位置坐标密度等级可以根据实验需求进行划分。每个位置坐标密度等级可以对应多个分布区域。在实际应用中,可以利用不同的颜色标注不同的位置坐标密度等级对应的分布区域中的位置坐标点。以具有3个位置坐标密度等级为例进行说明。3个位置坐标密度等级可以分别为:高位置坐标密度等级、中位置坐标密度等级和低位置坐标密度等级,那么在实际应用中,可以用红色标注高位置坐标密度等级对应的分布区域中的位置坐标点,可以用绿色标注中位置坐标密度等级对应的分布区域中的位置坐标点,可以用蓝色标注低位置坐标密度等级对应的分布区域中的位置坐标点。
计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的视线点坐标之间的距离。
示例性的,可以利用两点间距离公式计算每个位置坐标的视距,两点间距离公式可以为:
Figure BDA0001957509100000091
在两点间距离公式中,(x1,y1,z1)为位置坐标,(x2,y2,z2)为与位置坐标(x1,y1,z1)对应的视线点坐标,d为位置坐标(x1,y1,z1)的视距。
统计与每个所述位置坐标密度等级对应的分布区域内的所述视距,确定与每个所述位置坐标密度等级对应的最远视线点视距、最近视线点视距和所述分布区域内全部视距的数据数量
(2)将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到碰撞点分布密度可视化分析模型。
其中,所述将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到碰撞点可视化分析数据,可以包括以下步骤:
将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述碰撞点坐标和所述位置坐标还原到所述基础模型上。
将所述基础模型根据碰撞点的分布密度划分为多个分布区域,每个所述分布区域分别设置一个与其对应的碰撞点分布密度等级;
其中,位置坐标密度等级的划分标准与确定视线点可视化分析数据过程中使用的标准是一致的。因为后面要作对比分析,所以位置坐标密度等级的划分标准是一致的。
计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的碰撞点坐标之间的距离。
示例性的,可以利用两点间距离公式计算每个位置坐标的视距,两点间距离公式可以为:
Figure BDA0001957509100000101
在两点间距离公式中,(x1,y1,z1)为位置坐标,(x2,y2,z2)为与位置坐标(x1,y1,z1)对应的碰撞点坐标,d为位置坐标(x1,y1,z1)的视距。
统计与每个所述位置坐标密度等级对应的分布区域内的所述视距,确定与每个所述位置坐标密度等级对应的碰撞点最长视距、碰撞点最短视距和所述分布区域内碰撞点视距数量。
(3)对比所述视线点可视化分析数据和所述碰撞点可视化分析数据,确定参测者在空间中的视线点与碰撞点间的相关性和差异性。
本发明实施例中,首先确定与每个位置坐标密度等级对应的视线点最长视距、视线点最短视距和视线点视距数量,及确定与每个位置坐标密度等级对应的碰撞点最长视距、碰撞点最短视距和碰撞点视距数量,然后,根据这些视距数据确定参测者在每个位置坐标密度等级条件下的视线点与碰撞点间的相关性和差异性。
在本发明的又一实施例中,步骤S102可以包括以下步骤:
(1)将全部参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到视线点分布密度可视化分析模型。
其中,所述将全部参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到视线点分布密度可视化分析模型,可以包括以下步骤:
将全部参测者的所述视线点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述视线点坐标和所述位置坐标还原到所述基础模型上。
计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的视线点坐标之间的距离。
统计所述基础模型中的全部所述视距,确定全视线点最长视距、全视线点最短视距和全视线点视距数量。
(2)将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到碰撞点分布密度可视化分析模型。
其中,所述将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到碰撞点分布密度可视化分析模型,可以包括以下步骤:
将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述碰撞点坐标和所述位置坐标还原到所述基础模型上。
计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的碰撞点坐标之间的距离。
统计所述基础模型中的全部所述视距,确定全碰撞点最长视距、全碰撞点最短视距和全碰撞点视距数量。
(3)对比所述视线点可视化分析数据和所述碰撞点可视化分析数据,确定参测者在空间中的视线点与碰撞点间的相关性和差异性。
本发明实施例中,首先确定参测者在整个基础模型中的全视线点最长视距、全视线点最短视距和全视线点视距数量,及确定参测者在整个基础模型中的全碰撞点最长视距、全碰撞点最短视距和全碰撞点视距数量,然后,根据这些视距数据确定参测者在整个基础模型中的视线点与碰撞点间的相关性和差异性。
在本发明的又一实施例中,步骤S102可以包括以下步骤:
将每个参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到每个参测者在所述虚拟现实环境中的运动轨迹和与所述运动轨迹对应的视线点分布模型。
将每个参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到每个参测者在所述虚拟现实环境中的所述运动轨迹和与所述运动轨迹对应的碰撞点分布。
将每个参测者的所述视线点坐标、所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到每个参测者在所述虚拟现实环境中的所述运动轨迹、与所述运动轨迹对应的视线点分布和碰撞点分布模型。
将全部参测者的所述位置坐标输入所述基础模型中,得到全部参测者在所述虚拟现实环境中的运动轨迹密度分布模型。
在又一实施例中,对本发明三维可视化分析系统进行详细介绍,如图4所示,三维可视化分析系统包括:追踪器11、万向移动平台12、头戴显示器13、空间定位仪14、如上述实施例所述的图形工作站15和眼动捕捉装置16。
所述图形工作站15和所述头戴显示器13连接,用于传输虚拟现实环境的影像给所述头戴显示器13,根据接收到的所述万向移动平台12和所述追踪器11发送的双脚相对位置信息生成参测者在所述虚拟现实环境中的移动方向和移动速度,根据所述移动方向和所述移动速度更新传输给所述头戴显示器13的影像,接收所述空间定位仪14发送的每个参测者在所述虚拟现实环境中的位置坐标和头部轴线方向,根据所述头部轴线方向确定碰撞点坐标,接收所述眼动捕捉装置16发送的每个参测者在所述虚拟现实环境中的三维的视线点坐标,对全部参测者的所述视线点坐标、所述碰撞点坐标和所述位置坐标进行可视化分析。
所述头戴显示器13用于显示所述图形工作站15传输的影像。
示例性的,所述头戴显示器13可以为HTC vive,或者为Oculus riff。
所述眼动捕捉装置16集成在所述头戴显示器13中,所述眼动捕捉装置16和所述图形工作站15连接,用于将获取的参测者在所述虚拟现实环境中的三维的所述视线点坐标发送给所述图形工作站15。
所述万向移动平台12和所述追踪器11均与所述图形工作站15连接,用于将获取的参测者的双脚相对位置信息发送给所述图形工作站15。
其中,追踪器11的数量为2个,一个设置在左脚上,一个设置在右脚上。所述万向移动平台12和所述追踪器11共同作用,确定参测者的双脚相对位置信息。优选的,追踪器11和图形工作站15无线连接。万向移动平台12可以实现任意方向的自由运动。
所述空间定位仪14和所述图形工作站15连接,用于获取头戴显示器13位置信息,根据所述头戴显示器13位置信息生成参测者在所述虚拟现实环境中的所述位置坐标和所述头部轴线方向,将所述位置坐标和所述头部轴线方向发送给所述图形工作站15。
其中,空间定位仪14的数量可以为2个,优选的,2个空间定位仪14可以设置在参测者所在房间的顶面的对角线上。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种三维可视化分析方法,其特征在于,包括:
实时接收眼动捕捉装置发送的每个参测者在虚拟现实环境中的三维的视线点坐标;以及
对全部参测者的所述视线点坐标进行三维可视化分析;
在对全部参测者的所述视线点坐标进行三维可视化分析之前,还包括:
实时接收每个参测者在所述虚拟现实环境中的位置坐标和参测者头部轴线方向信息,以所述位置坐标为原点,向所述头部轴线方向的正前方发出射线,若射线与所述虚拟现实环境中的任意刚体发生碰撞,则获取三维的头部轴线方向射线碰撞点坐标;
所述对全部参测者的所述视线点坐标进行三维可视化分析,包括:
将全部参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到视线点分布密度可视化分析模型;
将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到碰撞点分布密度可视化分析模型;
对比所述视线点分布密度可视化分析模型和所述碰撞点分布密度可视化分析模型,确定参测者在空间中的视线点与所述碰撞点间的相关性和差异性。
2.根据权利要求1所述的方法,其特征在于,所述将全部参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到视线点分布密度可视化分析模型,包括:
将全部参测者的所述视线点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述视线点坐标和所述位置坐标还原到所述基础模型上;
将所述基础模型根据视线点的分布密度划分为多个分布区域,每个所述分布区域分别设置一个与其对应的视线点分布密度等级;
计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的视线点坐标之间的距离;
统计与每个所述位置坐标密度等级对应的分布区域内的所述视距,确定与每个所述位置坐标密度等级对应的最远视线点视距、最近视线点视距和所述分布区域内全部视距的数据数量。
3.根据权利要求1所述的方法,其特征在于,所述将全部参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到视线点分布密度可视化分析模型,包括:
将全部参测者的所述视线点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述视线点坐标和所述位置坐标还原到所述基础模型上;
计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的视线点坐标之间的距离;
统计所述基础模型中的全部所述视距,确定全视线点最长视距、全视线点最短视距和全视线点视距数量。
4.根据权利要求1所述的方法,其特征在于,所述将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到碰撞点分布密度可视化分析模型,包括:
将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述碰撞点坐标和所述位置坐标还原到所述基础模型上;
将所述基础模型根据碰撞点的分布密度划分为多个分布区域,每个所述分布区域分别设置一个与其对应的碰撞点分布密度等级;
计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的碰撞点坐标之间的距离;
统计与每个所述位置坐标密度等级对应的分布区域内的所述视距,确定与每个所述位置坐标密度等级对应的碰撞点最长视距、碰撞点最短视距和所述分布区域内碰撞点视距数量。
5.根据权利要求1所述的方法,其特征在于,所述将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到所述碰撞点分布密度可视化分析模型,包括:
将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述碰撞点坐标和所述位置坐标还原到所述基础模型上;
计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的碰撞点坐标之间的距离;
统计所述基础模型中的全部所述视距,确定全碰撞点最长视距、全碰撞点最短视距和全碰撞点视距数量。
6.根据权利要求1所述的方法,其特征在于,所述对全部参测者的所述视线点坐标进行三维可视化分析,包括:
将每个参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到每个参测者在所述虚拟现实环境中的运动轨迹和与所述运动轨迹对应的视线点分布模型;
将每个参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到每个参测者在所述虚拟现实环境中的所述运动轨迹和与所述运动轨迹对应的碰撞点分布模型;
将每个参测者的所述视线点坐标、所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到每个参测者在所述虚拟现实环境中的所述运动轨迹、与所述运动轨迹对应的视线点分布和碰撞点分布模型;
将全部参测者的所述位置坐标输入所述基础模型中,得到全部参测者在所述虚拟现实环境中的运动轨迹密度分布模型。
7.根据权利要求2至6中任一项所述的方法,其特征在于,在实时接收眼动捕捉装置发送的每个参测者在虚拟现实环境中的三维的视线点坐标之前,还包括:
获取待认知空间的基础信息和影像数据;
根据所述基础信息生成所述待认知空间的点云模型;
根据所述影像数据和所述点云模型生成所述基础模型;
将所述基础模型导入Unity3D平台,生成所述虚拟现实环境。
8.一种三维可视化分析系统,其特征在于,包括:追踪器、万向移动平台、头戴显示器、空间定位仪、图形工作站和眼动捕捉装置;
所述图形工作站和所述头戴显示器连接,用于传输虚拟现实环境的影像给所述头戴显示器,根据接收到的所述万向移动平台和所述追踪器发送的双脚相对位置信息生成参测者在所述虚拟现实环境中的移动方向和移动速度,根据所述移动方向和所述移动速度更新传输给所述头戴显示器的影像,接收所述空间定位仪发送的每个参测者在所述虚拟现实环境中的位置坐标和参测者头部轴线方向,根据所述头部轴线方向确定头部轴线方向射线碰撞点坐标,接收所述眼动捕捉装置发送的每个参测者在所述虚拟现实环境中的三维的视线点坐标,对全部参测者的所述视线点坐标、所述碰撞点坐标和所述位置坐标进行可视化分析;
所述头戴显示器用于显示所述图形工作站传输的影像;
所述眼动捕捉装置集成在所述头戴显示器中,所述眼动捕捉装置和所述图形工作站连接,用于将获取的参测者在所述虚拟现实环境中的三维的所述视线点坐标发送给所述图形工作站;
所述万向移动平台和所述追踪器均与所述图形工作站连接,用于将获取的参测者的双脚相对位置信息发送给所述图形工作站;
所述空间定位仪和所述图形工作站连接,用于获取头戴显示器位置信息,根据所述头戴显示器位置信息生成参测者在所述虚拟现实环境中的所述位置坐标和所述头部轴线方向,将所述位置坐标和所述头部轴线方向发送给所述图形工作站。
CN201910077596.8A 2019-01-25 2019-01-25 三维可视化分析方法及系统 Active CN109840943B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910077596.8A CN109840943B (zh) 2019-01-25 2019-01-25 三维可视化分析方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910077596.8A CN109840943B (zh) 2019-01-25 2019-01-25 三维可视化分析方法及系统

Publications (2)

Publication Number Publication Date
CN109840943A CN109840943A (zh) 2019-06-04
CN109840943B true CN109840943B (zh) 2021-06-22

Family

ID=66884232

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910077596.8A Active CN109840943B (zh) 2019-01-25 2019-01-25 三维可视化分析方法及系统

Country Status (1)

Country Link
CN (1) CN109840943B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114494598B (zh) * 2022-01-25 2023-03-21 南京师范大学 一种城市三维可视空间比指标的优化方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104570068A (zh) * 2013-10-11 2015-04-29 中国石油化工股份有限公司 一种基于三维gis的观测系统crp属性分析方法
CN105208909A (zh) * 2013-04-17 2015-12-30 西门子公司 用于立体显示图像数据的方法和装置
CN106663411A (zh) * 2014-11-16 2017-05-10 易欧耐特感知公司 用于增强现实准备、处理和应用的系统和方法
CN108095761A (zh) * 2012-03-07 2018-06-01 齐特奥股份有限公司 空间对准设备、空间对准系统及用于指导医疗过程的方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101668802B1 (ko) * 2014-09-03 2016-11-09 신동윤 원거리 식별 이미지 생성 장치 및 그 동작 방법
CN106814846B (zh) * 2016-10-24 2020-11-10 上海青研科技有限公司 一种vr中基于视线和碰撞体交点的眼动分析方法
CN107247511B (zh) * 2017-05-05 2019-07-16 浙江大学 一种基于虚拟现实中眼动捕捉的跨物体交互方法与装置
CN107194983B (zh) * 2017-05-16 2018-03-09 华中科技大学 一种基于点云与影像数据的三维可视化方法和系统
CN107519622A (zh) * 2017-08-21 2017-12-29 南通大学 基于虚拟现实与眼动追踪的空间认知康复训练系统和方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108095761A (zh) * 2012-03-07 2018-06-01 齐特奥股份有限公司 空间对准设备、空间对准系统及用于指导医疗过程的方法
CN105208909A (zh) * 2013-04-17 2015-12-30 西门子公司 用于立体显示图像数据的方法和装置
CN104570068A (zh) * 2013-10-11 2015-04-29 中国石油化工股份有限公司 一种基于三维gis的观测系统crp属性分析方法
CN106663411A (zh) * 2014-11-16 2017-05-10 易欧耐特感知公司 用于增强现实准备、处理和应用的系统和方法

Also Published As

Publication number Publication date
CN109840943A (zh) 2019-06-04

Similar Documents

Publication Publication Date Title
US11381758B2 (en) System and method for acquiring virtual and augmented reality scenes by a user
US11928838B2 (en) Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display
EP3923248A1 (en) Image processing method and apparatus, electronic device and computer-readable storage medium
KR101229283B1 (ko) 가상 3차원 객체들의 시각화를 위한 방법 및 시스템
JP4065507B2 (ja) 情報提示装置および情報処理方法
Zollmann et al. Flyar: Augmented reality supported micro aerial vehicle navigation
Wither et al. Pictorial depth cues for outdoor augmented reality
US10235806B2 (en) Depth and chroma information based coalescence of real world and virtual world images
US20110109628A1 (en) Method for producing an effect on virtual objects
CN107168534B (zh) 一种基于cave系统的渲染优化方法及投影方法
Gomez-Jauregui et al. Quantitative evaluation of overlaying discrepancies in mobile augmented reality applications for AEC/FM
CN110926334A (zh) 测量方法、装置、电子设备及存储介质
CN108132490A (zh) 基于定位系统和ar/mr的探测系统及探测方法
JP2020052790A (ja) 情報処理装置、情報処理方法、およびプログラム
CN110337674A (zh) 三维重建方法、装置、设备及存储介质
CN105824417B (zh) 一种采用虚拟现实技术的人与物的结合方法
KR20180120456A (ko) 파노라마 영상을 기반으로 가상현실 콘텐츠를 제공하는 장치 및 그 방법
CN109840943B (zh) 三维可视化分析方法及系统
Lages et al. Enhanced geometric techniques for point marking in model-free augmented reality
CN111127661B (zh) 一种数据处理方法、装置及电子设备
US10798360B2 (en) Information processing system, method for controlling same, and program
Suganya et al. Augmented reality-landmark estimation
JP3114862B2 (ja) 相互利用型景観ラベリングシステム
CN208225113U (zh) 一种用于vr设备仿真模拟的数据采集装置
Yang et al. Perceptual issues of a passive haptics feedback based MR system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant